927 resultados para utilizzo dei sensori multispettrali nel monitoraggio degli incendi, sensore ASTER, telerilevamento
Resumo:
Il continuo verificarsi di gravi incidenti nei grandi impianti industriali ha spinto gli Stati membri dell’Unione Europea a dotarsi di una politica comune in materia di prevenzione dei grandi rischi industriali. Anche a seguito della pressione esercitata dall’opinione pubblica sono state implementate, nel corso degli ultimi quarant’anni, misure legislative sempre più efficaci per la prevenzione e la mitigazione dei rischi legati ad attività industriali particolarmente pericolose. A partire dagli ultimi anni dello scorso secolo, l’Unione Europea ha emanato una serie di direttive che obbligano gli Stati membri ad essere garanti della sicurezza per l’uomo e per l’ambiente nelle zone circostanti a stabilimenti a rischio di incidente rilevante. In quest’ottica è stata pubblicata nel 1982 la Direttiva Seveso I [82/501/EEC], che è stata ampliata nel 1996 dalla Direttiva Seveso II [96/82/CE] ed infine emendata nel dicembre 2003 dalla Direttiva Seveso III [2003/105/CE]. Le Direttive Seveso prevedono la realizzazione negli Stati membri di una valutazione dei rischi per gli stabilimenti industriali che sono suscettibili a incendi, esplosioni o rilasci di gas tossici (quali, ad esempio, le industrie chimiche, le raffinerie, i depositi di sostanze pericolose). La Direttiva Seveso II è stata trasposta in legge belga attraverso “l’Accord de Coopération” del 21 giugno 1999. Una legge federale nel giugno del 2001 [M.B. 16/06/2001] mette in vigore “l’Accord de Coopération”, che è stato in seguito emendato e pubblicato il 26 aprile del 2007 [M.B. 26/04/2007]. A livello della Regione Vallona (in Belgio), la tematica del rischio di incidente rilevante è stata inclusa nelle disposizioni decretali del Codice Vallone della Pianificazione Territoriale, dell’Urbanismo e del Patrimonio [CWATUP]. In questo quadro la Regione Vallona ha elaborato in collaborazione con la FPMs (Faculté Polytechnique de Mons) una dettagliata metodologia di analisi del rischio per gli stabilimenti a rischio di incidente rilevante. In Italia la Direttiva Seveso II è stata recepita dal Decreto Legislativo n°334 emanato nell’agosto del 1999 [D. Lgs. 334/99], che ha introdotto per la prima volta nel quadro normativo italiano i concetti fondamentali di “controllo dell’urbanizzazione” e “requisiti minimi di sicurezza per la pianificazione territoriale”. Il Decreto Legislativo 334/99 è attualmente in vigore, modificato ed integrato dal Decreto Legislativo n°238 del 21 settembre 2005 [D. Lgs. 238/05], recepimento italiano della Direttiva Seveso III. Tra i decreti attuativi del Decreto Legislativo 334/99 occorre citare il Decreto Ministeriale n°151 del 2001 [D. M. 151/01] relativo alla pianificazione territoriale nell’intorno degli stabilimenti a rischio di incidente rilevante. L’obiettivo di questo lavoro di tesi, che è stato sviluppato presso la Faculté Polytechnique di Mons, è quello di analizzare la metodologia di quantificazione del rischio adottata nella Regione Vallona, con riferimento alla pianificazione territoriale intorno agli stabilimenti a rischio di incidente rilevante, e di confrontarla con quella applicata in Italia. La metodologia applicata in Vallonia è di tipo “probabilistico” ovvero basata sul rischio quale funzione delle frequenze di accadimento e delle conseguenze degli scenari incidentali. Il metodo utilizzato in Italia è “ibrido”, ovvero considera sia le frequenze che le conseguenze degli scenari incidentali, ma non la loro ricomposizione all’interno di un indice di rischio. In seguito al confronto teorico delle due metodologie, se ne è effettuato anche una comparazione pratica tramite la loro applicazione ad un deposito di GPL. Il confronto ha messo in luce come manchino, nella legislazione italiana relativa agli stabilimenti a rischio di incidente rilevante, indicazioni di dettaglio per la quantificazione del rischio, a differenza di quanto accade nella legislazione belga. Ciò lascia all’analista di rischio italiano una notevole arbitrarietà nell’effettuare ipotesi ed assunzioni che rendono poi difficile la comparazione del rischio di stabilimenti differenti. L’auspicio è che tale lacuna possa essere rapidamente superata.
Resumo:
I materiali zirconiferi, in particolare i silicati di zirconio e l’ossido di zirconio, vengono ampiamente utilizzati in diverse applicazioni industriali: fra queste, l’industria delle piastrelle ceramiche e di produzione dei materiali refrattari ne consuma quantitativi consistenti. Misure di spettrometria gamma condotte su diversi campioni di materiale zirconifero (farine di zirconio e sabbie zirconifere) utilizzati nell’industria ceramica per la produzione del gres porcellanato e delle piastrelle smaltate, hanno messo in evidenza valori di concentrazione di attività superiori a quelli presenti mediamente sulla crosta terrestre (35, 30 Bqkg-1 per il 238U e il 232Th, rispettivamente [Unscear, 2000]). L’aggiunta del materiale zirconifero nella preparazione delle piastrelle ceramiche in particolare di quelle smaltate (in una percentuale in peso pari al 10-20%) del gres porcellanato (in una percentuale in peso di 1-10%) e delle lamine di gres porcellanato “sottile” (in una percentuale in peso dell’ordine del 30%), conferisce al prodotto finale un alto grado di bianco, buone caratteristiche meccaniche ed un elevato effetto opacizzante, ma comporta anche un arricchimento in radionuclidi naturali. L’obiettivo principale di questo lavoro di tesi è stato quello di mettere a punto una metodologia (teorica e sperimentale) per valutare l’incremento di esposizione che possono ricevere un lavoratore standard di una industria ceramica ed una persona del pubblico che soggiorna in un ambiente rivestito con piastrelle. Da un lato, la presenza di radioattività nelle sabbie zirconifere, utilizzate come materie prime per la produzione di piastrelle, porta a considerare il problema dell’incremento di esposizione che può subire un lavoratore impiegato in ambiente di lavoro dove sono stoccati e manipolati consistenti quantitativi di materiale, dall’altro il contenuto di radioattività nel prodotto finito porta a considerare l’esposizione per una persona della popolazione che soggiorna in una stanza rivestita con materiale ceramico. Le numerose misure effettuate, unitamente allo sviluppo dei modelli necessari per valutare le dosi di esposizione per le persone del pubblico e dei lavoratori impiegati nel processo di produzione di piastrelle ceramiche, hanno permesso di mettere a punto una procedura che fornisce le garanzie necessarie per dichiarare accettabili le condizioni di lavoro nelle industrie ceramiche e più in generale il rispetto delle norme radioprotezionistiche per gli occupanti di ambienti rivestiti con piastrelle italiane.
Resumo:
Fino ad un recente passato, le macchine elettriche di tipo trifase costituivano l’unica soluzione in ambito industriale per la realizzazione di azionamenti di grande potenza. Da quando i motori sono gestiti da convertitori elettronici di potenza si è ottenuto un notevole passo in avanti verso l’innovazione tecnologica. Infatti, negli ultimi decenni, le tecnologie sempre più all’avanguardia e l’aumento dell’utilizzo dell’elettronica, sia in campo civile quanto in quello industriale, hanno contribuito a una riduzione dei costi dei relativi componenti; questa situazione ha permesso di utilizzare tecnologie elaborate che in passato avevano costi elevati e quindi risultavano di scarso interesse commerciale. Nel campo delle macchine elettriche tutto questo ha permesso non solo la realizzazione di azionamenti alimentati e controllati tramite inverter, in grado di garantire prestazioni nettamente migliori di quelle ottenute con i precedenti sistemi di controllo, ma anche l’avvento di una nuova tipologia di macchine con un numero di fasi diverso da quello tradizionale trifase, usualmente impiegato nella generazione e distribuzione dell’energia elettrica. Questo fatto ha destato crescente interesse per lo studio di macchine elettriche multifase. Il campo di studio delle macchine multifase è un settore relativamente nuovo ed in grande fermento, ma è già possibile affermare che le suddette macchine sono in grado di fornire prestazioni migliori di quelle trifase. Un motore con un numero di fasi maggiore di tre presenta numerosi vantaggi: 1. la possibilità di poter dividere la potenza su più fasi, riducendo la taglia in corrente degli interruttori statici dell’inverter; 2. la maggiore affidabilità in caso di guasto di una fase; 3. la possibilità di sfruttare le armoniche di campo magnetico al traferro per ottenere migliori prestazioni in termini di coppia elettromagnetica sviluppata (riduzione dell’ampiezza e incremento della frequenza della pulsazione di coppia); 4. l’opportunità di creare azionamenti elettrici multi-motore, collegando più macchine in serie e comandandole con un unico convertitore di potenza; 5. Maggiori e più efficaci possibilità di utilizzo nelle applicazioni Sensorless. Il presente lavoro di tesi, ha come oggetto lo studio e l’implementazione di una innovativa tecnica di controllo di tipo “sensorless”, da applicare in azionamenti ad orientamento di campo per macchine asincrone eptafase. Nel primo capitolo vengono illustrate le caratteristiche e le equazioni rappresentanti il modello della macchina asincrona eptafase. Nel secondo capitolo si mostrano il banco di prova e le caratteristiche dei vari componenti. Nel terzo capitolo sono rappresentate le tecniche di modulazione applicabili per macchine multifase. Nel quarto capitolo vengono illustrati il modello del sistema implementato in ambiente Simulink ed i risultati delle simulazioni eseguite. Nel quinto capitolo viene presentato il Code Composer Studio, il programma necessario al funzionamento del DSP. Nel sesto capitolo, sono presentati e commentati i risultati delle prove sperimentali.
Resumo:
La trattazione inizia con l’analisi del concetto di “servizio” per focalizzarsi quindi sulla categoria dei “servizi pubblici”, nell’evoluzione dell’interpretazione dottrinale, fra concezione soggettiva e oggettiva, e sulle tipologie di servizio, con specifico riguardo a quelli aventi rilevanza nazionale. L’esposizione si suddivide dunque in due sezioni, rispettando la ripartizione del titolo. La prima parte è dedicata all’esame dei “ruoli”, ovvero delle parti coinvolte, a diverso titolo, in un rapporto di pubblico servizio: il “ruolo contrattuale”, rispetto al quale è stata esaminata la posizione dell’erogatore del servizio, da un lato, e dell’utente, dall’altro lato; il “ruolo di controllo”, esercitato dalle autorità amministrative indipendenti (Authorities); infine il “ruolo giurisdizionale”, dedicato alla complessa questione del riparto di giurisdizione in materia di servizi pubblici, fra giudice ordinario e giudice amministrativo, alla luce della nota sentenza della Corte Costituzionale, n. 204/2004. La seconda parte della tesi riguarda, invece, l’analisi dei “modelli contrattuali”, ovvero delle tipologie di contratto che vengono in rilievo in materia di servizi pubblici, astrattamente ascrivibili a tre distinti “gradi”. Il primo grado è rappresentato dal “contratto di servizio”, stipulato fra l’autorità pubblica che affida in gestione il servizio ed il soggetto, pubblico o privato, che se ne fa carico; l’affidamento può avere forma “diretta”, cioè prescindere da una procedura di gara (ipotesi della cd. “gestione diretta in economia” o del cd. “affidamento in house providing”) o “indiretta” (nel qual caso trova applicazione la normativa sugli appalti pubblici e le concessioni). Al secondo grado vi è il “codice di rete”, figura contrattuale che presuppone un la presenza di un servizio “a rete”. Il servizio a rete implica la presenza di una struttura o infrastruttura, concreta o astratta, ed una relazione reciproca fra gli elementi della stessa che convergono in vista della realizzazione di uno scopo e coinvolge tradizionalmente i servizi rispetto ai quali sussiste una situazione di monopolio naturale (trasporti, energia elettrica, gas, telecomunicazioni), caratterizzati dall’inopportunità pratica ed economica di creare una nuova rete. Di conseguenza, la possibilità di erogare il servizio, per gli operatori non titolari della rete, è rimessa alla stipulazione di un contratto (cd. “codice di rete) con il titolare della stessa, avente per oggetto la regolazione dello sfruttamento della rete, dietro pagamento di un corrispettivo economico. Il terzo grado è rappresentato dal “contratto di utenza”, le cui parti sono erogatore del servizio ed utente e la cui analisi è stata necessariamente preceduta dall’analisi del “rapporto di utenza”: quest’ultimo ha subito infatti una radicale trasformazione, nel corso degli ultimi decenni, soprattutto in seguito ai processi di liberalizzazione e privatizzazione che hanno coinvolto il settore de quo e condotto alla ricerca di nuovi strumenti di tutela dell’interesse generale, sotteso ad ogni pubblico servizio, contribuendo a conferire nuovo e preponderante interesse per l’utente, anche attraverso l’introduzione e l’applicazione di normative specifiche (in primis, quella in tema di clausole vessatorie e quella relativa alle azioni a tutela del consumatore-utente, oggi confluite nel codice del consumo). Per l’esame di ciascun argomento si è fatto costante riferimento alla normativa ed agli orientamenti comunitari; inoltre, si è scelto di prendere in considerazione, dopo l’esame generale delle principali tematiche sopramenzionate, il caso specifico del servizio radiotelevisivo.
Resumo:
Nel lavoro di tesi qui presentato si indaga l'applicazione di tecniche di apprendimento mirate ad una più efficiente esecuzione di un portfolio di risolutore di vincoli (constraint solver). Un constraint solver è un programma che dato in input un problema di vincoli, elabora una soluzione mediante l'utilizzo di svariate tecniche. I problemi di vincoli sono altamente presenti nella vita reale. Esempi come l'organizzazione dei viaggi dei treni oppure la programmazione degli equipaggi di una compagnia aerea, sono tutti problemi di vincoli. Un problema di vincoli è formalizzato da un problema di soddisfacimento di vincoli(CSP). Un CSP è descritto da un insieme di variabili che possono assumere valori appartenenti ad uno specico dominio ed un insieme di vincoli che mettono in relazione variabili e valori assumibili da esse. Una tecnica per ottimizzare la risoluzione di tali problemi è quella suggerita da un approccio a portfolio. Tale tecnica, usata anche in am- biti come quelli economici, prevede la combinazione di più solver i quali assieme possono generare risultati migliori di un approccio a singolo solver. In questo lavoro ci preoccupiamo di creare una nuova tecnica che combina un portfolio di constraint solver con tecniche di machine learning. Il machine learning è un campo di intelligenza articiale che si pone l'obiettivo di immettere nelle macchine una sorta di `intelligenza'. Un esempio applicativo potrebbe essere quello di valutare i casi passati di un problema ed usarli in futuro per fare scelte. Tale processo è riscontrato anche a livello cognitivo umano. Nello specico, vogliamo ragionare in termini di classicazione. Una classicazione corrisponde ad assegnare ad un insieme di caratteristiche in input, un valore discreto in output, come vero o falso se una mail è classicata come spam o meno. La fase di apprendimento sarà svolta utilizzando una parte di CPHydra, un portfolio di constraint solver sviluppato presso la University College of Cork (UCC). Di tale algoritmo a portfolio verranno utilizzate solamente le caratteristiche usate per descrivere determinati aspetti di un CSP rispetto ad un altro; queste caratteristiche vengono altresì dette features. Creeremo quindi una serie di classicatori basati sullo specifico comportamento dei solver. La combinazione di tali classicatori con l'approccio a portfolio sara nalizzata allo scopo di valutare che le feature di CPHydra siano buone e che i classicatori basati su tali feature siano affidabili. Per giusticare il primo risultato, eettueremo un confronto con uno dei migliori portfolio allo stato dell'arte, SATzilla. Una volta stabilita la bontà delle features utilizzate per le classicazioni, andremo a risolvere i problemi simulando uno scheduler. Tali simulazioni testeranno diverse regole costruite con classicatori precedentemente introdotti. Prima agiremo su uno scenario ad un processore e successivamente ci espanderemo ad uno scenario multi processore. In questi esperimenti andremo a vericare che, le prestazioni ottenute tramite l'applicazione delle regole create appositamente sui classicatori, abbiano risultati migliori rispetto ad un'esecuzione limitata all'utilizzo del migliore solver del portfolio. I lavoro di tesi è stato svolto in collaborazione con il centro di ricerca 4C presso University College Cork. Su questo lavoro è stato elaborato e sottomesso un articolo scientico alla International Joint Conference of Articial Intelligence (IJCAI) 2011. Al momento della consegna della tesi non siamo ancora stati informati dell'accettazione di tale articolo. Comunque, le risposte dei revisori hanno indicato che tale metodo presentato risulta interessante.
Resumo:
Il problema della sicurezza/insicurezza delle città, dalle grandi metropoli sino ai più piccoli centri urbani, ha sollecitato negli ultimi anni un’attenzione crescente da parte degli studiosi, degli analisti, degli organi di informazione, delle singole comunità. La delinquenza metropolitana viene oggi diffusamente considerata «un aspetto usuale della società moderna»: «un fatto – o meglio un insieme di fatti – che non richiede nessuna speciale motivazione o predisposizione, nessuna patologia o anormalità, e che è iscritto nella routine della vita economica e sociale». Svincolata dagli schemi positivistici, la dottrina criminologica ha maturato una nuova «cultura del controllo sociale» che ha messo in risalto, rispetto ad ogni visione enfatizzante del reo, l’esigenza di pianificare adeguate politiche e pratiche di prevenzione della devianza urbana attraverso «tutto l’insieme di istituzioni sociali, di strategie e di sanzioni, che mirano a ottenere la conformità di comportamento nella sfera normativa penalmente tutelata». Tale obiettivo viene generalmente perseguito dagli organismi istituzionali, locali e centrali, con diverse modalità annoverabili nel quadro degli interventi di: prevenzione sociale in cui si includono iniziative volte ad arginare la valenza dei fattori criminogeni, incidendo sulle circostanze sociali ed economiche che determinano l’insorgenza e la proliferazione delle condotte delittuose negli ambienti urbani; prevenzione giovanile con cui si tende a migliorare le capacità cognitive e relazionali del minore, in maniera tale da controllare un suo eventuale comportamento aggressivo, e ad insegnare a genitori e docenti come gestire, senza traumi ed ulteriori motivi di tensione, eventuali situazioni di crisi e di conflittualità interpersonale ed interfamiliare che coinvolgano adolescenti; prevenzione situazionale con cui si mira a disincentivare la propensione al delitto, aumentando le difficoltà pratiche ed il rischio di essere scoperti e sanzionati che – ovviamente – viene ponderato dal reo. Nella loro quotidianità, le “politiche di controllo sociale” si sono tuttavia espresse in diversi contesti – ed anche nel nostro Paese - in maniera a tratti assai discutibile e, comunque, con risultati non sempre apprezzabili quando non - addirittura – controproducenti. La violenta repressione dei soggetti ritenuti “devianti” (zero tolerance policy), l’ulteriore ghettizzazione di individui di per sé già emarginati dal contesto sociale, l’edificazione di interi quartieri fortificati, chiusi anche simbolicamente dal resto della comunità urbana, si sono rivelate, più che misure efficaci nel contrasto alla criminalità, come dei «cortocircuiti semplificatori in rapporto alla complessità dell’insieme dei problemi posti dall’insicurezza». L’apologia della paura è venuta così a riflettersi, anche fisicamente, nelle forme architettoniche delle nuove città fortificate ed ipersorvegliate; in quelle gated-communities in cui l’individuo non esita a sacrificare una componente essenziale della propria libertà, della propria privacy, delle proprie possibilità di contatto diretto con l’altro da sé, sull’altare di un sistema di controllo che malcela, a sua volta, implacabili contraddizioni. Nei pressanti interrogativi circa la percezione, la diffusione e la padronanza del rischio nella società contemporanea - glocale, postmoderna, tardomoderna, surmoderna o della “seconda modernità”, a seconda del punto di vista al quale si aderisce – va colto l’eco delle diverse concezioni della sicurezza urbana, intesa sia in senso oggettivo, quale «situazione che, in modo obiettivo e verificabile, non comporta l’esposizione a fattori di rischio», che in senso soggettivo, quale «risultante psicologica di un complesso insieme di fattori, tra cui anche indicatori oggettivi di sicurezza ma soprattutto modelli culturali, stili di vita, caratteristiche di personalità, pregiudizi, e così via». Le amministrazioni locali sono direttamente chiamate a garantire questo bisogno primario di sicurezza che promana dagli individui, assumendo un ruolo di primo piano nell’adozione di innovative politiche per la sicurezza urbana che siano fra loro complementari, funzionalmente differenziate, integrali (in quanto parte della politica di protezione integrale di tutti i diritti), integrate (perché rivolte a soggetti e responsabilità diverse), sussidiarie (perché non valgono a sostituire i meccanismi spontanei di prevenzione e controllo della devianza che si sviluppano nella società), partecipative e multidimensionali (perché attuate con il concorso di organismi comunali, regionali, provinciali, nazionali e sovranazionali). Questa nuova assunzione di responsabilità da parte delle Amministrazioni di prossimità contribuisce a sancire il passaggio epocale «da una tradizionale attività di governo a una di governance» che deriva «da un’azione integrata di una molteplicità di soggetti e si esercita tanto secondo procedure precostituite, quanto per una libera scelta di dar vita a una coalizione che vada a vantaggio di ciascuno degli attori e della società urbana nel suo complesso». All’analisi dei diversi sistemi di governance della sicurezza urbana che hanno trovato applicazione e sperimentazione in Italia, negli ultimi anni, e in particolare negli ambienti territoriali e comunitari di Roma e del Lazio che appaiono, per molti versi, esemplificativi della complessa realtà metropolitana del nostro tempo, è dedicata questa ricerca. Risulterà immediatamente chiaro come il paradigma teorico entro il quale si dipana il percorso di questo studio sia riconducibile agli orientamenti della psicologia topologica di Kurt Lewin, introdotti nella letteratura sociocriminologica dall’opera di Augusto Balloni. Il provvidenziale crollo di antichi steccati di divisione, l’avvento di internet e, quindi, la deflagrante estensione delle frontiere degli «ambienti psicologici» in cui è destinata a svilupparsi, nel bene ma anche nel male, la personalità umana non hanno scalfito, a nostro sommesso avviso, l’attualità e la validità della «teoria del campo» lewiniana per cui il comportamento degli individui (C) appare anche a noi, oggi, condizionato dalla stretta interrelazione che sussiste fra le proprie connotazioni soggettive (P) e il proprio ambiente di riferimento (A), all’interno di un particolare «spazio di vita». Su queste basi, il nostro itinerario concettuale prende avvio dall’analisi dell’ambiente urbano, quale componente essenziale del più ampio «ambiente psicologico» e quale cornice straordinariamente ricca di elementi di “con-formazione” dei comportamenti sociali, per poi soffermarsi sulla disamina delle pulsioni e dei sentimenti soggettivi che agitano le persone nei controversi spazi di vita del nostro tempo. Particolare attenzione viene inoltre riservata all’approfondimento, a tratti anche critico, della normativa vigente in materia di «sicurezza urbana», nella ferma convinzione che proprio nel diritto – ed in special modo nell’ordinamento penale – vada colto il riflesso e la misura del grado di civiltà ma anche delle tensioni e delle contraddizioni sociali che tormentano la nostra epoca. Notevoli spunti ed un contributo essenziale per l’elaborazione della parte di ricerca empirica sono derivati dall’intensa attività di analisi sociale espletata (in collaborazione con l’ANCI) nell’ambito dell’Osservatorio Tecnico Scientifico per la Sicurezza e la Legalità della Regione Lazio, un organismo di supporto della Presidenza della Giunta Regionale del Lazio al quale compete, ai sensi dell’art. 8 della legge regionale n. 15 del 2001, la funzione specifica di provvedere al monitoraggio costante dei fenomeni criminali nel Lazio.
Resumo:
La mia tesi dal titolo ”Applicazione della tecnica PSinSAR™ allo studio di fenomeni franosi lenti: casi di studio in Emilia-Romagna” ha avuto come obiettivo quello di mostrare le potenzialità e i limiti della tecnica PSinSAR nel monitoraggio di fenomeni franosi localizzati in Val Marecchia. Ho svolto, nel capitolo due, un’analisi preliminare dell’area di studio andando a evidenziare prima le caratteristiche climatiche, piogge medie annue e le temperature minime e massime, e a seguire sono passato a descrivere l’inquadramento geologico e geomorfologico. L’area della Val Marecchia è, da questo punto di vista, molto particolare poggiando su quella che è definita dagli autori “coltre della Val Marecchia”; essa è un complesso alloctono sovrascorso ai terreni autoctoni della successione Umbro – Romagnola - Marchigiana. La traslazione verso Est della coltre avvenne per "scatti", in funzione delle principali fasi tettoniche appenniniche, separati da momenti di pausa in cui sedimentarono le formazioni più recenti le quali poi si spostarono in modo solidale con la coltre. La coltre, infatti, è costituita da un insieme di formazioni di età diverse e in particolare ritroviamo, partendo da quella più antica l’unità ligure, l’unità subligure e infine l’unità epiligure. La presenza di formazioni più recenti sopra ad altre più antiche rende unica la morfologia della vallata con enormi blocchi rocciosi poggianti su un substrato in genere argilloso come nell’esempio più famoso della rupe di San Leo. Da queste analisi è emersa un’altra caratteristica peculiare della valle cioè la forte tendenza a essere interessata da dissesti di varie tipologie. Gli indici di franosità mostrano che nella zona alta della vallata circa il 50% del territorio è interessato da dissesti, valore che decresce leggermente nella parte media e bassa della valle. Il motivo di tale instabilità è da imputare in parte alla forte erosione che avviene sulle placche epiliguri e in parte alle caratteristiche scadenti del substrato che è per lo più composto di argille e arenarie. Per quanto riguarda le tipologie di frane in Val Marecchia la situazione è molto eterogenea; in particolari le tre tipologie più frequenti sono il colamento lento, lo scivolamento rotazionale/traslativo e le frane di tipo complesso. Nel terzo capitolo ho descritto la tecnica PSinSAR; essa si basa sull’elaborazione di scene riprese da satellite per giungere alla formazione di una rete di punti, i PS, di cui conosciamo i movimenti nel tempo. I Permanent Scatterer (PS) sono dei bersagli radar individuati sulla superficie terrestre dal sensori satellitari caratterizzati per il fatto di possedere un’elevata stabilità nel tempo alla risposta elettromagnetica. I PS nella maggior parte dei casi corrispondono a manufatti presenti sulla superficie quali edifici, monumenti, strade, antenne e tralicci oppure ad elementi naturali come per esempio rocce esposte o accumuli di detrito. Lo spostamento viene calcolato lungo la linea di vista del satellite, per cui il dato in uscita non mostra lo spostamento effettivo del terreno, ma l'allontanamento o l'avvicinamento del punto rispetto al satellite. La misure sono sempre differenziali, ovvero sono riferite spazialmente a un punto noto a terra chiamato reference point, mentre temporalmente alla data di acquisizione della prima immagine. La tecnica PSinSAR proprio per la sua natura è "cieca" rispetto ai movimenti in direzione Nord-Sud. Le scene utilizzate per la creazione dei dataset di PS derivano quasi interamente dai satelliti ERS e ENVISAT. Tuttora sono disponibili anche le scene dei satelliti TerraSAR-X, RADARSAT e Cosmo Skymed. I sensori utilizzati in questo ambito sono i SAR (Synthetic Aperture Radar) che sono sensori attivi, cioè emettono loro stessi l'energia necessaria per investigare la superficie terrestre al contrario dei sensori ottici. Questo permette di poter acquisire scene anche di notte e in condizioni di cielo nuvoloso. La tecnica PSinSAR presenta molti vantaggi rispetto alle tecniche interferometriche tradizionali essa, infatti, è immune agli errori di decorrelamento temporale e spaziale oltre agli errori atmosferici, che portavano ad avere precisioni non inferiori a qualche cm, mentre ora l’errore di misura sulla velocità media di spostamento si attesta in genere sui 2 mm. La precisione che si ha nella georeferenziazione dei punti è in genere di circa 4-7 m lungo la direzione Est e circa 1-2 m in quella Nord. L’evoluzione di PSinSAR, SqueeSAR, permette un numero maggiore di punti poiché oltre ai Permanent Scatterers PS, tramite un apposito algoritmo, calcola anche i Distribuited Scatterer DS. I dataset di dati PS che ho utilizzato nel mio lavoro di tesi (PSinSAR) derivano, come detto in precedenza, sia da scene riprese dal satellite ERS che da ENVISAT nelle due modalità ascendenti e discendenti; nel primo caso si hanno informazioni sui movimenti avvenuti tra il 1992 e il 2000 mentre per l’ENVISAT tra il 2002 e il 2008. La presenza di dati PS nelle due modalità di ripresa sulla stessa zona permette tramite alcuni calcoli di ricavare la direzione effettiva di spostamento. È importante però sottolineare che, a seconda della modalità di ripresa, alcune aree possono risultare in ombra, per questo nell’analisi dei vari casi di studio non sempre sono stati utilizzabili tutti i dataset. Per l'analisi dei vari casi di studio, presentati nel capitolo 4, ho utilizzato diverso materiale cartografico. In particolare mi sono servito delle Carte Tecniche Regionali (CTR) a scala 1:10000 e 1:5000, in formato digitale, come base cartografica. Sempre in formato digitale ho utilizzato anche le carte geologiche e geomorfologiche dell'area della Val Marecchia (fogli 266, 267, 278) oltre, per finire, agli shapefile presi dal database online del Piano stralcio dell’Assetto Idrogeologico PAI. Il software usato per la realizzazione del lavoro di tesi è stato ArcGIS di proprietà di ESRI. Per ogni caso di studio ho per prima cosa effettuato un'analisi dal punto di vista geologico e geomorfologico, in modo da fare un quadro delle formazioni presenti oltre ad eventuali fenomeni franosi mostrati dalle carte. A seguire ho svolto un confronto fra il dato PS, e quindi i valori di spostamento, e la perimetrazione mostrata nel PAI. Per alcuni casi di studio il dato PS ha mostrato movimenti in aree già perimetrate nel PAI come "in dissesto", mentre in altri il dato satellitare ha permesso di venire a conoscenza di fenomeni non conosciuti (come ad esempio nel caso di Monte Gregorio). Per ogni caso di studio ho inoltre scelto alcuni PS caratteristici (solitamente quelli a coerenza maggiore) e ho ricavato la relativa serie storica. In questo modo è stato possibile verificare lo spostamento durante tutti gli anni in cui sono state prese le scene (dal 1992 al 2000 per dati ERS, dal 2002 al 2008 per dati ENVISAT) potendo quindi mettere in luce accelerazioni o assestamenti dei fenomeni nel tempo, oltre a escludere la presenza di trend di spostamento anomali imputabili nella maggior parte dei casi a errori nel dato. L’obiettivo della tesi è stato da una parte di verificare la bontà del dato PS nell’interpretazione dei movimenti dovuti a dissesti franosi e dall’altra di fare un confronto tra il dato di spostamento ricavato dai PS e i vari inventari o carte di piano. Da questo confronto sono emerse informazioni molti interessanti perché è stato possibile avere conferme di movimento su dissesti già conosciuti (Sant’Agata Feltria, San Leo e altri) ma anche di venire a conoscenza di fenomeni non conosciuti (Monte Gregorio). In conclusione è emerso dal mio lavoro che il monitoraggio tramite tecnica PSinSAR necessita di essere integrato con le tecniche tradizionali poiché presenta alcune limitazioni importanti come l’impossibilità di "vedere" movimenti veloci o lungo la direzione Nord-Sud, oltre ad avere dati in aree vegetate o scarsamente abitate. I vantaggi sono però notevoli potendo monitorare con un’unica ripresa vaste porzioni di territorio oltre ad avere serie storiche consistenti, in grado di evidenziare i movimenti avvenuti nel passato. Tale tecnica quindi, secondo il mio parere, può essere utilizzata come supporto alla stesura di cartografia di fenomeni franosi fornendo informazioni aggiuntive rispetto alle varie tecniche tradizionali come il GPS, sondaggi geotecnici e sondaggi inclinometrici.
Resumo:
Il lavoro presentato si propone di fornire un contributo all'implementazione di indagini finalizzate a misurare l'evoluzione delle intenzioni d'acquisto del consumatore italiano nei confronti degli OGM, data anche l'impossibilità al momento di avere indicazioni e dati sul comportamento (vista la quasi totale assenza dei prodotti OGM nella distribuzione, se si eccettuano i prodotti d'allevamento di animali alimentati con OGM per cui non è previsto nessun obbligo di etichettatura). Le coltivazioni transgeniche (Organismi Geneticamente Modificati) si stanno diffondendo abbastanza rapidamente nel contesto mondiale, dal 1996, primo anno in cui sono uscite dalla fase sperimentale, ad oggi. Nel 2008 la superficie globale delle colture biotech è stata di 125 milioni di ettari, circa il 9% in più rispetto ai 114 milioni del 2007, mentre il numero dei Paesi che hanno adottato varietà GM è giunto a 25. Di questi sono soprattutto Usa, Canada, Argentina, Brasile, Cina e India a trainare la crescita; le colture più diffuse sono soia, mais, cotone e colza, prodotti destinati principalmente al segmento feed e al segmento no-food e solo in minima parte al segmento food (cioè all'alimentazione diretta umana). Molte più resistenze ha incontrato tale sviluppo nei Paesi dell'Unione europea. A tutt'oggi le coltivazioni GM hanno raggiunto estensioni significative solamente in Spagna, con alcune decine di migliaia di ettari di mais GM. Mais che peraltro è l'unica produzione per cui è stata autorizzata una varietà GM alla coltivazione. Si intuisce in sostanza come in Europa si sia assunto un atteggiamento molto più prudente verso l'utilizzo su larga scala di tale innovazione scientifica, rispetto a quanto accaduto nei grandi Paesi citati in precedenza. Una prudenza dettata dal serrato dibattito, tuttora in corso, tra possibilisti e contrari, con contrapposizioni anche radicali, al limite dell'ideologia. D'altro canto, le indagini di Eurobarometro hanno messo in luce un miglioramento negli ultimi anni nella percezione dei cittadini europei verso le biotecnologie: dopo aver raggiunto un livello minimo di fiducia nel 1999, si è manifestata una lenta risalita verso i livelli di inizio anni '90, con percentuali di "fiduciosi" intorno al 55-60% sul totale della popolazione. Tuttavia, sebbene sulle biotecnologie in genere (l'Eurobarometro individua quattro filoni: alimenti contenenti OGM, terapie geniche, nanotecnologie e farmaci contenenti OGM), il giudizio sia abbastanza positivo, sugli alimenti permane un certo scetticismo legato soprattutto a considerazioni di inutilità della tecnologia, di rischio percepito e di accettabilità morale: per citare il caso italiano, che, contrariamente a quello che si potrebbe pensare, è tra i più elevati nel contesto europeo, solamente un cittadino su tre valuta positivamente gli alimenti contenenti OGM. Se si analizza, inoltre, il sentiment del settore agricolo, nel quale il tema riveste anche un'importanza di natura economico-produttiva, in quanto incidente sui comportamenti e sulla strategie aziendali, sembra emergere un'apertura significativamente più elevata, se non una vera e propria frattura rispetto all'opinione pubblica. Infatti, circa due maiscoltori lombardi su tre (Demoskopea, 2008), cioè la tipologia di agricoltori che potrebbe beneficiare di tale innovazione, coltiverebbero mais GM se la normativa lo consentisse. Ebbene, in tale contesto diventa d'estremo interesse, sebbene di non facile praticabilità , lo studio e l'implementazione di modelli volti a monitorare le componenti che concorrono a formare l'intenzione e, in ultima analisi, il comportamento, dei consumatori verso gli OGM. Un esercizio da attuare per lo più tramite una serie di misurazioni indirette che devono fermarsi necessariamente all'intenzione nel caso italiano, mentre in altri Paesi che hanno avuto legislazioni più favorevoli all'introduzione degli OGM stessi nella produzione food può perseguire approcci d'analisi field, focalizzati non solo sull'intenzione, ma anche sul legame tra intenzione ed effettivo comportamento. Esiste una vasta letteratura che studia l'intenzione del consumatore verso l'acquisto di determinati beni. Uno degli approcci teorici che negli ultimi anni ha avuto più seguito è stato quello della Teoria del Comportamento Pianificato (Ajzen, 1991). Tale teoria prevede che l'atteggiamento (cioè l'insieme delle convinzioni, credenze, opinioni del soggetto), la norma soggettiva (cioè l'influenza dell'opinione delle persone importanti per l'individuo) e il controllo comportamentale percepito (ovvero la capacità , auto-percepita dal soggetto, di riuscire a compiere un determinato comportamento, in presenza di un'intenzione di ugual segno) siano variabili sufficienti a spiegare l'intenzione del consumatore. Tuttavia, vari ricercatori hanno e stanno cercando di verificare la correlazione di altre variabili: per esempio la norma morale, l'esperienza, l'attitudine al rischio, le caratteristiche socio-demografiche, la cosiddetta self-identity, la conoscenza razionale, la fiducia nelle fonti d'informazione e via discorrendo. In tale lavoro si è cercato, quindi, di esplorare, in un'indagine "pilota" quali-quantitativa su un campione ragionato e non probabilistico, l'influenza sull'intenzione d'acquisto di prodotti alimentari contenenti OGM delle variabili tipiche della Teoria del Comportamento Pianificato e di alcune altre variabili, che, nel caso degli OGM, appaiono particolarmente rilevanti, cioè conoscenza, fiducia nelle fonti d'informazione ed elementi socio-demografici. Tra i principali risultati da porre come indicazioni di lavoro per successive analisi su campioni rappresentativi sono emersi: - La conoscenza, soprattutto se tecnica, sembra un fattore, relativamente al campione ragionato analizzato, che conduce ad una maggiore accettazione degli OGM; le stesse statistiche descrittive mettono in luce una netta differenza in termini di intenzione d'acquisto dei prodotti contenenti OGM da parte del sub-campione più preparato sull'argomento; - L'esplorazione della fiducia nelle fonti d'informazione è sicuramente da approfondire ulteriormente. Dall'indagine effettuata risulta come l'unica fonte che influenza con le sue informazioni la decisione d'acquisto sugli OGM è la filiera agroalimentare. Dato che tali attori si caratterizzano per lo più con indicazioni contrarie all'introduzione degli OGM nei loro processi produttivi, è chiaro che se il consumatore dichiara di avere fiducia in loro, sarà anche portato a non acquistare gli OGM; - Per quanto riguarda le variabili della Teoria del Comportamento Pianificato, l'atteggiamento mette in luce una netta preponderanza nella spiegazione dell'intenzione rispetto alla norma soggettiva e al controllo comportamentale percepito. Al contrario, queste ultime appaiono variabili deboli, forse perchè a tutt'oggi la possibilità concreta di acquistare OGM è praticamente ridotta a zero ; - Tra le variabili socio-demografiche, l'influenza positiva del titolo di studio sulla decisione d'acquisto sembra confermare almeno in parte quanto emerso rispetto alla variabile "conoscenza"; - Infine, il fatto che il livello di reddito non influisca sull'intenzione d'acquisto appare abbastanza scontato, se si pensa, ancora una volta, come a tutt'oggi gli OGM non siano presenti sugli scaffali. Il consumatore non ha al momento nessuna idea sul loro prezzo. Decisamente interessante sarà indagare l'incidenza di tale variabile quando il "fattore OGM" sarà prezzato, presumibilmente al ribasso rispetto ai prodotti non OGM.
Resumo:
Benessere delle popolazioni, gestione sostenibile delle risorse, povertà e degrado ambientale sono dei concetti fortemente connessi in un mondo in cui il 20% della popolazione mondiale consuma più del 75% delle risorse naturali. Sin dal 1992 al Summit della Terra a Rio de Janeiro si è affermato il forte legame tra tutela dell’ambiente e riduzione della povertà, ed è anche stata riconosciuta l’importanza di un ecosistema sano per condurre una vita dignitosa, specialmente nelle zone rurali povere dell’Africa, dell’Asia e dell’America Latina. La natura infatti, soprattutto per le popolazioni rurali, rappresenta un bene quotidiano e prezioso, una forma essenziale per la sussistenza ed una fonte primaria di reddito. Accanto a questa constatazione vi è anche la consapevolezza che negli ultimi decenni gli ecosistemi naturali si stanno degradando ad un ritmo impressionate, senza precedenti nella storia della specie umana: consumiamo le risorse più velocemente di quanto la Terra sia capace di rigenerarle e di “metabolizzare” i nostri scarti. Allo stesso modo aumenta la povertà: attualmente ci sono 1,2 miliardi di persone che vivono con meno di un dollaro al giorno, mentre circa metà della popolazione mondiale sopravvive con meno di due dollari al giorno (UN). La connessione tra povertà ed ambiente non dipende solamente dalla scarsità di risorse che rende più difficili le condizioni di vita, ma anche dalla gestione delle stesse risorse naturali. Infatti in molti paesi o luoghi dove le risorse non sono carenti la popolazione più povera non vi ha accesso per motivi politici, economici e sociali. Inoltre se si paragona l’impronta ecologica con una misura riconosciuta dello “sviluppo umano”, l’Indice dello Sviluppo Umano (HDI) delle Nazioni Unite (Cfr. Cap 2), il rapporto dimostra chiaramente che ciò che noi accettiamo generalmente come “alto sviluppo” è molto lontano dal concetto di sviluppo sostenibile accettato universalmente, in quanto i paesi cosiddetti “sviluppati” sono quelli con una maggior impronta ecologica. Se allora lo “sviluppo” mette sotto pressione gli ecosistemi, dal cui benessere dipende direttamente il benessere dell’uomo, allora vuol dire che il concetto di “sviluppo” deve essere rivisitato, perché ha come conseguenza non il benessere del pianeta e delle popolazioni, ma il degrado ambientale e l’accrescimento delle disuguaglianze sociali. Quindi da una parte vi è la “società occidentale”, che promuove l’avanzamento della tecnologia e dell’industrializzazione per la crescita economica, spremendo un ecosistema sempre più stanco ed esausto al fine di ottenere dei benefici solo per una ristretta fetta della popolazione mondiale che segue un modello di vita consumistico degradando l’ambiente e sommergendolo di rifiuti; dall’altra parte ci sono le famiglie di contadini rurali, i “moradores” delle favelas o delle periferie delle grandi metropoli del Sud del Mondo, i senza terra, gli immigrati delle baraccopoli, i “waste pickers” delle periferie di Bombay che sopravvivono raccattando rifiuti, i profughi di guerre fatte per il controllo delle risorse, gli sfollati ambientali, gli eco-rifugiati, che vivono sotto la soglia di povertà, senza accesso alle risorse primarie per la sopravvivenza. La gestione sostenibile dell’ambiente, il produrre reddito dalla valorizzazione diretta dell’ecosistema e l’accesso alle risorse naturali sono tra gli strumenti più efficaci per migliorare le condizioni di vita degli individui, strumenti che possono anche garantire la distribuzione della ricchezza costruendo una società più equa, in quanto le merci ed i servizi dell’ecosistema fungono da beni per le comunità. La corretta gestione dell’ambiente e delle risorse quindi è di estrema importanza per la lotta alla povertà ed in questo caso il ruolo e la responsabilità dei tecnici ambientali è cruciale. Il lavoro di ricerca qui presentato, partendo dall’analisi del problema della gestione delle risorse naturali e dal suo stretto legame con la povertà, rivisitando il concetto tradizionale di “sviluppo” secondo i nuovi filoni di pensiero, vuole suggerire soluzioni e tecnologie per la gestione sostenibile delle risorse naturali che abbiano come obiettivo il benessere delle popolazioni più povere e degli ecosistemi, proponendo inoltre un metodo valutativo per la scelta delle alternative, soluzioni o tecnologie più adeguate al contesto di intervento. Dopo l’analisi dello “stato del Pianeta” (Capitolo 1) e delle risorse, sia a livello globale che a livello regionale, il secondo Capitolo prende in esame il concetto di povertà, di Paese in Via di Sviluppo (PVS), il concetto di “sviluppo sostenibile” e i nuovi filoni di pensiero: dalla teoria della Decrescita, al concetto di Sviluppo Umano. Dalla presa di coscienza dei reali fabbisogni umani, dall’analisi dello stato dell’ambiente, della povertà e delle sue diverse facce nei vari paesi, e dalla presa di coscienza del fallimento dell’economia della crescita (oggi visibile più che mai) si può comprendere che la soluzione per sconfiggere la povertà, il degrado dell’ambiente, e raggiungere lo sviluppo umano, non è il consumismo, la produzione, e nemmeno il trasferimento della tecnologia e l’industrializzazione; ma il “piccolo e bello” (F. Schumacher, 1982), ovvero gli stili di vita semplici, la tutela degli ecosistemi, e a livello tecnologico le “tecnologie appropriate”. Ed è proprio alle Tecnologie Appropriate a cui sono dedicati i Capitoli successivi (Capitolo 4 e Capitolo 5). Queste sono tecnologie semplici, a basso impatto ambientale, a basso costo, facilmente gestibili dalle comunità, tecnologie che permettono alle popolazioni più povere di avere accesso alle risorse naturali. Sono le tecnologie che meglio permettono, grazie alle loro caratteristiche, la tutela dei beni comuni naturali, quindi delle risorse e dell’ambiente, favorendo ed incentivando la partecipazione delle comunità locali e valorizzando i saperi tradizionali, grazie al coinvolgimento di tutti gli attori, al basso costo, alla sostenibilità ambientale, contribuendo all’affermazione dei diritti umani e alla salvaguardia dell’ambiente. Le Tecnologie Appropriate prese in esame sono quelle relative all’approvvigionamento idrico e alla depurazione dell’acqua tra cui: - la raccolta della nebbia, - metodi semplici per la perforazione di pozzi, - pompe a pedali e pompe manuali per l’approvvigionamento idrico, - la raccolta dell’acqua piovana, - il recupero delle sorgenti, - semplici metodi per la depurazione dell’acqua al punto d’uso (filtro in ceramica, filtro a sabbia, filtro in tessuto, disinfezione e distillazione solare). Il quinto Capitolo espone invece le Tecnolocie Appropriate per la gestione dei rifiuti nei PVS, in cui sono descritte: - soluzioni per la raccolta dei rifiuti nei PVS, - soluzioni per lo smaltimento dei rifiuti nei PVS, - semplici tecnologie per il riciclaggio dei rifiuti solidi. Il sesto Capitolo tratta tematiche riguardanti la Cooperazione Internazionale, la Cooperazione Decentrata e i progetti di Sviluppo Umano. Per progetti di sviluppo si intende, nell’ambito della Cooperazione, quei progetti che hanno come obiettivi la lotta alla povertà e il miglioramento delle condizioni di vita delle comunità beneficiarie dei PVS coinvolte nel progetto. All’interno dei progetti di cooperazione e di sviluppo umano gli interventi di tipo ambientale giocano un ruolo importante, visto che, come già detto, la povertà e il benessere delle popolazioni dipende dal benessere degli ecosistemi in cui vivono: favorire la tutela dell’ambiente, garantire l’accesso all’acqua potabile, la corretta gestione dei rifiuti e dei reflui nonché l’approvvigionamento energetico pulito sono aspetti necessari per permettere ad ogni individuo, soprattutto se vive in condizioni di “sviluppo”, di condurre una vita sana e produttiva. È importante quindi, negli interventi di sviluppo umano di carattere tecnico ed ambientale, scegliere soluzioni decentrate che prevedano l’adozione di Tecnologie Appropriate per contribuire a valorizzare l’ambiente e a tutelare la salute della comunità. I Capitoli 7 ed 8 prendono in esame i metodi per la valutazione degli interventi di sviluppo umano. Un altro aspetto fondamentale che rientra nel ruolo dei tecnici infatti è l’utilizzo di un corretto metodo valutativo per la scelta dei progetti possibili che tenga presente tutti gli aspetti, ovvero gli impatti sociali, ambientali, economici e che si cali bene alle realtà svantaggiate come quelle prese in considerazione in questo lavoro; un metodo cioè che consenta una valutazione specifica per i progetti di sviluppo umano e che possa permettere l’individuazione del progetto/intervento tecnologico e ambientale più appropriato ad ogni contesto specifico. Dall’analisi dei vari strumenti valutativi si è scelto di sviluppare un modello per la valutazione degli interventi di carattere ambientale nei progetti di Cooperazione Decentrata basato sull’Analisi Multi Criteria e sulla Analisi Gerarchica. L’oggetto di questa ricerca è stato quindi lo sviluppo di una metodologia, che tramite il supporto matematico e metodologico dell’Analisi Multi Criteria, permetta di valutare l’appropriatezza, la sostenibilità degli interventi di Sviluppo Umano di carattere ambientale, sviluppati all’interno di progetti di Cooperazione Internazionale e di Cooperazione Decentrata attraverso l’utilizzo di Tecnologie Appropriate. Nel Capitolo 9 viene proposta la metodologia, il modello di calcolo e i criteri su cui si basa la valutazione. I successivi capitoli (Capitolo 10 e Capitolo 11) sono invece dedicati alla sperimentazione della metodologia ai diversi casi studio: - “Progetto ambientale sulla gestione dei rifiuti presso i campi Profughi Saharawi”, Algeria, - “Programa 1 milhão de Cisternas, P1MC” e - “Programa Uma Terra e Duas Águas, P1+2”, Semi Arido brasiliano.
Resumo:
Questo progetto, maturato in seguito a profonde riflessioni basate sull’analisi e la valutazione della situazione territoriale, è scaturito dalla volontà di fornire una risposta alle carenze funzionali e strutturali di un’area dalle molteplici potenzialità. La fascia costiera di Platamona è stata al centro di progetti di lottizzazione che, invece di tutelare l’aspetto naturalistico e unificare un sistema costiero che si estende per circa otto chilometri, hanno inserito strutture prevalentemente ricettive e turistiche in maniera piuttosto arbitraria e senza tener conto della possibilità di organizzare il progetto d’intervento tramite un apposito strumento urbanistico. Il risultato, un tessuto edilizio disomogeneo e disorganizzato, non contribuisce certo alla volontà di attribuire un carattere e un’identità al luogo; anzi, la frequenza di aree in stato di abbandono, che rischiano di diventare discariche a cielo aperto fa quasi pensare ad una situazione di stallo e di incuria sia da parte delle amministrazioni che dei privati. L’idea del progetto deriva da un approccio che ha come obiettivo il massimo sfruttamento delle risorse locali e il minor impatto possibile sul paesaggio e sul sistema attuale. La volontà è quella di riorganizzare e riqualificare gli spazi più significativi, inserendoli all’interno di un sistema di percorsi e connessioni che vogliono unificare e rendere fruibile l’intero sistema costiero fra Platamona e Marina di Sorso. Inoltre è da rivalutare l’aspetto naturalistico del SIC dello Stagno e Ginepreto di Platamona, un’oasi naturalistica che ha tutte le potenzialità per essere posta al centro di un’attività di ricerca e diventare la meta di un turismo mirato. Nel Piano di gestione dello stagno sono già stati previsti e realizzati percorsi su passerelle in legno che si snodano fra i canneti e la pineta limitrofa, con alcune torrette di avvistamento, attualmente posizionate nella zona a sud. Uno degli obiettivi è dunque quello di completare questi percorsi per gran parte del perimetro dello stagno e di stabilire un percorso ciclo-pedonale ad anello che circondi e renda fruibile l’intera area del SIC. A livello di percorsi e connessioni, oltre alla nuova pista ciclabile che correrà parallelamente alla SP 81, si cercherà di fornire nuovi collegamenti anche all’ambito della spiaggia. L’idea è di costruire una passeggiata sul fronte mare che si articoli con leggere passerelle in legno fra le dune irregolari. Si snoderebbe dalla rotonda di Platamona fino alla piazza di Marina di Sorso, per una lunghezza di circa otto chilometri. Il suo scopo è di rendere fruibile l’intera fascia di spiaggia in modo da evitare un eccessivo calpestio del sistema dunario, che purtroppo risente della forte presenza antropica dei mesi estivi. Nel ripensare questi collegamenti e percorsi, si rende necessaria la creazione di aree di sosta attrezzate che si presentano con una certa periodicità, dettata dai pettini e dalle discese a mare. Vi saranno punti di sosta ombreggiati con alberature, aiuole, sedute, fontane e giochi per bambini. Diventa dunque prioritario il fatto di rendere evidente il concetto di unitarietà del sistema costiero in questione, rendendolo riconoscibile tramite l’organizzazione di spazi, episodi e percorsi. Infine il tentativo che riguarda nello specifico il Lido Iride, è quello relativo al suo recupero. L’intento è di restaurarlo e destinarlo a nuove funzioni ricreative-culturali. La struttura principale è mantenuta invariata, soprattutto le stecche che costituivano le cabine sulla spiaggia (elementi alquanto evocativi e radicati nella memoria del luogo). Il complesso sarà riorganizzato in previsione di ospitare workshop e corsi formativi riguardanti la cultura del mare e della salvaguardia dell’ambiente. Molto attuale e sempre più emergente anche in Sardegna risulta l’archeologia subacquea, a cui sono già state dedicate apposite strutture nelle zone di Cagliari e di Orosei. Dunque si riadatteranno le cabine con lo scopo di farle divenire alloggi temporanei per coloro che seguiranno tali corsi, mentre gli altri edifici del complesso fungeranno da supporto per delle lezioni all’aperto (l’arena e la piscina) e per il ristoro o l’allestimento di spazi espositivi (l’edificio centrale del lido). A causa della posizione del complesso balneare (a ridosso della spiaggia) si presuppone che il suo utilizzo sarà prevalentemente stagionale; perciò si è pensato di fornire una struttura di supporto e d’ausilio, la cui fruizione sia auspicabile anche nei mesi invernali: il Nuovo Centro Studi di Platamona. Questo nuovo complesso consiste in una struttura dotata di laboratori, aule conferenze, alloggi e ristorante. Si attesterà sul fronte mare, seguendo la direttrice del nuovo camminamento e innalzandosi su piattaforme e palafitte per non essere eccessivamente invasivo sul sistema dunario. Consisterà in due edifici di testata alti rispettivamente tre e quattro piani, ed entrambi avranno la peculiarità di avere il basamento aperto, attraversato dall’asse della passeggiata sul mare. L’edificio a tre piani ospiterà i laboratori, l’altro il ristorante. Dietro l’edificio dei laboratori si svilupperà una corte porticata che permetterà di giungere alla sala conferenza. Nella parte retrostante i due edifici di testata saranno distribuiti delle stecche di alloggi su palafitte immerse nel verde, caratterizzate da coperture con volte a botte. Lo stile architettonico del nuovo complesso si rifà all’architettura mediterranea, che s’identifica tramite l’utilizzo di basamenti e piccole aperture in facciata, l’uso di pietre e materiali da costruzioni locali, le bianche superfici che riflettono la luce e il forte segno architettonico dei muri che marcano il terreno seguendone l’orografia fino a diventare un tutt’uno.
Resumo:
Il Protocollo di Montreal, che succede alla Convenzione di Vienna per la protezione dello strato di ozono richiede l’eliminazione di idrocarburi contenenti cloro (CFC). Nel corso degli ultimi decenni ha quindi assunto importanza la reazione di idrodeclorurazione di clorofluorocarburi, in particolare rivolta alla produzione di idrocarburi fluorurati che sono risultati interessanti per la produzione di polimeri con specifiche caratteristiche di resistenza meccanica, termica e chimica. In questo lavoro di tesi, svolto in collaborazione con SOLVAY SPECIALTY POLYMERS ITALY, sono stati studiati catalizzatori innovativi per la produzione di perfluorometilviniletere (MVE), mediante idrodeclorurazione di perfluorometilcloroviniletere (AM). Attualmente la reazione di produzione industriale dell’MVE, condotta con l'utilizzo di quantità stechiometriche di Zn e dimetilformammide (DMF), presenta il notevole problema dello smaltimento di grandi quantità di zinco cloruro e di DMF. La reazione studiata, condotta in catalisi eterogenea, in presenta di H2, presenta una forte dipendenza dalla natura dei metalli utilizzati oltre che dal tipo di sintesi dei catalizzatori impiegati. Nell'ambito di questo lavoro è stato sviluppato un metodo, a basso impatto ambientale, per la sintesi si nanoparticelle preformate da utilizzare per la preparazione di catalizzatori supportati si TiO2 e SiO2. Le nanosospensioni ed i sistemi catalitici prodotti sono stati caratterizzati utilizzando diverse metodologie di analisi quali: XRD, XRF, TEM, TPR-MS, che hanno permesso di ottimizzare le diverse fasi della preparazione. Allo scopo di osservare effetti sinergici tra le specie utilizzate sono stati confrontati sistemi catalitici monometallici con sistemi bimetallici, rivelando interessanti implicazioni derivanti dall’utilizzo di fasi attive nanoparticellari a base di Pd e Cu. In particolare, è stato possibile apprezzare miglioramenti significativi nelle prestazioni catalitiche in termini di selettività a perfluorometilviniletere all’aumentare del contenuto di Cu. La via di sintesi ottimizzata e impiegata per la produzione di nanoparticelle bimetalliche è risultata una valida alternativa, a basso impatto ambientale, ai metodi di sintesi normalmente usati, portando alla preparazione di catalizzatori maggiormente attivi di quelli preparati con i metalli standard.
Resumo:
Il progetto di tesi ha analizzato i processi erosivi in atto in quattro aree della costa emilianoromagnola settentrionale, situate davanti a importanti foci fluviali: Volano, Reno, F. Uniti e Savio. Il lavoro di tesi si colloca all’interno di un progetto più ampio, che prevede la collaborazione tra la Regione Emilia Romagna, Servizio Geologico, Sismico e dei Suoli e l’Istituto di Scienze Marine ISMAR-CNR, sede di Bologna. Quest’ultimo ha acquisito, durante la campagna ERO2010, 210 km di profili sismici ad alta risoluzione in un’area sotto-costa, posta tra i 2 e gli 8 metri di profondità. Il lavoro di tesi ha usufruito di una nuova strategia di analisi, la sismica ad alta risoluzione (Chirp sonar), che ha permesso di identificare ed esaminare l’architettura geologica riconoscibile nei profili ed approfondire la conoscenza dell’assetto sub-superficiale dei depositi, ampliando le conoscenze di base riguardanti la dinamica dei litorali. L’interpretazione dei dati disponibili è avvenuta seguendo differenti fasi di studio: la prima, più conoscitiva, ha previsto l’identificazione delle evidenze di erosione nelle aree in esame mediante l’analisi della variazione delle linee di riva, l’osservazione delle opere poste a difesa del litorale e lo studio dell’evoluzione delle principali foci. Nella fase successiva le facies identificate nei profili sismici sono state interpretate in base alle loro caratteristiche geometriche ed acustiche, identificando le principali strutture presenti e interpretando, sulla base delle informazioni storiche apprese e delle conoscenze geologiche a disposizione, i corpi sedimentari riconosciuti. I nuovi profili Chirp sonar hanno consentito la ricostruzione geologica mediante la correlazione dei dati a mare (database ISMAR-CNR, Bologna, Carta geologica dei mari italiani 1:250.000) con quelli disponibili a terra, quali Carta dell’evoluzione storica dei cordoni costieri (Servizio Geologico e Sismico dei Suoli, Bo) e Carta geologica 1:50.000 (Servizio Geologico d’Italia e Progetto CARG). La conoscenza dei termini naturali e antropici dello stato fisico dei sistemi costieri è il presupposto necessario per l'esecuzione di studi ambientali atti a una corretta gestione integrata della costa. L’analisi approfondita della geologia superficiale fornisce un’opportunità per migliorare il processo decisionale nella gestione dei litorali e nella scelta degli interventi da attuare sulla costa, che devono essere fatti consapevolmente considerando l’assetto geologico e prevedendo una strategia di manutenzione della costa a medio termine. Un singolo intervento di ripascimento produce effetti di breve durata e non sufficienti a sanare il problema e a mitigare il rischio costiero. Nei tratti costieri scarsamente alimentati, soggetti a persistenti fenomeni erosivi, occorre, pertanto, mettere in atto ripetuti interventi di ripascimento accompagnati da un idoneo piano di monitoraggio.
Resumo:
Il progetto di tesi dottorale qui presentato intende proporsi come il proseguimento e l’approfondimento del progetto di ricerca - svoltosi tra il e il 2006 e il 2008 grazie alla collaborazione tra l’Università di Bologna, la Cineteca del Comune e dalla Fondazione Istituto Gramsci Emilia-Romagna - dal titolo Analisi e catalogazione dell’Archivio audiovisivo del PCI dell’Emilia-Romagna di proprietà dell’Istituto Gramsci. La ricerca ha indagato la menzionata collezione che costituiva, in un arco temporale che va dagli anni Cinquanta agli anni Ottanta, una sorta di cineteca interna alla Federazione del Partito Comunista Italiano di Bologna, gestita da un gruppo di volontari denominato “Gruppo Audiovisivi della Federazione del PCI”. Il fondo, entrato in possesso dell’Istituto Gramsci nel 1993, è composto, oltre che da documenti cartacei, anche e sopratutto da un nutrito numero di film e documentari in grado di raccontare sia la storia dell’associazione (in particolare, delle sue relazioni con le sezioni e i circoli della regione) sia, in una prospettiva più ampia, di ricostruire il particolare rapporto che la sede centrale del partito intratteneva con una delle sue cellule regionali più importanti e rappresentative. Il lavoro svolto sul fondo Gramsci ha suscitato una serie di riflessioni che hanno costituito la base per il progetto della ricerca presentata in queste pagine: prima fra tutte, l’idea di realizzare un censimento, da effettuarsi su base regionale, per verificare quali e quanti audiovisivi di propaganda comunista fossero ancora conservati sul territorio. La ricerca, i cui esiti sono consultabili nell’appendice di questo scritto, si è concentrata prevalentemente sugli archivi e sui principali istituti di ricerca dell’Emilia-Romagna: sono questi i luoghi in cui, di fatto, le federazioni e le sezioni del PCI depositarono (o alle quali donarono) le proprie realizzazioni o le proprie collezioni audiovisive al momento della loro chiusura. Il risultato dell’indagine è un nutrito gruppo di film e documentari, registrati sui supporti più diversi e dalle provenienze più disparate: produzioni locali, regionali, nazionali (inviati dalla sede centrale del partito e dalle istituzioni addette alla propaganda), si mescolano a pellicole provenienti dall’estero - testimoni della rete di contatti, in particolare con i paesi comunisti, che il PCI aveva intessuto nel tempo - e a documenti realizzati all’interno dell’articolato contesto associazionistico italiano, composto sia da organizzazioni nazionali ben strutturate sul territorio 8 sia da entità più sporadiche, nate sull’onda di particolari avvenimenti di natura politica e sociale (per esempio i movimenti giovanili e studenteschi sorti durante il ’68). L’incontro con questa tipologia di documenti - così ricchi di informazioni differenti e capaci, per loro stessa natura, di offrire stimoli e spunti di ricerca assolutamente variegati - ha fatto sorgere una serie di domande di diversa natura, che fanno riferimento non solo all’audiovisivo in quanto tale (inteso in termini di contenuti, modalità espressive e narrative, contesto di produzione) ma anche e soprattutto alla natura e alle potenzialità dell’oggetto indagato, concepito in questo caso come una fonte. In altri termini, la raccolta e la catalogazione del materiale, insieme alle ricerche volte a ricostruirne le modalità produttive, gli argomenti, i tratti ricorrenti nell’ambito della comunicazione propagandistica, ha dato adito a una riflessione di carattere più generale, che guarda al rapporto tra mezzo cinematografico e storiografia e, più in dettaglio, all’utilizzo dell’immagine filmica come fonte per la ricerca. Il tutto inserito nel contesto della nostra epoca e, più in particolare, delle possibilità offerte dai mezzi di comunicazione contemporanei. Di fatti, il percorso di riflessione compiuto in queste pagine intende concludersi con una disamina del rapporto tra cinema e storia alla luce delle novità introdotte dalla tecnologia moderna, basata sui concetti chiave di riuso e di intermedialità. Processi di integrazione e rielaborazione mediale capaci di fornire nuove potenzialità anche ai documenti audiovisivi oggetto dei questa analisi: sia per ciò che riguarda il loro utilizzo come fonte storica, sia per quanto concerne un loro impiego nella didattica e nell’insegnamento - nel rispetto della necessaria interdisciplinarietà richiesta nell’utilizzo di questi documenti - all’interno di una più generale rivoluzione mediale che mette in discussione anche il classico concetto di “archivio”, di “fonte” e di “documento”. Nel tentativo di bilanciare i differenti aspetti che questa ricerca intende prendere in esame, la struttura del volume è stata pensata, in termini generali, come ad un percorso suddiviso in tre tappe: la prima, che guarda al passato, quando gli audiovisivi oggetto della ricerca vennero prodotti e distribuiti; una seconda sezione, che fa riferimento all’oggi, momento della riflessione e dell’analisi; per concludere in una terza area, dedicata alla disamina delle potenzialità di questi documenti alla luce delle nuove tecnologie multimediali. Un viaggio che è anche il percorso “ideale” condotto dal ricercatore: dalla scoperta all’analisi, fino alla rimessa in circolo (anche sotto un’altra forma) degli oggetti indagati, all’interno di un altrettanto ideale universo culturale capace di valorizzare qualsiasi tipo di fonte e documento. All’interno di questa struttura generale, la ricerca è stata compiuta cercando di conciliare diversi piani d’analisi, necessari per un adeguato studio dei documenti rintracciati i quali, come si è detto, si presentano estremamente articolati e sfaccettati. 9 Dal punto di vista dei contenuti, infatti, il corpus documentale presenta praticamente tutta la storia italiana del tentennio considerato: non solo storia del Partito Comunista e delle sue campagne di propaganda, ma anche storia sociale, culturale ed economica, in un percorso di crescita e di evoluzione che, dagli anni Cinquanta, portò la nazione ad assumere lo status di paese moderno. In secondo luogo, questi documenti audiovisivi sono prodotti di propaganda realizzati da un partito politico con il preciso scopo di convincere e coinvolgere le masse (degli iscritti e non). Osservarne le modalità produttive, il contesto di realizzazione e le dinamiche culturali interne alla compagine oggetto della ricerca assume un valore centrale per comprendere al meglio la natura dei documenti stessi. I quali, in ultima istanza, sono anche e soprattutto dei film, realizzati in un preciso contesto storico, che è anche storia della settima arte: più in particolare, di quella cinematografia che si propone come “alternativa” al circuito commerciale, strettamente collegata a quella “cultura di sinistra” sulla quale il PCI (almeno fino alla fine degli anni Sessanta) poté godere di un dominio incontrastato. Nel tentativo di condurre una ricerca che tenesse conto di questi differenti aspetti, il lavoro è stato suddiviso in tre sezioni distinte. La prima (che comprende i capitoli 1 e 2) sarà interamente dedicata alla ricostruzione del panorama storico all’interno del quale questi audiovisivi nacquero e vennero distribuiti. Una ricostruzione che intende osservare, in parallelo, i principali eventi della storia nazionale (siano essi di natura politica, sociale ed economica), la storia interna del Partito Comunista e, non da ultimo, la storia della cinematografia nazionale (interna ed esterna al partito). Questo non solo per fornire il contesto adeguato all’interno del quale inserire i documenti osservati, ma anche per spiegarne i contenuti: questi audiovisivi, infatti, non solo sono testimoni degli eventi salienti della storia politica nazionale, ma raccontano anche delle crisi e dei “boom” economici; della vita quotidiana della popolazione e dei suoi problemi, dell’emigrazione, della sanità e della speculazione edilizia; delle rivendicazioni sociali, del movimento delle donne, delle lotte dei giovani sessantottini. C’è, all’interno di questi materiali, tutta la storia del paese, che è contesto di produzione ma anche soggetto del racconto. Un racconto che, una volta spiegato nei contenuti, va indagato nella forma. In questo senso, il terzo capitolo di questo scritto si concentrerà sul concetto di “propaganda” e nella sua verifica pratica attraverso l’analisi dei documenti reperiti. Si cercherà quindi di realizzare una mappatura dei temi portanti della comunicazione politica comunista osservata nel suo evolversi e, in secondo luogo, di analizzare come questi stessi temi-chiave vengano di volta in volta declinati e 10 rappresentati tramite le immagini in movimento. L’alterità positiva del partito - concetto cardine che rappresenta il nucleo ideologico fondante la struttura stessa del Partito Comunista Italiano - verrà quindi osservato nelle sue variegate forme di rappresentazione, nel suo incarnare, di volta in volta, a seconda dei temi e degli argomenti rilevanti, la possibilità della pace; il buongoverno; la verità (contro la menzogna democristiana); la libertà (contro il bigottismo cattolico); la possibilità di un generale cambiamento. La realizzazione di alcuni percorsi d’analisi tra le pellicole reperite presso gli archivi della regione viene proposto, in questa sede, come l’ideale conclusione di un excursus storico che, all’interno dei capitoli precedenti, ha preso in considerazione la storia della cinematografia nazionale (in particolare del contesto produttivo alternativo a quello commerciale) e, in parallelo, l’analisi della produzione audiovisiva interna al PCI, dove si sono voluti osservare non solo gli enti e le istituzioni che internamente al partito si occupavano della cultura e della propaganda - in una distinzione terminologica non solo formale - ma anche le reti di relazioni e i contatti con il contesto cinematografico di cui si è detto. L’intenzione è duplice: da un lato, per inserire la storia del PCI e dei suoi prodotti di propaganda in un contesto socio-culturale reale, senza considerare queste produzioni - così come la vita stessa del partito - come avulsa da una realtà con la quale necessariamente entrava in contatto; in secondo luogo, per portare avanti un altro tipo di discorso, di carattere più speculativo, esplicitato all’interno del quarto capitolo. Ciò che si è voluto indagare, di fatto, non è solo la natura e i contenti di questi documenti audiovisivi, ma anche il loro ruolo nel sistema di comunicazione e di propaganda di partito, dove quest’ultima è identificata come il punto di contatto tra l’intellighenzia comunista (la cultura alta, legittima) e la cultura popolare (in termini gramsciani, subalterna). Il PCI, in questi termini, viene osservato come un microcosmo in grado di ripropone su scala ridotta le dinamiche e le problematiche tipiche della società moderna. L’analisi della storia della sua relazione con la società (cfr. capitolo 2) viene qui letta alla luce di alcune delle principali teorie della storia del consumi e delle interpretazioni circa l’avvento della società di massa. Lo scopo ultimo è quello di verificare se, con l’affermazione dell’industria culturale moderna si sia effettivamente verificata la rottura delle tradizionali divisioni di classe, della classica distinzione tra cultura alta e bassa, se esiste realmente una zona intermedia - nel caso del partito, identificata nella propaganda - in cui si attui concretamente questo rimescolamento, in cui si realizzi realmente la nascita di una “terza cultura” effettivamente nuova e dal carattere comunitario. Il quinto e ultimo capitolo di questo scritto fa invece riferimento a un altro ordine di problemi e argomenti, di cui in parte si è già detto. La ricerca, in questo caso, si è indirizzata verso una 11 riflessione circa l’oggetto stesso dello studio: l’audiovisivo come fonte. La rassegna delle diverse problematiche scaturite dal rapporto tra cinema e storia è corredata dall’analisi delle principali teorie che hanno permesso l’evoluzione di questa relazione, evidenziando di volta in volta le diverse potenzialità che essa può esprimere le sue possibilità d’impiego all’interno di ambiti di ricerca differenti. Il capitolo si completa con una panoramica circa le attuali possibilità di impiego e di riuso di queste fonti: la rassegna e l’analisi dei portali on-line aperti dai principali archivi storici nazionali (e la relativa messa a disposizione dei documenti); il progetto per la creazione di un “museo multimediale del lavoro” e, a seguire, il progetto didattico dei Learning Objects intendono fornire degli spunti per un futuro, possibile utilizzo di questi documenti audiovisivi, di cui questo scritto ha voluto porre in rilievo il valore e le numerose potenzialità.
Resumo:
Nel corso degli ultimi venti anni si è assistito ad un incremento generalizzato della disoccupazione in Europa in particolare di quella giovanile: nel 1997 in molti paesi europei il tasso di disoccupazione della classe 15-24 anni è doppio rispetto a quello degli adulti. Questo lavoro si propone di dare una descrizione realistica del fenomeno della disoccupazione giovanile in Italia come risultante dalle prime 4 waves dell’indagine European Household Community Panel indagando la probabilità di transizione dallo stato di disoccupazione a quello di occupazione. Nell’ambito di un’impostazione legata alla teoria dei processi stocastici e dei dati di durata si indagheranno gli effetti che episodi di disoccupazione precedenti possono avere sulla probabilità di trovare un lavoro, in particolare, nell’ambito di processi stocastici più generali si rilascerà l’ipotesi di semi-markovianità del processo per considerare l’effetto di una funzione della storia passata del processo sulla transizione attuale al lavoro. La stima della funzione di rischio a vari intervalli di durata si dimostra più appropriata quando si tiene conto della storia passata del processo, in particolare, si verifica l’ipotesi che la possibilità di avere successo nella ricerca di un lavoro è negativamente influenzata dall’aver avuto in passato molte transizioni disoccupazione-occupazione-disoccupazione.
Resumo:
Il patrimonio edilizio italiano è costituito in gran parte da costruzioni che utilizzano la muratura come struttura portante. Le conoscenze acquisite negli ultimi anni nel campo dell’ingegneria hanno reso evidente come le costruzioni in muratura siano state concepite, nel corso dei secoli, senza quegli accorgimenti che l’evoluzione delle tecniche moderne di analisi ha dimostrato essere necessari. Progettare un intervento edilizio su un edificio esistente, correlato anche alla valutazione di rischio sismico, e cercare di migliorare le prestazioni dello stesso edificio, richiede partire sempre dalla conoscenza delle caratteristiche statiche intrinseche che il materiale della muratura possiede. La conoscenza della patologia comporta l'indubbio vantaggio di mettere al corrente di cosa ci si può attendere nel futuro dal punto di vista strutturale, come ad esempio che il fenomeno non sarà eliminabile all'origine e che la fessura o lesione magari si riformerà sempre, a meno d’interventi statici rilevanti e di costi ingenti. Diventa quindi di fondamentale importanza eseguire uno studio approfondito dei fenomeni strutturali anomali di deterioramento, quali lesioni, fessurazioni e simili, legati spesso a fattori ambientali, attraverso specifiche indagini diagnostiche e di monitoraggio dello stato interno delle strutture, per definire le cause responsabili e il metodo più adeguato alla tutela dei beni storici [Mastrodicasa, 1993]. Il monitoraggio dei possibili parametri che influenzano tali processi può essere continuo nel tempo o per mezzo di metodologia discontinua che prevede l’utilizzo e la ripetizione di prove non distruttive. L’elevato costo di un eventuale processo continuo ha limitato significativamente la sua applicazione, riducendo lo studio all’analisi di pochi parametri derivanti dalle prove diagnostiche e spesso non del tutto adatti alla completa analisi della struttura. Il seguente lavoro di tesi è sviluppato all’interno del progetto SmooHS (Smart Monitoring of Historic Structures) nell’ambito del 7° Programma Quadro della Commissione Europea che si pone come obiettivo lo sviluppo di strumenti di monitoraggio innovativi ‘intelligenti’ e poco invasivi e modelli di degrado e la loro sperimentazione sul campo per verificarne l’effettiva efficacia attraverso il confronto con risultati di prove non distruttive. La normativa correlata a questo studio, “Norme Tecniche per le Costruzioni’ (D.M. 14/01/2008), evidenzia come ‘La conoscenza della costruzione storica in muratura è un presupposto fondamentale sia ai fini di un’attendibile valutazione della sicurezza sismica attuale sia per la scelta di un efficace intervento di miglioramento…. Si ha pertanto la necessità di affinare tecniche di analisi e interpretazione dei manufatti storici mediante fasi conoscitive dal diverso grado di attendibilità, anche in relazione al loro impatto. La conoscenza può, infatti, essere conseguita con diversi livelli di approfondimento, in funzione dell’accuratezza delle operazioni di rilievo, delle ricerche storiche, e delle indagini sperimentali. Tali operazioni saranno funzione degli obiettivi preposti e andranno a interessare tutto o in parte l’edificio, secondo la tipologia dell’intervento previsto’. L’utilizzo di ‘Tecniche diagnostiche non distruttive di tipo indiretto, quali prove soniche e ultrasoniche’ è preferibile poiché molto promettenti e hanno il pregio di poter essere utilizzate in modo diffuso con un relativo impatto sulla costruzione e costi relativamente contenuti. La non identificazione di una procedura univoca di prove non distruttive per ciascuna tipologia edilizia rende necessario uno studio di fattibilità di diverse tecniche per valutarne l’effettiva efficacia in base al risultato atteso. L’obiettivo di questo lavoro di tesi è stato lo studio sperimentale di valutazione dell’efficacia di alcune tecniche soniche in trasmissione, tomografia e prove soniche dirette, nel monitoraggio di provini precedentemente realizzati ad hoc nei laboratori LISG (Laboratorio di Ingegneria Strutturale e Geotecnica) del DICAM dell’Università di Bologna caratterizzati da presenze di discontinuità (vacui o inclusioni di polistirolo) o materiali differenti in determinate posizioni di geometria e localizzazione nota e diverse tessiture murarie (muratura di laterizio tradizionale, muratura a sacco, inclusioni lapidee). Il capitolo 1 presenta una descrizione generale delle murature, le cause principali di deterioramento e conseguenti dissesti. Presenta inoltre una finestra sulle prove diagnostiche. Nel capitolo 2 sono riportati alcuni esempi di applicazioni di tomografia e prove soniche e sviluppi di ricerca su strutture storiche lignee e murarie eseguite recentemente. Nel capitolo 3 sono presentati i provini oggetto di studio, la loro geometria, i difetti, le sezioni. Il capitolo 4 descrive i principi fisici delle prove soniche e grandezze caratteristiche e presenta la procedura di acquisizione e relative strumentazioni. I capitoli 5 e 6 riguardano lo studio sperimentale vero e proprio ottenuto attraverso l’utilizzo di tomografia sonica e prove dirette, con descrizione delle stazioni di prova, visualizzazione dei dati in tabelle per una semplice interpretazione, loro elaborazione e susseguente analisi approfondita, con valutazione dei risultati ottenuti e debite conclusioni. Il capitolo 7 presenta un confronto delle analisi comuni a entrambe le tipologie di prove soniche, visualizzazioni di istogrammi di paragone e considerazioni deducibili.