1000 resultados para Miccoli, Giovanni: I dilemmi e i silenzi di Pio XII
Resumo:
I primi studi su Orthogonal Frequency Division Multiplexing (OFDM) sono stati fatti fin dal 1960, ma negli ultimi anni la modulazione OFDM è emersa come una tecnica di modulazione chiave commerciale per i sistemi di comunicazione ad alta velocità. La ragione principale di questo crescente interesse è dovuto alla sua capacità di fornire dati ad alta velocità impiegando sistemi con complessità bassa e contrastando l'interferenza intersimbolo (ISI) e quella intercanale (ICI). Per questo motivo la modulazione OFDM è stata adottata da diversi sistemi digitali wireline e wireless standard, come Digital Audio Broadcasting (DAB), Asymmetric Digital Subscriber Line (ADSL), Wireless Local Area Network (IEEE 802.11 a,g,n) oppure per WiMAX e LTE.
Resumo:
Il mio percorso universitario presso la Facoltà di Architettura “Aldo Rossi” inizia nell’anno accademico 2005-2006. Da allora ad oggi ho avuto modo di sviluppare particolarmente alcuni temi, oggetto di lavori realizzati nel corso dei miei studi. L’attività di progettazione svolta ogni anno mi ha permesso di acquisire il modus operandi proprio di un progetto di architettura e allo stesso tempo di porre l’attenzione su alcuni argomenti, che a mio avviso, devono essere sempre affrontati da chi ha intenzione di svolgere il mestiere dell’architetto. Durante i corsi di Composizione Architettonica ed Urbanistica frequentati, ho avuto l’occasione di mettere in luce un aspetto che ritengo estremamente importante, anzi addirittura fondante, che potrebbe essere definito come “progetto di suolo”. Il suolo per un architetto rappresenta la condizione fisica essenziale affinché un oggetto architettonico possa essere costruito, ma in realtà esso non è un puro elemento di supporto per l’architettura, quanto piuttosto un “tema” che offre una molteplicità di risposte e soprattutto di possibilità per il progettista. Il costruito nel suo essere sintetico racchiude un duplice significato: da un lato implica la presenza tangibi-le di una manufatto architettonico, ma dall’altro rinvia anche alla dimensione del vuoto, da intendersi come complesso di spazi pubblici e collettivi, che assieme all’architettura generano la città o una sua parte. Nel corso degli studi ho avuto sempre l’occasione di riflettere sul peso che il “suolo” riveste all’interno di un progetto: la sua morfologia, la sua struttura e quindi il suo disegno, il suo trattamento e la sua gestione, sono aspetti che ogni volta fondano e precisano l’idea progettuale. Mi sono sempre chiesta come l’architettura potesse dialogare con il paesaggio circostante, con la superfi-cie sulla quale si innesta, con la città: essa non è un oggetto puramente introverso ma deve necessaria-mente instaurare una relazione con ciò che la circonda, in modo da poter giustificare la sua stessa pre-senza. Il filo conduttore che lega i progetti qui selezionati e presentati è dunque il progetto del suolo, inscindibile rispetto al progetto architettonico e avente pari valore: esso rappresenta un elemento fondativo che si pone in dialogo diretto, continuo e soprattutto reciproco con l’architettura.
Resumo:
Il lavoro di ricerca tenta di inquadrare sotto nuove prospettive una problematica ormai classica all’interno della semiotica della pubblicità: l’analisi dello spot. I punti chiave del lavoro – e la pretesa di una certa differenza rispetto a lavori con oggetti affini – consistono sostanzialmente in tre aspetti. Innanzitutto, vi è un ritorno alle origini flochiane nella misura in cui non solo il contesto complessivo e le finalità che la ricerca si propone sono fortemente ancorati all’interno di obiettivi di marketing, ma tutto lo studio nella sua interezza nasce dal dialogo concreto tra metodologia di analisi semiotica e prassi concreta all’interno degli istituti di ricerca di mercato. La tesi non presenta quindi una collezione di analisi di testi pubblicitari condotte in modo autoriferito, quanto piuttosto di “messe alla prova” della metodologia, funzionali alla definizione di disegni di ricerca per la marketing research. Questo comporta un dialogo piuttosto stretto con metodologie affini (sociologia qualitativa e quantitativa, psicologia motivazionale, ecc.) nella convinzione che la priorità accordata all’oggetto di analisi sia sovraordinata rispetto all’ortodossia degli strumenti metodologici. In definitiva, lo spot è sempre e comunque analizzato all’interno di una prospettiva brand-centrica che ha ben in mente la semiotica della situazione di consumo rispetto alla quale lo spot agisce da leva di valorizzazione per l’acquisto. In secondo luogo, gli oggetti analizzati sono piuttosto vari e differenziati: non solo lo spot nella sua versione audiovisiva definitiva (il “girato”), ma anche storyboard, animatic, concept (di prodotto e di comunicazione). La prospettiva generativa greimasiana va a innestarsi su problematiche legate (anche) alla genesi dello spot, alla sua progettazione e riprogettazione/ottimizzazione. La tesi mostra quindi come una semiotica per le consulenze di marketing si diriga sul proprio oggetto ponendogli domande ben circoscritte e finalizzate a un obiettivo specifico, sostanzialmente derivato dal brief contenente le intenzioni comunicazionali del cliente-azienda. Infine, pur rimanendo all’interno di una teoria semiotica generativa (sostanzialmente greimasiana e post greimasiana), la ricerca adotta una prospettiva intrinsecamente multidisciplinare che se da un lato guarda a problematiche legate al marketing, al branding e alla comunicazione pubblicitaria e d’impresa tout court, dall’altro ritorna alle teorie dell’audiovisivo, mostrando affinità e differenze rispetto a forme audiovisive standard (il “film”) e a mutuazioni da nuove estetiche (la neotelevisione, il videoclip, ecc). La tesi si mostra solidamente convinta del fatto che per parlare di efficacia discorsiva sia imprescindibile approfondire le tematiche riguardanti il sincretismo espressivo e le specifiche modalità di manifestazione stilistica. In questo contesto, il lavoro si compone di quattro grandi aree tematiche. Dopo una breve introduzione sull’attualità del tema “spot” e sulla prospettiva analiticometodologica adottata (§ 1.), nel secondo capitolo si assume teoreticamente che i contenuti dello spot derivino da una specifica (e di volta in volta diversa) creolizzazione tra domini tematici derivanti dalla marca, dal prodotto (inteso tanto come concept di prodotto, quanto come prodotto già “vestito” di una confezione) e dalle tendenze socioculturali. Le tre dimensioni vengono valutate in relazione all’opposizione tra heritage, cioè continuità rispetto al passato e ai concorrenti e vision, cioè discontinuità rispetto alla propria storia comunicazionale e a quella dei concorrenti. Si esplorano inoltre altri fattori come il testimonial-endorser che, in quanto elemento già intrinsecamente foriero di elementi di valorizzazione, va a influire in modo rilevante sul complesso tematico e assiologico della pubblicità. Essendo la sezione della tesi che prende in considerazione il piano specificatamente contenutistico dello spot, questa parte diventa quindi anche l’occasione per ritornare sul modello delle assiologie del consumo di Jean-Marie Floch, approntando alcune critiche e difendendo invece un modello che – secondo la prospettiva qui esposta – contiene punti di attualità ineludibili rispetto a schematizzazioni che gli sono successive e in qualche modo debitrici. Segue una sezione (§ 3.) specificatamente dedicata allo svolgimento e dis-implicazione del sincretismo audiovisivo e quindi – specularmente alla precedente, dedicata alle forme e sostanze del contenuto – si concentra sulle dinamiche espressive. Lo spot viene quindi analizzato in quanto “forma testuale” dotata di alcune specificità, tra cui in primis la brevità. Inoltre vengono approfondite le problematiche legate all’apporto di ciascuna specifica sostanza: il rapporto tra visivo e sonoro, lo schermo e la sua multiprospetticità sempre più evidente, il “lavoro” di punteggiatura della musica, ecc. E su tutto il concetto dominante di montaggio, intrinsecamente unito a quello di ritmo. Il quarto capitolo ritorna in modo approfondito sul rapporto tra semiotica e ricerca di mercato, analizzando sia i rapporti di reciproca conoscenza (o non conoscenza), sia i nuovi spazi di intervento dell’analisi semiotica. Dopo aver argomentato contro un certo scetticismo circa l’utilità pragmatica dell’analisi semiotica, lo studio prende in esame i tradizionali modelli di valutazione e misurazione dell’efficacia pubblicitaria (pre- e post- test) cercando di semiotizzarne il portato. Ne consegue la proposta di disegni di ricerca semiotici modulari: integrabili tra loro e configurabili all’interno di progetti semio-quali-quantitativi. Dopo aver ridefinito le possibilità di un’indagine semiotica sui parametri di efficacia discorsiva, si procede con l’analisi di un caso concreto (§ 5.): dato uno spot che si è dimostrato efficace agli occhi dell’azienda committente, quali possono essere i modi per replicarne i fattori di successo? E come spiegare invece quelli di insuccesso delle campagne successive che – almeno teoricamente – erano pensate per capitalizzare l’efficacia della prima? Non si tratta quindi di una semiotica ingenuamente chiamata a “misurare” l’efficacia pubblicitaria, che evidentemente la marketing research analizza con strumenti quantitativi assodati e fondati su paradigmi di registrazione di determinati parametri sul consumatore (ricordo spontaneo e sollecitato, immagine di marca risultante nella mente di user e prospect consumer, intenzione d’acquisto stimolata). Piuttosto l’intervento qui esposto si preoccupa più funzionalmente a spiegare quali elementi espressivi, discorsivi, narrativi, siano stati responsabili (e quindi prospetticamente potranno condizionare in positivo o in negativo in futuro) la ricezione dello spot. L’analisi evidenzia come elementi apparentemente minimali, ancorati a differenti livelli di pertinenza siano in grado di determinare una notevole diversità negli effetti di senso. Si tratta quindi di un problema di mancata coerenza tra intenzioni comunicative e testo pubblicitario effettivamente realizzato. La risoluzione di tali questioni pragmatiche conduce ad approfondimenti teoricometodologici su alcuni versanti particolarmente interessanti. In primo luogo, ci si interroga sull’apporto della dimensione passionale nella costruzione dell’efficacia e nel coinvolgimento dello spettatore/consumatore. Inoltre – e qui risiede uno dei punti di maggior sintesi del lavoro di tesi – si intraprende una proficua discussione dei modelli di tipizzazione dei generi pubblicitari, intesi come forme discorsive. Si fanno quindi dialogare modelli diversi ma in qualche misura coestensivi e sovrapponibili come quelli di Jean Marie Floch, Guido Ferraro, Cosetta Saba e Chiara Giaccardi. Si perviene così alla costruzione di un nuovo modello sintetico, idealmente onnipervasivo e trasversale alle prospettive analizzate.
Resumo:
La tesi di laurea che verrà qui di seguito presentata, ha l’obiettivo di far vedere come interventi di consolidamento attuati al fine di mettere in sicurezza una struttura esistente possano essere utilizzati come presidi per il riuso, occasioni in cui far fondere in progetto architettonico di recupero di un manufatto con interventi tecnologici-strutturali atti a salvaguardarlo. Si cercherà perciò di far andare di pari passo questi due elementi evitando che uno di essi prevalga sull’altro e considerandoli in modo unitario e non come due progetti separati. L’edificio preso in esame è il Castello di Zocco. Risalente al XII secolo, è situato su una piccola collina lungo le sponde del Lago Trasimeno in Provincia di Perugia. Esso è costituito da una cinta muraria al cui interno sono presenti pochi edifici in pessimo stato di conservazione, è attualmente in disuso e presenta notevoli dissesti strutturali. Il castello è stato studiato da tutti i punti di vista al fine di formulare un’ipotesi di riutilizzo. Ne è stata inizialmente analizzata la posizione geografica-territoriale elemento significativo sia per la sua storia che per la sua organizzazione insediativa. Successivamente, dallo studio storico, si è intrapresa un’analisi dei sistemi costruttivi e della consistenza indispensabili per una migliore comprensione del complesso. Uno studio approfondito di tutto ciò, unito ad un’analisi dettagliata dei dissesti statici e dei meccanismi di danno e collasso, è stato il punto di partenza per l’elaborazione di un progetto architettonico che andasse di pari passo con il consolidamento strutturale compatibile con l’edificio stesso.
Resumo:
Questo progetto nasce dalla volontà di creare un oasi verde, dove poter studiare, fare ricerca e anche rilassarsi, distogliendo l’attenzione dalla distesa di fabbriche ceramiche che si stagliano per chilometri quadrati su tutto il territorio del comparto ceramico reggiano-modenese. Lo scenario che si presenta a chi fruisce di questi luoghi è, infatti, di straniamento. Si è pervasi da un forte senso di alienazione ed inadeguatezza a causa delle dimensioni di alcuni fabbricati e dalla bicromia che ne caratterizzano gli spazi. Tali caratteristiche ambientali cozzano prepotentemente con la presenza di verde molto intenso, quasi boschivo, che compone il parco delle Salse di Nirano e gli spazi circostanti il Castello di Spezzano, distante solo qualche centinaia di metri dal complesso fioranese della Ferrari e quindi dal sito in esame. Fra gli obiettivi progettuali non è mai stato prioritario salvaguardare le strutture industriali presenti sull’area, non tanto a causa dello scarso interesse architettonico dei manufatti, quanto conseguentemente alla considerazione che la tipicità di tali strutture è ben rappresentata anche dalle fabbriche dell’intorno. L’obiettivo prefissato è proprio quello di infrangere questa monotonia, di organizzare spazi e, soprattutto, servizi, fino ad ora, totalmente assenti. Questa mancanza può essere spiegata ricordando l’indirizzo prettamente industriale dell’area, ma, analizzando attentamente le emergenze limitrofe all’area in questione, è facile notare come la cittadella Ferrari, ad esempio, abbia cominciato a dare al problema una risposta molto forte dal punto di vista architettonico. Nonostante questa parziale risignificazione del territorio, la separazione fra topos urbano - residenziale e industriale all’interno del Distretto è fin troppo marcata. Va detto anche che la totale carenza di luoghi per poter camminare, magari riflettendo sui temi oggetto di ricerca, e per poter vivere all’aria aperta, induce a progettare una soluzione destinata a ovviare al problema. Ne consegue quindi una forte deficienza di infrastrutture, come i parcheggi, di luoghi dedicati al divertimento o anche solo al tempo libero. Proprio per questo motivo, fra i propositi c’è anche quello di integrare il progetto con qualche soluzione in favore di questa problematica, come un polo sportivo che comprenda palestre e piscine. Il contesto, caratterizzato dalla presenza del circuito, che ha risonanza internazionale, suggerisce di optare per una struttura planimetrica lineare: ciò va a massimizzare il contatto fra superficie degli edifici e l’intorno. Sviluppando questa linearità, prende corpo la problematica di creare una rotazione circa a metà della linea d’asse; in primo luogo per assecondare la morfologia dell’area e del contesto, mantenendo inalterati gli edifici situati a nord, e, non meno importante, assegnare il giusto orientamento all’ambito residenziale, che per la sua architettura dovrà essere rivolto perfettamente verso sud. Spostando poi lo sguardo verso gli stabilimenti della Rossa, la via Giardini offre numerosi spunti progettuali. Porta a essere ripensata, lungo i suoi margini, per rapportarla meglio al contesto Ferrari, che è, a sua volta, legato indissolubilmente a quello che si trova al di là di tale asse viario; il Circuito di Fiorano e il progetto del centro ricerca. Per questo motivo risulta una priorità anche la progettazione di percorsi pedonali che colleghino il centro degli stabilimenti Ferrari con l’area del circuito, in modo da favorire la fruibilità di questo luogo di indubbio fascino e carico di storia. In conclusione, il progetto dovrà sviluppare un articolazione che consenta di percepire l’architettura in movimento. La volontà progettuale è chiaramente scenografica e si occuperà anche del rapporto fra tecnica e uomo (macchina/natura). La necessità percepita è quella, dunque, di creare un impianto di forte espressività per sanare una situazione urbana lacerata e caotica. La vastità dell’area in esame permette di incrementare la presenza di entità naturali ad esempio con l’aggiunta dell’enorme vasca d’acqua che può essere utilizzata direttamente anche per scopi funzionali al centro ricerca. L’articolazione progettuale si rivela perciò molto sfaccettata e ricca di spunti.
Resumo:
La tesi analizza il rapporto tra pratiche sociali, modelli di insediamento e morfologia urbana in due casi di costruzione di un tessuto urbano operaio che si prestano ad una stimolante comparazione. Da un lato abbiamo degli immigrati verso un polo industriale dell’area metropolitana milanese (Sesto San Giovanni), dall’altro un bacino minerario vallone (La Louvière). Si tratta di contesti di inserimento in aree industriali profondamente differenti dal punto di vista della morfologia sociale e dell’organizzazione territoriale, che profilano spazi ibridi tra rurale e urbano in profonda e rapida trasformazione, a causa del massiccio afflusso di manodopera immigrata. Le profonde differenze tra le due aree consentono di mettere alla prova dell’analisi comparata concetti e percorsi storici dell’integrazione, del tessuto sociale che la presuppone, della cittadinanza, della costruzione delle identità collettive in modo da superare stereotipe dicotomie tra rurale/urbano, tradizione/moderno, integrazione/conflitto. La tesi sviluppa un’analisi parallela dei due casi lungo un crinale argomentativo unitario che si apre con una ricerca sui flussi migratori e i contesti di approdo delle migrazioni. Nei primi due capitoli viene delineato il contesto economico, sociale e territoriale nel quale si inseriscono i due processi migratori. Per il caso belga, si analizzano il ciclo economico dell’industria carbonifera, il processo di spopolamento della Vallonia, l’avvio dei flussi migratori al termine della seconda guerra mondiale e i meccanismi che li hanno presieduti, vale a dire una migrazione contrattata tra i due governi che spostavano migranti provenienti da poche e selezionate località, rendono conto del primo dei due flussi. Per quanto riguarda il caso interno, viene delineato il contesto della rapida urbanizzazione che porta una serie di comuni contermini al capoluogo lombardo ad entrare nell’orbita metropolitana, qualificandosi come poli periferici di un’area vasta e perdendo la riconoscibilità come nuclei urbani indipendenti. Delineato questo quadro generale, la tesi affronta la questione delle abitazioni e delle forme urbane che assumono queste due mete di migrazione. Per quanto riguarda La Louvière, è ricostruito il duro impatto con il mondo del lavoro nelle miniere e le miserevoli condizioni abitative dei primi immigrati, l’assenza di una iniziativa pubblica nel settore abitativo fino al 1954, solo debolmente compensata dalle iniziative patronali, e la fase invece della seconda metà degli anni ‘50 che porta alla stabilizzazione degli immigrati italiani nell’area. Di Sesto San Giovanni viene ricostruita la complessa transizione a moderna periferia urbana, a partire da insediamenti di tipo rurale, passando attraverso le «Coree» e l’iniziativa pubblica, locale e nazionale, nonché l’intervento edilizio delle grandi imprese industriali che operavano nel suo territorio. L’intervento urbanistico nella cintura metropolitana milanese era al centro di un vivace dibattito sulla pianificazione urbanistica a livello intercomunale che dà luogo a ricerche e studi sulla condizione abitativa. Nell’ultima parte della ricerca, si approfondiscono gli aspetti sociali e culturali del percorso di insediamento e di integrazione nel tessuto urbano. E’ in questa parte che vengono maggiormente utilizzate le fonti orali – sempre opportunamente affiancate e confrontate con altri documenti – al fine di individuare la percezione di sé, della propria identità, le relazioni con altri gruppi sociali, i cambiamenti che la migrazione e l’incontro con la città e l’industria portano nei ruoli di genere, nelle prospettive di vita, nei desideri e nei progetti di questi migranti. Rilevando le peculiarità di due esperienze sociali di migrazione che a partire da contesti di partenza molto simili e portando perlopiù dei contadini ad incontrare città di un mondo lontano, la comparazione profila dinamiche sociali, identitarie e politiche profondamente diverse nei bacini minerari valloni e nella metropoli del miracolo.
Resumo:
L’ecografia è la metodica diagnostica più utilizzata come screening e follow-up nei pazienti epatopatici con o senza lesioni focali e questo grazie alle sue peculiari caratteristiche, che sono date dall’essere real-time, maneggevole, priva di radiazioni ionizzanti e con bassi costi. Tuttavia tale metodica se confrontata con la TC o la RMN, può avere importanti limiti, quali l’impossibilità di visualizzare piccole lesioni localizzate in aree anatomicamente “difficili” o in pazienti obesi, che sono già state identificate con altre tecniche, come la TC o la RMN. Per superare queste limitazioni sono stati introdotti dei sistemi di “fusione d’immagine” che consentono di sincronizzare in tempo reale una metodica real time con bassa risoluzione spaziale come l’ecografia ed una statica ad alta risoluzione come la TC o la RMN. Ciò si ottiene creando attorno al paziente un piccolo campo elettromagnetico costituito da un generatore e da un rilevatore applicato al trasduttore ecografico ed introducendo in un computer abbinato all’ecografo il “volume rendering” dell’addome del paziente ottenuto mediante TC multistrato o RM. Il preciso “ appaiamento spaziale “ delle due metodiche si ottiene individuando in entrambe lo stesso piano assiale di riferimento e almeno 3-4 punti anatomici interni. Tale sistema di fusione d’immagine potrebbe essere molto utile in campo epatologico nella diagnostica non invasiva del piccolo epatocarcinoma, che secondo le ultime linee guida, nei noduli di dimensioni fra 1 e 2 cm, richiede una concordanza nel comportamento contrastografico della lesione in almeno due tecniche d’immagine. Lo scopo del nostro lavoro è stato pertanto quello di valutare, in pazienti epatopatici, il contributo che tale sistema può dare nell’identificazione e caratterizzazione di lesioni inferiori a 20 mm, che erano già state identificate alla TC o alla RMN come noduli sospetti per HCC, ma che non erano stati visualizzati in ecografia convenzionale. L’eventuale re-identificazione con l’ecografia convenzionale dei noduli sospetti per essere HCC, può permettere di evitare, alla luce dei criteri diagnostici non invasivi un’ ulteriore tecnica d’immagine ed eventualmente la biopsia. Pazienti e Metodi: 17 pazienti cirrotici (12 Maschi; 5 Femmine), con età media di 68.9 +/- 6.2 (SD) anni, in cui la TC e la RMN con mezzo di contrasto avevano identificato 20 nuove lesioni focali epatiche, inferiori a 20 mm (13,6 +/- 3,6 mm), sospette per essere epatocarcinomi (HCC), ma non identificate all’ecografia basale (eseguita in cieco rispetto alla TC o alla RMN) sono stati sottoposti ad ecografia senza e con mezzo di contrasto, focalizzata su una zona bersaglio identificata tramite il sistema di fusione d’immagini, che visualizza simultaneamente le immagini della TC e della RMN ricostruite in modalità bidimensionale ( 2D), tridimensionale ( 3 D) e real-time. La diagnosi finale era stata stabilita attraverso la presenza di una concordanza diagnostica, secondo le linee guida internazionali o attraverso un follow-up nei casi di discordanza. Risultati: Una diagnosi non invasiva di HCC è stata raggiunta in 15/20 lesioni, inizialmente sospettate di essere HCC. Il sistema di fusione ha identificato e mostrato un comportamento contrastografico tipico in 12/15 noduli di HCC ( 80%) mentre 3/15 HCC (20%) non sono stati identificati con il sistema di fusione d’immagine. Le rimanenti 5/20 lesioni non sono state visualizzate attraverso i sistemi di fusione d’immagine ed infine giudicate come falsi positivi della TC e della RMN, poiché sono scomparse nei successivi mesi di follow-up e rispettivamente dopo tre, sei, nove, dodici e quindici mesi. Conclusioni: I nostri risultati preliminari mostrano che la combinazione del sistema di fusione dell’immagine associata all’ecografia senza e con mezzo di contrasto (CEUS), migliora il potenziale dell’ecografia nell’identificazione e caratterizzazione dell’HCC su fegato cirrotico, permettendo il raggiungimento di una diagnosi, secondo criteri non invasivi e slatentizzazndo casi di falsi positivi della TC e della RMN.
Resumo:
Nel contesto della progettazione di interventi di difesa da frane di crollo, la tesi è rivolta allo studio del comportamento di opere di protezione dalla caduta massi, con particolare riguardo alle barriere paramassi, strutture metalliche progettate per arrestare blocchi in caduta lungo un versante. Specificamente, il comportamento altamente non lineare di queste strutture è stato osservato mediante modellazione numerica agli elementi finiti con codice di calcolo STRAUS 7 v.2.3.3. La formulazione dei modelli è stata sviluppata a partire dai dati contenuti nel Catasto delle opere di protezione (VISO), recentemente messo a punto dalla Provincia Autonoma di Bolzano, nel contesto di una più ampia procedura di analisi della pericolosità di versante in presenza di opere di protezione, finalizzata ad una appropriata gestione del rischio indotto da frane di crollo. Sono stati messi a punto una serie di modelli agli elementi finiti di alcune tra le tipologie più ricorrenti di barriere paramassi a limitata deformabilità. Questi modelli, sottoposti ad una serie di analisi dinamiche e non-lineari, intese a simulare l’impatto di blocchi aventi massa e velocità nota, hanno permesso di osservare la risposta complessiva di queste strutture in regime dinamico identificando i meccanismi di rottura a partire dall’osservazione della formazione di cerniere plastiche, monitorando contestualmente grandezze rilevanti quali gli spostamenti e le forze mobilitate in fondazione. Questi dati, opportunamente interpretati, possono fornire i parametri necessari all’implementazione di più ampie procedure di analisi del rischio indotto da movimenti frane di crollo.
Resumo:
Le biomasse hanno sempre rappresentato per l’umanità una fonte estremamente versatile e rinnovabile di risorse e tutt’oggi il loro impiego risulta vantaggioso in particolare per produrre energia termica ed elettrica attraverso processi di combustione, sistemi che tuttavia emettono sostanze dannose verso la salute umana e l’ecosistema. Queste pressioni ambientali hanno indotto alcune amministrazioni regionali (fra cui la Lombardia) a bandire temporaneamente l’installazione di nuovi impianti a biomasse, per prevenire e contenere le emissioni in atmosfera a tutela della salute e dell’ambiente. Il presente studio intende approfondire l’effetto ambientale di tali sistemi di riscaldamento domestico attraverso la tecnologia di analisi LCA (Life Cycle Assessment). Lo scopo dell’elaborato di Tesi consiste nell’eseguire un’analisi dell’intero ciclo di vita di due processi di riscaldamento domestico che utilizzino biomassa legnosa: una stufa innovativa a legna e una stufa a pellet. L’analisi ha quindi posto a confronto i due scenari con mezzi di riscaldamento domestico alternativi quali il boiler a gas, il pannello solare termico integrato con caldaia a gas e la pompa di calore elettrica. È emerso che tra i due scenari a biomassa quello a legna risulti decisamente più impattante verso le categorie salute umana e qualità dell’ecosistema , mentre per il pellet si è riscontrato un impatto maggiore del precedente nella categoria consumo di risorse. Dall’analisi di contributo è emerso che l’impatto percentuale maggiore per entrambi gli scenari sia legato allo smaltimento delle ceneri, pertanto si è ipotizzata una soluzione alternativa in cui esse vengano smaltite nell’inceneritore, riducendo così gli impatti. I risultati del punteggio singolo mostrano come lo scenario di riscaldamento a legna produca un quantitativo di particolato superiore rispetto al processo di riscaldamento a pellet, chiaramente dovuto alle caratteristiche chimico-fisiche dei combustibili ed alla efficienza di combustione. Dal confronto con gli scenari di riscaldamento alternativi è emerso che il sistema più impattante per le categorie salute umana e qualità dell’ecosistema rimane quello a legna, seguito dal pellet. I processi alternativi presentano impatti maggiori alla voce consumo di risorse. Per avvalorare i risultati ottenuti per i due metodi a biomassa è stata eseguita un’analisi di incertezza attraverso il metodo Monte Carlo, ad un livello di confidenza del 95%. In conclusione si può affermare che i sistemi di riscaldamento domestico che impiegano processi di combustione della biomassa legnosa sono certamente assai vantaggiosi, poiché pareggiano il quantitativo di CO2 emessa con quella assorbita durante il ciclo di vita, ma al tempo stesso possono causare maggiori danni alla salute umana e all’ecosistema rispetto a quelli tradizionali.
Resumo:
Questo lavoro si è posto l’obiettivo di valutare l’effetto dei processi di combustione della biomassa sulla composizione chimica del particolato atmosferico. Sono state analizzate le polveri totali sospese (TSP) e le sotto-frazioni PM10 e PM2.5. Il sito di campionamento è collocato in un’area suburbana costiera nella provincia di Rimini. L’area di studio è soggetta all’apporto di contaminanti derivanti dalle emissioni del traffico autoveicolare (urbano e della vicina autostrada A14) e di piccole attività industriali, tra cui la più importante è l’inceneritore di rifiuti solidi urbani. Il campionamento è stato effettuato nei mesi marzo-aprile 2011. Durante questo periodo ricorre la tradizionale festa popolare delle “Focheracce” dove si bruciano enormi cataste di legna per salutare l’inverno ed accogliere la primavera. In corrispondenza proprio di questa giornata si registra in atmosfera un forte incremento della concentrazione di polveri accompagnato da una variazione nella loro composizione chimica. Il levoglucosano (LG), marker specifico dei processi di combustione della biomassa, mostra concentrazioni di un ordine più elevato rispetto a tutto il periodo di campionamento. Incrementi si registrano, più in generale, per tutti quei composti direttamente imputabili ai processi di combustione incompleta, come CO, CE ed IPA. Il campionamento in occasione dei fuochi ha inoltre evidenziato maggiori concentrazioni in atmosfera di potassio, magnesio, ammonio, nitrati e carbonati nella frazione TSP-PM10. In conclusione, dai risultati della caratterizzazione chimica nelle diverse frazioni granulometriche delle polveri è possibile affermare che i processi di combustione della biomassa, hanno nell’area di studio un ruolo importante nel determinare il carico complessivo delle PM. La correlazione inversa tra temperatura atmosferica e concentrazione di levoglucosano induce a pensare che il contributo dovuto alla combustione di biomassa sulle PM sia imputabile al riscaldamento domestico.
Resumo:
Il lavoro della presente Tesi è stato lo sviluppo della sintesi asimmetrica di aziridine chirali a partire da chetoni α,β-insaturi α-sostituiti, verificando la possibilità di applicare ammine primarie come organocatalizzatori attraverso un meccanismo tandem ione imminio-enammina. Nelle nostre prove le migliori ammine primarie si sono rivelate gli pseudoenantiomeri 9-ammino-9-deossi-epi-idrochinina e idrochinidina, e i migliori acidi per formare il sale catalitico sono stati acido trifluoroacetico (TFA) e acido salicilico. Il fattore chiave per le reazioni di aziridinazione è stata la scelta della molecola sorgente di azoto, che deve avere comportamento nucleofilico nel primo step di aza-Michael (via ione imminio), e comportamento elettrofilico nello step di chiusura del ciclo (via enammina). Le prove preliminari sono state condotte con il sale catalitico formato dalla 9-ammino-9-deossi-epi-idrochinina e TFA in toluene a 50 °C. Migliori risultati sono stati ottenuti sostituendo la sorgente di azoto utilizzata inizialmente e utilizzando il sale catalitico composto da 9-ammino-9-deossi-epi-idrochinidina e acido salicilico in toluene a 50 °C. In questo caso la resa è stata pari a 56% ed eccesso enantiomerico (ee) del 90%. Sfruttando quindi le condizioni ottimizzate inizialmente, abbiamo provato la reazione su altri due chetoni con maggiore ingombro sterico rispetto a quello utilizzato per l’ottimizzazione iniziale del processo. In entrambi i casi la reattività è stata sensibilmente inferiore a quanto atteso, con rese non superiori al 14%. Inoltre anche i valori di ee sono stati poco soddisfacenti. Ipotizziamo che questi risultati deludenti siano causati dall’ingombro sterico della catena in posizione β che impedisce l’avvicinamento del catalizzatore, il quale, non creando un intorno asimmetrico, non crea una distinzione tra le due possibili direzioni di attacco del nucleofilo. Da questi ultimi risultati sembra che la reazione di aziridinazione da noi ottimizzata sia per ora limitata al solo chetone utilizzato nella fase iniziale del lavoro. Al fine di estendere l’applicazione di queste condizioni, nel futuro saranno effettuate prove anche con altri chetoni α,β-insaturi α-sostituiti, ma che non presentino sostituzione in posizione β, dato che abbiamo osservato che essa rappresenta il maggiore limite per la reattività e selettività. Infine sarà importante determinare la configurazione assoluta del prodotto finora ottenuto, mediante spettroscopia ECD e VCD. E’ infatti importante conoscere tutte le caratteristiche chimiche e fisiche di prodotto ottenuto, in modo da avere maggiore conoscenza del processo da noi sviluppato, per poterlo migliorare ed estenderne l’applicabilità in futuro.
Resumo:
Oggigiorno si osserva a livello mondiale un continuo aumento dei consumi di acqua per uso domestico, agricolo ed industriale che dopo l’impiego viene scaricata nei corpi idrici (laghi, fiumi, torrenti, bacini, ecc) con caratteristiche chimico fisiche ed organolettiche completamente alterate, necessitando così di specifici trattamenti di depurazione. Ricerche relative a metodi di controllo della qualità dell’acqua e, soprattutto, a sistemi di purificazione rappresentano pertanto un problema di enorme importanza. I trattamenti tradizionali si sono dimostrati efficienti, ma sono metodi che operano normalmente trasferendo l’inquinante dalla fase acquosa contaminata ad un’altra fase, richiedendo perciò ulteriori processi di depurazione. Recentemente è stata dimostrata l’efficacia di sistemi nano strutturati come TiO2-Fe3O4 ottenuto via sol-gel, nella foto-catalisi di alcuni sistemi organici. Questo lavoro di tesi è rivolto alla sintesi e caratterizzazione di un catalizzatore nanostrutturato composito costituito da un core di Fe3O4 rivestito da un guscio di TiO2 separate da un interstrato inerte di SiO2, da utilizzare nella foto-catalisi di sistemi organici per la depurazione delle acque utilizzando un metodo di sintesi alternativo che prevede un “approccio” di tipo colloidale. Partendo da sospensioni colloidali dei diversi ossidi, presenti in commercio, si è condotta la fase di deposizione layer by layer via spray drying, sfruttando le diverse cariche superficiali dei reagenti. Questo nuovo procedimento permette di abbattere i costi, diminuire i tempi di lavoro ed evitare possibili alterazioni delle proprietà catalitiche della titania, risultando pertanto adatto ad una possibile applicazione su scala industriale. Tale sistema composito consente di coniugare le proprietà foto-catalitiche dell’ossido di titanio con le proprietà magnetiche degli ossidi di ferro permettendo il recupero del catalizzatore a fine processo. Il foto-catalizzatore è stato caratterizzato durante tutte la fasi di preparazione tramite microscopia SEM e TEM, XRF, Acusizer, spettroscopia Raman e misure magnetiche. L’attività foto-calitica è stata valutata con test preliminari utilizzando una molecola target tipo il rosso di metile in fase acquosa. I risultati ottenuti hanno dimostrato che il sistema core-shell presenta inalterate sia le proprietà magnetiche che quelle foto-catalitiche tipiche dei reagenti.
Resumo:
I policlorobifenili (PCB) sono inquinanti tossici e fortemente recalcitranti che contaminano suoli e sedimenti di acqua dolce e marini. Le tecnologie attualmente impiegate per la loro rimozione (dragaggio e trattamento chimoco-fisico o conferimento in discarica) sono molto costose, poco efficaci o ad alto impatto ambientale. L’individuazione di strategie alternative, di natura biologica, consentirebbe lo sviluppo di un processo alternativo più sostenibile. Nel processo di declorurazione riduttiva i congeneri di PCB a più alto grado di clorurazione, che sono i più tossici, recalcitranti e maggiormente tendenti al bioaccumulo, vengono utilizzati da alcuni microrganismi anaerobici come accettori finali di elettroni nella catena respiratoria e bioconvertiti in congeneri a minor grado di clorurazione, meno pericolosi, che possono essere mineralizzati da parte di batteri aerobi. La declorurazione riduttiva dei PCB è stata spesso studiata in colture anaerobiche di arricchimento in terreno minerale ottenute a partire da sedimenti di acqua dolce; questi studi hanno permesso di dimostrare che batteri del phylum dei Chloroflexi e appartenenti al genere Dehalococcoides o filogeneticamente facenti parte del gruppo dei Dehalococcoides-like sono i decloruranti. Sono tuttavia scarse le informazioni riguardanti l'occorrenza della declorurazione dei PCB in ambienti marini, nei quali l'alta salinità e concentrazione di solfati influenzano diversamente l'evoluzione delle popolazioni microbiche. In sedimenti contaminati della laguna di Venezia è stata osservata declorurazione sia dei PCB preesistenti che di congeneri esogeni; questi studi hanno permesso l'ottenimento di colture di arricchimento fortemente attive nei confronti di 5 congeneri di PCB coplanari. In questa tesi, a partire dalle colture capaci di declorurare i PCB coplanari, sono stati allestiti nuovi passaggi di arricchimento su Aroclor®1254, una miscela di PCB più complessa e che meglio rappresenta la contaminazione ambientale. Le colture sono state allestite come microcosmi anaerobici in fase slurry, preparati risospendendo il sedimento nell'acqua superficiale, ricreando in tal modo in laboratorio le stesse condizioni biogeochimiche presenti in situ; gli slurry sterili sono stati inoculati per avviare le colture. Per favorire la crescita dei microrganismi decloruranti e stimolare così la decloruraazione dei PCB sono stati aggiunti inibitori selettivi di metanogeni (Bromoetansulfonato o BES) e solfato-riduttori (molibdato), sono state fornite fonti di carbonio ed energia (eD), quali acidi grassi a corta catena e idrogeno, utilizzate di batteri decloruranti noti, e per semplificare la comunità microbica sono stati aggiunti antibiotici cui batteri decloruranti del genere Dehalococcoides sono resistenti. Con questo approccio sono stati allestiti passaggi di arricchimento successivi e le popolazioni microbiche delle colture sono state caratterizzate con analisi molecolari di fingerprinting (DGGE). Fin dal primo passaggio di arricchimento nei microcosmi non ammendati ha avuto luogo un'estesa declorurazione dell'Aroclor®1254; nei successivi passaggi si è notato un incremento della velocità del processo e la scomparsa della fase di latenza, mentre la stessa stereoselettività è stata mantenuta a riprova dell’arricchimento degli stessi microrganismi decloruranti. Le velocità di declorurazione ottenute sono molto alte se confrontate con quelle osservate in colture anaerobiche addizionate della stessa miscela descritte in letteratura. L'aggiunta di BES o molibdato ha bloccato la declorurazione dei PCB ma in presenza di BES è stata riscontrata attività dealogenante nei confronti di questa molecola. La supplementazione di fonti di energia e di carbonio ha stimolato la metanogenesi e i processi fermentativi ma non ha avuto effetti sulla declorurazione. Ampicillina e vancomicina hanno incrementato la velocità di declorurazione quando aggiunte singolarmente, insieme o in combinazione con eD. E' stato però anche dimostrato che la declorurazione dei PCB è indipendente sia dalla metanogenesi che dalla solfato-riduzione. Queste attività respiratorie hanno avuto velocità ed estensioni diverse in presenza della medesima attività declorurante; in particolare la metanogenesi è stata rilevata solo in dipendenza dall’aggiunta di eD alle colture e la solfato-riduzione è stata inibita dall’ampicillina in microcosmi nei quali un’estesa declorurazione dei PCB è stata osservata. La caratterizzazione delle popolazioni microbiche, condotte mediante analisi molecolari di fingerprinting (DGGE) hanno permesso di descrivere le popolazioni batteriche delle diverse colture come complesse comunità microbiche e di rilevare in tutte le colture decloruranti la presenza di una banda che l’analisi filogenetica ha ascritto al batterio m-1, un noto batterio declorurante in grado di dealogenare un congenere di PCB in colture di arricchimento ottenute da sedimenti marini appartenente al gruppo dei Dehalococcoides-like. Per verificare se la crescita di questo microrganismo sia legata alla presenza dei PCB, l'ultimo passaggio di arricchimento ha previsto l’allestimento di microcosmi addizionati di Aroclor®1254 e altri analoghi privi di PCB. Il batterio m-1 è stato rilevato in tutti i microcosmi addizionati di PCB ma non è mai stato rilevato in quelli in cui i PCB non erano presenti; la presenza di nessun altro batterio né alcun archebatterio è subordinata all’aggiunta dei PCB. E in questo modo stato dimostrato che la presenza di m-1 è dipendente dai PCB e si ritiene quindi che m-1 sia il declorurante in grado di crescere utilizzando i PCB come accettori di elettroni nella catena respiratoria anche in condizioni biogeochimiche tipiche degli habitat marini. In tutte le colture dell'ultimo passaggio di arricchimento è stata anche condotta una reazione di PCR mirata alla rilevazione di geni per dealogenasi riduttive, l’enzima chiave coinvolto nei processi di dealogenazione. E’ stato ottenuto un amplicone di lughezza analoga a quelle di tutte le dealogenasi note in tutte le colture decloruranti ma un tale amplificato non è mai stato ottenuto da colture non addizionate di PCB. La dealogenasi ha lo stesso comportamento di m-1, essendo stata trovata come questo sempre e solo in presenza di PCB e di declorurazione riduttiva. La sequenza di questa dealogenasi è diversa da tutte quelle note sia in termini di sequenza nucleotidica che aminoacidica, pur presentando due ORF con le stesse caratteristiche e domini presenti nelle dealogenasi note. Poiché la presenza della dealogenasi rilevata nelle colture dipende esclusivamente dall’aggiunta di PCB e dall’osservazione della declorurazione riduttiva e considerato che gran parte delle differenze genetiche è concentrata nella parte di sequenza che si pensa determini la specificità di substrato, si ritiene che la dealogenasi identificata sia specifica per i PCB. La ricerca è stata condotta in microcosmi che hanno ricreato fedelmente le condizioni biogeochimiche presenti in situ e ha quindi permesso di rendere conto del reale potenziale declorurante della microflora indigena dei sedimenti della laguna di Venezia. Le analisi molecolari condotte hanno permesso di identificare per la prima volta un batterio responsabile della declorurazione dei PCB in sedimenti marini (il batterio m-1) e una nuova dealogenasi specifica per PCB. L'identificazione del microrganismo declorurante permette di aprire la strada allo sviluppo di tecnologie di bioremediation mirata e il gene della dealogenasi potrà essere utilizzato come marker molecolare per determinare il reale potenziale di declorurazione di miscele complesse di PCB in sedimenti marini.
Resumo:
Il presente studio ha come obiettivi l’analisi, la modellazione numerica e la caratterizzazione del rischio idrogeologico di due siti dell’Appennino bolognese interessati negli ultimi due anni da colate detritiche, Serraglio (Comune di Castiglione dei Pepoli) e Chiapporato (Comune di Camugnano). Lo studio è stato condotto in collaborazione con il Servizio Tecnico di Bacino Reno della Regione Emilia-Romagna, che ha reso disponibile la documentazione relativa ai due eventi analizzati. I predetti eventi possono esser definiti “anomali” in relazione sia alla loro collocazione – essendo il fenomeno delle colate detritiche diffuso principalmente in aree montuose caratterizzate da un’altitudine media rilevante, come l’arco alpino – sia al fatto che non sono né catalogati né ricordati a memoria d’uomo eventi, in tali località, precedenti a quelli in esame. Il rischio idrogeologico, indotto dalla possibilità non remota di nuovi eventi, è dato non dal volume o dall’area interessata dai fenomeni, ma piuttosto dall’estrema velocità caratterizzante le colate detritiche, appunto definite come manifestazioni parossistiche lungo la rete idrografica secondaria con trasporto in massa di sedimenti. L’analisi effettuata ha anche fornito l’occasione per effettuare un confronto tra due realtà, quella di Serraglio e quella di Chiapporato, accomunate dalla stessa tipologia di evento, ma differenti in relazione all’uso del suolo, alle caratteristiche geomorfologiche e alle modalità di propagazione nel corso dell’evento. L’abitato di Serraglio, sito nella frazione di Baragazza, è stato colpito da una colata detritica il 20 gennaio 2009. Da un punto di vista geologico e geomorfologico la località è sovrastata da un versante boscato notevolmente acclive, caratterizzato dall’affioramento della cosiddetta Formazione di Cervarola: tali rocce, appartenenti alla categoria delle arenarie e solitamente presenti in strati compatti, in seguito alla naturale degradazione dovuta agli agenti atmosferici hanno dato luogo ad un detrito composto da blocchi e ciottoli di varia dimensione immersi in una matrice sabbiosa. Il distacco è avvenuto proprio in questo materiale detritico, reso instabile dal notevole apporto pluviometrico verificatosi nei giorni precedenti. La colata, sviluppatasi in seguito alla fluidificazione del materiale coinvolto in uno scivolamento di detrito di ridotta volumetria, si è incanalata in uno dei rii effimeri che drenano il versante con traiettorie tra loro pseudo parallele. Il debris flow, accelerato da un dislivello complessivo di 125 m, ha poi raggiunto due abitazioni, fortunatamente non abitate al momento dell’evento, depositando uno spessore detritico di oltre 1,5 m nella zona di transito prima di proseguire verso valle nella sua frazione più fine, incanalandosi di fatto lungo lo stradello asfaltato di accesso alle abitazioni e interessando la strada provinciale che collega Castiglione dei Pepoli all’uscita autostradale di Roncobilaccio. Da un punto di vista meteo-climatico il mese di gennaio 2009 è stato caratterizzato da precipitazioni fortemente superiori alla media, accompagnate da una ridotta insolazione. La continua oscillazione dello zero termico tra 0 e 900 m ha dato luogo alla formazione di uno spessore nivale al suolo di circa 20 cm tre giorni prima dell’evento e poi al suo rapido scioglimento contestualmente all’aumento termico, dato dalla risalita di aria calda umida di origine africana, accompagnata da quella perturbazione che ha poi di fatto innescato il fenomeno. Nelle 48 ore precedenti l’evento sono stati registrati apporti nivo-pluviometrici corrispondenti ad oltre 130 mm, che hanno causato la completa saturazione del detrito superficiale, l’innesco dello scivolamento di detrito e la sua successiva fluidificazione. Il distacco del materiale detritico, la sua movimentazione e la notevole erosione che ha caratterizzato l’alveo del rio durante il fenomeno – quantificata mediamente in 20 cm – sono state favorite dalle mediocri condizioni di salute del castagneto che copre il versante interessato dall’evento: la totale assenza di manutenzione e l’abbandono della coltivazione “a pali” del bosco hanno inibito la naturale funzione stabilizzante del boscato, trasformatosi da fattore inibente a fattore predisponente il fenomeno. La seconda colata detritica analizzata ha invece interessato la strada comunale che collega la frazione di Stagno all’abitato di Chiapporato, splendida borgata cinquecentesca, frequentata soprattutto da turisti ed escursionisti durante la stagione estiva. Il versante sede della colata, occorsa in data 8 novembre 2010, è caratterizzato da numerosi affioramenti della cosiddetta Formazione di Stagno, arenarie intervallate da strati marnoso-pelitici. Tale litotipo, soggetto alla naturale degradazione indotta dagli agenti atmosferici, origina un detrito composto da massi e ciottoli, raccoltisi, nell’area in esame, in un canalone posto ai piedi di una scarpata pseudo verticale delimitante il pianoro di “Val di Sasso”. Tale materiale detritico è stato poi fluidificato dalle abbondanti piogge, depositando, dopo oltre 320 metri di dislivello, circa un metro di detrito sul piano stradale per poi proseguire la sua corsa verso il Torrente Limentra e il Bacino di Suviana. L’evento è stato innescato da precipitazioni intense e persistenti che hanno depositato al suolo oltre 69 mm di pioggia in 25 ore. Nel mese precedente il fenomeno sono stati misurati oltre 530 mm di pioggia, quantitativi superiori alla media climatologica, che hanno sicuramente accelerato anche la degradazione della scarpata e l’accumulo di detriti nell’area sorgente. Le colate sopra descritte sono state poi simulate utilizzando il modello DAN-W (Dynamic ANalysis) del prof. Oldrich Hungr della University of British Columbia (Canada). Tale modello si basa su una discretizzazione della massa movimentata tramite il metodo degli “elementi di contorno” e sulla soluzione alle differenze finite di tipo Lagrangiano dell’equazione di De Saint Venant. L’equazione del moto, integrata verticalmente, è applicata a colonne strette di flusso (elementi di contorno). L’equazione di continuità è invece risolta riferendosi agli elementi di massa delimitati dai predetti elementi di contorno. Il numero di incognite principali eguaglia il numero di equazioni disponibili ed il problema è quindi completamente determinato. Gli altri parametri caratterizzanti la colata sono determinati tramite interpolazioni basate sull’ipotesi che sia la superficie del flusso sia quella della traiettoria siano ragionevolmente lisce. La soluzione è esplicita ed avviene per step temporali successivi. Al fine della determinazione dei parametri l’utilizzatore ha la possibilità di scegliere tra vari modelli reologici, quantificanti il termine di resistenza caratterizzante il moto. Su indicazione dell’autore del modello sono stati utilizzati il modello frizionale e quello di Voellmy, che, in casi simili, forniscono risultati più realistici (in relazione alla modellizzazione di colate di detrito). I parametri utilizzati per la calibrazione sono lo spessore di detrito depositato sul piano stradale, nel caso di Chiapporato, e a tergo della prima abitazione investita dalla colata nel caso di Serraglio, unitamente alla massima distanza raggiunta dai detriti. I risultati ottenuti utilizzando il modello reologico frizionale mostrano profili di velocità scarsamente rappresentativi, con una costante sovrastima della stessa, a fronte di una migliore capacità descrittiva degli spessori accumulatisi. Il modello di Voellmy ha invece prodotto andamenti di velocità più realistici, confrontabili con i valori forniti dalla letteratura internazionale, riuscendo al contempo a quantificare con precisione l’accumulo di detrito rilevato a seguito degli eventi. I valori dei parametri utilizzati nella modellazione sono stati ricavati dalle indicazioni dell’autore del modello affiancate dai range resi disponibili dalla letteratura. Entrambe le caratterizzazioni reologiche sono poi state oggetto di un’analisi di sensitività ai fini di quantificare il peso dei parametri utilizzati. Il modello frizionale si è rivelato particolarmente sensibile all’andamento del coefficiente di attrito basale e al coefficiente di pressione dei pori, con un lieve preponderanza del primo, mentre il modello reologico di Voellmy si è mostrato fortemente influenzato dal coefficiente di turbolenza e dal coefficiente di attrito, pressoché paritari nell’effettivo condizionamento dei risultati. Gli output ottenuti simulando l’evento di Serraglio sono risultati generalmente meno realistici di quelli ricavati nel caso di Chiapporato: ciò è probabilmente dovuto alle caratteristiche reologiche proprie del fenomeno occorso a Serraglio, classificabile come un ibrido tra un mud flow e un debris flow. Sono state infine avanzate proposte di intervento e di monitoraggio dei siti indagati, al fine di una mitigazione del rischio idrogeologico gravante sulle aree esaminate. Il caso di Serraglio presenta, a parere dello scrivente, un rischio idrogeologico più elevato, se paragonato a quello presente a Chiapporato, dati la vicinanza ad un centro abitato e lo status quo caratterizzante il versante sede del dissesto. Nei circa 18 mesi trascorsi dopo l’evento è stato possibile rilevare un progressivo ampliamento della nicchia di distacco dello scivolamento, poi evolutosi in colata con andamento tipicamente retrogressivo. Lo stato della vegetazione permane in condizioni problematiche, con frequenti ribaltamenti e sradicamenti (processi noti in letteratura come chablis) dei castagni presenti, con un conseguente aumento dell’erosione superficiale del versante e l’apporto detritico all’interno del rio. Tale detrito è poi trattenuto all’interno dell’alveo da una serie di briglie naturali formatesi a seguito della caduta di varie piante all’interno del canale stesso a causa del passaggio del debris flow o a fenomeni di chablis. La forte sovraescavazione occorsa in occasione della colata ha poi favorito l’innesco di una serie di piccoli scivolamenti superficiali confluenti nel rio stesso, anch’essi apportatori di detrito, ingrediente principale per un nuovo debris flow. È inoltre da notare come la zona di runout è tuttora parzialmente occupata dal detrito depositatosi a seguito dell’evento: tale configurazione, causando di fatto una riduzione della potenziale area di “sfogo” di un nuovo debris flow, acuisce il rischio di un’estensione areale verso valle degli effetti di un nuovo fenomeno, con un conseguente possibile maggior coinvolgimento dell’abitato di Serraglio. È stato quindi proposto di attuare un’adeguata regimazione dell’area boschiva caratterizzante il versante, unitamente ad una regimazione fluviale del rio, tramite la realizzazione di briglie in legno e pietrame – essendo l’area non cantierabile – e la rimozione degli accumuli detritici in seno all’alveo stesso. La nicchia di distacco principale e le nicchie secondarie dovranno poi essere oggetto di opportuna stabilizzazione. Più a valle è stata suggerita la rimozione dell’accumulo detritico presente nell’area di runout e la realizzazione di un’adeguata opera di ricezione delle acque del rio e di eventuali nuove colate: a tal fine si è ipotizzato il ripristino dell’antico alveo, successivamente deviato e tombato per permettere l’edificazione dell’abitazione poi investita dalla colata. È stato inoltre proposto un monitoraggio attraverso l’installazione di un pluviometro, tarato con opportune soglie di allarme, dotato di datalogger e modem GPRS al fine di comunicare in tempo reale, ai tecnici incaricati e agli abitanti, un eventuale superamento della soglia di allarme. Il caso di Chiapporato è invece caratterizzato da problematiche connesse al rischio idrogeologico meno rilevanti di quelle presenti a Serraglio. Ciò è dovuto allo scarso traffico caratterizzante la strada comunale e all’assenza di altri edifici o infrastrutture potenzialmente coinvolgibili da un nuovo evento. La probabilità del verificarsi di una nuova colata è però concreta, considerata la forte erosione caratterizzante il versante: trascorsi sei mesi dall’evento, è stato possibile rilevare nell’area sorgente un accumulo medio di detrito di circa mezzo metro di spessore. Le cause del dissesto, a differenza di Serraglio, non sono in alcun modo imputabili all’azione antropica: si tratta infatti della naturale evoluzione del versante sovrastante il piano stradale. Si propone quindi la collocazione di cartelli stradali indicanti il pericolo di caduta massi e colate detritiche agli automobilisti e ai pedoni, unitamente all’installazione di un cavo a strappo posto lungo l’alveo torrentizio collegato ad un semaforo dislocato nei pressi del guado della strada comunale sul rio Casale. L’eventuale verificarsi di un nuovo evento comporterebbe la lacerazione del cavo installato e l’attivazione del semaforo – e di un eventuale allarme acustico – con conseguente inibizione del traffico stradale in occasione del transito del debris flow. Nel contesto geologico e geomorfologico dell’Appennino tosco-emiliano i debris flow rappresentano una tipologia di dissesto da frana poco diffusa, ma comunque potenzialmente presente nelle aree dove i processi di alterazione e degradazione degli ammassi rocciosi affioranti generino accumuli di detrito e in condizioni morfologiche caratterizzate da elevate pendenze dei versanti. Questo studio ha permesso di approfondire la conoscenza di questi fenomeni, che presentano una magnitudo notevolmente inferiore rispetto al contesto alpino, ma la cui interferenza con l’attività antropica acuisce notevolmente il rischio idrogeologico nelle zone interessate. Si sottolinea, inoltre, che nell’attuale contesto climatico caratterizzato da sempre più frequenti piogge brevi ed intense ed eventi cosiddetti di rain on snow, la frequenza sia temporale che spaziale di tali fenomeni di dissesto appare destinata ad aumentare, anche in aree in precedenza non interessate.