986 resultados para riconoscimento volto alterazione digitale immagini morphing
Resumo:
Cosa e’ stato fatto e il fine della ricerca in questi tre anni si è esaminato il materiale edito sui sarcofagi del periodo in esame, sui culti funerari, i problemi religiosi ed artistici. Per trovare confronti validi si sono resi necessari alcuni viaggi sia in Italia che all’estero. Lo scopo della ricerca è stato quello di “leggere” i messaggi insiti nelle figurazioni delle casse dei sarcofagi, per comprendere meglio la scelta dei committenti verso determinati temi e la ricezione di questi ultimi da parte del pubblico. La tomba, infatti, è l’ultima traccia che l’uomo lascia di sé ed è quindi importante cercare di determinare l’impatto psicologico del monumento funerario sul proprietario, che spesso lo acquistava quando ancora era in vita, e sui familiari in visita alla tomba durante la celebrazione dei riti per i defunti. Nell’ultimo anno, infine, si è provveduto a scrivere la tesi suddivindendo i capitoli e i pezzi in base all’argomento delle figurazioni (mitologici, di virtù, etc.). I capitoli introduttivi Nel primo capitolo di introduzione si è cercato di dare un affresco per sommi capi del periodo storico in esame da Caracalla a Teodosio e della Chiesa di III e IV secolo, mettendo in luce la profonda crisi che gravava sull’Impero e le varie correnti che frammentavano il cristianesimo. In particolare alcune dispute, come quella riguardante i lapsi, sarà alla base di ipotesi interpretative riguardanti la raffigurazione del rifiuto dei tre giovani Ebrei davanti a Nabuchodonosor. Nel capitolo seguente vengono esaminati i riti funerari e il ruolo dei sarcofagi in tali contesti, evidenziando le diverse situazioni emotive degli osservatori dei pezzi e, quindi, l’importanza dei temi trattati nelle casse. I capitolo Questo capitolo tratta dei sarcofagi mitologici. Dopo una breve introduzione, dove viene spiegata l’entrata in uso dei pezzi in questione, si passa alla discussione dei temi, suddivisi in paragrafi. La prima classe di materiali è qualla con la “caduta di Fetonte” la cui interpretazione sembra chiara: una tragedia familiare. Il compianto sul corpo di un ragazzo morto anzi tempo, al quale partecipa tutto il cosmo. L’afflizione dei familiari è immane e sembra priva di una possibile consolazione. L’unico richiamo a riprendere a vivere è solo quello del dovere (Mercurio che richiama Helios ai propri impegni). La seconda classe è data dalle scene di rapimento divino visto come consolazione e speranza in un aldilà felice, come quelle di Proserpina e Ila. Nella trasposizione della storia di Ila è interessante anche notare il fatto che le ninfe rapitrici del giovane – defunto abbiano le sembianze delle parenti già morte e di un fanciullo, probabilmente la madre, la nonna e un fratello deceduto anzi tempo. La terza classe presenta il tema del distacco e dell’esaltazione delle virtù del defunto nelle vesti dei cacciatori mitici Mealeagro, Ippolito e Adone tutti giovani, forti e coraggiosi. In questi sarcofagi ancor più che negli altri il motivo della giovinezza negata a causa della morte è fondamentale per sottolineare ancora di più la disperazione e il dolore dei genitori rimasti in vita. Nella seguente categoria le virtù del defunto sono ancora il tema dominante, ma in chiave diversa: in questo caso l’eroe è Ercole, intento ad affrontare le sue fatiche. L’interpretazione è la virtù del defunto che lo ha portato a vincere tutte le difficoltà incontrate durante la propria vita, come dimostrerebbe anche l’immagine del semidio rappresentato in età diverse da un’impresa all’altra. Vi è poi la categoria del sonno e della morte, con i miti di Endimione, Arianna e Rea Silvia, analizzato anche sotto un punto di vista psicologico di aiuto per il superamento del dolore per la perdita di un figlio, un marito, o, ancora, della sposa. Accanto ai sarcofagi con immagini di carattere narrativo, vi sono numerosi rilievi con personaggi mitici, che non raccontano una storia, ma si limitano a descrivere situazioni e stati d’animo di felicità. Tali figurazioni si possono dividere in due grandi gruppi: quelle con cortei marini e quelle con il tiaso dionisiaco, facendo dell’amore il tema specifico dei rilievi. Il fatto che quello del tiaso marino abbia avuto così tanta fortuna, forse, per la numerosa letteratura che metteva in relazione l’Aldilà con l’acqua: l’Isola dei Beati oltre l’Oceano, viaggi per mare verso il mondo dei morti. Certo in questo tipo di sarcofagi non vi sono esplicitate queste credenze, ma sembrano più che altro esaltare le gioie della vita. Forse il tutto può essere spiegato con la coesistenza, nei familiari del defunto, della memoria retrospettiva e della proiezione fiduciosa nel futuro. Sostanzialmente era un modo per evocare situazioni gioiose e di godimento sensibile, riferendole ai morti in chiave beneaugurale. Per quanto rigurda il tiaso di Bacco, la sua fortuna è stata dettata dal fatto che il suo culto è sempre stato molto attivo. Bacco era dio della festa, dell’estasi, del vino, era il grande liberatore, partecipe della crescita e della fioritura, il grande forestiero , che faceva saltare gli ordinamenti prestabiliti, i confini della città con la campagna e le convenzioni sociali. Era il dio della follia, al quale le menadi si abbandonavano nella danza rituale, che aggrediva le belve, amante della natura, ma che penetra nella città, sconvolgendola. Del suo seguito facevano parte esseri ibridi, a metà tra l’ordine e la bestialità e animali feroci ammansiti dal vino. I suoi nemici hanno avuto destini orribili di indicibile crudeltà, ma chi si è affidato anima e corpo a lui ha avuto gioia, voluttà, allegria e pienezza di vita. Pur essendo un valente combattente, ha caratteri languidi e a tratti femminei, con forme floride e capelli lunghi, ebbro e inebriante. Col passare del tempo la conquista indiana di alessandro si intrecciò al mito bacchico e, a lungo andare, tutti i caratteri oscuri e minacciosi della divinità scomparirono del tutto. Un esame sistematico dei temi iconografici riconducibili al mito di Bacco non è per nulla facile, in quanto l’oggetto principale delle raffigurazioni è per lo più il tiaso o come corteo festoso, o come gruppi di figure danzanti e musicanti, o, ancora, intento nella vendemmia. Ciò che interessava agli scultori era l’atmosfera gioiosa del tiaso, al punto che anche un episodio importante, come abbiamo visto, del ritrovamento di Arianna si pèerde completamente dentro al corteo, affollatissimo di personaggi. Questo perché, come si è detto anche al riguardo dei corte marini, per creare immagini il più possibile fitte e gravide di possibilità associative. Altro contesto iconografico dionisiaco è quello degli amori con Arianna. Sui sarcofagi l’amore della coppia divina è raffigurato come una forma di stupore e rapimento alla vista dell’altro, un amore fatto di sguardi, come quello del marito sulla tomba della consorte. Un altro tema , che esalta l’amore, è senza ombra di dubbio quello di Achille e Pentesilea, allegoria dell’amore coniugale. Altra classe è qualla con il mito di Enomao, che celebra il coraggio virile e l’attitudine alla vittoria del defunto e, se è presente la scena di matrimonio con Ippodamia, l’amore verso la sposa. Infine vi sono i sarcofagi delle Muse: esaltazione della cultura e della saggezza del morto. II capitolo Accanto ad i grandi ambiti mitologici dei due tiasi del capitolo precedente era la natura a lanciare un messaggio di vita prospera e pacifica. Gli aspetti iconografici diq uesto tema sono due: le stagioni e la vita in un ambiente bucolico. Nonostante la varietà iconografica del soggetto, l’idea di fondo rimane invariata: le stagioni portano ai morti i loro doni affinchè possano goderne tutto l’anno per l’eternità. Per quanto riguarda le immagini bucoliche sono ispirate alla vita dei pastori di ovini, ma ovviamente non a quella reale: i committenti di tali sarcofagi non avevano mai vissuto con i pastori, né pensavano di farlo i loro parenti. Le immagini realistiche di contadini, pastori, pescatori, tutte figure di infimo livello sociale, avevano assunto tratti idilliaci sotto l’influsso della poesia ellenistica. Tutte queste visioni di felicità mancano di riferimenti concreti sia temporali che geografici. Qui non vi sono protagonisti e situazioni dialogiche con l’osservatore esterno, attraverso la ritrattistica. I defunti se appaiono sono all’interno di un tondo al centro della cassa. Nei contesti bucolici, che andranno via, via, prendendo sempre più piede nel III secolo, come in quelli filosofici, spariscono del tutto le scene di lutto e di cordoglio. Le immagini dovevano essere un invito a godersi la vita, ma dovevano anche dire qualcosa del defunto. In una visione retrospettiva, forse, si potrebbero intendere come una dichiarazione che il morto, in vita, non si era fatto mancare nulla. Nel caso opposto, poteve invece essere un augurio ad un’esistenza felice nell’aldilà. III capitolo Qui vengono trattati i sarcofagi con l’esaltazione e l’autorappresentazione del defunto e delle sue virtù in contesti demitizzati. Tra i valori ricorrenti, esaltati nei sarcofagi vi è l’amore coniugale espresso dal tema della dextrarum iunctio, simbolo del matrimonio, la cultura, il potere, la saggezza, il coraggio, esplicitato dalle cacce ad animali feroci, il valore guerriero e la giustizia, dati soprattutto dalle scene di battaglia e di giudizio sui vinti. IV capitolo In questo capitolo si è provato a dare una nuova chiave di lettura ai sarcofagi imperiali di S. Elena e di Costantina. Nel primo caso si tratterebbe della vittoria eterna sul male, mentre nel secondo era un augurio di vita felice nell’aldilà in comunione con Dio e la resurrezione nel giorno del giudizio. V capitolo Il capitolo tratta le mediae voces, quei pezzi che non trovano una facile collocazione in ambito religioso poiché presentano temi neutri o ambivalenti, come quelli del buon pastore, di Prometeo, dell’orante. VI capitolo Qui trovano spazio i sarcofagi cristiani, dove sono scolpite varie scene tratte dalle Sacre Scritture. Anche in questo caso si andati al di là della semplice analisi stilistica per cercare di leggere il messaggio contenuto dalle sculture. Si sono scoperte preghiere, speranze e polemiche con le correnti cristiane considerate eretiche o “traditrici” della vera fede, contro la tradizionale interpretazione che voleva le figurazioni essenzialmente didascaliche. VII capitolo Qui vengono esposte le conclusioni da un punto di vista sociologico e psicologico.
Resumo:
Con il presente lavoro, che ha ad oggetto l’istituto dello scioglimento anticipato delle Camere nell’ordinamento costituzionale italiano, il candidato si propone tre obiettivi. Il primo è quello della ricostruzione dogmatica dell’istituto che sconta inevitabilmente un grosso debito nei confronti della vasta letteratura giuridica che si è sviluppata nel corso dei decenni. Il secondo obiettivo è quello, ben più originale, dell’indagine sulla prassi che ha contraddistinto il ricorso allo scioglimento nella peculiare realtà italiana. In questo modo si viene colmando uno spazio di ricerca diretto a leggere gli avvenimenti e a ricondurli in un quadro costituzionale sistematico, anche al fine di ricavare utili riflessioni circa la conformità della prassi stessa al dato normativo, nonché sulle modalità di funzionamento concreto dell'istituto. Il terzo obiettivo, quello più ambizioso, è utilizzare le considerazioni così sviluppate per ricercare soluzioni interpretative adeguate all’evoluzione subita dall’assetto politico-istituzionale italiano negli ultimi due decenni. Quanto al metodo, la scelta del candidato è stata quella di ricorrere ad uno strumentario che pone in necessaria sequenza logica: a) i presupposti storici/comparatistici e il dibattito in Assemblea costituente, utili per l’acquisizione del patrimonio del parlamentarismo europeo del tempo e per la comprensione del substrato su cui si costruisce l’edificio costituzionale; b) il testo costituzionale, avvalendosi anche delle importanti considerazioni svolte dalla dottrina più autorevole; c) la prassi costituzionale, consistente nella fase di implementazione concreta del disposto normativo. La finalità che il candidato si pone è dimostrare la possibilità di configurare lo scioglimento secondo un modello di tipo “primoministeriale”. Per quanto riguarda la prima parte della ricerca, dalla pur sintetica descrizione dei precedenti storici (sia rispetto alle realtà europee, inglese e francese in primis, che al periodo prerepubblicano) si trae conferma che l’operatività dell’istituto è intrinsecamente influenzata dalla forma di governo. Una prima indicazione che emerge con forza è come la strutturazione del sistema partitico e il grado di legame tra Assemblea rappresentativa e Gabinetto condizionino la ratio del potere di scioglimento, la sua titolarità ed il suo effettivo rendimento. Infatti, in presenza di regimi bipartitici e di impianti istituzionali che accentuano il raccordo fiduciario, il Capo dello Stato tende all’emarginazione, e lo scioglimento acquisisce carattere di automaticità tutte le volte in cui si verificano crisi ministeriali (eventualità però piuttosto rara); più consueto è invece lo scioglimento primoministeriale libero, come arma politica vera e propria attraverso cui il Governo in carica tende a sfruttare il momento migliore per ricercare il giudizio del popolo. Al contrario, dove il sistema politico è più dinamico, e il pluralismo sociale radicalizzato, il Capo dello Stato interferisce fortemente nella vita istituzionale e, in particolare, nella formazione dell’indirizzo politico: in quest’ottica lo scioglimento viene da questi inglobato, ed il suo ricorso subordinato ad esigenze di recupero della funzionalità perduta; soprattutto, quando si verificano crisi ministeriali (invero frequenti) il ricorso alle urne non è conseguenza automatica, ma semmai gli viene preferita la via della formazione di un Gabinetto poggiante su una maggioranza alternativa. L’indagine svolta dal candidato sui lavori preparatori mostra come il Costituente abbia voluto perseguire l'obiettivo di allargare le maglie della disciplina costituzionale il più possibile, in modo da poter successivamente ammettere più soluzioni interpretative. Questa conclusione è il frutto del modo in cui si sono svolte le discussioni. Le maggiori opzioni prospettate si collocavano lungo una linea che aveva ad un estremo una tassativa preordinazione delle condizioni legittimanti, ed all’altro estremo l’esclusiva e pressoché arbitraria facoltà decisionale dello scioglimento nelle mani del Capo dello Stato; in mezzo, la via mediana (e maggiormente gradita) del potere sì presidenziale, benché circondato da tutta una serie di limiti e garanzie, nel quadro della costruzione di una figura moderatrice dei conflitti tra Esecutivo e Legislativo. Ma non bisogna tralasciare che, seppure rare, diverse voci propendevano per la delineazione di un potere governativo di scioglimento la quale impedisse che la subordinazione del Governo al Parlamento si potesse trasformare in degenerazione assemblearista. Quindi, il candidato intende sottolineare come l’adamantina prescrizione dell’art. 88 non postuli, nell’ambito dell’interpretazione teleologica che è stata data, alcuno specifico indirizzo interpretativo dominante: il che, in altri termini, è l’ammissione di una pluralità di concezioni teoricamente valide. L'analisi del dettato costituzionale non ha potuto prescindere dalla consolidata tripartizione delle teorie interpretative. Dall'analisi della letteratura emerge la preferenza per la prospettiva dualistica, anche in virtù del richiamo che la Costituzione svolge nei confronti delle competenze sia del Presidente della Repubblica (art. 88) che del Governo (art. 89), il che lo convince dell’inopportunità di imporre una visione esclusivista, come invece sovente hanno fatto i sostenitori della tesi presidenziale. Sull’altro versante ciò gli permette di riconferire una certa dignità alla tesi governativa, che a partire dal primo decennio repubblicano era stata accantonata in sede di dibattito dottrinario: in questo modo, entrambe le teoriche fondate su una titolarità esclusiva assumono una pari dignità, benchè parimenti nessuna delle due risulti persuasiva. Invece, accedere alla tesi della partecipazione complessa significa intrinsecamente riconoscere una grande flessibilità nell’esercizio del potere in questione, permettendo così una sua più adeguata idoneità a mutare le proprie sembianze in fase applicativa e a calarsi di volta in volta nelle situazioni contingenti. Questa costruzione si inserisce nella scelta costituente di rafforzare le garanzie, ed il reciproco controllo che si instaura tra Presidente e Governo rappresenta la principale forma di tutela contro potenziali abusi di potere. Ad ognuno dei due organi spettano però compiti differenti, poiché le finalità perseguite sono differenti: come l’Esecutivo agisce normalmente secondo canoni politici, in quanto principale responsabile dell’indirizzo politico, al Capo dello Stato si addice soprattutto il compito di sorvegliare il regolare svolgimento dei meccanismi istituzionali, in posizione di imparzialità. Lo schema costituzionale, secondo il candidato, sembra perciò puntare sulla leale collaborazione tra i poteri in questione, senza però predefinire uno ruolo fisso ed immutabile, ma esaltando le potenzialità di una configurazione così eclettica. Assumendo questa concezione, si ha buon gioco a conferire piena cittadinanza costituzionale all’ipotesi di scioglimento disposto su proposta del Presidente del Consiglio, che si può ricavare in via interpretativa dalla valorizzazione dell’art. 89 Cost. anche secondo il suo significato letterale. Al discorso della titolarità del potere di scioglimento, il candidato lega quello circa i presupposti legittimanti, altro nodo irrisolto. La problematica relativa alla loro definizione troverebbe un decisivo ridimensionamento nel momento in cui si ammette la compartecipazione di Governo e Presidente della Repubblica: il diverso titolo con il quale essi cooperano consentirebbe di prevenire valutazioni pretestuose circa la presenza delle condizioni legittimanti, poichè è nel reciproco controllo che entrambi gli organi individuano i confini entro cui svolgere le rispettive funzioni. Si giustificano così sia ragioni legate ad esigenze di funzionalità del sistema (le più ricorrenti in un sistema politico pluripartitico), sia quelle scaturenti dalla divaricazione tra orientamento dei rappresentati e orientamento dei rappresentanti: purchè, sottolinea il candidato, ciò non conduca il Presidente della Repubblica ad assumere un ruolo improprio di interferenza con le prerogative proprie della sfera di indirizzo politico. Il carattere aperto della disciplina costituzionale spinge inevitabilmente il candidato ad approfondire l'analisi della prassi, la cui conoscenza costituisce un fondamentale modo sia per comprendere il significato delle disposizioni positive che per apprezzare l’utilità reale ed il rendimento sistemico dell’istituto. Infatti, è proprio dall'indagine sulla pratica che affiorano in maniera prepotente le molteplici virtualità dello strumento dissolutorio, con modalità operative che, a seconda delle singole fasi individuate, trovano una strutturazione casistica variabile. In pratica: nel 1953 e nel 1958 è l'interesse del partito di maggioranza relativa ad influenzare il Governo circa la scelta di anticipare la scadenza del Senato; nel 1963 e nel 1968 invece si fa strada l'idea del consenso diffuso allo scioglimento, seppure nel primo caso l'anticipo valga ancora una volta per il solo Senato, e nel secondo ci si trovi di fronte all'unica ipotesi di fine naturale della legislatura; nel 1972, nel 1976, nel 1979, nel 1983 e nel 1987 (con una significativa variante) si manifesta con tutta la sua forza la pratica consociativa, figlia della degenerazione partitocratica che ha svuotato le istituzioni giuridiche (a partire dal Governo) e cristallizzato nei partiti politici il centro di gravità della vita pubblica; nel 1992, a chiusura della prima epoca repubblicana, caratterizzata dal dominio della proporzionale (con tutte le sue implicazioni), si presentano elementi atipici, i quali vanno a combinarsi con le consolidate tendenze, aprendo così la via all'incertezza sulle tendenze future. È con l'avvento della logica maggioritaria, prepotentemente affacciatasi per il tramite dei referendum elettorali, a sconvolgere il quadro delle relazioni fra gli organi costituzionali, anche per quanto concerne ratio e caratteristiche del potere di scioglimento delle Camere. Soprattutto, nella fase di stretta transizione che ha attraversato il quadriennio 1992-1996, il candidato mette in luce come i continui smottamenti del sistema politico abbiano condotto ad una fase di destabilizzazione anche per quanto riguarda la prassi, incrinando le vecchie regolarità e dando vita a potenzialità fino allora sconosciute, addirittura al limite della conformità a Costituzione. La Presidenza Scalfaro avvia un processo di netta appropriazione del potere di scioglimento, esercitandolo in maniera esclusiva, grazie anche alla controfirma offerta da un Governo compiacente (“tecnicco”, perciò debitore della piena fiducia quirinalizia). La piena paternità presidenziale, nel 1994, è accompagnata da un altro elemento di brusca rottura con il passato, ossia quello della ragione legittimante: infatti, per la prima volta viene addotta palesemente la motivazione del deficit di rappresentatività. Altro momento ad aver costituito da spartiacque nell’evoluzione della forma di governo è stato il mancato scioglimento a seguito della crisi del I Governo Berlusconi, in cui forti erano state le pressioni perché si adeguasse il parlamentarismo secondo i canoni del bipolarismo e del concetto di mandato di governo conferito direttamente dagli elettori ad una maggioranza (che si voleva predefinita, nonostante essa in verità non lo fosse affatto). Dopo questa parentesi, secondo il candidato la configurazione dello strumento dissolutorio si allinea su ben altri binari. Dal punto di vista della titolarità, sono i partiti politici a riprendere vigorosamente un certo protagonismo decisionale, ma con una netta differenza rispetto al passato consociativo: ora, il quadro politico pare saldamente attestato su una dinamica bipolare, per cui anche in relazione all’opzione da adottare a seguito di crisi ministeriale sono le forze della maggioranza che decidono se proseguire la legislatura (qualora trovino l’accordo tra di loro) o se sciogliere (allorchè invece si raggiunga una sorta di maggioranza per lo scioglimento). Dal punto di vista dei presupposti, sembra consolidarsi l’idea che lo scioglimento rappresenti solo l’extrema ratio, chiamando gli elettori ad esprimersi solo nel momento in cui si certifica l’assoluta impossibilità di ripristinare la funzionalità perduta. Conclusioni. Il rafforzamento della prospettiva bipolare dovrebbe postulare una riconfigurazione del potere di scioglimento tesa a valorizzare la potestà decisionale del Governo. Ciò discenderebbe dal principio secondo cui il rafforzamento del circuito che unisce corpo elettorale, maggioranza parlamentare e Governo, grazie al collante di un programma politico condiviso, una coalizione che si presenta alle elezioni ed un candidato alla Presidenza del Consiglio che incarna la perfetta sintesi di tutte queste istanze, comporta che alla sua rottura non si può che tornare al giudizio elettorale: e quindi sciogliere le Camere, evitando la composizione di maggioranze che non rappresentano la diretta volontà popolare. Il candidato però non ritiene auspicabile l’adozione di un automatismo analogo alla regola dell'aut simul stabunt aut simul cadent proprio dell’esperienza regionale post 1999, perché soluzione eccessivamente rigida, che ingesserebbe in maniera inappropriata una forma parlamentare che comunque richiede margini di flessiblità. La proposta è invece di rileggere il testo costituzionale, rebus sic stantibus, nel senso di far prevalere un potere libero di proposta da parte del Governo, cui il Capo dello Stato non potrebbe non consentire, salvo svolgere un generale controllo di costituzionalità volto ad accertare l’insussistenza di alcuna forma di abuso. Su queste conclusioni il lavoro esprime solo prime idee, che meritano di essere approfondite. Come è da approfondire un tema che rappresenta forse l’elemento di maggiore originalità: trattasi della qualificazione e descrizione di un mandato a governare, ossia della compatibilità costituzionale (si pensi, in primis, al rapporto con il divieto di mandato imperativo di cui all’art. 67 Cost.) di un compito di governo che, tramite le elezioni, gli elettori affidano ad una determinata maggioranza, e che va ad arricchire il significato del voto rispetto a quello classico della mera rappresentanza delle istanze dei cittadini (e propria del parlamentarismo ottocentesco): riflessi di tali considerazioni si avrebbero inevitabilmente anche rispetto alla concezione del potere di scioglimento, che in siffatta maniera verrebbe percepito come strumento per il ripristino del “circuito di consonanza politica” che in qualche modo si sarebbe venuto a rompere. Ad ogni buon conto, già emergono dei riflessi in questo senso, per cui la strada intrapresa dal candidato pare quella giusta affinchè l’opera risulti completa, ben argomentata ed innovativa.
Resumo:
La tesi propone un approccio semiotico ai videogiochi e indaga le relazioni tra videogioco, memoria e senso, a partire dall’analisi di un ampio corpus di videogiochi, trasversale rispetto ai generi. Il lavoro intende mostrare la proficuità di un incontro tra semiotica e videogiochi sotto un duplice punto di vista: da un lato i videogiochi, in quanto oggetti “nuovi”, rappresentano un buon banco di prova per la teoria e la metodologia semiotica; dall’altro lato la semiotica permette di comprendere meglio i videogiochi, ricostruendo i meccanismi semiotici che contribuiscono a generare gli effetti di senso tipici di questa forma testuale (es. immersività, interattività, flusso…). Il lavoro si propone quindi il duplice obiettivo di individuare le peculiarità del videogioco in quanto oggetto di analisi semiotica (cap. 1) e i meccanismi che in diversi generi videoludici portano alla creazione di effetti di senso peculiari e alla costruzione di una nuova memoria (capp. 3, 4, 5). Il primo capitolo è dedicato a una riflessione teorica e metodologica che intende preparare il campo per l’analisi, provando a “testare” modelli, concetti e strumenti più o meno assestati con lo scopo di riconoscere lo statuto semiotico dei videogiochi e di individuare il modo migliore per analizzarli semioticamente. Inoltre nel cap. 1 si affrontano, ancora in un’ottica generale, le dinamiche tra memoria del gioco e memoria del giocatore e l’importanza dei processi di apprendimento per l’interpretazione videoludica. Gli ultimi tre capitoli sono invece dedicati ai risultati delle analisi, condotte su un corpus ampio di videogiochi, affiancato da un corpus “di controllo” costituito da video di partite concrete, immagini user-generated, interfacce fisiche di gioco e “discorsi su” i videogiochi inseriti nel corpus principale. Il terzo capitolo individua i meccanismi semiotici che contribuiscono a costruire, de-costruire e ricostruire l’identità del giocatore nel corso della partita. Il quarto capitolo affronta la relazione tra tempo del gioco e tempo del giocatore, concentrandosi sulle modalità di configurazione del tempo in atto nei diversi generi videoludici. L’ultimo capitolo è dedicato all’approfondimento di un aspetto particolare della testualità videoludica: la capacità dei videogiochi di generare esperienze embodied, cioè esperienze ‘incarnate’ e ‘situate’.
Resumo:
La tesi riporta la sperimentazione in un liceo scientifico di un software di geometria didattica applicato alle isometrie del piano. L'argomento è stato introdotto partendo dalle tassellazioni del piano mostrando immagini relative all'Alhambra in Spagna e dipinti di Escher.
Resumo:
Abstract L’utilizzo dei dati satellitari per la gestione dei disastri naturali è fondamentale nei paesi in via di sviluppo, dove raramente esiste un censimento ed è difficile per i governi aggiornare le proprie banche dati con le tecniche di rilevamento e metodi di mappatura tradizionali che sono entrambe lunghe e onerose. A supporto dell’importanza dell’impiego del telerilevamento e per favorirne l’uso nel caso di catastrofi, vi è l’operato di diverse organizzazioni internazionali promosse da enti di ricerca, da agenzie governative o da organismi sopranazionali, le quali svolgono un lavoro di cruciale valore, fornendo sostegno tecnico a chi si occupa di far giungere alle popolazioni colpite gli aiuti umanitari e i soccorsi nel più breve tempo possibile. L’attività di tesi è nata proprio dalla collaborazione con una di esse, ITHACA (Information Technology for Humanitarian Assistance, Cooperation and Action), organizzazione no-profit, fondata dal Politecnico di Torino e SiTI (Istituto Superiore sui Sistemi Territoriali per l’Innovazione), la quale a sua volta collabora con il WFP (World Food Programme) delle Nazioni Unite, realizzando cartografie speditive necessarie per la valutazione delle conseguenze di un evento catastrofico, attraverso l’impiego di dati acquisiti da satellite. Su questo tema si è inserito il presente lavoro che ha come obiettivo quello di dimostrare la valenza dei dati telerilevati, siano essi di tipo ottico o Radar, nel caso di alcuni dei disastri naturali più catastrofici, le alluvioni. In particolare è stata studiata la vulnerabilità del Bangladesh, il quale annualmente si trova ad affrontare eventi alluvionali, spesso di grave intensità. Preliminarmente allo studio, è stata condotta una ricerca bibliografica al fine di avere una buona conoscenza dell’area sia in termini geografici e fisici che di sviluppo e tipologia di urbanizzazione. E’stata indagata in particolare l’alluvione che ha colpito il paese nel Luglio del 2004, attraverso delle immagini satellitari multispettrali, in particolare Landsat 7, per un inquadramento pre-evento, ed ASTER per studiare la situazione a distanza di tre mesi dall’accaduto (immagine rilevata il 20 Ottobre 2004). Su tali immagini sono state condotte delle classificazioni supervisionate con il metodo della massima verosimiglianza che hanno portato la suddivisione del territorio in quattro classi di destinazione d’uso del suolo: urbano (Build-up), campi e vegetazione (Crops&Vegetation), sabbia e scavi (Sand&Excavation), idrografia e zone alluvionate (Water). Dalla sperimentazione è emerso come tali immagini multispettrali si prestino molto bene per l’analisi delle differenti caratteristiche del territorio, difatti la validazione condotta sulla mappa tematica derivata dall’immagine Landsat 7 ha portato ad un’accuratezza del 93% circa, mentre la validazione dell’immagine ASTER è stata solo di tipo qualitativo, in quanto, considerata l’entità della situazione rilevata, non è stato possibile avere un confronto con dei punti da assumere come verità a terra. Un’interpretazione della mappa tematica derivante dalla classificazione dell’immagine ASTER è stata elaborata incrociandola in ambiente GIS con dati forniti dal CEGIS (Center for Environmental and Geographic Information Services) riguardanti il landuse della zona in esame; da ciò è emerso che le zone destinate alla coltivazione del riso sono più vulnerabili alle inondazioni ed in particolare nell’Ottobre 2004 il 95% delle aree esondate ha interessato tali colture. Le immagini ottiche presentano un grosso limite nel caso delle alluvioni: la rilevante copertura nuvolosa che spesso accompagna siffatti eventi impedisce ai sensori satellitari operanti nel campo dell’ottico di rilevare il territorio, e per questo di frequente essi non si prestano ad essere impiegati per un’indagine nella fase di prima emergenza. In questa circostanza, un valido aiuto giunge dall’impiego di immagini Radar, le quali permettono osservazioni ad ogni ora del giorno e della notte, anche in presenza di nuvole, rendendole di fondamentale importanza nelle situazioni descritte. Per dimostrare la validità di questi sensori si sono analizzati due subset derivanti da un mosaico di immagini della nuova costellazione italiana ad alta risoluzione CosmoSkymed: il primo va dalla città di Dhaka al Golfo del Bengala ed il secondo copre la zona più a Nord nel distretto di Sylhet. Dalla sperimentazione condotta su tali immagini radar, che ha comportato come ovvio problematiche del tutto differenti rispetto alle elaborazioni tradizionalmente condotte su immagini nel campo dell’ottico, si è potuto verificare come l’estrazione dei corpi d’acqua e più in generale dell’idrografia risulti valida e di veloce computazione. Sono emersi tuttavia dei problemi, per esempio per quanto riguarda la classificazione dell’acqua in presenza di rilievi montuosi; tali complicazioni sono dovute alla presenza di zone d’ombra che risultano erroneamente assegnate alla classe water, ma è stato possibile correggere tali errori di attribuzione mascherando i rilievi con l’ausilio di una mappa delle pendenze ricavata da modelli di elevazione SRTM (Shuttle Radar Topographic Mission). La validazione dei risultati della classificazione, condotta con un grande numero di check points, ha fornito risultati molto incoraggianti (ca. 90%). Nonostante le problematiche riscontrate, il Radar, in sé o in accoppiamento con altri dati di diversa origine, si presta dunque a fornire in breve tempo informazioni sull’estensione dell’esondazione, sul grado di devastazione, sulle caratteristiche delle aree esondate, sulle vie di fuga più adatte, diventando un’importante risorsa per chi si occupa di gestire l’emergenza in caso di eventi calamitosi. L’integrazione con i dati di tipo ottico è inoltre essenziale per pervenire ad una migliore caratterizzazione del fenomeno, sia in termini di change detection che di monitoraggio post-evento.
Resumo:
La ricerca indaga le dinamiche socio - economiche in atto in rapporto con le trasformazioni territoriali e valuta in quale misura la pianificazione territoriale ed urbanistica sia in grado di soddisfare le attuali esigenze nella gestione del territorio, urbanizzato e non. La riflessione parte dalla necessità di capire come un territorio possa conservare vitalità nel momento in cui si ritrova all’interno di un sistema di dinamiche che non si rivolge più ad ambiti di riferimento vicini (fino ad una decina d’anni fa la competitività veniva misurata, generalmente, tra regioni contermini, al massimo con riferimento ai trend nazionali), ma che necessita di confrontarsi per lo meno con le realtà regionali europee, se non, per certi versi, con la scala mondiale, globale appunto. La generalità della tematica ha imposto, di conseguenza, l’individuazione di un case book al quale riferirsi così da approfondirla attraverso una conoscenza diretta di un preciso ambito territoriale. È stato scelto, quale esemplificazione, il territorio della regione Veneto, con particolare riferimento all’area centrale. La ragione di tale scelta è da individuarsi, oltre che in motivi meramente strumentali, nel fatto che il Veneto, tra le regioni italiane, tuttora si configura come un territorio soggetto a forti trasformazioni indotte dalle dinamiche socio - economiche. Infatti da un primo periodo veneto, legato alla costruzione dell’armatura territoriale articolata su una molteplicità di poli diffusi sul territorio, si è passati al Secondo Veneto, quello della diffusione produttiva, dei capannoni, della marmellata urbanistica, del consumo del suolo. L’epoca attuale risponde poi ad un Terzo Veneto, un periodo forse di transizione verso un nuovo assetto. Il punto di partenza è stato dunque quello della delimitazione dell’area di riferimento, attraverso il riconoscimento di quei caratteri territoriali che la contraddistinguono da altre aree all’interno della regione stessa e su scala europea. Dopo una prima descrizione in chiave descrittiva e storico - evolutiva rivolta alla comprensione dei fenomeni in atto (diffuso e frammentazione insediativa tra i principali) si è passati ad una lettura quantitativa che consentisse, da un lato, di comprendere meglio alcuni caratteri della Regione e, dall’altro, di confrontarla con la scala globale, che si è scelto essere per la realtà considerata quella dell’Unione Europea. Le problematiche, i punti di forza e di debolezza emersi hanno consentito di formulare alcune ipotesi volte al miglioramento del territorio dell’area centrale veneta attraverso un processo che individuasse, non solo gli attori interessati alla trasformazione, ma anche gli strumenti maggiormente idonei per la realizzazione degli stessi. Sono emerse così le caratteristiche che potrebbe assumere il Quarto Veneto, il Veneto che verrà. I temi trattati spaziano dall’individuazione dei metodi di governance che, tramite il processo di visioning, siano in grado di individuare le priorità, di definire l’intensità d’uso, la vocazione dei luoghi e chi siano gli operatori interessati, all’integrazione tra i valori della storia e della cultura territoriale con i nuovi modi del fare (nuove tecnologie), fino all’individuazione di strumenti di coesione economica, sociale e territoriale per scongiurare quei rischi di disgregazione insiti nella globalizzazione. La ricerca si è dunque concretizzata attraverso un approccio euristico alla problematica delle trasformazioni territoriali, in cui il tema della scala di riferimento (locale - globale), ha consentito di valutare esperienze, tecniche e progetti volti al raggiungimento di livelli di sviluppo territoriale ed urbano sostenibili.
Resumo:
Questa tesi fornisce una realizzazione di alcuni test neuropsicologici, scelti in collaborazione di un neuropsicologo, che cercano di sostituire foglio e penna con touch screen e dita. L'obiettivo è quello di ricreare il test senza aggiungere agenti esterni derivanti dalla nuova interfaccia, per far sì che la fruizione del test sia buona almeno quanto quella del corrispettivo non digitale. Il risultato finale dovrebbe apportare dei vantaggi sostanziali al processo di somministrazione di questi test.
Resumo:
Lo scopo del seguente lavoro sara' quello di illustrare i mezzi utilizzati in ambito amministrativo per garantire la privacy delle comunicazioni: stiamo parlando della PEC, ovvero della posta elettronica certificata. Inizialmente si tratteranno aspetti piu' tecnici legati a tale strumento, dandone una definizione e illustrando i metodi di funzionamento; successivamente si affronteranno invece aspetti legati piu' nel dettaglio all’ambito giuridico,
Resumo:
L’importanza dell’acqua nel territorio ravennate è facilmente riscontrabile nella sua storia: la città sorge letteralmente in mezzo all’acqua, composta da fiumi, canali e specchi d’acqua, mutati profondamente nel corso del tempo grazie alle bonifiche e all’opera dell’uomo. Diventa, quindi, fondamentale uno studio di come la città abbia convissuto, si sia adattata all’acqua e di come l’uomo abbia cambiato la conformazione della città nel tempo in base al sistema idrico. Ora Ravenna ha, per cosi dire, perso il suo carattere di città marittima, ciò che prima si trovava a diretto contatto con il mare ora risulta distaccato e le tracce di questa evoluzione si sono via via perse col passare degli anni. L’unico collegamento al mare e alle zona lagunare limitrofa al porto rimane il canale Candiano, un collegamento che porta l’acqua fino al confine del centro storico. Il porto che prima rivestiva un ruolo importante e di sopravvivenza, in quanto il mercato ittico rappresentava un punto nodale nella vita della città e dei suoi abitanti, ora ha cambiato la sua destinazione a crocevia del commercio e di materie prime utilizzate dalle industrie sorte lungo le sponde del canale Candiano. Il museo delle acque vuole essere perciò un salto nel passato, riscoprendo e valorizzando l’antico legame tra uomo, città e acqua. Alla luce dello stato di fatto, dei cambiamenti e degli studi condotti sull’area, andiamo ora a chiarire gli aspetti basilari e generatori dell’edificio museale: - L’ingresso verrà posto lungo l’asse viario proveniente dalla città e dal mausoleo di Teodorico. - L’intero progetto verrà immerso nel verde, e collegato al vicino parco di Teodorico. - Il museo verrà realizzato all’interno di una piazza urbana che diverrà il fulcro della nuova cittadella della cultura. Prima di tutto è importante capire cosa si vuole esporre all’interno del museo e a che tipo di visitatore le mostre sono dedicate. Il museo prevede per lo più mostre permanenti dedicate al tema dell’acqua. L’esposizione si dividerà principalmente in due parti, la prima riguarderà le lagune costiere presenti nelle zone del porto di Ravenna, la seconda dedicata al Mare saranno quindi idealmente due percorsi differenti. Il percorso inizierà al primo piano con una sala completamente buia nella quale verranno presentati gli aspetti principali dei fondali. Nel caso delle lagune, saranno esposte le stratificazione e composizione dei fondali con carotaggi e pannelli illustrativi dell’evoluzione nel tempo, gli aspetti chimici e soprattutto idraulici di questo sistema. Il tutto sarà improntato per far comprendere l’importanza delle lagune, grazie alle quali è possibile il corretto funzionamento del porto, dovuto elle maree. Al secondo piano del Museo verrà illustrata la vita all’interno della laguna, quindi le specie presenti, sia animali che vegetali, siano esse naturali o introdotte dall’uomo, come nel caso degli allevamenti di vongole filippine, determinando le dinamiche di conservazione di questo patrimonio faunistico e naturalistico, con attività di analisi legate al centro ricerche. Si provvederà in questo senso anche a controllare i vari livelli massimi di inquinamento delle attività industriali presenti nel canale. Al terzo piano si andranno ad analizzare e mostrare gli aspetti che legano queste zone alle attività umane, che possiamo riunire in due settori principali quali la pesca e la navigazione. Verranno esposti utilizzando modelli in scala, cartellonistica, pannelli illustrativi ed immagini e tutta una serie di oggetti che illustrano le relazioni tre l’uomo e il luogo. Ci sarà una sezione dedicata alle imbarcazioni utilizzate per il guado dei canali, fino ai più piccoli strumenti usati proprio nelle attività di pesca. Al quarto piano si concluderà l’esposizione cercando di lasciare l’aspetto scientifico e ci si dedicherà all’evoluzione del porto dalle origini con il suo mercato ittico, fino ai giorni nostri in cui i traffici di materie prime destinate alle industrie sono l’aspetto principale. Il percorso museale si eleva a spirale, è formato da due rampe quadrate che servono i piani e che si intrecciano senza mai toccarsi. Questo permette al visitatore di scegliere il percorso che più gli interessa e nel modo che vuole, non è obbligato né dall’architettura né dal percorso espositivo, è quindi un sistema molto flessibile rispetto quello del museo classico, può capitare che due visitatori entrino nel museo insieme, inizino il giro in senso opposto, e non si incontrino mai, questa idea risulta complessa e nuova in un edificio che almeno esternamente sembra molto regolare e schematico. Per quanto riguarda la parte dell’illuminazione, che ha avuto anch’essa un ruolo molto importante all’interno del progetto del museo, l’idea è quella di rendere un effetto di risalita dalle profondità del mare fino alla superficie, man mano che si sale lungo il percorso espositivo. Per fare ciò, è stato svolto uno studio attento delle aperture, lasciando il primo piano espositivo cieco ed aprendo il secondo e il terzo piano in maniera da avere un progressivo aumento di luce nelle sale. Le finestre sono state posizionate compatibilmente con la composizione esterna dei prospetti, alla ricerca di un giusto equilibrio tra pieni e vuoti e tra composizione e tecnica.
Resumo:
L’ecografia è la metodica diagnostica più utilizzata come screening e follow-up nei pazienti epatopatici con o senza lesioni focali e questo grazie alle sue peculiari caratteristiche, che sono date dall’essere real-time, maneggevole, priva di radiazioni ionizzanti e con bassi costi. Tuttavia tale metodica se confrontata con la TC o la RMN, può avere importanti limiti, quali l’impossibilità di visualizzare piccole lesioni localizzate in aree anatomicamente “difficili” o in pazienti obesi, che sono già state identificate con altre tecniche, come la TC o la RMN. Per superare queste limitazioni sono stati introdotti dei sistemi di “fusione d’immagine” che consentono di sincronizzare in tempo reale una metodica real time con bassa risoluzione spaziale come l’ecografia ed una statica ad alta risoluzione come la TC o la RMN. Ciò si ottiene creando attorno al paziente un piccolo campo elettromagnetico costituito da un generatore e da un rilevatore applicato al trasduttore ecografico ed introducendo in un computer abbinato all’ecografo il “volume rendering” dell’addome del paziente ottenuto mediante TC multistrato o RM. Il preciso “ appaiamento spaziale “ delle due metodiche si ottiene individuando in entrambe lo stesso piano assiale di riferimento e almeno 3-4 punti anatomici interni. Tale sistema di fusione d’immagine potrebbe essere molto utile in campo epatologico nella diagnostica non invasiva del piccolo epatocarcinoma, che secondo le ultime linee guida, nei noduli di dimensioni fra 1 e 2 cm, richiede una concordanza nel comportamento contrastografico della lesione in almeno due tecniche d’immagine. Lo scopo del nostro lavoro è stato pertanto quello di valutare, in pazienti epatopatici, il contributo che tale sistema può dare nell’identificazione e caratterizzazione di lesioni inferiori a 20 mm, che erano già state identificate alla TC o alla RMN come noduli sospetti per HCC, ma che non erano stati visualizzati in ecografia convenzionale. L’eventuale re-identificazione con l’ecografia convenzionale dei noduli sospetti per essere HCC, può permettere di evitare, alla luce dei criteri diagnostici non invasivi un’ ulteriore tecnica d’immagine ed eventualmente la biopsia. Pazienti e Metodi: 17 pazienti cirrotici (12 Maschi; 5 Femmine), con età media di 68.9 +/- 6.2 (SD) anni, in cui la TC e la RMN con mezzo di contrasto avevano identificato 20 nuove lesioni focali epatiche, inferiori a 20 mm (13,6 +/- 3,6 mm), sospette per essere epatocarcinomi (HCC), ma non identificate all’ecografia basale (eseguita in cieco rispetto alla TC o alla RMN) sono stati sottoposti ad ecografia senza e con mezzo di contrasto, focalizzata su una zona bersaglio identificata tramite il sistema di fusione d’immagini, che visualizza simultaneamente le immagini della TC e della RMN ricostruite in modalità bidimensionale ( 2D), tridimensionale ( 3 D) e real-time. La diagnosi finale era stata stabilita attraverso la presenza di una concordanza diagnostica, secondo le linee guida internazionali o attraverso un follow-up nei casi di discordanza. Risultati: Una diagnosi non invasiva di HCC è stata raggiunta in 15/20 lesioni, inizialmente sospettate di essere HCC. Il sistema di fusione ha identificato e mostrato un comportamento contrastografico tipico in 12/15 noduli di HCC ( 80%) mentre 3/15 HCC (20%) non sono stati identificati con il sistema di fusione d’immagine. Le rimanenti 5/20 lesioni non sono state visualizzate attraverso i sistemi di fusione d’immagine ed infine giudicate come falsi positivi della TC e della RMN, poiché sono scomparse nei successivi mesi di follow-up e rispettivamente dopo tre, sei, nove, dodici e quindici mesi. Conclusioni: I nostri risultati preliminari mostrano che la combinazione del sistema di fusione dell’immagine associata all’ecografia senza e con mezzo di contrasto (CEUS), migliora il potenziale dell’ecografia nell’identificazione e caratterizzazione dell’HCC su fegato cirrotico, permettendo il raggiungimento di una diagnosi, secondo criteri non invasivi e slatentizzazndo casi di falsi positivi della TC e della RMN.
Resumo:
Spesso il termine virtuale viene associato ad un mondo immateriale, lontano dalla realtà e distante dagli elementi più concreti che la caratterizzano. La virtualità, tuttavia, non è solo questo. Se considerata, come lo stesso Levy sostiene, un mondo che non si contrappone al reale (ma all’attuale), anzi lo potenzia e lo rafforza, il suo valore e l’idea di essa cambiano notevolmente. Già la fotografia, il cinema, la televisione possono essere considerate, ancora prima della più moderna realtà virtuale e delle innovative tecnologie forme di virtualità. Il loro utilizzo largamente diffuso ha ampliato le potenzialità del concreto ed è oggi apprezzato e utilizzato da tutti. Il nostro progetto nasce dalla volontà di sperimentare le nuove forme del virtuale associandole al campo dell’architettura per potenziarne la conoscenza didattica, la diffusione e trasmettere gli importanti contenuti che le sottendono in maniera chiara ed efficace. Il progetto sviluppato affronta un tema concreto di concept di museo virtuale su web e una proposta di installazione interattiva all’interno del salone di Palazzo Barbaran a Vicenza. A cardine di questi due lavori vi è il lascito Palladiano, a cominciare dallo sprawl di ville, palazzi e chiese diffusi nel paesaggio Veneto, passando per i progetti ideali rimasti solo su carta e concludendo con la sua opera bibliografica più famosa: I quattro libri dell’architettura. Palladio e il digitale è dunque un progetto che vuole dimostrare l’importanza e la versatilità delle installazioni virtuali, quali strumenti utili all’apprendimento e alla trasmissione della conoscenza, e dall’altro rispondere concretamente ai cambiamenti della società, cercando, attraverso queste sperimentazioni, di definire anche i nuovi caratteri dell’ evoluzione museale.
Resumo:
Il presente studio ha come obiettivi l’analisi, la modellazione numerica e la caratterizzazione del rischio idrogeologico di due siti dell’Appennino bolognese interessati negli ultimi due anni da colate detritiche, Serraglio (Comune di Castiglione dei Pepoli) e Chiapporato (Comune di Camugnano). Lo studio è stato condotto in collaborazione con il Servizio Tecnico di Bacino Reno della Regione Emilia-Romagna, che ha reso disponibile la documentazione relativa ai due eventi analizzati. I predetti eventi possono esser definiti “anomali” in relazione sia alla loro collocazione – essendo il fenomeno delle colate detritiche diffuso principalmente in aree montuose caratterizzate da un’altitudine media rilevante, come l’arco alpino – sia al fatto che non sono né catalogati né ricordati a memoria d’uomo eventi, in tali località, precedenti a quelli in esame. Il rischio idrogeologico, indotto dalla possibilità non remota di nuovi eventi, è dato non dal volume o dall’area interessata dai fenomeni, ma piuttosto dall’estrema velocità caratterizzante le colate detritiche, appunto definite come manifestazioni parossistiche lungo la rete idrografica secondaria con trasporto in massa di sedimenti. L’analisi effettuata ha anche fornito l’occasione per effettuare un confronto tra due realtà, quella di Serraglio e quella di Chiapporato, accomunate dalla stessa tipologia di evento, ma differenti in relazione all’uso del suolo, alle caratteristiche geomorfologiche e alle modalità di propagazione nel corso dell’evento. L’abitato di Serraglio, sito nella frazione di Baragazza, è stato colpito da una colata detritica il 20 gennaio 2009. Da un punto di vista geologico e geomorfologico la località è sovrastata da un versante boscato notevolmente acclive, caratterizzato dall’affioramento della cosiddetta Formazione di Cervarola: tali rocce, appartenenti alla categoria delle arenarie e solitamente presenti in strati compatti, in seguito alla naturale degradazione dovuta agli agenti atmosferici hanno dato luogo ad un detrito composto da blocchi e ciottoli di varia dimensione immersi in una matrice sabbiosa. Il distacco è avvenuto proprio in questo materiale detritico, reso instabile dal notevole apporto pluviometrico verificatosi nei giorni precedenti. La colata, sviluppatasi in seguito alla fluidificazione del materiale coinvolto in uno scivolamento di detrito di ridotta volumetria, si è incanalata in uno dei rii effimeri che drenano il versante con traiettorie tra loro pseudo parallele. Il debris flow, accelerato da un dislivello complessivo di 125 m, ha poi raggiunto due abitazioni, fortunatamente non abitate al momento dell’evento, depositando uno spessore detritico di oltre 1,5 m nella zona di transito prima di proseguire verso valle nella sua frazione più fine, incanalandosi di fatto lungo lo stradello asfaltato di accesso alle abitazioni e interessando la strada provinciale che collega Castiglione dei Pepoli all’uscita autostradale di Roncobilaccio. Da un punto di vista meteo-climatico il mese di gennaio 2009 è stato caratterizzato da precipitazioni fortemente superiori alla media, accompagnate da una ridotta insolazione. La continua oscillazione dello zero termico tra 0 e 900 m ha dato luogo alla formazione di uno spessore nivale al suolo di circa 20 cm tre giorni prima dell’evento e poi al suo rapido scioglimento contestualmente all’aumento termico, dato dalla risalita di aria calda umida di origine africana, accompagnata da quella perturbazione che ha poi di fatto innescato il fenomeno. Nelle 48 ore precedenti l’evento sono stati registrati apporti nivo-pluviometrici corrispondenti ad oltre 130 mm, che hanno causato la completa saturazione del detrito superficiale, l’innesco dello scivolamento di detrito e la sua successiva fluidificazione. Il distacco del materiale detritico, la sua movimentazione e la notevole erosione che ha caratterizzato l’alveo del rio durante il fenomeno – quantificata mediamente in 20 cm – sono state favorite dalle mediocri condizioni di salute del castagneto che copre il versante interessato dall’evento: la totale assenza di manutenzione e l’abbandono della coltivazione “a pali” del bosco hanno inibito la naturale funzione stabilizzante del boscato, trasformatosi da fattore inibente a fattore predisponente il fenomeno. La seconda colata detritica analizzata ha invece interessato la strada comunale che collega la frazione di Stagno all’abitato di Chiapporato, splendida borgata cinquecentesca, frequentata soprattutto da turisti ed escursionisti durante la stagione estiva. Il versante sede della colata, occorsa in data 8 novembre 2010, è caratterizzato da numerosi affioramenti della cosiddetta Formazione di Stagno, arenarie intervallate da strati marnoso-pelitici. Tale litotipo, soggetto alla naturale degradazione indotta dagli agenti atmosferici, origina un detrito composto da massi e ciottoli, raccoltisi, nell’area in esame, in un canalone posto ai piedi di una scarpata pseudo verticale delimitante il pianoro di “Val di Sasso”. Tale materiale detritico è stato poi fluidificato dalle abbondanti piogge, depositando, dopo oltre 320 metri di dislivello, circa un metro di detrito sul piano stradale per poi proseguire la sua corsa verso il Torrente Limentra e il Bacino di Suviana. L’evento è stato innescato da precipitazioni intense e persistenti che hanno depositato al suolo oltre 69 mm di pioggia in 25 ore. Nel mese precedente il fenomeno sono stati misurati oltre 530 mm di pioggia, quantitativi superiori alla media climatologica, che hanno sicuramente accelerato anche la degradazione della scarpata e l’accumulo di detriti nell’area sorgente. Le colate sopra descritte sono state poi simulate utilizzando il modello DAN-W (Dynamic ANalysis) del prof. Oldrich Hungr della University of British Columbia (Canada). Tale modello si basa su una discretizzazione della massa movimentata tramite il metodo degli “elementi di contorno” e sulla soluzione alle differenze finite di tipo Lagrangiano dell’equazione di De Saint Venant. L’equazione del moto, integrata verticalmente, è applicata a colonne strette di flusso (elementi di contorno). L’equazione di continuità è invece risolta riferendosi agli elementi di massa delimitati dai predetti elementi di contorno. Il numero di incognite principali eguaglia il numero di equazioni disponibili ed il problema è quindi completamente determinato. Gli altri parametri caratterizzanti la colata sono determinati tramite interpolazioni basate sull’ipotesi che sia la superficie del flusso sia quella della traiettoria siano ragionevolmente lisce. La soluzione è esplicita ed avviene per step temporali successivi. Al fine della determinazione dei parametri l’utilizzatore ha la possibilità di scegliere tra vari modelli reologici, quantificanti il termine di resistenza caratterizzante il moto. Su indicazione dell’autore del modello sono stati utilizzati il modello frizionale e quello di Voellmy, che, in casi simili, forniscono risultati più realistici (in relazione alla modellizzazione di colate di detrito). I parametri utilizzati per la calibrazione sono lo spessore di detrito depositato sul piano stradale, nel caso di Chiapporato, e a tergo della prima abitazione investita dalla colata nel caso di Serraglio, unitamente alla massima distanza raggiunta dai detriti. I risultati ottenuti utilizzando il modello reologico frizionale mostrano profili di velocità scarsamente rappresentativi, con una costante sovrastima della stessa, a fronte di una migliore capacità descrittiva degli spessori accumulatisi. Il modello di Voellmy ha invece prodotto andamenti di velocità più realistici, confrontabili con i valori forniti dalla letteratura internazionale, riuscendo al contempo a quantificare con precisione l’accumulo di detrito rilevato a seguito degli eventi. I valori dei parametri utilizzati nella modellazione sono stati ricavati dalle indicazioni dell’autore del modello affiancate dai range resi disponibili dalla letteratura. Entrambe le caratterizzazioni reologiche sono poi state oggetto di un’analisi di sensitività ai fini di quantificare il peso dei parametri utilizzati. Il modello frizionale si è rivelato particolarmente sensibile all’andamento del coefficiente di attrito basale e al coefficiente di pressione dei pori, con un lieve preponderanza del primo, mentre il modello reologico di Voellmy si è mostrato fortemente influenzato dal coefficiente di turbolenza e dal coefficiente di attrito, pressoché paritari nell’effettivo condizionamento dei risultati. Gli output ottenuti simulando l’evento di Serraglio sono risultati generalmente meno realistici di quelli ricavati nel caso di Chiapporato: ciò è probabilmente dovuto alle caratteristiche reologiche proprie del fenomeno occorso a Serraglio, classificabile come un ibrido tra un mud flow e un debris flow. Sono state infine avanzate proposte di intervento e di monitoraggio dei siti indagati, al fine di una mitigazione del rischio idrogeologico gravante sulle aree esaminate. Il caso di Serraglio presenta, a parere dello scrivente, un rischio idrogeologico più elevato, se paragonato a quello presente a Chiapporato, dati la vicinanza ad un centro abitato e lo status quo caratterizzante il versante sede del dissesto. Nei circa 18 mesi trascorsi dopo l’evento è stato possibile rilevare un progressivo ampliamento della nicchia di distacco dello scivolamento, poi evolutosi in colata con andamento tipicamente retrogressivo. Lo stato della vegetazione permane in condizioni problematiche, con frequenti ribaltamenti e sradicamenti (processi noti in letteratura come chablis) dei castagni presenti, con un conseguente aumento dell’erosione superficiale del versante e l’apporto detritico all’interno del rio. Tale detrito è poi trattenuto all’interno dell’alveo da una serie di briglie naturali formatesi a seguito della caduta di varie piante all’interno del canale stesso a causa del passaggio del debris flow o a fenomeni di chablis. La forte sovraescavazione occorsa in occasione della colata ha poi favorito l’innesco di una serie di piccoli scivolamenti superficiali confluenti nel rio stesso, anch’essi apportatori di detrito, ingrediente principale per un nuovo debris flow. È inoltre da notare come la zona di runout è tuttora parzialmente occupata dal detrito depositatosi a seguito dell’evento: tale configurazione, causando di fatto una riduzione della potenziale area di “sfogo” di un nuovo debris flow, acuisce il rischio di un’estensione areale verso valle degli effetti di un nuovo fenomeno, con un conseguente possibile maggior coinvolgimento dell’abitato di Serraglio. È stato quindi proposto di attuare un’adeguata regimazione dell’area boschiva caratterizzante il versante, unitamente ad una regimazione fluviale del rio, tramite la realizzazione di briglie in legno e pietrame – essendo l’area non cantierabile – e la rimozione degli accumuli detritici in seno all’alveo stesso. La nicchia di distacco principale e le nicchie secondarie dovranno poi essere oggetto di opportuna stabilizzazione. Più a valle è stata suggerita la rimozione dell’accumulo detritico presente nell’area di runout e la realizzazione di un’adeguata opera di ricezione delle acque del rio e di eventuali nuove colate: a tal fine si è ipotizzato il ripristino dell’antico alveo, successivamente deviato e tombato per permettere l’edificazione dell’abitazione poi investita dalla colata. È stato inoltre proposto un monitoraggio attraverso l’installazione di un pluviometro, tarato con opportune soglie di allarme, dotato di datalogger e modem GPRS al fine di comunicare in tempo reale, ai tecnici incaricati e agli abitanti, un eventuale superamento della soglia di allarme. Il caso di Chiapporato è invece caratterizzato da problematiche connesse al rischio idrogeologico meno rilevanti di quelle presenti a Serraglio. Ciò è dovuto allo scarso traffico caratterizzante la strada comunale e all’assenza di altri edifici o infrastrutture potenzialmente coinvolgibili da un nuovo evento. La probabilità del verificarsi di una nuova colata è però concreta, considerata la forte erosione caratterizzante il versante: trascorsi sei mesi dall’evento, è stato possibile rilevare nell’area sorgente un accumulo medio di detrito di circa mezzo metro di spessore. Le cause del dissesto, a differenza di Serraglio, non sono in alcun modo imputabili all’azione antropica: si tratta infatti della naturale evoluzione del versante sovrastante il piano stradale. Si propone quindi la collocazione di cartelli stradali indicanti il pericolo di caduta massi e colate detritiche agli automobilisti e ai pedoni, unitamente all’installazione di un cavo a strappo posto lungo l’alveo torrentizio collegato ad un semaforo dislocato nei pressi del guado della strada comunale sul rio Casale. L’eventuale verificarsi di un nuovo evento comporterebbe la lacerazione del cavo installato e l’attivazione del semaforo – e di un eventuale allarme acustico – con conseguente inibizione del traffico stradale in occasione del transito del debris flow. Nel contesto geologico e geomorfologico dell’Appennino tosco-emiliano i debris flow rappresentano una tipologia di dissesto da frana poco diffusa, ma comunque potenzialmente presente nelle aree dove i processi di alterazione e degradazione degli ammassi rocciosi affioranti generino accumuli di detrito e in condizioni morfologiche caratterizzate da elevate pendenze dei versanti. Questo studio ha permesso di approfondire la conoscenza di questi fenomeni, che presentano una magnitudo notevolmente inferiore rispetto al contesto alpino, ma la cui interferenza con l’attività antropica acuisce notevolmente il rischio idrogeologico nelle zone interessate. Si sottolinea, inoltre, che nell’attuale contesto climatico caratterizzato da sempre più frequenti piogge brevi ed intense ed eventi cosiddetti di rain on snow, la frequenza sia temporale che spaziale di tali fenomeni di dissesto appare destinata ad aumentare, anche in aree in precedenza non interessate.