990 resultados para riduzione simplettica, Calogero-Moser


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La ricerca approfondisce le modalità  di applicazione degli standard di qualità  nell'ambito del servizio sportivo, qualità  certificata attraverso sistemi convenzionali o auto verificata attraverso strumenti quali carte di servizio. L'applicazione e verifica dei sistemi di qualità  ad un servizio, seppur non considerato pubblico ma comunque di interesse generale, deve essere messa in relazione con i risultati che il servizio stesso si prefigge sia dal punto di vista del privato (o pubblico) che gestisce ed esercita l'attività  sportiva, sia dal punto di vista del cittadino che lo utilizza. Pertanto la ricerca è stata dedicata all'incidenza della qualità  nei miglioramenti del benessere psico-fisico dell'utente e all'eventuale efficacia della stessa come strumento di marketing per la diffusione del servizio. Sono state prese in esame tre diverse realtà  sportive, tre piscine. Due delle quali, dopo una prima rilevazione esplorativa, si sono dotate di una Carta dei Servizi. La terza piscina è invece gestita da una società  certificata ISO 9001. Sono stati proposti ed elaborati oltre 800 questionari dai quali sono emerse interessanti indicazioni su quanto e come la qualità  del servizio sia stato percepito dall'utente sotto forma di miglioramento del proprio stato psico-fisico ma anche di come sia ritenuta indispensabile una attenzione del gestore verso l'utente affinchè egli possa considerare utile l'attività  motoria dal punto di vista del miglioramento del proprio benessere. Più in particolare, attraverso l'utilizzo dell'analisi fattoriale prima e di modelli Lisrel poi, si è ottenuta una riduzione della complessità  del numero di fattori che spiegano il fenomeno. Questi fattori sono stati messi in correlazione con il livello di soddisfazione complessiva degli utenti e, dalle due rilevazioni per le quali il modello Lisrel ha restituito dati attendibili, è emerso come il fattore "servizi per gli utenti", comprendente aspetti quali lo spazio in acqua e la comodità  degli spogliatoi, sia quello che ha una maggior correlazione con la soddisfazione complessiva. La Carta dei Servizi, pur ritenuta utile dagli utenti che la conoscono, risulta uno strumento poco conosciuto ed in generale privo di appeal anche dal punto di vista del marketing. Nella percezione dell'utente questo strumento non contribuisce al miglioramento del proprio stato psico-fisico. E' interessante rilevare, invece, che gli utenti che conoscono la Certificazione di qualità  hanno una miglior percezione del servizio. In generale i molteplici interessi commerciali legati alle certificazioni o "autocertificazioni" hanno generato, in questi ultimi anni, confusione nelle società  sportive e negli enti che gestiscono impianti sportivi tra il concetto di qualità  (come cultura e occasione di miglioramento) e quello di "certificazione di qualità". In tale contesto "l'apparire" è divenuto più importante dell'"essere" perchè, la maggiore attenzione all'uso di tecniche piuttosto che all'approfondimento dei principi manageriali grazie ai quali è possibile fare qualità , ha finito per banalizzarne il concetto. Ma se il cliente/utente (interno o esterno) è insoddisfatto nonostante il rispetto di standard e specifiche da parte dell'azienda si può ancora parlare di qualità ?

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo studio condotto si propone l’approfondimento delle conoscenze sui processi di evoluzione spontanea di comunità vegetali erbacee di origine secondaria in cinque siti all’interno di un’area protetta del Parco di Monte Sole (Bologna, Italia), dove, come molte aree rurali marginali in Italia e in Europa, la cessazione o riduzione delle tradizionali pratiche gestionali negli ultimi cinquant’anni, ha determinato lo sviluppo di fitocenosi di ridotto valore floristico e produttivo. Tali siti si trovano in due aree distinte all’interno del parco, denominate Zannini e Stanzano, selezionate in quanto rappresentative di situazioni di comunità del Mesobrometo. Due siti appartenenti alla prima area e uno appartenente alla seconda, sono gestiti con sfalcio annuale, i rimanenti non hanno nessun tipo di gestione. Lo stato delle comunità erbacee di tali siti è stato valutato secondo più punti di vista. E’ stata fatta una caratterizzazione vegetazionale dei siti, mediante rilievo lineare secondo la metodologia Daget-Poissonet, permettendo una prima valutazione relativa al numero di specie presenti e alla loro abbondanza all’interno della comunità vegetale, determinando i Contributi Specifici delle famiglie principali e delle specie dominanti (B. pinnatum, B. erectus e D. glomerata). La produttività è stata calcolata utilizzando un indice di qualità foraggera, il Valore Pastorale, e con la determinazione della produzione di Fitomassa totale, Fitomassa fotosintetizzante e Necromassa. A questo proposito sono state trovate correlazioni negative tra la presenza di Graminacee, in particolare di B. pinnatum, e i Contributi Specifici delle altre specie, soprattutto a causa dello spesso strato di fitomassa e necromassa prodotto dallo stesso B. pinnatum che impedisce meccanicamente l’insediamento e la crescita di altre piante. E’ stata inoltre approfonditamente sviluppata un terza caratterizzazione, che si propone di quantificare la diversità funzionale dei siti medesimi, interpretando le risposte della vegetazione a fattori globali di cambiamento, sia abiotici che biotici, per cogliere gli effetti delle variazioni ambientali in atto sulla comunità, e più in generale, sull’intero ecosistema. In particolare, nello studio condotto, sono stati proposti alcuni caratteri funzionali, cosiddetti functional traits, scelti perché correlati all’acquisizione e alla conservazione delle risorse, e quindi al trade-off dei nutrienti all’interno della pianta, ossia: Superficie Fogliare Specifica, SLA, Tenore di Sostanza Secca, LDMC, Concentrazione di Azoto Fogliare, LNC, Contenuto in Fibra, LFC, separato nelle componenti di Emicellulosa, Cellulosa, Lignina e Ceneri. Questi caratteri sono stati misurati in relazione a tre specie dominanti: B. pinnatum, B. erectus e D. glomerata. Si tratta di specie comunemente presenti nelle praterie semi-mesofile dell’Appennino Settentrionale, ma caratterizzate da differenti proprietà ecologiche e adattative: B. pinnatum e B. erectus sono considerati competitori stress-toleranti, tipicamente di ambienti poveri di risorse, mentre D. glomerata, è una specie più mesofila, caratteristica di ambienti produttivi. Attraverso l’analisi dei traits in riferimento alle diverse strategie di queste specie, sono stati descritti specifici adattamenti alle variazioni delle condizioni ambientali, ed in particolare in risposta al periodo di stress durante l’estate dovuto a deficit idrico e in risposta alla diversa modalità di gestione dei siti, ossia alla pratica o meno dello sfalcio annuale. Tra i caratteri funzionali esaminati, è stato identificato LDMC come il migliore per descrivere le specie, in quanto più facilmente misurabile, meno variabile, e direttamente correlato con altri traits come SLA e le componenti della fibra. E’ stato quindi proposto il calcolo di un indice globale per caratterizzare i siti in esame, che tenesse conto di tutti questi aspetti, riunendo insieme sia i parametri di tipo vegetativo e produttivo, che i parametri funzionali. Tale indice ha permesso di disporre i siti lungo un gradiente e di cogliere differenti risposte in relazione a variazioni stagionali tra primavera o autunno e in relazione al tipo di gestione, valutando le posizioni occupate dai siti stessi e la modalità dei loro eventuali spostamenti lungo questo gradiente. Al fine di chiarire se le variazioni dei traits rilevate fossero dovute ad adattamento fenotipico dei singoli individui alle condizioni ambientali, o piuttosto fossero dovute a differenziazione genotipica tra popolazioni cresciute in siti diversi, è stato proposto un esperimento in condizioni controllate. All’interno di un’area naturale in UK, le Chiltern Hills, sono stati selezionati cinque siti, caratterizzati da diverse età di abbandono: Bradenham Road MaiColtivato e Small Dean MaiColtivato, di cui non si conosce storia di coltivazione, caratterizzati rispettivamente da vegetazione arborea e arbustiva prevalente, Butterfly Bank 1970, non più coltivato dal 1970, oggi prateria seminaturale occasionalmente pascolata, Park Wood 2001, non più coltivato dal 2001, oggi prateria seminaturale mantenuta con sfalcio annuale, e infine Manor Farm Coltivato, attualmente arato e coltivato. L’esperimento è stato condotto facendo crescere i semi delle tre specie più comuni, B. sylvaticum, D. glomerata e H. lanatus provenienti dai primi quattro siti, e semi delle stesse specie acquistati commercialmente, nei cinque differenti tipi di suolo dei medesimi siti. Sono stati misurati quattro caratteri funzionali: Massa Radicale Secca (DRM), Massa Epigea Secca (DBM), Superficie Fogliare Secca (SLA) e Tenore di Sostanza Secca (LDMC). I risultati ottenuti hanno evidenziato che ci sono significative differenze tra le popolazioni di una stessa specie ma con diversa provenienza, e tra individui appartenenti alla stessa popolazione se fatti crescere in suoli diversi. Tuttavia, queste differenze, sembrano essere dovute ad adattamenti locali legati alla presenza di nutrienti, in particolare N e P, nel suolo piuttosto che a sostanziali variazioni genotipiche tra popolazioni. Anche per questi siti è stato costruito un gradiente sulla base dei quattro caratteri funzionali analizzati. La disposizione dei siti lungo il gradiente ha evidenziato tre gruppi distinti: i siti più giovani, Park Wood 2001 e Manor Farm Coltivato, nettamente separati da Butterfly Bank 1970, e seguiti infine da Small Dean MaiColtivato e Bradenham Road MaiColtivato. L’applicazione di un indice così proposto potrebbe rivelarsi un utile strumento per descrivere ed indagare lo stato della prateria e dei processi evolutivi in atto, al fine di meglio comprendere e dominare tali dinamiche per proporre sistemi di gestione che ne consentano la conservazione anche in assenza delle tradizionali cure colturali.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questa tesi ha come oggetto la riqualificazione energetica e funzionale della scuola media statale “P. Amaducci” di Bertinoro e la realizzazione, all’interno della stessa area, di una scuola elementare che condivida, con la struttura esistente, spazi per attività parascolastiche e sportive. Il lotto di intervento è situato ai margini del centro urbano, circondato da un’area identificata dalla pubblica amministrazione come di possibile espansione residenziale; esso presenta diverse criticità, tra cui la poca sicurezza dei percorsi pedonali, la frammentarietà del sistema degli spazi aperti, la mancanza di adeguate aree di sosta e di parcheggio. Grazie alla sua posizione elevata e alla collocazione all’interno di un ambito di interesse paesaggistico, dall’area si gode di un’ampia visuale sul territorio circostante, caratterizzato dalla coltivazione della vite. L’attuale scuola media statale “P. Amaducci”, realizzata nel 1990, è un edificio di circa 17800 mc con disposizione planimetrica a corte aperta, sviluppato su tre piani, ad est del quale nel 2000 è stato collocato un edificio a blocco di 12000 mc, che ospita un palazzetto dello sport di rilevanza provinciale. Nonostante la sua recente costruzione, la struttura presenta diverse carenze progettali, tra cui lo sfavorevole orientamento delle aule per la didattica, che determina un elevato livello di discomfort, la scarsa prestazione energetica che colloca l’edificio in classe energetica E, e il generale sovradimensionamento del complesso e dei singoli spazi interni (circa 180% di spazio in più rispetto a quanto previsto dal D.M.del 1975 sull’edilizia scolastica. La scuola era originariamente progettata per ospitare tre sezioni, per un totale di 225 alunni; attualmente è frequentata da solo 132 studenti, con conseguente mancata utilizzazione di una parte consistente dell’edificio. Gli obiettivi dell’intervento sono quelli fissati dall’Amministrazione comunale e consistono essenzialmente in: - Riunificazione della scuola media con la scuola elementare in un unico polo scolastico, mettendo in comune una serie di ambienti quali l'auditorium, la mensa, le aule speciali, l’adiacente palazzetto dello sport. - Realizzazione di un ampliamento per la nuova scuola elementare, con capacità di 10 aule. Esso andrebbe realizzato a monte dell'attuale scuola media favorendo un ingresso separato dei due ordini di scuola. - Revisione di alcune soluzioni progettuali ed energetiche errate o non funzionali presenti nell'attuale struttura. A seguito di alcune analisi effettuate sulla popolazione di Bertinoro e sull’accesso ai plessi scolastici dalle frazioni vicine (Fratta Terme, Capocolle, Panighina) è emersa la scarsa dinamica demografica del comune, la quale ha suggerito di prevedere la riduzione degli spazi destinati alla scuola media e l’utilizzo dei locali eccedenti per ospitare aule per la didattica ad uso della nuova scuola elementare, prevedendo inoltre l’uso congiunto degli spazi per attività parascolastiche tra le due scuole (mensa, biblioteca, auditorium e palestra) e progettando un ampliamento per ospitare le altre attività necessarie al funzionamento della nuova scuola elementare. Il progetto ha assunto la sostenibilità e il minimo impatto sull’ambiente come principi generatori gli elementi del contesto naturale come risorse: mantiene l’edificio adagiato sul declivio del terreno e valorizza la vista verso la vallata circostante, in modo da aprirlo sul paesaggio. Per limitare una delle criticità funzionali rilevate, il progetto si è proposto di separare i percorsi pedonali da quelli carrabili inserendo zone filtro con la funzione di proteggere l’accesso al polo scolastico e al palazzetto dello sport e, al fine di evitare la promiscuità delle utenze, di differenziare altimetricamente gli ingressi dei diversi edifici e di prevedere due parcheggi, uno a monte dell’area (di pertinenza della nuova scuola primaria), e uno a valle (ad uso degli utenti della scuola secondaria di primo grado e della palestra). Nella nuova configurazione spaziale dell’edificio esistente, le aule per la didattica sono collocate sul fronte principale orientato a sud-est e dotate di ampie aperture provviste di schermature studiate sulla radiazione solare locale. Per raggiungere un ottimo livello di illuminamento si è “scavato” un canale di luce all’interno dell’edificio, che fornisce alle aule un apporto di luce naturale aggiuntivo rispetto a quello che entra dalle facciate. Sul fronte nord-ovest si localizzano invece le aule speciali e i servizi, affacciati sulla corte. L’ingresso e il vano scala esistenti, in rapporto al volume ridimensionato della scuola media, risultano così in posizione baricentrica. La tesi presenta due diverse ipotesi di ampliamento, che prevedono entrambe la collocazione dei nuovi volumi a monte dell’edificio esistente, connessi ad esso tramite lo spazio dell’ingresso e la localizzazione di quattro aule per la didattica in una parte dell’edificio esistente. Il primo progetto di ampliamento si propone di ridefinire e valorizzare la corte interna attraverso l’inserimento a monte dell’edificio esistente di un volume su un solo piano, che si va ad inserire nel profilo della collina, secondo il principio del minimo impatto sul paesaggio circostante. Il secondo progetto di ampliamento punta invece sulla continuità visiva tra gli spazi aperti e il paesaggio: per questo si è collocato il nuovo volume, che si sviluppa su due piani (nella ricerca di un ottimale rapporto di forma) in adiacenza all’edificio esistente,dando luogo ad un ampio spazio verde su cui si affacciano le aule esposte a sud-est.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il miglioramento dell’ambiente urbano e, in particolare, della qualità di vita dei cittadini, così come lo scriteriato consumo di territorio in favore della barbara cementificazione delle aree non edificate, sono diventate questioni di particolare rilievo nello scenario globale finalizzato al raggiungimento di un nuovo modello di sviluppo delle città. Gli abitanti dei centri urbani, oggi, sono costretti ad affrontare il sovraffollamento e i problemi ad esso connessi: il traffico, la congestione, l’inquinamento e gli effetti che questi fattori generano alla società. L’area oggetto di questa tesi, luogo a forte vocazione turistica, presenta questo tipo di problematiche soprattutto in corrispondenza della stagione estiva mentre, per il resto dell’anno, si trova ad affrontare il problema opposto di riduzione delle attività e dello spopolamento causate dalla stagionalità. L’espansione edilizia, avvenuta con estrema rapidità e durante un periodo caratterizzato da un forte sviluppo economico , non ha seguito gli indirizzi di un Piano che avrebbe se non altro evitato sprechi di territorio e una struttura così caotica. Tradizionalmente l’idea di densità è sempre stata considerata in maniera negativa rispetto alla questione urbana, in quanto simbolo di un uso intensivo e indiscriminato del territorio e causa della scarsa qualità di vita che caratterizza molte città. In realtà il concetto di densità può assumere un significato diverso: legato all’efficienza, alla qualità e alla sostenibilità. Densificare, infatti, secondo opportune linee guida e in relazione agli standard di qualità, significa sfruttare al meglio le risorse esistenti all’interno delle città, utilizzando il territorio senza sprechi e ricucendo le fratture in grado di generare situazioni di degrado ambientale. Un complesso e minuzioso processo di “densificazione” è in grado di apportare molti benefici al cittadino e alla comunità, come la trasformazione degli spazi inutilizzati o dismessi, la riduzione delle distanze e della mobilità veicolare, la limitazione dell’impatto energetico sull’ambiente e, non ultima, la promozione di una nuova immagine urbana connessa a nuove funzionalità e strutture. Densificare è però condizione necessaria ma non sufficiente per il miglioramento dell’ambiente urbano, infatti il termine “densità” non specifica nulla sul risultato qualitativo e quantitativo che si intende ottenere. “Creazione di un ambiente più propizio alla vita ed intenzionalità estetica sono i caratteri stabili dell’architettura; questi aspetti emergono da ogni ricerca positiva ed illuminano la città come creazione umana” . È in questo senso che deve essere letta la “densificazione” proposta da questa tesi per la riqualificazione di Misano Adriatico. Occorrerà riqualificare soprattutto quelle aree marginali del tutto prive dei requisiti urbani al fine di integrarle maggiormente al resto della città. A essa dovrà essere collegata una nuova visione di quelle che saranno le infrastrutture legate alla mobilità ed i servizi necessari alla vita della comunità. Essi non dovranno più essere visti come elementi di semplice collegamento o episodi isolati distribuiti a caso nel territorio, ma dovranno recuperare quell’importanza strategica che li portavano ad essere l’elemento catalizzatore e la struttura portante dell’espansione urbana. La riqualificazione della città sviluppata in questa tesi segue “la strategia dei luoghi complementari” teorizzata da O.M. Ungers secondo cui: “la città dei -luoghi complementari- è composta dal numero più grande possibile di aree diverse, nelle quali viene sviluppato un aspetto urbano particolare tenendo conto del tutto. In un certo senso è un sistema della -città nella città-. Ogni parte ha le sue proprie caratteristiche, senza però essere perfezionata e conclusa. […] Si cerca la molteplicità, la diversità, non l’unitarietà. La contraddizione, la conflittualità sono parte del sistema e rimangono insolute” . Il fine ultimo di questa tesi è quindi quello di proporre un’idea di città del nostro tempo, un prodotto complesso, non identificabile con un unico luogo ma con un insieme di luoghi che si sovrappongono e si integrano in maniera complementare mantenendo le peculiarità intrinseche del territorio a cui appartengono.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La risposta emodinamica all'esercizio dinamico è stata oggetto di numerosi studi scientifici. Poca attenzione è stata invece rivolta agli aggiustamenti cardiovascolari che si verificano quando si interrompe uno sforzo dinamico. Al cessare dell' esercizio, la frequenza cardiaca e la contrattilità miocardica subiscono un decremento repentino e vengono rilasciati in quantità i prodotti finali del metabolismo muscolare, come lattato, ioni idrogeno, adenosina, sostanze in grado di indurre vasodilatazione nei gruppi muscolari precedentemente attivati determinando una riduzione del precarico, post-carico cardiaco, contrattilità miocardica e una dilatazione delle arteriole periferiche, così da mantenere le resistenze vascolari periferiche a un basso livello. Inoltre, si verificano alterazioni della concentrazione ematica di elettroliti, diminuzione delle catecolamine circolanti e si verifica un ipertono vagale : tutti questi fenomeni possono avere un effetto significativo sullo stato emodinamico. In questo studio si voleva valutare in che misura l’eventuale effetto ipotensivo dovuto all’esercizio fosse legato all’intensità del carico lavorativo applicato ed alla sua durata. Il campione esaminato comprendeva 20 soggetti maschi attivi. I soggetti venivano sottoposti a quattro test in giornate diverse. La prova da sforzo preliminare consisteva in una prova da sforzo triangolare massimale eseguita al cicloergometro con un protocollo incrementale di 30 Watt al minuto. Il test si articolava in una prima fase della durata di 3 minuti nei quali venivano registrati i dati basali, in una seconda fase della durata di tre minuti in cui il soggetto compiva un riscaldamento al cicloergometro, che precedeva l’inizio dello sforzo, ad un carico di 20 W. Al termine della prova venivano calcolati il massimo carico lavorativo raggiunto (Wmax) ed il valore di soglia anaerobica (SA). Dopo la prova da sforzo preliminare il soggetto effettuava 3 esercizi rettangolari di diversa intensità in maniera randomizzata così strutturati: test 70% SA; test 130% SA, 130% Wmax : prove da sforzo rettangolari ad un carico lavorativo pari alla percentuale indicatain relazione ai valori di SA e Wmax ottenuti nella prova da sforzo preliminare. Tali test duravano dieci minuti o fino all'esaurimento del soggetto. Le prova erano precedute da tre minuti di riposo e da tre minuti di riscaldamento. Il recupero aveva una durata di 30 minuti. La PA veniva misurata ogni 5 minuti durante lo sforzo, ogni minuto nei primi 5 minuti di recupero e successivamente ogni 5 minuti fino alla conclusione del recupero. Dai risultati emerge come l'effetto ipotensivo sia stato più marcato nel recupero dall'intensità di carico lavorativo meno elevata, cioè dopo il test 70%SA. C'è da considerare che la più bassa intensità di sforzo permetteva di praticare un esercizio significativamente più lungo rispetto ai test 130%SA e 130%Wmax. È quindi verosimile che anche la durata dell'esercizio e non solo la sua intensità abbia avuto un ruolo fondamentale nel determinare l'ipotensione nel recupero evidenziata in questo studio. L’effetto ipotensivo più evidente si è manifestato nelle prove a più bassa intensità ma con carico lavorativo totale più elevato. I dati supportano la tendenza a considerare non tanto l’intensità e la durata dell’esercizio in modo isolato, quanto piuttosto il carico lavorativo totale (intensità x durata). L'effetto ipotensivo registrato nello studio è da ascriversi soprattutto ad una persistente vasodilatazione susseguente allo sforzo. Infatti, nel recupero dal test 70%SA, le RVP si mantenevano basse rispetto ai valori di riposo. Tale dato potrebbe avere un grande valore clinico nella prescrizione dell'attività fisica più idonea nei soggetti ipertesi,che potrebbero beneficiare di un eventuale effetto ipotensivo successivo all'attività praticata. Pertanto in futuro bisognerà estendere lo studio ai soggetti ipertesi. La conferma di tale risultato in questi soggetti permetterebbe di scegliere correttamente l'intensità e la durata del carico lavorativo, in modo da calibrare lo sforzo al grado di patologia del soggetto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente studio, per ciò che concerne la prima parte della ricerca, si propone di fornire un’analisi che ripercorra il pensiero teorico e la pratica critica di Louis Marin, mettendone in rilievo i caratteri salienti affinché si possa verificare se, nella loro eterogenea interdisciplinarità, non emerga un profilo unitario che consenta di ricomprenderli in un qualche paradigma estetico moderno e/o contemporaneo. Va innanzitutto rilevato che la formazione intellettuale di Marin è avvenuta nell’alveo di quel montante e pervasivo interesse che lo strutturalismo di stampo linguistico seppe suscitare nelle scienze sociali degli anni sessanta. Si è cercato, allora, prima di misurare la distanza che separa l’approccio di Marin ai testi da quello praticato dalla semiotica greimasiana, impostasi in Francia come modello dominante di quella svolta semiotica che ha interessato in quegli anni diverse discipline: dagli studi estetici all’antropologia, dalla psicanalisi alla filosofia. Si è proceduto, quindi, ad un confronto tra l’apparato concettuale elaborato dalla semiotica e alcune celebri analisi del nostro autore – tratte soprattutto da Opacité de la peinture e De la représentation. Seppure Marin non abbia mai articolato sistematicametne i principi teorici che esplicitassero la sua decisa contrapposizione al potente modello greimasiano, tuttavia le reiterate riflessioni intorno ai presupposti epistemologici del proprio modo di interpretare i testi – nonché le analisi di opere pittoriche, narrative e teoriche che ci ha lasciato in centinaia di studi – permettono di definirne una concezione estetica nettamente distinta dalla pratica semio-semantica della scuola di A. J. Greimas. Da questo confronto risulterà, piuttosto, che è il pensiero di un linguista sui generis come E. Benveniste ad avere fecondato le riflessioni di Marin il quale, d’altra parte, ha saputo rielaborare originalmente i contributi fondamentali che Benveniste diede alla costruzione della teoria dell’enunciazione linguistica. Impostando l’equazione: enunciazione linguistica=rappresentazione visiva (in senso lato), Marin diviene l’inventore del dispositivo concettuale e operativo che consentirà di analizzare l’enunciazione visiva: la superficie di rappresentazione, la cornice, lo sguardo, l’iscrizione, il gesto, lo specchio, lo schema prospettico, il trompe-l’oeil, sono solo alcune delle figure in cui Marin vede tradotto – ma in realtà immagina ex novo – quei dispositivi enunciazionali che il linguista aveva individuato alla base della parole come messa in funzione della langue. Marin ha saputo così interpretare, in modo convincente, le opere e i testi della cultura francese del XVII secolo alla quale sono dedicati buona parte dei suoi studi: dai pittori del classicismo (Poussin, Le Brun, de Champaigne, ecc.) agli eruditi della cerchia di Luigi XIV, dai filosofi (soprattutto Pascal), grammatici e logici di Port-Royal alle favole di La Fontaine e Perrault. Ma, come si evince soprattutto da testi come Opacité de la peinture, Marin risulterà anche un grande interprete del rinascimento italiano. In secondo luogo si è cercato di interpretare Le portrait du Roi, il testo forse più celebre dell’autore, sulla scorta dell’ontologia dell’immagine che Gadamer elabora nel suo Verità e metodo, non certo per praticare una riduzione acritica di due concezioni che partono da presupposti divergenti – lo strutturalismo e la critica d’arte da una parte, l’ermeneutica filosofica dall’altra – ma per rilevare che entrambi ricorrono al concetto di rappresentazione intendendolo non tanto come mimesis ma soprattutto, per usare il termine di Gadamer, come repraesentatio. Sia Gadamer che Marin concepiscono la rappresentazione non solo come sostituzione mimetica del rappresentato – cioè nella direzione univoca che dal rappresentato conduce all’immagine – ma anche come originaria duplicazione di esso, la quale conferisce al rappresentato la sua legittimazione, la sua ragione o il suo incremento d’essere. Nella rappresentazione in quanto capace di legittimare il rappresentato – di cui pure è la raffigurazione – abbiamo così rintracciato la cifra comune tra l’estetica di Marin e l’ontologia dell’immagine di Gadamer. Infine, ci è sembrato di poter ricondurre la teoria della rappresentazione di Marin all’interno del paradigma estetico elaborato da Kant nella sua terza Critica. Sebbene manchino in Marin espliciti riferimenti in tal senso, la sua teoria della rappresentazione – in quanto dire che mostra se stesso nel momento in cui dice qualcos’altro – può essere intesa come una riflessione estetica che trova nel sensibile la sua condizione trascendentale di significazione. In particolare, le riflessioni kantiane sul sentimento di sublime – a cui abbiamo dedicato una lunga disamina – ci sono sembrate chiarificatrici della dinamica a cui è sottoposta la relazione tra rappresentazione e rappresentato nella concezione di Marin. L’assolutamente grande e potente come tratti distintivi del sublime discusso da Kant, sono stati da noi considerati solo nella misura in cui ci permettevano di fare emergere la rappresentazione della grandezza e del potere assoluto del monarca (Luigi XIV) come potere conferitogli da una rappresentazione estetico-politica costruita ad arte. Ma sono piuttosto le facoltà in gioco nella nostra più comune esperienza delle grandezze, e che il sublime matematico mette esemplarmente in mostra – la valutazione estetica e l’immaginazione – ad averci fornito la chiave interpretativa per comprendere ciò che Marin ripete in più luoghi citando Pascal: una città, da lontano, è una città ma appena mi avvicino sono case, alberi, erba, insetti, ecc… Così abbiamo applicato i concetti emersi nella discussione sul sublime al rapporto tra la rappresentazione e il visibile rappresentato: rapporto che non smette, per Marin, di riconfigurarsi sempre di nuovo. Nella seconda parte della tesi, quella dedicata all’opera di Bernard Stiegler, il problema della comprensione delle immagini è stato affrontato solo dopo aver posto e discusso la tesi che la tecnica, lungi dall’essere un portato accidentale e sussidiario dell’uomo – solitamente supposto anche da chi ne riconosce la pervasività e ne coglie il cogente condizionamento – deve invece essere compresa proprio come la condizione costitutiva della sua stessa umanità. Tesi che, forse, poteva essere tematizzata in tutta la sua portata solo da un pensatore testimone delle invenzioni tecnico-tecnologiche del nostro tempo e del conseguente e radicale disorientamento a cui esse ci costringono. Per chiarire la propria concezione della tecnica, nel I volume di La technique et le temps – opera alla quale, soprattutto, sarà dedicato il nostro studio – Stiegler decide di riprendere il problema da dove lo aveva lasciato Heidegger con La questione della tecnica: se volgiamo coglierne l’essenza non è più possibile pensarla come un insieme di mezzi prodotti dalla creatività umana secondo un certi fini, cioè strumentalmente, ma come un modo di dis-velamento della verità dell’essere. Posto così il problema, e dopo aver mostrato come i sistemi tecnici tendano ad evolversi in base a tendenze loro proprie che in buona parte prescindono dall’inventività umana (qui il riferimento è ad autori come F. Gille e G. Simondon), Stiegler si impegna a riprendere e discutere i contributi di A. Leroi-Gourhan. È noto come per il paletnologo l’uomo sia cominciato dai piedi, cioè dall’assunzione della posizione eretta, la quale gli avrebbe permesso di liberare le mani prima destinate alla deambulazione e di sviluppare anatomicamente la faccia e la volta cranica quali ondizioni per l’insorgenza di quelle capacità tecniche e linguistiche che lo contraddistinguono. Dei risultati conseguiti da Leroi-Gourhan e consegnati soprattutto in Le geste et la parole, Stiegler accoglie soprattutto l’idea che l’uomo si vada definendo attraverso un processo – ancora in atto – che inizia col primo gesto di esteriorizzazione dell’esperienza umana nell’oggetto tecnico. Col che è già posta, per Stiegler, anche la prima forma di simbolizzazione e di rapporto al tempo che lo caratterizzano ancora oggi. Esteriorità e interiorità dell’uomo sono, per Stiegler, transduttive, cioè si originano ed evolvono insieme. Riprendendo, in seguito, l’anti-antropologia filosofica sviluppata da Heidegger nell’analitica esistenziale di Essere e tempo, Stiegler dimostra che, se si vuole cogliere l’effettività della condizione dell’esistenza umana, è necessaria un’analisi degli oggetti tecnici che però Heidegger relega nella sfera dell’intramondano e dunque esclude dalla temporalità autentica dell’esser-ci. Se è vero che l’uomo – o il chi, come lo chiama Stiegler per distinguerlo dal che-cosa tecnico – trova nell’essere-nel-mondo la sua prima e più fattiva possibilità d’essere, è altrettanto verò che questo mondo ereditato da altri è già strutturato tecnicamente, è già saturo della temporalità depositata nelle protesi tecniche nelle quali l’uomo si esteriorizza, e nelle quali soltanto, quindi, può trovare quelle possibilità im-proprie e condivise (perché tramandate e impersonali) a partire dalle quali poter progettare la propria individuazione nel tempo. Nel percorso di lettura che abbiamo seguito per il II e III volume de La technique et le temps, l’autore è impegnato innanzitutto in una polemica serrata con le analisi fenomenologiche che Husserl sviluppa intorno alla coscienza interna del tempo. Questa fenomenologia del tempo, prendendo ad esame un oggetto temporale – ad esempio una melodia – giunge ad opporre ricordo primario (ritenzione) e ricordo secondario (rimemorazione) sulla base dell’apporto percettivo e immaginativo della coscienza nella costituzione del fenomeno temporale. In questo modo Husserl si preclude la possibilità di cogliere il contributo che l’oggetto tecnico – ad esempio la registrazione analogica di una melodia – dà alla costituzione del flusso temporale. Anzi, Husserl esclude esplicitamente che una qualsiasi coscienza d’immagine – termine al quale Stiegler fa corrispondere quello di ricordo terziario: un testo scritto, una registrazione, un’immagine, un’opera, un qualsiasi supporto memonico trascendente la coscienza – possa rientrare nella dimensione origianaria e costitutiva di tempo. In essa può trovar posto solo la coscienza con i suo vissuti temporali percepiti, ritenuti o ricordati (rimemorati). Dopo un’attenta rilettura del testo husserliano, abbiamo seguito Stiegler passo a passo nel percorso di legittimazione dell’oggetto tecnico quale condizione costitutiva dell’esperienza temporale, mostrando come le tecniche di registrazione analogica di un oggetto temporale modifichino, in tutta evidenza, il flusso ritentivo della coscienza – che Husserl aveva supposto automatico e necessitante – e con ciò regolino, conseguente, la reciproca permeabilità tra ricordo primario e secondario. L’interpretazione tecnica di alcuni oggetti temporali – una foto, la sequenza di un film – e delle possibilità dispiegate da alcuni dispositivi tecnologici – la programmazione e la diffusione audiovisiva in diretta, l’immagine analogico-digitale – concludono questo lavoro richiamando l’attenzione sia sull’evidenza prodotta da tali esperienze – evidenza tutta tecnica e trascendente la coscienza – sia sul sapere tecnico dell’uomo quale condizione – trascendentale e fattuale al tempo stesso – per la comprensione delle immagini e di ogni oggetto temporale in generale. Prendendo dunque le mosse da una riflessione, quella di Marin, che si muove all’interno di una sostanziale antropologia filosofica preoccupata di reperire, nell’uomo, le condizioni di possibilità per la comprensione delle immagini come rappresentazioni – condizione che verrà reperità nella sensibilità o nell’aisthesis dello spettatore – il presente lavoro passerà, dunque, a considerare la riflessione tecno-logica di Stiegler trovando nelle immagini in quanto oggetti tecnici esterni all’uomo – cioè nelle protesi della sua sensibilità – le condizioni di possibilità per la comprensione del suo rapporto al tempo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Benessere delle popolazioni, gestione sostenibile delle risorse, povertà e degrado ambientale sono dei concetti fortemente connessi in un mondo in cui il 20% della popolazione mondiale consuma più del 75% delle risorse naturali. Sin dal 1992 al Summit della Terra a Rio de Janeiro si è affermato il forte legame tra tutela dell’ambiente e riduzione della povertà, ed è anche stata riconosciuta l’importanza di un ecosistema sano per condurre una vita dignitosa, specialmente nelle zone rurali povere dell’Africa, dell’Asia e dell’America Latina. La natura infatti, soprattutto per le popolazioni rurali, rappresenta un bene quotidiano e prezioso, una forma essenziale per la sussistenza ed una fonte primaria di reddito. Accanto a questa constatazione vi è anche la consapevolezza che negli ultimi decenni gli ecosistemi naturali si stanno degradando ad un ritmo impressionate, senza precedenti nella storia della specie umana: consumiamo le risorse più velocemente di quanto la Terra sia capace di rigenerarle e di “metabolizzare” i nostri scarti. Allo stesso modo aumenta la povertà: attualmente ci sono 1,2 miliardi di persone che vivono con meno di un dollaro al giorno, mentre circa metà della popolazione mondiale sopravvive con meno di due dollari al giorno (UN). La connessione tra povertà ed ambiente non dipende solamente dalla scarsità di risorse che rende più difficili le condizioni di vita, ma anche dalla gestione delle stesse risorse naturali. Infatti in molti paesi o luoghi dove le risorse non sono carenti la popolazione più povera non vi ha accesso per motivi politici, economici e sociali. Inoltre se si paragona l’impronta ecologica con una misura riconosciuta dello “sviluppo umano”, l’Indice dello Sviluppo Umano (HDI) delle Nazioni Unite (Cfr. Cap 2), il rapporto dimostra chiaramente che ciò che noi accettiamo generalmente come “alto sviluppo” è molto lontano dal concetto di sviluppo sostenibile accettato universalmente, in quanto i paesi cosiddetti “sviluppati” sono quelli con una maggior impronta ecologica. Se allora lo “sviluppo” mette sotto pressione gli ecosistemi, dal cui benessere dipende direttamente il benessere dell’uomo, allora vuol dire che il concetto di “sviluppo” deve essere rivisitato, perché ha come conseguenza non il benessere del pianeta e delle popolazioni, ma il degrado ambientale e l’accrescimento delle disuguaglianze sociali. Quindi da una parte vi è la “società occidentale”, che promuove l’avanzamento della tecnologia e dell’industrializzazione per la crescita economica, spremendo un ecosistema sempre più stanco ed esausto al fine di ottenere dei benefici solo per una ristretta fetta della popolazione mondiale che segue un modello di vita consumistico degradando l’ambiente e sommergendolo di rifiuti; dall’altra parte ci sono le famiglie di contadini rurali, i “moradores” delle favelas o delle periferie delle grandi metropoli del Sud del Mondo, i senza terra, gli immigrati delle baraccopoli, i “waste pickers” delle periferie di Bombay che sopravvivono raccattando rifiuti, i profughi di guerre fatte per il controllo delle risorse, gli sfollati ambientali, gli eco-rifugiati, che vivono sotto la soglia di povertà, senza accesso alle risorse primarie per la sopravvivenza. La gestione sostenibile dell’ambiente, il produrre reddito dalla valorizzazione diretta dell’ecosistema e l’accesso alle risorse naturali sono tra gli strumenti più efficaci per migliorare le condizioni di vita degli individui, strumenti che possono anche garantire la distribuzione della ricchezza costruendo una società più equa, in quanto le merci ed i servizi dell’ecosistema fungono da beni per le comunità. La corretta gestione dell’ambiente e delle risorse quindi è di estrema importanza per la lotta alla povertà ed in questo caso il ruolo e la responsabilità dei tecnici ambientali è cruciale. Il lavoro di ricerca qui presentato, partendo dall’analisi del problema della gestione delle risorse naturali e dal suo stretto legame con la povertà, rivisitando il concetto tradizionale di “sviluppo” secondo i nuovi filoni di pensiero, vuole suggerire soluzioni e tecnologie per la gestione sostenibile delle risorse naturali che abbiano come obiettivo il benessere delle popolazioni più povere e degli ecosistemi, proponendo inoltre un metodo valutativo per la scelta delle alternative, soluzioni o tecnologie più adeguate al contesto di intervento. Dopo l’analisi dello “stato del Pianeta” (Capitolo 1) e delle risorse, sia a livello globale che a livello regionale, il secondo Capitolo prende in esame il concetto di povertà, di Paese in Via di Sviluppo (PVS), il concetto di “sviluppo sostenibile” e i nuovi filoni di pensiero: dalla teoria della Decrescita, al concetto di Sviluppo Umano. Dalla presa di coscienza dei reali fabbisogni umani, dall’analisi dello stato dell’ambiente, della povertà e delle sue diverse facce nei vari paesi, e dalla presa di coscienza del fallimento dell’economia della crescita (oggi visibile più che mai) si può comprendere che la soluzione per sconfiggere la povertà, il degrado dell’ambiente, e raggiungere lo sviluppo umano, non è il consumismo, la produzione, e nemmeno il trasferimento della tecnologia e l’industrializzazione; ma il “piccolo e bello” (F. Schumacher, 1982), ovvero gli stili di vita semplici, la tutela degli ecosistemi, e a livello tecnologico le “tecnologie appropriate”. Ed è proprio alle Tecnologie Appropriate a cui sono dedicati i Capitoli successivi (Capitolo 4 e Capitolo 5). Queste sono tecnologie semplici, a basso impatto ambientale, a basso costo, facilmente gestibili dalle comunità, tecnologie che permettono alle popolazioni più povere di avere accesso alle risorse naturali. Sono le tecnologie che meglio permettono, grazie alle loro caratteristiche, la tutela dei beni comuni naturali, quindi delle risorse e dell’ambiente, favorendo ed incentivando la partecipazione delle comunità locali e valorizzando i saperi tradizionali, grazie al coinvolgimento di tutti gli attori, al basso costo, alla sostenibilità ambientale, contribuendo all’affermazione dei diritti umani e alla salvaguardia dell’ambiente. Le Tecnologie Appropriate prese in esame sono quelle relative all’approvvigionamento idrico e alla depurazione dell’acqua tra cui: - la raccolta della nebbia, - metodi semplici per la perforazione di pozzi, - pompe a pedali e pompe manuali per l’approvvigionamento idrico, - la raccolta dell’acqua piovana, - il recupero delle sorgenti, - semplici metodi per la depurazione dell’acqua al punto d’uso (filtro in ceramica, filtro a sabbia, filtro in tessuto, disinfezione e distillazione solare). Il quinto Capitolo espone invece le Tecnolocie Appropriate per la gestione dei rifiuti nei PVS, in cui sono descritte: - soluzioni per la raccolta dei rifiuti nei PVS, - soluzioni per lo smaltimento dei rifiuti nei PVS, - semplici tecnologie per il riciclaggio dei rifiuti solidi. Il sesto Capitolo tratta tematiche riguardanti la Cooperazione Internazionale, la Cooperazione Decentrata e i progetti di Sviluppo Umano. Per progetti di sviluppo si intende, nell’ambito della Cooperazione, quei progetti che hanno come obiettivi la lotta alla povertà e il miglioramento delle condizioni di vita delle comunità beneficiarie dei PVS coinvolte nel progetto. All’interno dei progetti di cooperazione e di sviluppo umano gli interventi di tipo ambientale giocano un ruolo importante, visto che, come già detto, la povertà e il benessere delle popolazioni dipende dal benessere degli ecosistemi in cui vivono: favorire la tutela dell’ambiente, garantire l’accesso all’acqua potabile, la corretta gestione dei rifiuti e dei reflui nonché l’approvvigionamento energetico pulito sono aspetti necessari per permettere ad ogni individuo, soprattutto se vive in condizioni di “sviluppo”, di condurre una vita sana e produttiva. È importante quindi, negli interventi di sviluppo umano di carattere tecnico ed ambientale, scegliere soluzioni decentrate che prevedano l’adozione di Tecnologie Appropriate per contribuire a valorizzare l’ambiente e a tutelare la salute della comunità. I Capitoli 7 ed 8 prendono in esame i metodi per la valutazione degli interventi di sviluppo umano. Un altro aspetto fondamentale che rientra nel ruolo dei tecnici infatti è l’utilizzo di un corretto metodo valutativo per la scelta dei progetti possibili che tenga presente tutti gli aspetti, ovvero gli impatti sociali, ambientali, economici e che si cali bene alle realtà svantaggiate come quelle prese in considerazione in questo lavoro; un metodo cioè che consenta una valutazione specifica per i progetti di sviluppo umano e che possa permettere l’individuazione del progetto/intervento tecnologico e ambientale più appropriato ad ogni contesto specifico. Dall’analisi dei vari strumenti valutativi si è scelto di sviluppare un modello per la valutazione degli interventi di carattere ambientale nei progetti di Cooperazione Decentrata basato sull’Analisi Multi Criteria e sulla Analisi Gerarchica. L’oggetto di questa ricerca è stato quindi lo sviluppo di una metodologia, che tramite il supporto matematico e metodologico dell’Analisi Multi Criteria, permetta di valutare l’appropriatezza, la sostenibilità degli interventi di Sviluppo Umano di carattere ambientale, sviluppati all’interno di progetti di Cooperazione Internazionale e di Cooperazione Decentrata attraverso l’utilizzo di Tecnologie Appropriate. Nel Capitolo 9 viene proposta la metodologia, il modello di calcolo e i criteri su cui si basa la valutazione. I successivi capitoli (Capitolo 10 e Capitolo 11) sono invece dedicati alla sperimentazione della metodologia ai diversi casi studio: - “Progetto ambientale sulla gestione dei rifiuti presso i campi Profughi Saharawi”, Algeria, - “Programa 1 milhão de Cisternas, P1MC” e - “Programa Uma Terra e Duas Águas, P1+2”, Semi Arido brasiliano.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Alla luce della vasta letteratura storico-artistica sorta, negli ultimi anni, sul paesaggio dipinto, sulla sua storia e sui suoi protagonisti, sulla filiera delle influenze e sulle varie declinazioni stilistiche che lo caratterizzano, uno studio sulle Origini del genere all’alba della modernità può sembrare destinato, non tanto ad aggiungere nuove informazioni, quanto a sistematizzare quelle sinora emerse. Eppure, il problema del paesaggio come oggetto semiotico deve ancora essere chiarito. Gli storici dell’arte si sono sostanzialmente limitati a rimuovere la questione, dietro l’idea che i quadri della natura siano rappresentazioni votate alla massima trasparenza, dove ha luogo “una transizione diretta dai motivi al contenuto” (Panofsky 1939, p. 9). Questo studio recupera e fa riemergere la domanda sul senso della pittura di paesaggio. Il suo scopo è proporre un’analisi del paesaggio in quanto produzione discorsiva moderna. Tra XVI e XVII secolo, quando il genere nasce, questa produzione si manifesta in quattro diverse forme semiotiche: l’ornamento o paraergon (cap. II), la macchia cromatica (cap. III), l’assiologia orizzontale del dispositivo topologico (cap. IV) e il regime di visibilità del “vedere attraverso” (cap. V). La prima di queste forme appartiene alla continuità storica, e la sua analisi offre l’occasione di dimostrare che, anche in qualità di paraergon, il paesaggio non è mai l’abbellimento estetico di un contenuto invariante, ma interviene attivamente, e in vario modo, nella costruzione del senso dell’opera. Le altre forme marcano invece una forte discontinuità storica. In esse, il genere moderno si rivela un operatore di grandi trasformazioni, i cui significati emergono nell’opposizione con il paradigma artistico classico. Contro il predominio del disegno e della figuratività, proprio della tradizionale “concezione strumentale dell’arte” (Gombrich 1971), il paesaggio si attualizza come macchia cromatica, facendosi portavoce di un discorso moderno sul valore plastico della pittura. Contro la “tirannia del formato quadrangolare” (Burckhardt 1898), strumento della tradizionale concezione liturgica e celebrativa dell’arte, il paesaggio si distende su formati oblunghi orizzontali, articolando un discorso laico della pittura. Infine, attraverso la messa in cornice della visione, propria del regime di visibilità del “vedere attraverso” (Stoichita 1993), il paesaggio trasforma la contemplazione del mondo in contemplazione dell’immagine del mondo. Il dispositivo cognitivo che soggiace a questo tipo di messa in discorso fa del paesaggio il preludio (simbolico) alla nascita del sapere cartografico moderno, che farà della riduzione del mondo a sua immagine il fondamento del metodo di conoscenza scientifica della Terra.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il concetto fondante e le motivazioni alla base di questo lavoro di tesi sono costituiti dalla volontà di analizzare a fondo la problematica energetica ed ambientale, focalizzando l‟indagine sul ruolo delle Fonti Energetiche Rinnovabili e contestualizzandola nel contesto “locale” relativo alla Regione Emilia Romagna: questo lavoro di tesi, infatti, è stato sviluppato nell‟ambito di un progetto di collaborazione stipulato tra Università e Regione Emilia Romagna e si è svolto all‟interno dell‟Assessorato alle Attività Produttive della Regione, lavorando con il “Servizio Politiche Energetiche” emiliano-romagnolo. La crisi energetica (e, contestualmente, la crisi ambientale) rappresenta una problematica al centro del dibattito globale da oltre mezzo secolo, affrontata finora in maniera non organica e realmente efficace dalle nazioni e dagli organismi sovranazionali coinvolti in tale dibattito. Tale tematica è divenuta ancora più pregnante (e la ricerca di una “soluzione” al riguardo, ancora più pressante) negli ultimi anni, in seguito alla deflagrazione di una crisi globale –economica e sociale- che ha intaccato i modelli di crescita e sviluppo (anche tecnologico) conosciuti finora, ponendo di fronte agli occhi dell‟umanità la necessità impellente di ridefinire politiche economiche, ambientali e, conseguentemente, energetiche, caratterizzate da una maggiore sostenibilità globale. La continua crescita della popolazione e il progressivo incremento generalizzato (e disomogeneo) degli standard di vita alimentano con ritmi esponenziali la domanda –e la conseguente produzione- di energia, inevitabilmente correlata (proprio a causa dei modelli di sviluppo seguiti finora) ad un drammatico incremento delle emissioni climalteranti, che continuano a nuocere irreversibilmente alla salubrità del nostro fragile ecosistema. Oltre alla problematica ambientale si aggiunge, con impellenza sempre più marcata, quella relativa alla disponibilità delle principali fonti energetiche (quelle fossili), che si profilano in esaurimento entro lassi temporali che potrebbero divenire drammaticamente prossimi: il “rischio reale” connesso alla prosecuzione di politiche energetiche poggiate sullo sfruttamento intensivo di tali fonti non è tanto connesso all‟eventuale esaurimento assoluto delle risorse stesse, quanto ad una loro progressiva riduzione, tale da renderle viepiù costose e sempre meno convenienti economicamente. Uno scenario di questo tipo si tradurrebbe inevitabilmente in una condizione per la quale solamente i Paesi più ricchi potrebbero usufruire di tali risorse, estremamente costose, mentre i Paesi meno evoluti economicamente rischierebbero di trovarsi nell‟impossibilità di approvvigionarsi, andando incontro a condizioni di deficit energetico: uno scenario inquietante, che però non appare così “ipotetico”, se si tiene conto di come –già ora- siano in aumento segnali di allarme e di conflitto, attivati da localizzate insufficienze energetiche. In un quadro globale di questo tipo le strade risolutive finora riconosciute e percorse dal mondo scientifico, politico ed economico sono sostanzialmente due: - L‟implementazione del risparmio energetico, in un‟ottica di drastica riduzione dei consumi globali; - La “conversione” della produzione energetica (attualmente fondata sulle fonti convenzionali, ossia quelle fossili) verso le cosiddette “Fonti Energetiche Alternative”. Questa seconda direttrice di marcia sembra poter essere quella in grado di reindirizzare verso un orizzonte di maggiore sostenibilità l‟attuale sistema energetico globale, e in quest‟ottica assumono quindi enorme importanza strategica le tecnologie alternative e, prime tra tutte, le Fonti Energetiche Rinnovabili (FER). Queste consentirebbero infatti sia di ridurre l‟impatto ambientale connesso alla produzione energetica da fonti convenzionali, che di implementare politiche di autosufficienza energetica per quei Paesi che attualmente, dal punto di vista del bilancio energetico interno, dipendono in misura marcata dall‟importazione di combustibili fossili dall‟estero. La crisi energetica e il conseguente ruolo chiave delle Fonti Energetiche Rinnovabili è quindi il punto di partenza di questa tesi, che ha voluto confrontarsi con tale problematica globale, misurandosi con le azioni e con i provvedimenti intrapresi al riguardo a livello locale, focalizzando l‟attenzione sulla realtà e sugli sviluppi delle Fonti Energetiche Rinnovabili nella Regione Emilia Romagna. Per sviluppare il lavoro si è proceduto definendo prima di tutto un quadro complessivo della situazione, in termini di problematica energetica e di stato attuale delle Fonti Energetiche Rinnovabili, scendendo progressivamente nel dettaglio: partendo da una fotografia a livello mondiale, quindi europeo, successivamente italiano (basandosi sui dati di pubblicazioni italiane ed estere, di enti competenti in materia come Terna, il GSE o l‟Enea per l‟Italia, e l‟IEA, l‟EIA, l‟UE per l‟Europa e il resto del mondo). Nella terza parte della tesi si è scesi al dettaglio di questo stato attuale delle Fonti Energetiche Rinnovabili a livello Regionale (Emiliano-Romagnolo) e Provinciale (le nove Province della Regione): per procedere alla definizione di questo quadro la “tecnica operativa” è consistita in una raccolta dati effettuata in collaborazione con il ”Servizio Politiche Energetiche” della Regione Emilia Romagna, estesa alle 9 Province e ai 348 Comuni del territorio emiliano-romagnolo. La richiesta di dati avanzata è stata relativa agli impianti alimentati da fonte energetica rinnovabile in esercizio e a quelli in fase di valutazione sul territorio afferente all‟Ente considerato. Il passo successivo è consistito nell‟aggregazione di questi dati, nella loro analisi e nella definizione di un quadro organico e coerente, relativo allo stato attuale (Ottobre 2010) delle Fonti Energetiche Rinnovabili sul territorio emiliano-romagnolo, tale da permettere di realizzare un confronto con gli obiettivi definiti per le FER all‟interno dell‟ultimo Piano Energetico Regionale e con lo stato delle FER nelle altre Regioni italiane. Sono stati inoltre realizzati due “Scenari”, relativi all‟evoluzione stimata del parco “rinnovabile” emiliano-romagnolo, definiti al 2012 (“Breve Termine”) e al 2015 (“Medio Termine”). I risultati ottenuti hanno consentito di verificare come, nell‟orizzonte “locale” emiliano-romagnolo, il sistema globale connesso alle Fonti Energetiche Rinnovabili abbia attecchito e si sia sviluppato in misura marcata: gli obiettivi relativi alle FER definiti nel precedente Piano Energetico Regionale sono infatti stati sostanzialmente raggiunti in toto. Dalla definizione degli “Scenari” previsionali è stato possibile stimare l‟evoluzione futura del parco “rinnovabile” emilianoromagnolo, verificando come questo risulti essere in continua crescita e risulti “puntare” su due fonti rinnovabili in maniera particolare: la fonte fotovoltaica e la fonte a biocombustibili. Sempre dall‟analisi degli “Scenari” previsionali è stato possibile stimare l‟evoluzione delle singole tecnologie e dei singoli mercati rinnovabili, verificando limiti allo sviluppo (come nel caso della fonte idroelettrica) o potenziali “espansioni” molto rilevanti (come nel caso della fonte eolica). Il risultato finale di questo lavoro di tesi è consistito nel poter definire dei nuovi obiettivi, relativi alle differenti Fonti Energetiche, da potersi inserire all‟interno del prossimo Piano Energetico Regionale: l‟obiettivo “complessivo” individua –avendo il 2015 come orizzonte temporale- una crescita incrementale delle installazioni alimentate da FER pari a 310 MWe circa. Questo lavoro di tesi è stato ovviamente organizzato in più “Parti”, ciascuna ulteriormente suddivisa in “Capitoli”. Nella “Prima Parte”, costituita dai primi 4 Capitoli, si è proceduto ad introdurre la problematica energetica e il contesto in cui si muovono le decisioni e le politiche (comunitarie, nazionali e sovra-nazionali) destinate a trovare soluzioni e risposte: Il Primo Capitolo, introduttivo, definisce prima di tutto gli “strumenti” e i concetti che verranno successivamente richiamati più volte nel resto della Tesi, partendo dal concetto di “energia”, definito sia “concettualmente” che attraverso le unità di misura utilizzate per quantificarlo. Il passo successivo è stato quello di contestualizzare l‟evoluzione dello sfruttamento di questa “risorsa”, in relazione allo sviluppo delle tecnologie e delle stesse condizioni di vita umane, così da definire un background storico per le considerazioni introdotte nel Capitolo successivo. Il Secondo Capitolo, infatti, introduce la problematica attuale (ma mutuata dal background storico evidenziato in precedenza) della “crisi energetica” e della “crisi ambientale” ad essa correlata, considerandone gli aspetti prima di tutto globali, connessi a considerazioni di natura sociale, demografica e –conseguentemente economica e sociale: all‟interno di questa analisi, vengono citati anche gli scenari previsionali elaborati da numerosi enti di ricerca e istituzioni, coinvolti su più livelli nell‟ottica di riuscire ad individuare una “risposta” alle problematiche sollevate dallo sfruttamento intensivo della risorsa energetica per vie convenzionali. Tale risposta è rappresentata dalle normative sovranazionali, europee e italiane varate nell‟ottica di attuare una “transizione etica” in materia di sviluppo sostenibile, impatto ambientale e sfruttamento energetico: un presupposto imprescindibile per la transizione energetica sostenibile è proprio l‟impegno a livello locale (quindi anche e prima di tutto di istituzioni quali, in Italia, le Regioni, le Province e i Comuni), senza il quale difficilmente si potranno raggiungere traguardi avanzati, che implicano anche un sostanziale cambio di mentalità. Nell‟ottica di approfondire ulteriormente il contesto all‟interno del quale vengono adottate azioni e intrapresi provvedimenti utili a concretizzare risposte a livello italiano –nazionale e locale- il Terzo Capitolo introduce il tema delle “politiche energetiche sostenibili”, partendo dalla definizione dell‟attuale condizione Italiana (in termini di inquinamento atmosferico e di sfruttamento intensivo della risorsa energetica, nonché di scenari previsionali), per definire successivamente le politiche nazionali per le fonti rinnovabili, per il settore dei trasporti, del riscaldamento e del raffreddamento, della pianificazione energetica e della generazione distribuita. Il Capitolo introduce anche il tema degli interventi in ambito di fiscalità energetica (“Certificati Verdi”, “Certificati Bianchi” e il “Conto Energia”). Proprio per definire al meglio i meccanismi di incentivazione, il Quarto Capitolo esplicita (facendo riferimento alla documentazione pubblicata da enti quali GSE, Terna, GRTN) il meccanismo del cosiddetto “mercato elettrico” e degli scambi che vi avvengono, in modo tale da comprendere come i metodi di incentivazione alle fonti alternative che si appoggiano su interventi di fiscalità energetica, riescano ad avere –o meno- presa sul sistema. La “Seconda Parte” (costituita dai Capitoli dal 5° al 13°) è invece dedicata al necessario approfondimento sullo stato delle Fonti Energetiche Rinnovabili (FER): in ogni capitolo è stato infatti approfondita la condizione attuale delle principali FER (fonte a Biocombustibili, Eolica, Geotermica, Idraulica, Solare Fotovoltaica, Solare Termica, Solare Termodinamica). Tale approfondimento è stato condotto in termini di sviluppo della tecnologia, incidenza e contributo della singola FER sui bilanci elettrici (considerando prima il quadro mondiale, quindi quello europeo, per scendere infine al dettaglio italiano). Nella parte finale di ogni capitolo sono state riportate anche le principali criticità riscontrate per ogni fonte presa in considerazione, oltre che gli scenari previsionali stimati considerandone i potenziali sviluppi, in un‟ottica di medio termine e di lungo termine. La “Terza Parte” (comprendente i Capitoli dal 14° al 22°) di questa Tesi raccoglie invece il lavoro svolto e i risultati ottenuti e permette di definire lo stato attuale e gli scenari previsionali (a breve termine e a medio termine) per le Fonti Energetiche Rinnovabili nella Regione Emilia Romagna, con un livello di dettaglio sia Regionale che Provinciale. Il lavoro, come detto, è consistito nella raccolta dati effettuata presso gli enti di “governo territoriale” emiliano-romagnoli (la Regione, le 9 Province e i 348 Comuni) e nella successiva aggregazione, elaborazione e interpretazione di questi stessi dati. I Capitoli dal 15° al 19° definiscono lo stato attuale (all‟Ottobre 2010) e gli scenari previsionali (a breve termine e medio termine) per le differenti FER (rispettivamente, Biocombustibili, Eolica, Fotovoltaica, Geotermica e Idroelettrica), prima a livello Provinciale, quindi a livello Regionale. Nella conclusione di ogni Capitolo è contenuto un confronto con lo stato della FER presa in considerazione relativo agli anni precedenti, oltre che il confronto con gli obiettivi definiti per la tecnologia al 2010 dal precedente Piano Energetico Regionale. Questi Capitoli si chiudono con l‟analisi del trend storico della Fonte Energetica Rinnovabile considerata e con la conseguente individuazione dei potenziali obiettivi al 2012 e al 2015 da inserire nel prossimo Piano Energetico Regionale. E‟ presente anche l‟evoluzione stimata del “mercato” della singola FER presa in considerazione, oltre che della “tipologia tecnologica” sulla quale gli installatori e gli investitori tenderanno ad orientarsi sia nel breve che nel medio termine. I Capitoli 20°, 21° e 22° contengono invece lo stato “riassuntivo” delle Fonti Energetiche Rinnovabili, definite per il panorama emiliano-romagnolo (anche in questo caso, prima a livello Provinciale, successivamente a livello regionale) sotto un‟ottica temporale differente: il Capitolo 20° riassume lo stato attuale del parco “rinnovabile” complessivo emiliano-romagnolo, definendone l‟evoluzione storica e confrontandolo con gli obiettivi fissati al 2010 dal precedente Piano Energetico regionale, permettendo così di verificare –nel complesso- se le stime del 2004 erano state corrette. Il Capitolo 21° definisce l‟evoluzione del parco “rinnovabile” complessivo emiliano-romagnolo al 2012, sia a livello Provinciale che Regionale, definendone in questo modo un trend stimato di crescita e dei conseguenti obiettivi di breve termine, riferiti alle singole FER. Il Capitolo 22° definisce infine l‟evoluzione del parco “rinnovabile” complessivo emiliano-romagnolo al 2015 (ancora una volta, sia a livello Provinciale che Regionale) permettendo così di ricavare un trend stimato di crescita e, soprattutto, gli obiettivi di medio termine -riferiti alle singole FER- da inserire all‟interno del prossimo Piano Energetico Regionale. La conclusione permette di chiudere sinteticamente il lavoro svolto in precedenza, traendo le indicazioni più rilevanti dai dati e dalle considerazioni pregresse: come si evincerà, l‟Emilia Romagna risulta una Regione in cui gli obiettivi rinnovabili (e di “conversione energetica”) sono stati sostanzialmente raggiunti e, in alcuni casi, perfino superati. Il mercato rinnovabile è in crescita e le politiche locali e sovra locali evidenziano una marcata volontà di puntare prevalentemente su settori e tecnologie quali quella della biomassa e quella solare fotovoltaica. Nonostante questo, si evidenzia anche la necessità di lavorare a livello di enti regionali e provinciali, per omogeneizzare ulteriormente la distribuzione energetica “rinnovabile” sul territorio (implementando lo sviluppo di determinate fonti su distretti territoriali al momento non ancora raggiunti da tali mercati) e per provvedere ad una riduzione dei consumi energetici che consenta alle FER di avere una maggiore incidenza sui bilanci energetici ed elettrici, locali e regionali. Si ricorda che la “costruzione” di questa tesi è stata sviluppata parallelamente ad un‟attività di stage presso il settore Politiche energetiche dell‟Assessorato alle Attività Produttive della Regione Emilia – Romagna, che in questa fase sta procedendo alla definizione del nuovo Piano Energetico Regionale, e alla conseguente individuazione d

Relevância:

10.00% 10.00%

Publicador:

Resumo:

I policlorobifenili (PCB) sono inquinanti tossici e fortemente recalcitranti che contaminano suoli e sedimenti di acqua dolce e marini. Le tecnologie attualmente impiegate per la loro rimozione (dragaggio e trattamento chimoco-fisico o conferimento in discarica) sono molto costose, poco efficaci o ad alto impatto ambientale. L’individuazione di strategie alternative, di natura biologica, consentirebbe lo sviluppo di un processo alternativo più sostenibile. Nel processo di declorurazione riduttiva i congeneri di PCB a più alto grado di clorurazione, che sono i più tossici, recalcitranti e maggiormente tendenti al bioaccumulo, vengono utilizzati da alcuni microrganismi anaerobici come accettori finali di elettroni nella catena respiratoria e bioconvertiti in congeneri a minor grado di clorurazione, meno pericolosi, che possono essere mineralizzati da parte di batteri aerobi. La declorurazione riduttiva dei PCB è stata spesso studiata in colture anaerobiche di arricchimento in terreno minerale ottenute a partire da sedimenti di acqua dolce; questi studi hanno permesso di dimostrare che batteri del phylum dei Chloroflexi e appartenenti al genere Dehalococcoides o filogeneticamente facenti parte del gruppo dei Dehalococcoides-like sono i decloruranti. Sono tuttavia scarse le informazioni riguardanti l'occorrenza della declorurazione dei PCB in ambienti marini, nei quali l'alta salinità e concentrazione di solfati influenzano diversamente l'evoluzione delle popolazioni microbiche. In sedimenti contaminati della laguna di Venezia è stata osservata declorurazione sia dei PCB preesistenti che di congeneri esogeni; questi studi hanno permesso l'ottenimento di colture di arricchimento fortemente attive nei confronti di 5 congeneri di PCB coplanari. In questa tesi, a partire dalle colture capaci di declorurare i PCB coplanari, sono stati allestiti nuovi passaggi di arricchimento su Aroclor®1254, una miscela di PCB più complessa e che meglio rappresenta la contaminazione ambientale. Le colture sono state allestite come microcosmi anaerobici in fase slurry, preparati risospendendo il sedimento nell'acqua superficiale, ricreando in tal modo in laboratorio le stesse condizioni biogeochimiche presenti in situ; gli slurry sterili sono stati inoculati per avviare le colture. Per favorire la crescita dei microrganismi decloruranti e stimolare così la decloruraazione dei PCB sono stati aggiunti inibitori selettivi di metanogeni (Bromoetansulfonato o BES) e solfato-riduttori (molibdato), sono state fornite fonti di carbonio ed energia (eD), quali acidi grassi a corta catena e idrogeno, utilizzate di batteri decloruranti noti, e per semplificare la comunità microbica sono stati aggiunti antibiotici cui batteri decloruranti del genere Dehalococcoides sono resistenti. Con questo approccio sono stati allestiti passaggi di arricchimento successivi e le popolazioni microbiche delle colture sono state caratterizzate con analisi molecolari di fingerprinting (DGGE). Fin dal primo passaggio di arricchimento nei microcosmi non ammendati ha avuto luogo un'estesa declorurazione dell'Aroclor®1254; nei successivi passaggi si è notato un incremento della velocità del processo e la scomparsa della fase di latenza, mentre la stessa stereoselettività è stata mantenuta a riprova dell’arricchimento degli stessi microrganismi decloruranti. Le velocità di declorurazione ottenute sono molto alte se confrontate con quelle osservate in colture anaerobiche addizionate della stessa miscela descritte in letteratura. L'aggiunta di BES o molibdato ha bloccato la declorurazione dei PCB ma in presenza di BES è stata riscontrata attività dealogenante nei confronti di questa molecola. La supplementazione di fonti di energia e di carbonio ha stimolato la metanogenesi e i processi fermentativi ma non ha avuto effetti sulla declorurazione. Ampicillina e vancomicina hanno incrementato la velocità di declorurazione quando aggiunte singolarmente, insieme o in combinazione con eD. E' stato però anche dimostrato che la declorurazione dei PCB è indipendente sia dalla metanogenesi che dalla solfato-riduzione. Queste attività respiratorie hanno avuto velocità ed estensioni diverse in presenza della medesima attività declorurante; in particolare la metanogenesi è stata rilevata solo in dipendenza dall’aggiunta di eD alle colture e la solfato-riduzione è stata inibita dall’ampicillina in microcosmi nei quali un’estesa declorurazione dei PCB è stata osservata. La caratterizzazione delle popolazioni microbiche, condotte mediante analisi molecolari di fingerprinting (DGGE) hanno permesso di descrivere le popolazioni batteriche delle diverse colture come complesse comunità microbiche e di rilevare in tutte le colture decloruranti la presenza di una banda che l’analisi filogenetica ha ascritto al batterio m-1, un noto batterio declorurante in grado di dealogenare un congenere di PCB in colture di arricchimento ottenute da sedimenti marini appartenente al gruppo dei Dehalococcoides-like. Per verificare se la crescita di questo microrganismo sia legata alla presenza dei PCB, l'ultimo passaggio di arricchimento ha previsto l’allestimento di microcosmi addizionati di Aroclor®1254 e altri analoghi privi di PCB. Il batterio m-1 è stato rilevato in tutti i microcosmi addizionati di PCB ma non è mai stato rilevato in quelli in cui i PCB non erano presenti; la presenza di nessun altro batterio né alcun archebatterio è subordinata all’aggiunta dei PCB. E in questo modo stato dimostrato che la presenza di m-1 è dipendente dai PCB e si ritiene quindi che m-1 sia il declorurante in grado di crescere utilizzando i PCB come accettori di elettroni nella catena respiratoria anche in condizioni biogeochimiche tipiche degli habitat marini. In tutte le colture dell'ultimo passaggio di arricchimento è stata anche condotta una reazione di PCR mirata alla rilevazione di geni per dealogenasi riduttive, l’enzima chiave coinvolto nei processi di dealogenazione. E’ stato ottenuto un amplicone di lughezza analoga a quelle di tutte le dealogenasi note in tutte le colture decloruranti ma un tale amplificato non è mai stato ottenuto da colture non addizionate di PCB. La dealogenasi ha lo stesso comportamento di m-1, essendo stata trovata come questo sempre e solo in presenza di PCB e di declorurazione riduttiva. La sequenza di questa dealogenasi è diversa da tutte quelle note sia in termini di sequenza nucleotidica che aminoacidica, pur presentando due ORF con le stesse caratteristiche e domini presenti nelle dealogenasi note. Poiché la presenza della dealogenasi rilevata nelle colture dipende esclusivamente dall’aggiunta di PCB e dall’osservazione della declorurazione riduttiva e considerato che gran parte delle differenze genetiche è concentrata nella parte di sequenza che si pensa determini la specificità di substrato, si ritiene che la dealogenasi identificata sia specifica per i PCB. La ricerca è stata condotta in microcosmi che hanno ricreato fedelmente le condizioni biogeochimiche presenti in situ e ha quindi permesso di rendere conto del reale potenziale declorurante della microflora indigena dei sedimenti della laguna di Venezia. Le analisi molecolari condotte hanno permesso di identificare per la prima volta un batterio responsabile della declorurazione dei PCB in sedimenti marini (il batterio m-1) e una nuova dealogenasi specifica per PCB. L'identificazione del microrganismo declorurante permette di aprire la strada allo sviluppo di tecnologie di bioremediation mirata e il gene della dealogenasi potrà essere utilizzato come marker molecolare per determinare il reale potenziale di declorurazione di miscele complesse di PCB in sedimenti marini.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente studio ha come obiettivi l’analisi, la modellazione numerica e la caratterizzazione del rischio idrogeologico di due siti dell’Appennino bolognese interessati negli ultimi due anni da colate detritiche, Serraglio (Comune di Castiglione dei Pepoli) e Chiapporato (Comune di Camugnano). Lo studio è stato condotto in collaborazione con il Servizio Tecnico di Bacino Reno della Regione Emilia-Romagna, che ha reso disponibile la documentazione relativa ai due eventi analizzati. I predetti eventi possono esser definiti “anomali” in relazione sia alla loro collocazione – essendo il fenomeno delle colate detritiche diffuso principalmente in aree montuose caratterizzate da un’altitudine media rilevante, come l’arco alpino – sia al fatto che non sono né catalogati né ricordati a memoria d’uomo eventi, in tali località, precedenti a quelli in esame. Il rischio idrogeologico, indotto dalla possibilità non remota di nuovi eventi, è dato non dal volume o dall’area interessata dai fenomeni, ma piuttosto dall’estrema velocità caratterizzante le colate detritiche, appunto definite come manifestazioni parossistiche lungo la rete idrografica secondaria con trasporto in massa di sedimenti. L’analisi effettuata ha anche fornito l’occasione per effettuare un confronto tra due realtà, quella di Serraglio e quella di Chiapporato, accomunate dalla stessa tipologia di evento, ma differenti in relazione all’uso del suolo, alle caratteristiche geomorfologiche e alle modalità di propagazione nel corso dell’evento. L’abitato di Serraglio, sito nella frazione di Baragazza, è stato colpito da una colata detritica il 20 gennaio 2009. Da un punto di vista geologico e geomorfologico la località è sovrastata da un versante boscato notevolmente acclive, caratterizzato dall’affioramento della cosiddetta Formazione di Cervarola: tali rocce, appartenenti alla categoria delle arenarie e solitamente presenti in strati compatti, in seguito alla naturale degradazione dovuta agli agenti atmosferici hanno dato luogo ad un detrito composto da blocchi e ciottoli di varia dimensione immersi in una matrice sabbiosa. Il distacco è avvenuto proprio in questo materiale detritico, reso instabile dal notevole apporto pluviometrico verificatosi nei giorni precedenti. La colata, sviluppatasi in seguito alla fluidificazione del materiale coinvolto in uno scivolamento di detrito di ridotta volumetria, si è incanalata in uno dei rii effimeri che drenano il versante con traiettorie tra loro pseudo parallele. Il debris flow, accelerato da un dislivello complessivo di 125 m, ha poi raggiunto due abitazioni, fortunatamente non abitate al momento dell’evento, depositando uno spessore detritico di oltre 1,5 m nella zona di transito prima di proseguire verso valle nella sua frazione più fine, incanalandosi di fatto lungo lo stradello asfaltato di accesso alle abitazioni e interessando la strada provinciale che collega Castiglione dei Pepoli all’uscita autostradale di Roncobilaccio. Da un punto di vista meteo-climatico il mese di gennaio 2009 è stato caratterizzato da precipitazioni fortemente superiori alla media, accompagnate da una ridotta insolazione. La continua oscillazione dello zero termico tra 0 e 900 m ha dato luogo alla formazione di uno spessore nivale al suolo di circa 20 cm tre giorni prima dell’evento e poi al suo rapido scioglimento contestualmente all’aumento termico, dato dalla risalita di aria calda umida di origine africana, accompagnata da quella perturbazione che ha poi di fatto innescato il fenomeno. Nelle 48 ore precedenti l’evento sono stati registrati apporti nivo-pluviometrici corrispondenti ad oltre 130 mm, che hanno causato la completa saturazione del detrito superficiale, l’innesco dello scivolamento di detrito e la sua successiva fluidificazione. Il distacco del materiale detritico, la sua movimentazione e la notevole erosione che ha caratterizzato l’alveo del rio durante il fenomeno – quantificata mediamente in 20 cm – sono state favorite dalle mediocri condizioni di salute del castagneto che copre il versante interessato dall’evento: la totale assenza di manutenzione e l’abbandono della coltivazione “a pali” del bosco hanno inibito la naturale funzione stabilizzante del boscato, trasformatosi da fattore inibente a fattore predisponente il fenomeno. La seconda colata detritica analizzata ha invece interessato la strada comunale che collega la frazione di Stagno all’abitato di Chiapporato, splendida borgata cinquecentesca, frequentata soprattutto da turisti ed escursionisti durante la stagione estiva. Il versante sede della colata, occorsa in data 8 novembre 2010, è caratterizzato da numerosi affioramenti della cosiddetta Formazione di Stagno, arenarie intervallate da strati marnoso-pelitici. Tale litotipo, soggetto alla naturale degradazione indotta dagli agenti atmosferici, origina un detrito composto da massi e ciottoli, raccoltisi, nell’area in esame, in un canalone posto ai piedi di una scarpata pseudo verticale delimitante il pianoro di “Val di Sasso”. Tale materiale detritico è stato poi fluidificato dalle abbondanti piogge, depositando, dopo oltre 320 metri di dislivello, circa un metro di detrito sul piano stradale per poi proseguire la sua corsa verso il Torrente Limentra e il Bacino di Suviana. L’evento è stato innescato da precipitazioni intense e persistenti che hanno depositato al suolo oltre 69 mm di pioggia in 25 ore. Nel mese precedente il fenomeno sono stati misurati oltre 530 mm di pioggia, quantitativi superiori alla media climatologica, che hanno sicuramente accelerato anche la degradazione della scarpata e l’accumulo di detriti nell’area sorgente. Le colate sopra descritte sono state poi simulate utilizzando il modello DAN-W (Dynamic ANalysis) del prof. Oldrich Hungr della University of British Columbia (Canada). Tale modello si basa su una discretizzazione della massa movimentata tramite il metodo degli “elementi di contorno” e sulla soluzione alle differenze finite di tipo Lagrangiano dell’equazione di De Saint Venant. L’equazione del moto, integrata verticalmente, è applicata a colonne strette di flusso (elementi di contorno). L’equazione di continuità è invece risolta riferendosi agli elementi di massa delimitati dai predetti elementi di contorno. Il numero di incognite principali eguaglia il numero di equazioni disponibili ed il problema è quindi completamente determinato. Gli altri parametri caratterizzanti la colata sono determinati tramite interpolazioni basate sull’ipotesi che sia la superficie del flusso sia quella della traiettoria siano ragionevolmente lisce. La soluzione è esplicita ed avviene per step temporali successivi. Al fine della determinazione dei parametri l’utilizzatore ha la possibilità di scegliere tra vari modelli reologici, quantificanti il termine di resistenza caratterizzante il moto. Su indicazione dell’autore del modello sono stati utilizzati il modello frizionale e quello di Voellmy, che, in casi simili, forniscono risultati più realistici (in relazione alla modellizzazione di colate di detrito). I parametri utilizzati per la calibrazione sono lo spessore di detrito depositato sul piano stradale, nel caso di Chiapporato, e a tergo della prima abitazione investita dalla colata nel caso di Serraglio, unitamente alla massima distanza raggiunta dai detriti. I risultati ottenuti utilizzando il modello reologico frizionale mostrano profili di velocità scarsamente rappresentativi, con una costante sovrastima della stessa, a fronte di una migliore capacità descrittiva degli spessori accumulatisi. Il modello di Voellmy ha invece prodotto andamenti di velocità più realistici, confrontabili con i valori forniti dalla letteratura internazionale, riuscendo al contempo a quantificare con precisione l’accumulo di detrito rilevato a seguito degli eventi. I valori dei parametri utilizzati nella modellazione sono stati ricavati dalle indicazioni dell’autore del modello affiancate dai range resi disponibili dalla letteratura. Entrambe le caratterizzazioni reologiche sono poi state oggetto di un’analisi di sensitività ai fini di quantificare il peso dei parametri utilizzati. Il modello frizionale si è rivelato particolarmente sensibile all’andamento del coefficiente di attrito basale e al coefficiente di pressione dei pori, con un lieve preponderanza del primo, mentre il modello reologico di Voellmy si è mostrato fortemente influenzato dal coefficiente di turbolenza e dal coefficiente di attrito, pressoché paritari nell’effettivo condizionamento dei risultati. Gli output ottenuti simulando l’evento di Serraglio sono risultati generalmente meno realistici di quelli ricavati nel caso di Chiapporato: ciò è probabilmente dovuto alle caratteristiche reologiche proprie del fenomeno occorso a Serraglio, classificabile come un ibrido tra un mud flow e un debris flow. Sono state infine avanzate proposte di intervento e di monitoraggio dei siti indagati, al fine di una mitigazione del rischio idrogeologico gravante sulle aree esaminate. Il caso di Serraglio presenta, a parere dello scrivente, un rischio idrogeologico più elevato, se paragonato a quello presente a Chiapporato, dati la vicinanza ad un centro abitato e lo status quo caratterizzante il versante sede del dissesto. Nei circa 18 mesi trascorsi dopo l’evento è stato possibile rilevare un progressivo ampliamento della nicchia di distacco dello scivolamento, poi evolutosi in colata con andamento tipicamente retrogressivo. Lo stato della vegetazione permane in condizioni problematiche, con frequenti ribaltamenti e sradicamenti (processi noti in letteratura come chablis) dei castagni presenti, con un conseguente aumento dell’erosione superficiale del versante e l’apporto detritico all’interno del rio. Tale detrito è poi trattenuto all’interno dell’alveo da una serie di briglie naturali formatesi a seguito della caduta di varie piante all’interno del canale stesso a causa del passaggio del debris flow o a fenomeni di chablis. La forte sovraescavazione occorsa in occasione della colata ha poi favorito l’innesco di una serie di piccoli scivolamenti superficiali confluenti nel rio stesso, anch’essi apportatori di detrito, ingrediente principale per un nuovo debris flow. È inoltre da notare come la zona di runout è tuttora parzialmente occupata dal detrito depositatosi a seguito dell’evento: tale configurazione, causando di fatto una riduzione della potenziale area di “sfogo” di un nuovo debris flow, acuisce il rischio di un’estensione areale verso valle degli effetti di un nuovo fenomeno, con un conseguente possibile maggior coinvolgimento dell’abitato di Serraglio. È stato quindi proposto di attuare un’adeguata regimazione dell’area boschiva caratterizzante il versante, unitamente ad una regimazione fluviale del rio, tramite la realizzazione di briglie in legno e pietrame – essendo l’area non cantierabile – e la rimozione degli accumuli detritici in seno all’alveo stesso. La nicchia di distacco principale e le nicchie secondarie dovranno poi essere oggetto di opportuna stabilizzazione. Più a valle è stata suggerita la rimozione dell’accumulo detritico presente nell’area di runout e la realizzazione di un’adeguata opera di ricezione delle acque del rio e di eventuali nuove colate: a tal fine si è ipotizzato il ripristino dell’antico alveo, successivamente deviato e tombato per permettere l’edificazione dell’abitazione poi investita dalla colata. È stato inoltre proposto un monitoraggio attraverso l’installazione di un pluviometro, tarato con opportune soglie di allarme, dotato di datalogger e modem GPRS al fine di comunicare in tempo reale, ai tecnici incaricati e agli abitanti, un eventuale superamento della soglia di allarme. Il caso di Chiapporato è invece caratterizzato da problematiche connesse al rischio idrogeologico meno rilevanti di quelle presenti a Serraglio. Ciò è dovuto allo scarso traffico caratterizzante la strada comunale e all’assenza di altri edifici o infrastrutture potenzialmente coinvolgibili da un nuovo evento. La probabilità del verificarsi di una nuova colata è però concreta, considerata la forte erosione caratterizzante il versante: trascorsi sei mesi dall’evento, è stato possibile rilevare nell’area sorgente un accumulo medio di detrito di circa mezzo metro di spessore. Le cause del dissesto, a differenza di Serraglio, non sono in alcun modo imputabili all’azione antropica: si tratta infatti della naturale evoluzione del versante sovrastante il piano stradale. Si propone quindi la collocazione di cartelli stradali indicanti il pericolo di caduta massi e colate detritiche agli automobilisti e ai pedoni, unitamente all’installazione di un cavo a strappo posto lungo l’alveo torrentizio collegato ad un semaforo dislocato nei pressi del guado della strada comunale sul rio Casale. L’eventuale verificarsi di un nuovo evento comporterebbe la lacerazione del cavo installato e l’attivazione del semaforo – e di un eventuale allarme acustico – con conseguente inibizione del traffico stradale in occasione del transito del debris flow. Nel contesto geologico e geomorfologico dell’Appennino tosco-emiliano i debris flow rappresentano una tipologia di dissesto da frana poco diffusa, ma comunque potenzialmente presente nelle aree dove i processi di alterazione e degradazione degli ammassi rocciosi affioranti generino accumuli di detrito e in condizioni morfologiche caratterizzate da elevate pendenze dei versanti. Questo studio ha permesso di approfondire la conoscenza di questi fenomeni, che presentano una magnitudo notevolmente inferiore rispetto al contesto alpino, ma la cui interferenza con l’attività antropica acuisce notevolmente il rischio idrogeologico nelle zone interessate. Si sottolinea, inoltre, che nell’attuale contesto climatico caratterizzato da sempre più frequenti piogge brevi ed intense ed eventi cosiddetti di rain on snow, la frequenza sia temporale che spaziale di tali fenomeni di dissesto appare destinata ad aumentare, anche in aree in precedenza non interessate.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La storia naturale dell’epatopatia HCV-relata passa dall’epatite cronica alla cirrosi ed eventualmente all’epatocarcinoma fino ad arrivare alla possibile necessità del trapianto di fegato. HCV non esercita citolisi diretta, pertanto i fattori immunologici giocano il duplice ruolo di determinare l’evoluzione dell’infezione e il danno epatico. All’interno del sistema immunitario esistono linfociti in grado di inibire l’attivazione delle cellule effettrici modulando la risposta immunitaria; la popolazione regolatoria meglio conosciuta è costituita dai cosiddetti T-reg caratterizzati dal fenotipo CD4+CD35hiFoxp3+. Scopo di questo studio è stato determinare fenotipo e funzione dei T-reg, valutandone le correlazioni con caratteristiche cliniche e parametri biochimici e virologici, nelle diverse fasi della malattia epatica da HCV, a partire dall’epatite cronica, passando per la cirrosi, l’epatocarcinoma e terminando con il follow-up post-trapianto di fegato. Sono stati reclutati 80 pazienti con infezione cronica da HCV non in trattamento antivirale, di cui 52 con epatite cronica, 12 con cirrosi e 16 con epatocarcinoma. Di questi, 11 sono andati incontro a trapianto di fegato e sono stati poi seguiti fino a 36 mesi di follow up. Ventinove soggetti avevano transaminasi persistentemente nella norma e 28 mostravano ALT costantemente oltre 2.5x i valori normali. Quaranta donatori di sangue sono stati utilizzati come controlli sani. Marcatori di superficie (CD4, CD25) ed intracellulari (Foxp3) sono stati valutati in citofluorimetria su sangue intero periferico per tutti i soggetti al basale ed ogni 2-4 settimane dopo trapianto. In una quota di pazienti i T-reg sono stati estratti dai linfociti del sangue periferico con metodi immunomagnetici e la loro funzione valutata come percentuale di inibizione di proliferazione e produzione di IFN-γ da parte delle cellule bersaglio CD4+CD25- in esperimenti di co-coltura effettuati al basale e dopo 24-36 settimane dal trapianto. La percentuale di T-reg e l’espressione del Foxp3 sono risultate aumentate nei soggetti con HCV rispetto ai controlli sani, in particolare in coloro con cirrosi, HCC e nei pazienti con transaminasi normali indipendentemente dallo stadio di malattia, correlando inversamente con i livelli di transaminasi e direttamente con il punteggio MELD. La produzione di IFN-γ è incrementata in tutti i pazienti HCV ma efficacemente controllata solamente dai T-reg dei pazienti con transaminasi normali. Dopo il trapianto di fegato, si verifica una precoce e reversibile riduzione delle T-reg circolanti. Alla 24ma e 36ma settimana dal trapianto la percentuale dei T-reg circolanti è sovrapponibile al basale e i loro effetti, sia in termini di proliferazione che di produzione di IFN-γ, sulle cellule bersaglio, già dotate di una ridotta attività intrinseca, appaiono particolarmente incisivi. In conclusione, l’epatopatia cronica da HCV è caratterizzata da una popolazione di T-reg espansa che però, con l’eccezione dei soggetti con transaminasi normali, non appare in grado di limitare il danno epatico immuno-mediato e potrebbe favorire lo sviluppo e la crescita di lesioni tumorali nei pazienti con malattia avanzata. Il trapianto di fegato, probabilmente a causa della terapia immunosoppressiva, si associa ad un marcato e transitorio declino dei T-reg le cui numerosità e funzione vengono completamente recuperate a sei mesi dall’intervento. La migliore conoscenza dei meccanismi alla base delle cinetica e della funzione delle cellule regolatorie potrà fornire utili strumenti per il loro utilizzo come adiuvanti nella terapia dell’epatopatia cronica HCV relata.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il problema che si cerca di risolvere attraverso la gestione quantitativa del portafoglio è la riduzione del rischio tramite strategie che non dipendano dalla diversificazione dei titoli che compongono il portafoglio. Nel momento in cui si decide di applicare un trading system su un determinato gruppo di asset, il capitale non viene allocato automaticamente su tutti i titoli e si deve affrontare invece un continuo investimento tramite l’apertura dinamica di posizioni sul mercato.Questo significa che la diversificazione non è più una misura adeguata del rischio sostenuto poiché i rendimenti attesi dell’investimento non dipendono più dalle proprietà stesse degli strumenti scelti, ma dalla profittabilità dei segnali generati dalla logica del trading system su questi. Bisogna testare in questo caso le performance del sistema a livello statistico e prevedere anche, per esempio, che l’algoritmo possa generare dei segnali errati che portano a delle posizioni in perdita. Il portafoglio a livello quantitativo deve essere gestito tramite dei trading system che abbiano la possibilità di valutare aspetti globali, come il profitto totale di tutte le posizioni attualmente aperte, o l’intero rischio sostenuto dal capitale gestito. Le decisioni non vengono prese dall’analisi delle prestazioni individuali che la strategia ottiene operando sui singoli titoli. Per affrontare una possibile soluzione a questa problematica si sono quindi selezionati due trading system le cui prestazioni fossero robuste su un intero portafoglio e non solo su determinati titoli. In un successivo momento vengono analizzate le prestazioni del portafoglio aggiungendo ai test due ulteriori strategie di uscita: lo stoploss di portafoglio e il target di portafoglio. Nonostante esse ricalchino idee ampiamente utilizzate per la gestione delle singole posizioni su un titolo, per i test si è deciso di modificarle implementando la gestione globale del capitale all’interno del trading system di portafoglio.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La terra, nel corso della sua storia, ha subito molteplici cambiamenti con la comparsa e scomparsa di numerose specie animali e vegetali. Attualmente, l’estinzioni delle specie, la riduzione degli areali e il depauperamento degli ecosistemi è da ricollegare alle attività dell’uomo. Per tali motivi, in questi ultimi decenni si è iniziato a dare importanza alla conservazione della biodiversità, alla creazione di zone protette e a sviluppare interventi di reintroduzione e rafforzamento di specie rare e a rischio di estinzione. Questo lavoro di tesi si propone di analizzare la variabilità genetica delle popolazioni di Rhododendron ferrugineum L. lungo il suo areale, con particolare attenzione alle aree marginali dell’Appennino, dove la specie rappresenta un caso di pseudo rarità, al fine di valutare lo stato di salute della specie al limite del suo areale e valutare appropriati interventi di conservazione o reintroduzione. Per effettuare le analisi sono stati messi a punto dei marcatori molecolari discontinui, i microsatelliti, che, essendo dei marcatori co-dominati, permettono di valutare differenti parametri legati alla diversità genetica delle popolazioni inclusi i livelli di eterozigotà ed il flusso genico tra popolazioni limitrofe. I campionamenti sono stati effettuati nelle uniche 3 stazioni presenti sugli Appennini. Al fine di confrontare la struttura genetica di queste popolazioni sono state considerate anche popolazioni delle Alpi Marittime, delle Alpi centro-orientali e dei Pirenei. L’analisi della diversità genetica effettuata su questo pool di popolazioni analizzate con 7 marcatori microsatelliti, ha messo in evidenza che le popolazioni relitte dell’Appennino Tosco-Emiliano presentano un ridotto livello di eterozigosità che suggerisce quindi un elevato livello di inbreeding. Si ritiene che ciò sia dovuto alla loro dislocazione sul territorio, che le rende isolate sia tra di loro che dalle popolazioni delle vicine Alpi Marittime. La stima delle relazioni genetiche tra le popolazioni appenniniche e le vicine piante alpine evidenzia come non vi sia scambio genetico tra le popolazioni. Le analisi dei cluster suggeriscono che due delle popolazioni Appenniniche siano più simili alle popolazioni della Alpi Marittime, mentre la terza ha più affinità con le popolazioni delle Alpi centro-orientali. Le popolazioni dei Pirenei risultano essere geneticamente più simili alle popolazioni delle Alpi Marittime, in particolare alle tre popolazioni del versante francese. In questo lavoro abbiamo affrontato anche il problema delle specie ibride. Rhododendron x intermedium Tausch è un ibrido frutto dell’incrocio tra Rhododendron ferrugineum L. e Rhododendron hirsutum L., in grado di incrociarsi sia con altri ibridi, sia con i parentali (fenomeno dell’introgressione). L’origine di questo ibrido risiede nella simpatria delle due specie parentali, che tuttavia, presentano esigenze ecologiche differenti. Ad oggi la presenza di Rhododendron x intermedium è stata accertata in almeno tre stazioni sulle Alpi Italiane, ma la letteratura documenta la sua presenza anche in altre zone dell’Arco Alpino. L’obiettivo di questa ricerca è stato quello di verificare la reale natura ibrida di Rhododendron x intermedium in queste stazioni utilizzando un approccio integrato ossia sia attraverso un’analisi di tipo morfologico sia attraverso un analisi di tipo molecolare. In particolare l’approccio molecolare ha previsto prima un’analisi filogenetica attraverso l’utilizzo di marcatori molecolari filogenetici nucleari e plastidiali (ITS, At103, psbA-trnH e matK) e quindi un’analisi della struttura delle popolazioni della specie ibrida attraverso l’utilizzo di marcatori molecolari microsatelliti. Da un’analisi morfologica, risulta che gli esemplari ibridi possono essere molto differenti tra loro e ciò supporta la formazione di sciami ibridi. Al fine di verificare la natura di questa specie e la struttura delle popolazioni ibride e dei rispettivi parentali, sono state campionate differenti popolazioni in tutta l’area di interesse. I campioni ottenuti sono stati quindi analizzati geneticamente mediante marcatori molecolari del DNA. I risultati ottenuti hanno permesso innanzitutto di confermare l’origine ibrida degli individui di prima generazione della specie Rhododendron x intermedium e quindi di distinguere i parentali dagli ibridi ed evidenziare la struttura genetica delle popolazioni ibride.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’attività assicurativa svolge un ruolo cruciale nell’economia moderna: riduce le inefficienze di mercato, rendendo possibile per la c.d. economia reale il trasferimento di rischi il cui impatto potrebbe essere devastante qualora l’evento assicurato si verificasse. Questa funzione può naturalmente essere svolta anche in assenza di un canale distributivo indipendente, ma con un significativo aumento dei costi di transazione dovuti, in particolare, a un alto impatto dell’asimmetria informativa per i c.d. rischi non standardizzabili (c.d. commercial lines o business insurance). Tale funzione è tanto più importante nei c.d. cicli di hard market, in cui l’appetito per il rischio delle imprese assicuratrici diminuisce, il prezzo delle coperture aumenta e per le imprese diventa arduo trovare eque coperture sul mercato d’offerta. Lo studio evidenzia che gli intermediari indipendenti italiani non differiscono molto da quelli di altri Paesi per composizione di portafoglio, propensione all’intermediazione di rischi afferenti al segmento Aziende e capacità di selezionare con attenzione i rischi. Nel loro complesso, intermediari indipendenti e in esclusiva sembrano ancorati a modelli e logiche di sviluppo poco orientate al futuro, quali ad esempio poco significative politiche di costruzione di reti secondarie al loro interno. Questo orientamento impedisce a molti di loro di crescere. Le cause ostative alla diffusione del plurimandato sono i costi di transazione e i timori di ritorsione della mandante principale. Dato che l’acquisizione di ulteriori mandati dipende dal numero di clienti in portafoglio in termini di policy sarebbe opportuno, da un lato, riconoscere agli intermediari l’importanza degli investimenti in reti secondarie e, dall’altro, rimuovere tutte gli ostacoli (prevalentemente di natura regolamentare) che impediscono un’ulteriore riduzione dei costi di transazione.