186 resultados para Precedenti
Resumo:
La conoscenza delle esigenze luminose (intensità, spettro, durata minima, massima ed ottimale del fotoperiodo di illuminazione) e della tolleranza alle condizioni degli interni delle piante ad uso decorativo, è di fondamentale importanza per una giusta tecnica di progettazione (dimensionamento e dislocazione dei punti luce) dell’indoor plantscaping. Il lungo periodo di condizionamento al quale queste piante vengono sottoposte, caratterizzato principalmente dalla scarsa disponibilità di luce naturale e dagli alti livelli di concentrazione di CO2 determina una forte influenza sui processi morfo-fisiologici. Il presente studio analizza il fattore luminoso ed è articolato su più punti quali; • caratterizzazione della riposta fotosintetica all’intensità luminosa di 21 delle principali specie a fogliame decorativo comunemente utilizzate nella realizzazione degli spazi verdi indoor, per stabilire quali siano i minimi ed ottimali livelli di PAR tali da garantire una fotosintesi netta positiva e nel complesso le condizioni di maggior benessere per le piante; • quantificazione dell’incremento fotosintetico netto dovuto ad una maggior concentrazione di CO2 negli interni rispetto alla concentrazione CO2 atmosferica esterna, all’aumentare dell’ intensità luminosa artificiale sulle precedenti specie; • monitoraggio dell’andamento delle attività fotosintetiche durante il periodo di illuminazione di 8 ore comunemente utilizzato in un interno ad uso lavorativo, a PAR costante e variabile in Ficus elastica e Dieffenbachia picta, al fine di stabilire quali possano essere le durate e le modalità di somministrazione della luce per rendere massima la fotosintesi netta riducendo al minimo i consumi energetici dovuti all’accensione delle lampade; • valutazione della risposta morfo-fisiologica e fotosintetica a modificazioni dello spettro luminoso mediante l’uso di LED monocromatici colorati ad emissione nel bianco, blu e rosso in Ficus benjamina e Iresine herbistii al fine di stabilire se questo tipo di lampade possano essere utilizzate come fonte integrativa e/o sostitutiva nella realizzazione degli spazi verdi interni. Vengono analizzati il punto si compensazione alla luce (g), il punto di saturazione alla luce (s), l’efficienza quantica (AQE), il punto di respirazione al buio (Rd) e la fotosintesi netta massima (A max) per (Aglaonema commutatum, Asplenium nidus, Anthurium andreanum, Begonia rex, Calathea luoise, Calathea veitchiana, Calathea rufibarba, Calathea zebrina, Codiaeum variegatum, Cthenanthe oppenheimiana, Dieffenbakia picta, Ficus benjamina, Ficus elatica, Ficus longifolia, Fittonia verschaffeltii, Iresine herbistii, Philodendron erubescens, Philodendron pertusum, Potos aureus, Spathiphillum wallisi, Syngonium podophillum ) e classificate le specie in funzione di Amax in quattro categorie; A max < 2 µmol CO2 m-2 s-1, A max compresa tra 2 e 4 µmol CO2 m-2 s-1, Amax cpmpresa tra 4 e 6 µmol CO2 m-2 s-1, Amax > 6 µmol CO2 m-2 s-1, al fine di mettere in risalto la potenzialità fotosintetiche di ogni singola specie. I valori di PAR compresi tra (g) ed (s) forniscono le indicazioni sulle quali basarsi per scegliere una giusta lampada o dimensionare un punto luce per ogni singola specie e/o composizione. È stimata l’influenza di due livelli di concentrazione di CO2 ambientale (400 e 800 ppm) all’incrementare dell’intensità luminosa sul processo fotosintetico delle specie precedenti. Per quasi tutte le specie 800 ppm di CO2 non favoriscono nessun incremento all’attività fotosintetica ad eccezione di Ficus benjamina, Ficus elatica e Syngonium podophillum se non accompagnati da una disponibilità luminosa superiore alle 10 µmol m-2 s-1. Viene monitorato l’andamento dell’attività fotosintetica a PAR costante e variabile (intervallando periodi di 8 minuti a PAR 40 e 80) durante 8 ore di illuminazione su Ficus elastica e Dieffenbachia picta al fine di stabilire la miglior modalità di somministrazione della luce. La fotosintesi netta cumulativa per l’intera durata di illuminazione a PAR costante mostra un calo dopo alcune ore dall’attivazione in Dieffenbackia, e un andamento oscillatorio in Ficus. L’illuminazione alternata consente di raggiungere i quantitativi di CO2 organicata a 80 µmol m-2 s-1 di PAR, dopo 5 ore e mezza sia in Ficus che Dieffenbackia sebbene le potenzialità fotosintetiche delle due piante siano molto differenti. È stato valutato l’effetto dell’illuminazione artificiale mediante LED (15W) a luce bianca, blu e rossa monocromatica in rapporto alla luce neon(36W) bianca tradizionale (con differenti abbinamenti tra le lampade) sui principali parametri morfologici e fisiologici, in Ficus benjamin ‘Variegata’ e Iresine herbistii per verificare se tali fonti possono rappresentare una valida alternativa nella sostituzione o integrazione di altre lampade per gli spazi verdi indoor. Tutte le combinazioni LED indagate possono rappresentare un’alternativa di sostituzione alla coltivazione con neon ed un risparmio energetico di oltre il 50%. Una PAR di 20,6 µmol m-2 s-1 della singola lampada LED bianco è sufficiente per mantenere la pianta in condizioni di sopravvivenza con un consumo di 15W a fronte dei 36W necessari per il funzionamento di ogni neon. La combinazione LED bianco + LED blu monocromatico favorisce il contenimento della taglia della pianta, caratteristica gradita nella fase di utilizzo indoor, una maggior produzione di sostanza secca e un’attività fotosintetica più elevata.
Resumo:
Il lavoro presentato in questa tesi si colloca nel contesto della programmazione con vincoli, un paradigma per modellare e risolvere problemi di ricerca combinatoria che richiedono di trovare soluzioni in presenza di vincoli. Una vasta parte di questi problemi trova naturale formulazione attraverso il linguaggio delle variabili insiemistiche. Dal momento che il dominio di tali variabili può essere esponenziale nel numero di elementi, una rappresentazione esplicita è spesso non praticabile. Recenti studi si sono quindi focalizzati nel trovare modi efficienti per rappresentare tali variabili. Pertanto si è soliti rappresentare questi domini mediante l'uso di approssimazioni definite tramite intervalli (d'ora in poi rappresentazioni), specificati da un limite inferiore e un limite superiore secondo un'appropriata relazione d'ordine. La recente evoluzione della ricerca sulla programmazione con vincoli sugli insiemi ha chiaramente indicato che la combinazione di diverse rappresentazioni permette di raggiungere prestazioni di ordini di grandezza superiori rispetto alle tradizionali tecniche di codifica. Numerose proposte sono state fatte volgendosi in questa direzione. Questi lavori si differenziano su come è mantenuta la coerenza tra le diverse rappresentazioni e su come i vincoli vengono propagati al fine di ridurre lo spazio di ricerca. Sfortunatamente non esiste alcun strumento formale per paragonare queste combinazioni. Il principale obiettivo di questo lavoro è quello di fornire tale strumento, nel quale definiamo precisamente la nozione di combinazione di rappresentazioni facendo emergere gli aspetti comuni che hanno caratterizzato i lavori precedenti. In particolare identifichiamo due tipi possibili di combinazioni, una forte ed una debole, definendo le nozioni di coerenza agli estremi sui vincoli e sincronizzazione tra rappresentazioni. Il nostro studio propone alcune interessanti intuizioni sulle combinazioni esistenti, evidenziandone i limiti e svelando alcune sorprese. Inoltre forniamo un'analisi di complessità della sincronizzazione tra minlex, una rappresentazione in grado di propagare in maniera ottimale vincoli lessicografici, e le principali rappresentazioni esistenti.
Resumo:
Da 25 anni la letteratura scientifica internazionale riporta studi su varie specie di microcrostacei copepodi ciclopoidi dei generi Macrocyclops, Megacyclops e Mesocyclops predatori di larve di 1a e 2a età di culicidi. Si tratta di prove di predazione in laboratorio e in pieno campo, in diverse aree del pianeta nessuna delle quali riguarda l’Italia o il resto d’Europa, contro principalmente Aedes aegypti (L.), Ae. albopictus (Skuse) e altre specie del genere Anopheles e Culex. L’allevamento massale di copepodi ciclopoidi appare praticabile e questo, assieme alle buone prestazioni predatorie, rende tali ausiliari candidati assai interessanti contro le due principali specie di zanzare, Culex pipiens L. e Ae. albpopictus, che nelle aree urbane e periurbane italiane riescono a sfruttare raccolte d’acqua artificiali di volume variabile e a regime idrico periodico o permanente. Pertanto lo scopo dello studio è stato quello di arrivare a selezionare una o più specie di copepodi candidati per la lotta biologica e valutarne la possibilità applicativa nell’ambito dei programmi di controllo delle zanzare nocive dell’ambiente urbano. L’argomento del tutto nuovo per il nostro paese, è stato sviluppato attraverso varie fasi ciascuna delle quali propedeutica a quella successiva. •Indagine faunistica nell’area di pianura e costiera sulle specie di ciclopoidi associate a varie tipologie di raccolte d’acqua naturali e artificiali (fossi, scoline, canali, risaie e pozze temporanee). I campionamenti sono stati condotti con l’obiettivo di ottenere le specie di maggiori dimensioni (≥1 mm) in ristagni con diverse caratteristiche in termini di qualità dell’acqua e complessità biocenotica. •Prove preliminari di predazione in laboratorio con alcune specie rinvenute negli ambienti campionati, nei confronti delle larve di Ae. albopictus e Cx. pipiens. Le prestazioni di predazione sono state testate sottoponendo ai copepodi larve giovani di zanzare provenienti da allevamento e calcolato il numero giornaliero di larve attaccate. •Implementazione di un allevamento pilota della specie valutata più interessante, Macrocyclops albidus (Jurine) (Cyclopoida, Cyclopidae, Eucyclopinae), per i risultati ottenuti in laboratorio in termini di numero di larve predate/giorno e per le caratteristiche biologiche confacenti agli ambienti potenzialmente adatti ai lanci. Questa parte della ricerca è stata guidata dalla finalità di mettere a punto una tecnica di allevamento in scala in modo da disporre di stock di copepodi dalla primavera, nonchè da criteri di economicità nell’impianto e nella sua gestione. •Prove di efficacia in condizioni di semicampo e di campo in raccolte d’acqua normalmente colonizzate dai culicidi in ambito urbano: bidoni per lo stoccaggio di acqua per l’irrigazione degli orti e tombini stradali. In questo caso l’obiettivo principale è stato quello di ottenere dati sull’efficienza del controllo di M. albidus nei confronti della popolazione culicidica selvatica e sulla capacità del copepode di colonizzare stabilmente tali tipologie di focolai larvali. Risultati e conclusioni Indagine faunistica e prove di predazione in laboratorio L’indagine faunistica condotta nell’area costiera ferrarese, in quella ravennate e della pianura bolognese ha portato al rinvenimento di varie specie di ciclopoidi mantenuti in laboratorio per la conduzione delle prove di predazione. Le specie testate sono state: Acanthocyclops robustus (G. O. Sars), Macrocyclops albidus (Jurine), Thermocyclops crassus (Fischer), Megacyclops gigas (Claus). La scelta delle specie da testare è stata basata sulla loro abbondanza e frequenza di ritrovamento nei campionamenti nonché sulle loro dimensioni. Ciascuna prova è stata condotta sottoponendo a un singolo copepode, oppure a gruppi di 3 e di 5 esemplari, 50 larve di 1a età all’interno di contenitori cilindrici in plastica con 40 ml di acqua di acquedotto declorata e una piccola quantità di cibo per le larve di zanzara. Ciascuna combinazione “copepode/i + larve di Ae. albopictus”, è stata replicata 3-4 volte, e confrontata con un testimone (50 larve di Ae. albopictus senza copepodi). A 24 e 48 ore sono state registrate le larve sopravvissute. Soltanto per M. albidus il test di predazione è stato condotto anche verso Cx. pipiens. Messa a punto della tecnica di allevamento La ricerca è proseguita concentrando l’interesse su M. albidus, che oltre ad aver mostrato la capacità di predare a 24 ore quasi 30 larve di Ae. albopictus e di Cx. pipiens, dalla bibliografia risulta tollerare ampi valori di temperatura, di pH e alte concentrazioni di vari inquinanti. Dalla ricerca bibliografica è risultato che i ciclopoidi sono facilmente allevabili in contenitori di varia dimensione e foggia somministrando agli stadi di preadulto alghe unicellulari (Chlorella, Chilomonas), protozoi ciliati (Paramecium, Euplotes), rotiferi e cladoceri. Ciò presuppone colture e allevamenti in purezza di tali microrganismi mantenuti in parallelo, da utilizzare come inoculo e da aggiungere periodicamente nell’acqua di allevamento dei ciclopoidi. Nel caso di utilizzo di protozoi ciliati, occorre garantirne lo sviluppo che avviene a carico di flora batterica spontanea a sua volta cresciuta su di un substrato organico quale latte, cariossidi bollite di grano o soia, foglie di lattuga, paglia di riso bollita con cibo secco per pesci, lievito di birra. Per evitare il notevole impegno organizzativo e di manodopera nonché il rischio continuo di perdere la purezza della colonia degli organismi da utilizzare come cibo, le prove comparative di allevamento hanno portato ad un protocollo semplice ed sufficientemente efficiente in termini di copepodi ottenibili. Il sistema messo a punto si basa sull’utilizzo di una popolazione mista di ciliati e rotiferi, mantenuti nell'acqua di allevamento dei copepodi mediante la somministrazione periodica di cibo standard e pronto all’uso costituito da cibo secco per gatti. Prova di efficacia in bidoni da 220 l di capacità La predazione è stata studiata nel biennio 2007-2008 in bidoni da 220 l di capacità inoculati una sola volta in aprile 2007 con 100 e 500 esemplari di M. albidus/bidone e disposti all’aperto per la libera ovideposizione della popolazione culicidica selvatica. L’infestazione preimmaginale culicidica veniva campionata ogni due settimane fino ad ottobre, mediante un retino immanicato a maglia fitta e confrontata con quella dei bidoni testimone (senza copepodi). Nel 2007 il tasso di riduzione medio delle infestazioni di Ae. albopictus nei bidoni con copepodi, rispetto al testimone, è del 99,90% e del 100,00% rispettivamente alle dosi iniziali di inoculo di 100 e 500 copepodi/bidone; per Cx. pipiens L. tale percentuale media è risultata di 88,69% e di 84,65%. Similmente, nel 2008 si è osservato ad entrambe le dosi iniziali di inoculo una riduzione di Ae. albopictus del 100,00% e di Cx. pipiens del 73,3%. La dose di inoculo di 100 copepodi per contenitore è risultata sufficiente a garantire un rapido incremento numerico della popolazione che ha raggiunto la massima densità in agosto-settembre e un eccellente controllo delle popolazioni di Ae. albopictus. Prova di efficacia in campo in serbatoi per l’acqua irrigua degli orti La prova è stata condotta a partire dalla metà di agosto 2008 interessando 15 serbatoi di varia foggia e capacità, variabile tra 200 e 600 l, utilizzati per stoccare acqua orti famigliari nel comune di Crevalcore (BO). Ai proprietari dei serbatoi era chiesto di gestire il prelievo dell’acqua e i rifornimenti come da abitudine con l’unica raccomandazione di non svuotarli mai completamente. In 8 contenitori sono stati immessi 100 esemplari di M.albidus e una compressa larvicida a base di Bacillus thuringiensis var. israelensis (B.t.i.); nei restanti 7 è stata soltanto immessa la compressa di B.t.i.. Il campionamento larvale è stato settimanale fino agli inizi di ottobre. Dopo l’introduzione in tutti i serbatoi sono stati ritrovati esemplari di copepodi, nonostante il volume di acqua misurato settimanalmente sia variato da pochi litri, in qualche bidone, fino a valori della massima capacità, per effetto del prelievo e dell’apporto dell’acqua da parte dei gestori degli orti. In post-trattamento sono state osservate differenze significative tra le densità larvali nelle due tesi solo al 22 settembre per Ae.albopictus Tuttavia in termini percentuali la riduzione media di larve di 3a-4a età e pupe nei bidoni con copepodi, rispetto al testimone, è stata de 95,86% per Ae. albopictus e del 73,30% per Cx. pipiens. Prova di efficacia in tombini stradali Sono state condotte due prove in due differenti località, interessando 20 tombini (Marano di Castenaso in provincia di Bologna nel 2007) e 145 tombini (San Carlo in provincia di Ferrara nel 2008), quest’ultimi sottoposti a spurgo e pulizia completa nei precedenti 6 mesi l’inizio della prova. L’introduzione dei copepodi nei tombini è stata fatta all’inizio di luglio nella prova di Marano di Castenaso e alla fine di aprile e giugno in quelli di San Carlo, a dosi di 100 e 50 copepodi/tombino. Prima dell’introduzione dei copepodi e successivamente ogni 2 settimane per due mesi, in ogni tombino veniva campionata la presenza culicidica e dei copepodi con dipper immanicato. Nel 2007 dopo l’introduzione dei copepodi e per tutto il periodo di studio, mediamente soltanto nel 77% dei tombini i copepodi sono sopravvissuti. Nel periodo di prova le precipitazioni sono state scarse e la causa della rarefazione dei copepodi fino alla loro scomparsa in parte dei tombini è pertanto da ricercare non nell’eventuale dilavamento da parte della pioggia, quanto dalle caratteristiche chimico-fisiche dell’acqua. Tra queste innanzitutto la concentrazione di ossigeno che è sempre stata molto bassa (0÷1,03 mg/l) per tutta la durata del periodo di studio. Inoltre, a questo fattore probabilmente è da aggiungere l’accumulo, a concentrazioni tossiche per M. albidus, di composti organici e chimici dalla degradazione e fermentazione dell’abbondante materiale vegetale (soprattutto foglie) in condizioni di ipossia o anossia. Nel 2008, dopo il primo inoculo di M. albidus la percentuale di tombini che al campionamento presentano copepodi decresce in modo brusco fino a raggiungere il 6% a 2 mesi dall’introduzione dei copepodi. Dopo 40 giorni dalla seconda introduzione, la percentuale di tombini con copepodi è del 6,7%. Nell’esperienza 2008 è le intense precipitazioni hanno avuto probabilmente un ruolo determinante sul mantenimento dei copepodi nei tombini. Nel periodo della prova infatti le piogge sono state frequenti con rovesci in varie occasioni di forte intensità per un totale di 342 mm. Sotto questi livelli di pioggia i tombini sono stati sottoposti a un continuo e probabilmente completo dilavamento che potrebbe aver impedito la colonizzazione stabile dei copepodi. Tuttavia non si osservano influenze significative della pioggia nella riduzione percentuale dei tombini colonizzati da copepodi e ciò fa propendere all’ipotesi che assieme alla pioggia siano anche le caratteristiche fisico-chimiche dell’acqua a impedire una colonizzazione stabile da parte di M. albidus. In definitiva perciò si è dimostrato che i tombini stradali sono ambienti ostili per la sopravvivenza di M. albidus, anche se, dove il ciclopoide si è stabilito permanentemente, ha dimostrato un certo impatto nei confronti di Ae. albopictus e di Cx. pipiens, che tuttavia è risultato non statisticamente significativo all’analisi della varianza. Nei confronti delle larve di Culex pipiens il copepode non permette livelli di controllo soddisfacente, confermando i dati bibliografici. Nei confronti invece di Ae. albopictus la predazione raggiunge buoni livelli; tuttavia ciò non è compensato dalla percentuale molto alta di tombini che, dopo periodi di pioggia copiosa o singoli episodi temporaleschi o per le condizioni di anossia rimangono senza i copepodi. Ciò costringerebbe a ripetute introduzioni di copepodi i cui costi attualmente non sono inferiori a quelli per trattamenti con prodotti larvicidi. In conclusione la ricerca ha portato a considerare Macrocyclops albidus un interessante ausiliario applicabile anche nelle realtà urbane del nostro paese nell’ambito di programmi integrati di contrasto alle infestazioni di Aedes albopictus. Tuttavia il suo utilizzo non si presta a tutti i focolai larvali ma soltanto a raccolte di acqua artificiali di un certo volume come i bidoni utilizzati per stoccare acqua da impiegare per l’orto e il giardino familiare nelle situazioni in cui non è garantita la copertura ermetica, lo svuotamento completo settimanale o l’utilizzo di sostanze ad azione larvozanzaricida.
Resumo:
Nel presente elaborato viene riassunta in 4 brevi capitoli la mia attività di tesi, svolta nell’ambito del progetto Formula SAE® dell’Università di Bologna nell’anno 2010. Il progetto ha consistito nella realizzazione di una vettura monoposto, con l’obiettivo di far competere la stessa negli eventi previsti dalla SAE® (Society of Automotive Engineer), insieme alle vetture progettate e costruite da altri atenei di tutto il mondo. In tali eventi, una serie di giudici del settore auto-motive valuta la bontà del progetto, ovvero della vettura, che sarà sottoposta ad una serie di prove statiche e dinamiche. Nella seguente trattazione si narra quindi il percorso progettuale e di realizzazione del telaio della vettura, ovvero della sua struttura portante principale. Il progetto infatti, nell’ambito del team UniBo Motorsport, mi ha visto impegnato come “Responsabile Telaio” oltre che come “Responsabile in Pista” durante le prove su strada della vettura, svolte a valle della realizzazione. L’obbiettivo principale di un telaio di vettura da corsa è quello di realizzare una struttura che colleghi rigidamente tra loro i gruppi sospensivi anteriore e posteriore e che preveda anche la possibilità di ancorare tutti i componenti dei sistemi ausiliari di cui la vettura deve essere equipaggiata. Esistono varie tipologie di telai per autovettura ma quelle più adatte ad equipaggiare una vettura da competizione di tipo Formula, sono sicuramente il traliccio in tubi (“space frame”) e la monoscocca in fibra di carbonio. Il primo è sicuramente quello più diffuso nell’ambito della Formula Student grazie alla sua maggior semplicità progettuale e realizzativa ed ai minor investimenti economici che richiede. I parametri fondamentali che caratterizzano un telaio vettura da competizione sono sicuramente la massa e la rigidezza. La massa dello chassis deve essere ovviamente il più bassa possibile in quanto quest, costituisce generalmente il terzo contributo più importante dopo pilota e motore alla massa complessiva del veicolo. Quest’ultimo deve essere il più leggero possibile per avere un guidabilità ed una performance migliori nelle prove dinamiche in cui dovrà impegnarsi. Per quanto riguarda la rigidezza di un telaio, essa può essere distinta in rigidezza flessionale e rigidezza torsionale: di fatto però, solo la rigidezza torsionale va ad influire sui carichi che si trasferiscono agli pneumatici della vettura, pertanto quando si parla di rigidezza di un telaio, ci si riferisce alla sua capacità di sopportare carichi di tipo torsionale. Stabilire a priori un valore adeguato per la rigidezza torsionale di un telaio è impossibile. Tale valore dipende infatti dal tipo di vettura e dal suo impiego. In una vettura di tipo Formula quale quella oggetto del progetto, la rigidezza torsionale del telaio deve essere tale da garantire un corretto lavoro delle sospensioni: gli unici cedimenti elastici causati dalle sollecitazioni dinamiche della vettura devono essere quelli dovuti agli elementi sospensivi (ammortizzatori). In base a questo, come indicazione di massima, si può dire che un valore di rigidezza adeguato per un telaio deve essere un multiplo della rigidezza totale a rollio delle sospensioni. Essendo questo per l’Università di Bologna il primo progetto nell’ambito della Formula SAE® e non avendo quindi a disposizione nessun feed-back da studi o vetture di anni precedenti, per collocare in modo adeguato il pilota all’interno della vettura, in ottemperanza anche con i requisiti di sicurezza dettati dal regolamento, si è deciso insieme all’esperto di ergonomia del team di realizzare una maquette fisica in scala reale dell’abitacolo. Questo ha portato all’individuazione della corretta posizione del pilota e al corretto collocamento dei comandi, con l’obbiettivo di massimizzare la visibilità ed il confort di guida della vettura. Con questo primo studio quindi è stata intrapresa la fase progettuale vera e propria del telaio, la quale si è svolta in modo parallelo ma trasversale a quella di tutti gli altri sistemi principali ed ausiliari di cui è equipaggiata la vettura. In questa fase fortemente iterativa si vanno a cercare non le soluzioni migliori ma quelle “meno peggio”: la coperta è sempre troppo corta e il compromesso la fa da padrone. Terminata questa fase si è passati a quella realizzativa che ha avuto luogo presso l’azienda modenese Marchesi & C. che fin dal 1965 si è occupata della realizzazione di telai da corsa per importanti aziende del settore automobilistico. Grazie al preziosissimo supporto dell’azienda, a valle della realizzazione, è stato possibile condurre una prova di rigidezza sul telaio completo della vettura. Questa, oltre a fornire il valore di rigidezza dello chassis, ha permesso di identificare le sezioni della struttura più cedevoli, fornendo una valida base di partenza per l’ottimizzazione di telai per vetture future. La vettura del team UniBo Motorsport ha visto il suo esordio nell’evento italiano della Formula SAE® tenutosi nel circuito di Varano de Melegari nella prima settimana di settembre, chiudendo con un ottimo 16esimo posto su un totale di 55 partecipanti. Il team ha partecipato inoltre alla Formula Student Spain tenutasi sul famoso circuito di Montmelò alla fine dello stesso mese, raggiungendo addirittura il podio con il secondo posto tra i 18 partecipanti. La stagione si chiude quindi con due soli eventi all’attivo della vettura, ma con un notevole esordio ed un ottimo secondo posto assoluto. L’ateneo di Bologna si inserisce al sessantasettesimo posto nella classifica mondiale, come seconda università italiana.
Resumo:
ACQUE E NAVIGAZIONE UN NUOVO MUSEO DELLE ACQUE E DELLA NAVIGAZIONE A RAVENNA L’immagine dell’acqua a Ravenna fa riscoprire una storia della città fatta di corsi e specchi d’acqua. Questi, a causa del tempo e dell’opera dell’uomo scomparvero o mutarono profondamente la loro conformazione. L’importanza quindi dello studio di come questa città abbia convissuto negli anni con l’acqua e come l’uomo si sia adattato a queste condizioni è notevole. Ora Ravenna è una citta di “terra”, collegata al mare solo tramite il canale Candiano, le attività e la vita dell’uomo si sono staccate dall’acqua e nel tempo il mare è diventato solo una “vicinanza” perdendo tutto quel fascino e quell’importanza che possedeva nei secoli precedenti. Tra i tanti aspetti del legame passato tra l’uomo e l’acqua, l’imbarcazione risulta il mezzo più tipico e caratterizzante. Grazie a tanti studi fino ad ora compiuti è possibile ricostruire una catalogazione delle imbarcazioni che hanno fatto parte della storia acquatica di Ravenna e che quindi hanno composto la sua storia. L’imbarcazione costituisce una memoria storica e tecnica, essa riflette i cambiamenti storici e tecnico-evolutivi della civiltà delle acque. L’evoluzione delle barche è delle navi è progredita di pari passo con i cambiamenti delle esigenze dell’uomo, fin dall’antichità. Una rappresentazione tra imbarcazione, storia dell'uomo e geomorfologia della acque a Ravenna fa sì che l’argomento ricopra ambiti generali sull’intera civiltà che ha popolato il ravennate. Il museo delle acque a Ravenna vuole essere perciò un percorso nel passato della città, alla scoperta dell’antico legame con l’acqua, legame che forse ormai è stato dimenticato e di cui a volte si ignora l’esistenza. Questo non comporta il forzare un legame ormai abbandonato, ma un rivivere i momenti che hanno caratterizzato la crescita della città fino allo stato attuale. Questo museo mira a integrare il cospicuo patrimonio storico museale di Ravenna andando a colmare una mancanza da me ritenuta importante, appunto una memoria storica delle vita acquatica della città e dei propri abitanti nel tempo. Il tema museale studiato e analizzato verterà su un percorso nella storia della navigazione e del legame che Ravenna ebbe con l’acqua fin dalle sue origini. Questo importante tema prevederà l’esposizione di importanti relitti navali e ritrovamenti storici per i quali sarà obbligatoria l’organizzazione di appositi spazi espositivi per un’ottima conservazione. L’edificio appare come un rigido corpo all’esterno, rivestito in pietra basaltica grigia con tonalità diverse, mentre dal lato del canale risulta notevolmente più aperto, con un lungo porticato in affaccio diretto sull’acqua che segue tutta la forma del l’edificio stesso e che si interrompe solo in prossimità della grande hall d’ingresso in vetro e acciaio. Queste caratteristiche permettono di creare due facce completamente diverse, una molto chiusa e una invece molto aperta, per enfatizzare il senso di scoperta del “mondo acqua” al momento dell’ingresso nell’edificio. Due realtà molto diverse tra loro. Il lato, che affaccia sulla nuova piazza creata all’interno dell’area, rivestito in pietra basaltica grigia, rende una sensazione di chiusura fisica, creata appositamente per stimolare la scoperta dell’acqua sul lato opposto. La facciata è rotta in maniera irregolare da feritoie, quasi come una enorme roccia sull’acqua, sul riferimento del MuMok, il Museo di Arte Moderna Fondazione Ludwig di Ortner & Ortner aVienna.
Resumo:
Con il presente lavoro, che ha ad oggetto l’istituto dello scioglimento anticipato delle Camere nell’ordinamento costituzionale italiano, il candidato si propone tre obiettivi. Il primo è quello della ricostruzione dogmatica dell’istituto che sconta inevitabilmente un grosso debito nei confronti della vasta letteratura giuridica che si è sviluppata nel corso dei decenni. Il secondo obiettivo è quello, ben più originale, dell’indagine sulla prassi che ha contraddistinto il ricorso allo scioglimento nella peculiare realtà italiana. In questo modo si viene colmando uno spazio di ricerca diretto a leggere gli avvenimenti e a ricondurli in un quadro costituzionale sistematico, anche al fine di ricavare utili riflessioni circa la conformità della prassi stessa al dato normativo, nonché sulle modalità di funzionamento concreto dell'istituto. Il terzo obiettivo, quello più ambizioso, è utilizzare le considerazioni così sviluppate per ricercare soluzioni interpretative adeguate all’evoluzione subita dall’assetto politico-istituzionale italiano negli ultimi due decenni. Quanto al metodo, la scelta del candidato è stata quella di ricorrere ad uno strumentario che pone in necessaria sequenza logica: a) i presupposti storici/comparatistici e il dibattito in Assemblea costituente, utili per l’acquisizione del patrimonio del parlamentarismo europeo del tempo e per la comprensione del substrato su cui si costruisce l’edificio costituzionale; b) il testo costituzionale, avvalendosi anche delle importanti considerazioni svolte dalla dottrina più autorevole; c) la prassi costituzionale, consistente nella fase di implementazione concreta del disposto normativo. La finalità che il candidato si pone è dimostrare la possibilità di configurare lo scioglimento secondo un modello di tipo “primoministeriale”. Per quanto riguarda la prima parte della ricerca, dalla pur sintetica descrizione dei precedenti storici (sia rispetto alle realtà europee, inglese e francese in primis, che al periodo prerepubblicano) si trae conferma che l’operatività dell’istituto è intrinsecamente influenzata dalla forma di governo. Una prima indicazione che emerge con forza è come la strutturazione del sistema partitico e il grado di legame tra Assemblea rappresentativa e Gabinetto condizionino la ratio del potere di scioglimento, la sua titolarità ed il suo effettivo rendimento. Infatti, in presenza di regimi bipartitici e di impianti istituzionali che accentuano il raccordo fiduciario, il Capo dello Stato tende all’emarginazione, e lo scioglimento acquisisce carattere di automaticità tutte le volte in cui si verificano crisi ministeriali (eventualità però piuttosto rara); più consueto è invece lo scioglimento primoministeriale libero, come arma politica vera e propria attraverso cui il Governo in carica tende a sfruttare il momento migliore per ricercare il giudizio del popolo. Al contrario, dove il sistema politico è più dinamico, e il pluralismo sociale radicalizzato, il Capo dello Stato interferisce fortemente nella vita istituzionale e, in particolare, nella formazione dell’indirizzo politico: in quest’ottica lo scioglimento viene da questi inglobato, ed il suo ricorso subordinato ad esigenze di recupero della funzionalità perduta; soprattutto, quando si verificano crisi ministeriali (invero frequenti) il ricorso alle urne non è conseguenza automatica, ma semmai gli viene preferita la via della formazione di un Gabinetto poggiante su una maggioranza alternativa. L’indagine svolta dal candidato sui lavori preparatori mostra come il Costituente abbia voluto perseguire l'obiettivo di allargare le maglie della disciplina costituzionale il più possibile, in modo da poter successivamente ammettere più soluzioni interpretative. Questa conclusione è il frutto del modo in cui si sono svolte le discussioni. Le maggiori opzioni prospettate si collocavano lungo una linea che aveva ad un estremo una tassativa preordinazione delle condizioni legittimanti, ed all’altro estremo l’esclusiva e pressoché arbitraria facoltà decisionale dello scioglimento nelle mani del Capo dello Stato; in mezzo, la via mediana (e maggiormente gradita) del potere sì presidenziale, benché circondato da tutta una serie di limiti e garanzie, nel quadro della costruzione di una figura moderatrice dei conflitti tra Esecutivo e Legislativo. Ma non bisogna tralasciare che, seppure rare, diverse voci propendevano per la delineazione di un potere governativo di scioglimento la quale impedisse che la subordinazione del Governo al Parlamento si potesse trasformare in degenerazione assemblearista. Quindi, il candidato intende sottolineare come l’adamantina prescrizione dell’art. 88 non postuli, nell’ambito dell’interpretazione teleologica che è stata data, alcuno specifico indirizzo interpretativo dominante: il che, in altri termini, è l’ammissione di una pluralità di concezioni teoricamente valide. L'analisi del dettato costituzionale non ha potuto prescindere dalla consolidata tripartizione delle teorie interpretative. Dall'analisi della letteratura emerge la preferenza per la prospettiva dualistica, anche in virtù del richiamo che la Costituzione svolge nei confronti delle competenze sia del Presidente della Repubblica (art. 88) che del Governo (art. 89), il che lo convince dell’inopportunità di imporre una visione esclusivista, come invece sovente hanno fatto i sostenitori della tesi presidenziale. Sull’altro versante ciò gli permette di riconferire una certa dignità alla tesi governativa, che a partire dal primo decennio repubblicano era stata accantonata in sede di dibattito dottrinario: in questo modo, entrambe le teoriche fondate su una titolarità esclusiva assumono una pari dignità, benchè parimenti nessuna delle due risulti persuasiva. Invece, accedere alla tesi della partecipazione complessa significa intrinsecamente riconoscere una grande flessibilità nell’esercizio del potere in questione, permettendo così una sua più adeguata idoneità a mutare le proprie sembianze in fase applicativa e a calarsi di volta in volta nelle situazioni contingenti. Questa costruzione si inserisce nella scelta costituente di rafforzare le garanzie, ed il reciproco controllo che si instaura tra Presidente e Governo rappresenta la principale forma di tutela contro potenziali abusi di potere. Ad ognuno dei due organi spettano però compiti differenti, poiché le finalità perseguite sono differenti: come l’Esecutivo agisce normalmente secondo canoni politici, in quanto principale responsabile dell’indirizzo politico, al Capo dello Stato si addice soprattutto il compito di sorvegliare il regolare svolgimento dei meccanismi istituzionali, in posizione di imparzialità. Lo schema costituzionale, secondo il candidato, sembra perciò puntare sulla leale collaborazione tra i poteri in questione, senza però predefinire uno ruolo fisso ed immutabile, ma esaltando le potenzialità di una configurazione così eclettica. Assumendo questa concezione, si ha buon gioco a conferire piena cittadinanza costituzionale all’ipotesi di scioglimento disposto su proposta del Presidente del Consiglio, che si può ricavare in via interpretativa dalla valorizzazione dell’art. 89 Cost. anche secondo il suo significato letterale. Al discorso della titolarità del potere di scioglimento, il candidato lega quello circa i presupposti legittimanti, altro nodo irrisolto. La problematica relativa alla loro definizione troverebbe un decisivo ridimensionamento nel momento in cui si ammette la compartecipazione di Governo e Presidente della Repubblica: il diverso titolo con il quale essi cooperano consentirebbe di prevenire valutazioni pretestuose circa la presenza delle condizioni legittimanti, poichè è nel reciproco controllo che entrambi gli organi individuano i confini entro cui svolgere le rispettive funzioni. Si giustificano così sia ragioni legate ad esigenze di funzionalità del sistema (le più ricorrenti in un sistema politico pluripartitico), sia quelle scaturenti dalla divaricazione tra orientamento dei rappresentati e orientamento dei rappresentanti: purchè, sottolinea il candidato, ciò non conduca il Presidente della Repubblica ad assumere un ruolo improprio di interferenza con le prerogative proprie della sfera di indirizzo politico. Il carattere aperto della disciplina costituzionale spinge inevitabilmente il candidato ad approfondire l'analisi della prassi, la cui conoscenza costituisce un fondamentale modo sia per comprendere il significato delle disposizioni positive che per apprezzare l’utilità reale ed il rendimento sistemico dell’istituto. Infatti, è proprio dall'indagine sulla pratica che affiorano in maniera prepotente le molteplici virtualità dello strumento dissolutorio, con modalità operative che, a seconda delle singole fasi individuate, trovano una strutturazione casistica variabile. In pratica: nel 1953 e nel 1958 è l'interesse del partito di maggioranza relativa ad influenzare il Governo circa la scelta di anticipare la scadenza del Senato; nel 1963 e nel 1968 invece si fa strada l'idea del consenso diffuso allo scioglimento, seppure nel primo caso l'anticipo valga ancora una volta per il solo Senato, e nel secondo ci si trovi di fronte all'unica ipotesi di fine naturale della legislatura; nel 1972, nel 1976, nel 1979, nel 1983 e nel 1987 (con una significativa variante) si manifesta con tutta la sua forza la pratica consociativa, figlia della degenerazione partitocratica che ha svuotato le istituzioni giuridiche (a partire dal Governo) e cristallizzato nei partiti politici il centro di gravità della vita pubblica; nel 1992, a chiusura della prima epoca repubblicana, caratterizzata dal dominio della proporzionale (con tutte le sue implicazioni), si presentano elementi atipici, i quali vanno a combinarsi con le consolidate tendenze, aprendo così la via all'incertezza sulle tendenze future. È con l'avvento della logica maggioritaria, prepotentemente affacciatasi per il tramite dei referendum elettorali, a sconvolgere il quadro delle relazioni fra gli organi costituzionali, anche per quanto concerne ratio e caratteristiche del potere di scioglimento delle Camere. Soprattutto, nella fase di stretta transizione che ha attraversato il quadriennio 1992-1996, il candidato mette in luce come i continui smottamenti del sistema politico abbiano condotto ad una fase di destabilizzazione anche per quanto riguarda la prassi, incrinando le vecchie regolarità e dando vita a potenzialità fino allora sconosciute, addirittura al limite della conformità a Costituzione. La Presidenza Scalfaro avvia un processo di netta appropriazione del potere di scioglimento, esercitandolo in maniera esclusiva, grazie anche alla controfirma offerta da un Governo compiacente (“tecnicco”, perciò debitore della piena fiducia quirinalizia). La piena paternità presidenziale, nel 1994, è accompagnata da un altro elemento di brusca rottura con il passato, ossia quello della ragione legittimante: infatti, per la prima volta viene addotta palesemente la motivazione del deficit di rappresentatività. Altro momento ad aver costituito da spartiacque nell’evoluzione della forma di governo è stato il mancato scioglimento a seguito della crisi del I Governo Berlusconi, in cui forti erano state le pressioni perché si adeguasse il parlamentarismo secondo i canoni del bipolarismo e del concetto di mandato di governo conferito direttamente dagli elettori ad una maggioranza (che si voleva predefinita, nonostante essa in verità non lo fosse affatto). Dopo questa parentesi, secondo il candidato la configurazione dello strumento dissolutorio si allinea su ben altri binari. Dal punto di vista della titolarità, sono i partiti politici a riprendere vigorosamente un certo protagonismo decisionale, ma con una netta differenza rispetto al passato consociativo: ora, il quadro politico pare saldamente attestato su una dinamica bipolare, per cui anche in relazione all’opzione da adottare a seguito di crisi ministeriale sono le forze della maggioranza che decidono se proseguire la legislatura (qualora trovino l’accordo tra di loro) o se sciogliere (allorchè invece si raggiunga una sorta di maggioranza per lo scioglimento). Dal punto di vista dei presupposti, sembra consolidarsi l’idea che lo scioglimento rappresenti solo l’extrema ratio, chiamando gli elettori ad esprimersi solo nel momento in cui si certifica l’assoluta impossibilità di ripristinare la funzionalità perduta. Conclusioni. Il rafforzamento della prospettiva bipolare dovrebbe postulare una riconfigurazione del potere di scioglimento tesa a valorizzare la potestà decisionale del Governo. Ciò discenderebbe dal principio secondo cui il rafforzamento del circuito che unisce corpo elettorale, maggioranza parlamentare e Governo, grazie al collante di un programma politico condiviso, una coalizione che si presenta alle elezioni ed un candidato alla Presidenza del Consiglio che incarna la perfetta sintesi di tutte queste istanze, comporta che alla sua rottura non si può che tornare al giudizio elettorale: e quindi sciogliere le Camere, evitando la composizione di maggioranze che non rappresentano la diretta volontà popolare. Il candidato però non ritiene auspicabile l’adozione di un automatismo analogo alla regola dell'aut simul stabunt aut simul cadent proprio dell’esperienza regionale post 1999, perché soluzione eccessivamente rigida, che ingesserebbe in maniera inappropriata una forma parlamentare che comunque richiede margini di flessiblità. La proposta è invece di rileggere il testo costituzionale, rebus sic stantibus, nel senso di far prevalere un potere libero di proposta da parte del Governo, cui il Capo dello Stato non potrebbe non consentire, salvo svolgere un generale controllo di costituzionalità volto ad accertare l’insussistenza di alcuna forma di abuso. Su queste conclusioni il lavoro esprime solo prime idee, che meritano di essere approfondite. Come è da approfondire un tema che rappresenta forse l’elemento di maggiore originalità: trattasi della qualificazione e descrizione di un mandato a governare, ossia della compatibilità costituzionale (si pensi, in primis, al rapporto con il divieto di mandato imperativo di cui all’art. 67 Cost.) di un compito di governo che, tramite le elezioni, gli elettori affidano ad una determinata maggioranza, e che va ad arricchire il significato del voto rispetto a quello classico della mera rappresentanza delle istanze dei cittadini (e propria del parlamentarismo ottocentesco): riflessi di tali considerazioni si avrebbero inevitabilmente anche rispetto alla concezione del potere di scioglimento, che in siffatta maniera verrebbe percepito come strumento per il ripristino del “circuito di consonanza politica” che in qualche modo si sarebbe venuto a rompere. Ad ogni buon conto, già emergono dei riflessi in questo senso, per cui la strada intrapresa dal candidato pare quella giusta affinchè l’opera risulti completa, ben argomentata ed innovativa.
Resumo:
Benessere delle popolazioni, gestione sostenibile delle risorse, povertà e degrado ambientale sono dei concetti fortemente connessi in un mondo in cui il 20% della popolazione mondiale consuma più del 75% delle risorse naturali. Sin dal 1992 al Summit della Terra a Rio de Janeiro si è affermato il forte legame tra tutela dell’ambiente e riduzione della povertà, ed è anche stata riconosciuta l’importanza di un ecosistema sano per condurre una vita dignitosa, specialmente nelle zone rurali povere dell’Africa, dell’Asia e dell’America Latina. La natura infatti, soprattutto per le popolazioni rurali, rappresenta un bene quotidiano e prezioso, una forma essenziale per la sussistenza ed una fonte primaria di reddito. Accanto a questa constatazione vi è anche la consapevolezza che negli ultimi decenni gli ecosistemi naturali si stanno degradando ad un ritmo impressionate, senza precedenti nella storia della specie umana: consumiamo le risorse più velocemente di quanto la Terra sia capace di rigenerarle e di “metabolizzare” i nostri scarti. Allo stesso modo aumenta la povertà: attualmente ci sono 1,2 miliardi di persone che vivono con meno di un dollaro al giorno, mentre circa metà della popolazione mondiale sopravvive con meno di due dollari al giorno (UN). La connessione tra povertà ed ambiente non dipende solamente dalla scarsità di risorse che rende più difficili le condizioni di vita, ma anche dalla gestione delle stesse risorse naturali. Infatti in molti paesi o luoghi dove le risorse non sono carenti la popolazione più povera non vi ha accesso per motivi politici, economici e sociali. Inoltre se si paragona l’impronta ecologica con una misura riconosciuta dello “sviluppo umano”, l’Indice dello Sviluppo Umano (HDI) delle Nazioni Unite (Cfr. Cap 2), il rapporto dimostra chiaramente che ciò che noi accettiamo generalmente come “alto sviluppo” è molto lontano dal concetto di sviluppo sostenibile accettato universalmente, in quanto i paesi cosiddetti “sviluppati” sono quelli con una maggior impronta ecologica. Se allora lo “sviluppo” mette sotto pressione gli ecosistemi, dal cui benessere dipende direttamente il benessere dell’uomo, allora vuol dire che il concetto di “sviluppo” deve essere rivisitato, perché ha come conseguenza non il benessere del pianeta e delle popolazioni, ma il degrado ambientale e l’accrescimento delle disuguaglianze sociali. Quindi da una parte vi è la “società occidentale”, che promuove l’avanzamento della tecnologia e dell’industrializzazione per la crescita economica, spremendo un ecosistema sempre più stanco ed esausto al fine di ottenere dei benefici solo per una ristretta fetta della popolazione mondiale che segue un modello di vita consumistico degradando l’ambiente e sommergendolo di rifiuti; dall’altra parte ci sono le famiglie di contadini rurali, i “moradores” delle favelas o delle periferie delle grandi metropoli del Sud del Mondo, i senza terra, gli immigrati delle baraccopoli, i “waste pickers” delle periferie di Bombay che sopravvivono raccattando rifiuti, i profughi di guerre fatte per il controllo delle risorse, gli sfollati ambientali, gli eco-rifugiati, che vivono sotto la soglia di povertà, senza accesso alle risorse primarie per la sopravvivenza. La gestione sostenibile dell’ambiente, il produrre reddito dalla valorizzazione diretta dell’ecosistema e l’accesso alle risorse naturali sono tra gli strumenti più efficaci per migliorare le condizioni di vita degli individui, strumenti che possono anche garantire la distribuzione della ricchezza costruendo una società più equa, in quanto le merci ed i servizi dell’ecosistema fungono da beni per le comunità. La corretta gestione dell’ambiente e delle risorse quindi è di estrema importanza per la lotta alla povertà ed in questo caso il ruolo e la responsabilità dei tecnici ambientali è cruciale. Il lavoro di ricerca qui presentato, partendo dall’analisi del problema della gestione delle risorse naturali e dal suo stretto legame con la povertà, rivisitando il concetto tradizionale di “sviluppo” secondo i nuovi filoni di pensiero, vuole suggerire soluzioni e tecnologie per la gestione sostenibile delle risorse naturali che abbiano come obiettivo il benessere delle popolazioni più povere e degli ecosistemi, proponendo inoltre un metodo valutativo per la scelta delle alternative, soluzioni o tecnologie più adeguate al contesto di intervento. Dopo l’analisi dello “stato del Pianeta” (Capitolo 1) e delle risorse, sia a livello globale che a livello regionale, il secondo Capitolo prende in esame il concetto di povertà, di Paese in Via di Sviluppo (PVS), il concetto di “sviluppo sostenibile” e i nuovi filoni di pensiero: dalla teoria della Decrescita, al concetto di Sviluppo Umano. Dalla presa di coscienza dei reali fabbisogni umani, dall’analisi dello stato dell’ambiente, della povertà e delle sue diverse facce nei vari paesi, e dalla presa di coscienza del fallimento dell’economia della crescita (oggi visibile più che mai) si può comprendere che la soluzione per sconfiggere la povertà, il degrado dell’ambiente, e raggiungere lo sviluppo umano, non è il consumismo, la produzione, e nemmeno il trasferimento della tecnologia e l’industrializzazione; ma il “piccolo e bello” (F. Schumacher, 1982), ovvero gli stili di vita semplici, la tutela degli ecosistemi, e a livello tecnologico le “tecnologie appropriate”. Ed è proprio alle Tecnologie Appropriate a cui sono dedicati i Capitoli successivi (Capitolo 4 e Capitolo 5). Queste sono tecnologie semplici, a basso impatto ambientale, a basso costo, facilmente gestibili dalle comunità, tecnologie che permettono alle popolazioni più povere di avere accesso alle risorse naturali. Sono le tecnologie che meglio permettono, grazie alle loro caratteristiche, la tutela dei beni comuni naturali, quindi delle risorse e dell’ambiente, favorendo ed incentivando la partecipazione delle comunità locali e valorizzando i saperi tradizionali, grazie al coinvolgimento di tutti gli attori, al basso costo, alla sostenibilità ambientale, contribuendo all’affermazione dei diritti umani e alla salvaguardia dell’ambiente. Le Tecnologie Appropriate prese in esame sono quelle relative all’approvvigionamento idrico e alla depurazione dell’acqua tra cui: - la raccolta della nebbia, - metodi semplici per la perforazione di pozzi, - pompe a pedali e pompe manuali per l’approvvigionamento idrico, - la raccolta dell’acqua piovana, - il recupero delle sorgenti, - semplici metodi per la depurazione dell’acqua al punto d’uso (filtro in ceramica, filtro a sabbia, filtro in tessuto, disinfezione e distillazione solare). Il quinto Capitolo espone invece le Tecnolocie Appropriate per la gestione dei rifiuti nei PVS, in cui sono descritte: - soluzioni per la raccolta dei rifiuti nei PVS, - soluzioni per lo smaltimento dei rifiuti nei PVS, - semplici tecnologie per il riciclaggio dei rifiuti solidi. Il sesto Capitolo tratta tematiche riguardanti la Cooperazione Internazionale, la Cooperazione Decentrata e i progetti di Sviluppo Umano. Per progetti di sviluppo si intende, nell’ambito della Cooperazione, quei progetti che hanno come obiettivi la lotta alla povertà e il miglioramento delle condizioni di vita delle comunità beneficiarie dei PVS coinvolte nel progetto. All’interno dei progetti di cooperazione e di sviluppo umano gli interventi di tipo ambientale giocano un ruolo importante, visto che, come già detto, la povertà e il benessere delle popolazioni dipende dal benessere degli ecosistemi in cui vivono: favorire la tutela dell’ambiente, garantire l’accesso all’acqua potabile, la corretta gestione dei rifiuti e dei reflui nonché l’approvvigionamento energetico pulito sono aspetti necessari per permettere ad ogni individuo, soprattutto se vive in condizioni di “sviluppo”, di condurre una vita sana e produttiva. È importante quindi, negli interventi di sviluppo umano di carattere tecnico ed ambientale, scegliere soluzioni decentrate che prevedano l’adozione di Tecnologie Appropriate per contribuire a valorizzare l’ambiente e a tutelare la salute della comunità. I Capitoli 7 ed 8 prendono in esame i metodi per la valutazione degli interventi di sviluppo umano. Un altro aspetto fondamentale che rientra nel ruolo dei tecnici infatti è l’utilizzo di un corretto metodo valutativo per la scelta dei progetti possibili che tenga presente tutti gli aspetti, ovvero gli impatti sociali, ambientali, economici e che si cali bene alle realtà svantaggiate come quelle prese in considerazione in questo lavoro; un metodo cioè che consenta una valutazione specifica per i progetti di sviluppo umano e che possa permettere l’individuazione del progetto/intervento tecnologico e ambientale più appropriato ad ogni contesto specifico. Dall’analisi dei vari strumenti valutativi si è scelto di sviluppare un modello per la valutazione degli interventi di carattere ambientale nei progetti di Cooperazione Decentrata basato sull’Analisi Multi Criteria e sulla Analisi Gerarchica. L’oggetto di questa ricerca è stato quindi lo sviluppo di una metodologia, che tramite il supporto matematico e metodologico dell’Analisi Multi Criteria, permetta di valutare l’appropriatezza, la sostenibilità degli interventi di Sviluppo Umano di carattere ambientale, sviluppati all’interno di progetti di Cooperazione Internazionale e di Cooperazione Decentrata attraverso l’utilizzo di Tecnologie Appropriate. Nel Capitolo 9 viene proposta la metodologia, il modello di calcolo e i criteri su cui si basa la valutazione. I successivi capitoli (Capitolo 10 e Capitolo 11) sono invece dedicati alla sperimentazione della metodologia ai diversi casi studio: - “Progetto ambientale sulla gestione dei rifiuti presso i campi Profughi Saharawi”, Algeria, - “Programa 1 milhão de Cisternas, P1MC” e - “Programa Uma Terra e Duas Águas, P1+2”, Semi Arido brasiliano.
Resumo:
“Tecnologie sostenibili per il social housing”: la mia tesi affronta il tema dell’edilizia sociale cercando di capire se può ancora diventare un campo di ricerca e sperimentazione architettonica come lo è stato in più occasioni nell’ultimo secolo. La ricerca si è sviluppata in due fasi: una prima attività di studio della vicenda storica dell’abitazione sociale in Italia, con alcuni confronti europei, fino ad analizzare il nuovo quadro che si è andato delineando dalla fine degli anni ’90 e che caratterizza la situazione attuale. Successivamente, la progettazione di un piccolo intervento di edilizia abitativa che si propone di rispondere agli attuali profili della domanda, puntando a scelte tipologiche e costruttive coerenti. Nel trentennio 1950-’80, nell’Europa uscita dalla Seconda guerra mondiale, e in Italia in particolare, l’edilizia popolare ha vissuto un periodo dinamico, ricco di interventi normativi da parte dello Stato, (su tutte la legge Fanfani, e le norme Gescal) che hanno permesso di realizzare molti degli edifici ancora oggi utilizzati, accelerando la ripresa economica e sociale. Dopo gli anni ’80, le ricerche e le sperimentazioni in campo architettonico si spostano verso altri temi; superata la necessità di fornire una casa a milioni di persone, il tema dell’alloggio sembra perdere il forte rilievo sociale che aveva avuto nei decenni precedenti. Fino a ritenere che il tema dell’alloggio e in particolare dell’alloggio sociale, non avesse più la necessità di essere sperimentato e approfondito. Oggi la situazione riguardante la sperimentazione non è molto diversa: sono ancora molto limitati, infatti, gli studi e le ricerche sul tema dell’alloggio sociale. Ciò che è nuovamente mutata, invece, è l’emergenza di una nuova domanda di casa e la drammatica esigenza sociale di fornire un alloggio a milioni di famiglie che non se lo possono permettere. Le dinamiche che guidano questa nuova ondata di richiesta di alloggi sono molteplici, sia di natura sociale che economica. Sul piano sociale: - l’aumento del numero delle famiglie, passate da 22.226.000 nel 200o a 24.642.000 nel 2010, con un aumento del 9,8% in un solo decennio; - la “nuclearizzazione” delle famiglie e la loro contrazione dimensionale, fino agli attuali 2,4 componenti per nucleo; - l’invecchiamento della popolazione; - l’aumento della popolazione straniera, con oltre 3.900.000 di immigrati regolari. Su quello economico: - l’aumento della povertà assoluta: in Italia 1.162.000 famiglie (4,7%) corrispondenti a 3.074.000 individui vivono sotto la soglia di povertà; - l’aumento della povertà relativa, che investe oggi 2.657.000 famiglie (9,3%) e l’aumento delle famiglie a rischio di povertà (920.000 famiglie, pari al 3,7% dei nuclei). Questi dati evidenziano la dimensione del problema abitativo e smentiscono l’opinione che si tratti di una questione marginale: nel 2010 in Italia almeno 1.162.000 non hanno le risorse per pagare un affitto, nemmeno a canone agevolato, e 4.739.000 famiglie non riescono a pagare un affitto ai prezzi del libero mercato, ma non hanno la possibilità di entrare nelle graduatorie per l’assegnazione di un alloggio sociale. Da questa panoramica sulle dimensioni del disagio abitativo, prende spunto la progettazione del mio sistema costruttivo, che si pone come obiettivo quello di ridurre i costi di costruzione tramite la standardizzazione dei componenti, consentendo di conseguenza, un minor costo di costruzione e quindi la possibilità di canoni di affitto ridotti, mantenendo buoni standard di qualità degli alloggi, sostenibilità ambientale e risparmio energetico. Le linee guida che hanno portato alla progettazione del sistema sono: - modularità degli spazi abitativi - zonizzazione funzionale - razionalizzazione impiantistica - illuminazione naturale - industrializzazione dei sistema costruttivo - standardizzazione dei componenti. Il risultato è un catalogo di alloggi di diverse metrature, aggregabili secondo tre tipologie residenziali. - a ballatoio - in linea - a torre Messo a punto questo sistema costruttivo, è stato progettato un intervento in un contesto specifico, per verificare l’applicabilità delle soluzioni sviluppate ed esplorarne alcune possibilità.
Resumo:
La ricerca approfondisce gli studi iniziati dalla dott.ssa Baldini in occasione della tesi di laurea e amplia le indagini critiche avviate per la mostra sull’Aemilia Ars (2001). La ricerca si è interessata alle aree di Bologna e di Faenza individuando le connessioni che tra Otto e Novecento intercorrono tra la cultura artistica locale e quella nazionale ed europea. Nasce infatti in questo periodo Aemilia Ars, uno dei più innovativi movimenti del contesto nazionale nel campo delle arti decorative. I membri del gruppo, raccoltisi intorno alla carismatica figura di Alfonso Rubbiani nei primi anni Ottanta, sono attratti da influenze nordeuropee e sin dall’inizio si mostrano orientati a seguire precetti ruskiniani e preraffaelliti. Molto importante in entrambe le città, per l’evoluzione dello scenario artistico e artigianale – in questi anni più che mai unite in un rapporto di strettissima correlazione – è l’apporto e il sostegno offerto dai salotti, dai circoli, dai caffè e dai cenacoli locali. Dal punto di vista dello stile, forme lineari con una marcata tendenza all’astrazione caratterizzano la produzione dei principali interpreti faentini e bolognesi dell’ultimo ventennio dell’Ottocento allineandoli con le ricerche dei loro contemporanei nel resto d’Europa. I settori produttivi che si sono indagati sono quelli della ceramica, dell’ebanisteria, dei ferri battuti, dell’oreficeria, delle arti tessili e dei cuoi. Gran parte di queste lavorazioni – attardatesi nella realizzazione di oggetti dalle forme di ispirazione seicentesca, certamente poco adatte alla produzione industriale – subiscono ora una decisa accelerazione verso forme più svelte che, adeguandosi alla possibilità di riproduzione seriale degli oggetti, si diffonderanno quasi capillarmente tra l’aristocrazia e la borghesia, faticando tuttavia a raggiungere le classi meno abbienti a causa degli elevati costi di produzione. Nell’ultima parte viene tracciato sinteticamente il quadro delle attività artistiche e artigianali faentine del periodo indicato, con una particolare attenzione all’opera delle personalità afferenti al Cenacolo baccariniano.
Resumo:
Al giorno d’oggi i combustibili fossili come carbone, olio e gas naturale forniscono più del 75% dell’energia mondiale. Tuttavia, la crescente richiesta di queste fonti di energia non rinnovabili, si manifesta in un momento in cui le riserve naturali si stanno esaurendo; è stato infatti stimato che le riserve petrolifere di tutto il mondo possano essere sufficienti per fornire energia e produrre prodotti chimici per i prossimi quarant’anni. Per questo motivo la conversione delle biomasse per produrre energia e prodotti chimici sta diventando una valida alternativa per diversificare le fonti energetiche e ridurre il surriscaldamento globale. Le biomasse, infatti, oltre ad essere una fonte rinnovabile, generano minori emissioni di gas serra rispetto ai combustibili fossili, perché la CO2 rilasciata nei processi di utilizzo viene bilanciata da quella consumata nel processo di crescita delle biomasse stesse. Lo sfruttamento delle biomasse per la produzione di building blocks per la chimica suscita particolare interesse, poiché le molecole ottenute sono già parzialmente funzionalizzate; ciò significa che la sintesi di prodotti chimici specifici richiede un minor numero di stadi rispetto ai building blocks petroliferi, con conseguente diminuzione di prodotti di scarto e sottoprodotti. Un esempio di queste potenziali “molecole piattaforma” è il 5-idrossimetilfurfurale (HMF), un importante composto derivato dalla disidratazione di zuccheri, intermedio chiave per la sintesi di un’ampia varietà di prodotti chimici e combustibili alternativi, tra cui l’acido 2,5- furandicarbossilico (FDCA), che è stato identificato tra i dodici composti chimici più importanti degli ultimi anni. Per esempio, il FDCA è un possibile sostituto dell’acido tereftalico, usato per produrre il polietilentereftalato (PET). Recentemente alcuni autori hanno riportato interessanti risultati sull’ossidazione dell’HMF a FDCA utilizzando catalizzatori a base di Au supportato. Questi catalizzatori mostrano però significativi problemi di disattivazione. Lo scopo di questo lavoro di tesi è stato quindi lo sviluppo di catalizzatori attivi e stabili nella reazione di ossidazione dell’HMF a FDCA. Il lavoro portato avanti ha avuto come obbiettivi principali: l’ottimizzazione della sintesi di nanoparticelle di oro e oro/rame a diverso rapporto molare, mediante un processo di sintesi, in acqua, a basso impatto ambientale. Tale metodo di sintesi si basa sull’azione riducente del sistema glucosio-NaOH ed è stato messo a punto in lavori di tesi precedenti. Le nanoparticelle sintetizzate sono state utilizzate, quali fase attiva, per la preparazione di catalizzatori supportati su TiO2 e CeO2 lo studio dell’attività catalitica e riusabilità dei catalizzatori preparati nell’ossidazione in fase liquida del HMF a FDCA.
Resumo:
Questa tesi riguarda lo studio della reazione fotoindotta del 9-10 dinitroantracene (DNO2A) ad antrachinone (AQ) con l’ausilio di una tecnica spettroscopica senza precedenti nel campo. Lo studio tramite spettroscopia Raman dei fononi reticolari (variazioni fisiche) e dei modi intramolecolari (variazioni chimiche) di reagente e prodotto, simultaneamente al manifestarsi della reazione, è infatti un metodo potente, diretto, in situ e non distruttivo per studiare una reazione solido-solido che coinvolge spettacolari movimenti micro-meccanici nel cristallo singolo del reagente durante l’irraggiamento. L’ulteriore vantaggio della confocalità amplia ulteriormente il campo di applicazione di questa tecnica, permettendo un’analisi su scala spaziale inferiore al micrometro, con la possibilità di mappature a livello molecolare da confrontare con l’immagine microscopica del campione[9]. Abbiamo inoltre visto che ampie ricostruzioni strutturali avvengono nel corso della reazione. Le conseguenze, a livello microscopico, si riflettono sulla modificazione strutturale della cella elementare; quelle a livello macroscopico mostrano una sorprendente relazione fotone incidente/energia meccanica prodotta. Infine lo studio di questa reazione in celle ad alta pressione ha ampliato il corpo di conoscenze della reazione oggetto della tesi.
Resumo:
Il concetto fondante e le motivazioni alla base di questo lavoro di tesi sono costituiti dalla volontà di analizzare a fondo la problematica energetica ed ambientale, focalizzando l‟indagine sul ruolo delle Fonti Energetiche Rinnovabili e contestualizzandola nel contesto “locale” relativo alla Regione Emilia Romagna: questo lavoro di tesi, infatti, è stato sviluppato nell‟ambito di un progetto di collaborazione stipulato tra Università e Regione Emilia Romagna e si è svolto all‟interno dell‟Assessorato alle Attività Produttive della Regione, lavorando con il “Servizio Politiche Energetiche” emiliano-romagnolo. La crisi energetica (e, contestualmente, la crisi ambientale) rappresenta una problematica al centro del dibattito globale da oltre mezzo secolo, affrontata finora in maniera non organica e realmente efficace dalle nazioni e dagli organismi sovranazionali coinvolti in tale dibattito. Tale tematica è divenuta ancora più pregnante (e la ricerca di una “soluzione” al riguardo, ancora più pressante) negli ultimi anni, in seguito alla deflagrazione di una crisi globale –economica e sociale- che ha intaccato i modelli di crescita e sviluppo (anche tecnologico) conosciuti finora, ponendo di fronte agli occhi dell‟umanità la necessità impellente di ridefinire politiche economiche, ambientali e, conseguentemente, energetiche, caratterizzate da una maggiore sostenibilità globale. La continua crescita della popolazione e il progressivo incremento generalizzato (e disomogeneo) degli standard di vita alimentano con ritmi esponenziali la domanda –e la conseguente produzione- di energia, inevitabilmente correlata (proprio a causa dei modelli di sviluppo seguiti finora) ad un drammatico incremento delle emissioni climalteranti, che continuano a nuocere irreversibilmente alla salubrità del nostro fragile ecosistema. Oltre alla problematica ambientale si aggiunge, con impellenza sempre più marcata, quella relativa alla disponibilità delle principali fonti energetiche (quelle fossili), che si profilano in esaurimento entro lassi temporali che potrebbero divenire drammaticamente prossimi: il “rischio reale” connesso alla prosecuzione di politiche energetiche poggiate sullo sfruttamento intensivo di tali fonti non è tanto connesso all‟eventuale esaurimento assoluto delle risorse stesse, quanto ad una loro progressiva riduzione, tale da renderle viepiù costose e sempre meno convenienti economicamente. Uno scenario di questo tipo si tradurrebbe inevitabilmente in una condizione per la quale solamente i Paesi più ricchi potrebbero usufruire di tali risorse, estremamente costose, mentre i Paesi meno evoluti economicamente rischierebbero di trovarsi nell‟impossibilità di approvvigionarsi, andando incontro a condizioni di deficit energetico: uno scenario inquietante, che però non appare così “ipotetico”, se si tiene conto di come –già ora- siano in aumento segnali di allarme e di conflitto, attivati da localizzate insufficienze energetiche. In un quadro globale di questo tipo le strade risolutive finora riconosciute e percorse dal mondo scientifico, politico ed economico sono sostanzialmente due: - L‟implementazione del risparmio energetico, in un‟ottica di drastica riduzione dei consumi globali; - La “conversione” della produzione energetica (attualmente fondata sulle fonti convenzionali, ossia quelle fossili) verso le cosiddette “Fonti Energetiche Alternative”. Questa seconda direttrice di marcia sembra poter essere quella in grado di reindirizzare verso un orizzonte di maggiore sostenibilità l‟attuale sistema energetico globale, e in quest‟ottica assumono quindi enorme importanza strategica le tecnologie alternative e, prime tra tutte, le Fonti Energetiche Rinnovabili (FER). Queste consentirebbero infatti sia di ridurre l‟impatto ambientale connesso alla produzione energetica da fonti convenzionali, che di implementare politiche di autosufficienza energetica per quei Paesi che attualmente, dal punto di vista del bilancio energetico interno, dipendono in misura marcata dall‟importazione di combustibili fossili dall‟estero. La crisi energetica e il conseguente ruolo chiave delle Fonti Energetiche Rinnovabili è quindi il punto di partenza di questa tesi, che ha voluto confrontarsi con tale problematica globale, misurandosi con le azioni e con i provvedimenti intrapresi al riguardo a livello locale, focalizzando l‟attenzione sulla realtà e sugli sviluppi delle Fonti Energetiche Rinnovabili nella Regione Emilia Romagna. Per sviluppare il lavoro si è proceduto definendo prima di tutto un quadro complessivo della situazione, in termini di problematica energetica e di stato attuale delle Fonti Energetiche Rinnovabili, scendendo progressivamente nel dettaglio: partendo da una fotografia a livello mondiale, quindi europeo, successivamente italiano (basandosi sui dati di pubblicazioni italiane ed estere, di enti competenti in materia come Terna, il GSE o l‟Enea per l‟Italia, e l‟IEA, l‟EIA, l‟UE per l‟Europa e il resto del mondo). Nella terza parte della tesi si è scesi al dettaglio di questo stato attuale delle Fonti Energetiche Rinnovabili a livello Regionale (Emiliano-Romagnolo) e Provinciale (le nove Province della Regione): per procedere alla definizione di questo quadro la “tecnica operativa” è consistita in una raccolta dati effettuata in collaborazione con il ”Servizio Politiche Energetiche” della Regione Emilia Romagna, estesa alle 9 Province e ai 348 Comuni del territorio emiliano-romagnolo. La richiesta di dati avanzata è stata relativa agli impianti alimentati da fonte energetica rinnovabile in esercizio e a quelli in fase di valutazione sul territorio afferente all‟Ente considerato. Il passo successivo è consistito nell‟aggregazione di questi dati, nella loro analisi e nella definizione di un quadro organico e coerente, relativo allo stato attuale (Ottobre 2010) delle Fonti Energetiche Rinnovabili sul territorio emiliano-romagnolo, tale da permettere di realizzare un confronto con gli obiettivi definiti per le FER all‟interno dell‟ultimo Piano Energetico Regionale e con lo stato delle FER nelle altre Regioni italiane. Sono stati inoltre realizzati due “Scenari”, relativi all‟evoluzione stimata del parco “rinnovabile” emiliano-romagnolo, definiti al 2012 (“Breve Termine”) e al 2015 (“Medio Termine”). I risultati ottenuti hanno consentito di verificare come, nell‟orizzonte “locale” emiliano-romagnolo, il sistema globale connesso alle Fonti Energetiche Rinnovabili abbia attecchito e si sia sviluppato in misura marcata: gli obiettivi relativi alle FER definiti nel precedente Piano Energetico Regionale sono infatti stati sostanzialmente raggiunti in toto. Dalla definizione degli “Scenari” previsionali è stato possibile stimare l‟evoluzione futura del parco “rinnovabile” emilianoromagnolo, verificando come questo risulti essere in continua crescita e risulti “puntare” su due fonti rinnovabili in maniera particolare: la fonte fotovoltaica e la fonte a biocombustibili. Sempre dall‟analisi degli “Scenari” previsionali è stato possibile stimare l‟evoluzione delle singole tecnologie e dei singoli mercati rinnovabili, verificando limiti allo sviluppo (come nel caso della fonte idroelettrica) o potenziali “espansioni” molto rilevanti (come nel caso della fonte eolica). Il risultato finale di questo lavoro di tesi è consistito nel poter definire dei nuovi obiettivi, relativi alle differenti Fonti Energetiche, da potersi inserire all‟interno del prossimo Piano Energetico Regionale: l‟obiettivo “complessivo” individua –avendo il 2015 come orizzonte temporale- una crescita incrementale delle installazioni alimentate da FER pari a 310 MWe circa. Questo lavoro di tesi è stato ovviamente organizzato in più “Parti”, ciascuna ulteriormente suddivisa in “Capitoli”. Nella “Prima Parte”, costituita dai primi 4 Capitoli, si è proceduto ad introdurre la problematica energetica e il contesto in cui si muovono le decisioni e le politiche (comunitarie, nazionali e sovra-nazionali) destinate a trovare soluzioni e risposte: Il Primo Capitolo, introduttivo, definisce prima di tutto gli “strumenti” e i concetti che verranno successivamente richiamati più volte nel resto della Tesi, partendo dal concetto di “energia”, definito sia “concettualmente” che attraverso le unità di misura utilizzate per quantificarlo. Il passo successivo è stato quello di contestualizzare l‟evoluzione dello sfruttamento di questa “risorsa”, in relazione allo sviluppo delle tecnologie e delle stesse condizioni di vita umane, così da definire un background storico per le considerazioni introdotte nel Capitolo successivo. Il Secondo Capitolo, infatti, introduce la problematica attuale (ma mutuata dal background storico evidenziato in precedenza) della “crisi energetica” e della “crisi ambientale” ad essa correlata, considerandone gli aspetti prima di tutto globali, connessi a considerazioni di natura sociale, demografica e –conseguentemente economica e sociale: all‟interno di questa analisi, vengono citati anche gli scenari previsionali elaborati da numerosi enti di ricerca e istituzioni, coinvolti su più livelli nell‟ottica di riuscire ad individuare una “risposta” alle problematiche sollevate dallo sfruttamento intensivo della risorsa energetica per vie convenzionali. Tale risposta è rappresentata dalle normative sovranazionali, europee e italiane varate nell‟ottica di attuare una “transizione etica” in materia di sviluppo sostenibile, impatto ambientale e sfruttamento energetico: un presupposto imprescindibile per la transizione energetica sostenibile è proprio l‟impegno a livello locale (quindi anche e prima di tutto di istituzioni quali, in Italia, le Regioni, le Province e i Comuni), senza il quale difficilmente si potranno raggiungere traguardi avanzati, che implicano anche un sostanziale cambio di mentalità. Nell‟ottica di approfondire ulteriormente il contesto all‟interno del quale vengono adottate azioni e intrapresi provvedimenti utili a concretizzare risposte a livello italiano –nazionale e locale- il Terzo Capitolo introduce il tema delle “politiche energetiche sostenibili”, partendo dalla definizione dell‟attuale condizione Italiana (in termini di inquinamento atmosferico e di sfruttamento intensivo della risorsa energetica, nonché di scenari previsionali), per definire successivamente le politiche nazionali per le fonti rinnovabili, per il settore dei trasporti, del riscaldamento e del raffreddamento, della pianificazione energetica e della generazione distribuita. Il Capitolo introduce anche il tema degli interventi in ambito di fiscalità energetica (“Certificati Verdi”, “Certificati Bianchi” e il “Conto Energia”). Proprio per definire al meglio i meccanismi di incentivazione, il Quarto Capitolo esplicita (facendo riferimento alla documentazione pubblicata da enti quali GSE, Terna, GRTN) il meccanismo del cosiddetto “mercato elettrico” e degli scambi che vi avvengono, in modo tale da comprendere come i metodi di incentivazione alle fonti alternative che si appoggiano su interventi di fiscalità energetica, riescano ad avere –o meno- presa sul sistema. La “Seconda Parte” (costituita dai Capitoli dal 5° al 13°) è invece dedicata al necessario approfondimento sullo stato delle Fonti Energetiche Rinnovabili (FER): in ogni capitolo è stato infatti approfondita la condizione attuale delle principali FER (fonte a Biocombustibili, Eolica, Geotermica, Idraulica, Solare Fotovoltaica, Solare Termica, Solare Termodinamica). Tale approfondimento è stato condotto in termini di sviluppo della tecnologia, incidenza e contributo della singola FER sui bilanci elettrici (considerando prima il quadro mondiale, quindi quello europeo, per scendere infine al dettaglio italiano). Nella parte finale di ogni capitolo sono state riportate anche le principali criticità riscontrate per ogni fonte presa in considerazione, oltre che gli scenari previsionali stimati considerandone i potenziali sviluppi, in un‟ottica di medio termine e di lungo termine. La “Terza Parte” (comprendente i Capitoli dal 14° al 22°) di questa Tesi raccoglie invece il lavoro svolto e i risultati ottenuti e permette di definire lo stato attuale e gli scenari previsionali (a breve termine e a medio termine) per le Fonti Energetiche Rinnovabili nella Regione Emilia Romagna, con un livello di dettaglio sia Regionale che Provinciale. Il lavoro, come detto, è consistito nella raccolta dati effettuata presso gli enti di “governo territoriale” emiliano-romagnoli (la Regione, le 9 Province e i 348 Comuni) e nella successiva aggregazione, elaborazione e interpretazione di questi stessi dati. I Capitoli dal 15° al 19° definiscono lo stato attuale (all‟Ottobre 2010) e gli scenari previsionali (a breve termine e medio termine) per le differenti FER (rispettivamente, Biocombustibili, Eolica, Fotovoltaica, Geotermica e Idroelettrica), prima a livello Provinciale, quindi a livello Regionale. Nella conclusione di ogni Capitolo è contenuto un confronto con lo stato della FER presa in considerazione relativo agli anni precedenti, oltre che il confronto con gli obiettivi definiti per la tecnologia al 2010 dal precedente Piano Energetico Regionale. Questi Capitoli si chiudono con l‟analisi del trend storico della Fonte Energetica Rinnovabile considerata e con la conseguente individuazione dei potenziali obiettivi al 2012 e al 2015 da inserire nel prossimo Piano Energetico Regionale. E‟ presente anche l‟evoluzione stimata del “mercato” della singola FER presa in considerazione, oltre che della “tipologia tecnologica” sulla quale gli installatori e gli investitori tenderanno ad orientarsi sia nel breve che nel medio termine. I Capitoli 20°, 21° e 22° contengono invece lo stato “riassuntivo” delle Fonti Energetiche Rinnovabili, definite per il panorama emiliano-romagnolo (anche in questo caso, prima a livello Provinciale, successivamente a livello regionale) sotto un‟ottica temporale differente: il Capitolo 20° riassume lo stato attuale del parco “rinnovabile” complessivo emiliano-romagnolo, definendone l‟evoluzione storica e confrontandolo con gli obiettivi fissati al 2010 dal precedente Piano Energetico regionale, permettendo così di verificare –nel complesso- se le stime del 2004 erano state corrette. Il Capitolo 21° definisce l‟evoluzione del parco “rinnovabile” complessivo emiliano-romagnolo al 2012, sia a livello Provinciale che Regionale, definendone in questo modo un trend stimato di crescita e dei conseguenti obiettivi di breve termine, riferiti alle singole FER. Il Capitolo 22° definisce infine l‟evoluzione del parco “rinnovabile” complessivo emiliano-romagnolo al 2015 (ancora una volta, sia a livello Provinciale che Regionale) permettendo così di ricavare un trend stimato di crescita e, soprattutto, gli obiettivi di medio termine -riferiti alle singole FER- da inserire all‟interno del prossimo Piano Energetico Regionale. La conclusione permette di chiudere sinteticamente il lavoro svolto in precedenza, traendo le indicazioni più rilevanti dai dati e dalle considerazioni pregresse: come si evincerà, l‟Emilia Romagna risulta una Regione in cui gli obiettivi rinnovabili (e di “conversione energetica”) sono stati sostanzialmente raggiunti e, in alcuni casi, perfino superati. Il mercato rinnovabile è in crescita e le politiche locali e sovra locali evidenziano una marcata volontà di puntare prevalentemente su settori e tecnologie quali quella della biomassa e quella solare fotovoltaica. Nonostante questo, si evidenzia anche la necessità di lavorare a livello di enti regionali e provinciali, per omogeneizzare ulteriormente la distribuzione energetica “rinnovabile” sul territorio (implementando lo sviluppo di determinate fonti su distretti territoriali al momento non ancora raggiunti da tali mercati) e per provvedere ad una riduzione dei consumi energetici che consenta alle FER di avere una maggiore incidenza sui bilanci energetici ed elettrici, locali e regionali. Si ricorda che la “costruzione” di questa tesi è stata sviluppata parallelamente ad un‟attività di stage presso il settore Politiche energetiche dell‟Assessorato alle Attività Produttive della Regione Emilia – Romagna, che in questa fase sta procedendo alla definizione del nuovo Piano Energetico Regionale, e alla conseguente individuazione d
Resumo:
Sperm cells need hexoses as a substrate for their function, for both the maintenance of membrane homeostasis and the movement of the tail. These cells have a peculiar metabolism that has not yet been fully understood, but it is clear that they obtain energy from hexoses through glycolisis and/or oxidative phosphorylation. Spermatozoa are in contact with different external environments, beginning from the testicular and epididymal fluid, passing to the seminal plasma and finally to the female genital tract fluids; in addition, with the spread of reproductive biotechnologies, sperm cells are diluted and stored in various media, containing different energetic substrates. To utilize these energetic sources, sperm cells, as other eukaryotic cells, have a well-constructed protein system, that is mainly represented by the GLUT family proteins. These transporters have a membrane-spanning α-helix structure and work as an enzymatic pump that permit a fast gradient dependent passage of sugar molecules through the lipidic bilayer of sperm membrane. Many GLUTs have been studied in man, bull and rat spermatozoa; the presence of some GLUTs has been also demonstrated in boar and dog spermatozoa. The aims of the present study were - to determine the presence of GLUTs 1, 2, 3, 4 and 5 in boar, horse, dog and donkey spermatozoa and to describe their localization; - to study eventual changes in GLUTs location after capacitation and acrosome reaction in boar, stallion and dog spermatozoa; - to determine possible changes in GLUTs localization after capacitation induced by insulin and IGF stimulation in boar spermatozoa; - to evaluate changes in GLUTs localization after flow-cytometric sex sorting in boar sperm cells. GLUTs 1, 2, 3 and 5 presence and localization have been demonstrated in boar, stallion, dog and donkey spermatozoa by western blotting and immunofluorescence analysis; a relocation in GLUTs after capacitation has been observed only in dog sperm cells, while no changes have been observed in the other species examined. As for boar, the stimulation of the capacitation with insulin and IGF didn’t cause any change in GLUTs localization, as well as for the flow cytometric sorting procedure. In conclusion, this study confirms the presence of GLUTs 1, 2 ,3 and 5 in boar, dog, stallion and donkey spermatozoa, while GLUT 4 seems to be absent, as a confirmation of other studies. Only in dog sperm cells capacitating conditions induce a change in GLUTs distribution, even if the physiological role of these changes should be deepened.
Resumo:
Il presente studio ha come obiettivi l’analisi, la modellazione numerica e la caratterizzazione del rischio idrogeologico di due siti dell’Appennino bolognese interessati negli ultimi due anni da colate detritiche, Serraglio (Comune di Castiglione dei Pepoli) e Chiapporato (Comune di Camugnano). Lo studio è stato condotto in collaborazione con il Servizio Tecnico di Bacino Reno della Regione Emilia-Romagna, che ha reso disponibile la documentazione relativa ai due eventi analizzati. I predetti eventi possono esser definiti “anomali” in relazione sia alla loro collocazione – essendo il fenomeno delle colate detritiche diffuso principalmente in aree montuose caratterizzate da un’altitudine media rilevante, come l’arco alpino – sia al fatto che non sono né catalogati né ricordati a memoria d’uomo eventi, in tali località, precedenti a quelli in esame. Il rischio idrogeologico, indotto dalla possibilità non remota di nuovi eventi, è dato non dal volume o dall’area interessata dai fenomeni, ma piuttosto dall’estrema velocità caratterizzante le colate detritiche, appunto definite come manifestazioni parossistiche lungo la rete idrografica secondaria con trasporto in massa di sedimenti. L’analisi effettuata ha anche fornito l’occasione per effettuare un confronto tra due realtà, quella di Serraglio e quella di Chiapporato, accomunate dalla stessa tipologia di evento, ma differenti in relazione all’uso del suolo, alle caratteristiche geomorfologiche e alle modalità di propagazione nel corso dell’evento. L’abitato di Serraglio, sito nella frazione di Baragazza, è stato colpito da una colata detritica il 20 gennaio 2009. Da un punto di vista geologico e geomorfologico la località è sovrastata da un versante boscato notevolmente acclive, caratterizzato dall’affioramento della cosiddetta Formazione di Cervarola: tali rocce, appartenenti alla categoria delle arenarie e solitamente presenti in strati compatti, in seguito alla naturale degradazione dovuta agli agenti atmosferici hanno dato luogo ad un detrito composto da blocchi e ciottoli di varia dimensione immersi in una matrice sabbiosa. Il distacco è avvenuto proprio in questo materiale detritico, reso instabile dal notevole apporto pluviometrico verificatosi nei giorni precedenti. La colata, sviluppatasi in seguito alla fluidificazione del materiale coinvolto in uno scivolamento di detrito di ridotta volumetria, si è incanalata in uno dei rii effimeri che drenano il versante con traiettorie tra loro pseudo parallele. Il debris flow, accelerato da un dislivello complessivo di 125 m, ha poi raggiunto due abitazioni, fortunatamente non abitate al momento dell’evento, depositando uno spessore detritico di oltre 1,5 m nella zona di transito prima di proseguire verso valle nella sua frazione più fine, incanalandosi di fatto lungo lo stradello asfaltato di accesso alle abitazioni e interessando la strada provinciale che collega Castiglione dei Pepoli all’uscita autostradale di Roncobilaccio. Da un punto di vista meteo-climatico il mese di gennaio 2009 è stato caratterizzato da precipitazioni fortemente superiori alla media, accompagnate da una ridotta insolazione. La continua oscillazione dello zero termico tra 0 e 900 m ha dato luogo alla formazione di uno spessore nivale al suolo di circa 20 cm tre giorni prima dell’evento e poi al suo rapido scioglimento contestualmente all’aumento termico, dato dalla risalita di aria calda umida di origine africana, accompagnata da quella perturbazione che ha poi di fatto innescato il fenomeno. Nelle 48 ore precedenti l’evento sono stati registrati apporti nivo-pluviometrici corrispondenti ad oltre 130 mm, che hanno causato la completa saturazione del detrito superficiale, l’innesco dello scivolamento di detrito e la sua successiva fluidificazione. Il distacco del materiale detritico, la sua movimentazione e la notevole erosione che ha caratterizzato l’alveo del rio durante il fenomeno – quantificata mediamente in 20 cm – sono state favorite dalle mediocri condizioni di salute del castagneto che copre il versante interessato dall’evento: la totale assenza di manutenzione e l’abbandono della coltivazione “a pali” del bosco hanno inibito la naturale funzione stabilizzante del boscato, trasformatosi da fattore inibente a fattore predisponente il fenomeno. La seconda colata detritica analizzata ha invece interessato la strada comunale che collega la frazione di Stagno all’abitato di Chiapporato, splendida borgata cinquecentesca, frequentata soprattutto da turisti ed escursionisti durante la stagione estiva. Il versante sede della colata, occorsa in data 8 novembre 2010, è caratterizzato da numerosi affioramenti della cosiddetta Formazione di Stagno, arenarie intervallate da strati marnoso-pelitici. Tale litotipo, soggetto alla naturale degradazione indotta dagli agenti atmosferici, origina un detrito composto da massi e ciottoli, raccoltisi, nell’area in esame, in un canalone posto ai piedi di una scarpata pseudo verticale delimitante il pianoro di “Val di Sasso”. Tale materiale detritico è stato poi fluidificato dalle abbondanti piogge, depositando, dopo oltre 320 metri di dislivello, circa un metro di detrito sul piano stradale per poi proseguire la sua corsa verso il Torrente Limentra e il Bacino di Suviana. L’evento è stato innescato da precipitazioni intense e persistenti che hanno depositato al suolo oltre 69 mm di pioggia in 25 ore. Nel mese precedente il fenomeno sono stati misurati oltre 530 mm di pioggia, quantitativi superiori alla media climatologica, che hanno sicuramente accelerato anche la degradazione della scarpata e l’accumulo di detriti nell’area sorgente. Le colate sopra descritte sono state poi simulate utilizzando il modello DAN-W (Dynamic ANalysis) del prof. Oldrich Hungr della University of British Columbia (Canada). Tale modello si basa su una discretizzazione della massa movimentata tramite il metodo degli “elementi di contorno” e sulla soluzione alle differenze finite di tipo Lagrangiano dell’equazione di De Saint Venant. L’equazione del moto, integrata verticalmente, è applicata a colonne strette di flusso (elementi di contorno). L’equazione di continuità è invece risolta riferendosi agli elementi di massa delimitati dai predetti elementi di contorno. Il numero di incognite principali eguaglia il numero di equazioni disponibili ed il problema è quindi completamente determinato. Gli altri parametri caratterizzanti la colata sono determinati tramite interpolazioni basate sull’ipotesi che sia la superficie del flusso sia quella della traiettoria siano ragionevolmente lisce. La soluzione è esplicita ed avviene per step temporali successivi. Al fine della determinazione dei parametri l’utilizzatore ha la possibilità di scegliere tra vari modelli reologici, quantificanti il termine di resistenza caratterizzante il moto. Su indicazione dell’autore del modello sono stati utilizzati il modello frizionale e quello di Voellmy, che, in casi simili, forniscono risultati più realistici (in relazione alla modellizzazione di colate di detrito). I parametri utilizzati per la calibrazione sono lo spessore di detrito depositato sul piano stradale, nel caso di Chiapporato, e a tergo della prima abitazione investita dalla colata nel caso di Serraglio, unitamente alla massima distanza raggiunta dai detriti. I risultati ottenuti utilizzando il modello reologico frizionale mostrano profili di velocità scarsamente rappresentativi, con una costante sovrastima della stessa, a fronte di una migliore capacità descrittiva degli spessori accumulatisi. Il modello di Voellmy ha invece prodotto andamenti di velocità più realistici, confrontabili con i valori forniti dalla letteratura internazionale, riuscendo al contempo a quantificare con precisione l’accumulo di detrito rilevato a seguito degli eventi. I valori dei parametri utilizzati nella modellazione sono stati ricavati dalle indicazioni dell’autore del modello affiancate dai range resi disponibili dalla letteratura. Entrambe le caratterizzazioni reologiche sono poi state oggetto di un’analisi di sensitività ai fini di quantificare il peso dei parametri utilizzati. Il modello frizionale si è rivelato particolarmente sensibile all’andamento del coefficiente di attrito basale e al coefficiente di pressione dei pori, con un lieve preponderanza del primo, mentre il modello reologico di Voellmy si è mostrato fortemente influenzato dal coefficiente di turbolenza e dal coefficiente di attrito, pressoché paritari nell’effettivo condizionamento dei risultati. Gli output ottenuti simulando l’evento di Serraglio sono risultati generalmente meno realistici di quelli ricavati nel caso di Chiapporato: ciò è probabilmente dovuto alle caratteristiche reologiche proprie del fenomeno occorso a Serraglio, classificabile come un ibrido tra un mud flow e un debris flow. Sono state infine avanzate proposte di intervento e di monitoraggio dei siti indagati, al fine di una mitigazione del rischio idrogeologico gravante sulle aree esaminate. Il caso di Serraglio presenta, a parere dello scrivente, un rischio idrogeologico più elevato, se paragonato a quello presente a Chiapporato, dati la vicinanza ad un centro abitato e lo status quo caratterizzante il versante sede del dissesto. Nei circa 18 mesi trascorsi dopo l’evento è stato possibile rilevare un progressivo ampliamento della nicchia di distacco dello scivolamento, poi evolutosi in colata con andamento tipicamente retrogressivo. Lo stato della vegetazione permane in condizioni problematiche, con frequenti ribaltamenti e sradicamenti (processi noti in letteratura come chablis) dei castagni presenti, con un conseguente aumento dell’erosione superficiale del versante e l’apporto detritico all’interno del rio. Tale detrito è poi trattenuto all’interno dell’alveo da una serie di briglie naturali formatesi a seguito della caduta di varie piante all’interno del canale stesso a causa del passaggio del debris flow o a fenomeni di chablis. La forte sovraescavazione occorsa in occasione della colata ha poi favorito l’innesco di una serie di piccoli scivolamenti superficiali confluenti nel rio stesso, anch’essi apportatori di detrito, ingrediente principale per un nuovo debris flow. È inoltre da notare come la zona di runout è tuttora parzialmente occupata dal detrito depositatosi a seguito dell’evento: tale configurazione, causando di fatto una riduzione della potenziale area di “sfogo” di un nuovo debris flow, acuisce il rischio di un’estensione areale verso valle degli effetti di un nuovo fenomeno, con un conseguente possibile maggior coinvolgimento dell’abitato di Serraglio. È stato quindi proposto di attuare un’adeguata regimazione dell’area boschiva caratterizzante il versante, unitamente ad una regimazione fluviale del rio, tramite la realizzazione di briglie in legno e pietrame – essendo l’area non cantierabile – e la rimozione degli accumuli detritici in seno all’alveo stesso. La nicchia di distacco principale e le nicchie secondarie dovranno poi essere oggetto di opportuna stabilizzazione. Più a valle è stata suggerita la rimozione dell’accumulo detritico presente nell’area di runout e la realizzazione di un’adeguata opera di ricezione delle acque del rio e di eventuali nuove colate: a tal fine si è ipotizzato il ripristino dell’antico alveo, successivamente deviato e tombato per permettere l’edificazione dell’abitazione poi investita dalla colata. È stato inoltre proposto un monitoraggio attraverso l’installazione di un pluviometro, tarato con opportune soglie di allarme, dotato di datalogger e modem GPRS al fine di comunicare in tempo reale, ai tecnici incaricati e agli abitanti, un eventuale superamento della soglia di allarme. Il caso di Chiapporato è invece caratterizzato da problematiche connesse al rischio idrogeologico meno rilevanti di quelle presenti a Serraglio. Ciò è dovuto allo scarso traffico caratterizzante la strada comunale e all’assenza di altri edifici o infrastrutture potenzialmente coinvolgibili da un nuovo evento. La probabilità del verificarsi di una nuova colata è però concreta, considerata la forte erosione caratterizzante il versante: trascorsi sei mesi dall’evento, è stato possibile rilevare nell’area sorgente un accumulo medio di detrito di circa mezzo metro di spessore. Le cause del dissesto, a differenza di Serraglio, non sono in alcun modo imputabili all’azione antropica: si tratta infatti della naturale evoluzione del versante sovrastante il piano stradale. Si propone quindi la collocazione di cartelli stradali indicanti il pericolo di caduta massi e colate detritiche agli automobilisti e ai pedoni, unitamente all’installazione di un cavo a strappo posto lungo l’alveo torrentizio collegato ad un semaforo dislocato nei pressi del guado della strada comunale sul rio Casale. L’eventuale verificarsi di un nuovo evento comporterebbe la lacerazione del cavo installato e l’attivazione del semaforo – e di un eventuale allarme acustico – con conseguente inibizione del traffico stradale in occasione del transito del debris flow. Nel contesto geologico e geomorfologico dell’Appennino tosco-emiliano i debris flow rappresentano una tipologia di dissesto da frana poco diffusa, ma comunque potenzialmente presente nelle aree dove i processi di alterazione e degradazione degli ammassi rocciosi affioranti generino accumuli di detrito e in condizioni morfologiche caratterizzate da elevate pendenze dei versanti. Questo studio ha permesso di approfondire la conoscenza di questi fenomeni, che presentano una magnitudo notevolmente inferiore rispetto al contesto alpino, ma la cui interferenza con l’attività antropica acuisce notevolmente il rischio idrogeologico nelle zone interessate. Si sottolinea, inoltre, che nell’attuale contesto climatico caratterizzato da sempre più frequenti piogge brevi ed intense ed eventi cosiddetti di rain on snow, la frequenza sia temporale che spaziale di tali fenomeni di dissesto appare destinata ad aumentare, anche in aree in precedenza non interessate.
Resumo:
PRESUPPOSTI: Le tachicardie atriali sono comuni nei GUCH sia dopo intervento correttivo o palliativo che in storia naturale, ma l’incidenza è significativamente più elevata nei pazienti sottoposti ad interventi che prevedono un’estesa manipolazione atriale (Mustard, Senning, Fontan). Il meccanismo più frequente delle tachicardie atriali nel paziente congenito adulto è il macrorientro atriale destro. L’ECG è poco utile nella previsione della localizzazione del circuito di rientro. Nei pazienti con cardiopatia congenita sottoposta a correzione biventricolare o in storia naturale il rientro peritricuspidale costituisce il circuito più frequente, invece nei pazienti con esiti di intervento di Fontan la sede più comune di macrorientro è la parete laterale dell’atrio destro. I farmaci antiaritmici sono poco efficaci nel trattamento di tali aritmie e comportano un’elevata incidenza di effetti avversi, soprattutto l’aggravamento della disfunzione sinusale preesistente ed il peggioramento della disfunzione ventricolare, e di effetti proaritmici. Vari studi hanno dimostrato la possibilità di trattare efficacemente le IART mediante l’ablazione transcatetere. I primi studi in cui le procedure venivano realizzate mediante fluoroscopia tradizionale, la documentazione di blocco di conduzione translesionale bidirezionale non era routinariamente eseguita e non tutti i circuiti di rientro venivano sottoposti ad ablazione, riportano un successo in acuto del 70% e una libertà da recidiva a 3 anni del 40%. I lavori più recenti riportano un successo in acuto del 94% ed un tasso di recidiva a 13 mesi del 6%. Questi ottimi risultati sono stati ottenuti con l’utilizzo delle moderne tecniche di mappaggio elettroanatomico e di cateteri muniti di sistemi di irrigazione per il raffreddamento della punta, inoltre la dimostrazione della presenza di blocco di conduzione translesionale bidirezionale, l’ablazione di tutti i circuiti indotti mediante stimolazione atriale programmata, nonché delle sedi potenziali di rientro identificate alla mappa di voltaggio sono stati considerati requisiti indispensabili per la definizione del successo della procedura. OBIETTIVI: riportare il tasso di efficia, le complicanze, ed il tasso di recidiva delle procedure di ablazione transcatetere eseguite con le moderne tecnologie e con una rigorosa strategia di programmazione degli obiettivi della procedura. Risultati: Questo studio riporta una buona percentuale di efficacia dell’ablazione transcatetere delle tachicardie atriali in una popolazione varia di pazienti con cardiopatia congenita operata ed in storia naturale: la percentuale di successo completo della procedura in acuto è del 71%, il tasso di recidiva ad un follow-up medio di 13 mesi è pari al 28%. Tuttavia se l’analisi viene limitata esclusivamente alle IART il successo della procedura è pari al 100%, i restanti casi in cui la procedura è stata definita inefficace o parzialmente efficace l’aritmia non eliminata ma cardiovertita elettricamente non è un’aritmia da rientro ma la fibrillazione atriale. Inoltre, sempre limitando l’analisi alle IART, anche il tasso di recidiva a 13 mesi si abbassa dal 28% al 3%. In un solo paziente è stato possibile documentare un episodio asintomatico e non sostenuto di IART al follow-up: in questo caso l’aspetto ECG era diverso dalla tachicardia clinica che aveva motivato la prima procedura. Sebbene la diversa morfologia dell’attivazione atriale all’ECG non escluda che si tratti di una recidiva, data la possibilità di un diverso exit point del medesimo circuito o di un diverso senso di rotazione dello stesso, è tuttavia più probabile l’emergenza di un nuovo circuito di macrorientro. CONCLUSIONI: L'ablazione trancatetere, pur non potendo essere considerata una procedura curativa, in quanto non in grado di modificare il substrato atriale che predispone all’insorgenza e mantenimento della fibrillazione atriale (ossia la fibrosi, l’ipertrofia, e la dilatazione atriale conseguenti alla patologia e condizione anatomica di base)è in grado di assicurare a tutti i pazienti un sostanziale beneficio clinico. È sempre stato possibile sospendere l’antiaritmico, tranne 2 casi, ed anche nei pazienti in cui è stata documentata una recidiva al follow-up la qualità di vita ed i sintomi sono decisamente migliorati ed è stato ottenuto un buon controllo della tachiaritmia con una bassa dose di beta-bloccante. Inoltre tutti i pazienti che avevano sviluppato disfunzione ventricolare secondaria alla tachiaritmia hanno presentato un miglioramento della funzione sistolica fino alla normalizzazione o al ritorno a valori precedenti la documentazione dell’aritmia. Alla base dei buoni risultati sia in acuto che al follow-up c’è una meticolosa programmazione della procedura e una rigorosa definizione degli endpoint. La dimostrazione del blocco di conduzione translesionale bidirezionale, requisito indispensabile per affermare di aver creato una linea continua e transmurale, l’ablazione di tutti i circuiti di rientro inducibili mediante stimolazione atriale programmata e sostenuti, e l’ablazione di alcune sedi critiche, in quanto corridoi protetti coinvolti nelle IART di più comune osservazione clinica, pur in assenza di una effettiva inducibilità periprocedurale, sono obiettivi necessari per una procedura efficace in acuto e a distanza. Anche la disponibilità di moderne tecnologie come i sistemi di irrigazione dei cateteri ablatori e le metodiche di mappaggio elettroanantomico sono requisiti tecnici molto importanti per il successo della procedura.