904 resultados para proposta di traduzione dal francese
Resumo:
La presente dissertazione si apre con l’analisi della costa dell’Emilia Romagna, in particolare quella antistante la città di Cesenatico. Nel primo capitolo si è voluto fare un breve inquadramento delle problematiche che affliggono le acque costiere a debole ricambio. Il Mare Adriatico e in particolare le acque costiere, ormai da più di trent’anni, sono afflitti da una serie di problemi ambientali correlati all’inquinamento. Sulla costa romagnola, già verso la metà degli anni settanta, le prime estese morie di organismi viventi acquatici avevano posto sotto gli occhi dell’opinione pubblica l’insorgenza di situazioni drammatiche per l’ambiente, per la salute pubblica e per due importanti settori dell’economia regionale e nazionale quali il turismo e la pesca. Fino ad allora aveva dominato la diffusa convinzione che la diluizione nell’enorme quantità di acqua disponibile avrebbe consentito di immettere nel mare quantità crescenti di sostanze inquinanti senza intaccare in misura apprezzabile la qualità delle acque. Questa teoria si rivelò però clamorosamente errata per i mari interni con scarso ricambio di acqua (quali per esempio il Mare Adriatico), perché in essi le sostanze che entrano in mare dalla terraferma si mescolano per lungo tempo solo con un volume limitato di acqua antistante la costa. Solo se l’immissione di sostanze organiche è limitata, queste possono essere demolite agevolmente attraverso processi di autodepurazione per opera di microrganismi naturalmente presenti in mare. Una zona molto critica per questo processo è quella costiera, perché in essa si ha la transizione tra acque dolci e acque salate, che provoca la morte sia del plancton d’acqua dolce che di quello marino. Le sostanze estranee scaricate in mare giungono ad esso attraverso tre vie principali: • dalla terraferma: scarichi diretti in mare e scarichi indiretti attraverso corsi d’acqua che sfociano in mare; • da attività svolte sul mare: navigazione marittima e aerea, estrazione di materie prime dai fondali e scarico di rifiuti al largo; • dall’atmosfera: tramite venti e piogge che trasportano inquinanti provenienti da impianti e attività situati sulla terraferma. E’ evidente che gli scarichi provenienti dalla terraferma sono quelli più pericolosi per la salvaguardia delle acque costiere, in particolare vanno considerati: gli scarichi civili (enormemente accresciuti nel periodo estivo a causa del turismo), gli scarichi agricoli e gli scarichi industriali. Le sostanze estranee scaricate in mare contengono una grande abbondanza di sali nutrienti per i vegetali (in particolare nitrati e fosfati) che provengono dai concimi chimici, dai residui del trattamento biologico negli impianti di depurazione e dall’autodepurazione dei fiumi. Queste sostanze una volta giunte in mare subiscono un nuovo processo di autodepurazione che genera ulteriori quantità di nutrienti; i sali di fosforo e azoto così formati si concentrano soprattutto nelle acque basse e ferme della costa e vengono assimilati dalle alghe che possono svilupparsi in modo massivo: tale fenomeno prende il nome di eutrofizzazione. La produzione eccessiva di biomasse vegetali pone seri problemi per la balneazione in quanto può portare a colorazioni rossastre, brune, gialle o verdi delle acque; inoltre la decomposizione delle alghe impoverisce di ossigeno l’acqua, soprattutto sul fondo, provocando morie della fauna ittica. Nello specifico, in questo lavoro di tesi, si prende in considerazione il Porto Canale di Cesenatico, e come le acque da esso convogliate vadano ad influenzare il recettore finale, ovvero il Mar Adriatico. Attraverso l’uso di un particolare software, messo a mia disposizione dal D.I.C.A.M. è stata portata avanti un’analisi dettagliata, comprendente svariati parametri, quali la velocità dell’acqua, la salinità, la concentrazione dell’inquinante e la temperatura, considerando due possibili situazioni. A monte di ciò vi è stata una lunga fase preparatoria, in cui dapprima sono state recepite, attraverso una campagna di misure progettata ad hoc, ed elaborate le informazione necessarie per la compilazione del file di input; in seguito è stato necessario calibrare e tarare il programma, in quanto sono state apportate numerose variazioni di recepimento tutt’altro che immediato; dopodiché è stata introdotta la geometria rappresentante l’area presa in esame, geometria molto complessa in quanto trattasi di una zona molto ampia e non uniforme, infatti vi è la presenza di più barriere frangiflutti, sommerse ed emerse, che alterano in svariati punti la profondità del fondale. Non è stato semplice, a tal proposito, ricostruire l’area e ci si è avvalsi di una carta nautica riportante la batimetria del litorale antistante Cesenatico. Come è stato già detto, questa fase iniziale ha occupato molto tempo e si è dimostrata molto impegnativa. Non sono state comunque da meno le fasi successive. Inoltre, tale simulazione è stata effettuata su due scenari differenti, per poter valutare le differenti conclusioni alle quali essi hanno indotto. Dopo molti “tentativi”, l’eseguibile ha girato ed è arrivato al termine ricoprendo un lasso di tempo pari a ventiquattro ore. I risultati ottenuti in output, sono stati tradotti e vagliati in modo da essere graficati e resi più interpretabili. Segue infine la fase di analisi che ha portato alle deduzioni conclusive. Nei prossimi capitoli, si riporta nel dettaglio quello che in questo paragrafo è stato sinteticamente citato.
Resumo:
La tesi individua alcune strategie di rigenerazione urbana e di riqualificazione edilizia, al fine di ottenere una serie di linee guida per l’intervento sul patrimonio di edilizia abitativa situata nelle periferie urbane. Tali principi sono stati poi applicati ad un edificio ACER collocato nella prima periferia di Forlì, per sperimentare l’efficacia delle strategie individuate. Dalla ricerca svolta sulle strategie di intervento volte alla riqualificazione sociale delle periferie, in particolare la teoria del “Defencible space” di Jacobs, si evidenzia l’importanza di accentuare nei residenti il sentimento di territorialità, ovvero la consapevolezza di far parte di una comunità specifica insediata in un particolare spazio, alimentata attraverso la frequentazione e l’appropriazione percettivo-funzionale degli spazi pubblici. Si è deciso quindi di allargare il campo di intervento alla rigenerazione dell’interno comparto, attraverso la riorganizzazione degli spazi verdi e la dotazione di attrezzature sportive e ricreative, in modo da offrire spazi specifici per le diverse utenze (anziani, giovani, bambini) e la definizione di un programma funzionale di servizi ricreativi e spazi destinati a piccolo commercio per integrare le dotazioni carenti dell’area. Dall’analisi approfondita dell’edificio sono emerse le criticità maggiori su cui intervenire: - l’intersezione dei percorsi di accesso all’edificio - la struttura portante rigida, non modificabile - la scarsa varietà tipologica degli alloggi - l’elevato fabbisogno energetico. La riqualificazione dell’edificio ha toccato quindi differenti campi: tecnologico, funzionale, energetico e sociale; il progetto è stato strutturato come una serie di fasi successive di intervento, eventualmente realizzabili in tempi diversi, in modo da consentire il raggiungimento di diversi obiettivi di qualità, in funzione della priorità data alle diverse esigenze. Secondo quest’ottica, il primo grado di intervento, la fase 1 - riqualificazione energetica, si limita all’adeguamento dello stato attuale alle prestazioni energetiche richieste dalla normativa vigente, in assenza di adeguamenti tipologici e spaziali. La fase 2 propone la sostituzione degli impianti di riscaldamento a caldaie autonome presenti attualmente con un impianto centralizzato con pompa di calore, un intervento invasivo che rende necessaria la realizzazione di un “involucro polifunzionale” che avvolge completamente l’edificio. Questo intervento nasce da tre necessità fondamentali : - architettonica: poter ampliare verso l’esterno le superfici degli alloggi, così da intervenire sulle unità abitative rendendole più rispondenti alle necessità odierne; - statica: non dover gravare in ciò sull’edificio esistente apportando ulteriori carichi, difficilmente sopportabili dalla struttura esistente, assicurando il rispetto della normativa antisismica in vigore; - impiantistica/tecnologica: alloggiare i condotti del nuovo impianto centralizzato per il riscaldamento, raffrescamento e acs; La fase 3 è invece incentrata sull’ampliamento dell’offerta abitativa, in modo da rispondere anche a necessità legate ad utenze speciali, come utenti disabili o anziani. L’addizione di nuovi volumi si sviluppa in tre direzioni: - un volume parassita, che aderisce all’edificio nel fronte sud/est, indipendente dal punto di vista strutturale, ruotato per sfruttare al meglio l’orientamento ottimale. - un volume satellite, indipendente, connesso all’edificio esistente tramite un elemento di raccordo, e nel quale sono collocati alcuni alloggi speciali. - un’addizione in copertura, che non appoggia direttamente sul solaio di copertura esistente, ma grava sull’elemento di chiusura del’involucro realizzato nella fase 2 Completano il progetto le addizioni volumetriche a piano terra, destinate a servizi quali un centro diurno, un micronido e un bar, i quali costituiscono la traduzione alla scala dell’edificio delle strategie applicate nel progetto di comparto. Questi interventi hanno consentito di trasformare un edificio costruito negli anni ’80 in un complesso residenziale moderno, dotato spazi accessori di grande qualità, tecnologie moderne che ne garantiscono il comfort abitativo, servizi alla persona disponibili in prossimità dell’edificio.
Resumo:
Il miglioramento dell’ambiente urbano e, in particolare, della qualità di vita dei cittadini, così come lo scriteriato consumo di territorio in favore della barbara cementificazione delle aree non edificate, sono diventate questioni di particolare rilievo nello scenario globale finalizzato al raggiungimento di un nuovo modello di sviluppo delle città. Gli abitanti dei centri urbani, oggi, sono costretti ad affrontare il sovraffollamento e i problemi ad esso connessi: il traffico, la congestione, l’inquinamento e gli effetti che questi fattori generano alla società. L’area oggetto di questa tesi, luogo a forte vocazione turistica, presenta questo tipo di problematiche soprattutto in corrispondenza della stagione estiva mentre, per il resto dell’anno, si trova ad affrontare il problema opposto di riduzione delle attività e dello spopolamento causate dalla stagionalità. L’espansione edilizia, avvenuta con estrema rapidità e durante un periodo caratterizzato da un forte sviluppo economico , non ha seguito gli indirizzi di un Piano che avrebbe se non altro evitato sprechi di territorio e una struttura così caotica. Tradizionalmente l’idea di densità è sempre stata considerata in maniera negativa rispetto alla questione urbana, in quanto simbolo di un uso intensivo e indiscriminato del territorio e causa della scarsa qualità di vita che caratterizza molte città. In realtà il concetto di densità può assumere un significato diverso: legato all’efficienza, alla qualità e alla sostenibilità. Densificare, infatti, secondo opportune linee guida e in relazione agli standard di qualità, significa sfruttare al meglio le risorse esistenti all’interno delle città, utilizzando il territorio senza sprechi e ricucendo le fratture in grado di generare situazioni di degrado ambientale. Un complesso e minuzioso processo di “densificazione” è in grado di apportare molti benefici al cittadino e alla comunità, come la trasformazione degli spazi inutilizzati o dismessi, la riduzione delle distanze e della mobilità veicolare, la limitazione dell’impatto energetico sull’ambiente e, non ultima, la promozione di una nuova immagine urbana connessa a nuove funzionalità e strutture. Densificare è però condizione necessaria ma non sufficiente per il miglioramento dell’ambiente urbano, infatti il termine “densità” non specifica nulla sul risultato qualitativo e quantitativo che si intende ottenere. “Creazione di un ambiente più propizio alla vita ed intenzionalità estetica sono i caratteri stabili dell’architettura; questi aspetti emergono da ogni ricerca positiva ed illuminano la città come creazione umana” . È in questo senso che deve essere letta la “densificazione” proposta da questa tesi per la riqualificazione di Misano Adriatico. Occorrerà riqualificare soprattutto quelle aree marginali del tutto prive dei requisiti urbani al fine di integrarle maggiormente al resto della città. A essa dovrà essere collegata una nuova visione di quelle che saranno le infrastrutture legate alla mobilità ed i servizi necessari alla vita della comunità. Essi non dovranno più essere visti come elementi di semplice collegamento o episodi isolati distribuiti a caso nel territorio, ma dovranno recuperare quell’importanza strategica che li portavano ad essere l’elemento catalizzatore e la struttura portante dell’espansione urbana. La riqualificazione della città sviluppata in questa tesi segue “la strategia dei luoghi complementari” teorizzata da O.M. Ungers secondo cui: “la città dei -luoghi complementari- è composta dal numero più grande possibile di aree diverse, nelle quali viene sviluppato un aspetto urbano particolare tenendo conto del tutto. In un certo senso è un sistema della -città nella città-. Ogni parte ha le sue proprie caratteristiche, senza però essere perfezionata e conclusa. […] Si cerca la molteplicità, la diversità, non l’unitarietà. La contraddizione, la conflittualità sono parte del sistema e rimangono insolute” . Il fine ultimo di questa tesi è quindi quello di proporre un’idea di città del nostro tempo, un prodotto complesso, non identificabile con un unico luogo ma con un insieme di luoghi che si sovrappongono e si integrano in maniera complementare mantenendo le peculiarità intrinseche del territorio a cui appartengono.
Resumo:
Con il presente lavoro, che ha ad oggetto l’istituto dello scioglimento anticipato delle Camere nell’ordinamento costituzionale italiano, il candidato si propone tre obiettivi. Il primo è quello della ricostruzione dogmatica dell’istituto che sconta inevitabilmente un grosso debito nei confronti della vasta letteratura giuridica che si è sviluppata nel corso dei decenni. Il secondo obiettivo è quello, ben più originale, dell’indagine sulla prassi che ha contraddistinto il ricorso allo scioglimento nella peculiare realtà italiana. In questo modo si viene colmando uno spazio di ricerca diretto a leggere gli avvenimenti e a ricondurli in un quadro costituzionale sistematico, anche al fine di ricavare utili riflessioni circa la conformità della prassi stessa al dato normativo, nonché sulle modalità di funzionamento concreto dell'istituto. Il terzo obiettivo, quello più ambizioso, è utilizzare le considerazioni così sviluppate per ricercare soluzioni interpretative adeguate all’evoluzione subita dall’assetto politico-istituzionale italiano negli ultimi due decenni. Quanto al metodo, la scelta del candidato è stata quella di ricorrere ad uno strumentario che pone in necessaria sequenza logica: a) i presupposti storici/comparatistici e il dibattito in Assemblea costituente, utili per l’acquisizione del patrimonio del parlamentarismo europeo del tempo e per la comprensione del substrato su cui si costruisce l’edificio costituzionale; b) il testo costituzionale, avvalendosi anche delle importanti considerazioni svolte dalla dottrina più autorevole; c) la prassi costituzionale, consistente nella fase di implementazione concreta del disposto normativo. La finalità che il candidato si pone è dimostrare la possibilità di configurare lo scioglimento secondo un modello di tipo “primoministeriale”. Per quanto riguarda la prima parte della ricerca, dalla pur sintetica descrizione dei precedenti storici (sia rispetto alle realtà europee, inglese e francese in primis, che al periodo prerepubblicano) si trae conferma che l’operatività dell’istituto è intrinsecamente influenzata dalla forma di governo. Una prima indicazione che emerge con forza è come la strutturazione del sistema partitico e il grado di legame tra Assemblea rappresentativa e Gabinetto condizionino la ratio del potere di scioglimento, la sua titolarità ed il suo effettivo rendimento. Infatti, in presenza di regimi bipartitici e di impianti istituzionali che accentuano il raccordo fiduciario, il Capo dello Stato tende all’emarginazione, e lo scioglimento acquisisce carattere di automaticità tutte le volte in cui si verificano crisi ministeriali (eventualità però piuttosto rara); più consueto è invece lo scioglimento primoministeriale libero, come arma politica vera e propria attraverso cui il Governo in carica tende a sfruttare il momento migliore per ricercare il giudizio del popolo. Al contrario, dove il sistema politico è più dinamico, e il pluralismo sociale radicalizzato, il Capo dello Stato interferisce fortemente nella vita istituzionale e, in particolare, nella formazione dell’indirizzo politico: in quest’ottica lo scioglimento viene da questi inglobato, ed il suo ricorso subordinato ad esigenze di recupero della funzionalità perduta; soprattutto, quando si verificano crisi ministeriali (invero frequenti) il ricorso alle urne non è conseguenza automatica, ma semmai gli viene preferita la via della formazione di un Gabinetto poggiante su una maggioranza alternativa. L’indagine svolta dal candidato sui lavori preparatori mostra come il Costituente abbia voluto perseguire l'obiettivo di allargare le maglie della disciplina costituzionale il più possibile, in modo da poter successivamente ammettere più soluzioni interpretative. Questa conclusione è il frutto del modo in cui si sono svolte le discussioni. Le maggiori opzioni prospettate si collocavano lungo una linea che aveva ad un estremo una tassativa preordinazione delle condizioni legittimanti, ed all’altro estremo l’esclusiva e pressoché arbitraria facoltà decisionale dello scioglimento nelle mani del Capo dello Stato; in mezzo, la via mediana (e maggiormente gradita) del potere sì presidenziale, benché circondato da tutta una serie di limiti e garanzie, nel quadro della costruzione di una figura moderatrice dei conflitti tra Esecutivo e Legislativo. Ma non bisogna tralasciare che, seppure rare, diverse voci propendevano per la delineazione di un potere governativo di scioglimento la quale impedisse che la subordinazione del Governo al Parlamento si potesse trasformare in degenerazione assemblearista. Quindi, il candidato intende sottolineare come l’adamantina prescrizione dell’art. 88 non postuli, nell’ambito dell’interpretazione teleologica che è stata data, alcuno specifico indirizzo interpretativo dominante: il che, in altri termini, è l’ammissione di una pluralità di concezioni teoricamente valide. L'analisi del dettato costituzionale non ha potuto prescindere dalla consolidata tripartizione delle teorie interpretative. Dall'analisi della letteratura emerge la preferenza per la prospettiva dualistica, anche in virtù del richiamo che la Costituzione svolge nei confronti delle competenze sia del Presidente della Repubblica (art. 88) che del Governo (art. 89), il che lo convince dell’inopportunità di imporre una visione esclusivista, come invece sovente hanno fatto i sostenitori della tesi presidenziale. Sull’altro versante ciò gli permette di riconferire una certa dignità alla tesi governativa, che a partire dal primo decennio repubblicano era stata accantonata in sede di dibattito dottrinario: in questo modo, entrambe le teoriche fondate su una titolarità esclusiva assumono una pari dignità, benchè parimenti nessuna delle due risulti persuasiva. Invece, accedere alla tesi della partecipazione complessa significa intrinsecamente riconoscere una grande flessibilità nell’esercizio del potere in questione, permettendo così una sua più adeguata idoneità a mutare le proprie sembianze in fase applicativa e a calarsi di volta in volta nelle situazioni contingenti. Questa costruzione si inserisce nella scelta costituente di rafforzare le garanzie, ed il reciproco controllo che si instaura tra Presidente e Governo rappresenta la principale forma di tutela contro potenziali abusi di potere. Ad ognuno dei due organi spettano però compiti differenti, poiché le finalità perseguite sono differenti: come l’Esecutivo agisce normalmente secondo canoni politici, in quanto principale responsabile dell’indirizzo politico, al Capo dello Stato si addice soprattutto il compito di sorvegliare il regolare svolgimento dei meccanismi istituzionali, in posizione di imparzialità. Lo schema costituzionale, secondo il candidato, sembra perciò puntare sulla leale collaborazione tra i poteri in questione, senza però predefinire uno ruolo fisso ed immutabile, ma esaltando le potenzialità di una configurazione così eclettica. Assumendo questa concezione, si ha buon gioco a conferire piena cittadinanza costituzionale all’ipotesi di scioglimento disposto su proposta del Presidente del Consiglio, che si può ricavare in via interpretativa dalla valorizzazione dell’art. 89 Cost. anche secondo il suo significato letterale. Al discorso della titolarità del potere di scioglimento, il candidato lega quello circa i presupposti legittimanti, altro nodo irrisolto. La problematica relativa alla loro definizione troverebbe un decisivo ridimensionamento nel momento in cui si ammette la compartecipazione di Governo e Presidente della Repubblica: il diverso titolo con il quale essi cooperano consentirebbe di prevenire valutazioni pretestuose circa la presenza delle condizioni legittimanti, poichè è nel reciproco controllo che entrambi gli organi individuano i confini entro cui svolgere le rispettive funzioni. Si giustificano così sia ragioni legate ad esigenze di funzionalità del sistema (le più ricorrenti in un sistema politico pluripartitico), sia quelle scaturenti dalla divaricazione tra orientamento dei rappresentati e orientamento dei rappresentanti: purchè, sottolinea il candidato, ciò non conduca il Presidente della Repubblica ad assumere un ruolo improprio di interferenza con le prerogative proprie della sfera di indirizzo politico. Il carattere aperto della disciplina costituzionale spinge inevitabilmente il candidato ad approfondire l'analisi della prassi, la cui conoscenza costituisce un fondamentale modo sia per comprendere il significato delle disposizioni positive che per apprezzare l’utilità reale ed il rendimento sistemico dell’istituto. Infatti, è proprio dall'indagine sulla pratica che affiorano in maniera prepotente le molteplici virtualità dello strumento dissolutorio, con modalità operative che, a seconda delle singole fasi individuate, trovano una strutturazione casistica variabile. In pratica: nel 1953 e nel 1958 è l'interesse del partito di maggioranza relativa ad influenzare il Governo circa la scelta di anticipare la scadenza del Senato; nel 1963 e nel 1968 invece si fa strada l'idea del consenso diffuso allo scioglimento, seppure nel primo caso l'anticipo valga ancora una volta per il solo Senato, e nel secondo ci si trovi di fronte all'unica ipotesi di fine naturale della legislatura; nel 1972, nel 1976, nel 1979, nel 1983 e nel 1987 (con una significativa variante) si manifesta con tutta la sua forza la pratica consociativa, figlia della degenerazione partitocratica che ha svuotato le istituzioni giuridiche (a partire dal Governo) e cristallizzato nei partiti politici il centro di gravità della vita pubblica; nel 1992, a chiusura della prima epoca repubblicana, caratterizzata dal dominio della proporzionale (con tutte le sue implicazioni), si presentano elementi atipici, i quali vanno a combinarsi con le consolidate tendenze, aprendo così la via all'incertezza sulle tendenze future. È con l'avvento della logica maggioritaria, prepotentemente affacciatasi per il tramite dei referendum elettorali, a sconvolgere il quadro delle relazioni fra gli organi costituzionali, anche per quanto concerne ratio e caratteristiche del potere di scioglimento delle Camere. Soprattutto, nella fase di stretta transizione che ha attraversato il quadriennio 1992-1996, il candidato mette in luce come i continui smottamenti del sistema politico abbiano condotto ad una fase di destabilizzazione anche per quanto riguarda la prassi, incrinando le vecchie regolarità e dando vita a potenzialità fino allora sconosciute, addirittura al limite della conformità a Costituzione. La Presidenza Scalfaro avvia un processo di netta appropriazione del potere di scioglimento, esercitandolo in maniera esclusiva, grazie anche alla controfirma offerta da un Governo compiacente (“tecnicco”, perciò debitore della piena fiducia quirinalizia). La piena paternità presidenziale, nel 1994, è accompagnata da un altro elemento di brusca rottura con il passato, ossia quello della ragione legittimante: infatti, per la prima volta viene addotta palesemente la motivazione del deficit di rappresentatività. Altro momento ad aver costituito da spartiacque nell’evoluzione della forma di governo è stato il mancato scioglimento a seguito della crisi del I Governo Berlusconi, in cui forti erano state le pressioni perché si adeguasse il parlamentarismo secondo i canoni del bipolarismo e del concetto di mandato di governo conferito direttamente dagli elettori ad una maggioranza (che si voleva predefinita, nonostante essa in verità non lo fosse affatto). Dopo questa parentesi, secondo il candidato la configurazione dello strumento dissolutorio si allinea su ben altri binari. Dal punto di vista della titolarità, sono i partiti politici a riprendere vigorosamente un certo protagonismo decisionale, ma con una netta differenza rispetto al passato consociativo: ora, il quadro politico pare saldamente attestato su una dinamica bipolare, per cui anche in relazione all’opzione da adottare a seguito di crisi ministeriale sono le forze della maggioranza che decidono se proseguire la legislatura (qualora trovino l’accordo tra di loro) o se sciogliere (allorchè invece si raggiunga una sorta di maggioranza per lo scioglimento). Dal punto di vista dei presupposti, sembra consolidarsi l’idea che lo scioglimento rappresenti solo l’extrema ratio, chiamando gli elettori ad esprimersi solo nel momento in cui si certifica l’assoluta impossibilità di ripristinare la funzionalità perduta. Conclusioni. Il rafforzamento della prospettiva bipolare dovrebbe postulare una riconfigurazione del potere di scioglimento tesa a valorizzare la potestà decisionale del Governo. Ciò discenderebbe dal principio secondo cui il rafforzamento del circuito che unisce corpo elettorale, maggioranza parlamentare e Governo, grazie al collante di un programma politico condiviso, una coalizione che si presenta alle elezioni ed un candidato alla Presidenza del Consiglio che incarna la perfetta sintesi di tutte queste istanze, comporta che alla sua rottura non si può che tornare al giudizio elettorale: e quindi sciogliere le Camere, evitando la composizione di maggioranze che non rappresentano la diretta volontà popolare. Il candidato però non ritiene auspicabile l’adozione di un automatismo analogo alla regola dell'aut simul stabunt aut simul cadent proprio dell’esperienza regionale post 1999, perché soluzione eccessivamente rigida, che ingesserebbe in maniera inappropriata una forma parlamentare che comunque richiede margini di flessiblità. La proposta è invece di rileggere il testo costituzionale, rebus sic stantibus, nel senso di far prevalere un potere libero di proposta da parte del Governo, cui il Capo dello Stato non potrebbe non consentire, salvo svolgere un generale controllo di costituzionalità volto ad accertare l’insussistenza di alcuna forma di abuso. Su queste conclusioni il lavoro esprime solo prime idee, che meritano di essere approfondite. Come è da approfondire un tema che rappresenta forse l’elemento di maggiore originalità: trattasi della qualificazione e descrizione di un mandato a governare, ossia della compatibilità costituzionale (si pensi, in primis, al rapporto con il divieto di mandato imperativo di cui all’art. 67 Cost.) di un compito di governo che, tramite le elezioni, gli elettori affidano ad una determinata maggioranza, e che va ad arricchire il significato del voto rispetto a quello classico della mera rappresentanza delle istanze dei cittadini (e propria del parlamentarismo ottocentesco): riflessi di tali considerazioni si avrebbero inevitabilmente anche rispetto alla concezione del potere di scioglimento, che in siffatta maniera verrebbe percepito come strumento per il ripristino del “circuito di consonanza politica” che in qualche modo si sarebbe venuto a rompere. Ad ogni buon conto, già emergono dei riflessi in questo senso, per cui la strada intrapresa dal candidato pare quella giusta affinchè l’opera risulti completa, ben argomentata ed innovativa.
Resumo:
Il presente studio, per ciò che concerne la prima parte della ricerca, si propone di fornire un’analisi che ripercorra il pensiero teorico e la pratica critica di Louis Marin, mettendone in rilievo i caratteri salienti affinché si possa verificare se, nella loro eterogenea interdisciplinarità, non emerga un profilo unitario che consenta di ricomprenderli in un qualche paradigma estetico moderno e/o contemporaneo. Va innanzitutto rilevato che la formazione intellettuale di Marin è avvenuta nell’alveo di quel montante e pervasivo interesse che lo strutturalismo di stampo linguistico seppe suscitare nelle scienze sociali degli anni sessanta. Si è cercato, allora, prima di misurare la distanza che separa l’approccio di Marin ai testi da quello praticato dalla semiotica greimasiana, impostasi in Francia come modello dominante di quella svolta semiotica che ha interessato in quegli anni diverse discipline: dagli studi estetici all’antropologia, dalla psicanalisi alla filosofia. Si è proceduto, quindi, ad un confronto tra l’apparato concettuale elaborato dalla semiotica e alcune celebri analisi del nostro autore – tratte soprattutto da Opacité de la peinture e De la représentation. Seppure Marin non abbia mai articolato sistematicametne i principi teorici che esplicitassero la sua decisa contrapposizione al potente modello greimasiano, tuttavia le reiterate riflessioni intorno ai presupposti epistemologici del proprio modo di interpretare i testi – nonché le analisi di opere pittoriche, narrative e teoriche che ci ha lasciato in centinaia di studi – permettono di definirne una concezione estetica nettamente distinta dalla pratica semio-semantica della scuola di A. J. Greimas. Da questo confronto risulterà, piuttosto, che è il pensiero di un linguista sui generis come E. Benveniste ad avere fecondato le riflessioni di Marin il quale, d’altra parte, ha saputo rielaborare originalmente i contributi fondamentali che Benveniste diede alla costruzione della teoria dell’enunciazione linguistica. Impostando l’equazione: enunciazione linguistica=rappresentazione visiva (in senso lato), Marin diviene l’inventore del dispositivo concettuale e operativo che consentirà di analizzare l’enunciazione visiva: la superficie di rappresentazione, la cornice, lo sguardo, l’iscrizione, il gesto, lo specchio, lo schema prospettico, il trompe-l’oeil, sono solo alcune delle figure in cui Marin vede tradotto – ma in realtà immagina ex novo – quei dispositivi enunciazionali che il linguista aveva individuato alla base della parole come messa in funzione della langue. Marin ha saputo così interpretare, in modo convincente, le opere e i testi della cultura francese del XVII secolo alla quale sono dedicati buona parte dei suoi studi: dai pittori del classicismo (Poussin, Le Brun, de Champaigne, ecc.) agli eruditi della cerchia di Luigi XIV, dai filosofi (soprattutto Pascal), grammatici e logici di Port-Royal alle favole di La Fontaine e Perrault. Ma, come si evince soprattutto da testi come Opacité de la peinture, Marin risulterà anche un grande interprete del rinascimento italiano. In secondo luogo si è cercato di interpretare Le portrait du Roi, il testo forse più celebre dell’autore, sulla scorta dell’ontologia dell’immagine che Gadamer elabora nel suo Verità e metodo, non certo per praticare una riduzione acritica di due concezioni che partono da presupposti divergenti – lo strutturalismo e la critica d’arte da una parte, l’ermeneutica filosofica dall’altra – ma per rilevare che entrambi ricorrono al concetto di rappresentazione intendendolo non tanto come mimesis ma soprattutto, per usare il termine di Gadamer, come repraesentatio. Sia Gadamer che Marin concepiscono la rappresentazione non solo come sostituzione mimetica del rappresentato – cioè nella direzione univoca che dal rappresentato conduce all’immagine – ma anche come originaria duplicazione di esso, la quale conferisce al rappresentato la sua legittimazione, la sua ragione o il suo incremento d’essere. Nella rappresentazione in quanto capace di legittimare il rappresentato – di cui pure è la raffigurazione – abbiamo così rintracciato la cifra comune tra l’estetica di Marin e l’ontologia dell’immagine di Gadamer. Infine, ci è sembrato di poter ricondurre la teoria della rappresentazione di Marin all’interno del paradigma estetico elaborato da Kant nella sua terza Critica. Sebbene manchino in Marin espliciti riferimenti in tal senso, la sua teoria della rappresentazione – in quanto dire che mostra se stesso nel momento in cui dice qualcos’altro – può essere intesa come una riflessione estetica che trova nel sensibile la sua condizione trascendentale di significazione. In particolare, le riflessioni kantiane sul sentimento di sublime – a cui abbiamo dedicato una lunga disamina – ci sono sembrate chiarificatrici della dinamica a cui è sottoposta la relazione tra rappresentazione e rappresentato nella concezione di Marin. L’assolutamente grande e potente come tratti distintivi del sublime discusso da Kant, sono stati da noi considerati solo nella misura in cui ci permettevano di fare emergere la rappresentazione della grandezza e del potere assoluto del monarca (Luigi XIV) come potere conferitogli da una rappresentazione estetico-politica costruita ad arte. Ma sono piuttosto le facoltà in gioco nella nostra più comune esperienza delle grandezze, e che il sublime matematico mette esemplarmente in mostra – la valutazione estetica e l’immaginazione – ad averci fornito la chiave interpretativa per comprendere ciò che Marin ripete in più luoghi citando Pascal: una città, da lontano, è una città ma appena mi avvicino sono case, alberi, erba, insetti, ecc… Così abbiamo applicato i concetti emersi nella discussione sul sublime al rapporto tra la rappresentazione e il visibile rappresentato: rapporto che non smette, per Marin, di riconfigurarsi sempre di nuovo. Nella seconda parte della tesi, quella dedicata all’opera di Bernard Stiegler, il problema della comprensione delle immagini è stato affrontato solo dopo aver posto e discusso la tesi che la tecnica, lungi dall’essere un portato accidentale e sussidiario dell’uomo – solitamente supposto anche da chi ne riconosce la pervasività e ne coglie il cogente condizionamento – deve invece essere compresa proprio come la condizione costitutiva della sua stessa umanità. Tesi che, forse, poteva essere tematizzata in tutta la sua portata solo da un pensatore testimone delle invenzioni tecnico-tecnologiche del nostro tempo e del conseguente e radicale disorientamento a cui esse ci costringono. Per chiarire la propria concezione della tecnica, nel I volume di La technique et le temps – opera alla quale, soprattutto, sarà dedicato il nostro studio – Stiegler decide di riprendere il problema da dove lo aveva lasciato Heidegger con La questione della tecnica: se volgiamo coglierne l’essenza non è più possibile pensarla come un insieme di mezzi prodotti dalla creatività umana secondo un certi fini, cioè strumentalmente, ma come un modo di dis-velamento della verità dell’essere. Posto così il problema, e dopo aver mostrato come i sistemi tecnici tendano ad evolversi in base a tendenze loro proprie che in buona parte prescindono dall’inventività umana (qui il riferimento è ad autori come F. Gille e G. Simondon), Stiegler si impegna a riprendere e discutere i contributi di A. Leroi-Gourhan. È noto come per il paletnologo l’uomo sia cominciato dai piedi, cioè dall’assunzione della posizione eretta, la quale gli avrebbe permesso di liberare le mani prima destinate alla deambulazione e di sviluppare anatomicamente la faccia e la volta cranica quali ondizioni per l’insorgenza di quelle capacità tecniche e linguistiche che lo contraddistinguono. Dei risultati conseguiti da Leroi-Gourhan e consegnati soprattutto in Le geste et la parole, Stiegler accoglie soprattutto l’idea che l’uomo si vada definendo attraverso un processo – ancora in atto – che inizia col primo gesto di esteriorizzazione dell’esperienza umana nell’oggetto tecnico. Col che è già posta, per Stiegler, anche la prima forma di simbolizzazione e di rapporto al tempo che lo caratterizzano ancora oggi. Esteriorità e interiorità dell’uomo sono, per Stiegler, transduttive, cioè si originano ed evolvono insieme. Riprendendo, in seguito, l’anti-antropologia filosofica sviluppata da Heidegger nell’analitica esistenziale di Essere e tempo, Stiegler dimostra che, se si vuole cogliere l’effettività della condizione dell’esistenza umana, è necessaria un’analisi degli oggetti tecnici che però Heidegger relega nella sfera dell’intramondano e dunque esclude dalla temporalità autentica dell’esser-ci. Se è vero che l’uomo – o il chi, come lo chiama Stiegler per distinguerlo dal che-cosa tecnico – trova nell’essere-nel-mondo la sua prima e più fattiva possibilità d’essere, è altrettanto verò che questo mondo ereditato da altri è già strutturato tecnicamente, è già saturo della temporalità depositata nelle protesi tecniche nelle quali l’uomo si esteriorizza, e nelle quali soltanto, quindi, può trovare quelle possibilità im-proprie e condivise (perché tramandate e impersonali) a partire dalle quali poter progettare la propria individuazione nel tempo. Nel percorso di lettura che abbiamo seguito per il II e III volume de La technique et le temps, l’autore è impegnato innanzitutto in una polemica serrata con le analisi fenomenologiche che Husserl sviluppa intorno alla coscienza interna del tempo. Questa fenomenologia del tempo, prendendo ad esame un oggetto temporale – ad esempio una melodia – giunge ad opporre ricordo primario (ritenzione) e ricordo secondario (rimemorazione) sulla base dell’apporto percettivo e immaginativo della coscienza nella costituzione del fenomeno temporale. In questo modo Husserl si preclude la possibilità di cogliere il contributo che l’oggetto tecnico – ad esempio la registrazione analogica di una melodia – dà alla costituzione del flusso temporale. Anzi, Husserl esclude esplicitamente che una qualsiasi coscienza d’immagine – termine al quale Stiegler fa corrispondere quello di ricordo terziario: un testo scritto, una registrazione, un’immagine, un’opera, un qualsiasi supporto memonico trascendente la coscienza – possa rientrare nella dimensione origianaria e costitutiva di tempo. In essa può trovar posto solo la coscienza con i suo vissuti temporali percepiti, ritenuti o ricordati (rimemorati). Dopo un’attenta rilettura del testo husserliano, abbiamo seguito Stiegler passo a passo nel percorso di legittimazione dell’oggetto tecnico quale condizione costitutiva dell’esperienza temporale, mostrando come le tecniche di registrazione analogica di un oggetto temporale modifichino, in tutta evidenza, il flusso ritentivo della coscienza – che Husserl aveva supposto automatico e necessitante – e con ciò regolino, conseguente, la reciproca permeabilità tra ricordo primario e secondario. L’interpretazione tecnica di alcuni oggetti temporali – una foto, la sequenza di un film – e delle possibilità dispiegate da alcuni dispositivi tecnologici – la programmazione e la diffusione audiovisiva in diretta, l’immagine analogico-digitale – concludono questo lavoro richiamando l’attenzione sia sull’evidenza prodotta da tali esperienze – evidenza tutta tecnica e trascendente la coscienza – sia sul sapere tecnico dell’uomo quale condizione – trascendentale e fattuale al tempo stesso – per la comprensione delle immagini e di ogni oggetto temporale in generale. Prendendo dunque le mosse da una riflessione, quella di Marin, che si muove all’interno di una sostanziale antropologia filosofica preoccupata di reperire, nell’uomo, le condizioni di possibilità per la comprensione delle immagini come rappresentazioni – condizione che verrà reperità nella sensibilità o nell’aisthesis dello spettatore – il presente lavoro passerà, dunque, a considerare la riflessione tecno-logica di Stiegler trovando nelle immagini in quanto oggetti tecnici esterni all’uomo – cioè nelle protesi della sua sensibilità – le condizioni di possibilità per la comprensione del suo rapporto al tempo.
Resumo:
Benessere delle popolazioni, gestione sostenibile delle risorse, povertà e degrado ambientale sono dei concetti fortemente connessi in un mondo in cui il 20% della popolazione mondiale consuma più del 75% delle risorse naturali. Sin dal 1992 al Summit della Terra a Rio de Janeiro si è affermato il forte legame tra tutela dell’ambiente e riduzione della povertà, ed è anche stata riconosciuta l’importanza di un ecosistema sano per condurre una vita dignitosa, specialmente nelle zone rurali povere dell’Africa, dell’Asia e dell’America Latina. La natura infatti, soprattutto per le popolazioni rurali, rappresenta un bene quotidiano e prezioso, una forma essenziale per la sussistenza ed una fonte primaria di reddito. Accanto a questa constatazione vi è anche la consapevolezza che negli ultimi decenni gli ecosistemi naturali si stanno degradando ad un ritmo impressionate, senza precedenti nella storia della specie umana: consumiamo le risorse più velocemente di quanto la Terra sia capace di rigenerarle e di “metabolizzare” i nostri scarti. Allo stesso modo aumenta la povertà: attualmente ci sono 1,2 miliardi di persone che vivono con meno di un dollaro al giorno, mentre circa metà della popolazione mondiale sopravvive con meno di due dollari al giorno (UN). La connessione tra povertà ed ambiente non dipende solamente dalla scarsità di risorse che rende più difficili le condizioni di vita, ma anche dalla gestione delle stesse risorse naturali. Infatti in molti paesi o luoghi dove le risorse non sono carenti la popolazione più povera non vi ha accesso per motivi politici, economici e sociali. Inoltre se si paragona l’impronta ecologica con una misura riconosciuta dello “sviluppo umano”, l’Indice dello Sviluppo Umano (HDI) delle Nazioni Unite (Cfr. Cap 2), il rapporto dimostra chiaramente che ciò che noi accettiamo generalmente come “alto sviluppo” è molto lontano dal concetto di sviluppo sostenibile accettato universalmente, in quanto i paesi cosiddetti “sviluppati” sono quelli con una maggior impronta ecologica. Se allora lo “sviluppo” mette sotto pressione gli ecosistemi, dal cui benessere dipende direttamente il benessere dell’uomo, allora vuol dire che il concetto di “sviluppo” deve essere rivisitato, perché ha come conseguenza non il benessere del pianeta e delle popolazioni, ma il degrado ambientale e l’accrescimento delle disuguaglianze sociali. Quindi da una parte vi è la “società occidentale”, che promuove l’avanzamento della tecnologia e dell’industrializzazione per la crescita economica, spremendo un ecosistema sempre più stanco ed esausto al fine di ottenere dei benefici solo per una ristretta fetta della popolazione mondiale che segue un modello di vita consumistico degradando l’ambiente e sommergendolo di rifiuti; dall’altra parte ci sono le famiglie di contadini rurali, i “moradores” delle favelas o delle periferie delle grandi metropoli del Sud del Mondo, i senza terra, gli immigrati delle baraccopoli, i “waste pickers” delle periferie di Bombay che sopravvivono raccattando rifiuti, i profughi di guerre fatte per il controllo delle risorse, gli sfollati ambientali, gli eco-rifugiati, che vivono sotto la soglia di povertà, senza accesso alle risorse primarie per la sopravvivenza. La gestione sostenibile dell’ambiente, il produrre reddito dalla valorizzazione diretta dell’ecosistema e l’accesso alle risorse naturali sono tra gli strumenti più efficaci per migliorare le condizioni di vita degli individui, strumenti che possono anche garantire la distribuzione della ricchezza costruendo una società più equa, in quanto le merci ed i servizi dell’ecosistema fungono da beni per le comunità. La corretta gestione dell’ambiente e delle risorse quindi è di estrema importanza per la lotta alla povertà ed in questo caso il ruolo e la responsabilità dei tecnici ambientali è cruciale. Il lavoro di ricerca qui presentato, partendo dall’analisi del problema della gestione delle risorse naturali e dal suo stretto legame con la povertà, rivisitando il concetto tradizionale di “sviluppo” secondo i nuovi filoni di pensiero, vuole suggerire soluzioni e tecnologie per la gestione sostenibile delle risorse naturali che abbiano come obiettivo il benessere delle popolazioni più povere e degli ecosistemi, proponendo inoltre un metodo valutativo per la scelta delle alternative, soluzioni o tecnologie più adeguate al contesto di intervento. Dopo l’analisi dello “stato del Pianeta” (Capitolo 1) e delle risorse, sia a livello globale che a livello regionale, il secondo Capitolo prende in esame il concetto di povertà, di Paese in Via di Sviluppo (PVS), il concetto di “sviluppo sostenibile” e i nuovi filoni di pensiero: dalla teoria della Decrescita, al concetto di Sviluppo Umano. Dalla presa di coscienza dei reali fabbisogni umani, dall’analisi dello stato dell’ambiente, della povertà e delle sue diverse facce nei vari paesi, e dalla presa di coscienza del fallimento dell’economia della crescita (oggi visibile più che mai) si può comprendere che la soluzione per sconfiggere la povertà, il degrado dell’ambiente, e raggiungere lo sviluppo umano, non è il consumismo, la produzione, e nemmeno il trasferimento della tecnologia e l’industrializzazione; ma il “piccolo e bello” (F. Schumacher, 1982), ovvero gli stili di vita semplici, la tutela degli ecosistemi, e a livello tecnologico le “tecnologie appropriate”. Ed è proprio alle Tecnologie Appropriate a cui sono dedicati i Capitoli successivi (Capitolo 4 e Capitolo 5). Queste sono tecnologie semplici, a basso impatto ambientale, a basso costo, facilmente gestibili dalle comunità, tecnologie che permettono alle popolazioni più povere di avere accesso alle risorse naturali. Sono le tecnologie che meglio permettono, grazie alle loro caratteristiche, la tutela dei beni comuni naturali, quindi delle risorse e dell’ambiente, favorendo ed incentivando la partecipazione delle comunità locali e valorizzando i saperi tradizionali, grazie al coinvolgimento di tutti gli attori, al basso costo, alla sostenibilità ambientale, contribuendo all’affermazione dei diritti umani e alla salvaguardia dell’ambiente. Le Tecnologie Appropriate prese in esame sono quelle relative all’approvvigionamento idrico e alla depurazione dell’acqua tra cui: - la raccolta della nebbia, - metodi semplici per la perforazione di pozzi, - pompe a pedali e pompe manuali per l’approvvigionamento idrico, - la raccolta dell’acqua piovana, - il recupero delle sorgenti, - semplici metodi per la depurazione dell’acqua al punto d’uso (filtro in ceramica, filtro a sabbia, filtro in tessuto, disinfezione e distillazione solare). Il quinto Capitolo espone invece le Tecnolocie Appropriate per la gestione dei rifiuti nei PVS, in cui sono descritte: - soluzioni per la raccolta dei rifiuti nei PVS, - soluzioni per lo smaltimento dei rifiuti nei PVS, - semplici tecnologie per il riciclaggio dei rifiuti solidi. Il sesto Capitolo tratta tematiche riguardanti la Cooperazione Internazionale, la Cooperazione Decentrata e i progetti di Sviluppo Umano. Per progetti di sviluppo si intende, nell’ambito della Cooperazione, quei progetti che hanno come obiettivi la lotta alla povertà e il miglioramento delle condizioni di vita delle comunità beneficiarie dei PVS coinvolte nel progetto. All’interno dei progetti di cooperazione e di sviluppo umano gli interventi di tipo ambientale giocano un ruolo importante, visto che, come già detto, la povertà e il benessere delle popolazioni dipende dal benessere degli ecosistemi in cui vivono: favorire la tutela dell’ambiente, garantire l’accesso all’acqua potabile, la corretta gestione dei rifiuti e dei reflui nonché l’approvvigionamento energetico pulito sono aspetti necessari per permettere ad ogni individuo, soprattutto se vive in condizioni di “sviluppo”, di condurre una vita sana e produttiva. È importante quindi, negli interventi di sviluppo umano di carattere tecnico ed ambientale, scegliere soluzioni decentrate che prevedano l’adozione di Tecnologie Appropriate per contribuire a valorizzare l’ambiente e a tutelare la salute della comunità. I Capitoli 7 ed 8 prendono in esame i metodi per la valutazione degli interventi di sviluppo umano. Un altro aspetto fondamentale che rientra nel ruolo dei tecnici infatti è l’utilizzo di un corretto metodo valutativo per la scelta dei progetti possibili che tenga presente tutti gli aspetti, ovvero gli impatti sociali, ambientali, economici e che si cali bene alle realtà svantaggiate come quelle prese in considerazione in questo lavoro; un metodo cioè che consenta una valutazione specifica per i progetti di sviluppo umano e che possa permettere l’individuazione del progetto/intervento tecnologico e ambientale più appropriato ad ogni contesto specifico. Dall’analisi dei vari strumenti valutativi si è scelto di sviluppare un modello per la valutazione degli interventi di carattere ambientale nei progetti di Cooperazione Decentrata basato sull’Analisi Multi Criteria e sulla Analisi Gerarchica. L’oggetto di questa ricerca è stato quindi lo sviluppo di una metodologia, che tramite il supporto matematico e metodologico dell’Analisi Multi Criteria, permetta di valutare l’appropriatezza, la sostenibilità degli interventi di Sviluppo Umano di carattere ambientale, sviluppati all’interno di progetti di Cooperazione Internazionale e di Cooperazione Decentrata attraverso l’utilizzo di Tecnologie Appropriate. Nel Capitolo 9 viene proposta la metodologia, il modello di calcolo e i criteri su cui si basa la valutazione. I successivi capitoli (Capitolo 10 e Capitolo 11) sono invece dedicati alla sperimentazione della metodologia ai diversi casi studio: - “Progetto ambientale sulla gestione dei rifiuti presso i campi Profughi Saharawi”, Algeria, - “Programa 1 milhão de Cisternas, P1MC” e - “Programa Uma Terra e Duas Águas, P1+2”, Semi Arido brasiliano.
Resumo:
La ricerca svolta ha individuato fra i suoi elementi promotori l’orientamento determinato da parte della comunità europea di dare vita e sostegno ad ambiti territoriali intermedi sub nazionali di tipo regionale all’interno dei quali i sistemi di città potessero raggiungere le massime prestazioni tecnologiche per cogliere gli effetti positivi delle innovazioni. L’orientamento europeo si è confrontato con una realtà storica e geografica molto variata in quanto accanto a stati membri, nei quali le gerarchie fra città sono storicamente radicate e funzionalmente differenziate secondo un ordine che vede la città capitale dominante su città subalterne nelle quali la cultura di dominio del territorio non è né continua né gerarchizzata sussistono invece territori nazionali compositi con una città capitale di riconosciuto potere ma con città di minor dimensione che da secoli esprimono una radicata incisività nella organizzazione del territorio di appartenenza. Alla prima tipologia di stati appartengono ad esempio i Paesi del Nord Europa e l’Inghilterra, esprimendo nella Francia una situazione emblematica, alla seconda tipologia appartengono invece i Paesi dell’aera mediterranea, Italia in primis, con la grande eccezione della Germania. Applicando gli intendimenti comunitari alla realtà locale nazionale, questa tesi ha avviato un approfondimento di tipo metodologico e procedurale sulla possibile organizzazione a sistema di una regione fortemente policentrica nel suo sviluppo e “artificiosamente” rinata ad unità, dopo le vicende del XIX secolo: l’Emilia-Romagna. Anche nelle regioni che si presentano come storicamente organizzate sulla pluralità di centri emergenti, il rapporto col territorio è mediato da centri urbani minori che governano il tessuto cellulare delle aggregazioni di servizi di chiara origine agraria. Questo stato di cose comporta a livello politico -istituzionale una dialettica vivace fra territori voluti dalle istituzioni e territori legittimati dal consolidamento delle tradizioni confermato dall’uso attuale. La crescente domanda di capacità di governo dello sviluppo formulata dagli operatori economici locali e sostenuta dalle istituzioni europee si confronta con la scarsa capacità degli enti territoriali attuali: Regioni, Comuni e Province di raggiungere un livello di efficienza sufficiente ad organizzare sistemi di servizi adeguati a sostegno della crescita economica. Nel primo capitolo, dopo un breve approfondimento sulle “figure retoriche comunitarie”, quali il policentrismo, la governance, la coesione territoriale, utilizzate per descrivere questi fenomeni in atto, si analizzano gli strumenti programmatici europei e lo S.S.S.E,. in primis, che recita “Per garantire uno sviluppo regionale equilibrato nella piena integrazione anche nell’economia mondiale, va perseguito un modello di sviluppo policentrico, al fine di impedire un’ulteriore eccessiva concentrazione della forza economica e della popolazione nei territori centrali dell’UE. Solo sviluppando ulteriormente la struttura, relativamente decentrata, degli insediamenti è possibile sfruttare il potenziale economico di tutte le regioni europee.” La tesi si inserisce nella fase storica in cui si tenta di definire quali siano i nuovi territori funzionali e su quali criteri si basa la loro riconoscibilità; nel tentativo di adeguare ad essi, riformandoli, i territori istituzionali. Ai territori funzionali occorre riportare la futura fiscalità, ed è la scala adeguata per l'impostazione della maggior parte delle politiche, tutti aspetti che richiederanno anche la necessità di avere una traduzione in termini di rappresentanza/sanzionabilità politica da parte dei cittadini. Il nuovo governo auspicato dalla Comunità Europea prevede una gestione attraverso Sistemi Locali Territoriali (S.Lo.t.) definiti dalla combinazione di milieu locale e reti di attori che si comportano come un attore collettivo. Infatti il secondo capitolo parte con l’indagare il concetto di “regione funzionale”, definito sulla base della presenza di un nucleo e di una corrispondente area di influenza; che interagisce con altre realtà territoriali in base a relazioni di tipo funzionale, per poi arrivare alla definizione di un Sistema Locale territoriale, modello evoluto di regione funzionale che può essere pensato come una rete locale di soggetti i quali, in funzione degli specifici rapporti che intrattengono fra loro e con le specificità territoriali del milieu locale in cui operano e agiscono, si comportano come un soggetto collettivo. Identificare un sistema territoriale, è una condizione necessaria, ma non sufficiente, per definire qualsiasi forma di pianificazione o governance territoriale, perchè si deve soprattutto tener conto dei processi di integrazione funzionale e di networking che si vengono a generare tra i diversi sistemi urbani e che sono specchio di come il territorio viene realmente fruito., perciò solo un approccio metodologico capace di sfumare e di sovrapporre le diverse perimetrazioni territoriali riesce a definire delle aree sulle quali definire un’azione di governo del territorio. Sin dall’inizio del 2000 il Servizio Sviluppo Territoriale dell’OCSE ha condotto un’indagine per capire come i diversi paesi identificavano empiricamente le regioni funzionali. La stragrande maggioranza dei paesi adotta una definizione di regione funzionale basata sul pendolarismo. I confini delle regioni funzionali sono stati definiti infatti sulla base di “contorni” determinati dai mercati locali del lavoro, a loro volta identificati sulla base di indicatori relativi alla mobilità del lavoro. In Italia, la definizione di area urbana funzionale viene a coincidere di fatto con quella di Sistema Locale del Lavoro (SLL). Il fatto di scegliere dati statistici legati a caratteristiche demografiche è un elemento fondamentale che determina l’ubicazione di alcuni servizi ed attrezzature e una mappa per gli investimenti nel settore sia pubblico che privato. Nell’ambito dei programmi europei aventi come obiettivo lo sviluppo sostenibile ed equilibrato del territorio fatto di aree funzionali in relazione fra loro, uno degli studi di maggior rilievo è stato condotto da ESPON (European Spatial Planning Observation Network) e riguarda l’adeguamento delle politiche alle caratteristiche dei territori d’Europa, creando un sistema permanente di monitoraggio del territorio europeo. Sulla base di tali indicatori vengono costruiti i ranking dei diversi FUA e quelli che presentano punteggi (medi) elevati vengono classificati come MEGA. In questo senso, i MEGA sono FUA/SLL particolarmente performanti. In Italia ve ne sono complessivamente sei, di cui uno nella regione Emilia-Romagna (Bologna). Le FUA sono spazialmente interconnesse ed è possibile sovrapporre le loro aree di influenza. Tuttavia, occorre considerare il fatto che la prossimità spaziale è solo uno degli aspetti di interazione tra le città, l’altro aspetto importante è quello delle reti. Per capire quanto siano policentrici o monocentrici i paesi europei, il Progetto Espon ha esaminato per ogni FUA tre differenti parametri: la grandezza, la posizione ed i collegamenti fra i centri. La fase di analisi della tesi ricostruisce l’evoluzione storica degli strumenti della pianificazione regionale analizzandone gli aspetti organizzativi del livello intermedio, evidenziando motivazioni e criteri adottati nella suddivisione del territorio emilianoromagnolo (i comprensori, i distretti industriali, i sistemi locali del lavoro…). La fase comprensoriale e quella dei distretti, anche se per certi versi effimere, hanno avuto comunque il merito di confermare l’esigenza di avere un forte organismo intermedio di programmazione e pianificazione. Nel 2007 la Regione Emilia Romagna, nell’interpretare le proprie articolazioni territoriali interne, ha adeguato le proprie tecniche analitiche interpretative alle direttive contenute nel Progetto E.S.P.O.N. del 2001, ciò ha permesso di individuare sei S.Lo.T ( Sistemi Territoriali ad alta polarizzazione urbana; Sistemi Urbani Metropolitani; Sistemi Città – Territorio; Sistemi a media polarizzazione urbana; Sistemi a bassa polarizzazione urbana; Reti di centri urbani di piccole dimensioni). Altra linea di lavoro della tesi di dottorato ha riguardato la controriprova empirica degli effettivi confini degli S.Lo.T del PTR 2007 . Dal punto di vista metodologico si è utilizzato lo strumento delle Cluster Analisys per impiegare il singolo comune come polo di partenza dei movimenti per la mia analisi, eliminare inevitabili approssimazioni introdotte dalle perimetrazioni legate agli SLL e soprattutto cogliere al meglio le sfumature dei confini amministrativi dei diversi comuni e province spesso sovrapposti fra loro. La novità è costituita dal fatto che fino al 2001 la regione aveva definito sullo stesso territorio una pluralità di ambiti intermedi non univocamente circoscritti per tutte le funzioni ma definiti secondo un criterio analitico matematico dipendente dall’attività settoriale dominante. In contemporanea col processo di rinnovamento della politica locale in atto nei principali Paesi dell’Europa Comunitaria si va delineando una significativa evoluzione per adeguare le istituzioni pubbliche che in Italia comporta l’attuazione del Titolo V della Costituzione. In tale titolo si disegna un nuovo assetto dei vari livelli Istituzionali, assumendo come criteri di riferimento la semplificazione dell’assetto amministrativo e la razionalizzazione della spesa pubblica complessiva. In questa prospettiva la dimensione provinciale parrebbe essere quella tecnicamente più idonea per il minimo livello di pianificazione territoriale decentrata ma nel contempo la provincia come ente amministrativo intermedio palesa forti carenze motivazionali in quanto l’ente storico di riferimento della pianificazione è il comune e l’ente di gestione delegato dallo stato è la regione: in generale troppo piccolo il comune per fare una programmazione di sviluppo, troppo grande la regione per cogliere gli impulsi alla crescita dei territori e delle realtà locali. Questa considerazione poi deve trovare elementi di compatibilità con la piccola dimensione territoriale delle regioni italiane se confrontate con le regioni europee ed i Laender tedeschi. L'individuazione di criteri oggettivi (funzionali e non formali) per l'individuazione/delimitazione di territori funzionali e lo scambio di prestazioni tra di essi sono la condizione necessaria per superare l'attuale natura opzionale dei processi di cooperazione interistituzionale (tra comuni, ad esempio appartenenti allo stesso territorio funzionale). A questo riguardo molto utile è l'esperienza delle associazioni, ma anche delle unioni di comuni. Le esigenze della pianificazione nel riordino delle istituzioni politico territoriali decentrate, costituiscono il punto finale della ricerca svolta, che vede confermato il livello intermedio come ottimale per la pianificazione. Tale livello è da intendere come dimensione geografica di riferimento e non come ambito di decisioni amministrative, di governance e potrebbe essere validamente gestito attraverso un’agenzia privato-pubblica dello sviluppo, alla quale affidare la formulazione del piano e la sua gestione. E perché ciò avvenga è necessario che il piano regionale formulato da organi politici autonomi, coordinati dall’attività dello stato abbia caratteri definiti e fattibilità economico concreta.
Resumo:
Questa tesi di laurea nasce da una collaborazione con il Centro Studi Vitruviani di Fano, un’associazione nata il 30 Settembre 2010 nella mia città. Le note vicende riguardanti la Basilica vitruviana di Fano fanno della città adriatica il luogo più autorevole per accogliere un Centro Studi Internazionale dedicato all’opera di Vitruvio. Questa associazione è nata come contenitore di riferimento per eventi e iniziative legate al mondo della classicità intesa come momento storico, ma anche come più ampio fenomeno non solo artistico che interessa trasversalmente tutta la cultura occidentale. La creazione di un’istituzione culturale, di fondazione pubblico-privata, con l'obiettivo di porsi a riferimento internazionale per il proprio ambito di ricerca, è notizia comunque rilevante in un periodo in cui lo Stato vara l’articolo 7 comma 22 di una legge che ribadisce la fine dei finanziamenti agli enti, agli istituti, e alle fondazioni culturali. Il Centro Studi Vitruviani dovrà diventare presto sede di momenti scientifici alta, borse di studio, occasioni divulgative, mostre, iniziative didattiche. L’alto livello scientifico mi si è presentato subito chiaro durante questi mesi di collaborazione con il Centro, quando ho avuto l’occasione di incontrare e conoscere e contattare personalità quali i Professori Salvatore Settis, Pierre Gros, Howard Burns, Antonio Corso, Antonio Monterroso e Piernicola Pagliara. Attualmente nella mia città il Centro Studi ha una sede non adeguato, non è fruibile al pubblico (per problemi accessi in comune con altri Enti) e non è riconoscibile dall’esterno. L’attuale sede è all’interno del complesso conventuale del S.Agostino. Il Centro Studi mi ha proposto di valutare la possibilità di un ampliamento dell’associazione in questo edificio storico. Nel mio progetto è stato previsto un processo di acquisizione totale del complesso, con un ripensamento dell’accesso riconoscibile dall’esterno, e un progetto di rifunzionalizzazione degli spazi interni. È stata inserita un’aula per la presentazione di libri, incontri e congressi, mostre ed esposizioni, pubblicazioni culturali e specialistiche. Il fatto interessante di questa sede è che l’edificio vive sulle rovine di un tempio romano, già visitabile e inserite nelle visite della città sotterranea. Fano, infatti, è una città di mare, di luce e nello stesso tempo di architetture romane sotterranee. L’identità culturale e artistica della città è incisa nelle pieghe dei suoi resti archeologici. Le mura augustee fanesi costituiscono il tratto più lungo di mura romane conservate nelle città medio-adriatiche. Degli originari 1750 metri, ne rimangono circa 550. Di grande suggestione sono le imponenti strutture murarie rinvenute sotto il complesso del Sant’Agostino che hanno stimolato per secoli la fantasia e suscitato l'interesse di studiosi ed appassionati. Dopo la prima proposta il Centro Studi Vitruviani mi ha lanciato una sfida interessante: l’allargamento dell’area di progetto provando a ripensare ad una musealizzazione delle rovine del teatro romano dell’area adiacente. Nel 2001 l’importante rinvenimento archeologico dell’edificio teatrale ha donato ulteriori informazioni alle ricostruzione di una pianta archeologica della città romana. Questa rovine tutte da scoprire e da ripensare mi si sono presentate come un’occasione unica per il mio progetto di tesi ed, inoltre, estremamente attuali. Nonostante siano passati dieci anni dal rinvenimento del teatro, dell’area mancava un rilievo planimetrico aggiornato, un’ipotesi ricostruttiva delle strutture. Io con questo lavoro di Tesi provo a colmare queste mancanze. La cosa che ritengo più grave è la mancanca di un progetto di musealizzazione per inserire la rovina nelle visite della Fano romana sotteranea. Spero con questa tesi di aver donato materiale e suggestioni alla mia città, per far comprendere la potenzialità dell’area archeologica. Per affrontare questo progetto di Tesi sono risultate fondamentali tre esperienze maturate durante il mio percorso formativo: prima fra tutte la partecipazione nel 2009 al Seminario Internazionale di Museografia di Villa Adriana Premio di Archeologia e Architettura “Giambattista Piranesi” organizzato nella nostra facoltà dal Prof. Arch. Sandro Pittini. A noi studenti è stata data la possibilità di esercitarci in un progetto di installazioni rigorosamente temporanee all’interno del sedime archeologico di Villa Adriana, grande paradigma per l’architettura antica così come per l’architettura contemporanea. Nel corso del quarto anno della facoltà di Architettura ho avuto l’occasione di seguire il corso di Laboratorio di Restauro con i professori Emanuele Fidone e Bruno Messina. Il laboratorio aveva come obiettivo principale quello di sviluppare un approccio progettuale verso la preesistenza storica che vede l'inserimento del nuovo sull'antico non come un problema di opposizione o di imitazione, ma come fertile terreno di confronto creativo. Durante il quinto anno, ho scelto come percorso conclusivo universitario il Laboratorio di Sintesi Finale L’architettura del Museo, avendo già in mente un progetto di tesi che si rivolgesse ad un esercizio teorico di progettazione di un vero e proprio polo culturale. Il percorso intrapreso con il Professor Francesco Saverio Fera mi ha fatto comprendere come l’architettura dell'edificio collettivo, o più semplicemente dell’edificio pubblico si lega indissolubilmente alla vita civile e al suo sviluppo. È per questo che nei primi capitoli di questa Tesi ho cercato di restituire una seria e attenta analisi urbana della mia città. Nel progetto di Tesi prevedo uno spostamento dell’attuale Sezione Archeologica del Museo Civico di Fano nell’area di progetto. Attualmente la statuaria e le iscrizioni romane sono sistemate in sei piccole sale al piano terra del Palazzo Malatestiano: nel portico adiacente sono esposti mosaici e anfore sottoposte all’azione continua di volatili. Anche la Direttrice del Museo, la Dott.ssa Raffaella Pozzi è convinta del necessario e urgente spostamento. Non è possibile lasciare la sezione archeologica della città all’interno degli insufficienti spazi del Palazzo Malatestiano con centinaia di reperti e materiali vari (armi e uniformi, pesi e misure, ceramiche, staturia, marmi, anfore e arredi) chiusi e ammassati all’interno di inadeguati depositi. Il tutto è stato opportunamente motivato in un capitolo di questa Tesi. Credo fortemente che debbano essere le associazioni quali il CSV assieme al già attivissimo Archeclub di Fano e il Museo Archeologico, i veri punti di riferimento per questa rinascita culturale locale e territoriale, per promuovere studi ed iniziative per la memoria, la tutela e la conservazione delle fabbriche classiche e del locale patrimonio monumentale. Questo lavoro di Tesi vuole essere un esercizio teorico che possa segnare l’inizio di un nuovo periodo culturale per la mia città, già iniziato con l’istituzione del Centro Studi Vitruviani. L’evento folkloristico della Fano dei Cesari, una manifestazione sicuramente importante, non può essere l’unico progetto culturale della città! La “Fano dei Cesari” può continuare ad esistere, ma deve essere accompagnata da grandi idee, grandi mostre ed eventi accademici.
Resumo:
The dissertation aims to explore the several forms in which the activity of the Swiss psychologist, Carl Gustav Jung (1875-1961) developed on the project and the realisation of the Eranos Conferences, founded in 1933 by Olga Fröbe-Kapteyn (1881-1962). The dissertation, in particular, focuses on the first twenty-year period (1933-1952) that determined the fundamental aspects and shaped the peculiar configuration of the Eranos Conferences as a “research laboratory” on the universal characteristics of the religious phenomenon. The dissertation contains the following chapters: 1) Aspects of C.G. Jung’s intellectual contribution to the religious hermeneutics proposed in the Eranos Conferences; 2) C.G. Jung’s conferences at Eranos: a historical examination; 3) C.G. Jung and the Eranos Archive for Research in Symbolism; 4) C.G. Jung and the hidden history of Eranos; 5) C.G. Jung’s commentary on Opicinus de Canistris’s Codex Palatinus Latinus 1993: fragments of a lost and rediscovered Eranos seminar.