754 resultados para Perch.
Resumo:
L'Autore opera una ricostruzione teorica del concetto di unità della successione, apprezzandone diverse sfumature: un significato più ristretto, per cui esso si lega al concetto di universitas ed individua appunto come unico il complesso delle situazioni giuridiche soggettive riferibili al de cuius; un secondo concetto più ampio, per cui unitarietà della successione mortis causa è il fenomeno per cui la successione nella somma delle posizioni giuridiche spettanti al defunto riceve una unica regolazione legislativa; un terzo profilo, che abbandona il concetto di successione mortis causa in senso giuridico, per accostarsi ad un concetto (piuttosto di natura economica)di unità della vicenda successoria. Se il concetto di unità della successione possiede un triplice, valore, anche la deroga ad esso potrà assumere diverse vesti, a seconda che incida sul primo, sul secondo o sul terzo di questi significati. Se il terzo profilo riguarda piuttosto un concetto economico e non tecnico di successione, ed importa conseguentemente deroghe solo indirette all’unità della successione, l’anomalia può essere di due tipi: possono essere dettate regole particolari per singoli beni, che però rimangono entro l’unica massa ereditaria, pur avendo una destinazione loro propria, e può invece essere creata dal legislatore una separata massa per cui si fa luogo ad una distinta regolazione successoria. Procedendo nella classificazione, le ipotesi di una deroga del primo tipo possono essere definite successioni speciali, riservando alla seconda classe di anomalie il nome di successioni separate. Conclusivamente, l'autore rileva che la disciplina della vicenda successoria, così come consegnata dalla tradizione e sancita ancora nelle norme della codificazione del 1942, non è più caratterizzata dall’assoluto dominio del principio di unità della successione, anche perch non si è rivelata, nella esperienza giuridica successiva alla codificazione, del tutto adeguata, in relazione a determinate categorie di beni e ad alcune categorie di soggetti coinvolti. Il legislatore ha infatti ritenuto di introdurre deroghe, via via maggiori al principio, con riferimento sia ai beni d’impresa sia alla particolare posizione – ed agli interessi tutelati – dei soggetti più vicini al de cuius, come il coniuge ed i parenti che vivessero a suo carico.
Resumo:
L’oggetto della tesi di dottorato è costituito, nel quadro delle reciproche relazioni tra assetti territoriali e sviluppo economico, dalla dimensione giuridica del governo del territorio. Il diritto del governo del territorio, infatti, sta attraversando, con un ritmo ed una intensità crescenti, una fase di profonde e non sempre lineari trasformazioni. Questi mutamenti, lungi dal limitarsi ad aspetti specifici e particolari, incidono sui «fondamentali» stessi della «materia», arrivando a mettere in discussione le ricostruzioni teoriche più accreditate e le prassi applicative maggiormente consolidate. A dispetto della rilevanza delle innovazioni, però, la dimensione giuridica del governo del territorio seguita ad essere un campo segnato da una notevole continuità ed ambiguità di fondo, dove le innovazioni stesse procedono di pari passo con le contraddizioni. Un’ambiguità che, fatalmente, si riflette sull’azione delle pubbliche amministrazioni cui sono attribuiti compiti in materia. Queste, infatti, trovandosi spesso tra l’«incudine» (delle innovazioni) ed il «martello» (delle contraddizioni), sono costrette ad operare in un contesto fortemente disomogeneo e disarticolato già sul piano normativo. Da qui deriva, altresì, la difficoltà di restituirne una cifra complessiva che non sia la riproposizione di piatte descrizioni del processo di progressivo, ma costante incremento della «complessità» - normativa, organizzativa e funzionale - del sistema giuridico di disciplina del territorio, a cui corrisponde ciò che appare sempre di più come una forma implicita di «rinuncia» a logiche e moduli d’azione più o meno unitari nella definizione degli assetti territoriali: in questo senso, pertanto, vanno lette le ricorrenti affermazioni relative allo stato di crisi che, anche prescindendo dai difetti congeniti della disciplina per come si è venuta giuridicamente a configurare, caratterizza il sistema di pianificazione territoriale ed urbanistica. Si spiega così perch, nonostante il profluvio di interventi da parte dei diversi legislatori, specialmente regionali, si sia ancora ben lontani dal fornire una risposta adeguata ai molteplici profili di criticità del sistema giuridico di disciplina del territorio: tra i quali, su tutti, va sicuramente menzionata la sempre più marcata asimmetria tra la configurazione «ontologicamente» territoriale e spaziale degli strumenti cui si tende a riconoscere la funzione di «motore immobile» dei processi di governo del territorio - i piani - e la componente temporale degli stessi in relazione alle vorticose modificazioni del contesto socio-economico di riferimento. Né, a dire il vero, gli «antidoti» alla complessità, via via introdotti in sede regionale, sembrano aver sortito - almeno fino ad ora - gli effetti sperati. L’esito di tutto ciò, però, non può che essere il progressivo venir meno di logiche unitarie e, soprattutto, «sistemiche» nella definizione degli assetti territoriali. Fenomeno, questo, che - paradossalmente - si manifesta con maggiore intensità proprio nel momento in cui, stante il legame sempre più stretto tra sviluppo socio-economico e competitività dei singoli sistemi territoriali, l’ordinamento dovrebbe muovere nella direzione opposta. Date le premesse, si è dunque strutturato il percorso di ricerca e analisi nel modo seguente. In primo luogo, si sono immaginati due capitoli nei quali sono trattati ed affrontati i temi generali dell’indagine e lo sfondo nel quale essa va collocata: le nozioni di governo del territorio e di urbanistica, nonché quella, eminentemente descrittiva, di governo degli assetti territoriali, i loro contenuti e le funzioni maggiormente rilevanti riconducibili a tali ambiti; la tematica della competitività e degli interessi, pubblici, privati e collettivi correlati allo sviluppo economico dei singoli sistemi territoriali; la presunta centralità riconosciuta, in questo quadro, al sistema di pianificazione territoriale ed urbanistica in una prospettiva promozionale dello sviluppo economico; ma, soprattutto, i riflessi ed i mutamenti indotti al sistema giuridico di disciplina del territorio dall’azione delle dinamiche cosiddette glocal: questo, sia per quanto concerne le modalità organizzative e procedimentali di esercizio delle funzioni da parte dei pubblici poteri, sia per quanto attiene, più in generale, alla composizione stessa degli interessi nella definizione degli assetti territoriali. In secondo luogo, si è reputato necessario sottoporre a vaglio critico il sistema pianificatorio, cercando di evidenziare i fattori strutturali e gli ulteriori elementi che hanno determinato il suo insuccesso come strumento per realizzare le condizioni ‘ottimali’ per lo sviluppo economico delle collettività che usano il territorio. In terzo luogo, poi, si è rivolto lo sguardo al quadro delle soluzioni individuate dalla normativa e, per certi versi, offerte dalla prassi alla crisi che ha investito il sistema di pianificazione del territorio, soffermandosi, specificatamente e con approccio critico, sull’urbanistica per progetti e sull’urbanistica consensuale nelle loro innumerevoli articolazioni e partizioni. Infine, si è provato a dar conto di quelle che potrebbero essere le linee evolutive dell’ordinamento, anche in un’ottica de jure condendo. Si è tentato, cioè, di rispondere, sulla base dei risultati raggiunti, alla domanda se e a quali condizioni il sistema di pianificazione territoriale ed urbanistica possa dirsi il modello preferibile per un governo degli assetti territoriali funzionale a realizzare le condizioni ottimali per lo sviluppo economico.
Resumo:
La necessità di sincronizzare i propri dati si presenta in una moltitudine di situazioni, infatti il numero di dispositivi informatici a nostra disposizione è in continua crescita e, all' aumentare del loro numero, cresce l' esigenza di mantenere aggiornate le multiple copie dei dati in essi memorizzati. Vi sono diversi fattori che complicano tale situazione, tra questi la varietà sempre maggiore dei sistemi operativi utilizzati nei diversi dispositivi, si parla di Microsoft Windows, delle tante distribuzioni Linux, di Mac OS X, di Solaris o di altri sistemi operativi UNIX, senza contare i sistemi operativi più orientati al settore mobile come Android. Ogni sistema operativo ha inoltre un modo particolare di gestire i dati, si pensi alla differente gestione dei permessi dei file o alla sensibilità alle maiuscole. Bisogna anche considerare che se gli aggiornamenti dei dati avvenissero soltanto su di uno di questi dispositivi sarebbe richiesta una semplice copia dei dati aggiornati sugli altri dispositivi, ma che non è sempre possibile utilizzare tale approccio. Infatti i dati vengono spesso aggiornati in maniera indipendente in più di un dispositivo, magari nello stesso momento, è pertanto necessario che le applicazioni che si occupano di sincronizzare tali dati riconoscano le situazioni di conflitto, nelle quali gli stessi dati sono stati aggiornati in più di una copia ed in maniera differente, e permettano di risolverle, uniformando lo stato delle repliche. Considerando l' importanza e il valore che possono avere i dati, sia a livello lavorativo che personale, è necessario che tali applicazioni possano garantirne la sicurezza, evitando in ogni caso un loro danneggiamento, perch sempre più spesso il valore di un dispositivo dipende più dai dati in esso contenuti che dal costo dello hardware. In questa tesi verranno illustrate alcune idee alternative su come possa aver luogo la condivisione e la sincronizzazione di dati tra sistemi operativi diversi, sia nel caso in cui siano installati nello stesso dispositivo che tra dispositivi differenti. La prima parte della tesi descriverà nel dettaglio l' applicativo Unison. Tale applicazione, consente di mantenere sincronizzate tra di loro repliche dei dati, memorizzate in diversi dispositivi che possono anche eseguire sistemi operativi differenti. Unison funziona a livello utente, analizzando separatamente lo stato delle repliche al momento dell' esecuzione, senza cioè mantenere traccia delle operazioni che sono state effettuate sui dati per modificarli dal loro stato precedente a quello attuale. Unison permette la sincronizzazione anche quando i dati siano stati modificati in maniera indipendente su più di un dispositivo, occupandosi di risolvere gli eventuali conflitti che possono verificarsi rispettando la volontà dell' utente. Verranno messe in evidenza le strategie utilizzate dai suoi ideatori per garantire la sicurezza dei dati ad esso affidati e come queste abbiano effetto nelle più diverse condizioni. Verrà poi fornita un' analisi dettagiata di come possa essere utilizzata l' applicazione, fornendo una descrizione accurata delle funzionalità e vari esempi per renderne più chiaro il funzionamento. Nella seconda parte della tesi si descriverà invece come condividere file system tra sistemi operativi diversi all' interno della stessa macchina, si tratta di un approccio diametralmente opposto al precedente, in cui al posto di avere una singola copia dei dati, si manteneva una replica per ogni dispositivo coinvolto. Concentrando l' attenzione sui sistemi operativi Linux e Microsoft Windows verranno descritti approfonditamente gli strumenti utilizzati e illustrate le caratteristiche tecniche sottostanti.
Resumo:
Oggetto della ricerca è il tema dello spazio delle centrali idroelettriche costruite nella prima metà del Novecento dagli architetti Giovanni Muzio e Piero Portaluppi. L’individuazione del tema sorge dalla volontà di indagare quali siano stati gli sviluppi dal punto di vista architettonico all’interno di un genere così specifico durante un periodo di tempo in cui gli stili architettonici e le tendenze hanno subito stravolgimenti ed evoluzioni che ancora oggi trovano una difficile connotazione e definizione precisa. L’analisi dell’architettura delle centrali idroelettriche, effettuata ripercorrendo le principali vicende del settore idroelettrico dalla fine del secolo scorso al secondo dopoguerra, oltre a considerare il rapporto con il contesto territoriale e culturale del nostro Paese vuole prendere in considerazione anche il particolare rapporto che in più casi si è venuto a creare tra committenti e progettisti. Compito della tesi è rileggere un settore poco indagato finora e capire se vi sia stata effettivamente una evoluzione architettonica dal punto di vista tipologico o se la centrale sia stata sempre affrontata come semplice esercizio di “vestizione” di un involucro precostituito da precise esigenze tecniche. La ricerca infatti si pone come obiettivo lo studio delle centrali non solo dal punto di vista tipologico e spaziale dei suoi principali elementi, ma si pone come obiettivo anche lo studio della loro distribuzione nel sito in cui sono sorte, distribuzione che spesso ha portato alla formazione di una sorta di vera e propria “città elettrica”, in cui la composizione dei vari elementi segue una logica compositiva ben precisa. Dal punto di vista del contributo originale la ricerca vuole proporre una serie di riflessioni ed elaborati inerenti alcune centrali non ancora indagate. Nel caso specifico di Portaluppi l’apporto originale consiste nell’aver portato alla luce notizie inerenti centrali che sono sempre state poste in secondo piano rispetto le ben più note e studiate centrali della Val d’Ossola. Nel caso invece di Muzio il contributo consiste in una analisi approfondita e in una comparazione di documenti che di solito sono sempre stati pubblicati come semplice apparato iconografico, ma che messi a confronto danno una lettura di quelle che sono state le fasi e le elaborazioni progettuali apportate dall’autore. Il tema della ricerca è stato affrontato poi attraverso una lettura delle fonti dirette relative agli scritti degli autori, con una contemporanea lettura di testi, articoli e interventi tratti dalle riviste appartenenti al periodo in esame per comprendere al meglio il panorama culturale e architettonico che hanno fatto da scenario alle esperienze di entrambe le figure oggetto di studio. Infine la ricerca si è concentrata sull’analisi di alcune opere in particolare - due centrali idroelettriche per ciascun autore oggetto della tesi - scelte perch considerate rappresentative sia per impianto spaziale e tipologico, sia per le scelte compositive e stilistiche adottate. La lettura dei manufatti architettonici scelti è stata condotta con l’analisi di copie di elaborati grafici originali, foto d’epoca e altri documenti reperiti grazie ad una ricerca condotta in vari archivi. Le centrali scelte nell’ambito delle esperienze maturate da Muzio e Portaluppi sono state individuate per rappresentare il quadro relativo allo sviluppo e alla ricerca di un nuovo linguaggio formale da adottare nell’ambito dell’architettura di questi manufatti. Per entrambi i protagonisti oggetto della ricerca sono state individuate due centrali in grado di dare una visione il più possibile completa dell’evoluzione della tematica delle centrali idroelettriche all’interno della loro esperienza, prendendo in considerazione soprattutto gli aspetti legati all’evoluzione del loro linguaggio compositivo e stilistico. L’individuazione delle centrali da analizzare è stata dettata prendendo in considerazione alcuni fattori come il tipo di impianto, le relazioni e confronto con il contesto geografico e naturale e le soluzioni adottate.
Resumo:
Prima di procedere con il progetto sono state fatte sezioni storiche dell’area, in epoche indicative, per comprendere quelle che sono le invarianti e le caratteristiche di tale tessuto. Da qui si è dedotto lo schema generatore dell’insediamento che parte dall’identificazione degli assi viari (pedonali e carrabili) già presenti nell’area, che fanno diretto riferimento allo schema cardo-decumanico generatore dell’impianto angioino della città. Con il tracciamento si individuano gli isolati base, che con variazioni formali e tipologiche hanno originato gli edifici di progetto. I corpi di fabbrica generatori della planimetria, dialogano e rimangono a stretto contatto con i pochi edifici agibili, per i quali sono previsti consolidamenti e ristrutturazioni, qualora necessari. Inevitabile è stato il confronto con l’orografia, prestando particolare attenzione a non annullare con l’inserimento degli edifici il dislivello presente, ma lasciarlo percepire chiaramente: l’attacco a terra di ogni edificio avviene gradualmente, passando dai due piani fuori terra a monte ai tre, quattro a valle. Ovviamente non tutti gli assi sono stati trattati allo stesso modo, ma conseguentemente alla loro funzione e carattere di utilizzo. Analizzando la struttura viaria dell’intera area, si presentano schematicamente due anelli di circonvallazione del centro urbano: uno più esterno, di più recente costruzione, rappresentato da via XX Settembre, e uno più vecchio, che rimane rasente al centro storico, costituito dal viale Duca Degli Abruzzi, che prosegue in viale Giovanni XXIII e termina nel viadotto Belvedere. Quest’ultimo asse rappresenta sicuramente un importante collegamento cittadino, sia per la vicinanza al centro, sia per le porzioni di città messe in comunicazione; nonostante ciò il viadotto ha subito, all’altezza di viale Nicolò Persichetti, uno smottamento dopo il 6 aprile, ed essendo un elemento di scarso valore architettonico e spaziale, la sua presenza è stata ripensata. Compiendo una deviazione su via XX Settembre al termine di viale Duca Degli Abruzzi, che va a sfruttare la già presente via Fonte Preturo, non si va a rivoluzionante l’odierno assetto, che confluisce comunque, qualche centinaio di metri dopo, in via XX Settembre è si eliminano le connotazioni negative che il viadotto avrebbe sul rinnovato ingresso al centro storico. La vivibilità tende a favorire così collegamento e all’eterogeneità degli spazi più che la separazione fisica e psicologica: il concetto di città fa riferimento alla vita in comune; per favorirla è importante incentivare i luoghi di aggregazione, gli spazi aperti. Dalle testimonianze degli aquilani la vita cittadina vedeva il centro storico come principale luogo d’incontro sociale. Esso era animato dal numeroso “popolo” di studenti, che lo manteneva attivo e vitale. Per questo nelle intenzioni progettuali si pone l’accento su una visione attiva di città con un carattere unitario come sostiene Ungers3. La funzione di collegamento, che crea una struttura di luoghi complementari, può essere costituita dal sistema viario e da quello di piazze (luoghi sociali per eccellenza). Via Fontesecco ha la sua terminazione nell’omonima piazza: questo spazio urbano è sfruttato, nella conformazione attuale, come luogo di passaggio, piuttosto che di sosta, per questo motivo deve essere ricalibrato e messo in relazione ad un sistema più ampio di quello della sola via. In questo sistema di piazze rientra anche la volontà di mettere in relazione le emergenze architettoniche esistenti nell’area e nelle immediate vicinanze, quali la chiesa e convento dell’Addolorata, Palazzo Antonelli e la chiesa di San Domenico (che si attestano tutte su spazi aperti), e la chiesa di San Quinziano su via Buccio di Ranallo. In quest’ottica l’area d’intervento è intesa come appartenente al centro storico, parte del sistema grazie alla struttura di piazze, e allo stesso tempo come zona filtro tra centro e periferia. La struttura di piazze rende l’area complementare alla trama di pieni e vuoti già presente nel tessuto urbano cittadino; la densità pensata nel progetto, vi si accosta con continuità, creando un collegamento con l’esistente; allontanandosi dal centro e avvicinandosi quindi alle più recenti espansioni, il tessuto muta, concedendo più spazio ai vuoti urbani e al verde. Via Fontesecco, il percorso che delimita il lato sud dell’area, oltre ad essere individuata tra due fronti costruiti, è inclusa tra due quinte naturali: il colle dell’Addolorata (con le emergenze già citate) e il colle Belvedere sul quale s’innesta ora il viadotto. Questi due fronti naturali hanno caratteri molto diversi tra loro: il colle dell’Addolorata originariamente occupato da orti, ha un carattere urbano, mentre il secondo si presenta come una porzione di verde incolto e inutilizzato che può essere sfruttato come cerniera di collegamento verticale. Lo stesso declivio naturale del colle d’Addolorata che degrada verso viale Duca Degli Abruzzi, viene trattato nel progetto come una fascia verde di collegamento con il nuovo insediamento universitario. L’idea alla base del progetto dell’edilizia residenziale consiste nel ricostruire insediamenti che appartengano parte della città esistente; si tratta quindi, di una riscoperta del centro urbano e una proposta di maggior densità. Il tessuto esistente è integrato per ottenere isolati ben definiti, in modo da formare un sistema ben inserito nel contesto. Le case popolari su via Fontesecco hanno subito con il sisma notevoli danni, e dovendo essere demolite, hanno fornito l’occasione per ripensare all’assetto del fronte, in modo da integrarlo maggiormente con il tessuto urbano retrostante e antistante. Attualmente la conformazione degli edifici non permette un’integrazione ideale tra i percorsi di risalita pedonale al colle dell’Addolorata e la viabilità. Le scale terminano spesso nella parte retrostante gli edifici, senza sfociare direttamente su via Fontesecco. Si è quindi preferito frammentare il fronte, che rispecchiasse anche l’assetto originario, prima cioè dell’intervento fascista, e che consentisse comunque una percezione prospettica e tipologica unitaria, e un accesso alla grande corte retrostante. Il nuovo carattere di via Fontesecco, risultante dalle sezioni stradali e dalle destinazioni d’uso dei piani terra degli edifici progettuali, è quello di un asse commerciale e di servizio per il quartiere. L’intenzione, cercando di rafforzare l’area di progetto come nuovo possibile ingresso al centro storico, è quella di estendere l’asse commerciale fino a piazza Fontesecco, in modo da rendere tale spazio di aggregazione vitale: “I luoghi sono come monadi, come piccoli microcosmi, mondi autonomi, con tutte le loro caratteristiche, pregi e difetti, inseriti in un macrocosmo urbano più grande, che partendo da questi piccoli mondi compone una metropoli e un paesaggio”.4[...] Arretrando verso l’altura dell’Addolorata è inserita la grande corte del nuovo isolato residenziale, anch’essa con servizi (lavanderie, spazi gioco, palestra) ma con un carattere diverso, legato più agli edifici che si attestano sulla corte, anche per l’assenza di un accesso carrabile diretto; si crea così una gerarchia degli spazi urbani: pubblico sulla via e semi-pubblico nella corte pedonale. La piazza che domina l’intervento (piazza dell’Addolorata) è chiusa da un edificio lineare che funge da “quinta”, il centro civico. Molto flessibile, presenta al suo interno spazi espositivi e un auditorium a diretta disposizione del quartiere. Sempre sulla piazza sono presenti una caffetteria, accessibile anche dal parco, che regge un sistema di scale permettendo di attraversare il dislivello con la “fascia” verde del colle, e la nuova ala dell’Hotel “Duca degli Abruzzi”, ridimensionata rispetto all’originale (in parte distrutto dal terremoto), che si va a collegare in maniera organica all’edificio principale. Il sistema degli edifici pubblici è completo con la ricostruzione del distrutto “Istituto della Dottrina Cristiana”, adiacente alla chiesa di San Quinziano, che va a creare con essa un cortile di cui usufruiscono gli alunni di questa scuola materna ed elementare. Analizzando l’intorno, gran parte dell’abitato è definito da edifici a corte che, all’interno del tessuto compatto storico riescono a sopperire la mancanza di spazi aperti con corti, più o meno private, anche per consentire ai singoli alloggi una giusta illuminazione e areazione. Nel progetto si passa da due edifici a corti semi-private, chiusi in se stessi, a un sistema più grande e complesso che crea un ampio “cortile” urbano, in cui gli edifici che vi si affacciano (case a schiera e edifici in linea) vanno a caratterizzare gli spazi aperti. Vi è in questa differenziazione l’intenzione di favorire l’interazione tra le persone che abitano il luogo, il proposito di realizzare elementi di aggregazione più privati di una piazza pubblica e più pubblici di una corte privata. Le variazioni tipologiche degli alloggi poi, (dalla casa a schiera e i duplex, al monolocale nell’edilizia sociale) comportano un’altrettanta auspicabile mescolanza di utenti, di classi sociali, età e perch no, etnie diverse che permettano una flessibilità nell’utilizzo degli spazi pubblici.
Resumo:
Il progetto di intervento per la ricostruzione dell’Aquila è il frutto del lavoro sul discusso e attuale tema del terremoto del 6 aprile 2009 in Abruzzo, che ha profondamente colpito la città ed il suo territorio. Quest’ultimo è stato l’elemento fondativo da cui partire in fase progettuale, affinchè la memoria possa diventare nuovamente fonte di identità e dove il paesaggio rappresenti un dialogo costante tra passato e presente, dove gli spazi aperti assumano il ruolo di rinnovata struttura generativa. Lo scenario che si prospetta dopo il sisma, mostra come sia forte la necessità di ritornare alla propria città, l’Aquila, attraverso la fruizione di spazi di relazione pubblici quali le piazze, le chiese e gli spazi privati dell’abitazione. L’intervento all’interno del quartiere di San Silvestro in cui si è sviluppato il progetto, rappresenta una realtà molteplice e complessa in cui più elementi interagiscono tra loro. Per questo, il progetto si pone come obiettivo quello di “intrecciare relazioni”, ossia creare legami tra sistemi ed elementi ora disgiunti che, se tra loro connessi, diventano l’occasione per far rivivere la città. La volontà di creare relazioni si è definita attraverso diverse azioni; una di queste è la scelta di intervenire a scala urbana, definendo un nuovo sistema viario che possa svincolare il centro dal percorso congestionato di via Duca degli Abruzzi. L’intervento previsto su macroscala non solo ha l’obbiettivo di tutelare il centro storico dal traffico carrabile, ma privilegia la circolazione pedonale all’interno del quartiere, cercando di restituire una percezione dello spazio a misura d’uomo. Altro aspetto caratterizzante il progetto è la volontà di “ricostruire scene urbane” caratteristiche del centro storico aquilano, consolidando gli spazi di aggregazione già esistenti come piazza san Silvestro e inserendo nuovi spazi di relazione in corrispondenza di porta Branconia, un punto nevralgico del progetto perch congiunge la cinta muraria con il centro storico e con la città all’esterno delle mura. Il progetto prevede che il sistema del verde retrostante sia accessibile attraverso percorsi nel verde che, dal centro, confluiscono sull’asse commerciale di via della Croce Rossa. La definizione della parte più storica del quartiere di San Silvestro avviene attraverso un sistema di nuovi elementi che dialogano con le preesistenze storiche: un complesso di alloggi che si sviluppa nel lotto adiacente la chiesa, secondo la tipologia a schiera, ha un duplice affaccio, su via Duca degli Abruzzi da un lato e su via Sant’Agnese dall’altro; un nuovo museo per la città che si colloca su piazza San Silvestro confrontandosi direttamente con la Chiesa e col palazzo Branconi-Farinosi, rispettandone il ruolo e l’importanza. Nell’area di espansione, limitrofa al già esistente quartiere di San Silvestro, si è cercati di privilegiare la relazione della città col suolo: a tal proposito l’andamento delle curve di livello presenti, dà origine a strade per l’accesso agli alloggi sociali che confluiscono nel verde adiacente le mura della città. L’elemento unificatore di questo nuovo impianto risulta essere dunque il parco pubblico che costeggia le mura, congiungendo piazza S. Silvestro con l’estremità ovest dell’area e con i percorsi pedonali che caratterizzano tutta l’area di progetto trovando la massima espressione in prossimità proprio delle mura storiche. Attraverso queste prime intenzioni progettuali si è cercato di sviluppare un sistema organico e coerente di elementi capaci di dialogare con il contesto circostante e di instaurare nuove relazioni con la città. Se consideriamo le diverse componenti che formano il sistema possiamo evidenziare la presenza di elementi serventi, quali gli spazi aventi funzione pubblica, e di elementi serviti, come le residenze, aventi funzione privata. In particolare, il sistema residenziale, assume uno sviluppo uniforme ed omogeneo all’interno dell’area di intervento articolandosi con differenti connotazioni a seconda del diverso contesto circostante.
Resumo:
Questa tesi si pone come obiettivo la riqualificazione architettonica del plesso scolastico del Comune di Galeata, cittadina della media valle del Bidente conosciuta sia per gli estesi ritrovamenti archeologici dell’antica città romana di Mevaniola e del cosiddetto “Palazzo di Teodorico”, sia per essere la città con la percentuale più alta di immigrati regolari a livello nazionale. Sono proprio queste peculiarità a guidare il progetto verso un intervento mirato non solo alla rigenerazione urbana dell’area ma anche civica e sociale attraverso la dotazione di nuovi servizi e spazi pubblici. Il progetto nasce dall’idea di dare un carattere unitario e riconoscibile ad un’area attualmente caratterizzata da singoli edifici che semplicemente si susseguono l’uno dopo l’altro in modo paratattico. La volontà è invece quella di dar vita ad un vero e proprio “palazzo” dell’istruzione, caratterizzato da spazi privati e spazi pubblici, spazi aperti e spazi chiusi in grado di dare una molteplicità di risposte e soluzioni alla complessità della società odierna galeatese. Proprio lo spazio pubblico è infatti il vero motore dell’intervento; quello spazio pubblico attualmente negato a Galeata, che si è vista mutilata nella parte centrale del suo centro storico sventrato alla fine dell’Ottocento per la costruzione della strada statale bidentina, diventa ora generatore di nuove relazioni con gli edifici dell’area e di nuove dinamiche tra il plesso scolastico e la città grazie alla realizzazione di corti aperte e terrazzate, piazze e strade pedonali che fungono sia da giardini sia da spazi espositivi o comunque spazi polifunzionali che possono accogliere eventi nei vari mesi dell’anno, entrando così a far parte di quella serie di attrezzature a servizio delle manifestazioni culturali in cui è sempre attiva la valle del Bidente e la comunità di Galeata. La scuola d’infanzia e di istruzione primaria viene così a configurarsi non solo come il primo luogo della crescita culturale del bambino, ma anche come primo luogo di integrazione sociale, perch il nuovo progetto genera all’interno e all’esterno degli edifici occasioni di incontro e confronto tra gli scolari grazie all’attenzione riservata agli spazi per le attività di interciclo e per le attività libere. Inoltre l’area viene dotata di un centro maternità/consultorio dove sono collocati servizi di assistenza per le donne in gravidanza e dove le stesse possono confrontare e condividere la propria esperienza con le altre future mamme. L’intero intervento è guidato a livello progettuale anche da criteri di ecoefficienza come educazione alla responsabilità ambientale.
Resumo:
La presente dissertazione si apre con l’analisi della costa dell’Emilia Romagna, in particolare quella antistante la città di Cesenatico. Nel primo capitolo si è voluto fare un breve inquadramento delle problematiche che affliggono le acque costiere a debole ricambio. Il Mare Adriatico e in particolare le acque costiere, ormai da più di trent’anni, sono afflitti da una serie di problemi ambientali correlati all’inquinamento. Sulla costa romagnola, già verso la metà degli anni settanta, le prime estese morie di organismi viventi acquatici avevano posto sotto gli occhi dell’opinione pubblica l’insorgenza di situazioni drammatiche per l’ambiente, per la salute pubblica e per due importanti settori dell’economia regionale e nazionale quali il turismo e la pesca. Fino ad allora aveva dominato la diffusa convinzione che la diluizione nell’enorme quantità di acqua disponibile avrebbe consentito di immettere nel mare quantità crescenti di sostanze inquinanti senza intaccare in misura apprezzabile la qualità delle acque. Questa teoria si rivelò però clamorosamente errata per i mari interni con scarso ricambio di acqua (quali per esempio il Mare Adriatico), perch in essi le sostanze che entrano in mare dalla terraferma si mescolano per lungo tempo solo con un volume limitato di acqua antistante la costa. Solo se l’immissione di sostanze organiche è limitata, queste possono essere demolite agevolmente attraverso processi di autodepurazione per opera di microrganismi naturalmente presenti in mare. Una zona molto critica per questo processo è quella costiera, perch in essa si ha la transizione tra acque dolci e acque salate, che provoca la morte sia del plancton d’acqua dolce che di quello marino. Le sostanze estranee scaricate in mare giungono ad esso attraverso tre vie principali: • dalla terraferma: scarichi diretti in mare e scarichi indiretti attraverso corsi d’acqua che sfociano in mare; • da attività svolte sul mare: navigazione marittima e aerea, estrazione di materie prime dai fondali e scarico di rifiuti al largo; • dall’atmosfera: tramite venti e piogge che trasportano inquinanti provenienti da impianti e attività situati sulla terraferma. E’ evidente che gli scarichi provenienti dalla terraferma sono quelli più pericolosi per la salvaguardia delle acque costiere, in particolare vanno considerati: gli scarichi civili (enormemente accresciuti nel periodo estivo a causa del turismo), gli scarichi agricoli e gli scarichi industriali. Le sostanze estranee scaricate in mare contengono una grande abbondanza di sali nutrienti per i vegetali (in particolare nitrati e fosfati) che provengono dai concimi chimici, dai residui del trattamento biologico negli impianti di depurazione e dall’autodepurazione dei fiumi. Queste sostanze una volta giunte in mare subiscono un nuovo processo di autodepurazione che genera ulteriori quantità di nutrienti; i sali di fosforo e azoto così formati si concentrano soprattutto nelle acque basse e ferme della costa e vengono assimilati dalle alghe che possono svilupparsi in modo massivo: tale fenomeno prende il nome di eutrofizzazione. La produzione eccessiva di biomasse vegetali pone seri problemi per la balneazione in quanto può portare a colorazioni rossastre, brune, gialle o verdi delle acque; inoltre la decomposizione delle alghe impoverisce di ossigeno l’acqua, soprattutto sul fondo, provocando morie della fauna ittica. Nello specifico, in questo lavoro di tesi, si prende in considerazione il Porto Canale di Cesenatico, e come le acque da esso convogliate vadano ad influenzare il recettore finale, ovvero il Mar Adriatico. Attraverso l’uso di un particolare software, messo a mia disposizione dal D.I.C.A.M. è stata portata avanti un’analisi dettagliata, comprendente svariati parametri, quali la velocità dell’acqua, la salinità, la concentrazione dell’inquinante e la temperatura, considerando due possibili situazioni. A monte di ciò vi è stata una lunga fase preparatoria, in cui dapprima sono state recepite, attraverso una campagna di misure progettata ad hoc, ed elaborate le informazione necessarie per la compilazione del file di input; in seguito è stato necessario calibrare e tarare il programma, in quanto sono state apportate numerose variazioni di recepimento tutt’altro che immediato; dopodiché è stata introdotta la geometria rappresentante l’area presa in esame, geometria molto complessa in quanto trattasi di una zona molto ampia e non uniforme, infatti vi è la presenza di più barriere frangiflutti, sommerse ed emerse, che alterano in svariati punti la profondità del fondale. Non è stato semplice, a tal proposito, ricostruire l’area e ci si è avvalsi di una carta nautica riportante la batimetria del litorale antistante Cesenatico. Come è stato già detto, questa fase iniziale ha occupato molto tempo e si è dimostrata molto impegnativa. Non sono state comunque da meno le fasi successive. Inoltre, tale simulazione è stata effettuata su due scenari differenti, per poter valutare le differenti conclusioni alle quali essi hanno indotto. Dopo molti “tentativi”, l’eseguibile ha girato ed è arrivato al termine ricoprendo un lasso di tempo pari a ventiquattro ore. I risultati ottenuti in output, sono stati tradotti e vagliati in modo da essere graficati e resi più interpretabili. Segue infine la fase di analisi che ha portato alle deduzioni conclusive. Nei prossimi capitoli, si riporta nel dettaglio quello che in questo paragrafo è stato sinteticamente citato.
Resumo:
Fin dai primi approcci alla città dell'Aquila, quando ancora non la conoscevamo e attraverso libri e articoli in rete cercavamo di capire la sua storia e la sua identità, abbiamo riconosciuto chiaramente quanto fosse importante la sua università. Le testimonianze precedenti il sisma parlavano di una città universitaria con quasi 30000 iscritti in continua crescita, viva e attiva, una città giovane; quelle posteriori il 6 aprile 2009 invece erano le richieste di aiuto da parte di docenti e fuorisede che si rifiutavano di abbandonare quello che per loro era diventato un importante punto di riferimento per la loro vita e la loro formazione. Forse anche perch noi stesse studentesse, abbiamo fin da subito sentito il dovere di occuparci di questo angoscioso problema, da un lato per essere solidali verso i nostri sfortunati colleghi, dall'altro per non permettere un ulteriore abbandono dell'ateneo aquilano da parte di altri studenti. Lo slogan apparso sui cartelloni di alcuni studenti aquilani durante una manifestazione fatta per sensibilizzare la popolazione sulla loro situazione palesa il loro attaccamento alla città e la loro volontà di continuare a farne parte e partecipare alla sua ricostruzione: "Noi siamo il cuore de L'Aquila". L’Università dell’Aquila vuole tornare nel centro storico. A confermare questa volontà, più volte espressa, c’è l’acquisizione della vecchia struttura dell’ospedale San Salvatore nei pressi della Fontana Luminosa, dove verrà realizzato il nuovo polo umanistico. La nuova sede di Lettere e filosofia, situata nella parte più nuova dell’ex complesso ospedaliero sarà aperta per il prossimo anno accademico e nell'ultima porzione di struttura acquistata si insedierà anche la facoltà di Scienze della formazione. “L’Università deve tornare nel centro storico - ha affermato il rettore Ferdinando di Orio nella conferenza stampa di presentazione dell’iniziativa - perch deve tornare a rappresentare ciò che L’Aquila è, ovvero una città universitaria”. Da qui un percorso di studio che partendo dalla storia della città e della sua università ci ha portato fino alla scelta dell'area, secondo noi la più adatta ad ospitare servizi per gli studenti universitari e permettere un tempestivo approccio al problema. Un'area che si è rivelata piena di potenzialità e per noi possibile punto di riferimento per la rinascita del centro storico aquilano. Dagli studi preliminari svolti è infatti emerso che l'area di progetto è attualmente poco sfruttata benchè la sua posizione sia assolutamente favorevole. Importante è per esempio la vicinanza alla stazione ferroviaria, usata da studenti fuori sede soprattutto della conca aquilana, professori e ospiti che devono raggiungere la città. Il piazzale della stazione ferroviaria, assieme alla via XX Settembre sono poi importanti fermate del servizio urbano ed extraurbano pubblico che collegano l'area con l'università, l'ospedale, e l'autostazione di Collemaggio. Altrettanto rilevante è parsa la prossimità dell'area al centro storico ed il fatto che si presenti agibile nella quasi sua totalità il che permette di poter pensare ad un intervento di ricostruzione tempestivo. Oltre alle mura storiche, la zona di progetto si trova nelle immediate vicinanze di altre due importanti emergenze: la Fontana delle 99 cannelle, uno dei più importanti e più significativi monumenti dell’Aquila e l'edificio dell'ex-mattatoio, struttura di archeologia industriale nella quale il Comune ha scelto di localizzare temporaneamente il Museo Nazionale d'Abruzzo. Attraverso la realizzazione di questo importante spazio espositivo insieme con il restauro della Fontana delle novantanove Cannelle e della Porta Rivera a cura del FAI, sarà possibile ripristinare un polo di attrazione culturale e monumentale. L’operazione assume inoltre un valore simbolico, poiché viene effettuato in un luogo di primaria importanza, legato all’origine stessa della città, che farà da battistrada per la riappropriazione del centro storico. Noi ci affianchiamo quindi a questo importante intervento e alle ultime direttive segnalate dal Comune e dall'Ateneo che dimostrano la loro volontà di riappropriarsi del centro storico, localizzando nell'area i servizi che dopo il sisma risultano necessari affinché gli studenti possano continuare i loro studi nella città e andando a potenziare il sistema museale già presente per creare un importante polo didattico e culturale.
Resumo:
Nonostante la riforma societaria ed i tentativi di rilanciare l’economia nazionale, ancora oggi la principale fonte di ricchezza e di capitalizzazione resta l’investimento immobiliare. Ed ecco perch si sente sempre più parlare di “Real Estate”, ovvero dei diritti reali sui beni immobili, della loro circolazione, e delle garanzie e tutele ad essa correlate. Dalla vendita immobiliare tipizzata nel codice civile del ’42 ad oggi molto è cambiato. E il mio lavoro parte proprio da un’analisi delle nuove forme e dei nuovi limiti alla circolazione degli immobili. In primis ho affrontato il tema del riconoscimento giurisprudenziale della cessione di cubatura: un esempio tipico del passaggio dal fatto al diritto attraverso la costruzione giurisprudenziale di nuove fattispecie giuridiche già in uso fra gli operatori del mercato. Tecnicamente la stessa espressione “cessione di cubatura” non risulta corretta: non si ha una vera e propria cessione, quanto la costituzione di una servitù ius non edificandi a favore di un terreno e a carico di un altro. La giurisprudenza è ormai concorde nello stabilire che l’accordo delle parti rimane comunque privo di efficacia se ad esso non segue un permesso di costruire della Pubblica Amministrazione che riconosca la maggiore capacità edificatoria al terreno a cui vantaggio è stabilità la servitù. Un’altra nuova forma di circolazione della proprietà, così come degli altri diritti reali minori, è la multiproprietà. La multiproprietà viene disciplinata nel nostro ordinamento, a seguito di una risoluzione del Parlamento Europeo del 13 ottobre 1988, dapprima con il D.lgs. 9 novembre 1998 e da ultimo con il Codice del Consumo, che con gli artt. 69 ss. stabilisce una più puntuale tutela degli acquirenti. Si riconosce qui l’esistenza di uno squilibrio fra le posizioni contrattuali fra venditore ed acquirente/consumatore: vi è una profonda asimmetria informativa fra le parti, che viene colmata prevedendo la consegna al futuro acquirente di un dettagliato prospetto informativo predisposto dal venditore. La mia attenzione si è concentrata proprio sul tema delle tutele che il nostro ordinamento riconosce al consumatore multiproprietario: un prospetto informativo dal contenuto minimo legislativamente predeterminato, recesso, fideiussione. Ho dedicato un particolare approfondimento alla normativa sull’acquisto immobiliare sulla carta. Il D.lgs. 122/2005 si inserisce nel contesto di una legislazione, che spesso trova la sua origine nel diritto privato europeo, finalizzata alla regolamentazione di un fenomeno sempre più frequente nella realtà economica contemporanea, rappresentato dalla contrattazione fra soggetti che si trovano in una posizione di squilibrio contrattuale: un “contraente forte” da una parte, ed un “contraente debole” dall’altra. La legislazione nazionale interviene sempre più frequentemente per porre un rimedio a queste situazioni di squilibrio, con interventi di tipo conformativo intesi a rendere effettiva l’autonoma contrattuale delle parti e, conseguentemente, agevolare il corretto funzionamento del mercato. Si parla in tal senso di una ius espansiva del modello europeo di legislazione a tutela del contraente debole, e quindi di una espansione del diritto privato europeo anche in settori dove manca una puntuale normativa comunitaria. Vi è una generale tendenza ad un “neoformalismo”, che consiste nella richiesta espressa della forma scritta e nella conformazione del contenuto del contratto, che solo apparentemente limitano l’autonomia contrattuale delle parti ma che tende ad eliminare le situazioni di squilibrio dando una tutela effettiva al contraente debole. Contraente debole e non “consumatore”. L’art. 1 del decreto parla, infatti, espressamente di “persona fisica”. Secondo gli orientamenti dottrinali maggioritari dalla nuova disciplina resterebbero esclusi, e quindi non rientrerebbero nella definizione di “acquirenti”, le società, le persone giuridiche e gli enti collettivi in generale. Si riconosce la figura del “professionista debole”, giacché si riconosce che l’acquisto di un immobile da costruire sia un’operazione che, in virtù della sua importanza economica, viene gestita con maggiore avvedutezza: l’acquisto di un immobile non è propriamente “atto di consumo”in senso tecnico. L’esigenza di tutela è diversa: si vuole tutelare l’acquirente in considerazione dell’intrinseca rischiosità dell’operazione, stabilendo alcuni profili fondamentali del contenuto del contratto non solo e non tanto a fini informativi, quanto piuttosto per una “tutela sostanziale” dell’acquirente. Il legislatore si preoccupa di predisporre garanzie obbligatorie per il caso di dissesto dell’impresa costruttrice. Le garanzie, quindi, come forma di tutela del contraente debole. Il mio lavoro si concentra, a questo punto, sulle garanzie personali e reali. Poche le novità sulle garanzie, ma alcune significative. Nel campo delle garanzie personali, acquista maggiore rilevanza la fideiussione prestata dal contraente forte a favore del contraente debole, affinché quest’ultimo possa recuperare tutte le somme investite per l’acquisto dell’immobile: sia esso un immobile in multiproprietà, sia esso un immobile ancora da costruire. E ancora le garanzie reali: pegno e ipoteca. Ho posto particolare attenzione al tema della "portabilità" dei mutui e surrogazione ex art. 1202 c.c. ed al tema delle formalità ipotecarie così come previsti dagli artt. 6, 7 e 8 della l. 2 aprile 2007, n. 40 sulla concorrenza. Ma la mia attenzione si è soffermata soprattutto sul tema della nullità ed in particolare sulla nullità relativa. La più recente legislazione speciale, specie quella di derivazione europea, ha dato un grosso scossone alla dogmatica tradizionale della nullità negoziale. Le fattispecie di nullità relativa sono sempre più frequenti, tanto da far parlare di una nuova categoria di nullità c.d. “nullità di protezione”. Quest’ultima risponde ad esigenze profondamente differenti dalla nullità assoluta di stampo codicistico. In luogo della nullità, sembra oggi più corretto parlare delle nullità: diverse categorie di invalidità, ciascuna delle quali soddisfa interessi diversificati, e come tale riceve anche una disciplina differenziata in termini di legittimazione all’azione, rilevabilità d’ufficio, prescrittibilità, sanabilità, opponibilità ai terzi. Ancora una volta partendo da un’analisi critica del D.lgs. 122/2005, ho avuto modo di approfondire il fondamentale tema della nullità nel nostro ordinamento. L’art. 2 del decreto stabilisce espressamente la nullità relativa, e cioè azionabile dal solo acquirente parte debole del contratto, nel caso in cui non sia rilasciata dal venditore la fideiussione. L’art. 6 stabilisce, invece, un contenuto minimo del contratto poste a tutela della parte debole e del corretto funzionamento del mercato immobiliare. Se ad alcune di esse può attribuirsi un valore meramente ordinatorio, altre al contrario rivestono una natura di norme imperative di ordine pubblico attinenti più precisamente al c.d. ordine pubblico di protezione ed al c.d. ordine pubblico di direzione. Nel sistema del nostro codice, la violazione di norma imperative dà luogo, ex art. 1418, alla nullità del contatto salvo che la legge stabilisca diversamente. E’quindi configurabile una nullità virtuale del contratto, ovvero non espressamente e letteralmente stabilita, ma che può essere desunta dal tenore imperativo delle norme. La dottrina prevalente è ormai orientata nel senso di ammettere che anche la nullità relativa possa essere virtuale, nel quadro di un orientamento, ormai dominante, volto al superamento dell’approccio tendente a far rientrare nell’eccezionalità qualsiasi difformità dal modello classico della nullità. Il problema, quindi, si sposta all’individuazione della natura imperativa della norma violata. In linea generale si afferma che perch una norma possa essere definita imperativa debba porre un comando o un divieto espresso, debba essere inderogabile ed indisponibile. Oggetto di dibattiti dottrinali è, poi, il tema della rilevabilità d’ufficio delle nullità relative. A fronte di una prima posizione dottrinale tendente ad escludere tale rilevabilità d’ufficio sul presupposto di una sua inconciliabilità con il regime di legittimazione relativa all’azione di nullità, dottrina e giurisprudenza più recenti appaiono concordi nel ritenere assolutamente conciliabili tali due profili. Si concorda, inoltre, sull’esistenza di limitazioni alla rilevabilità d’ufficio della nullità: la nullità può essere rilevata d’ufficio dal giudice, ma tale rilievo deve operare nell’esclusivo interesse del contraente debole, dovendo il giudice bloccarsi davanti ad un concreto interesse della parte a mantenere in vita il contratto. Discorso a sé stante deve poi esser fatto sul rapporto fra nullità relativa e nullità virtuale e responsabilità del notaio rogante. Secondo l’orientamento dominante della giurisprudenza, nella misura in cui vi sia una violazione di norme imperative, e l’imperatività sia evidente, manifesta, dal tenore delle disposizioni, deve ritenersi che la nullità, sia testuale che virtuale, comporti la responsabilità del notaio ai sensi dell’art. 28 l. not. Ogni qualvolta, viceversa, tale nullità non si configuri, la responsabilità disciplinare sarà esclusa. Si avverte, comunque, una prima apertura verso la sanzionabilità delle nullità relative che siano manifeste. In chiusura del mio lavoro non ho potuto non tenere conto della recente crisi dei mercati internazionali. Crisi che ha avuto inizio proprio con il crollo negli Stati Uniti dei settori immobiliare e finanziario, improntati verso una eccessiva deregolamentazione e valorizzazione dell’autonomia contrattuale delle parti. L’assenza di garanzie sicure e la carenza di controllo di un professionista corrispondente al nostro notaio pubblico ufficiale, ha portato ad investimenti e finanziamenti azzardati da parte delle banche e degli istituti di credito che stanno vivendo un momento di profonda crisi aprendo la strada ad una recessione economica di portata mondiale.
Resumo:
Il problema della sicurezza/insicurezza delle città, dalle grandi metropoli sino ai più piccoli centri urbani, ha sollecitato negli ultimi anni un’attenzione crescente da parte degli studiosi, degli analisti, degli organi di informazione, delle singole comunità. La delinquenza metropolitana viene oggi diffusamente considerata «un aspetto usuale della società moderna»: «un fatto – o meglio un insieme di fatti – che non richiede nessuna speciale motivazione o predisposizione, nessuna patologia o anormalità, e che è iscritto nella routine della vita economica e sociale». Svincolata dagli schemi positivistici, la dottrina criminologica ha maturato una nuova «cultura del controllo sociale» che ha messo in risalto, rispetto ad ogni visione enfatizzante del reo, l’esigenza di pianificare adeguate politiche e pratiche di prevenzione della devianza urbana attraverso «tutto l’insieme di istituzioni sociali, di strategie e di sanzioni, che mirano a ottenere la conformità di comportamento nella sfera normativa penalmente tutelata». Tale obiettivo viene generalmente perseguito dagli organismi istituzionali, locali e centrali, con diverse modalità annoverabili nel quadro degli interventi di: prevenzione sociale in cui si includono iniziative volte ad arginare la valenza dei fattori criminogeni, incidendo sulle circostanze sociali ed economiche che determinano l’insorgenza e la proliferazione delle condotte delittuose negli ambienti urbani; prevenzione giovanile con cui si tende a migliorare le capacità cognitive e relazionali del minore, in maniera tale da controllare un suo eventuale comportamento aggressivo, e ad insegnare a genitori e docenti come gestire, senza traumi ed ulteriori motivi di tensione, eventuali situazioni di crisi e di conflittualità interpersonale ed interfamiliare che coinvolgano adolescenti; prevenzione situazionale con cui si mira a disincentivare la propensione al delitto, aumentando le difficoltà pratiche ed il rischio di essere scoperti e sanzionati che – ovviamente – viene ponderato dal reo. Nella loro quotidianità, le “politiche di controllo sociale” si sono tuttavia espresse in diversi contesti – ed anche nel nostro Paese - in maniera a tratti assai discutibile e, comunque, con risultati non sempre apprezzabili quando non - addirittura – controproducenti. La violenta repressione dei soggetti ritenuti “devianti” (zero tolerance policy), l’ulteriore ghettizzazione di individui di per sé già emarginati dal contesto sociale, l’edificazione di interi quartieri fortificati, chiusi anche simbolicamente dal resto della comunità urbana, si sono rivelate, più che misure efficaci nel contrasto alla criminalità, come dei «cortocircuiti semplificatori in rapporto alla complessità dell’insieme dei problemi posti dall’insicurezza». L’apologia della paura è venuta così a riflettersi, anche fisicamente, nelle forme architettoniche delle nuove città fortificate ed ipersorvegliate; in quelle gated-communities in cui l’individuo non esita a sacrificare una componente essenziale della propria libertà, della propria privacy, delle proprie possibilità di contatto diretto con l’altro da sé, sull’altare di un sistema di controllo che malcela, a sua volta, implacabili contraddizioni. Nei pressanti interrogativi circa la percezione, la diffusione e la padronanza del rischio nella società contemporanea - glocale, postmoderna, tardomoderna, surmoderna o della “seconda modernità”, a seconda del punto di vista al quale si aderisce – va colto l’eco delle diverse concezioni della sicurezza urbana, intesa sia in senso oggettivo, quale «situazione che, in modo obiettivo e verificabile, non comporta l’esposizione a fattori di rischio», che in senso soggettivo, quale «risultante psicologica di un complesso insieme di fattori, tra cui anche indicatori oggettivi di sicurezza ma soprattutto modelli culturali, stili di vita, caratteristiche di personalità, pregiudizi, e così via». Le amministrazioni locali sono direttamente chiamate a garantire questo bisogno primario di sicurezza che promana dagli individui, assumendo un ruolo di primo piano nell’adozione di innovative politiche per la sicurezza urbana che siano fra loro complementari, funzionalmente differenziate, integrali (in quanto parte della politica di protezione integrale di tutti i diritti), integrate (perch rivolte a soggetti e responsabilità diverse), sussidiarie (perch non valgono a sostituire i meccanismi spontanei di prevenzione e controllo della devianza che si sviluppano nella società), partecipative e multidimensionali (perch attuate con il concorso di organismi comunali, regionali, provinciali, nazionali e sovranazionali). Questa nuova assunzione di responsabilità da parte delle Amministrazioni di prossimità contribuisce a sancire il passaggio epocale «da una tradizionale attività di governo a una di governance» che deriva «da un’azione integrata di una molteplicità di soggetti e si esercita tanto secondo procedure precostituite, quanto per una libera scelta di dar vita a una coalizione che vada a vantaggio di ciascuno degli attori e della società urbana nel suo complesso». All’analisi dei diversi sistemi di governance della sicurezza urbana che hanno trovato applicazione e sperimentazione in Italia, negli ultimi anni, e in particolare negli ambienti territoriali e comunitari di Roma e del Lazio che appaiono, per molti versi, esemplificativi della complessa realtà metropolitana del nostro tempo, è dedicata questa ricerca. Risulterà immediatamente chiaro come il paradigma teorico entro il quale si dipana il percorso di questo studio sia riconducibile agli orientamenti della psicologia topologica di Kurt Lewin, introdotti nella letteratura sociocriminologica dall’opera di Augusto Balloni. Il provvidenziale crollo di antichi steccati di divisione, l’avvento di internet e, quindi, la deflagrante estensione delle frontiere degli «ambienti psicologici» in cui è destinata a svilupparsi, nel bene ma anche nel male, la personalità umana non hanno scalfito, a nostro sommesso avviso, l’attualità e la validità della «teoria del campo» lewiniana per cui il comportamento degli individui (C) appare anche a noi, oggi, condizionato dalla stretta interrelazione che sussiste fra le proprie connotazioni soggettive (P) e il proprio ambiente di riferimento (A), all’interno di un particolare «spazio di vita». Su queste basi, il nostro itinerario concettuale prende avvio dall’analisi dell’ambiente urbano, quale componente essenziale del più ampio «ambiente psicologico» e quale cornice straordinariamente ricca di elementi di “con-formazione” dei comportamenti sociali, per poi soffermarsi sulla disamina delle pulsioni e dei sentimenti soggettivi che agitano le persone nei controversi spazi di vita del nostro tempo. Particolare attenzione viene inoltre riservata all’approfondimento, a tratti anche critico, della normativa vigente in materia di «sicurezza urbana», nella ferma convinzione che proprio nel diritto – ed in special modo nell’ordinamento penale – vada colto il riflesso e la misura del grado di civiltà ma anche delle tensioni e delle contraddizioni sociali che tormentano la nostra epoca. Notevoli spunti ed un contributo essenziale per l’elaborazione della parte di ricerca empirica sono derivati dall’intensa attività di analisi sociale espletata (in collaborazione con l’ANCI) nell’ambito dell’Osservatorio Tecnico Scientifico per la Sicurezza e la Legalità della Regione Lazio, un organismo di supporto della Presidenza della Giunta Regionale del Lazio al quale compete, ai sensi dell’art. 8 della legge regionale n. 15 del 2001, la funzione specifica di provvedere al monitoraggio costante dei fenomeni criminali nel Lazio.
Resumo:
Per natura, i dispositivi di conversione di energia da onda (WECs) vengono collocati in aree caratterizzate da onde ad elevato potenziale e in queste condizioni i carichi che agiscono su tali dispositivi sono, sfortunatamente, molto alti e, allo stesso tempo, molto difficili da valutare a priori. Allo stato attuale, nessuna delle tecnologie proposte ha raggiunto uno stadio di sviluppo tale da consentire la produzione dei WECs a scala reale e, quindi, il lancio nel mercato principalmente perch nessuna di esse può contare su un numero suciente di dati operativi da permettere un'analisi sistematica delle condizioni di lavoro. L'applicazione dei modelli disponibili sembra essere accurata per la maggior parte dei WECs in condizioni operative, ma non abbastanza per prevedere le forze agenti e il loro comportamento quando sono esposti all'azione di onde importanti. Sebbene vi è una generale necessità di indagine su diversi aspetti dei WECs, sembra che il punto critico sia lo sviluppo di un adeguato sistema di ormeggio il cui costo può incidere no al 200
Resumo:
La mia tesi dal titolo ”Applicazione della tecnica PSinSAR™ allo studio di fenomeni franosi lenti: casi di studio in Emilia-Romagna” ha avuto come obiettivo quello di mostrare le potenzialità e i limiti della tecnica PSinSAR nel monitoraggio di fenomeni franosi localizzati in Val Marecchia. Ho svolto, nel capitolo due, un’analisi preliminare dell’area di studio andando a evidenziare prima le caratteristiche climatiche, piogge medie annue e le temperature minime e massime, e a seguire sono passato a descrivere l’inquadramento geologico e geomorfologico. L’area della Val Marecchia è, da questo punto di vista, molto particolare poggiando su quella che è definita dagli autori “coltre della Val Marecchia”; essa è un complesso alloctono sovrascorso ai terreni autoctoni della successione Umbro – Romagnola - Marchigiana. La traslazione verso Est della coltre avvenne per "scatti", in funzione delle principali fasi tettoniche appenniniche, separati da momenti di pausa in cui sedimentarono le formazioni più recenti le quali poi si spostarono in modo solidale con la coltre. La coltre, infatti, è costituita da un insieme di formazioni di età diverse e in particolare ritroviamo, partendo da quella più antica l’unità ligure, l’unità subligure e infine l’unità epiligure. La presenza di formazioni più recenti sopra ad altre più antiche rende unica la morfologia della vallata con enormi blocchi rocciosi poggianti su un substrato in genere argilloso come nell’esempio più famoso della rupe di San Leo. Da queste analisi è emersa un’altra caratteristica peculiare della valle cioè la forte tendenza a essere interessata da dissesti di varie tipologie. Gli indici di franosità mostrano che nella zona alta della vallata circa il 50% del territorio è interessato da dissesti, valore che decresce leggermente nella parte media e bassa della valle. Il motivo di tale instabilità è da imputare in parte alla forte erosione che avviene sulle placche epiliguri e in parte alle caratteristiche scadenti del substrato che è per lo più composto di argille e arenarie. Per quanto riguarda le tipologie di frane in Val Marecchia la situazione è molto eterogenea; in particolari le tre tipologie più frequenti sono il colamento lento, lo scivolamento rotazionale/traslativo e le frane di tipo complesso. Nel terzo capitolo ho descritto la tecnica PSinSAR; essa si basa sull’elaborazione di scene riprese da satellite per giungere alla formazione di una rete di punti, i PS, di cui conosciamo i movimenti nel tempo. I Permanent Scatterer (PS) sono dei bersagli radar individuati sulla superficie terrestre dal sensori satellitari caratterizzati per il fatto di possedere un’elevata stabilità nel tempo alla risposta elettromagnetica. I PS nella maggior parte dei casi corrispondono a manufatti presenti sulla superficie quali edifici, monumenti, strade, antenne e tralicci oppure ad elementi naturali come per esempio rocce esposte o accumuli di detrito. Lo spostamento viene calcolato lungo la linea di vista del satellite, per cui il dato in uscita non mostra lo spostamento effettivo del terreno, ma l'allontanamento o l'avvicinamento del punto rispetto al satellite. La misure sono sempre differenziali, ovvero sono riferite spazialmente a un punto noto a terra chiamato reference point, mentre temporalmente alla data di acquisizione della prima immagine. La tecnica PSinSAR proprio per la sua natura è "cieca" rispetto ai movimenti in direzione Nord-Sud. Le scene utilizzate per la creazione dei dataset di PS derivano quasi interamente dai satelliti ERS e ENVISAT. Tuttora sono disponibili anche le scene dei satelliti TerraSAR-X, RADARSAT e Cosmo Skymed. I sensori utilizzati in questo ambito sono i SAR (Synthetic Aperture Radar) che sono sensori attivi, cioè emettono loro stessi l'energia necessaria per investigare la superficie terrestre al contrario dei sensori ottici. Questo permette di poter acquisire scene anche di notte e in condizioni di cielo nuvoloso. La tecnica PSinSAR presenta molti vantaggi rispetto alle tecniche interferometriche tradizionali essa, infatti, è immune agli errori di decorrelamento temporale e spaziale oltre agli errori atmosferici, che portavano ad avere precisioni non inferiori a qualche cm, mentre ora l’errore di misura sulla velocità media di spostamento si attesta in genere sui 2 mm. La precisione che si ha nella georeferenziazione dei punti è in genere di circa 4-7 m lungo la direzione Est e circa 1-2 m in quella Nord. L’evoluzione di PSinSAR, SqueeSAR, permette un numero maggiore di punti poiché oltre ai Permanent Scatterers PS, tramite un apposito algoritmo, calcola anche i Distribuited Scatterer DS. I dataset di dati PS che ho utilizzato nel mio lavoro di tesi (PSinSAR) derivano, come detto in precedenza, sia da scene riprese dal satellite ERS che da ENVISAT nelle due modalità ascendenti e discendenti; nel primo caso si hanno informazioni sui movimenti avvenuti tra il 1992 e il 2000 mentre per l’ENVISAT tra il 2002 e il 2008. La presenza di dati PS nelle due modalità di ripresa sulla stessa zona permette tramite alcuni calcoli di ricavare la direzione effettiva di spostamento. È importante però sottolineare che, a seconda della modalità di ripresa, alcune aree possono risultare in ombra, per questo nell’analisi dei vari casi di studio non sempre sono stati utilizzabili tutti i dataset. Per l'analisi dei vari casi di studio, presentati nel capitolo 4, ho utilizzato diverso materiale cartografico. In particolare mi sono servito delle Carte Tecniche Regionali (CTR) a scala 1:10000 e 1:5000, in formato digitale, come base cartografica. Sempre in formato digitale ho utilizzato anche le carte geologiche e geomorfologiche dell'area della Val Marecchia (fogli 266, 267, 278) oltre, per finire, agli shapefile presi dal database online del Piano stralcio dell’Assetto Idrogeologico PAI. Il software usato per la realizzazione del lavoro di tesi è stato ArcGIS di proprietà di ESRI. Per ogni caso di studio ho per prima cosa effettuato un'analisi dal punto di vista geologico e geomorfologico, in modo da fare un quadro delle formazioni presenti oltre ad eventuali fenomeni franosi mostrati dalle carte. A seguire ho svolto un confronto fra il dato PS, e quindi i valori di spostamento, e la perimetrazione mostrata nel PAI. Per alcuni casi di studio il dato PS ha mostrato movimenti in aree già perimetrate nel PAI come "in dissesto", mentre in altri il dato satellitare ha permesso di venire a conoscenza di fenomeni non conosciuti (come ad esempio nel caso di Monte Gregorio). Per ogni caso di studio ho inoltre scelto alcuni PS caratteristici (solitamente quelli a coerenza maggiore) e ho ricavato la relativa serie storica. In questo modo è stato possibile verificare lo spostamento durante tutti gli anni in cui sono state prese le scene (dal 1992 al 2000 per dati ERS, dal 2002 al 2008 per dati ENVISAT) potendo quindi mettere in luce accelerazioni o assestamenti dei fenomeni nel tempo, oltre a escludere la presenza di trend di spostamento anomali imputabili nella maggior parte dei casi a errori nel dato. L’obiettivo della tesi è stato da una parte di verificare la bontà del dato PS nell’interpretazione dei movimenti dovuti a dissesti franosi e dall’altra di fare un confronto tra il dato di spostamento ricavato dai PS e i vari inventari o carte di piano. Da questo confronto sono emerse informazioni molti interessanti perch è stato possibile avere conferme di movimento su dissesti già conosciuti (Sant’Agata Feltria, San Leo e altri) ma anche di venire a conoscenza di fenomeni non conosciuti (Monte Gregorio). In conclusione è emerso dal mio lavoro che il monitoraggio tramite tecnica PSinSAR necessita di essere integrato con le tecniche tradizionali poiché presenta alcune limitazioni importanti come l’impossibilità di "vedere" movimenti veloci o lungo la direzione Nord-Sud, oltre ad avere dati in aree vegetate o scarsamente abitate. I vantaggi sono però notevoli potendo monitorare con un’unica ripresa vaste porzioni di territorio oltre ad avere serie storiche consistenti, in grado di evidenziare i movimenti avvenuti nel passato. Tale tecnica quindi, secondo il mio parere, può essere utilizzata come supporto alla stesura di cartografia di fenomeni franosi fornendo informazioni aggiuntive rispetto alle varie tecniche tradizionali come il GPS, sondaggi geotecnici e sondaggi inclinometrici.
Resumo:
Definizione del problema: Nonostante il progresso della biotecnologia medica abbia consentito la sopravvivenza del feto, fuori dall’utero materno, ad età gestazionali sempre più basse, la prognosi a breve e a lungo termine di ogni nuovo nato resta spesso incerta e la medicina non è sempre in grado di rimediare completamente e definitivamente ai danni alla salute che spesso contribuisce a causare. Sottoporre tempestivamente i neonati estremamente prematuri alle cure intensive non ne garantisce la sopravvivenza; allo stesso modo, astenervisi non ne garantisce la morte o almeno la morte immediata; in entrambi i casi i danni alla salute (difetti della vista e dell’udito, cecità, sordità, paralisi degli arti, deficit motori, ritardo mentale, disturbi dell’apprendimento e del comportamento) possono essere gravi e permanenti ma non sono prevedibili con certezza per ogni singolo neonato. Il futuro ignoto di ogni nuovo nato, insieme allo sgretolamento di terreni morali condivisi, costringono ad affrontare laceranti dilemmi morali sull’inizio e sul rifiuto, sulla continuazione e sulla sospensione delle cure. Oggetto: Questo lavoro si propone di svolgere un’analisi critica di alcune strategie teoriche e pratiche con le quali, nell’ambito delle cure intensive ai neonati prematuri, la comunità scientifica, i bioeticisti e il diritto tentano di aggirare o di risolvere l’incertezza scientifica e morale. Tali strategie sono accomunate dalla ricerca di criteri morali oggettivi, o almeno intersoggettivi, che consentano ai decisori sostituti di pervenire ad un accordo e di salvaguardare il vero bene del paziente. I criteri esaminati vanno dai dati scientifici riguardanti la prognosi dei prematuri, a “fatti” di natura più strettamente morale come la sofferenza del paziente, il rispetto della libertà di coscienza del medico, l’interesse del neonato a sopravvivere e a vivere bene. Obiettivo: Scopo di questa analisi consiste nel verificare se effettivamente tali strategie riescano a risolvere l’incertezza morale o se invece lascino aperto il dilemma morale delle cure intensive neonatali. In quest’ultimo caso si cercherà di trovare una risposta alla domanda “chi deve decidere per il neonato?” Metodologia e strumenti: Vengono esaminati i più importanti documenti scientifici internazionali riguardanti le raccomandazioni mediche di cura e i pareri della comunità scientifica; gli studi scientifici riguardanti lo stato dell’arte delle conoscenze e degli strumenti terapeutici disponibili ad oggi; i pareri di importanti bioeticisti e gli approcci decisionali più frequentemente proposti ed adoperati; alcuni documenti giuridici internazionali riguardanti la regolamentazione della sperimentazione clinica; alcune pronunce giudiziarie significative riguardanti casi di intervento o astensione dall’intervento medico senza o contro il consenso dei genitori; alcune indagini sulle opinioni dei medici e sulla prassi medica internazionale; le teorie etiche più rilevanti riguardanti i criteri di scelta del legittimo decisore sostituto del neonato e la definizione dei suoi “migliori interessi” da un punto di vista filosofico-morale. Struttura: Nel primo capitolo si ricostruiscono le tappe più importanti della storia delle cure intensive neonatali, con particolare attenzione agli sviluppi dell’assistenza respiratoria negli ultimi decenni. In tal modo vengono messi in luce sia i cambiamenti morali e sociali prodotti dalla meccanizzazione e dalla medicalizzazione dell’assistenza neonatale, sia la continuità della medicina neonatale con il tradizionale paternalismo medico, con i suoi limiti teorici e pratici e con lo sconfinare della pratica terapeutica nella sperimentazione incontrollata. Nel secondo capitolo si sottopongono ad esame critico le prime tre strategie di soluzione dell’incertezza scientifica e morale. La prima consiste nel decidere la “sorte” di un singolo paziente in base ai dati statistici riguardanti la prognosi di tutti i nati in condizioni cliniche analoghe (“approccio statistico”); la seconda, in base alla risposta del singolo paziente alle terapie (“approccio prognostico individualizzato”); la terza, in base all’evoluzione delle condizioni cliniche individuali osservate durante un periodo di trattamento “aggressivo” abbastanza lungo da consentire la raccolta dei dati clinici utili a formulare una prognosi sicura(“approccio del trattamento fino alla certezza”). Viene dedicata una più ampia trattazione alla prima strategia perch l’uso degli studi scientifici per predire la prognosi di ogni nuovo nato accomuna i tre approcci e costituisce la strategia più diffusa ed emblematica di aggiramento dell’incertezza. Essa consiste nella costruzione di un’ “etica basata sull’evidenza”, in analogia alla “medicina basata sull’evidenza”, in quanto ambisce a fondare i doveri morali dei medici e dei genitori solo su fatti verificabili (le prove scientifiche di efficacia delle cure)apparentemente indiscutibili, avalutativi o autocertificativi della moralità delle scelte. Poiché la forza retorica di questa strategia poggia proprio su una (parziale) negazione dell’incertezza dei dati scientifici e sulla presunzione di irrilevanza della pluralità e della complessità dei valori morali nelle decisioni mediche, per metterne in luce i limiti si è scelto di dedicare la maggior parte del secondo capitolo alla discussione dei limiti di validità scientifica degli studi prognostici di cui i medici si avvalgono per predire la prognosi di ogni nuovo nato. Allo stesso scopo, in questo capitolo vengono messe in luce la falsa neutralità morale dei giudizi scientifici di “efficacia”, “prognosi buona”, “prognosi infausta” e di “tollerabilità del rischio” o dei “costi”. Nel terzo capitolo viene affrontata la questione della natura sperimentale delle cure intensive per i neonati prematuri al fine di suggerire un’ulteriore ragione dell’incertezza morale, dell’insostenibilità di obblighi medici di trattamento e della svalutazione dell’istituto del consenso libero e informato dei genitori del neonato. Viene poi documentata l’esistenza di due atteggiamenti opposti manifestati dalla comunità scientifica, dai bioeticisti e dal diritto: da una parte il silenzio sulla natura sperimentale delle terapie e dall’altra l’autocertificazione morale della sperimentazione incontrollata. In seguito si cerca di mostrare come entrambi, sebbene opposti, siano orientati ad occultare l’incertezza e la complessità delle cure ai neonati prematuri, per riaffermare, in tal modo, la precedenza dell’autorità decisionale del medico rispetto a quella dei genitori. Il quarto capitolo, cerca di rispondere alla domanda “chi deve decidere in condizioni di incertezza?”. Viene delineata, perciò, un’altra strategia di risoluzione dell’incertezza: la definizione del miglior interesse (best interest) del neonato, come oggetto, limite e scopo ultimo delle decisioni mediche, qualsiasi esse siano. Viene verificata l’ipotesi che il legittimo decisore ultimo sia colui che conosce meglio di ogni altro i migliori interessi del neonato. Perciò, in questo capitolo vengono esposte e criticate alcune teorie filosofiche sul concetto di “miglior interesse” applicato allo speciale status del neonato. Poiché quest’analisi, rivelando l’inconoscibilità del best interest del neonato, non consente di stabilire con sicurezza chi sia intitolato a prendere la decisione ultima, nell’ultimo capitolo vengono esaminate altre ragioni per le quali i genitori dovrebbero avere l’ultima parola nelle decisioni di fine o di proseguimento della vita. Dopo averle scartate, viene proposta una ragione alternativa che, sebbene non risolutiva, si ritiene abbia il merito di riconoscere e di non mortificare l’irriducibilità dell’incertezza e l’estrema complessità delle scelte morali, senza rischiare, però, la paralisi decisionale, il nichilismo morale e la risoluzione non pacifica dei conflitti.
Resumo:
I libretti che Pascoli scrisse in forma di abbozzi e che sognò potessero calcare il palcoscenico di un teatro furono davvero un “melodramma senza musica”. In primo luogo, perch non giunsero mai ad essere vestiti di note e ad arrivare in scena; ma anche perch il tentativo di scrivere per il teatro si tinse per Pascoli di toni davvero melodrammatici, nel senso musicale di sconfitta ed annullamento, tanto da fare di quella pagina della sua vita una piccola tragedia lirica, in cui c’erano tante parole e, purtroppo, nessuna musica. Gli abbozzi dei drammi sono abbastanza numerosi; parte di essi è stata pubblicata postuma da Maria Pascoli.1 Il lavoro di pubblicazione è stato poi completato da Antonio De Lorenzi.2 Ho deciso di analizzare solo quattro di questi abbozzi, che io reputo particolarmente significativi per poter cogliere lo sviluppo del pensiero drammatico e della poetica di Pascoli. I drammi che analizzo sono Nell’Anno Mille (con il rifacimento Il ritorno del giullare), Gretchen’s Tochter (con il rifacimento La figlia di Ghita), Elena Azenor la Morta e Aasvero o Caino nel trivio o l’Ebreo Errante. La prima ragione della scelta risiede nel fatto che questi abbozzi presentano una lunghezza più consistente dell’appunto di uno scheletro di dramma registrato su un foglietto e, quindi, si può seguire attraverso di essi il percorso della vicenda, delle dinamiche dei personaggi e dei significati dell’opera. Inoltre, questi drammi mostrano cosa Pascoli intendesse comporre per sollevare le vesti del libretto d’opera e sono funzionali all’esemplificazione delle sue concezioni teoriche sulla musica e il melodramma, idee che egli aveva espresso nelle lettere ad amici e compositori. In questi quattro drammi è possibile cogliere bene le motivazioni della scelta dei soggetti, il loro significato entro la concezione melodrammatica del poeta, il sistema simbolico che soggiace alla creazione delle vicende e dei personaggi e i legami con la poetica pascoliana. Compiere un’analisi di questo tipo significa per me, innanzitutto, risalire alle concezioni melodrammatiche di Pascoli e capire esattamente cosa egli intendesse per dramma musicale e per rinnovamento dello stesso. Pascoli parla di musica e dei suoi tentativi di scrivere per il teatro lirico nelle lettere ai compositori e, sporadicamente, ad alcuni amici (Emma Corcos, Luigi Rasi, Alfredo Caselli). La ricostruzione del pensiero e dell’estetica musicale di Pascoli ha dovuto quindi legarsi a ricerche d’archivio e di materiali inediti o editi solo in parte e, nella maggioranza dei casi, in pubblicazioni locali o piuttosto datate (i primi anni del Novecento). Quindi, anche in presenza della pubblicazione di parte del materiale necessario, quest’ultimo non è certo facilmente e velocemente consultabile e molto spesso è semi sconosciuto. Le lettere di Pascoli a molti compositori sono edite solo parzialmente; spesso, dopo quei primi anni del Novecento, in cui chi le pubblicò poté vederle presso i diretti possessori, se ne sono perse le tracce. Ho cercato di ricostruire il percorso delle lettere di Pascoli a Giacomo Puccini, Riccardo Zandonai, Giovanni Zagari, Alfredo Cuscinà e Guglielmo Felice Damiani. Si tratta sempre di contatti che Pascoli tenne per motivi musicali, legati alla realizzazione dei suoi drammi. O per le perdite prodotte dalla storia (è il 1 Giovanni Pascoli, Nell’Anno Mille. Sue notizie e schemi da altri drammi, a c. di Maria Pascoli, Bologna, Zanichelli, 1924. 2 Giovanni Pascoli, Testi teatrali inediti, a c. di Antonio De Lorenzi, Ravenna, Longo, 1979. caso delle lettere di Pascoli a Zandonai, che andarono disperse durante la seconda guerra mondiale, come ha ricordato la prof.ssa Tarquinia Zandonai, figlia del compositore) o per l’impossibilità di stabilire contatti quando i possessori dei materiali sono privati e, spesso, collezionisti, questa parte delle mie ricerche è stata vana. Mi è stato possibile, però, ritrovare gli interi carteggi di Pascoli e i due Bossi, Marco Enrico e Renzo. Le lettere di Pascoli ai Bossi, di cui do notizie dettagliate nelle pagine relative ai rapporti con i compositori e all’analisi dell’Anno Mille, hanno permesso di cogliere aspetti ulteriori circa il legame forte e meditato che univa il poeta alla musica e al melodramma. Da queste riflessioni è scaturita la prima parte della tesi, Giovanni Pascoli, i musicisti e la musica. I rapporti tra Pascoli e i musicisti sono già noti grazie soprattutto agli studi di De Lorenzi. Ho sentito il bisogno di ripercorrerli e di darne un aggiornamento alla luce proprio dei nuovi materiali emersi, che, quando non sono gli inediti delle lettere di Pascoli ai Bossi, possono essere testi a stampa di scarsa diffusione e quindi poco conosciuti. Il quadro, vista la vastità numerica e la dispersione delle lettere di Pascoli, può subire naturalmente ancora molti aggiornamenti e modifiche. Quello che ho qui voluto fare è stato dare una trattazione storico-biografica, il più possibile completa ed aggiornata, che vedesse i rapporti tra Pascoli e i musicisti nella loro organica articolazione, come premessa per valutare le posizioni del poeta in campo musicale. Le lettere su cui ho lavorato rientrano tutte nel rapporto culturale e professionale di Pascoli con i musicisti e non toccano aspetti privati e puramente biografici della vita del poeta: sono legate al progetto dei drammi teatrali e, per questo, degne di interesse. A volte, nel passato, alcune di queste pagine sono state lette, soprattutto da giornalisti e non da critici letterari, come un breve aneddoto cronachistico da inserire esclusivamente nel quadro dell’insuccesso del Pascoli teatrale o come un piccolo ragguaglio cronologico, utile alla datazione dei drammi. Ricostruire i rapporti con i musicisti equivale nel presente lavoro a capire quanto tenace e meditato fu l’avvicinarsi di Pascoli al mondo del teatro d’opera, quali furono i mezzi da lui perseguiti e le proposte avanzate; sempre ho voluto e cercato di parlare in termini di materiale documentario e archivistico. Da qui il passo ad analizzare le concezioni musicali di Pascoli è stato breve, dato che queste ultime emergono proprio dalle lettere ai musicisti. L’analisi dei rapporti con i compositori e la trattazione del pensiero di Pascoli in materia di musica e melodramma hanno in comune anche il fatto di avvalersi di ricerche collaterali allo studio della letteratura italiana; ricerche che sconfinano, per forza di cose, nella filosofia, estetica e storia della musica. Non sono una musicologa e non è stata mia intenzione affrontare problematiche per le quali non sono provvista di conoscenze approfonditamente adeguate. Comprendere il panorama musicale di quegli anni e i fermenti che si agitavano nel teatro lirico, con esiti vari e contrapposti, era però imprescindibile per procedere in questo cammino. Non sono pertanto entrata negli anfratti della storia della musica e della musicologia, ma ho compiuto un volo in deltaplano sopra quella terra meravigliosa e sconfinata che è l’opera lirica tra Ottocento e Novecento. Molti consigli, per non smarrirmi in questo volo, mi sono venuti da valenti musicologi ed esperti conoscitori della materia, che ho citato nei ringraziamenti e che sempre ricordo con viva gratitudine. Utile per gli studi e fondamentale per questo mio lavoro è stato riunire tutte le dichiarazioni, da me conosciute finora, fornite da Pascoli sulla musica e il melodramma. Ne emerge quella che è la filosofia pascoliana della musica e la base teorica della scrittura dei suoi drammi. Da questo si comprende bene perch Pascoli desiderasse tanto scrivere per il teatro musicale: egli riteneva che questo fosse il genere perfetto, in cui musica e parola si compenetravano. Così, egli era convinto che la sua arte potesse parlare ed arrivare a un pubblico più vasto. Inoltre e soprattutto, egli intese dare, in questo modo, una precisa risposta a un dibattito europeo sul rinnovamento del melodramma, da lui molto sentito. La scrittura teatrale di Pascoli non è tanto un modo per trovare nuove forme espressive, quanto soprattutto un tentativo di dare il suo contributo personale a un nuovo teatro musicale, di cui, a suo dire, l’umanità aveva bisogno. Era quasi un’urgenza impellente. Le risposte che egli trovò sono in linea con svariate concezioni di quegli anni, sviluppate in particolare dalla Scapigliatura. Il fatto poi che il poeta non riuscisse a trovare un compositore disposto a rischiare fino in fondo, seguendolo nelle sue creazioni di drammi tutti interiori, con scarso peso dato all’azione, non significa che egli fosse una voce isolata o bizzarra nel contesto culturale a lui contemporaneo. Si potranno, anche in futuro, affrontare studi sugli elementi di vicinanza tra Pascoli e alcuni compositori o possibili influenze tra sue poesie e libretti d’opera, ma penso non si potrà mai prescindere da cosa egli effettivamente avesse ascoltato e avesse visto rappresentato. Il che, documenti alla mano, non è molto. Solo ciò a cui possiamo effettivamente risalire come dato certo e provato è valido per dire che Pascoli subì il fascino di questa o di quell’opera. Per questo motivo, si trova qui (al termine del secondo capitolo), per la prima volta, un elenco di quali opere siamo certi Pascoli avesse ascoltato o visto: lo studio è stato possibile grazie ai rulli di cartone perforato per il pianoforte Racca di Pascoli, alle testimonianze della sorella Maria circa le opere liriche che il poeta aveva ascoltato a teatro e alle lettere del poeta. Tutto questo è stato utile per l’interpretazione del pensiero musicale di Pascoli e dei suoi drammi. I quattro abbozzi che ho scelto di analizzare mostrano nel concreto come Pascoli pensasse di attuare la sua idea di dramma e sono quindi interpretati attraverso le sue dichiarazioni di carattere musicale. Mi sono inoltre avvalsa degli autografi dei drammi, conservati a Castelvecchio. In questi abbozzi hanno un ruolo rilevante i modelli che Pascoli stesso aveva citato nelle sue lettere ai compositori: Wagner, Dante, Debussy. Soprattutto, Nell’Anno Mille, il dramma medievale sull’ultima notte del Mille, vede la significativa presenza del dantismo pascoliano, come emerge dai lavori di esegesi della Commedia. Da questo non è immune nemmeno Aasvero o Caino nel trivio o l’Ebreo Errante, che è il compimento della figura di Asvero, già apparsa nella poesia di Pascoli e portatrice di un messaggio di rinascita sociale. I due drammi presentano anche una specifica simbologia, connessa alla figura e al ruolo del poeta. Predominano, invece, in Gretchen’s Tochter e in Elena Azenor la Morta le tematiche legate all’archetipo femminile, elemento ambiguo, materno e infero, ma sempre incaricato di tenere vivo il legame con l’aldilà e con quanto non è direttamente visibile e tangibile. Per Gretchen’s Tochter la visione pascoliana del femminile si innesta sulle fonti del dramma: il Faust di Marlowe, il Faust di Goethe e il Mefistofele di Boito. I quattro abbozzi qui analizzati sono la prova di come Pascoli volesse personificare nel teatro musicale i concetti cardine e i temi dominanti della sua poesia, che sarebbero così giunti al grande pubblico e avrebbero avuto il merito di traghettare l’opera italiana verso le novità già percorse da Wagner. Nel 1906 Pascoli aveva chiaramente compreso che i suoi drammi non sarebbero mai arrivati sulle scene. Molti studi e molti spunti poetici realizzati per gli abbozzi gli restavano inutilizzati tra le mani. Ecco, allora, che buona parte di essi veniva fatta confluire nel poema medievale, in cui si cantano la storia e la cultura italiane attraverso la celebrazione di Bologna, città in cui egli era appena rientrato come professore universitario, dopo avervi già trascorso gli anni della giovinezza da studente. Le Canzoni di Re Enzio possono quindi essere lette come il punto di approdo dell’elaborazione teatrale, come il “melodramma senza musica” che dà il titolo a questo lavoro sul pensiero e l’opera del Pascoli teatrale. Già Cesare Garboli aveva collegato il manierismo con cui sono scritte le Canzoni al teatro musicale europeo e soprattutto a Puccini. Alcuni precisi parallelismi testuali e metrici e l’uso di fonti comuni provano che il legame tra l’abbozzo dell’Anno Mille e le Canzoni di Re Enzio è realmente attivo. Le due opere sono avvicinate anche dalla presenza del sostrato dantesco, tenendo presente che Dante era per Pascoli uno dei modelli a cui guardare proprio per creare il nuovo e perfetto dramma musicale. Importantissimo, infine, è il piccolo schema di un dramma su Ruth, che egli tracciò in una lettera della fine del 1906, a Marco Enrico Bossi. La vicinanza di questo dramma e di alcuni degli episodi principali della Canzone del Paradiso è tanto forte ed evidente da rendere questo abbozzo quasi un cartone preparatorio della Canzone stessa. Il Medioevo bolognese, con il suo re prigioniero, la schiava affrancata e ancella del Sole e il giullare che sulla piazza intona la Chanson de Roland, costituisce il ritorno del dramma nella poesia e l’avvento della poesia nel dramma o, meglio, in quel continuo melodramma senza musica che fu il lungo cammino del Pascoli librettista.