924 resultados para energie rinnovabili, idroelettrico, valutazione di impatto ambientale.
Resumo:
Parametro indispensabile di valutazione di un qualsiasi prodotto o servizio, ai giorni nostri, è la web reputation. Sono sempre più numerose le aziende che monitorano la propria "reputazione online". Quest'ultima può esser definita come l'insieme dei messaggi, commenti e feedbacks, positivi, neutri o negativi che siano, di utenti che esprimono la loro opinione tramite il web su un determinato servizio o prodotto rivolto al pubblico. L’applicazione sviluppata, si pone l’obiettivo di analizzare in tempo reale tramite l’utilizzo di Apache Storm, dati provenienti da fonti eterogenee, classificarli tramite KNIME utilizzando tecniche di classificazione quali SVM, alberi decisionali e Naive Bayesian, renderli persistenti mediante l’utilizzo del database NoSQL HBASE e di visualizzarli in tempo reale attraverso dei grafici utilizzando delle servlet, al fine di costituire un valido strumento di supporto per i processi decisionali.
Resumo:
L'elaborato si impegna ad esporre i risultati derivanti da una revisione estensiva della letteratura riguardante le pratiche di misurazione della sostenibilità in azienda. Si è scelto un approccio al problema di impostazione bibliometrico, consistente in analisi statistiche di dati bibliografici ricavabili osservando le relazioni tra documenti. Si sono utilizzati strumenti di clustering per categorizzare la letteratura ed individuare le aree di maggior interesse potenziali per aziende che desiderino investire con successo nella sostenibilità. Come risultato, si è ottenuta una chiara identificazione delle principali tematiche che devono essere tenute in considerazione nell’affrontare valutazioni relative alla misurazione e valorizzazione dei concetti di sostenibilità e impatto ambientale in ambito aziendale. Il presente lavoro si presenta inoltre come guida metodologica per un approccio quantitativo alla revisione della letteratura, adattabile ed applicabile in maniera iterativa per un continuo monitoraggio del tema o per indagini in altri ambiti. Questa tesi si pone dunque come base per ricerche e analisi successive finalizzate alla comprensione della letteratura.
Resumo:
La presente tesi di dottorato ha riguardato l'indagine fitochimica della biodiversità spontanea di Humulus lupulus L. in Emilia Romagna e la valutazione degli effetti del clima dell'Italia settentrionale sul metabolismo secondario di cultivar di luppolo. In particolare, lo studio ha previsto l'individuazione di ecotipi di luppolo provenienti da zone planiziali e collinari di'Emilia Romagna e Lombardia, la loro messa a dimora in un campo collezione appositamente allestito, e il monitoraggio della resa di campo e della produzione di metaboliti secondari di natura polare (acilfluoroglucinoli, flavonidi isoprenilati) e apolare (terpeni e sequiterpeni). Gli obiettivi primari sono stati la valutazione di entità da portare direttamente in coltivazione o da introdurre in percorsi di breeding del luppolo in Italia, oltre all'ottimizzazione di metodi innovativi per lo screening dell'intero germoplasma italiano. Per definire le caratteristiche fitochimiche dei coni di luppolo sono stati messi a punto metodi cromatografici HPLC-UV, HPLC-MS/MS e GC-MS e metodi spettroscopici 1H-NMR. Nel corso del triennio i metodi sono stati applicati a 10 cultivar e oltre 30 ecotipi , alcuni dei quali hanno fornito dati anche a conclusione dell'intero periodo di acclimatazione. Per tutti si è anche verificata la resilienza alle diverse condizioni climatiche incontrate Le analisi chimiche hanno permesso di individuare una sostanziale differenza tra gli ecotipi e le cultivar, con i primi che si caratterizzano per una produzione modesta di α-acidi e β-acidi e un profilo aromatico ricco di isomeri del selinene. Questo risultato può essere interessante per l’industria della birra nazionale e in particolare per il settore dei microbirrifici artigianali, in quanto i luppoli più pregiati sono proprio quelli con un basso contenuto di acidi amari e ricchi di oli essenziali che possano impartire alle birre prodotte note aromatiche particolari e legate al territorio. L’indagine agronomica monitorata su tre anni di produzione ha anche fatto emergere la resistenza degli ecotipi italiani al clima caldo e siccitoso e ha evidenziato invece come le cultivar estere abbiano limiti fisiologici a queste condizioni. Confrontando il profilo fitochimico delle cultivar coltivate in Italia con i prodotti acquistati nei paesi d’origine è emerso che il metabolismo secondario per alcune cultivar è particolarmente differente, come nel caso della cultivar Marynka, che rispetto agli standard commerciali ha prodotto in Italia coni ricchi di oli essenziali con alte quantità di trans-β-farnesene, cambiandone le caratteristiche da varietà amaricante ad aromatica. I risultati ottenuti dimostrano la fattibilità della coltivazione di Humulus lupulus L. sul territorio nazionale con ottime prospettive di produttività per gli ecotipi italiani. Inoltre da questi primi risultati è ora possibile intraprendere un programma di breeding per la creazione di nuove varietà, più resistenti al caldo e con le caratteristiche desiderate in base all’utilizzo del prodotto, sia per quanto riguarda l’industria della birra, sia la cosmetico-farmaceutica per la produzione di estratti.
Resumo:
L'elaborato si inserisce in un progetto sviluppato presso l'Istituto Scientifico Romagnolo per lo Studio e la Cura dei Tumori (I.R.S.T.) di Meldola che riguarda la valutazione di parametri cardiologici che possano risultare indici predittivi di uno scompenso cardiaco in pazienti affetti da linfoma. Tutti i soggetti considerati nel progetto sono stati sottoposti a trattamenti chemioterapici facenti uso di antracicline e la cui funzionalità cardiaca è stata controllata periodicamente tramite ecografia bidimensionale e volumetrica, utilizzando il sistema VividE9 della GE Healthcare. L'obiettivo dell'analisi è quello di ricercare se oltre alla frazione di eiezione esistono parametri più predittivi di una eventuale cardiotossicità come gli strain, calcolati attraverso l'ausilio della tecnica ecografica.
Resumo:
A partire da un’analisi complessiva della struttura di Palazzo Italia Expo, è stata approfondita nel dettaglio la realizzazione del rivestimento. Sono emerse soluzioni costruttive fortemente innovative, dettate da necessità architettoniche ben precise: si è cercato di conciliare il concept della foresta urbana con le esigenze funzionali che il palazzo doveva soddisfare. Nella scelta del materiale da rivestimento si è optato per un “cemento biodinamico” brevettato per l’occasione da ItalCementi, e studiato anch’esso con obiettivi ben definiti: ricercare una brillantezza e purezza del colore durevole nel tempo, e avvicinarsi sempre più all’esigenza di sostenibilità ambientale delle strutture. Si è cercato di analizzare l'effettiva capacità di questo cemento di soddisfare i requisiti prefissati nel corso tempo, anche attraverso un'analisi comparativa con il cemento utilizzato nella chiesa Dives in Misericordia a Roma di Richard Meier.
Resumo:
Il caso studio del vestibolo ottagonale di Villa Adriana ha dato la possibilità di applicare ad un edificio di notevole valore storico e artistico tecniche di restituzione digitale e di modellazione tridimensionale basate su applicativi di modellazione geometrica, con lo scopo di generarne il modello 3D digitale fotorealistico e polifunzionale. Nel caso specifico del vestibolo, un modello tridimensionale di questo tipo risulta utile a fini documentativi, a sostegno di ipotesi costruttive e come strumento per la valutazione di interventi di restauro. Il percorso intrapreso ha permesso di valutare le criticità nelle tecniche di acquisizione, modellazione e foto-modellazione tridimensionale applicate in ambito archeologico, tecniche usate abitualmente anche in settori quali l’architettura, il design industriale ma anche nel cinema (effetti speciali e film d’animazione) e in ambito videoludico, con obiettivi differenti: nel settore del design e della progettazione industriale il Reverse Modeling viene impiegato per eseguire controlli di qualità e rispetto delle tolleranze sul prodotto finale, mentre in ambito cinematografico e videoludico (in combinazione con altri software) permette la creazione di modelli realistici da inserire all’interno di film o videogiochi, (modelli non solo di oggetti ma anche di persone). La generazione di un modello tridimensionale ottenuto tramite Reverse Modeling è frutto di un processo opposto alla progettazione e può avvenire secondo diverse strategie, ognuna delle quali presenta vantaggi e svantaggi specifici che la rendono più indicata in alcuni casi piuttosto che in altri. In questo studio sono state analizzate acquisizioni tridimensionali effettuate tramite Laser Scan e tramite applicazioni Structure from Motion/Dense Stereo View.
Resumo:
Secondo la sismologia storica, Venezia non è mai stata colpita in modo diretto da terremoti nel suo immediato sottosuolo, tuttavia ha riportato diversi danni in occasione di terremoti limitrofi. Nella presente tesi è stato studiato il comportamento sotto sisma di due principali opere veneziane: il ponte degli Scalzi (1934) eretto da E. Miozzi e il ponte della Costituzione (2008), disegnato da S. Calatrava. Accoppiando il modello dinamico dei due ponti con lo spettro di risposta del sito, abbiamo riscontrato che il ponte della Costituzione si colloca nel plateau dello spettro, quindi a periodi per i quali l’accelerazione attesa sulla struttura è massima. Questo non depone a favore della sua sicurezza, considerati anche i problemi statici che la struttura presenta. Il ponte degli Scalzi presenta invece una rigidezza tale da non mostrare amplificazione significativa tra il moto alla fondazione e quello della struttura sovrastante. Le misure di microtremore ambientale effettuate sul sottosuolo in prossimità delle fondazioni dei due ponti hanno mostrato che esso amplifica il moto per risonanza a 0.5 Hz. Questa frequenza è sufficientemente lontana da quelle proprie dei due ponti in esame, per cui si può ritenere che non ne influenzi significativamente la dinamica. Infine, abbiamo osservato che i valori di accelerazione verticale misurati sulla sua sommità del ponte della Costituzione, generati principalmente dal traffico pedonale, superano i limiti di comfort proposti dall’Eurocodice EN UNI 1990.
Resumo:
L’oggetto di studio di questa tesi consiste nel primo approccio di sperimentazione dell’utilizzo di tecnologia UAV (Unmanned aerial vehicle, cioè velivoli senza pilota), per fotogrammetria ai fini di una valutazione di eventuali danni ad edifici, a seguito di un evento straordinario o disastri naturali. Uno degli aspetti più onerosi in termini di tempo e costi di esecuzione, nel processamento di voli fotogrammetrici per usi cartografici è dovuto alla necessità di un appoggio topografico a terra. Nella presente tesi è stata valutata la possibilità di effettuare un posizionamento di precisione della camera da presa al momento dello scatto, in modo da ridurre significativamente la necessità di Punti Fotografici di Appoggio (PFA) rilevati per via topografica a terra. In particolare si è voluto sperimentare l’impiego di stazioni totali robotiche per l’inseguimento e il posizionamento del velivolo durante le acquisizioni, in modo da simulare la presenza di ricevitori geodetici RTK installati a bordo. Al tempo stesso tale metodologia permetterebbe il posizionamento di precisione del velivolo anche in condizioni “indoor” o di scarsa ricezione dei segnali satellitari, quali ad esempio quelle riscontrabili nelle attività di volo entro canyon urbani o nel rilievo dei prospetti di edifici. Nell’ambito della tesi è stata, quindi, effettuata una analisi di un blocco fotogrammetrico in presenza del posizionamento di precisione della camera all’istante dello scatto, confrontando poi i risultati ottenuti con quelli desumibili attraverso un tradizionale appoggio topografico a terra. È stato quindi possibile valutare le potenzialità del rilievo fotogrammetrico da drone in condizioni vicine a quelle tipiche della fotogrammetria diretta. In questo caso non sono stati misurati però gli angoli di assetto della camera all’istante dello scatto, ma si è proceduto alla loro stima per via fotogrammetrica.
Resumo:
Pós-graduação em Direito - FCHS
Resumo:
La ricerca ha perseguito l’obiettivo di individuare e definire il potere di un ente territoriale di sostituire, tramite i suoi organi o atti, quelli ordinari degli enti territoriali minori, per assumere ed esercitare compiutamente, in situazioni straordinarie, le funzioni proprie di questi. Dogmaticamente potremmo distinguere due generali categorie di sostituzione: quella amministrativa e quella legislativa, a seconda dell’attività giuridica nella quale il sostituto interviene. Nonostante tale distinzione riguardi in generale il rapporto tra organi o enti della stessa o di differenti amministrazioni, con eguale o diverso grado di autonomia; la ricerca ha mirato ad analizzare le due summenzionate categorie con stretto riferimento agli enti territoriali. I presupposti, l’oggetto e le modalità di esercizio avrebbero consentito ovviamente di sottocatalogare le due generali categorie di sostituzione, ma un’indagine volta a individuare e classificare ogni fattispecie di attività sostitutiva, più che un’attività complessa, è sembrata risultare di scarsa utilità. Più proficuo è parso il tentativo di ricostruire la storia e l’evoluzione del menzionato istituto, al fine di definire e comprendere i meccanismi che consentono l’attività sostitutiva. Nel corso della ricostruzione non si è potuto trascurare che, all’interno dell’ordinamento italiano, l’istituto della sostituzione è nato nel diritto amministrativo tra le fattispecie che regolavano l’esercizio della funzione amministrativa indiretta. La dottrina del tempo collocava la potestà sostitutiva nella generale categoria dei controlli. La sostituzione, infatti, non avrebbe avuto quel valore creativo e propulsivo, nel mondo dell’effettualità giuridica, quell’energia dinamica ed innovatrice delle potestà attive. La sostituzione rappresentava non solo la conseguenza, ma anche la continuazione del controllo. Le fattispecie, che la menzionata dottrina analizzava, rientravano principalmente all’interno di due categorie di sostituzione: quella disposta a favore dello Stato contro gli inadempimenti degli enti autarchici – principalmente il comune – nonché la sostituzione operata all’interno dell’organizzazione amministrativa dal superiore gerarchico nei confronti del subordinato. Già in epoca unitaria era possibile rinvenire poteri sostitutivi tra enti, la prima vera fattispecie di potestà sostitutiva, era presente nella disciplina disposta da diverse fattispecie dell'allegato A della legge 20 marzo 1856 n. 2248, sull'unificazione amministrativa del Regno. Tentativo del candidato è stato quello, quindi, di ricostruire l'evoluzione delle fattispecie sostitutive nella stratificazione normativa che seguì con il T.U. della legge Comunale e Provinciale R.D. 4 febbraio 1915 e le successive variazioni tra cui il R.D.L. 30 dicembre 1923. Gli istituti sostitutivi vennero meno (di fatto) con il consolidarsi del regime fascista. Il fascismo, che in un primo momento aveva agitato la bandiera delle autonomie locali, non tardò, come noto, una volta giunto al potere, a seguire la sua vera vocazione, dichiarandosi ostile a ogni proposito di decentramento e rafforzando, con la moltiplicazione dei controlli e la soppressione del principio elettivo, la già stretta dipendenza delle comunità locali dallo Stato. Vennero meno i consigli liberamente eletti e al loro posto furono insediati nel 1926 i Podestà e i Consultori per le Amministrazioni comunali; nel 1928 i Presidi e i Rettorati per le Amministrazioni Provinciali, tutti organi nominati direttamente o indirettamente dall’Amministrazione centrale. In uno scenario di questo tipo i termini autarchia e autonomia risultano palesemente dissonanti e gli istituti di coordinamento tra Stato ed enti locali furono ad esso adeguati; in tale ordinamento, infatti, la sostituzione (pur essendo ancora presenti istituti disciplinanti fattispecie surrogatorie) si presentò come un semplice rapporto interno tra organi diversi, di uno stesso unico potere e non come esso è in realtà, anello di collegamento tra soggetti differenti con fini comuni (Stato - Enti autarchici); per semplificare, potremmo chiederci, in un sistema totalitario come quello fascista, in cui tutti gli interessi sono affidati all’amministrazione centrale, chi dovrebbe essere il sostituito. Il potere sostitutivo (in senso proprio) ebbe una riviviscenza nella normativa post-bellica, come reazione alla triste parentesi aperta dal fascismo, che mise a nudo i mali e gli abusi dell’accentramento statale. La suddetta normativa iniziò una riforma in favore delle autonomie locali; infatti, come noto, tutti i partiti politici assunsero posizione in favore di una maggiore autonomia degli enti territoriali minori e ripresero le proposte dei primi anni dell’Unità di Italia avanzate dal Minghetti, il quale sentiva l’esigenza dell’istituzione di un ente intermedio tra Stato e Province, a cui affidare interessi territorialmente limitati: la Regione appunto. Emerge piuttosto chiaramente dalla ricerca che la storia politica e l’evoluzione del diritto pubblico documentano come ad una sempre minore autonomia locale nelle politiche accentratrici dello Stato unitario prima, e totalitario poi, corrisponda una proporzionale diminuzione di istituti di raccordo come i poteri sostitutivi; al contrario ad una sempre maggiore ed evoluta autonomia dello Stato regionalista della Costituzione del 1948 prima, e della riforma del titolo V oggi, una contestuale evoluzione e diffusione di potestà sostitutive. Pare insomma che le relazioni stato-regioni, regioni-enti locali che la sostituzione presuppone, sembrano rappresentare (ieri come oggi) uno dei modi migliori per comprendere il sistema delle autonomie nell’evoluzione della stato regionale e soprattutto dopo la riforma apportata dalla legge costituzionale 18 ottobre 2001, n. 3. Dalla preliminare indagine storica un altro dato, che pare emergere, sembra essere la constatazione che l'istituto nato e giustificato da esigenze di coerenza e efficienza dell'azione amministrativa sia stato trasferito nell'ambio delle relazioni tra stato e autonomie territoriali. Tale considerazione sembra essere confermata dal proseguo dell’indagine, ed in particolare dai punti di contatto tra presupposti e procedure di sostituzione nell’analisi dell’istituto. Nonostante, infatti, il Costituente non disciplinò poteri sostitutivi dello Stato o delle regioni, al momento di trasferire le competenze amministrative alle regioni la Corte costituzionale rilevò il problema della mancanza di istituti posti a garantire gli interessi pubblici, volti ad ovviare alle eventuali inerzie del nuovo ente territoriale. La presente ricerca ha voluto infatti ricostruire l’ingresso dei poteri sostitutivi nel ordinamento costituzionale, riportando le sentenze del Giudice delle leggi, che a partire dalla sentenza n. 142 del 1972 e dalla connessa pronuncia n. 39 del 1971 sui poteri di indirizzo e coordinamento dello Stato, pur non senza incertezze e difficoltà, ha finito per stabilire un vero e proprio “statuto” della sostituzione con la sentenza n. 177 del 1988, individuando requisiti sostanziali e procedurali, stimolando prima e correggendo successivamente gli interventi del legislatore. Le prime fattispecie sostitutive furono disciplinate con riferimento al rispetto degli obblighi comunitari, ed in particolare con l’art. 27 della legge 9 maggio 1975, n. 153, la quale disciplina, per il rispetto dell’autonomia regionale, venne legittimata dalla stessa Corte nella sentenza n. 182 del 1976. Sempre con riferimento al rispetto degli obblighi comunitari intervenne l’art. 6 c. 3°, D.P.R. 24 luglio 1977, n. 616. La stessa norma va segnalata per introdurre (all’art. 4 c. 3°) una disciplina generale di sostituzione in caso di inadempimento regionale nelle materie delegate dallo Stato. Per il particolare interesse si deve segnalare il D.M. 21 settembre 1984, sostanzialmente recepito dal D.L. 27 giugno 1985, n. 312 (disposizioni urgenti per la tutela delle zone di particolare interesse ambientale), poi convertito in legge 8 agosto 1985, n. 431 c.d. legge Galasso. Tali disposizioni riaccesero il contenzioso sul potere sostitutivo innanzi la Corte Costituzionale, risolto nelle sentt. n. 151 e 153 del 1986. Tali esempi sembrano dimostrare quello che potremmo definire un dialogo tra legislatore e giudice della costituzionalità nella definizione dei poteri sostitutivi; il quale culminò nella già ricordata sent. n. 177 del 1988, nella quale la Corte rilevò che una legge per prevedere un potere sostitutivo costituzionalmente legittimo deve: essere esercitato da parte di un organo di governo; nei confronti di attività prive di discrezionalità nell’an e presentare idonee garanzie procedimentali in conformità al principio di leale collaborazione. Il modello definito dalla Corte costituzionale sembra poi essere stato recepito definitivamente dalla legge 15 marzo 1997, n. 59, la quale per prima ha connesso la potestà sostitutiva con il principio di sussidiarietà. Detta legge sembra rappresentare un punto di svolta nell’indagine condotta perché consente di interpretare al meglio la funzione – che già antecedentemente emergeva dallo studio dei rapporti tra enti territoriali – dei poteri sostitutivi quale attuazione del principio di sussidiarietà. La legge costituzionale 18 ottobre 2001, n. 3, ha disciplinato all’interno della Costituzione ben due fattispecie di poteri sostitutivi all’art. 117 comma 5 e all’art. 120 comma 2. La “lacuna” del 1948 necessitava di essere sanata – in tal senso erano andati anche i precedenti tentativi di riforma costituzionale, basti ricordare l’art. 58 del progetto di revisione costituzionale presentato dalla commissione D’Alema il 4 novembre 1997 – i disposti introdotti dal riformatore costituzionale, però, non possono certo essere apprezzati per la loro chiarezza e completezza. Le due richiamate disposizioni costituzionali, infatti, hanno prodotto numerose letture. Il dibattito ha riguardato principalmente la natura delle due fattispecie sostitutive. In particolare, si è discusso sulla natura legislativa o amministrativa delle potestà surrogatorie e sulla possibilità da parte del legislatore di introdurre o meno la disciplina di ulteriori fattispecie sostitutive rispetto a quelle previste dalla Costituzione. Con particolare riferimento all’art. 120 c. 2 Cost. sembra semplice capire che le difficoltà definitorie siano state dovute all’indeterminatezza della fattispecie, la quale attribuisce al Governo il potere sostitutivo nei confronti degli organi (tutti) delle regioni, province, comuni e città metropolitane. In particolare, la dottrina, che ha attribuito all’art. 120 capoverso la disciplina di un potere sostitutivo sulle potestà legislative delle Regioni, è partita dalla premessa secondo la quale detta norma ha una funzione fondamentale di limite e controllo statale sulle Regioni. La legge 18 ottobre 2001 n. 3 ha, infatti, variato sensibilmente il sistema dei controlli sulle leggi regionali, con la modificazione degli artt. 117 e 127 della Costituzione; pertanto, il sistema dei controlli dopo la riforma del 2001, troverebbe nel potere sostitutivo ex art. 120 la norma di chiusura. Sul tema è insistito un ampio dibattito, al di là di quello che il riformatore costituzionale avrebbe dovuto prevedere, un’obiezione (più delle altre) pare spingere verso l’accoglimento della tesi che propende per la natura amministrativa della fattispecie in oggetto, ovvero la constatazione che il Governo è il soggetto competente, ex art. 120 capoverso Cost., alla sostituzione; quindi, se si intendesse la sostituzione come avente natura legislativa, si dovrebbe ritenere che il Costituente abbia consentito all’Esecutivo, tosto che al Parlamento, l’adozione di leggi statali in sostituzione di quelle regionali. Suddetta conseguenza sembrerebbe comportare una palese violazione dell’assetto costituzionale vigente. Le difficoltà interpretative dell’art. 120 Cost. si sono riversate sulla normativa di attuazione della riforma costituzionale, legge 5 giugno 2003, n. 131. In particolare nell’art. 8, il quale ha mantenuto un dettato estremamente vago e non ha preso una chiara e netta opzione a favore di una della due interpretazione riportate circa la natura della fattispecie attuata, richiamando genericamente che il potere sostitutivo si adotta “Nei casi e per le finalità previsti dall'articolo 120” Cost. Di particolare interesse pare essere, invece, il procedimento disciplinato dal menzionato art. 8, il quale ha riportato una procedura volta ad attuare quelle che sono state le indicazioni della Corte in materia. Analogamente agli anni settanta ed ottanta, le riportate difficoltà interpretative dell’art. 120 Cost. e, più in generale il tema dei poteri sostitutivi dopo la riforma del 2001, sono state risolte e definite dal giudice della costituzionalità. In particolare, la Corte sembra aver palesemente accolto (sent. n. 43 del 2004) la tesi sulla natura amministrativa del potere sostitutivo previsto dall’art. 120 c. 2 Cost. Il giudice delle leggi ha tra l’altro fugato i dubbi di chi, all’indomani della riforma costituzionale del 2001, aveva letto nel potere sostitutivo, attribuito dalla riformata Costituzione al Governo, l’illegittimità di tutte quelle previsioni legislative regionali, che disponevano ipotesi di surrogazione (da parte della regione) nei confronti degli enti locali. La Corte costituzionale, infatti, nella già citata sentenza ha definito “straordinario” il potere di surrogazione attribuito dall’art. 120 Cost. allo Stato, considerando “ordinare” tutte quelle fattispecie sostitutive previste dalla legge (statale e regionale). Particolarmente innovativa è la parte dell'indagine in cui la ricerca ha verificato in concreto la prassi di esercizio della sostituzione statale, da cui sono sembrate emergere numerose tendenze. In primo luogo significativo sembra essere il numero esiguo di sostituzioni amministrative statali nei confronti delle amministrazioni regionali; tale dato sembra dimostrare ed essere causa della scarsa “forza” degli esecutivi che avrebbero dovuto esercitare la sostituzione. Tale conclusione sembra trovare conferma nell'ulteriore dato che sembra emergere ovvero i casi in cui sono stati esercitati i poteri sostitutivi sono avvenuti tutti in materie omogenee (per lo più in materia di tutela ambientale) che rappresentano settori in cui vi sono rilevanti interessi pubblici di particolare risonanza nell'opinione pubblica. Con riferimento alla procedura va enfatizzato il rispetto da parte dell'amministrazione sostituente delle procedure e dei limiti fissati tanto dal legislatore quanto nella giurisprudenza costituzionale al fine di rispettare l'autonomia dell'ente sostituito. Dalla ricerca emerge che non è stato mai esercitato un potere sostitutivo direttamente ex art. 120 Cost., nonostante sia nella quattordicesima (Governo Berlusconi) che nella quindicesima legislatura (Governo Prodi) con decreto sia stata espressamente conferita al Ministro per gli affari regionali la competenza a promuovere l’“esercizio coordinato e coerente dei poteri e rimedi previsti in caso di inerzia o di inadempienza, anche ai fini dell'esercizio del potere sostitutivo del Governo di cui all'art. 120 della Costituzione”. Tale conclusione, però, non lascia perplessi, bensì, piuttosto, sembra rappresentare la conferma della “straordinarietà” della fattispecie sostitutiva costituzionalizzata. Infatti, in via “ordinaria” lo Stato prevede sostituzioni per mezzo di specifiche disposizioni di legge o addirittura per mezzo di decreti legge, come di recente il D.L. 09 ottobre 2006, n. 263 (Misure straordinarie per fronteggiare l'emergenza nel settore dei rifiuti nella regione Campania. Misure per la raccolta differenziata), che ha assegnato al Capo del Dipartimento della protezione civile della Presidenza del Consiglio dei Ministri “le funzioni di Commissario delegato per l'emergenza nel settore dei rifiuti nella regione Campania per il periodo necessario al superamento di tale emergenza e comunque non oltre il 31 dicembre 2007”. Spesso l’aspetto interessante che sembra emergere da tali sostituzioni, disposte per mezzo della decretazione d’urgenza, è rappresentato dalla mancata previsione di diffide o procedure di dialogo, perché giustificate da casi di estrema urgenza, che spesso spingono la regione stessa a richiedere l’intervento di surrogazione. Del resto è stata la stessa Corte costituzionale a legittimare, nei casi di particolare urgenza e necessità, sostituzioni prive di dialogo e strumenti di diffida nella sent. n. 304 del 1987. Particolare attenzione è stata data allo studio dei poteri sostitutivi regionali. Non solo perché meno approfonditi in letteratura, ma per l’ulteriore ragione che tali fattispecie, disciplinate da leggi regionali, descrivono i modelli più diversi e spingono ad analisi di carattere generale in ordine alla struttura ed alla funzione dei poteri sostitutivi. Esse sembrano rappresentare (in molti casi) modelli da seguire dallo stesso legislatore statale, si vedano ad esempio leggi come quella della regione Toscana 31 ottobre 2001, n. 53, artt. 2, 3, 4, 5, 7; legge regione Emilia-Romagna 24 marzo 2004, n. 6, art. 30, le quali recepiscono i principi sviluppati dalla giurisprudenza costituzionale e scandiscono un puntuale procedimento ispirato alla collaborazione ed alla tutela delle attribuzioni degli enti locali. La ricerca di casi di esercizio di poter sostitutivi è stata effettuata anche con riferimento ai poteri sostitutivi regionali. I casi rilevati sono stati numerosi in particolare nella regione Sicilia, ma si segnalano anche casi nelle regioni Basilicata ed Emilia-Romagna. Il dato principale, che sembra emergere, pare essere che alle eterogenee discipline di sostituzione corrispondano eterogenee prassi di esercizio della sostituzione. Infatti, alle puntuali fattispecie di disciplina dei poteri sostitutivi dell’Emilia-Romagna corrispondono prassi volte ad effettuare la sostituzione con un delibera della giunta (organo di governo) motivata, nel rispetto di un ampio termine di diffida, nonché nella ricerca di intese volte ad evitare la sostituzione. Alla generale previsione della regione Sicilia, pare corrispondere un prassi sostitutiva caratterizzata da un provvedimento del dirigente generale all’assessorato per gli enti locali (organo di governo?), per nulla motivato, salvo il richiamo generico alle norme di legge, nonché brevi termini di diffida, che sembrano trovare la loro giustificazione in note o solleciti informati che avvisano l’ente locale della possibile sostituzione. In generale il fatto che in molti casi i poteri sostitutivi siano stimolati per mezzo dell’iniziativa dei privati, sembra dimostrare l’attitudine di tal istituto alla tutela degli interessi dei singoli. I differenti livelli nei quali operano i poteri sostitutivi, il ruolo che la Corte ha assegnato a tali strumenti nell’evoluzione della giurisprudenza costituzionale, nonché i dati emersi dall’indagine dei casi concreti, spingono ad individuare nel potere sostitutivo uno dei principali strumenti di attuazione del principio di sussidiarietà, principio quest’ultimo che sembra rappresentare – assieme ai corollari di proporzionalità, adeguatezza e leale collaborazione – la chiave di lettura della potestà sostitutiva di funzioni amministrative. In tal senso, come detto, pare emergere dall’analisi di casi concreti come il principio di sussidiarietà per mezzo dei poteri sostitutivi concretizzi quel fine, a cui l’art. 118 cost. sembra mirare, di tutela degli interessi pubblici, consentendo all’ente sovraordinato di intervenire laddove l’ente più vicino ai cittadini non riesca. Il principio di sussidiarietà sembra essere la chiave di lettura anche dell’altra categoria della sostituzione legislativa statale. L’impossibilità di trascurare o eliminare l’interesse nazionale, all’interno di un ordinamento regionale fondato sull’art. 5 Cost., sembra aver spino la Corte costituzionale ad individuare una sorta di “potere sostitutivo legislativo”, attraverso il (seppur criticabile) meccanismo introdotto per mezzo della sent. 303 del 2003 e della cosiddetta “chiamata i sussidiarietà”. Del resto adattare i principi enucleati nella giurisprudenza costituzionale a partire dalla sent. n. 117 del 1988 alla chiamata in sussidiarietà e i limiti che dal principio di leale collaborazione derivano, sembra rappresentare un dei modi (a costituzione invariata) per limitare quello che potrebbe rappresentare un meccanismo di rilettura dell’art. 117 Cost. ed ingerenza dello stato nelle competenze della regioni. Nonostante le sensibili differenze non si può negare che lo strumento ideato dalla Corte abbia assunto le vesti della konkurrierende gesetzgebung e, quindi, di fatto, di un meccanismo che senza limiti e procedure potrebbe rappresentare uno strumento di interferenza e sostituzione della stato nelle competenze regionali. Tali limiti e procedure potrebbero essere rinvenuti come detto nelle procedure di sostituzione scandite nelle pronunce del giudice delle leggi. I risultati che si spera emergeranno dalla descritta riflessione intorno ai poteri sostitutivi e il conseguente risultato circa lo stato del regionalismo italiano, non sembrano, però, rappresentare un punto di arrivo, bensì solo di partenza. I poteri sostitutivi potrebbero infatti essere oggetto di futuri interventi di riforma costituzionale, così come lo sono stati in occasione del tentativo di riforma del 2005. Il legislatore costituzionale nel testo di legge costituzionale approvato in seconda votazione a maggioranza assoluta (recante “Modifiche alla Parte II della Costituzione” e pubblicato in gazzetta ufficiale n. 269 del 18-11-2005) pareva aver fatto un scelta chiara sostituendo il disposto “Il Governo può sostituirsi a organi delle Regioni, delle città metropolitane, delle Province e dei Comuni” con “Lo Stato può sostituirsi alle Regioni, alle città metropolitane, alle Province e ai Comuni nell'esercizio delle funzioni loro attribuite dagli articoli 117 e 118”. Insomma si sarebbe introdotto quello strumento che in altri Paesi prende il nome di Supremacy clause o Konkurrierende Gesetzgebung, ma quali sarebbero state le procedure e limiti che lo Stato avrebbe dovuto rispettare? Il dettato che rigidamente fissa le competenze di stato e regioni, assieme alla reintroduzione espressa dell’interesse nazionale, non avrebbe ridotto eccessivamente l’autonomia regionale? Tali interrogativi mirano a riflettere non tanto intorno a quelli che potrebbero essere gli sviluppi dell’istituto dei poteri sostitutivi. Piuttosto essi sembrano rappresenterebbe l’ulteriore punto di vista per tentare di comprendere quale percorso avrebbe potuto (o potrebbe domani) prendere il regionalismo italiano.
Resumo:
La tesi si occupa della teoria delle ranking functions di W. Spohn, dottrina epistemologica il cui fine è dare una veste logica rigorosa ai concetti di causalità, legge di natura, spiegazione scientifica, a partire dalla nozione di credenza. Di tale teoria manca ancora una esposizione organica e unitaria e, soprattutto, formulata in linguaggio immediatamente accessibile. Nel mio lavoro, che si presenta come introduzione ad essa, è anche messa a raffronto con le teorie che maggiormente l’hanno influenzata o rispetto alle quali si pone come avversaria. Il PRIMO CAPITOLO si concentra sulla teoria di P. Gärdenfors, il più diretto predecessore e ispiratore di Spohn. Questo consente al lettore di acquisire familiarità con le nozioni di base della logica epistemica. La conoscenza, nella teoria del filosofo svedese, è concepita come processo di acquisizione ed espulsione di credenze, identificate con proposizioni, da un insieme. I tre maggiori fenomeni epistemici sono l’espansione, la revisione e la contrazione. Nel primo caso si immagazzina una proposizione in precedenza sconosciuta, nel secondo se ne espelle una a causa dell’acquisizione della sua contraddittoria, nel terzo si cancella una proposizione per amore di ipotesi e si investigano le conseguenze di tale cancellazione. Controparte linguistica di quest’ultimo fenomeno è la formulazione di un condizionale controfattuale. L’epistemologo, così come Gärdenfors concepisce il suo compito, è fondamentalmente un logico che deve specificare funzioni: vale a dire, le regole che deve rispettare ciascun passaggio da un insieme epistemico a un successivo per via di espansione, revisione e contrazione. Il SECONDO CAPITOLO tratta infine della teoria di Spohn, cercando di esporla in modo esauriente ma anche molto semplice. Anche in Spohn evidentemente il concetto fondamentale è quello di funzione: si tratta però in questo caso di quella regola di giudizio soggettivo che, a ciascuna credenza, identificata con una proposizione, associa un grado (un rank), espresso da un numero naturale positivo o dallo zero. Un rank è un grado di non-credenza (disbelief). Perché la non-credenza (che comporta un notevole appesantimento concettuale)? Perché le leggi della credenza così concepite presentano quella che Spohn chiama una “pervasiva analogia” rispetto alle leggi della probabilità (Spohn la chiama persino “armonia prestabilita” ed è un campo su cui sta ancora lavorando). Essenziale è il concetto di condizionalizzazione (analogo a quello di probabilità condizionale): a una credenza si associa un rank sulla base di (almeno) un’altra credenza. Grazie a tale concetto Spohn può formalizzare un fenomeno che a Gärdenfors sfugge, ossia la presenza di correlazioni interdoxastiche tra le credenze di un soggetto. Nella logica epistemica del predecessore, infatti, tutto si riduce all’inclusione o meno di una proposizione nell’insieme, non si considerano né gradi di credenza né l’idea che una credenza sia creduta sulla base di un’altra. Il TERZO CAPITOLO passa alla teoria della causalità di Spohn. Anche questa nozione è affrontata in prospettiva epistemica. Non ha senso, secondo Spohn, chiedersi quali siano i tratti “reali” della causalità “nel mondo”, occorre invece studiare che cosa accade quando si crede che tra due fatti o eventi sussista una correlazione causale. Anche quest’ultima è fatta oggetto di una formalizzazione logica rigorosa (e diversificata, infatti Spohn riconosce vari tipi di causa). Una causa “innalza lo status epistemico” dell’effetto: vale a dire, quest’ultimo è creduto con rank maggiore (ossia minore, se ci si concentra sulla non-credenza) se condizionalizzato sulla causa. Nello stesso capitolo espongo la teoria della causalità di Gärdenfors, che però è meno articolata e minata da alcuni errori. Il QUARTO CAPITOLO è tutto dedicato a David Lewis e alla sua teoria controfattuale della causalità, che è il maggiore avversario tanto di Spohn quanto di Gärdenfors. Secondo Lewis la migliore definizione di causa può essere data in termini controfattuali: la causa è un evento tale che, se non fosse accaduto, nemmeno l’effetto sarebbe accaduto. Naturalmente questo lo obbliga a specificare una teoria delle condizioni di verità di tale classe di enunciati che, andando contro i fatti per definizione, non possono essere paragonati alla realtà. Lewis ricorre allora alla dottrina dei mondi possibili e della loro somiglianza comparativa, concludendo che un controfattuale è vero se il mondo possibile in cui il suo antecedente e il suo conseguente sono veri è più simile al mondo attuale del controfattuale in cui il suo antecedente è vero e il conseguente è falso. Il QUINTO CAPITOLO mette a confronto la teoria di Lewis con quelle di Spohn e Gärdenfors. Quest’ultimo riduce i controfattuali a un fenomeno linguistico che segnala il processo epistemico di contrazione, trattato nel primo capitolo, rifiutando così completamente la dottrina dei mondi possibili. Spohn non affronta direttamente i controfattuali (in quanto a suo dire sovraccarichi di sottigliezze linguistiche di cui non vuole occuparsi – ha solo un abbozzo di teoria dei condizionali) ma dimostra che la sua teoria è superiore a quella di Lewis perché riesce a rendere conto, con estrema esattezza, di casi problematici di causalità che sfuggono alla formulazione controfattuale. Si tratta di quei casi in cui sono in gioco, rafforzandosi a vicenda o “concorrendo” allo stesso effetto, più fattori causali (casi noti nella letteratura come preemption, trumping etc.). Spohn riesce a renderne conto proprio perché ha a disposizione i rank numerici, che consentono un’analisi secondo cui a ciascun fattore causale è assegnato un preciso ruolo quantitativamente espresso, mentre la dottrina controfattuale è incapace di operare simili distinzioni (un controfattuale infatti è vero o falso, senza gradazioni). Il SESTO CAPITOLO si concentra sui modelli di spiegazione scientifica di Hempel e Salmon, e sulla nozione di causalità sviluppata da quest’ultimo, mettendo in luce soprattutto il ruolo (problematico) delle leggi di natura e degli enunciati controfattuali (a questo proposito sono prese in considerazione anche le famose critiche di Goodman e Chisholm). Proprio dalla riflessione su questi modelli infatti è scaturita la teoria di Gärdenfors, e tanto la dottrina del filosofo svedese quanto quella di Spohn possono essere viste come finalizzate a rendere conto della spiegazione scientifica confrontandosi con questi modelli meno recenti. Il SETTIMO CAPITOLO si concentra sull’analisi che la logica epistemica fornisce delle leggi di natura, che nel capitolo precedente sono ovviamente emerse come elemento fondamentale della spiegazione scientifica. Secondo Spohn le leggi sono innanzitutto proposizioni generali affermative, che sono credute in modo speciale. In primo luogo sono credute persistentemente, vale a dire, non sono mai messe in dubbio (tanto che se si incappa in una loro contro-istanza si va alla ricerca di una violazione della normalità che la giustifichi). In secondo luogo, guidano e fondano la credenza in altre credenze specifiche, che sono su di esse condizionalizzate (si riprendono, con nuovo rigore logico, le vecchie idee di Wittgenstein e di Ramsey e il concetto di legge come inference ticket). In terzo luogo sono generalizzazioni ricavate induttivamente: sono oggettivazioni di schemi induttivi. Questo capitolo si sofferma anche sulla teoria di legge offerta da Gärdenfors (analoga ma embrionale) e sull’analisi che Spohn fornisce della nozione di clausola ceteris paribus. L’OTTAVO CAPITOLO termina l’analisi cominciata con il sesto, considerando finalmente il modello epistemico della spiegazione scientifica. Si comincia dal modello di Gärdenfors, che si mostra essere minato da alcuni errori o comunque caratterizzato in modo non sufficientemente chiaro (soprattutto perché non fa ricorso, stranamente, al concetto di legge). Segue il modello di Spohn; secondo Spohn le spiegazioni scientifiche sono caratterizzate dal fatto che forniscono (o sono finalizzate a fornire) ragioni stabili, vale a dire, riconducono determinati fenomeni alle loro cause e tali cause sono credute in modo persistente. Con una dimostrazione logica molto dettagliata e di acutezza sorprendente Spohn argomenta che simili ragioni, nel lungo periodo, devono essere incontrate. La sua quindi non è solo una teoria della spiegazione scientifica che elabori un modello epistemico di che cosa succede quando un fenomeno è spiegato, ma anche una teoria dello sviluppo della scienza in generale, che incoraggia a perseguire la ricerca delle cause come necessariamente coronata da successo. Le OSSERVAZIONI CONCLUSIVE fanno il punto sulle teorie esposte e sul loro raffronto. E’ riconosciuta la superiorità della teoria di Spohn, di cui si mostra anche che raccoglie in pieno l’eredità costruttiva di Hume, al quale gli avversari si rifanno costantemente ma in modo frammentario. Si analizzano poi gli elementi delle teorie di Hempel e Salmon che hanno precorso l’impostazione epistemica. La teoria di Spohn non è esente però da alcuni punti ancora problematici. Innanzitutto, il ruolo della verità; in un primo tempo Spohn sembra rinunciare, come fa esplicitamente il suo predecessore, a trattare la verità, salvo poi invocarla quando si pone il grave problema dell’oggettivazione delle ranking functions (il problema si presenta poiché di esse inizialmente si dice che sono regole soggettive di giudizio e poi si identificano in parte con le leggi di natura). C’è poi la dottrina dei gradi di credenza che Spohn dice presentarsi “unitamente alle proposizioni” e che costituisce un inutile distacco dal realismo psicologico (critica consueta alla teoria): basterebbe osservare che i gradi di credenza sono ricavati o per condizionalizzazione automatica sulla base del tipo di fonte da cui una proposizione proviene, o per paragone immaginario con altre fonti (la maggiore o minore credenza infatti è un concetto relazionale: si crede di più o di meno “sulla base di…” o “rispetto a…”). Anche la trattazione delle leggi di natura è problematica; Spohn sostiene che sono ranking functions: a mio avviso invece esse concorrono a regole di giudizio, che prescrivono di impiegare le leggi stesse per valutare proposizioni o aspettative. Una legge di natura è un ingranaggio, per così dire, di una valutazione di certezza ma non si identifica totalmente con una legge di giudizio. I tre criteri che Spohn individua per distinguere le leggi poi non sono rispettati da tutte e sole le leggi stesse: la generalizzazione induttiva può anche dare adito a pregiudizi, e non di tutte le leggi si sono viste, individualmente, istanze ripetute tanto da giustificarle induttivamente. Infine, un episodio reale di storia della scienza come la scoperta della sintesi dell’urea da parte di F. Wöhler (1828 – ottenendo carbammide, organico, da due sostanze inorganiche, dimostra che non è vera la legge di natura fini a quel momento presunta tale secondo cui “sostanze organiche non possono essere ricavate da sostanze inorganiche”) è indice che le leggi di natura non sono sempre credute in modo persistente, cosicché per comprendere il momento della scoperta è pur sempre necessario rifarsi a una teoria di tipo popperiano, rispetto alla quale Spohn presenta invece la propria in assoluta antitesi.
Resumo:
Lo strumento in esame è il carbon footprint che ha lo scopo primario di calcolare l’impronta rilasciata in atmosfera dalle emissioni di gas ad effetto serra. Il carbon footprint è stato descritto ed esaminato in ogni suo aspetto pratico, strutturale e funzionale evidenziandone sia pregi da tenere in considerazione sia limiti da colmare anche attraverso il ventaglio di strumenti di misurazione ambientale che si hanno a disposizione. Il carbon footprint non verrà descritto unicamente come strumento di contabilità ambientale ma anche come mezzo di sensibilizzazione del pubblico o dei cittadini ai temi ambientali. Questo lavoro comprende un’indagine online degli strumenti di misura e rendicontazione delle emissioni di CO2 che sono sotto il nome di carbon footprint o carbon calculator. Nell’ultima parte della tesi si è applicato ad un caso reale tutto quello che è stato appreso dalla letteratura. Il lavoro è consistito nell’applicare lo strumento del carbon footprint ad un’azienda italiana di servizi seguendo la metodologia di calcolo prevista dalla norma ISO 14064. Di essa sono state contabilizzate le emissioni di CO2 generate dalle attività quotidiane e straordinarie sulle quali l’azienda ha un controllo diretto o comunque una responsabilità indiretta.
Resumo:
Questo documento descrive gran parte del lavoro svolto durante un periodo di studio di sei mesi all’International Centre for Geohazards (ICG) di Oslo. Seguendo la linea guida dettata nel titolo, sono stati affrontati diversi aspetti riguardanti la modellazione numerica dei pendii quali l’influenza delle condizioni al contorno e delle proporzioni del modello, la back-analysis di eventi di scivolamento e l’applicazione delle analisi di stabilità monodimensionali. La realizzazione di semplici modelli con il programma agli elementi finiti PLAXIS (Brinkgreve et al., 2008) ha consentito di analizzare le prestazioni dei modelli numerici riguardo all’influenza delle condizioni al contorno confrontandoli con un calcolo teorico del fattore di amplificazione. Questa serie di test ha consentito di stabilire alcune linee guida per la realizzazione di test con un buon livello di affidabilità. Alcuni case-history, in particolare quello di Las Colinas (El Salvador), sono stati modellati allo scopo di applicare e verificare i risultati ottenuti con i semplici modelli sopracitati. Inoltre sono state svolte analisi di sensitività alla dimensione della mesh e ai parametri di smorzamento e di elasticità. I risultati hanno evidenziato una forte dipendenza dei risultati dai parametri di smorzamento, rilevando l’importanza di una corretta valutazione di questa grandezza. In ultima battuta ci si è occupati dell’accuratezza e dell’applicabilità dei modelli monodimensionali. I risultati di alcuni modelli monodimensionali realizzati con il software Quiver (Kaynia, 2009) sono stati confrontati con quelli ottenuti da modelli bidimensionali. Dal confronto è risultato un buon grado di approssimazione accompagnato da un margine di sicurezza costante. Le analisi monodimensionali sono poi state utilizzate per la verifica di sensitività. I risultati di questo lavoro sono qui presentati e accompagnati da suggerimenti qualitativi e quantitativi per la realizzazione di modelli bidimensionali affidabili. Inoltre si descrive la possibilità di utilizzare modelli monodimensionali in caso d’incertezze sui parametri. Dai risultati osservati emerge la possibilità di ottenere un risparmio di tempo nella realizzazione di importanti indagini di sensitività.
Resumo:
Nel tentativo di rispondere alle esigenze valutate in seguito all’analisi del centro storico in base a differenti profili investigativi, si è formulato un programma di intervento con obiettivi e strategie codificate. In modo particolare viene privilegiata l’indagine effettuata a livello sociale sulla popolazione del centro storico, ambito di ricerca necessario per una buona premessa per un progetto che ha come oggetto l’abitare. Da queste considerazioni nasce l’idea del progetto dove il tema della residenza si inserisce in un contesto urbano in stretta relazione con il tessuto storico della città di Forlì. L’individuazione dell’area di progetto, situata in una posizione di confine tra due realtà differenti, il centro storico e la circonvallazione che lo racchiude, suggerisce la necessità di stabilire attraverso collegamenti perdonali e ciclabili fra l’area in esame e la periferia esterna una configurazione dinamica, dove il vuoto urbano che si presenta è lo scenario ideale per ristabilire una porta moderna alla città, ricomponendo la leggibilità tra la sfera naturale e quella insediativa. Alla scala urbana l’obiettivo è quello di stabilire il ruolo di centralità dell’area, nel suo insieme, restituendo ai fatti urbani della città le funzioni di interesse pubblico generale. La zona oggetto di discussione è un nodo urbano in cui coesistono manufatti di pregio architettonico e storico come quello della Filanda in oggetto e dell’Ex Complesso conventuale della Ripa, in grado di essere potenziali contenitori di funzioni pubbliche di alto livello, e aree verdi da riqualificare, con forte propensione all’uso pubblico, come gli Orti di via Curte. Sotto questo profilo deve essere valutata anche la tematica del rapporto con l’architettura antica, tenendo in considerazione l’effetto di impatto che i nuovi interventi avranno sull’esistente. È dunque il sito di progetto che detta le metodologie di approccio legate alla necessità di un intervento sostenibile e non invasivo. Partendo da queste considerazioni si sviluppano le tematiche legate alla flessibilità e alle sue coniugazioni. La società contemporanea che ci impone ogni giorno modelli di vita sempre nuovi e la necessità di movimento e trasformazione, ci mette di fronte più che mai al bisogno di progettare spazi non rigidi, ma aperti alle molteplici possibilità d’uso e ai cambiamenti nel tempo. La flessibilità viene dunque concepita in relazione ai concetti di complessità e sostenibilità. Se da una parte è necessario riconoscere la molteplicità dei modi d’uso con i quali l’oggetto dovrà confrontarsi ed assumere il carattere aleatorio di qualsiasi previsione relativa ai modelli di comportamento dell’utenza, dall’altra occorre cogliere all’interno del progetto della residenza flessibile la possibilità di pervenire a un costruire capace di riconfigurarsi di volta in volta, adattandosi alle differenti condizioni d’uso, senza dover procedere a drastiche modifiche che impongono la dismissione di materiali e componenti. Il sistema della stratificazione a secco può essere quello che attualmente meglio risponde, per qualità ed economicità, ai concetti della biologia dell’abitare e della casa intelligente, nozioni che acquisiscono sempre più importanza all’interno di una nuova concezione della progettazione. Si sceglie dunque di riportare la Filanda, quanto possibile, alla riconfigurazione originaria, prima che la corte interna fosse completamente saturata di depositi e magazzini come ci si presenta oggi e di concepire una nuova configurazione di quello che diventa un isolato urbano integrato nel tessuto storico, e nodo strutturante per un’area più vasta. Lavorando sulla residenza occorre mettere in primo piano il protagonista dell’architettura che si va a progettare: l’uomo. Per questo la scala urbana e la dimensione umana devono essere concepite parallelamente e la progettazione della cellula di base che si struttura secondo le modalità premesse di flessibilità e sostenibilità si sovrappone all’obiettivo di individuare all’interno del vuoto urbano, una nuova densità, dove il dialogo tra pubblico e privato sia il presupposto per lo sviluppo di un piano integrato e dinamico.
Resumo:
Lo scopo di questo testo è quello di fornire una panoramica dei diversi aspetti della tecnologia della replicazione dei dati e dei problemi da affrontare durante la realizzazione, la gestione e la valutazione di una qualsiasi soluzione di replicazione dei dati.