910 resultados para sole
Resumo:
E’ stato in primo luogo definito il criterio di efficienza dal punto di vista economico (con una accenno anche ai parametri elaborati dagli studiosi di discipline aziendali), nelle sue varie accezioni, ponendo altresì ciascuna di queste in relazione alle condizioni di concorrenza perfetta. Le nozioni di efficienza che sono state definite a tal fine sono quelle di efficienza allocativa, efficienza tecnica, efficienza dinamica ed efficienza distributiva. Ciascuna di esse é stata inquadrata a livello teorico secondo le definizioni fornite dalla letteratura, esaminandone le ipotesi sottostanti. E’ stata altresì descritta, contestualizzandola temporalmente, l’evoluzione della nozione, e ne sono state evidenziate le implicazioni ai fini della ricerca della forma di mercato più “efficiente”. Sotto quest’ultimo aspetto l’attenzione dello scrivente si é incentrata sul rapporto tra le diverse accezioni di efficienza economica oggetto di analisi e la desiderabilità o meno di un regime di concorrenza perfetta. Il capitolo si conclude con una breve panoramica sulle metodologie di misurazione finalizzata ad individuare i principali parametri utilizzati per determinare il livello di efficienza, di un mercato, di un’attività produttiva o di un’impresa, posto che, come verrà specificato nel prosieguo della tesi, la valutazione di efficienza in ambito antitrust deve essere verificata, ove possibile, anche basandosi sull’evidenza empirica delle singole imprese esaminate, come richiede il criterio della rule of reason. Capitolo 2 Presupposto per avere una regolazione che persegua l’obiettivo di avere una regolazione efficiente ed efficace, è, a parere di chi scrive, anche l’esistenza di autorità pubbliche deputate a esercitare la funzione regolatoria che rispettino al proprio interno e nel proprio agire la condizione di efficienza definita rispetto ai pubblici poteri. Lo sviluppo di questa affermazione ha richiesto in via preliminare, di definire il criterio di efficienza in ambito pubblicistico individuandone in particolare l’ambito di applicazione, il suo rapporto con gli altri principi che reggono l’azione amministrativa (con particolare riferimento al criterio di efficacia). Successivamente é stato collocato nel nostro ordinamento nazionale, ponendolo in relazione con il principio di buon andamnento della Pubblica Amministrazione, benchè l’ordinamento italiano, per la sua specificità non costituisca un esempio estendibile ad ordinamenti. Anche con riferimento al criterio di efficienza pubblica, un paragrafo é stato dedicato alle metodologie di misurazione di questa, e, nello specifico sull’Analisi Costi-Benefici e sull’Analisi di Impatto della Regolazione Una volta inquadrata la definizione di efficienza pubblica, questa é stata analizzata con specifico riferimento all’attività di regolazione dell’economia svolta dai soggetti pubblici, ambito nella quale rientra la funzione antitrust. Si é provato in particolare ad evidenziare, a livello generale, quali sono i requisiti necessari ad un’autorità amministrativa antitrust, costituita e dotata di poteri ad hoc, affinché essa agisca, nella sua attività di regolazione, secondo il principio di efficienza, Il capitolo si chiude allargando l’orizzonte della ricerca verso una possibile alternativa metodologica al criterio di efficienza precedentemente definito: vi si é infatti brevemente interrogati circa lo schema interpretativo nel quale ci muoviamo, affrontando la questione definitoria del criterio di efficienza, ponendolo in relazione con l’unico modello alternativo esistente, quello sviluppatosi nella cultura cinese. Non certo per elaborare un’applicazione in “salsa cinese” del criterio di efficienza alla tutela della concorrenza, compito al quale lo scrivente non sarebbe stato in grado di ottemperare, bensì, più semplicemente per dare conto di un diverso approccio alla questione che il futuro ruolo di superpotenza economica della Cina imporrà di prendere in considerazione. Capitolo 3 Nel terzo capitolo si passa a definire il concetto di concorrenza come istituto oggetto di tutela da parte della legge antitrust, per poi descrivere la nascita e l’evoluzione di tale legislazione negli Stati Uniti e della sua applicazione, posto che il diritto antitrust statunitense ancora oggi costituisce il necessario punto di riferimento per lo studioso di questa materia. L’evoluzione del diritto antitrust statunitense é stata analizzata parallelamente allo sviluppo delle principali teorie di law and economics che hanno interpretato il diritto della concorrenza quale possibile strumento per conseguire l’obiettivo dell’efficienza economica: la Scuola di Harvard e il paradigma strutturalista, la teoria evoluzionista della Scuola Austriaca, la Scuola di Chicago; le c.d. teorie “Post-Chicago”. Nel terzo capitolo, in altri termini, si é dato conto dell’evoluzione del pensiero economico con riferimento alla sua applicazione al diritto antitrust, focalizzando l’attenzione su quanto avvenuto negli Stati Uniti, paese nel quale sono nati sia l’istituto giuridico della tutela della concorrenza sia l’analisi economica del diritto. A conclusione di questa ricostruzione dottrinale ho brevemente esaminato quelle che sono le nuove tendenze dell’analisi economica del diritto, e specificatamente la teoria del comportamento irrazionale, benché esse non abbiano ancora ricevuto applicazione al diritto antitrust. Chi scrive ritiene infatti che queste teorie avranno ricadute anche in questa materia poiché essa costituisce uno dei principali ambiti applicativi della law and economics. Capitolo 4 Nel quarto capitolo é stata effettuata una disanima della disciplina comunitaria antitrust sottolineando come l’Unione Europea si proponga attraverso la sua applicazione, soprattutto in materia di intese, di perseguire fini eterogenei, sia economici che non economici, tra loro diversi e non di rado contrastanti, e analizzando come questa eterogeneità di obiettivi abbia influito sull’applicazione del criterio di efficienza. Attenendomi in questo capitolo al dato normativo, ho innanzitutto evidenziato l’ampiezza dell’ambito di applicazione della disciplina comunitaria antitrust sia dal punto di vista soggettivo che territoriale (dottrina dell’effetto utile), sottolineando come la norma giustifichi esplicitamente il ricorso al criterio di efficienza solo nella valutazione delle intese: il comma 3 dell’art. 81 del Trattato include, infatti, tra i requisiti di una possibile esenzione dall’applicazione del divieto per le intese qualificate come restrittive della concorrenza, la possibilità di ottenere incrementi di efficienza tecnica e/o dinamica attraverso l’implementazione delle intese in questione. Tuttavia la previsione da parte dello stesso art. 81 (3) di altri requisiti che devono contemporaneamente essere soddisfatti affinché un intesa restrittiva della concorrenza possa beneficiare dell’esenzione, nonché la possibile diversa interpretazione della locuzione “progresso tecnico ed economico”, impone, o comunque ammette, il perseguimento di altri obiettivi, contestualmente a quello dell’efficienza, giustificando così quell’eterogeneità dei fini che contraddistingue la politica della concorrenza dell’Unione Europea. Se la disciplina delle intese aiuta a comprendere il ruolo del criterio di efficienza nell’applicazione dei precetti antitrust da parte degli organi comunitari, l’art. 82 del Trattato non contiene invece alcun riferimento alla possibilità di utilizzare il criterio di efficienza nella valutazione delle condotte unilaterali poste in essere da imprese in posizione dominante sul mercato rilevante. Si è peraltro dato conto della consultazione recentemente avviata dalla Commissione Europea finalizzata all’elaborazione di Linee Guida che definiscano i criteri di interpretazione che l’organo comunitario dovrà seguire nella valutazione dei comportamenti unilaterali. A parere dello scrivente, anzi, l’assenza di un preciso schema cui subordinare la possibilità di ricorrere al criterio di efficienza nella valutazione della fattispecie, attribuisce alle autorità competenti un più ampio margine di discrezionalità nell’utilizzo del suddetto criterio poiché manca il vincolo della contestuale sussistenza delle altre condizioni di cui all’art. 81(3). Per quanto concerne infine la disciplina delle concentrazioni, essa, come abbiamo visto, prevede un riferimento ai possibili incrementi di efficienza (tecnica e dinamica) derivanti da operazioni di fusione, utilizzando la nozione utilizzata per le intese, così come nel precedente Regolamento 4064/89. Si é infine analizzato il nuovo Regolamento in materia di concentrazioni che avrebbe potuto costituire l’occasione per recepire nella disciplina comunitaria l’attribuzione della facoltà di ricorrere all’efficiency defense in presenza di una fattispecie, quella della fusione tra imprese, suscettibile più di altre di essere valutata secondo il criterio di efficienza, ma che si é invece limitato a riprendere la medesima locuzione presente nell’art. 81(3). Il capitolo attesta anche l’attenzione verso l’istanza di efficienza che ha riguardato il meccanismo di applicazione della norma antitrust e non il contenuto della norma stessa; a questo profilo attiene, infatti, l’innovazione apportata dal Regolamento 1/2003 che ha permesso, a parere dello scrivente, un’attribuzione più razionale della competenza nella valutazione dei casi tra la Commissione e le autorità nazionali degli Stati membri; tuttavia pone alcune questioni che investono direttamente il tema dei criteri di valutazione utilizzati dalle autorità competenti. Capitolo 5 L’analisi del quarto capitolo é stata condotta, sebbene in forma più sintetica, con riferimento alle normative antitrust dei principali Stati membri della Comunità Europea (Germania, Gran Bretagna, Spagna, Francia e Italia), rapportando anche queste al criterio di efficienza, ove possibile. Particolare attenzione é stata dedicata ai poteri e alle competenze attribuite alle autorità nazionali antitrust oggetto di studio dall’ordinamento giuridico cui appartengono e al contesto, in termini di sistema giuridico, nel quale esse operano. Capitolo 6 Si é provato ad effettuare una valutazione del livello di efficienza delle autorità prese in esame, la Commissione e le diverse autorità nazionali e ciò con particolare riferimento alla idoneità di queste a svolgere i compiti istituzionali loro affidati (criterio di efficienza dal punto di vista giuridico): affinchè un’autorità si possa ispirare al criterio di efficienza economica nell’adozione delle decisioni, infatti, è preliminarmente necessario che essa sia idonea a svolgere il compito che le è stato affidato dall’ordinamento. In questo senso si é osservata la difficoltà dei paesi di civil law a inquadrare le autorità indipendenti all’interno di un modello, quello appunto di civil law, ispirato a una rigida tripartizione dei poteri. Da qui la difficile collocazione di queste autorità che, al contrario, costituiscono un potere “ibrido” che esercita una funzione di vigilanza e garanzia non attribuibile integralmente né al potere esecutivo né a quello giurisdizionale. Si rileva inoltre una certa sovrapposizione delle competenze e dei poteri tra autorità antitrust e organi ministeriali, in particolare nel campo delle concentrazioni che ingenera un rischio di confusione e bassa efficienza del sistema. Mantenendo, infatti, un parziale controllo politico si rischia, oltre all’introduzione di criteri di valutazione politica che prescindono dagli effetti delle fattispecie concrete sul livello di concorrenza ed efficienza del mercato, anche di dare luogo a conflitti tra le diverse autorità del sistema che impediscano l’adozione e l’implementazione di decisioni definitive, incrementando altresì i costi dell’intervento pubblico. Un giudizio a parte è stato infine formulato con riguardo alla Commissione Europea, istituzione, in quanto avente caratteristiche e poteri peculiari. Da un lato l’assenza di vincolo di mandato dei Commissari e l’elevata preparazione tecnica dei funzionari costituiscono aspetti che avvicinano la Commissione al modello dell’autorità indipendenti, e l’ampiezza dei poteri in capo ad essa le permette di operare efficientemente grazie anche alla possibilità di valersi dell’assistenza delle autorità nazionali. Dall’altra parte, tuttavia la Commissione si caratterizza sempre di più come un organo politico svolgente funzioni esecutive, di indirizzo e di coordinamento che possono influenzare gli obiettivi che essa persegue attraverso l’attività antitrust, deviandola dal rispetto del criterio di efficienza. Capitolo 7 Una volta definito il contesto istituzionale di riferimento e la sua idoneità a svolgere la funzione affidatagli dall’ordinamento comunitario, nonché da quelli nazionali, si è proceduto quindi all’analisi delle decisioni adottate da alcune delle principali autorità nazionali europee competenti ad applicare la disciplina della concorrenza dal punto di vista dell’efficienza. A tal fine le fattispecie rilevanti a fini antitrust dal punto di vista giuridico sono state classificate utilizzando un criterio economico, individuando e definendo quelle condotte che presentano elementi comuni sotto il profilo economico e per ciascuna di esse sono state inquadrate le problematiche rilevanti ai fini dell’efficienza economica sulla scorta dei contributi teorici e delle analisi empiriche svolte dalla letteratura. 6 Con riferimento a ciascuna condotta rilevante ho esaminato il contenuto di alcune delle decisioni antitrust più significative e le ho interpretate in base al criterio di efficienza. verificando se e in quale misura le autorità antitrust prese in esame utilizzano tale criterio, cercando altresì di valutare l’evoluzione dei parametri di valutazione occorsa nel corso degli anni. Le decisioni analizzate sono soprattutto quelle adottate dalla Commissione e le eventuali relative sentenze della Corte di Giustizia Europea; ciò sia per la maggior rilevanza dei casi trattati a livello comunitario, sia in quanto le autorità nazionali, con qualche rara eccezione, si conformano generalmente ai criteri interpretativi della Commissione. Riferimenti a decisioni adottate dalle autorità nazionali sono stati collocati allorquando i loro criteri interpretativi si discostino da quelli utilizzati dagli organi comunitari. Ne è emerso un crescente, anche se ancora sporadico e incostante, ricorso al criterio di efficienza da parte degli organi europei preposti alla tutela della concorrenza. Il tuttora scarso utilizzo del criterio di efficienza nello svolgimento dell’attività antitrust è motivato, a parere di chi scrive, in parte dall’eterogeneità degli obiettivi che l’Unione Europea persegue attraverso la politica della concorrenza comunitaria (completamento del mercato unico, tutela del consumatore, politica industriale, sviluppo delle aree svantaggiate), in parte dall’incapacità (o dall’impossibilità) delle autorità di effettuare coerenti analisi economiche delle singole fattispecie concrete. Anche le principali autorità nazionali mostrano una crescente propensione a tendere conto dell’efficienza nella valutazione dei casi, soprattutto con riferimento agli accordi verticali e alle concentrazioni, sulla scia della prassi comunitaria. Più innovativa nell’applicazione del criterio di efficienza economica così come nella ricerca di uso ottimale delle risorse si è finora dimostrato l’OFT, come vedremo anche nel prossimo capitolo. Al contrario sembra più lenta l’evoluzione in questo senso dell’Ufficio dei Cartelli tedesco sia a causa delle già citate caratteristiche della legge antitrust tedesca, sia a causa del persistente principio ordoliberale della prevalenza del criterio della rule of law sulla rule of reason. Peraltro, anche nei casi in cui le Autorità siano propense ad utilizzare il criterio di efficienza nelle loro valutazioni, esse si limitano generalmente ad un’analisi teorica dell’esistenza di precondizioni che consentano alle imprese in questione di ottenere guadagni di efficienza. La sussistenza di tali pre-condizioni viene infatti rilevata sulla base della capacità potenziale della condotta dell’impresa (o delle imprese) di avere un effetto positivo in termini di efficienza, nonché sulla base delle caratteristiche del mercato rilevante. Raramente, invece, si tiene conto della capacità reale dei soggetti che pongono in essere la pratica suscettibile di essere restrittiva della concorrenza di cogliere effettivamente queste opportunità, ovvero se la struttura e l’organizzazione interna dell’impresa (o delle imprese) non è in grado di mettere in pratica ciò che la teoria suggerisce a causa di sue carenza interne o comunque in ragione delle strategie che persegue. Capitolo 8 Poiché l’approccio ispirato al criterio di efficienza economica non può prescindere dalle caratteristiche del settore e del mercato in cui operano l’impresa o le imprese che hanno posto in essere la condotta sotto esame, e poiché una valutazione approfondita di tutti i settori non era effettuabile per quantità di decisioni adottate dalle autorità, ho infine ritenuto di svolgere un’analisi dettagliata dell’attività delle autorità con riferimento ad uno specifico settore. La scelta è caduta sul settore dei trasporti in quanto esso presenta alcune problematiche che intrecciano l’esigenza di efficienza con la tutela della concorrenza, nonché per la sua importanza ai fini dello sviluppo economico. Tanto più alla luce del fenomeno della crescente apertura dei mercati che ha enfatizzato la triplice funzione dei trasporti di merci, di livellamento nello spazio dei prezzi di produzione, di redistribuzione nello spazio dell’impiego dei fattori della produzione, e soprattutto di sollecitazione al miglioramento delle tecnologie utilizzate nella produzione stessa in quanto contribuiscono alla divisione territoriale del lavoro e alla specializzazione produttiva. A loro volta, d’altra parte, i miglioramenti tecnici e organizzativi intervenuti nel settore negli ultimi trenta anni hanno reso possibile il fenomeno della globalizzazione nella misura in cui lo conosciamo. Così come le riduzioni di costo e di tempo conseguite nel trasporto di persone hanno consentito massicci spostamenti di lavoratori e più in generale di capitale umano da una parte all’altra del globo, e favorito altresì la spettacolare crescita del settore turistico. Ho quindi condotto un’analisi delle decisioni antitrust relative al settore dei trasporti, suddividendo la casistica in base al comparto al quale esse si riferivano, cercando sempre di non perdere di vista i crescenti legami che esistono tra i vari comparti alla luce dell’ormai affermato fenomeno del trasporto multimodale. Dall’analisi svolta emerge innanzitutto come l’assoggettamento del settore dei trasporti alla disciplina di tutela della concorrenza sia un fenomeno relativamente recente rispetto alle altre attività economiche, laddove la ragione di tale ritardo risiede nel fatto che tradizionalmente questo settore era caratterizzato da un intervento pubblico diretto e da una pervasiva regolamentazione, a sua volta giustificata da vari fattori economici: le caratteristiche di monopolio naturale delle infrastrutture; le esigenze di servizio pubblico connesse all’erogazione di molti servizi di trasporto; il ruolo strategico svolto dal trasporto sia di persone che di merci ai fini della crescita economica di un sistema. Si concretizza, inoltre, con riferimento ai trasporti marittimi e aerei, l’inadeguatezza della dimensione nazionale e comunitaria delle autorità competenti rispetto a comportamenti di impresa che spesso hanno effetti letteralmente globali. Le imprese marittime e aeree coinvolte nelle fattispecie da noi esaminate, infatti, in molti casi predisponevano, direttamente o mediatamente, tramite “alleanze”, collegamenti tra tutte le aree del mondo, individuando nell’Europa solo un nodo di un network ben più ampio Da questa constatazione discende, a parere dello scrivente, l’impossibilità per l’autorità comunitaria e ancor più per quella nazionale di individuare tutti gli effetti in termini di efficienza che la fattispecie concreta può provocare, non includendo pertanto solo quelli evidenti sul mercato comunitario. Conseguentemente una reale applicazione del criterio di efficienza all’attività antitrust nel settore dei trasporti non può prescindere da una collaborazione tra autorità a livello mondiale sia a fini di indagine che a fini di individuazione di alcuni principi fondamentali cui ispirarsi nello svolgimento della loro missione istituzionale. Capitolo 9. Conclusioni L’opera si chiude con l’individuazione delle evidenze e degli elementi emersi dalla trattazione considerati dallo scrivente maggiormente rilevanti nell’ambito dell’attuale dibattito di economia positiva circa le principali problematiche che affiggono l’intervento antitrust con particolare riferimento al suo rispetto del criterio di efficienza. Sono state altresì proposte alcune soluzioni a quelle che sono, a parere dello scrivente, le principali carenze dell’attuale configurazione dell’intervento antitrust a livello europeo, sempre in una prospettiva di efficienza sia delle autorità competenti sia dei mercati in cui le autorità stesse cercano di mantenere o ripristinare condizioni di concorrenza effettiva. Da un lato il modello costituito dalla Commissione Europea, l’autorità antitrust comunitaria, non replicabile né esente da critiche: la Commissione, infatti, rappresenta il Governo dell’Unione Europea e come tale non può ovviamente costituire un esempio di autorità indipendente e neutrale recepibile da parte degli Stati membri. Ciò anche a prescindere dalla questione della sua legittimazione, che in questa sede non affrontiamo. Dall’altro in una prospettiva di efficienza dei mercati la crescente applicazione delle teorie economiche da parte delle autorità esaminate è rimasta a un livello astratto, senza porre la dovuta attenzione alle specificità dei mercati rilevanti né tantomeno alle dinamiche interne alle singole imprese, con particolare riferimento alla loro capacità di rendere effettivi i guadagni di efficienza individuabili a livello potenziale, così come prescrive la più recente teoria economica applicata al diritto antitrust. Sotto il profilo dell’applicazione del criterio di efficienza si può comunque affermare che l’evoluzione che ha avuto la prassi decisionale e la giurisprudenza, comunitaria e degli Stati membri, in materia antitrust è stata caratterizzata dal loro progressivo avvicinamento alle tendenze sviluppatesi nelle agencies e nella giurisprudenza statunitense a partire dagli anni’70, caratterizzate dalla valutazione degli effetti, piuttosto che della forma giuridica, dal riconoscimento del criterio di efficienza e dalla rule of reason quale approccio metodologico. L’effetto è stato quello di determinare una significativa riduzione delle differenze inizialmente emerse tra le due esperienze, nate inizialmente sotto diverse prospettive politiche. Per quanto concerne specificatamente i trasporti sono emersi sotto il profilo economico due aspetti rilevanti, oltre al perdurante ritardo con cui il processo di liberalizzazione del trasporto ferroviario che limita fortemente l’intervento antitrust nel comparto, ma che esula dalla competenza delle stesse autorità antitrust. Il primo consiste nella spesso troppo rigida separazione tra comparti adottata dalle autorità. Il secondo è l’estensivo ricorso all’essential facility doctrine nelle fattispecie riguardanti infrastrutture portuali e aeroportuali: la massimizzazione dell’efficienza dinamica consiglierebbe in questi casi una maggiore cautela, in quanto si tratta di un paradigma che, una volta applicato, disincentiva la duplicazione e l’ampliamento di tali infrastrutture autoalimentandone il carattere di essenzialità. Ciò soprattutto laddove queste infrastrutture possono essere sostituite o duplicate piuttosto facilmente da un punto di vista tecnico (meno da un punto di vista economico e giuridico), essendo esse nodi e non reti. E’stata infine sottolineata l’inadeguatezza della dimensione nazionale e comunitaria delle autorità competenti rispetto a comportamenti di impresa che con riferimento ai trasporti marittimi ed aerei hanno effetti letteralmente globali. E’ di tutta evidenza che le autorità comunitarie e tantomeno quelle nazionali non sono da sole in grado di condurre le analisi quantitative necessarie ad una valutazione di tali condotte ispirata a un criterio di efficienza che tenga conto degli effetti di lungo periodo della fattispecie concreta. Né tali autorità sono sufficientemente neutre rispetto alla nazionalità delle imprese indagate per poter giudicare sulla liceità o meno della condotta in questione senza considerare gli effetti della loro decisione sull’economia interna, rendendo così ancora più improbabile un corretto utilizzo del criterio di efficienza. Da ultimo ho constatato come l’applicazione del concetto di efficienza giuridica imporrebbe di concepire autorità antitrust del tutto nuove, sganciate quanto più possibile dall’elemento territoriale, in grado di elaborare regole e standards minimi comuni e di permettere il controllo dei comportamenti di impresa in un contesto ampliato rispetto al tradizionale mercato unico, nonchè ai singoli mercati nazionali. Il processo di armonizzazione a livello globale è difficile e il quadro che attualmente viene formato è ancora confuso e incompleto. Vi sono tuttavia sparsi segnali attraverso i quali é possibile intravedere i lineamenti di una futura global governance della concorrenza che permetterà, sperabilmente, di incrementare l’efficienza di un sistema, quello antitrust, che tanto più piccolo è l’ambito in cui opera quanto più si sta dimostrando inadeguato a svolgere il compito affidatogli. Solo il futuro, peraltro, ci consentirà di verificare la direzione di sviluppo di questi segnali.
Resumo:
La tesi si occupa della teoria delle ranking functions di W. Spohn, dottrina epistemologica il cui fine è dare una veste logica rigorosa ai concetti di causalità, legge di natura, spiegazione scientifica, a partire dalla nozione di credenza. Di tale teoria manca ancora una esposizione organica e unitaria e, soprattutto, formulata in linguaggio immediatamente accessibile. Nel mio lavoro, che si presenta come introduzione ad essa, è anche messa a raffronto con le teorie che maggiormente l’hanno influenzata o rispetto alle quali si pone come avversaria. Il PRIMO CAPITOLO si concentra sulla teoria di P. Gärdenfors, il più diretto predecessore e ispiratore di Spohn. Questo consente al lettore di acquisire familiarità con le nozioni di base della logica epistemica. La conoscenza, nella teoria del filosofo svedese, è concepita come processo di acquisizione ed espulsione di credenze, identificate con proposizioni, da un insieme. I tre maggiori fenomeni epistemici sono l’espansione, la revisione e la contrazione. Nel primo caso si immagazzina una proposizione in precedenza sconosciuta, nel secondo se ne espelle una a causa dell’acquisizione della sua contraddittoria, nel terzo si cancella una proposizione per amore di ipotesi e si investigano le conseguenze di tale cancellazione. Controparte linguistica di quest’ultimo fenomeno è la formulazione di un condizionale controfattuale. L’epistemologo, così come Gärdenfors concepisce il suo compito, è fondamentalmente un logico che deve specificare funzioni: vale a dire, le regole che deve rispettare ciascun passaggio da un insieme epistemico a un successivo per via di espansione, revisione e contrazione. Il SECONDO CAPITOLO tratta infine della teoria di Spohn, cercando di esporla in modo esauriente ma anche molto semplice. Anche in Spohn evidentemente il concetto fondamentale è quello di funzione: si tratta però in questo caso di quella regola di giudizio soggettivo che, a ciascuna credenza, identificata con una proposizione, associa un grado (un rank), espresso da un numero naturale positivo o dallo zero. Un rank è un grado di non-credenza (disbelief). Perché la non-credenza (che comporta un notevole appesantimento concettuale)? Perché le leggi della credenza così concepite presentano quella che Spohn chiama una “pervasiva analogia” rispetto alle leggi della probabilità (Spohn la chiama persino “armonia prestabilita” ed è un campo su cui sta ancora lavorando). Essenziale è il concetto di condizionalizzazione (analogo a quello di probabilità condizionale): a una credenza si associa un rank sulla base di (almeno) un’altra credenza. Grazie a tale concetto Spohn può formalizzare un fenomeno che a Gärdenfors sfugge, ossia la presenza di correlazioni interdoxastiche tra le credenze di un soggetto. Nella logica epistemica del predecessore, infatti, tutto si riduce all’inclusione o meno di una proposizione nell’insieme, non si considerano né gradi di credenza né l’idea che una credenza sia creduta sulla base di un’altra. Il TERZO CAPITOLO passa alla teoria della causalità di Spohn. Anche questa nozione è affrontata in prospettiva epistemica. Non ha senso, secondo Spohn, chiedersi quali siano i tratti “reali” della causalità “nel mondo”, occorre invece studiare che cosa accade quando si crede che tra due fatti o eventi sussista una correlazione causale. Anche quest’ultima è fatta oggetto di una formalizzazione logica rigorosa (e diversificata, infatti Spohn riconosce vari tipi di causa). Una causa “innalza lo status epistemico” dell’effetto: vale a dire, quest’ultimo è creduto con rank maggiore (ossia minore, se ci si concentra sulla non-credenza) se condizionalizzato sulla causa. Nello stesso capitolo espongo la teoria della causalità di Gärdenfors, che però è meno articolata e minata da alcuni errori. Il QUARTO CAPITOLO è tutto dedicato a David Lewis e alla sua teoria controfattuale della causalità, che è il maggiore avversario tanto di Spohn quanto di Gärdenfors. Secondo Lewis la migliore definizione di causa può essere data in termini controfattuali: la causa è un evento tale che, se non fosse accaduto, nemmeno l’effetto sarebbe accaduto. Naturalmente questo lo obbliga a specificare una teoria delle condizioni di verità di tale classe di enunciati che, andando contro i fatti per definizione, non possono essere paragonati alla realtà. Lewis ricorre allora alla dottrina dei mondi possibili e della loro somiglianza comparativa, concludendo che un controfattuale è vero se il mondo possibile in cui il suo antecedente e il suo conseguente sono veri è più simile al mondo attuale del controfattuale in cui il suo antecedente è vero e il conseguente è falso. Il QUINTO CAPITOLO mette a confronto la teoria di Lewis con quelle di Spohn e Gärdenfors. Quest’ultimo riduce i controfattuali a un fenomeno linguistico che segnala il processo epistemico di contrazione, trattato nel primo capitolo, rifiutando così completamente la dottrina dei mondi possibili. Spohn non affronta direttamente i controfattuali (in quanto a suo dire sovraccarichi di sottigliezze linguistiche di cui non vuole occuparsi – ha solo un abbozzo di teoria dei condizionali) ma dimostra che la sua teoria è superiore a quella di Lewis perché riesce a rendere conto, con estrema esattezza, di casi problematici di causalità che sfuggono alla formulazione controfattuale. Si tratta di quei casi in cui sono in gioco, rafforzandosi a vicenda o “concorrendo” allo stesso effetto, più fattori causali (casi noti nella letteratura come preemption, trumping etc.). Spohn riesce a renderne conto proprio perché ha a disposizione i rank numerici, che consentono un’analisi secondo cui a ciascun fattore causale è assegnato un preciso ruolo quantitativamente espresso, mentre la dottrina controfattuale è incapace di operare simili distinzioni (un controfattuale infatti è vero o falso, senza gradazioni). Il SESTO CAPITOLO si concentra sui modelli di spiegazione scientifica di Hempel e Salmon, e sulla nozione di causalità sviluppata da quest’ultimo, mettendo in luce soprattutto il ruolo (problematico) delle leggi di natura e degli enunciati controfattuali (a questo proposito sono prese in considerazione anche le famose critiche di Goodman e Chisholm). Proprio dalla riflessione su questi modelli infatti è scaturita la teoria di Gärdenfors, e tanto la dottrina del filosofo svedese quanto quella di Spohn possono essere viste come finalizzate a rendere conto della spiegazione scientifica confrontandosi con questi modelli meno recenti. Il SETTIMO CAPITOLO si concentra sull’analisi che la logica epistemica fornisce delle leggi di natura, che nel capitolo precedente sono ovviamente emerse come elemento fondamentale della spiegazione scientifica. Secondo Spohn le leggi sono innanzitutto proposizioni generali affermative, che sono credute in modo speciale. In primo luogo sono credute persistentemente, vale a dire, non sono mai messe in dubbio (tanto che se si incappa in una loro contro-istanza si va alla ricerca di una violazione della normalità che la giustifichi). In secondo luogo, guidano e fondano la credenza in altre credenze specifiche, che sono su di esse condizionalizzate (si riprendono, con nuovo rigore logico, le vecchie idee di Wittgenstein e di Ramsey e il concetto di legge come inference ticket). In terzo luogo sono generalizzazioni ricavate induttivamente: sono oggettivazioni di schemi induttivi. Questo capitolo si sofferma anche sulla teoria di legge offerta da Gärdenfors (analoga ma embrionale) e sull’analisi che Spohn fornisce della nozione di clausola ceteris paribus. L’OTTAVO CAPITOLO termina l’analisi cominciata con il sesto, considerando finalmente il modello epistemico della spiegazione scientifica. Si comincia dal modello di Gärdenfors, che si mostra essere minato da alcuni errori o comunque caratterizzato in modo non sufficientemente chiaro (soprattutto perché non fa ricorso, stranamente, al concetto di legge). Segue il modello di Spohn; secondo Spohn le spiegazioni scientifiche sono caratterizzate dal fatto che forniscono (o sono finalizzate a fornire) ragioni stabili, vale a dire, riconducono determinati fenomeni alle loro cause e tali cause sono credute in modo persistente. Con una dimostrazione logica molto dettagliata e di acutezza sorprendente Spohn argomenta che simili ragioni, nel lungo periodo, devono essere incontrate. La sua quindi non è solo una teoria della spiegazione scientifica che elabori un modello epistemico di che cosa succede quando un fenomeno è spiegato, ma anche una teoria dello sviluppo della scienza in generale, che incoraggia a perseguire la ricerca delle cause come necessariamente coronata da successo. Le OSSERVAZIONI CONCLUSIVE fanno il punto sulle teorie esposte e sul loro raffronto. E’ riconosciuta la superiorità della teoria di Spohn, di cui si mostra anche che raccoglie in pieno l’eredità costruttiva di Hume, al quale gli avversari si rifanno costantemente ma in modo frammentario. Si analizzano poi gli elementi delle teorie di Hempel e Salmon che hanno precorso l’impostazione epistemica. La teoria di Spohn non è esente però da alcuni punti ancora problematici. Innanzitutto, il ruolo della verità; in un primo tempo Spohn sembra rinunciare, come fa esplicitamente il suo predecessore, a trattare la verità, salvo poi invocarla quando si pone il grave problema dell’oggettivazione delle ranking functions (il problema si presenta poiché di esse inizialmente si dice che sono regole soggettive di giudizio e poi si identificano in parte con le leggi di natura). C’è poi la dottrina dei gradi di credenza che Spohn dice presentarsi “unitamente alle proposizioni” e che costituisce un inutile distacco dal realismo psicologico (critica consueta alla teoria): basterebbe osservare che i gradi di credenza sono ricavati o per condizionalizzazione automatica sulla base del tipo di fonte da cui una proposizione proviene, o per paragone immaginario con altre fonti (la maggiore o minore credenza infatti è un concetto relazionale: si crede di più o di meno “sulla base di…” o “rispetto a…”). Anche la trattazione delle leggi di natura è problematica; Spohn sostiene che sono ranking functions: a mio avviso invece esse concorrono a regole di giudizio, che prescrivono di impiegare le leggi stesse per valutare proposizioni o aspettative. Una legge di natura è un ingranaggio, per così dire, di una valutazione di certezza ma non si identifica totalmente con una legge di giudizio. I tre criteri che Spohn individua per distinguere le leggi poi non sono rispettati da tutte e sole le leggi stesse: la generalizzazione induttiva può anche dare adito a pregiudizi, e non di tutte le leggi si sono viste, individualmente, istanze ripetute tanto da giustificarle induttivamente. Infine, un episodio reale di storia della scienza come la scoperta della sintesi dell’urea da parte di F. Wöhler (1828 – ottenendo carbammide, organico, da due sostanze inorganiche, dimostra che non è vera la legge di natura fini a quel momento presunta tale secondo cui “sostanze organiche non possono essere ricavate da sostanze inorganiche”) è indice che le leggi di natura non sono sempre credute in modo persistente, cosicché per comprendere il momento della scoperta è pur sempre necessario rifarsi a una teoria di tipo popperiano, rispetto alla quale Spohn presenta invece la propria in assoluta antitesi.
Resumo:
Asset Management (AM) is a set of procedures operable at the strategic-tacticaloperational level, for the management of the physical asset’s performance, associated risks and costs within its whole life-cycle. AM combines the engineering, managerial and informatics points of view. In addition to internal drivers, AM is driven by the demands of customers (social pull) and regulators (environmental mandates and economic considerations). AM can follow either a top-down or a bottom-up approach. Considering rehabilitation planning at the bottom-up level, the main issue would be to rehabilitate the right pipe at the right time with the right technique. Finding the right pipe may be possible and practicable, but determining the timeliness of the rehabilitation and the choice of the techniques adopted to rehabilitate is a bit abstruse. It is a truism that rehabilitating an asset too early is unwise, just as doing it late may have entailed extra expenses en route, in addition to the cost of the exercise of rehabilitation per se. One is confronted with a typical ‘Hamlet-isque dilemma’ – ‘to repair or not to repair’; or put in another way, ‘to replace or not to replace’. The decision in this case is governed by three factors, not necessarily interrelated – quality of customer service, costs and budget in the life cycle of the asset in question. The goal of replacement planning is to find the juncture in the asset’s life cycle where the cost of replacement is balanced by the rising maintenance costs and the declining level of service. System maintenance aims at improving performance and maintaining the asset in good working condition for as long as possible. Effective planning is used to target maintenance activities to meet these goals and minimize costly exigencies. The main objective of this dissertation is to develop a process-model for asset replacement planning. The aim of the model is to determine the optimal pipe replacement year by comparing, temporally, the annual operating and maintenance costs of the existing asset and the annuity of the investment in a new equivalent pipe, at the best market price. It is proposed that risk cost provide an appropriate framework to decide the balance between investment for replacing or operational expenditures for maintaining an asset. The model describes a practical approach to estimate when an asset should be replaced. A comprehensive list of criteria to be considered is outlined, the main criteria being a visà- vis between maintenance and replacement expenditures. The costs to maintain the assets should be described by a cost function related to the asset type, the risks to the safety of people and property owing to declining condition of asset, and the predicted frequency of failures. The cost functions reflect the condition of the existing asset at the time the decision to maintain or replace is taken: age, level of deterioration, risk of failure. The process model is applied in the wastewater network of Oslo, the capital city of Norway, and uses available real-world information to forecast life-cycle costs of maintenance and rehabilitation strategies and support infrastructure management decisions. The case study provides an insight into the various definitions of ‘asset lifetime’ – service life, economic life and physical life. The results recommend that one common value for lifetime should not be applied to the all the pipelines in the stock for investment planning in the long-term period; rather it would be wiser to define different values for different cohorts of pipelines to reduce the uncertainties associated with generalisations for simplification. It is envisaged that more criteria the municipality is able to include, to estimate maintenance costs for the existing assets, the more precise will the estimation of the expected service life be. The ability to include social costs enables to compute the asset life, not only based on its physical characterisation, but also on the sensitivity of network areas to social impact of failures. The type of economic analysis is very sensitive to model parameters that are difficult to determine accurately. The main value of this approach is the effort to demonstrate that it is possible to include, in decision-making, factors as the cost of the risk associated with a decline in level of performance, the level of this deterioration and the asset’s depreciation rate, without looking at age as the sole criterion for making decisions regarding replacements.
Resumo:
Se il lavoro dello storico è capire il passato come è stato compreso dalla gente che lo ha vissuto, allora forse non è azzardato pensare che sia anche necessario comunicare i risultati delle ricerche con strumenti propri che appartengono a un'epoca e che influenzano la mentalità di chi in quell'epoca vive. Emergenti tecnologie, specialmente nell’area della multimedialità come la realtà virtuale, permettono agli storici di comunicare l’esperienza del passato in più sensi. In che modo la storia collabora con le tecnologie informatiche soffermandosi sulla possibilità di fare ricostruzioni storiche virtuali, con relativi esempi e recensioni? Quello che maggiormente preoccupa gli storici è se una ricostruzione di un fatto passato vissuto attraverso la sua ricreazione in pixels sia un metodo di conoscenza della storia che possa essere considerato valido. Ovvero l'emozione che la navigazione in una realtà 3D può suscitare, è un mezzo in grado di trasmettere conoscenza? O forse l'idea che abbiamo del passato e del suo studio viene sottilmente cambiato nel momento in cui lo si divulga attraverso la grafica 3D? Da tempo però la disciplina ha cominciato a fare i conti con questa situazione, costretta soprattutto dall'invasività di questo tipo di media, dalla spettacolarizzazione del passato e da una divulgazione del passato parziale e antiscientifica. In un mondo post letterario bisogna cominciare a pensare che la cultura visuale nella quale siamo immersi sta cambiando il nostro rapporto con il passato: non per questo le conoscenze maturate fino ad oggi sono false, ma è necessario riconoscere che esiste più di una verità storica, a volte scritta a volte visuale. Il computer è diventato una piattaforma onnipresente per la rappresentazione e diffusione dell’informazione. I metodi di interazione e rappresentazione stanno evolvendo di continuo. Ed è su questi due binari che è si muove l’offerta delle tecnologie informatiche al servizio della storia. Lo scopo di questa tesi è proprio quello di esplorare, attraverso l’utilizzo e la sperimentazione di diversi strumenti e tecnologie informatiche, come si può raccontare efficacemente il passato attraverso oggetti tridimensionali e gli ambienti virtuali, e come, nel loro essere elementi caratterizzanti di comunicazione, in che modo possono collaborare, in questo caso particolare, con la disciplina storica. La presente ricerca ricostruisce alcune linee di storia delle principali fabbriche attive a Torino durante la seconda guerra mondiale, ricordando stretta relazione che esiste tra strutture ed individui e in questa città in particolare tra fabbrica e movimento operaio, è inevitabile addentrarsi nelle vicende del movimento operaio torinese che nel periodo della lotta di Liberazione in città fu un soggetto politico e sociale di primo rilievo. Nella città, intesa come entità biologica coinvolta nella guerra, la fabbrica (o le fabbriche) diventa il nucleo concettuale attraverso il quale leggere la città: sono le fabbriche gli obiettivi principali dei bombardamenti ed è nelle fabbriche che si combatte una guerra di liberazione tra classe operaia e autorità, di fabbrica e cittadine. La fabbrica diventa il luogo di "usurpazione del potere" di cui parla Weber, il palcoscenico in cui si tengono i diversi episodi della guerra: scioperi, deportazioni, occupazioni .... Il modello della città qui rappresentata non è una semplice visualizzazione ma un sistema informativo dove la realtà modellata è rappresentata da oggetti, che fanno da teatro allo svolgimento di avvenimenti con una precisa collocazione cronologica, al cui interno è possibile effettuare operazioni di selezione di render statici (immagini), di filmati precalcolati (animazioni) e di scenari navigabili interattivamente oltre ad attività di ricerca di fonti bibliografiche e commenti di studiosi segnatamente legati all'evento in oggetto. Obiettivo di questo lavoro è far interagire, attraverso diversi progetti, le discipline storiche e l’informatica, nelle diverse opportunità tecnologiche che questa presenta. Le possibilità di ricostruzione offerte dal 3D vengono così messe a servizio della ricerca, offrendo una visione integrale in grado di avvicinarci alla realtà dell’epoca presa in considerazione e convogliando in un’unica piattaforma espositiva tutti i risultati. Divulgazione Progetto Mappa Informativa Multimediale Torino 1945 Sul piano pratico il progetto prevede una interfaccia navigabile (tecnologia Flash) che rappresenti la pianta della città dell’epoca, attraverso la quale sia possibile avere una visione dei luoghi e dei tempi in cui la Liberazione prese forma, sia a livello concettuale, sia a livello pratico. Questo intreccio di coordinate nello spazio e nel tempo non solo migliora la comprensione dei fenomeni, ma crea un maggiore interesse sull’argomento attraverso l’utilizzo di strumenti divulgativi di grande efficacia (e appeal) senza perdere di vista la necessità di valicare le tesi storiche proponendosi come piattaforma didattica. Un tale contesto richiede uno studio approfondito degli eventi storici al fine di ricostruire con chiarezza una mappa della città che sia precisa sia topograficamente sia a livello di navigazione multimediale. La preparazione della cartina deve seguire gli standard del momento, perciò le soluzioni informatiche utilizzate sono quelle fornite da Adobe Illustrator per la realizzazione della topografia, e da Macromedia Flash per la creazione di un’interfaccia di navigazione. La base dei dati descrittivi è ovviamente consultabile essendo contenuta nel supporto media e totalmente annotata nella bibliografia. È il continuo evolvere delle tecnologie d'informazione e la massiccia diffusione dell’uso dei computer che ci porta a un cambiamento sostanziale nello studio e nell’apprendimento storico; le strutture accademiche e gli operatori economici hanno fatto propria la richiesta che giunge dall'utenza (insegnanti, studenti, operatori dei Beni Culturali) di una maggiore diffusione della conoscenza storica attraverso la sua rappresentazione informatizzata. Sul fronte didattico la ricostruzione di una realtà storica attraverso strumenti informatici consente anche ai non-storici di toccare con mano quelle che sono le problematiche della ricerca quali fonti mancanti, buchi della cronologia e valutazione della veridicità dei fatti attraverso prove. Le tecnologie informatiche permettono una visione completa, unitaria ed esauriente del passato, convogliando tutte le informazioni su un'unica piattaforma, permettendo anche a chi non è specializzato di comprendere immediatamente di cosa si parla. Il miglior libro di storia, per sua natura, non può farlo in quanto divide e organizza le notizie in modo diverso. In questo modo agli studenti viene data l'opportunità di apprendere tramite una rappresentazione diversa rispetto a quelle a cui sono abituati. La premessa centrale del progetto è che i risultati nell'apprendimento degli studenti possono essere migliorati se un concetto o un contenuto viene comunicato attraverso più canali di espressione, nel nostro caso attraverso un testo, immagini e un oggetto multimediale. Didattica La Conceria Fiorio è uno dei luoghi-simbolo della Resistenza torinese. Il progetto è una ricostruzione in realtà virtuale della Conceria Fiorio di Torino. La ricostruzione serve a arricchire la cultura storica sia a chi la produce, attraverso una ricerca accurata delle fonti, sia a chi può poi usufruirne, soprattutto i giovani, che, attratti dall’aspetto ludico della ricostruzione, apprendono con più facilità. La costruzione di un manufatto in 3D fornisce agli studenti le basi per riconoscere ed esprimere la giusta relazione fra il modello e l’oggetto storico. Le fasi di lavoro attraverso cui si è giunti alla ricostruzione in 3D della Conceria: . una ricerca storica approfondita, basata sulle fonti, che possono essere documenti degli archivi o scavi archeologici, fonti iconografiche, cartografiche, ecc.; . La modellazione degli edifici sulla base delle ricerche storiche, per fornire la struttura geometrica poligonale che permetta la navigazione tridimensionale; . La realizzazione, attraverso gli strumenti della computer graphic della navigazione in 3D. Unreal Technology è il nome dato al motore grafico utilizzato in numerosi videogiochi commerciali. Una delle caratteristiche fondamentali di tale prodotto è quella di avere uno strumento chiamato Unreal editor con cui è possibile costruire mondi virtuali, e che è quello utilizzato per questo progetto. UnrealEd (Ued) è il software per creare livelli per Unreal e i giochi basati sul motore di Unreal. E’ stata utilizzata la versione gratuita dell’editor. Il risultato finale del progetto è un ambiente virtuale navigabile raffigurante una ricostruzione accurata della Conceria Fiorio ai tempi della Resistenza. L’utente può visitare l’edificio e visualizzare informazioni specifiche su alcuni punti di interesse. La navigazione viene effettuata in prima persona, un processo di “spettacolarizzazione” degli ambienti visitati attraverso un arredamento consono permette all'utente una maggiore immersività rendendo l’ambiente più credibile e immediatamente codificabile. L’architettura Unreal Technology ha permesso di ottenere un buon risultato in un tempo brevissimo, senza che fossero necessari interventi di programmazione. Questo motore è, quindi, particolarmente adatto alla realizzazione rapida di prototipi di una discreta qualità, La presenza di un certo numero di bug lo rende, però, in parte inaffidabile. Utilizzare un editor da videogame per questa ricostruzione auspica la possibilità di un suo impiego nella didattica, quello che le simulazioni in 3D permettono nel caso specifico è di permettere agli studenti di sperimentare il lavoro della ricostruzione storica, con tutti i problemi che lo storico deve affrontare nel ricreare il passato. Questo lavoro vuole essere per gli storici una esperienza nella direzione della creazione di un repertorio espressivo più ampio, che includa gli ambienti tridimensionali. Il rischio di impiegare del tempo per imparare come funziona questa tecnologia per generare spazi virtuali rende scettici quanti si impegnano nell'insegnamento, ma le esperienze di progetti sviluppati, soprattutto all’estero, servono a capire che sono un buon investimento. Il fatto che una software house, che crea un videogame di grande successo di pubblico, includa nel suo prodotto, una serie di strumenti che consentano all'utente la creazione di mondi propri in cui giocare, è sintomatico che l'alfabetizzazione informatica degli utenti medi sta crescendo sempre più rapidamente e che l'utilizzo di un editor come Unreal Engine sarà in futuro una attività alla portata di un pubblico sempre più vasto. Questo ci mette nelle condizioni di progettare moduli di insegnamento più immersivi, in cui l'esperienza della ricerca e della ricostruzione del passato si intreccino con lo studio più tradizionale degli avvenimenti di una certa epoca. I mondi virtuali interattivi vengono spesso definiti come la forma culturale chiave del XXI secolo, come il cinema lo è stato per il XX. Lo scopo di questo lavoro è stato quello di suggerire che vi sono grosse opportunità per gli storici impiegando gli oggetti e le ambientazioni in 3D, e che essi devono coglierle. Si consideri il fatto che l’estetica abbia un effetto sull’epistemologia. O almeno sulla forma che i risultati delle ricerche storiche assumono nel momento in cui devono essere diffuse. Un’analisi storica fatta in maniera superficiale o con presupposti errati può comunque essere diffusa e avere credito in numerosi ambienti se diffusa con mezzi accattivanti e moderni. Ecco perchè non conviene seppellire un buon lavoro in qualche biblioteca, in attesa che qualcuno lo scopra. Ecco perchè gli storici non devono ignorare il 3D. La nostra capacità, come studiosi e studenti, di percepire idee ed orientamenti importanti dipende spesso dai metodi che impieghiamo per rappresentare i dati e l’evidenza. Perché gli storici possano ottenere il beneficio che il 3D porta con sè, tuttavia, devono sviluppare un’agenda di ricerca volta ad accertarsi che il 3D sostenga i loro obiettivi di ricercatori e insegnanti. Una ricostruzione storica può essere molto utile dal punto di vista educativo non sono da chi la visita ma, anche da chi la realizza. La fase di ricerca necessaria per la ricostruzione non può fare altro che aumentare il background culturale dello sviluppatore. Conclusioni La cosa più importante è stata la possibilità di fare esperienze nell’uso di mezzi di comunicazione di questo genere per raccontare e far conoscere il passato. Rovesciando il paradigma conoscitivo che avevo appreso negli studi umanistici, ho cercato di desumere quelle che potremo chiamare “leggi universali” dai dati oggettivi emersi da questi esperimenti. Da punto di vista epistemologico l’informatica, con la sua capacità di gestire masse impressionanti di dati, dà agli studiosi la possibilità di formulare delle ipotesi e poi accertarle o smentirle tramite ricostruzioni e simulazioni. Il mio lavoro è andato in questa direzione, cercando conoscere e usare strumenti attuali che nel futuro avranno sempre maggiore presenza nella comunicazione (anche scientifica) e che sono i mezzi di comunicazione d’eccellenza per determinate fasce d’età (adolescenti). Volendo spingere all’estremo i termini possiamo dire che la sfida che oggi la cultura visuale pone ai metodi tradizionali del fare storia è la stessa che Erodoto e Tucidide contrapposero ai narratori di miti e leggende. Prima di Erodoto esisteva il mito, che era un mezzo perfettamente adeguato per raccontare e dare significato al passato di una tribù o di una città. In un mondo post letterario la nostra conoscenza del passato sta sottilmente mutando nel momento in cui lo vediamo rappresentato da pixel o quando le informazioni scaturiscono non da sole, ma grazie all’interattività con il mezzo. La nostra capacità come studiosi e studenti di percepire idee ed orientamenti importanti dipende spesso dai metodi che impieghiamo per rappresentare i dati e l’evidenza. Perché gli storici possano ottenere il beneficio sottinteso al 3D, tuttavia, devono sviluppare un’agenda di ricerca volta ad accertarsi che il 3D sostenga i loro obiettivi di ricercatori e insegnanti. Le esperienze raccolte nelle pagine precedenti ci portano a pensare che in un futuro non troppo lontano uno strumento come il computer sarà l’unico mezzo attraverso cui trasmettere conoscenze, e dal punto di vista didattico la sua interattività consente coinvolgimento negli studenti come nessun altro mezzo di comunicazione moderno.
Resumo:
INTRODUCTION – In human medicine, diabetes mellitus (DM), hypertension, proteinuria and nephropathy are often associated although it is still not clear whether hypertension is the consequence or the cause of nephropathy and albuminuria. Microalbuminuria, in humans, is an early and sensitive marker which permits timely and effective therapy in the early phase of renal damage. Conversely, in dogs, these relationships were not fully investigated, even though hypertension has been associated with many diseases (Bodey and Michell, 1996). In a previous study, 20% of diabetic dogs were found proteinuric based on a U:P/C > 1 and 46% were hypertensive; this latter finding is similar to the prevalence of hypertension in diabetic people (40-80%) (Struble et al., 1998). In the same canine study, hypertension was also positively correlated with the duration of the disease, as is the case in human beings. Hypertension was also found to be a common complication of hypercortisolism (HC) in dogs, with a prevalence which varies from 50 (Goy-Thollot et al., 2002) to 80% (Danese and Aron, 1994).The aim of our study was to evaluate the urinary albumin to creatinine ratio (U:A/C) in dogs affected by Diabetes Mellitus and HC in order to ascertain if, as in human beings, it could represent an early and more sensitive marker of renal damage than U:P/C. Furthermore, the relationship between proteinuria and hypertension in DM and HC was also investigated. MATERIALS AND METHODS – Twenty dogs with DM, 14 with HC and 21 healthy dogs (control group) were included in the prospective case-control study. Inclusion criteria were hyperglycaemia, glicosuria and serum fructosamine above the reference range for DM dogs and a positive ACTH stimulation test and/or low-dose dexamethasone test and consistent findings of HC on abdominal ultrasonography in HC dogs. Dogs were excluded if affected by urinary tract infections and if the serum creatinine or urea values were above the reference range. At the moment of inclusion, an appropriate therapy had already been instituted less than 1 month earlier in 12 diabetic dogs. The control dogs were considered healthy based on clinical exam and clinicopathological findings. All dogs underwent urine sample collection by cystocentesis and systemic blood pressure measurement by means of either an oscillometric device (BP-88 Next, Colin Corporation, Japan) or by Doppler ultrasonic traducer (Minidop ES-100VX, Hadeco, Japan). The choice of method depended on the dog’s body weight: Doppler ultrasonography was employed in dogs < 20 kg of body weight and the oscillometric method in the other subjects. Dogs were considered hypertensive whenever systemic blood pressure was found ≥ 160 mmHg. The urine was assayed for U:P/C and U:A/C (Gentilini et al., 2005). The data between groups were compared using the Mann-Whitney U test. The reference ranges for U:P/C and U:A/C had already been established by our laboratory as 0.6 and 0.05, respectively. U:P/C and U:A/C findings were correlated to systemic blood pressure and Spearman R correlation coefficients were calculated. In all cases, p < 0.05 was considered statistically significant. RESULTS – The mean ± sd urinary albumin concentration in the three groups was 1.79 mg/dl ± 2.18; 20.02 mg/dl ± 43.25; 52.02 mg/dl ± 98.27, in healthy, diabetic and hypercortisolemic dogs, respectively. The urine albumin concentration differed significantly between healthy and diabetic dogs (p = 0.008) and between healthy and HC dogs (p = 0.011). U:A/C values ranged from 0.00 to 0.34 (mean ± sd 0.02 ± 0.07), 0.00 to 6.72 (mean ± sd 0.62 ± 1.52) and 0.00 to 5.52 (mean ± sd 1.27 ± 1.70) in the control, DM and HC groups, respectively; U:P/C values ranged from 0.1 to 0.6 (mean ± sd 0.17 ± 0.15) 0.1 to 6.6 (mean ± sd 0.93 ± 1.15) and 0.2 to 7.1 (mean ± sd 1.90 ± 2.11) in the control, DM and HC groups, respectively. In diabetic dogs, U:A/C was above the reference range in 11 out of 20 dogs (55%). Among these, 5/20 (25%) showed an increase only in the U:A/C ratio while, in 6/20 (30%), both the U:P/C and the U:A/C were abnormal. Among the latter, 4 dogs had already undergone therapy. In subjects affected with HC, U:P/C and U:A/C were both increased in 10/14 (71%) while in 2/14 (14%) only U:A/C was above the reference range. Overall, by comparing U:P/C and U:A/C in the various groups, a significant increase in protein excretion in disease-affected animals compared to healthy dogs was found. Blood pressure (BP) in diabetic subjects ranged from 88 to 203 mmHg (mean ± sd 143 ± 33 mmHg) and 7/20 (35%) dogs were found to be hypertensive. In HC dogs, BP ranged from 116 to 200 mmHg (mean ± sd 167 ± 26 mmHg) and 9/14 (64%) dogs were hypertensive. Blood pressure and proteinuria were not significantly correlated. Furthermore, in the DM group, U:P/C and U:A/C were both increased in 3 hypertensive dogs and 2 normotensive dogs while the only increase of U:A/C was observed in 2 hypertensive and 3 normotensive dogs. In the HC group, the U:P/C and the U:A/C were both increased in 6 hypertensive and 2 normotensive dogs; the U:A/C was the sole increased parameter in 1 hypertensive dog and in 1 dog with normal pressure. DISCUSSION AND CONCLUSION- The findings of this study suggest that, in dogs affected by DM and HC, an increase in U:P/C, U:A/C and systemic hypertension is frequently present. Remarkably, some dogs affected by both DM and HC showed an U:A/C but not U:P/C above the reference range. In diabetic dogs, albuminuria was observed in 25% of the subjects, suggesting the possibility that this parameter could be employed for detecting renal damage at an early phase when common semiquantiative tests and even U:P/C fall inside the reference range. In HC dogs, a higher number of subjects with overt proteinuria was found while only 14% presented an increase only in the U:A/C. This fact, associated with a greater number of hypertensive dogs having HC rather than DM, could suggest a greater influence on renal function by the mechanisms involved in hypertension secondary to hypercortisolemia. Furthermore, it is possible that, in HC dogs, the diagnosis was more delayed than in DM dogs. However, the lack of a statistically significant correlation between hypertension and increased protein excretion as well as the apparently random distribution of proteinuric subjects in normotensive and hypertensive cases, imply that other factors besides hypertension are involved in causing proteinuria. Longitudinal studies are needed to further investigate the relationship between hypertension and proteinuria.
Resumo:
In questa tesi è stato studiato l’effetto dell’esposizione della diatomea Skeletonema marinoi, una specie molto comune nel Nord Adriatico e importante per il suo annuale contributo alla produzione primaria, agli erbicidi maggiormente utilizzati nella pianura Padana e riscontrati in acque dolci e salmastre di zone limitrofe al mare Adriatico. Gli erbicidi scelti consistono in terbutilazina e metolachlor, i più frequentemente riscontrati sia nelle acque superficiali che in quelle sotterranee dell’area Padana, noti per avere un effetto di inibizione su vie metaboliche dei vegetali; inoltre è stato valutato anche l’effetto di un prodotto di degradazione della terbutilazina, la desetilterbutilazina, presente anch’esso in concentrazioni pari al prodotto di origine e su cui non si avevano informazioni circa la tossicità sul fitoplancton. L’esposizione delle microalghe a questi erbicidi può avere effetti che si ripercuotono su tutto l’ecosistema: le specie fitoplanctoniche, in particolare le diatomee, sono i produttori primari più importanti dell’ecosistema: questi organismi rivestono un ruolo fondamentale nella fissazione del carbonio, rappresentando il primo anello della catena alimentari degli ambienti acquatici e contribuendo al rifornimento di ossigeno nell’atmosfera. L’effetto di diverse concentrazioni di ciascun composto è stato valutato seguendo l’andamento della crescita e dell’efficienza fotosintetica di S. marinoi. Per meglio determinare la sensibilità di questa specie agli erbicidi, l’effetto della terbutilazina è stato valutato anche al variare della temperatura (15, 20 e 25°C). Infine, dal momento che gli organismi acquatici sono solitamente esposti a una miscela di composti, è stato valutato l’effetto sinergico di due erbicidi, entrambi somministrati a bassa concentrazione. Le colture di laboratorio esposte a concentrazioni crescenti di diversi erbicidi e, in un caso, anche a diverse temperature, indicano che l’erbicida al quale la microalga mostra maggiore sensibilità è la Terbutilazina. Infatti a parità di concentrazioni, la sensibilità della microalga alla Terbutilazina è risultata molto più alta rispetto al suo prodotto di degradazione, la Desetilterbutilazina e all’erbicida Metolachlor. Attraverso l’analisi di densità algale, di efficienza fotosintetica, di biovolume e di contenuto intracellulare di Carbonio e Clorofilla, è stato dimostrato l’effetto tossico dell’erbicida Terbutilazina che, agendo come inibitore del trasporto degli elettroni a livello del PS-II, manifesta la sua tossicità nell’inibizione della fotosintesi e di conseguenza sulla crescita e sulle proprietà biometriche delle microalghe. E’ stato visto come la temperatura sia un parametro ambientale fondamentale sulla crescita algale e anche sugli effetti tossici di Terbutilazina; la temperatura ideale per la crescita di S. marinoi è risultata essere 20°C. Crescendo a 15°C la microalga presenta un rallentamento nella crescita, una minore efficienza fotosintetica, variazione nei valori biometrici, mostrando al microscopio forme irregolari e di dimensioni inferiori rispetto alle microalghe cresciute alle temperature maggiori, ed infine incapacità di formare le tipiche congregazioni a catena. A 25° invece si sono rivelate difficoltà nell’acclimatazione: sembra che la microalga si debba abituare a questa alta temperatura ritardando così la divisione cellulare di qualche giorno rispetto agli esperimenti condotti a 15° e a 20°C. Gli effetti della terbutilazina sono stati maggiori per le alghe cresciute a 25°C che hanno mostrato un calo più evidente di efficienza fotosintetica effettiva e una diminuzione di carbonio e clorofilla all’aumentare delle concentrazioni di erbicida. Sono presenti in letteratura studi che attestano gli effetti tossici paragonabili dell’atrazina e del suo principale prodotto di degradazione, la deetilatrazina; nei nostri studi invece non sono stati evidenziati effetti tossici significativi del principale prodotto di degradazione della terbutilazina, la desetilterbutilazina. Si può ipotizzare quindi che la desetilterbutilazina perda la propria capacità di legarsi al sito di legame per il pastochinone (PQ) sulla proteina D1 all’interno del complesso del PSII, permettendo quindi il normale trasporto degli elettroni del PSII e la conseguente sintesi di NADPH e ATP e il ciclo di riduzione del carbonio. Il Metolachlor non evidenzia una tossicità severa come Terbutilazina nei confronti di S. marinoi, probabilmente a causa del suo diverso meccanismo d’azione. Infatti, a differenza degli enzimi triazinici, metolachlor agisce attraverso l’inibizione delle elongasi e del geranilgeranil pirofosfato ciclasi (GGPP). In letteratura sono riportati casi studio degli effetti inibitori di Metolachlor sulla sintesi degli acidi grassi e di conseguenza della divisione cellulare su specie fitoplanctoniche d’acqua dolce. Negli esperimenti da noi condotti sono stati evidenziati lievi effetti inibitori su S. marinoi che non sembrano aumentare all’aumentare della concentrazione dell’erbicida. E’ interessante notare come attraverso la valutazione della sola crescita non sia stato messo in evidenza alcun effetto mentre, tramite l’analisi dell’efficienza fotosintetica, si possa osservare che il metolachlor determina una inibizione della fotosintesi.
Resumo:
Oggetto della ricerca sono l’esame e la valutazione dei limiti posti all’autonomia privata dal divieto di abuso della posizione dominante, come sancito, in materia di tutela della concorrenza, dall’art. 3 della legge 10 ottobre 1990, n. 287, a sua volta modellato sull’art. 82 del Trattato CE. Preliminarmente, si è ritenuto opportuno svolgere la ricognizione degli interessi tutelati dal diritto della concorrenza, onde individuare la cerchia dei soggetti legittimati ad avvalersi dell’apparato di rimedi civilistici – invero scarno e necessitante di integrazione in via interpretativa – contemplato dall’art. 33 della legge n. 287/1990. È così emerso come l’odierno diritto della concorrenza, basato su un modello di workable competition, non possa ritenersi sorretto da ragioni corporative di tutela dei soli imprenditori concorrenti, investendo direttamente – e rivestendo di rilevanza giuridica – le situazioni soggettive di coloro che operano sul mercato, indipendentemente da qualificazioni formali. In tal senso, sono stati esaminati i caratteri fondamentali dell’istituto dell’abuso di posizione dominante, come delineatisi nella prassi applicativa non solo degli organi nazionali, ma anche di quelli comunitari. Ed invero, un aspetto importante che caratterizza la disciplina italiana dell’abuso di posizione dominante e della concorrenza in generale, distinguendola dalle normative di altri sistemi giuridici prossimi al nostro, è costituito dal vincolo di dipendenza dal diritto comunitario, sancito dall’art. 1, quarto comma, della legge n. 287/1990, idoneo a determinare peculiari riflessi anche sul piano dell’applicazione civilistica dell’istituto. La ricerca si è quindi spostata sulla figura generale del divieto di abuso del diritto, onde vagliarne i possibili rapporti con l’istituto in esame. A tal proposito, si è tentato di individuare, per quanto possibile, i tratti essenziali della figura dell’abuso del diritto relativamente all’esercizio dell’autonomia privata in ambito negoziale, con particolare riferimento all’evoluzione del pensiero della dottrina e ai più recenti orientamenti giurisprudenziali sul tema, che hanno valorizzato il ruolo della buona fede intesa in senso oggettivo. Particolarmente interessante è parsa la possibilità di estendere i confini della figura dell’abuso del diritto sì da ricomprendere anche l’esercizio di prerogative individuali diverse dai diritti soggettivi. Da tale estensione potrebbero infatti discendere interessanti ripercussioni per la tutela dei soggetti deboli nel contesto dei rapporti d’impresa, intendendosi per tali tanto i rapporti tra imprenditori in posizione paritaria o asimmetrica, quanto i rapporti tra imprenditori e consumatori. È stato inoltre preso in considerazione l’aspetto dei rimedi avverso le condotte abusive, alla luce dei moderni contributi sull’eccezione di dolo generale, sulla tutela risarcitoria e sull’invalidità negoziale, con i quali è opportuno confrontarsi qualora si intenda cercare di colmare – come sembra opportuno – i vuoti di disciplina della tutela civilistica avverso l’abuso di posizione dominante. Stante l’evidente contiguità con la figura in esame, si è poi provveduto ad esaminare, per quanto sinteticamente, il divieto di abuso di dipendenza economica, il quale si delinea come figura ibrida, a metà strada tra il diritto dei contratti e quello della concorrenza. Tale fattispecie, pur inserita in una legge volta a disciplinare il settore della subfornitura industriale (art. 9, legge 18 giugno 1998, n. 192), ha suscitato un vasto interessamento della dottrina. Si sono infatti levate diverse voci favorevoli a riconoscere la portata applicativa generale del divieto, quale principio di giustizia contrattuale valevole per tutti i rapporti tra imprenditori. Nel tentativo di verificare tale assunto, si è cercato di individuare la ratio sottesa all’art. 9 della legge n. 192/1998, anche in considerazione dei suoi rapporti con il divieto di abuso di posizione dominante. Su tale aspetto è d’altronde appositamente intervenuto il legislatore con la legge 5 marzo 2001, n. 57, riconoscendo la competenza dell’Autorità garante per la concorrenza ed il mercato a provvedere, anche d’ufficio, sugli abusi di dipendenza economica con rilevanza concorrenziale. Si possono così prospettare due fattispecie normative di abusi di dipendenza economica, quella con effetti circoscritti al singolo rapporto interimprenditoriale, la cui disciplina è rimessa al diritto civile, e quella con effetti negativi per il mercato, soggetta anche – ma non solo – alle regole del diritto antitrust; tracciare una netta linea di demarcazione tra i reciproci ambiti non appare comunque agevole. Sono stati inoltre dedicati brevi cenni ai rimedi avverso le condotte di abuso di dipendenza economica, i quali involgono problematiche non dissimili a quelle che si delineano per il divieto di abuso di posizione dominante. Poste tali basi, la ricerca è proseguita con la ricognizione dei rimedi civilistici esperibili contro gli abusi di posizione dominante. Anzitutto, è stato preso in considerazione il rimedio del risarcimento dei danni, partendo dall’individuazione della fonte della responsabilità dell’abutente e vagliando criticamente le diverse ipotesi proposte in dottrina, anche con riferimento alle recenti elaborazioni in tema di obblighi di protezione. È stata altresì vagliata l’ammissibilità di una visione unitaria degli illeciti in questione, quali fattispecie plurioffensive e indipendenti dalla qualifica formale del soggetto leso, sia esso imprenditore concorrente, distributore o intermediario – o meglio, in generale, imprenditore complementare – oppure consumatore. L’individuazione della disciplina applicabile alle azioni risarcitorie sembra comunque dipendere in ampia misura dalla risposta al quesito preliminare sulla natura – extracontrattuale, precontrattuale ovvero contrattuale – della responsabilità conseguente alla violazione del divieto. Pur non sembrando prospettabili soluzioni di carattere universale, sono apparsi meritevoli di approfondimento i seguenti profili: quanto all’individuazione dei soggetti legittimati, il problema della traslazione del danno, o passing-on; quanto al nesso causale, il criterio da utilizzare per il relativo accertamento, l’ammissibilità di prove presuntive e l’efficacia dei provvedimenti amministrativi sanzionatori; quanto all’elemento soggettivo, la possibilità di applicare analogicamente l’art. 2600 c.c. e gli aspetti collegati alla colpa per inosservanza di norme di condotta; quanto ai danni risarcibili, i criteri di accertamento e di prova del pregiudizio; infine, quanto al termine di prescrizione, la possibilità di qualificare il danno da illecito antitrust quale danno “lungolatente”, con le relative conseguenze sull’individuazione del dies a quo di decorrenza del termine prescrizionale. In secondo luogo, è stata esaminata la questione della sorte dei contratti posti in essere in violazione del divieto di abuso di posizione dominante. In particolare, ci si è interrogati sulla possibilità di configurare – in assenza di indicazioni normative – la nullità “virtuale” di detti contratti, anche a fronte della recente conferma giunta dalla Suprema Corte circa la distinzione tra regole di comportamento e regole di validità del contratto. È stata inoltre esaminata – e valutata in senso negativo – la possibilità di qualificare la nullità in parola quale nullità “di protezione”, con una ricognizione, per quanto sintetica, dei principali aspetti attinenti alla legittimazione ad agire, alla rilevabilità d’ufficio e all’estensione dell’invalidità. Sono poi state dedicate alcune considerazioni alla nota questione della sorte dei contratti posti “a valle” di condotte abusive, per i quali non sembra agevole configurare declaratorie di nullità, mentre appare prospettabile – e, anzi, preferibile – il ricorso alla tutela risarcitoria. Da ultimo, non si è trascurata la valutazione dell’esperibilità, avverso le condotte di abuso di posizione dominante, di azioni diverse da quelle di nullità e risarcimento, le sole espressamente contemplate dall’art. 33, secondo comma, della legge n. 287/1990. Segnatamente, l’attenzione si è concentrata sulla possibilità di imporre a carico dell’impresa in posizione dominante un obbligo a contrarre a condizioni eque e non discriminatorie. L’importanza del tema è attestata non solo dalla discordanza delle pronunce giurisprudenziali, peraltro numericamente scarse, ma anche dal vasto dibattito dottrinale da tempo sviluppatosi, che investe tuttora taluni aspetti salienti del diritto delle obbligazioni e della tutela apprestata dall’ordinamento alla libertà di iniziativa economica.
Resumo:
Water is a safe, harmless, and environmentally benign solvent. From an eco-sustainable chemistry perspective, the use of water instead of organic solvent is preferred to decrease environmental contamination. Moreover, water has unique physical and chemical properties, such as high dielectric constant and high cohesive energy density compared to most organic solvents. The different interactions between water and substrates, make water an interesting candidate as a solvent or co-solvent from an industrial and laboratory perspective. In this regard, organic reactions in aqueous media are of current interest. In addition, from practical and synthetic standpoints, a great advantage of using water is immediately evident, since it does not require any preliminary drying process. This thesis was found on this aspect of chemical research, with particular attention to the mechanisms which control organo and bio-catalysis outcome. The first part of the study was focused on the aldol reaction. In particular, for the first time it has been analyzed for the first time the stereoselectivity of the condensation reaction between 3-pyridincarbaldehyde and the cyclohexanone, catalyzed by morpholine and 4-tertbutyldimethylsiloxyproline, using water as sole solvent. This interest has resulted in countless works appeared in the literature concerning the use of proline derivatives as effective catalysts in organic aqueous environment. These studies showed good enantio and diastereoselectivities but they did not present an in depth study of the reaction mechanism. The analysis of the products diastereomeric ratios through the Eyring equation allowed to compare the activation parameters (ΔΔH≠ and ΔΔS≠) of the diastereomeric reaction paths, and to compare the different type of catalysis. While morpholine showed constant diasteromeric ratio at all temperatures, the O(TBS)-L-proline, showed a non-linear Eyring diagram, with two linear trends and the presence of an inversion temperature (Tinv) at 53 ° C, which denotes the presence of solvation effects by water. A pH-dependent study allowed to identify two different reaction mechanisms, and in the case of O(TBS)-L-proline, to ensure the formation of an enaminic species, as a keyelement in the stereoselective process. Moreover, it has been studied the possibility of using the 6- aminopenicillanic acid (6-APA) as amino acid-type catalyst for aldol condensation between cyclohexanone and aromatic aldehydes. A detailed analysis of the catalyst regarding its behavior in different organic solvents and pH, allowed to prove its potential as a candidate for green catalysis. Best results were obtained in neat conditions, where 6-APA proved to be an effective catalyst in terms of yields. The catalyst performance in terms of enantio- and diastereo-selectivity, was impaired by the competition between two different catalytic mechanisms: one via imine-enamine mechanism and one via a Bronsted-acid catalysis. The last part of the thesis was dedicated to the enzymatic catalysis, with particular attention to the use of an enzyme belonging to the class of alcohol dehydrogenase, the Horse Liver Alcohol Dehydrogenase (HLADH) which was selected and used in the enantioselective reduction of aldehydes to enantiopure arylpropylic alcohols. This enzyme has showed an excellent responsiveness to this type of aldehydes and a good tolerance toward organic solvents. Moreover, the fast keto-enolic equilibrium of this class of aldehydes that induce the stereocentre racemization, allows the dynamic-kinetic resolution (DKR) to give the enantiopure alcohol. By analyzing the different reaction parameters, especially the pH and the amount of enzyme, and adding a small percentage of organic solvent, it was possible to control all the parameters involved in the reaction. The excellent enatioselectivity of HLADH along with the DKR of arylpropionic aldehydes, allowed to obtain the corresponding alcohols in quantitative yields and with an optical purity ranging from 64% to >99%.
Resumo:
L’analisi condotta sulle condizioni geo-morfologiche dell’intera regione abruzzese e in particolare della città de L’Aquila ha evidenziato l’importanza del contesto paesaggistico territoriale che non può che essere assunto come riferimento progettuale per rinnovare il rapporto tra uomo e natura, soprattutto in una realtà come quella aquilana dove sono il paesaggio naturale e la struttura morfologica che permangono come fattori costanti nel tempo, nonostante le trasformazioni attuate dalla società o dagli eventi sismici che da sempre caratterizzano la storia della città e che rappresentano quindi due elementi in grado di restituire l’identità stessa della popolazione. Questa caratteristica rappresenta il pretesto per un approfondimento sul paesaggio dal punto di vista percettivo: è infatti l’uomo che nel corso dei secoli modifica fortemente il proprio territorio e la percezione che ha di esso. L’obiettivo di tale studio è quello di riuscire a cogliere, in fase progettuale, l’essenza del luogo, il carattere peculiare delle diverse suggestioni che i cittadini aquilani potranno riaffermare come parte della propria identità. Considerate tali premesse, il progetto propone il disegno di un nuovo parco urbano collocato entro le mura lungo l’intera lunghezza dell’area oggetto di studio; l’obiettivo è quello di collegare i poli verdi preesistenti del Parco del Castello e del Parco del Sole e contemporaneamente di ridefinire il lacerato rapporto tra centro storico e prima periferia eleggendo il verde ad elemento capace di una relazione attiva con il contesto urbano, con la possibilità di contribuire alla coesione sociale, alla sensibilizzazione ai temi ambientali e al miglioramento dell’offerta dei luoghi di ritrovo. Il nuovo parco ospiterà architetture legate alla musica e al teatro, temi da sempre di notevole importanza per la città, come testimoniano le numerose strutture che prima dell’evento tellurico arricchivano il patrimonio culturale della città. Per evitare che funzioni di così notevole importanza per la città corrano il rischio di essere progressivamente relegate verso la periferia ed i centri minori, il progetto propone di integrare all’interno del nuovo parco una serie di attività quali laboratori teatrali e foresterie per attori, centro ricreativo, biblioteca e sala espositiva, conservatorio, attività commerciali e residenze, disposti secondo una successione lineare da nord a sud. Tale intervento sarà integrato dalla realizzazione di un complesso di residenze,costituito da tre corpi lineari disposti secondo il naturale declivio del terreno, lungo l’asse est-ovest, in corrispondenza del prolungamento dei tracciati storici secondari. Si viene a creare, quindi una sorta di struttura a pettine, nella quale le aree verdi adibite ad orti e gli spazi costruiti si compenetrano definendo un vero e proprio filtro tra città storica e quella suburbana. La disposizione dei diversi edifici e la presenza in ognuno di essi di uno spazio pubblico esterno, sono pensati in modo tale da creare una successione di spazi collettivi, suggerita in risposta all’assenza di attrezzature pubbliche all’interno del quartiere preesistente. Il progetto prevede, infatti di dare maggiore spazio alle attività pubbliche, investendo sulla realizzazione di luoghi e di spazi per l’incontro e la collettività, che rappresentano un necessità primaria per ogni città ed in particolare per L’Aquila post sisma. Contestualmente al parco che costituisce una sorta di asse verde sviluppato in direzione nord-sud, il progetto si estende anche in direzione perpendicolare, lungo la direttrice est-ovest, attraverso la riqualificazione dell’asse storico di via San Bernardino, cercando di restituire ad esso ed alla monumentale scalinata omonima la valenza storica progressivamente perduta nel corso degli anni. Pertanto, il progetto prevede la ridefinizione di entrambi i lati della scalinata oggi abbandonati al verde incolto ed in particolare la realizzazione, lungo il lato orientale, di un nuovo polo culturale, costituito da una biblioteca ed una sala espositiva. Il nuovo edificio, assume un ruolo cardine all’interno del progetto, rappresentando uno dei punti di collegamento tra città storica e verde pubblico. Il complesso nasce dall’incontro di cinque elementi lineari disposti in modo tale da assecondare il naturale dislivello del terreno e da consentire la realizzazione di due ampi spazi pubblici: uno verde, pensato come prolungamento del parco, sul quale si affaccia l’ampia sala di lettura della biblioteca ed uno pavimentato, ai piedi della scalinata, delimitato da un portico a doppia altezza. Il nuovo edificio, consente inoltre di creare un belvedere dal parco verso la città storica, evocando una suggestione cara agli abitanti della città.
Resumo:
L’area oggetto dell’ipotesi progettuale è la Suraj Kund, Cisterna del Sole, sita nella città di Varanasi, nello stato dell’Uttar Pradesh, India. E’ proprio per via delle innumerevoli differenze che ci sono tra l’Occidente e l’India, siano esse culturali, religiose, storiche e conseguentemente architettoniche, che chiunque visiti questo particolare Stato del mondo, viene sopraffatto dalla sua incredibile complessità culturale. “Punto di incontro ed origine dei più diversi popoli e delle più diverse culture, l’India si riallaccia a tradizioni millenarie. L’India riesce ad accogliere gli influssi stranieri esercitati nel tempo trasfigurandoli, senza tuttavia intaccare la propria identità culturale. L’India seduce il visitatore occidentale per la coesistenza di diversi popoli, lingue e religioni.” [8] Dall’analisi del sito sono stati individuate una serie di problematiche e criticità la cui risoluzione,conseguentemente allo studio delle architetture d’acqua indiane e dagli elementi caratteristici dell’architettura di Varanasi, sarà punto di partenza in fase progettuale. Insieme al ripristino funzionale dell'area saranno progettati un ostello per l’accoglienza dei pellegrini, una scuola d’artigianato e due blocchi abitativi di differente tipologia.
Resumo:
Curved mountain belts have always fascinated geologists and geophysicists because of their peculiar structural setting and geodynamic mechanisms of formation. The need of studying orogenic bends arises from the numerous questions to which geologists and geophysicists have tried to answer to during the last two decades, such as: what are the mechanisms governing orogenic bends formation? Why do they form? Do they develop in particular geological conditions? And if so, what are the most favorable conditions? What are their relationships with the deformational history of the belt? Why is the shape of arcuate orogens in many parts of the Earth so different? What are the factors controlling the shape of orogenic bends? Paleomagnetism demonstrated to be one of the most effective techniques in order to document the deformation of a curved belt through the determination of vertical axis rotations. In fact, the pattern of rotations within a curved belt can reveal the occurrence of a bending, and its timing. Nevertheless, paleomagnetic data alone are not sufficient to constrain the tectonic evolution of a curved belt. Usually, structural analysis integrates paleomagnetic data, in defining the kinematics of a belt through kinematic indicators on brittle fault planes (i.e., slickensides, mineral fibers growth, SC-structures). My research program has been focused on the study of curved mountain belts through paleomagnetism, in order to define their kinematics, timing, and mechanisms of formation. Structural analysis, performed only in some regions, supported and integrated paleomagnetic data. In particular, three arcuate orogenic systems have been investigated: the Western Alpine Arc (NW Italy), the Bolivian Orocline (Central Andes, NW Argentina), and the Patagonian Orocline (Tierra del Fuego, southern Argentina). The bending of the Western Alpine Arc has been investigated so far using different approaches, though few based on reliable paleomagnetic data. Results from our paleomagnetic study carried out in the Tertiary Piedmont Basin, located on top of Alpine nappes, indicate that the Western Alpine Arc is a primary bend that has been subsequently tightened by further ~50° during Aquitanian-Serravallian times (23-12 Ma). This mid-Miocene oroclinal bending, superimposing onto a pre-existing Eocene nonrotational arc, is the result of a composite geodynamic mechanism, where slab rollback, mantle flows, and rotating thrust emplacement are intimately linked. Relying on our paleomagnetic and structural evidence, the Bolivian Orocline can be considered as a progressive bend, whose formation has been driven by the along-strike gradient of crustal shortening. The documented clockwise rotations up to 45° are compatible with a secondary-bending type mechanism occurring after Eocene-Oligocene times (30-40 Ma), and their nature is probably related to the widespread shearing taking place between zones of differential shortening. Since ~15 Ma ago, the activity of N-S left-lateral strike-slip faults in the Eastern Cordillera at the border with the Altiplano-Puna plateau induced up to ~40° counterclockwise rotations along the fault zone, locally annulling the regional clockwise rotation. We proposed that mid-Miocene strike-slip activity developed in response of a compressive stress (related to body forces) at the plateau margins, caused by the progressive lateral (southward) growth of the Altiplano-Puna plateau, laterally spreading from the overthickened crustal region of the salient apex. The growth of plateaux by lateral spreading seems to be a mechanism common to other major plateaux in the Earth (i.e., Tibetan plateau). Results from the Patagonian Orocline represent the first reliable constraint to the timing of bending in the southern tip of South America. They indicate that the Patagonian Orocline did not undergo any significant rotation since early Eocene times (~50 Ma), implying that it may be considered either a primary bend, or an orocline formed during the late Cretaceous-early Eocene deformation phase. This result has important implications on the opening of the Drake Passage at ~32 Ma, since it is definitely not related to the formation of the Patagonian orocline, but the sole consequence of the Scotia plate spreading. Finally, relying on the results and implications from the study of the Western Alpine Arc, the Bolivian Orocline, and the Patagonian Orocline, general conclusions on curved mountain belt formation have been inferred.
Resumo:
L'attività di ricerca descritta in questa tesi fornisce linee guida per la progettazione di arti protesici inferiori, con particolare riferimento alla progettazione di protesi a basso costo. La necessità di efficienti protesi a basso costo risulta infatti sentita nei Paesi in via di sviluppo ma anche dalle fasce meno abbienti dei paesi occidentali. Al fine di comprendere le strategie adottate dall'apparato locomotorio per muoversi con le protesi sono analizzati il cammino fisiologico, le protesi presenti sul mercato ed infine le modalità con cui le loro prestazioni sono valutate. Con il presente lavoro, dopo aver osservato la presenza di una scarsa strutturazione della metodologia di progettazione che riguarda specialmente il settore del basso costo, si propone una metodologia il più possibile oggettiva e ripetibile tesa ad individuare quali sono gli aspetti essenziali di una protesi per garantire al paziente una buona qualità di vita. Solo questi aspetti dovranno essere selezionati al fine di ottenere la massima semplificazione della protesi e ridurre il più possibile i costi. Per la simulazione delle attività di locomozione, in particolare del cammino, è stato elaborato un apposito modello spaziale del cammino. Il modello proposto ha 7 membri rigidi (corrispondenti a piedi, tibie, femori e bacino) e 24 gradi di libertà. Le articolazioni e l'appoggio dei piedi al suolo sono modellati con giunti sferici. La pianta del piede consente tre possibili punti di appoggio. I criteri di realizzazione delle simulazioni possono comprendere aspetti energetici, cinematici e dinamici considerati come obiettivo dall'apparato locomotorio. In questa tesi vengono trattati in particolare gli aspetti cinematici ed è mostrata un'applicazione della procedura nella quale vengono dapprima identificati i riferimenti fisiologici del cammino e quindi simulato il cammino in presenza di una menomazione al ginocchio (eliminazione della flessione in fase di appoggio). Viene quindi lasciato a sviluppi futuri il completamento della procedura e la sua implementazione in un codice di calcolo.
Resumo:
I libretti che Pascoli scrisse in forma di abbozzi e che sognò potessero calcare il palcoscenico di un teatro furono davvero un “melodramma senza musica”. In primo luogo, perché non giunsero mai ad essere vestiti di note e ad arrivare in scena; ma anche perché il tentativo di scrivere per il teatro si tinse per Pascoli di toni davvero melodrammatici, nel senso musicale di sconfitta ed annullamento, tanto da fare di quella pagina della sua vita una piccola tragedia lirica, in cui c’erano tante parole e, purtroppo, nessuna musica. Gli abbozzi dei drammi sono abbastanza numerosi; parte di essi è stata pubblicata postuma da Maria Pascoli.1 Il lavoro di pubblicazione è stato poi completato da Antonio De Lorenzi.2 Ho deciso di analizzare solo quattro di questi abbozzi, che io reputo particolarmente significativi per poter cogliere lo sviluppo del pensiero drammatico e della poetica di Pascoli. I drammi che analizzo sono Nell’Anno Mille (con il rifacimento Il ritorno del giullare), Gretchen’s Tochter (con il rifacimento La figlia di Ghita), Elena Azenor la Morta e Aasvero o Caino nel trivio o l’Ebreo Errante. La prima ragione della scelta risiede nel fatto che questi abbozzi presentano una lunghezza più consistente dell’appunto di uno scheletro di dramma registrato su un foglietto e, quindi, si può seguire attraverso di essi il percorso della vicenda, delle dinamiche dei personaggi e dei significati dell’opera. Inoltre, questi drammi mostrano cosa Pascoli intendesse comporre per sollevare le vesti del libretto d’opera e sono funzionali all’esemplificazione delle sue concezioni teoriche sulla musica e il melodramma, idee che egli aveva espresso nelle lettere ad amici e compositori. In questi quattro drammi è possibile cogliere bene le motivazioni della scelta dei soggetti, il loro significato entro la concezione melodrammatica del poeta, il sistema simbolico che soggiace alla creazione delle vicende e dei personaggi e i legami con la poetica pascoliana. Compiere un’analisi di questo tipo significa per me, innanzitutto, risalire alle concezioni melodrammatiche di Pascoli e capire esattamente cosa egli intendesse per dramma musicale e per rinnovamento dello stesso. Pascoli parla di musica e dei suoi tentativi di scrivere per il teatro lirico nelle lettere ai compositori e, sporadicamente, ad alcuni amici (Emma Corcos, Luigi Rasi, Alfredo Caselli). La ricostruzione del pensiero e dell’estetica musicale di Pascoli ha dovuto quindi legarsi a ricerche d’archivio e di materiali inediti o editi solo in parte e, nella maggioranza dei casi, in pubblicazioni locali o piuttosto datate (i primi anni del Novecento). Quindi, anche in presenza della pubblicazione di parte del materiale necessario, quest’ultimo non è certo facilmente e velocemente consultabile e molto spesso è semi sconosciuto. Le lettere di Pascoli a molti compositori sono edite solo parzialmente; spesso, dopo quei primi anni del Novecento, in cui chi le pubblicò poté vederle presso i diretti possessori, se ne sono perse le tracce. Ho cercato di ricostruire il percorso delle lettere di Pascoli a Giacomo Puccini, Riccardo Zandonai, Giovanni Zagari, Alfredo Cuscinà e Guglielmo Felice Damiani. Si tratta sempre di contatti che Pascoli tenne per motivi musicali, legati alla realizzazione dei suoi drammi. O per le perdite prodotte dalla storia (è il 1 Giovanni Pascoli, Nell’Anno Mille. Sue notizie e schemi da altri drammi, a c. di Maria Pascoli, Bologna, Zanichelli, 1924. 2 Giovanni Pascoli, Testi teatrali inediti, a c. di Antonio De Lorenzi, Ravenna, Longo, 1979. caso delle lettere di Pascoli a Zandonai, che andarono disperse durante la seconda guerra mondiale, come ha ricordato la prof.ssa Tarquinia Zandonai, figlia del compositore) o per l’impossibilità di stabilire contatti quando i possessori dei materiali sono privati e, spesso, collezionisti, questa parte delle mie ricerche è stata vana. Mi è stato possibile, però, ritrovare gli interi carteggi di Pascoli e i due Bossi, Marco Enrico e Renzo. Le lettere di Pascoli ai Bossi, di cui do notizie dettagliate nelle pagine relative ai rapporti con i compositori e all’analisi dell’Anno Mille, hanno permesso di cogliere aspetti ulteriori circa il legame forte e meditato che univa il poeta alla musica e al melodramma. Da queste riflessioni è scaturita la prima parte della tesi, Giovanni Pascoli, i musicisti e la musica. I rapporti tra Pascoli e i musicisti sono già noti grazie soprattutto agli studi di De Lorenzi. Ho sentito il bisogno di ripercorrerli e di darne un aggiornamento alla luce proprio dei nuovi materiali emersi, che, quando non sono gli inediti delle lettere di Pascoli ai Bossi, possono essere testi a stampa di scarsa diffusione e quindi poco conosciuti. Il quadro, vista la vastità numerica e la dispersione delle lettere di Pascoli, può subire naturalmente ancora molti aggiornamenti e modifiche. Quello che ho qui voluto fare è stato dare una trattazione storico-biografica, il più possibile completa ed aggiornata, che vedesse i rapporti tra Pascoli e i musicisti nella loro organica articolazione, come premessa per valutare le posizioni del poeta in campo musicale. Le lettere su cui ho lavorato rientrano tutte nel rapporto culturale e professionale di Pascoli con i musicisti e non toccano aspetti privati e puramente biografici della vita del poeta: sono legate al progetto dei drammi teatrali e, per questo, degne di interesse. A volte, nel passato, alcune di queste pagine sono state lette, soprattutto da giornalisti e non da critici letterari, come un breve aneddoto cronachistico da inserire esclusivamente nel quadro dell’insuccesso del Pascoli teatrale o come un piccolo ragguaglio cronologico, utile alla datazione dei drammi. Ricostruire i rapporti con i musicisti equivale nel presente lavoro a capire quanto tenace e meditato fu l’avvicinarsi di Pascoli al mondo del teatro d’opera, quali furono i mezzi da lui perseguiti e le proposte avanzate; sempre ho voluto e cercato di parlare in termini di materiale documentario e archivistico. Da qui il passo ad analizzare le concezioni musicali di Pascoli è stato breve, dato che queste ultime emergono proprio dalle lettere ai musicisti. L’analisi dei rapporti con i compositori e la trattazione del pensiero di Pascoli in materia di musica e melodramma hanno in comune anche il fatto di avvalersi di ricerche collaterali allo studio della letteratura italiana; ricerche che sconfinano, per forza di cose, nella filosofia, estetica e storia della musica. Non sono una musicologa e non è stata mia intenzione affrontare problematiche per le quali non sono provvista di conoscenze approfonditamente adeguate. Comprendere il panorama musicale di quegli anni e i fermenti che si agitavano nel teatro lirico, con esiti vari e contrapposti, era però imprescindibile per procedere in questo cammino. Non sono pertanto entrata negli anfratti della storia della musica e della musicologia, ma ho compiuto un volo in deltaplano sopra quella terra meravigliosa e sconfinata che è l’opera lirica tra Ottocento e Novecento. Molti consigli, per non smarrirmi in questo volo, mi sono venuti da valenti musicologi ed esperti conoscitori della materia, che ho citato nei ringraziamenti e che sempre ricordo con viva gratitudine. Utile per gli studi e fondamentale per questo mio lavoro è stato riunire tutte le dichiarazioni, da me conosciute finora, fornite da Pascoli sulla musica e il melodramma. Ne emerge quella che è la filosofia pascoliana della musica e la base teorica della scrittura dei suoi drammi. Da questo si comprende bene perché Pascoli desiderasse tanto scrivere per il teatro musicale: egli riteneva che questo fosse il genere perfetto, in cui musica e parola si compenetravano. Così, egli era convinto che la sua arte potesse parlare ed arrivare a un pubblico più vasto. Inoltre e soprattutto, egli intese dare, in questo modo, una precisa risposta a un dibattito europeo sul rinnovamento del melodramma, da lui molto sentito. La scrittura teatrale di Pascoli non è tanto un modo per trovare nuove forme espressive, quanto soprattutto un tentativo di dare il suo contributo personale a un nuovo teatro musicale, di cui, a suo dire, l’umanità aveva bisogno. Era quasi un’urgenza impellente. Le risposte che egli trovò sono in linea con svariate concezioni di quegli anni, sviluppate in particolare dalla Scapigliatura. Il fatto poi che il poeta non riuscisse a trovare un compositore disposto a rischiare fino in fondo, seguendolo nelle sue creazioni di drammi tutti interiori, con scarso peso dato all’azione, non significa che egli fosse una voce isolata o bizzarra nel contesto culturale a lui contemporaneo. Si potranno, anche in futuro, affrontare studi sugli elementi di vicinanza tra Pascoli e alcuni compositori o possibili influenze tra sue poesie e libretti d’opera, ma penso non si potrà mai prescindere da cosa egli effettivamente avesse ascoltato e avesse visto rappresentato. Il che, documenti alla mano, non è molto. Solo ciò a cui possiamo effettivamente risalire come dato certo e provato è valido per dire che Pascoli subì il fascino di questa o di quell’opera. Per questo motivo, si trova qui (al termine del secondo capitolo), per la prima volta, un elenco di quali opere siamo certi Pascoli avesse ascoltato o visto: lo studio è stato possibile grazie ai rulli di cartone perforato per il pianoforte Racca di Pascoli, alle testimonianze della sorella Maria circa le opere liriche che il poeta aveva ascoltato a teatro e alle lettere del poeta. Tutto questo è stato utile per l’interpretazione del pensiero musicale di Pascoli e dei suoi drammi. I quattro abbozzi che ho scelto di analizzare mostrano nel concreto come Pascoli pensasse di attuare la sua idea di dramma e sono quindi interpretati attraverso le sue dichiarazioni di carattere musicale. Mi sono inoltre avvalsa degli autografi dei drammi, conservati a Castelvecchio. In questi abbozzi hanno un ruolo rilevante i modelli che Pascoli stesso aveva citato nelle sue lettere ai compositori: Wagner, Dante, Debussy. Soprattutto, Nell’Anno Mille, il dramma medievale sull’ultima notte del Mille, vede la significativa presenza del dantismo pascoliano, come emerge dai lavori di esegesi della Commedia. Da questo non è immune nemmeno Aasvero o Caino nel trivio o l’Ebreo Errante, che è il compimento della figura di Asvero, già apparsa nella poesia di Pascoli e portatrice di un messaggio di rinascita sociale. I due drammi presentano anche una specifica simbologia, connessa alla figura e al ruolo del poeta. Predominano, invece, in Gretchen’s Tochter e in Elena Azenor la Morta le tematiche legate all’archetipo femminile, elemento ambiguo, materno e infero, ma sempre incaricato di tenere vivo il legame con l’aldilà e con quanto non è direttamente visibile e tangibile. Per Gretchen’s Tochter la visione pascoliana del femminile si innesta sulle fonti del dramma: il Faust di Marlowe, il Faust di Goethe e il Mefistofele di Boito. I quattro abbozzi qui analizzati sono la prova di come Pascoli volesse personificare nel teatro musicale i concetti cardine e i temi dominanti della sua poesia, che sarebbero così giunti al grande pubblico e avrebbero avuto il merito di traghettare l’opera italiana verso le novità già percorse da Wagner. Nel 1906 Pascoli aveva chiaramente compreso che i suoi drammi non sarebbero mai arrivati sulle scene. Molti studi e molti spunti poetici realizzati per gli abbozzi gli restavano inutilizzati tra le mani. Ecco, allora, che buona parte di essi veniva fatta confluire nel poema medievale, in cui si cantano la storia e la cultura italiane attraverso la celebrazione di Bologna, città in cui egli era appena rientrato come professore universitario, dopo avervi già trascorso gli anni della giovinezza da studente. Le Canzoni di Re Enzio possono quindi essere lette come il punto di approdo dell’elaborazione teatrale, come il “melodramma senza musica” che dà il titolo a questo lavoro sul pensiero e l’opera del Pascoli teatrale. Già Cesare Garboli aveva collegato il manierismo con cui sono scritte le Canzoni al teatro musicale europeo e soprattutto a Puccini. Alcuni precisi parallelismi testuali e metrici e l’uso di fonti comuni provano che il legame tra l’abbozzo dell’Anno Mille e le Canzoni di Re Enzio è realmente attivo. Le due opere sono avvicinate anche dalla presenza del sostrato dantesco, tenendo presente che Dante era per Pascoli uno dei modelli a cui guardare proprio per creare il nuovo e perfetto dramma musicale. Importantissimo, infine, è il piccolo schema di un dramma su Ruth, che egli tracciò in una lettera della fine del 1906, a Marco Enrico Bossi. La vicinanza di questo dramma e di alcuni degli episodi principali della Canzone del Paradiso è tanto forte ed evidente da rendere questo abbozzo quasi un cartone preparatorio della Canzone stessa. Il Medioevo bolognese, con il suo re prigioniero, la schiava affrancata e ancella del Sole e il giullare che sulla piazza intona la Chanson de Roland, costituisce il ritorno del dramma nella poesia e l’avvento della poesia nel dramma o, meglio, in quel continuo melodramma senza musica che fu il lungo cammino del Pascoli librettista.
Resumo:
Lo studio condotto si propone l’approfondimento delle conoscenze sui processi di evoluzione spontanea di comunità vegetali erbacee di origine secondaria in cinque siti all’interno di un’area protetta del Parco di Monte Sole (Bologna, Italia), dove, come molte aree rurali marginali in Italia e in Europa, la cessazione o riduzione delle tradizionali pratiche gestionali negli ultimi cinquant’anni, ha determinato lo sviluppo di fitocenosi di ridotto valore floristico e produttivo. Tali siti si trovano in due aree distinte all’interno del parco, denominate Zannini e Stanzano, selezionate in quanto rappresentative di situazioni di comunità del Mesobrometo. Due siti appartenenti alla prima area e uno appartenente alla seconda, sono gestiti con sfalcio annuale, i rimanenti non hanno nessun tipo di gestione. Lo stato delle comunità erbacee di tali siti è stato valutato secondo più punti di vista. E’ stata fatta una caratterizzazione vegetazionale dei siti, mediante rilievo lineare secondo la metodologia Daget-Poissonet, permettendo una prima valutazione relativa al numero di specie presenti e alla loro abbondanza all’interno della comunità vegetale, determinando i Contributi Specifici delle famiglie principali e delle specie dominanti (B. pinnatum, B. erectus e D. glomerata). La produttività è stata calcolata utilizzando un indice di qualità foraggera, il Valore Pastorale, e con la determinazione della produzione di Fitomassa totale, Fitomassa fotosintetizzante e Necromassa. A questo proposito sono state trovate correlazioni negative tra la presenza di Graminacee, in particolare di B. pinnatum, e i Contributi Specifici delle altre specie, soprattutto a causa dello spesso strato di fitomassa e necromassa prodotto dallo stesso B. pinnatum che impedisce meccanicamente l’insediamento e la crescita di altre piante. E’ stata inoltre approfonditamente sviluppata un terza caratterizzazione, che si propone di quantificare la diversità funzionale dei siti medesimi, interpretando le risposte della vegetazione a fattori globali di cambiamento, sia abiotici che biotici, per cogliere gli effetti delle variazioni ambientali in atto sulla comunità, e più in generale, sull’intero ecosistema. In particolare, nello studio condotto, sono stati proposti alcuni caratteri funzionali, cosiddetti functional traits, scelti perché correlati all’acquisizione e alla conservazione delle risorse, e quindi al trade-off dei nutrienti all’interno della pianta, ossia: Superficie Fogliare Specifica, SLA, Tenore di Sostanza Secca, LDMC, Concentrazione di Azoto Fogliare, LNC, Contenuto in Fibra, LFC, separato nelle componenti di Emicellulosa, Cellulosa, Lignina e Ceneri. Questi caratteri sono stati misurati in relazione a tre specie dominanti: B. pinnatum, B. erectus e D. glomerata. Si tratta di specie comunemente presenti nelle praterie semi-mesofile dell’Appennino Settentrionale, ma caratterizzate da differenti proprietà ecologiche e adattative: B. pinnatum e B. erectus sono considerati competitori stress-toleranti, tipicamente di ambienti poveri di risorse, mentre D. glomerata, è una specie più mesofila, caratteristica di ambienti produttivi. Attraverso l’analisi dei traits in riferimento alle diverse strategie di queste specie, sono stati descritti specifici adattamenti alle variazioni delle condizioni ambientali, ed in particolare in risposta al periodo di stress durante l’estate dovuto a deficit idrico e in risposta alla diversa modalità di gestione dei siti, ossia alla pratica o meno dello sfalcio annuale. Tra i caratteri funzionali esaminati, è stato identificato LDMC come il migliore per descrivere le specie, in quanto più facilmente misurabile, meno variabile, e direttamente correlato con altri traits come SLA e le componenti della fibra. E’ stato quindi proposto il calcolo di un indice globale per caratterizzare i siti in esame, che tenesse conto di tutti questi aspetti, riunendo insieme sia i parametri di tipo vegetativo e produttivo, che i parametri funzionali. Tale indice ha permesso di disporre i siti lungo un gradiente e di cogliere differenti risposte in relazione a variazioni stagionali tra primavera o autunno e in relazione al tipo di gestione, valutando le posizioni occupate dai siti stessi e la modalità dei loro eventuali spostamenti lungo questo gradiente. Al fine di chiarire se le variazioni dei traits rilevate fossero dovute ad adattamento fenotipico dei singoli individui alle condizioni ambientali, o piuttosto fossero dovute a differenziazione genotipica tra popolazioni cresciute in siti diversi, è stato proposto un esperimento in condizioni controllate. All’interno di un’area naturale in UK, le Chiltern Hills, sono stati selezionati cinque siti, caratterizzati da diverse età di abbandono: Bradenham Road MaiColtivato e Small Dean MaiColtivato, di cui non si conosce storia di coltivazione, caratterizzati rispettivamente da vegetazione arborea e arbustiva prevalente, Butterfly Bank 1970, non più coltivato dal 1970, oggi prateria seminaturale occasionalmente pascolata, Park Wood 2001, non più coltivato dal 2001, oggi prateria seminaturale mantenuta con sfalcio annuale, e infine Manor Farm Coltivato, attualmente arato e coltivato. L’esperimento è stato condotto facendo crescere i semi delle tre specie più comuni, B. sylvaticum, D. glomerata e H. lanatus provenienti dai primi quattro siti, e semi delle stesse specie acquistati commercialmente, nei cinque differenti tipi di suolo dei medesimi siti. Sono stati misurati quattro caratteri funzionali: Massa Radicale Secca (DRM), Massa Epigea Secca (DBM), Superficie Fogliare Secca (SLA) e Tenore di Sostanza Secca (LDMC). I risultati ottenuti hanno evidenziato che ci sono significative differenze tra le popolazioni di una stessa specie ma con diversa provenienza, e tra individui appartenenti alla stessa popolazione se fatti crescere in suoli diversi. Tuttavia, queste differenze, sembrano essere dovute ad adattamenti locali legati alla presenza di nutrienti, in particolare N e P, nel suolo piuttosto che a sostanziali variazioni genotipiche tra popolazioni. Anche per questi siti è stato costruito un gradiente sulla base dei quattro caratteri funzionali analizzati. La disposizione dei siti lungo il gradiente ha evidenziato tre gruppi distinti: i siti più giovani, Park Wood 2001 e Manor Farm Coltivato, nettamente separati da Butterfly Bank 1970, e seguiti infine da Small Dean MaiColtivato e Bradenham Road MaiColtivato. L’applicazione di un indice così proposto potrebbe rivelarsi un utile strumento per descrivere ed indagare lo stato della prateria e dei processi evolutivi in atto, al fine di meglio comprendere e dominare tali dinamiche per proporre sistemi di gestione che ne consentano la conservazione anche in assenza delle tradizionali cure colturali.
Resumo:
Il mio elaborato finale si chiama “Restauro tra storia e progetto”, in cui rimetto a sistema, quanto appreso nelle materie di restauro, partendo dal laboratorio di restauro, dove la Prof. Antonella Ranaldi ci ha fatto trattare il complesso monumentale dell’ex convento di Sant’ Agostino a Cesena. Partendo da una lunga ricerca bibliografica, abbiamo individuato gli interventi da effettuare sul prospetto lungo via delle Mura di Sant’ Agostino ed effettuato il rilievo che ci ha permesso l’elaborazione del progetto. Gli interventi realizzati nel corso dei secoli costituiscono un esempio inquietante perchè se pure con esiti diversi ed in parte anche positivi, hanno però complessivamente portato alla situazione attuale, ormai compromessa per la definitiva perdita di molte interessanti tracce storiche. Data l'impossibilità di restituire al prospetto la sua immagine originaria abbiamo deciso di effettuare la sagramatura, che ha cancellato le stratificazioni che si sono succedute nei vari periodi storici. Abbiamo dato al prospetto una nuova immagine, riportando il prospetto ad un periodo storico non esattamente datato. L'illuminazione di questa preziosa facciata ha voluto essere un elemento discreto, capace di porre in risalto gli elementi architettonici e consentire, anche al calare del sole, un'intensa esperienza emotiva. In ogni caso si vuole evitare una scenografia serale eccessiva o artificiosa , e illuminare la facciata in maniera uniforme. Per fare questo si sono scelti apparecchi di illuminazione dotati di ottica asimmetrica, in modo da indirizzare il fascio di luce solo sulle superfici da illuminare e di ridurre così al minimo l'inquinamento luminoso. L'illuminazione omogenea della facciata in mattoni avviene attraverso riflettori con ottica larga, vetro allungante in verticale e schermo antiabbagliamento, posizionati su appositi pali (due pezzi per palo, paralleli alla facciata) situati dall'altra parte della strada di via delle mura. Mentre le lesene e il basamento sono illuminati da riflettori con condensatore ottico incassati nel terreno o nascosti nella parte superiore della cornice, con distribuzione della luce per un'altezza di circa 7 metri. Si è scelto di utilizzare sorgenti a luce bianca per mettere in risalto i materiali della facciata, senza alterarne i colori già di per se saturi. Abbiamo previsto nonostante lo stato di degrado, di recuperare il portone e le porte. Le parti mancanti vengono integrate con parti in legno della stessa essenza. Tutte le forature verranno poi tamponate con adeguati stucchi. Si ritiene fondamentale, in termini di restauro conservativo, mantenere ogni elemento che ancora sia in grado di svolgere la sua funzione. E' evidente in facciata il filo dell'impianto elettrico. E' stato pensato di farlo scorrere all'interno di una canalina, di dimensioni 4,5 x 7 cm, posizionata sopra il cornicione, nascosta alla vista del prospetto. Le gronde e i pluviali sono stati sostituiti durante l'ultimo intervento di rifacimento delle coperture, tuttavia non è stato studiato un posizionamento adeguato dei pluviali. Infatti, alcuni di questi, sopratutto quelli del prospetto principale sono posizionati senza alcun ordine. In alcuni casi i pluviali risultano essere scarsi con conseguente allagamento delle gronde e colate di acqua piovana sul muro. Nel nostro progetto si prevede di posizionare gli scarichi delle gronde sui lati, in maniera tale da non ostruire la facciata, inoltre vengono aumentati i pluviali per la gronda più alta. La seconda parte riguarda il restauro del borgo di Castelleale, che abbiamo trattato con il Prof. Andrea Ugolini nel laboratorio di sintesi finale. Il tema del corso ha previsto una prima fase di studio comprendente la ricerca storica e bibliografica, l’inquadramento dell’oggetto nel contesto urbano, la redazione delle piante di fase e ricostruzioni planivolumetriche nelle varie fasi storiche. Nella seconda fase abbiamo effettuato il rilievo, fatto foto esterne e interne di dettaglio per l’inquadramento del tema e delle sue caratteristiche architettoniche, studiato le principali cause di degrado e alterazione dei materiali da costruzione redigendo le tavole del degrado e dello stato di conservazione. Nella fase progettuale abbiamo deciso di effettuare un minimo intervento sul rudere, ripristinando la copertura crollata attraverso una copertura moderna sostenuta da pilastri, che vanno a costituire una struttura staccata rispetto al rudere. La terza parte riguarda l’efficienza energetica, il tema che ho affrontato sotto la guida del Prof. Kristian Fabbri in occasione dell’elaborato finale.