11 resultados para Museo nazionale di Napoli

em AMS Tesi di Dottorato - Alm@DL - Università di Bologna


Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesi esamina il codice musicale Gr. Rés Vm7 676 della Biblioteca Nazionale di Parigi, che rappresenta una fonte di grande interesse per lo studio della musica vocale italiana tra Quattro e Cinquecento. Compilato nel 1502, il codice è stato oggetto di analisi da parte di vari studiosi, che ne hanno preso in esame singoli brani o intere sezioni, allo scopo di attestare procedimenti compositivi particolari (Torrefranca) o caratteri stilistici locali, in particolare relativi alla frottola mantovana e ferrarese (Prizer). Un’accurata ricognizione sul repertorio è stata effettuata da Nanie Bridgman in un saggio degli anni Cinquanta del secolo scorso, ma non è mai stato realizzato uno studio organico sul manoscritto. Pertanto la ricerca si è proposta di riconsiderare l’intero repertorio italiano tramandato dal codice, per proporre un plausibile inquadramento stilistico nella cultura della poesia per musica coeva. La trascrizione dei testi e delle musiche, supportata dal confronto con le fonti manoscritte e a stampa, letterarie e musicali, ha consentito di formulare alcune ipotesi in merito alla circolazione del repertorio tramandato e all’ambiente di produzione del documento. L’inconsueta varietà di forme musicali riscontrate nel codice consente inoltre di assumere questo manoscritto come una delle principali fonti della tradizione musicale che precede immediatamente la ‘sistemazione’ del repertorio frottolistico effettuata da Ottaviano Petrucci, a partire dal 1504, con la pubblicazione dei suoi undici libri di frottole (1501-1514).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Negli ultimi anni lo spreco alimentare ha assunto un’importanza crescente nel dibattito internazionale, politico ed accademico, nel contesto delle tematiche sulla sostenibilità dei modelli di produzione e consumo, sull’uso efficiente delle risorse e la gestione dei rifiuti. Nei prossimi anni gli Stati Membri dell’Unione Europea saranno chiamati ad adottare specifiche strategie di prevenzione degli sprechi alimentari all’interno di una cornice di riferimento comune. Tale cornice è quella che si va delineando nel corso del progetto Europeo di ricerca “FUSIONS” (7FP) che, nel 2014, ha elaborato un framework di riferimento per la definizione di “food waste” allo scopo di armonizzare le diverse metodologie di quantificazione adottate dai paesi membri. In questo scenario, ai fini della predisposizione di un Piano Nazionale di Prevenzione degli Sprechi Alimentari per l’Italia, il presente lavoro applica per la prima volta il “definitional framework” FUSIONS per l’analisi dei dati e l’identificazione dei principali flussi nei diversi anelli della filiera e svolge un estesa consultazione degli stakeholder (e della letteratura) per identificare le possibili misure di prevenzione e le priorità di azione. I risultati ottenuti evedenziano (tra le altre cose) la necessità di predisporre e promuovere a livello nazionale l’adozione di misure uniformi di quantificazione e reporting; l’importanza del coinvolgimento degli stakeholder nel contesto di una campagna nazionale di prevenzione degli sprechi alimentari; l’esigenza di garantire una adeguata copertura economica per le attività di pianificazione e implementazione delle misure di prevenzione da parte degli enti locali e di un coordinamento a livello nazionale della programmazione regionale; la necessità di una armonizzazione/semplificazione del quadro di riferimento normativo (fiscale, igienico-sanitario, procedurale) che disciplina la donazione delle eccedenze alimentari; l’urgenza di approfondire il fenomeno degli sprechi alimentari attraverso la realizzazione di studi di settore negli stadi a valle della filiera.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

E’ stato in primo luogo definito il criterio di efficienza dal punto di vista economico (con una accenno anche ai parametri elaborati dagli studiosi di discipline aziendali), nelle sue varie accezioni, ponendo altresì ciascuna di queste in relazione alle condizioni di concorrenza perfetta. Le nozioni di efficienza che sono state definite a tal fine sono quelle di efficienza allocativa, efficienza tecnica, efficienza dinamica ed efficienza distributiva. Ciascuna di esse é stata inquadrata a livello teorico secondo le definizioni fornite dalla letteratura, esaminandone le ipotesi sottostanti. E’ stata altresì descritta, contestualizzandola temporalmente, l’evoluzione della nozione, e ne sono state evidenziate le implicazioni ai fini della ricerca della forma di mercato più “efficiente”. Sotto quest’ultimo aspetto l’attenzione dello scrivente si é incentrata sul rapporto tra le diverse accezioni di efficienza economica oggetto di analisi e la desiderabilità o meno di un regime di concorrenza perfetta. Il capitolo si conclude con una breve panoramica sulle metodologie di misurazione finalizzata ad individuare i principali parametri utilizzati per determinare il livello di efficienza, di un mercato, di un’attività produttiva o di un’impresa, posto che, come verrà specificato nel prosieguo della tesi, la valutazione di efficienza in ambito antitrust deve essere verificata, ove possibile, anche basandosi sull’evidenza empirica delle singole imprese esaminate, come richiede il criterio della rule of reason. Capitolo 2 Presupposto per avere una regolazione che persegua l’obiettivo di avere una regolazione efficiente ed efficace, è, a parere di chi scrive, anche l’esistenza di autorità pubbliche deputate a esercitare la funzione regolatoria che rispettino al proprio interno e nel proprio agire la condizione di efficienza definita rispetto ai pubblici poteri. Lo sviluppo di questa affermazione ha richiesto in via preliminare, di definire il criterio di efficienza in ambito pubblicistico individuandone in particolare l’ambito di applicazione, il suo rapporto con gli altri principi che reggono l’azione amministrativa (con particolare riferimento al criterio di efficacia). Successivamente é stato collocato nel nostro ordinamento nazionale, ponendolo in relazione con il principio di buon andamnento della Pubblica Amministrazione, benchè l’ordinamento italiano, per la sua specificità non costituisca un esempio estendibile ad ordinamenti. Anche con riferimento al criterio di efficienza pubblica, un paragrafo é stato dedicato alle metodologie di misurazione di questa, e, nello specifico sull’Analisi Costi-Benefici e sull’Analisi di Impatto della Regolazione Una volta inquadrata la definizione di efficienza pubblica, questa é stata analizzata con specifico riferimento all’attività di regolazione dell’economia svolta dai soggetti pubblici, ambito nella quale rientra la funzione antitrust. Si é provato in particolare ad evidenziare, a livello generale, quali sono i requisiti necessari ad un’autorità amministrativa antitrust, costituita e dotata di poteri ad hoc, affinché essa agisca, nella sua attività di regolazione, secondo il principio di efficienza, Il capitolo si chiude allargando l’orizzonte della ricerca verso una possibile alternativa metodologica al criterio di efficienza precedentemente definito: vi si é infatti brevemente interrogati circa lo schema interpretativo nel quale ci muoviamo, affrontando la questione definitoria del criterio di efficienza, ponendolo in relazione con l’unico modello alternativo esistente, quello sviluppatosi nella cultura cinese. Non certo per elaborare un’applicazione in “salsa cinese” del criterio di efficienza alla tutela della concorrenza, compito al quale lo scrivente non sarebbe stato in grado di ottemperare, bensì, più semplicemente per dare conto di un diverso approccio alla questione che il futuro ruolo di superpotenza economica della Cina imporrà di prendere in considerazione. Capitolo 3 Nel terzo capitolo si passa a definire il concetto di concorrenza come istituto oggetto di tutela da parte della legge antitrust, per poi descrivere la nascita e l’evoluzione di tale legislazione negli Stati Uniti e della sua applicazione, posto che il diritto antitrust statunitense ancora oggi costituisce il necessario punto di riferimento per lo studioso di questa materia. L’evoluzione del diritto antitrust statunitense é stata analizzata parallelamente allo sviluppo delle principali teorie di law and economics che hanno interpretato il diritto della concorrenza quale possibile strumento per conseguire l’obiettivo dell’efficienza economica: la Scuola di Harvard e il paradigma strutturalista, la teoria evoluzionista della Scuola Austriaca, la Scuola di Chicago; le c.d. teorie “Post-Chicago”. Nel terzo capitolo, in altri termini, si é dato conto dell’evoluzione del pensiero economico con riferimento alla sua applicazione al diritto antitrust, focalizzando l’attenzione su quanto avvenuto negli Stati Uniti, paese nel quale sono nati sia l’istituto giuridico della tutela della concorrenza sia l’analisi economica del diritto. A conclusione di questa ricostruzione dottrinale ho brevemente esaminato quelle che sono le nuove tendenze dell’analisi economica del diritto, e specificatamente la teoria del comportamento irrazionale, benché esse non abbiano ancora ricevuto applicazione al diritto antitrust. Chi scrive ritiene infatti che queste teorie avranno ricadute anche in questa materia poiché essa costituisce uno dei principali ambiti applicativi della law and economics. Capitolo 4 Nel quarto capitolo é stata effettuata una disanima della disciplina comunitaria antitrust sottolineando come l’Unione Europea si proponga attraverso la sua applicazione, soprattutto in materia di intese, di perseguire fini eterogenei, sia economici che non economici, tra loro diversi e non di rado contrastanti, e analizzando come questa eterogeneità di obiettivi abbia influito sull’applicazione del criterio di efficienza. Attenendomi in questo capitolo al dato normativo, ho innanzitutto evidenziato l’ampiezza dell’ambito di applicazione della disciplina comunitaria antitrust sia dal punto di vista soggettivo che territoriale (dottrina dell’effetto utile), sottolineando come la norma giustifichi esplicitamente il ricorso al criterio di efficienza solo nella valutazione delle intese: il comma 3 dell’art. 81 del Trattato include, infatti, tra i requisiti di una possibile esenzione dall’applicazione del divieto per le intese qualificate come restrittive della concorrenza, la possibilità di ottenere incrementi di efficienza tecnica e/o dinamica attraverso l’implementazione delle intese in questione. Tuttavia la previsione da parte dello stesso art. 81 (3) di altri requisiti che devono contemporaneamente essere soddisfatti affinché un intesa restrittiva della concorrenza possa beneficiare dell’esenzione, nonché la possibile diversa interpretazione della locuzione “progresso tecnico ed economico”, impone, o comunque ammette, il perseguimento di altri obiettivi, contestualmente a quello dell’efficienza, giustificando così quell’eterogeneità dei fini che contraddistingue la politica della concorrenza dell’Unione Europea. Se la disciplina delle intese aiuta a comprendere il ruolo del criterio di efficienza nell’applicazione dei precetti antitrust da parte degli organi comunitari, l’art. 82 del Trattato non contiene invece alcun riferimento alla possibilità di utilizzare il criterio di efficienza nella valutazione delle condotte unilaterali poste in essere da imprese in posizione dominante sul mercato rilevante. Si è peraltro dato conto della consultazione recentemente avviata dalla Commissione Europea finalizzata all’elaborazione di Linee Guida che definiscano i criteri di interpretazione che l’organo comunitario dovrà seguire nella valutazione dei comportamenti unilaterali. A parere dello scrivente, anzi, l’assenza di un preciso schema cui subordinare la possibilità di ricorrere al criterio di efficienza nella valutazione della fattispecie, attribuisce alle autorità competenti un più ampio margine di discrezionalità nell’utilizzo del suddetto criterio poiché manca il vincolo della contestuale sussistenza delle altre condizioni di cui all’art. 81(3). Per quanto concerne infine la disciplina delle concentrazioni, essa, come abbiamo visto, prevede un riferimento ai possibili incrementi di efficienza (tecnica e dinamica) derivanti da operazioni di fusione, utilizzando la nozione utilizzata per le intese, così come nel precedente Regolamento 4064/89. Si é infine analizzato il nuovo Regolamento in materia di concentrazioni che avrebbe potuto costituire l’occasione per recepire nella disciplina comunitaria l’attribuzione della facoltà di ricorrere all’efficiency defense in presenza di una fattispecie, quella della fusione tra imprese, suscettibile più di altre di essere valutata secondo il criterio di efficienza, ma che si é invece limitato a riprendere la medesima locuzione presente nell’art. 81(3). Il capitolo attesta anche l’attenzione verso l’istanza di efficienza che ha riguardato il meccanismo di applicazione della norma antitrust e non il contenuto della norma stessa; a questo profilo attiene, infatti, l’innovazione apportata dal Regolamento 1/2003 che ha permesso, a parere dello scrivente, un’attribuzione più razionale della competenza nella valutazione dei casi tra la Commissione e le autorità nazionali degli Stati membri; tuttavia pone alcune questioni che investono direttamente il tema dei criteri di valutazione utilizzati dalle autorità competenti. Capitolo 5 L’analisi del quarto capitolo é stata condotta, sebbene in forma più sintetica, con riferimento alle normative antitrust dei principali Stati membri della Comunità Europea (Germania, Gran Bretagna, Spagna, Francia e Italia), rapportando anche queste al criterio di efficienza, ove possibile. Particolare attenzione é stata dedicata ai poteri e alle competenze attribuite alle autorità nazionali antitrust oggetto di studio dall’ordinamento giuridico cui appartengono e al contesto, in termini di sistema giuridico, nel quale esse operano. Capitolo 6 Si é provato ad effettuare una valutazione del livello di efficienza delle autorità prese in esame, la Commissione e le diverse autorità nazionali e ciò con particolare riferimento alla idoneità di queste a svolgere i compiti istituzionali loro affidati (criterio di efficienza dal punto di vista giuridico): affinchè un’autorità si possa ispirare al criterio di efficienza economica nell’adozione delle decisioni, infatti, è preliminarmente necessario che essa sia idonea a svolgere il compito che le è stato affidato dall’ordinamento. In questo senso si é osservata la difficoltà dei paesi di civil law a inquadrare le autorità indipendenti all’interno di un modello, quello appunto di civil law, ispirato a una rigida tripartizione dei poteri. Da qui la difficile collocazione di queste autorità che, al contrario, costituiscono un potere “ibrido” che esercita una funzione di vigilanza e garanzia non attribuibile integralmente né al potere esecutivo né a quello giurisdizionale. Si rileva inoltre una certa sovrapposizione delle competenze e dei poteri tra autorità antitrust e organi ministeriali, in particolare nel campo delle concentrazioni che ingenera un rischio di confusione e bassa efficienza del sistema. Mantenendo, infatti, un parziale controllo politico si rischia, oltre all’introduzione di criteri di valutazione politica che prescindono dagli effetti delle fattispecie concrete sul livello di concorrenza ed efficienza del mercato, anche di dare luogo a conflitti tra le diverse autorità del sistema che impediscano l’adozione e l’implementazione di decisioni definitive, incrementando altresì i costi dell’intervento pubblico. Un giudizio a parte è stato infine formulato con riguardo alla Commissione Europea, istituzione, in quanto avente caratteristiche e poteri peculiari. Da un lato l’assenza di vincolo di mandato dei Commissari e l’elevata preparazione tecnica dei funzionari costituiscono aspetti che avvicinano la Commissione al modello dell’autorità indipendenti, e l’ampiezza dei poteri in capo ad essa le permette di operare efficientemente grazie anche alla possibilità di valersi dell’assistenza delle autorità nazionali. Dall’altra parte, tuttavia la Commissione si caratterizza sempre di più come un organo politico svolgente funzioni esecutive, di indirizzo e di coordinamento che possono influenzare gli obiettivi che essa persegue attraverso l’attività antitrust, deviandola dal rispetto del criterio di efficienza. Capitolo 7 Una volta definito il contesto istituzionale di riferimento e la sua idoneità a svolgere la funzione affidatagli dall’ordinamento comunitario, nonché da quelli nazionali, si è proceduto quindi all’analisi delle decisioni adottate da alcune delle principali autorità nazionali europee competenti ad applicare la disciplina della concorrenza dal punto di vista dell’efficienza. A tal fine le fattispecie rilevanti a fini antitrust dal punto di vista giuridico sono state classificate utilizzando un criterio economico, individuando e definendo quelle condotte che presentano elementi comuni sotto il profilo economico e per ciascuna di esse sono state inquadrate le problematiche rilevanti ai fini dell’efficienza economica sulla scorta dei contributi teorici e delle analisi empiriche svolte dalla letteratura. 6 Con riferimento a ciascuna condotta rilevante ho esaminato il contenuto di alcune delle decisioni antitrust più significative e le ho interpretate in base al criterio di efficienza. verificando se e in quale misura le autorità antitrust prese in esame utilizzano tale criterio, cercando altresì di valutare l’evoluzione dei parametri di valutazione occorsa nel corso degli anni. Le decisioni analizzate sono soprattutto quelle adottate dalla Commissione e le eventuali relative sentenze della Corte di Giustizia Europea; ciò sia per la maggior rilevanza dei casi trattati a livello comunitario, sia in quanto le autorità nazionali, con qualche rara eccezione, si conformano generalmente ai criteri interpretativi della Commissione. Riferimenti a decisioni adottate dalle autorità nazionali sono stati collocati allorquando i loro criteri interpretativi si discostino da quelli utilizzati dagli organi comunitari. Ne è emerso un crescente, anche se ancora sporadico e incostante, ricorso al criterio di efficienza da parte degli organi europei preposti alla tutela della concorrenza. Il tuttora scarso utilizzo del criterio di efficienza nello svolgimento dell’attività antitrust è motivato, a parere di chi scrive, in parte dall’eterogeneità degli obiettivi che l’Unione Europea persegue attraverso la politica della concorrenza comunitaria (completamento del mercato unico, tutela del consumatore, politica industriale, sviluppo delle aree svantaggiate), in parte dall’incapacità (o dall’impossibilità) delle autorità di effettuare coerenti analisi economiche delle singole fattispecie concrete. Anche le principali autorità nazionali mostrano una crescente propensione a tendere conto dell’efficienza nella valutazione dei casi, soprattutto con riferimento agli accordi verticali e alle concentrazioni, sulla scia della prassi comunitaria. Più innovativa nell’applicazione del criterio di efficienza economica così come nella ricerca di uso ottimale delle risorse si è finora dimostrato l’OFT, come vedremo anche nel prossimo capitolo. Al contrario sembra più lenta l’evoluzione in questo senso dell’Ufficio dei Cartelli tedesco sia a causa delle già citate caratteristiche della legge antitrust tedesca, sia a causa del persistente principio ordoliberale della prevalenza del criterio della rule of law sulla rule of reason. Peraltro, anche nei casi in cui le Autorità siano propense ad utilizzare il criterio di efficienza nelle loro valutazioni, esse si limitano generalmente ad un’analisi teorica dell’esistenza di precondizioni che consentano alle imprese in questione di ottenere guadagni di efficienza. La sussistenza di tali pre-condizioni viene infatti rilevata sulla base della capacità potenziale della condotta dell’impresa (o delle imprese) di avere un effetto positivo in termini di efficienza, nonché sulla base delle caratteristiche del mercato rilevante. Raramente, invece, si tiene conto della capacità reale dei soggetti che pongono in essere la pratica suscettibile di essere restrittiva della concorrenza di cogliere effettivamente queste opportunità, ovvero se la struttura e l’organizzazione interna dell’impresa (o delle imprese) non è in grado di mettere in pratica ciò che la teoria suggerisce a causa di sue carenza interne o comunque in ragione delle strategie che persegue. Capitolo 8 Poiché l’approccio ispirato al criterio di efficienza economica non può prescindere dalle caratteristiche del settore e del mercato in cui operano l’impresa o le imprese che hanno posto in essere la condotta sotto esame, e poiché una valutazione approfondita di tutti i settori non era effettuabile per quantità di decisioni adottate dalle autorità, ho infine ritenuto di svolgere un’analisi dettagliata dell’attività delle autorità con riferimento ad uno specifico settore. La scelta è caduta sul settore dei trasporti in quanto esso presenta alcune problematiche che intrecciano l’esigenza di efficienza con la tutela della concorrenza, nonché per la sua importanza ai fini dello sviluppo economico. Tanto più alla luce del fenomeno della crescente apertura dei mercati che ha enfatizzato la triplice funzione dei trasporti di merci, di livellamento nello spazio dei prezzi di produzione, di redistribuzione nello spazio dell’impiego dei fattori della produzione, e soprattutto di sollecitazione al miglioramento delle tecnologie utilizzate nella produzione stessa in quanto contribuiscono alla divisione territoriale del lavoro e alla specializzazione produttiva. A loro volta, d’altra parte, i miglioramenti tecnici e organizzativi intervenuti nel settore negli ultimi trenta anni hanno reso possibile il fenomeno della globalizzazione nella misura in cui lo conosciamo. Così come le riduzioni di costo e di tempo conseguite nel trasporto di persone hanno consentito massicci spostamenti di lavoratori e più in generale di capitale umano da una parte all’altra del globo, e favorito altresì la spettacolare crescita del settore turistico. Ho quindi condotto un’analisi delle decisioni antitrust relative al settore dei trasporti, suddividendo la casistica in base al comparto al quale esse si riferivano, cercando sempre di non perdere di vista i crescenti legami che esistono tra i vari comparti alla luce dell’ormai affermato fenomeno del trasporto multimodale. Dall’analisi svolta emerge innanzitutto come l’assoggettamento del settore dei trasporti alla disciplina di tutela della concorrenza sia un fenomeno relativamente recente rispetto alle altre attività economiche, laddove la ragione di tale ritardo risiede nel fatto che tradizionalmente questo settore era caratterizzato da un intervento pubblico diretto e da una pervasiva regolamentazione, a sua volta giustificata da vari fattori economici: le caratteristiche di monopolio naturale delle infrastrutture; le esigenze di servizio pubblico connesse all’erogazione di molti servizi di trasporto; il ruolo strategico svolto dal trasporto sia di persone che di merci ai fini della crescita economica di un sistema. Si concretizza, inoltre, con riferimento ai trasporti marittimi e aerei, l’inadeguatezza della dimensione nazionale e comunitaria delle autorità competenti rispetto a comportamenti di impresa che spesso hanno effetti letteralmente globali. Le imprese marittime e aeree coinvolte nelle fattispecie da noi esaminate, infatti, in molti casi predisponevano, direttamente o mediatamente, tramite “alleanze”, collegamenti tra tutte le aree del mondo, individuando nell’Europa solo un nodo di un network ben più ampio Da questa constatazione discende, a parere dello scrivente, l’impossibilità per l’autorità comunitaria e ancor più per quella nazionale di individuare tutti gli effetti in termini di efficienza che la fattispecie concreta può provocare, non includendo pertanto solo quelli evidenti sul mercato comunitario. Conseguentemente una reale applicazione del criterio di efficienza all’attività antitrust nel settore dei trasporti non può prescindere da una collaborazione tra autorità a livello mondiale sia a fini di indagine che a fini di individuazione di alcuni principi fondamentali cui ispirarsi nello svolgimento della loro missione istituzionale. Capitolo 9. Conclusioni L’opera si chiude con l’individuazione delle evidenze e degli elementi emersi dalla trattazione considerati dallo scrivente maggiormente rilevanti nell’ambito dell’attuale dibattito di economia positiva circa le principali problematiche che affiggono l’intervento antitrust con particolare riferimento al suo rispetto del criterio di efficienza. Sono state altresì proposte alcune soluzioni a quelle che sono, a parere dello scrivente, le principali carenze dell’attuale configurazione dell’intervento antitrust a livello europeo, sempre in una prospettiva di efficienza sia delle autorità competenti sia dei mercati in cui le autorità stesse cercano di mantenere o ripristinare condizioni di concorrenza effettiva. Da un lato il modello costituito dalla Commissione Europea, l’autorità antitrust comunitaria, non replicabile né esente da critiche: la Commissione, infatti, rappresenta il Governo dell’Unione Europea e come tale non può ovviamente costituire un esempio di autorità indipendente e neutrale recepibile da parte degli Stati membri. Ciò anche a prescindere dalla questione della sua legittimazione, che in questa sede non affrontiamo. Dall’altro in una prospettiva di efficienza dei mercati la crescente applicazione delle teorie economiche da parte delle autorità esaminate è rimasta a un livello astratto, senza porre la dovuta attenzione alle specificità dei mercati rilevanti né tantomeno alle dinamiche interne alle singole imprese, con particolare riferimento alla loro capacità di rendere effettivi i guadagni di efficienza individuabili a livello potenziale, così come prescrive la più recente teoria economica applicata al diritto antitrust. Sotto il profilo dell’applicazione del criterio di efficienza si può comunque affermare che l’evoluzione che ha avuto la prassi decisionale e la giurisprudenza, comunitaria e degli Stati membri, in materia antitrust è stata caratterizzata dal loro progressivo avvicinamento alle tendenze sviluppatesi nelle agencies e nella giurisprudenza statunitense a partire dagli anni’70, caratterizzate dalla valutazione degli effetti, piuttosto che della forma giuridica, dal riconoscimento del criterio di efficienza e dalla rule of reason quale approccio metodologico. L’effetto è stato quello di determinare una significativa riduzione delle differenze inizialmente emerse tra le due esperienze, nate inizialmente sotto diverse prospettive politiche. Per quanto concerne specificatamente i trasporti sono emersi sotto il profilo economico due aspetti rilevanti, oltre al perdurante ritardo con cui il processo di liberalizzazione del trasporto ferroviario che limita fortemente l’intervento antitrust nel comparto, ma che esula dalla competenza delle stesse autorità antitrust. Il primo consiste nella spesso troppo rigida separazione tra comparti adottata dalle autorità. Il secondo è l’estensivo ricorso all’essential facility doctrine nelle fattispecie riguardanti infrastrutture portuali e aeroportuali: la massimizzazione dell’efficienza dinamica consiglierebbe in questi casi una maggiore cautela, in quanto si tratta di un paradigma che, una volta applicato, disincentiva la duplicazione e l’ampliamento di tali infrastrutture autoalimentandone il carattere di essenzialità. Ciò soprattutto laddove queste infrastrutture possono essere sostituite o duplicate piuttosto facilmente da un punto di vista tecnico (meno da un punto di vista economico e giuridico), essendo esse nodi e non reti. E’stata infine sottolineata l’inadeguatezza della dimensione nazionale e comunitaria delle autorità competenti rispetto a comportamenti di impresa che con riferimento ai trasporti marittimi ed aerei hanno effetti letteralmente globali. E’ di tutta evidenza che le autorità comunitarie e tantomeno quelle nazionali non sono da sole in grado di condurre le analisi quantitative necessarie ad una valutazione di tali condotte ispirata a un criterio di efficienza che tenga conto degli effetti di lungo periodo della fattispecie concreta. Né tali autorità sono sufficientemente neutre rispetto alla nazionalità delle imprese indagate per poter giudicare sulla liceità o meno della condotta in questione senza considerare gli effetti della loro decisione sull’economia interna, rendendo così ancora più improbabile un corretto utilizzo del criterio di efficienza. Da ultimo ho constatato come l’applicazione del concetto di efficienza giuridica imporrebbe di concepire autorità antitrust del tutto nuove, sganciate quanto più possibile dall’elemento territoriale, in grado di elaborare regole e standards minimi comuni e di permettere il controllo dei comportamenti di impresa in un contesto ampliato rispetto al tradizionale mercato unico, nonchè ai singoli mercati nazionali. Il processo di armonizzazione a livello globale è difficile e il quadro che attualmente viene formato è ancora confuso e incompleto. Vi sono tuttavia sparsi segnali attraverso i quali é possibile intravedere i lineamenti di una futura global governance della concorrenza che permetterà, sperabilmente, di incrementare l’efficienza di un sistema, quello antitrust, che tanto più piccolo è l’ambito in cui opera quanto più si sta dimostrando inadeguato a svolgere il compito affidatogli. Solo il futuro, peraltro, ci consentirà di verificare la direzione di sviluppo di questi segnali.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Understanding the complex relationships between quantities measured by volcanic monitoring network and shallow magma processes is a crucial headway for the comprehension of volcanic processes and a more realistic evaluation of the associated hazard. This question is very relevant at Campi Flegrei, a volcanic quiescent caldera immediately north-west of Napoli (Italy). The system activity shows a high fumarole release and periodic ground slow movement (bradyseism) with high seismicity. This activity, with the high people density and the presence of military and industrial buildings, makes Campi Flegrei one of the areas with higher volcanic hazard in the world. In such a context my thesis has been focused on magma dynamics due to the refilling of shallow magma chambers, and on the geophysical signals detectable by seismic, deformative and gravimetric monitoring networks that are associated with this phenomenologies. Indeed, the refilling of magma chambers is a process frequently occurring just before a volcanic eruption; therefore, the faculty of identifying this dynamics by means of recorded signal analysis is important to evaluate the short term volcanic hazard. The space-time evolution of dynamics due to injection of new magma in the magma chamber has been studied performing numerical simulations with, and implementing additional features in, the code GALES (Longo et al., 2006), recently developed and still on the upgrade at the Istituto Nazionale di Geofisica e Vulcanologia in Pisa (Italy). GALES is a finite element code based on a physico-mathematical two dimensional, transient model able to treat fluids as multiphase homogeneous mixtures, compressible to incompressible. The fundamental equations of mass, momentum and energy balance are discretised both in time and space using the Galerkin Least-Squares and discontinuity-capturing stabilisation technique. The physical properties of the mixture are computed as a function of local conditions of magma composition, pressure and temperature.The model features enable to study a broad range of phenomenologies characterizing pre and sin-eruptive magma dynamics in a wide domain from the volcanic crater to deep magma feeding zones. The study of displacement field associated with the simulated fluid dynamics has been carried out with a numerical code developed by the Geophysical group at the University College Dublin (O’Brien and Bean, 2004b), with whom we started a very profitable collaboration. In this code, the seismic wave propagation in heterogeneous media with free surface (e.g. the Earth’s surface) is simulated using a discrete elastic lattice where particle interactions are controlled by the Hooke’s law. This method allows to consider medium heterogeneities and complex topography. The initial and boundary conditions for the simulations have been defined within a coordinate project (INGV-DPC 2004-06 V3_2 “Research on active volcanoes, precursors, scenarios, hazard and risk - Campi Flegrei”), to which this thesis contributes, and many researchers experienced on Campi Flegrei in volcanological, seismic, petrological, geochemical fields, etc. collaborate. Numerical simulations of magma and rock dynamis have been coupled as described in the thesis. The first part of the thesis consists of a parametric study aimed at understanding the eect of the presence in magma of carbon dioxide in magma in the convection dynamics. Indeed, the presence of this volatile was relevant in many Campi Flegrei eruptions, including some eruptions commonly considered as reference for a future activity of this volcano. A set of simulations considering an elliptical magma chamber, compositionally uniform, refilled from below by a magma with volatile content equal or dierent from that of the resident magma has been performed. To do this, a multicomponent non-ideal magma saturation model (Papale et al., 2006) that considers the simultaneous presence of CO2 and H2O, has been implemented in GALES. Results show that the presence of CO2 in the incoming magma increases its buoyancy force promoting convection ad mixing. The simulated dynamics produce pressure transients with frequency and amplitude in the sensitivity range of modern geophysical monitoring networks such as the one installed at Campi Flegrei . In the second part, simulations more related with the Campi Flegrei volcanic system have been performed. The simulated system has been defined on the basis of conditions consistent with the bulk of knowledge of Campi Flegrei and in particular of the Agnano-Monte Spina eruption (4100 B.P.), commonly considered as reference for a future high intensity eruption in this area. The magmatic system has been modelled as a long dyke refilling a small shallow magma chamber; magmas with trachytic and phonolitic composition and variable volatile content of H2O and CO2 have been considered. The simulations have been carried out changing the condition of magma injection, the system configuration (magma chamber geometry, dyke size) and the resident and refilling magma composition and volatile content, in order to study the influence of these factors on the simulated dynamics. Simulation results allow to follow each step of the gas-rich magma ascent in the denser magma, highlighting the details of magma convection and mixing. In particular, the presence of more CO2 in the deep magma results in more ecient and faster dynamics. Through this simulations the variation of the gravimetric field has been determined. Afterward, the space-time distribution of stress resulting from numerical simulations have been used as boundary conditions for the simulations of the displacement field imposed by the magmatic dynamics on rocks. The properties of the simulated domain (rock density, P and S wave velocities) have been based on data from literature on active and passive tomographic experiments, obtained through a collaboration with A. Zollo at the Dept. of Physics of the Federici II Univeristy in Napoli. The elasto-dynamics simulations allow to determine the variations of the space-time distribution of deformation and the seismic signal associated with the studied magmatic dynamics. In particular, results show that these dynamics induce deformations similar to those measured at Campi Flegrei and seismic signals with energies concentrated on the typical frequency bands observed in volcanic areas. The present work shows that an approach based on the solution of equations describing the physics of processes within a magmatic fluid and the surrounding rock system is able to recognise and describe the relationships between geophysical signals detectable on the surface and deep magma dynamics. Therefore, the results suggest that the combined study of geophysical data and informations from numerical simulations can allow in a near future a more ecient evaluation of the short term volcanic hazard.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questo lavoro di dottorato sono stati analizzati differenti strumenti impiegati per le stime di pericolosità sismica. Facendo riferimento alla Mappa di Pericolosità Sismica Italiana MPS04 (Gruppo di Lavoro MPS, 2004), redatta dall’Istituto Nazionale di Geofisica e Vulcanologia (INGV) e adottata come mappa di riferimento per il territorio nazionale ai sensi dell’Ordinanza PCM 3519 del 28 aprile 2006, All. 1b, è stato approfondito il calcolo dei tassi di sismicità attraverso la relazione di Gutenberg e Richter (1944). In particolare, si è proceduto attraverso un confronto tra i valori ottenuti dagli autori della Mappa (Gruppo di Lavoro MPS, 2004) e i valori ottenuti imponendo un valore costante e unico al parametro b della relazione (Gutenberg e Richter, 1944). Il secondo tema affrontato è stato l’analisi della presenza di eventi di origine non tettonica in un catalogo. Nel 2000 Wiemer e Baer hanno proposto un algoritmo che identifica e rimuove gli eventi di origine antropica. Alla metodologia di Wiemer e Baer (2000) sono state apportate delle modifiche al fine di limitare la rimozione di eventi naturali. Tale analisi è stata condotta sul Catalogo Strumentale della Sismicità Italiana (CSI 1.1; Castello et al., 2006) e sui cataloghi Europei disponibili online: Spagna e Portogallo, Francia, Nord Europa, Repubblica Ceca, Romania, Grecia. L’ultimo argomento trattato ha riguardato la presunta correlazione tra i meccanismi di fagliazione e il parametro b della relazione di Gutenberg e Richter (1944). Nel lavoro di Schorlemmer et al. (2005), tale correlazione è dimostrata calcolando il b-value su una griglia a scala mondiale raggruppando i terremoti in funzione dell’angolo di rake: i valori maggiori del parametro sono misurati per i terremoti che si originano in un regime distensivo, seguono quelli in un regime trascorrente mentre i valori minori si registrano nelle aree a regime compressivo. Il principale ostacolo per una applicazione del metodo al territorio italiano è rappresentato dal numero ridotto di terremoti per i quali è possibile avere indicazioni circa il meccanismo focale della sorgente: la correlazione è stata così valutata calcolando il b-value all’interno delle zone sismogenetiche definite per la realizzazione di MPS04 (Gruppo di Lavoro MPS, 2004), alle quali è stato nuovamente assegnato un meccanismo di fagliazione prevalente attraverso la somma del tensore momento. Sono inoltre allegati lavori altri lavori prodotti nell’ambito della pericolosità sismica.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La ricerca impostata considera campi disciplinari specifici e distinti, verso la loro integrazione, mirando a produrre un avanzamento relativo alla scienza della voce attraverso la pratica e lo studio della sua applicazione in campo artistico. A partire dall’analisi delle teorie novecentesche relative alla fonazione nel mondo della scena (Antonin Artaud, Stanislavskij e altri) per giungere alle acquisizioni prodotte dalle terapie corporee e vocali (Tomatis, Lowen, Wilfart in particolare), Marco Galignano ha sviluppato un percorso originale che è passato inoltre attraverso lo studio della pratica di una serie di artisti contemporanei (tra cui Baliani, Belli, Bergonzoni, Jodorowski, Hera, Lucenti e Manfredini) e di pedagoghi e terapeuti (da Serge Wilfart al maestro Paolo Zedda). Galignano ha inoltre riferito, nel suo lavoro, gli esiti della sua personale esperienza di formatore, sviluppata a Bologna all’interno di diversi Dipartimenti dell’Università Alma Mater, del Conservatorio di Musica G.B. Martini, dell’Accademia di Belle Arti e del Teatro Duse in particolare. L’obiettivo della tesi è dunque quello di fondare le basi teoriche per una rinnovata pedagogia vocale, a partire dalla possibile riscoperta del suono naturale fino a giungere alle potenzialità terapeutiche ed artistiche del linguaggio. Gli obiettivi di questo lavoro contemplano l’istituzione di una nuova modalità pedagogica, la sua diffusione attraverso una presentazione opportunamente composta e la sua inscrizione in diverse occorrenze artistiche e professionali. Molte le personalità di spicco del panorama internazionale della scienza e dell’arte della voce che hanno contribuito, negli anni, alla presente ricerca: Francesca Della Monica, insegnante di canto e performer, Tiziana Fuschini, logopedista, Franco Fussi, foniatra, Silvia Magnani, foniatra ed esperta di teatro, Gianpaolo Mignardi, logopedista, Dimitri Pasquali, pedagogo, Livio Presutti, medico chirurgo otorinolaringoiatra, Simonetta Selva, medico dello sport, Serge Wilfart, terapeuta della voce, Paolo Zedda, professore di canto in diverse realtà e Maestro di dizione al Conservatorio Nazionale di Parigi, e molti altri, oltre agli artisti citati in fondo, con le loro ricerche hanno contribuito direttamente alla redazione dell’elaborato finale, che mira a fondare le basi di una rinnovata pedagogia vocale per il teatro in Italia. La ricerca vuole infatti colmare in parte la penuria di apporti scientifici specificamente rivolti alla formazione vocale dell’attore teatrale. II lavoro vorrebbe inoltre raccogliere l’eredita di quei teorici, maestri e registi-pedagoghi che nel Novecento hanno posto le basi per la formazione dell’attore, e al tempo stesso prolungare la linea genealogica che da Stanislavskji trascorre in Grotowski, senza escludere esperienze fondate su presupposti alternativi alla formazione del repertorio vocale del performer: psicofisicità, terapie olistiche, fisica quantistica. Come accennato, una parte della ricerca è stata condotta in collaborazione col Prof. Franco Fussi, correlatore, e grazie al lavoro di redazione nel gruppo della rivista Culture Teatrali, diretto da Marco De Marinis, relatore. II percorso ha inteso infatti sviluppare alcune delle linee di ricerca aperte da Fussi virandole verso lo specifico dell’attività e del training vocale dell’attore, e ha avuto una tappa di verifica rilevante nel Convegno Internazionale di Foniatria e Logopedia “La Voce Artistica” di cui Fussi è direttore, a cui Galignano ha partecipato in veste di relatore. 1. II concetto guida del lavoro di Galignano risiede nell’idea di vibrazione e nel rapporto che questa intrattiene col suono. Il suono, per l’essere umano, costituisce la base materiale della fonazione, del linguaggio codificato comunitariamente così come dei particolari idioletti in continua evoluzione, basi della comunicazione verbale e paraverbale. Il linguaggio umano è costituito principalmente da sonorità vocale e da articolazione consonantica (rumori), e cioè composto di suoni armonici e di rumori prodotti da apparati articolari del corpo che risultano efficaci solo se integrati nel corpo da cui originano. A partire da un tentativo di definizione di salute corporea e di equilibrio psicofisico, attraverso l’analisi della rigenerazione cellulare e delle dinamiche comportamentali, Galignano definisce scientificamente la lingua parlata come emersione di codici comunicativi che originano da una schematizzazione del mondo intimo-personale del soggetto e si fondano su memorie molecolari, sull’attitudine comportamentale abituale, tra spontaneità, automatismi e capacità episodica di attenzione psicofisica. Ciò costituisce, per Galignano, la “risonanza olistica” alla base dell’efficacia comunicativa in sede pedagogica. L’argomento, che verrà sviluppato per la presentazione editoriale dell’elaborato e di cui la tesi di dottorato è solo una prima tappa in fieri, è stato sviscerato anche sulla base di nozioni di fisica classica e di fisica quantistica. Ciò senza dimenticare gli studi approfonditi sulla vocalità in ambito filosofico, da Bologna a Cavarero, da Napolitano a Zumthor. La tesi è composta attraverso una progressione che, a partire da una dichiarazione di poetica, trascorre poi verso l’analisi della fisiologia e della psicologia della voce, per approdare a una zona di approfondimento scientifico, teorico ed empirico, di una serie di metodi d’avanguardia di abilitazione e riabilitazione. In ultimo, come appendice, vengono riferiti i risultati del percorso laboratoriale condotto nel corso degli anni del dottorato di ricerca. Le esperienze sul campo maturate nell’ambito dell’attività pedagogica e laboratoriale si sono inoltre sviluppate a partire da un Progetto Strategico d’Ateneo dell’Università di Bologna intitolato “La Voce nel Corpo. La Recitazione e il Movimento Coreografico”, di cui Marco Galignano è responsabile scientifico. Un tempo specifico della tesi di dottorato è dunque composto a partire dai risultati maturati attraverso le varie azioni, laboratoriali e artistiche, che fin qui il progetto “La Voce nel Corpo” ha prodotto. In definitiva, attraverso il tessuto composto da esperienze pedagogiche, pratica artistica e ricerca scientifica, la tesi di dottorato di Galignano, work in progress, mira a comporre un sistema integrato, teorico-pratico, per l’insegnamento e la trasmissione di una specifica tecnica vocale calata nella pratica attoriale, ma utile a fini ulteriori, da quello riabilitativo fino alle tecniche di cura del sé su cui s’e appuntata la riflessione filosofica erede della teoresi artaudiana. La parte conclusiva della ricerca riguarda i suoi possibili futuri sviluppi, specifici, impostati attraverso la collaborazione, attuale, passata o in divenire, con artisti quali Marco Baliani, Matteo Belli, Alessandro Bergonzoni, Albert Hera, Michela Lucenti, Danio Manfredini e altri a cui Marco Galignano è particolarmente riconoscente.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nel trentennale dalla morte di Gianni Rodari, la tesi elabora problemi e riflessioni circa la maggiore urgenza corrente tra gli attuali studi rodariani: la necessità, per la cultura nazionale, di conferire a Gianni Rodari e alla letteratura per l’infanzia il ruolo intellettuale determinante da essi rivestito. La tesi sceglie di concentrarsi sui maggiori libri poetici e sul capolavoro teorico, la Grammatica della fantasia, utilizzando come strumenti il confronto con Gramsci, con la tradizione del folklore, con i grandi scrittori per l’infanzia dell’Inghilterra e con le altre esperienze poetiche del Novecento, discutendo Rodari da una specola esclusivamente filologica e letteraria. Parte prima: Rodari utopista. Nella prima parte Gianni Rodari viene inquadrato in un confronto diretto con l’Antonio Gramsci dei Quaderni, che aveva lucidamente individuato la separatezza tutta italiana tra classe intellettuale e mondo popolare, con conseguente inesistenza di una letteratura nazionale-popolare e di una specifica letteratura per l’infanzia. Rodari, primo intellettuale a dedicare tutto se stesso al riempimento di questa lacuna, risponde con intento sociale e politico al problema, adottando un atteggiamento che la tesi definisce utopico. Tramite una disamina del pensiero delle utopie letterarie a confronto con la tradizione popolare del paese di Cuccagna, la tesi procede all’accurato rinvenimento nell’opera di Rodari dei luoghi utopici, tutti orientati a suggerire un utilizzo dell’utopia come chiave per forzare un presente insoddisfacente e accedere a un futuro costruito da ogni individuo in prima persona. Parte seconda: Rodari poeta nonsense? Scritta in Inghilterra presso l’Istitute of Germanic and Romance Studies della University of London, la seconda e corposa parte della tesi si propone come un ampliamento della traccia gettata nel 1983 dall’articolo di Cristina Bertea Gianni Rodari in Gran Bretagna. La tesi analizza dapprima il problema del nonsense, ancora scarsamente trattato in Italia, riflettendo criticamente sulla maggiore bibliografia anglosassone che ha studiato il tema. Successivamente, mette a raffronto il lavoro linguistico che Gianni Rodari ha compiuto lungo l’arco di tutta la vita e le tecniche di composizione poetica elaborate nella Grammatica della fantasia con gli strumenti retorico-formali del nonsense individuati nell’opera di Lewis Carroll, di Edward Lear e delle nursery rhymes inglesi. Parte terza: Traccia per una mappatura della poesia per l’infanzia in Italia, a partire da Gianni Rodari. L’ultima parte della tesi si avventura alla ricerca di un percorso possibile attraverso la poesia per l’infanzia del Novecento e le sue esperienze di comicità. I capitoli si soffermano sul nonsense di Toti Scialoja e di Nico Orengo, sui precedenti di Lina Schwarz e Alfonso Gatto, sul Petel di Zanzotto, sulla poesia di soglia di Vivian Lamarque e sull’eredità della Grammatica della fantasia con particolare riferimento a Calicanto, di Ersilia Zamponi e Roberto Piumini.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In this research work I analyzed the instrumental seismicity of Southern Italy in the area including the Lucanian Apennines and Bradano foredeep, making use of the most recent seismological database available so far. I examined the seismicity occurred during the period between 2001 and 2006, considering 514 events with magnitudes M ≥ 2.0. In the first part of the work, P- and S-wave arrival times, recorded by the Italian National Seismic Network (RSNC) operated by the Istituto Nazionale di Geofisica e Vulcanologia (INGV), were re-picked along with those of the SAPTEX temporary array (2001–2004). For some events located in the Upper Val d'Agri, I also used data from the Eni-Agip oil company seismic network. I computed the VP/VS ratio obtaining a value of 1.83 and I carried out an analysis for the one-dimensional (1D) velocity model that approximates the seismic structure of the study area. After this preliminary analysis, making use of the records obtained in the SeSCAL experiment, I incremented the database by handpicking new arrival times. My final dataset consists of 15,666 P- and 9228 S-arrival times associated to 1047 earthquakes with magnitude ML ≥ 1.5. I computed 162 fault-plane solutions and composite focal mechanisms for closely located events. I investigated stress field orientation inverting focal mechanism belonging to the Lucanian Apennine and the Pollino Range, both areas characterized by more concentrated background seismicity. Moreover, I applied the double difference technique (DD) to improve the earthquake locations. Considering these results and different datasets available in the literature, I carried out a detailed analysis of single sub-areas and of a swarm (November 2008) recorded by SeSCAL array. The relocated seismicity appears more concentrated within the upper crust and it is mostly clustered along the Lucanian Apennine chain. In particular, two well-defined clusters were located in the Potentino and in the Abriola-Pietrapertosa sector (central Lucanian region). Their hypocentral depths are slightly deeper than those observed beneath the chain. I suggest that these two seismic features are representative of the transition from the inner portion of the chain with NE-SW extension to the external margin characterized by dextral strike-slip kinematics. In the easternmost part of the study area, below the Bradano foredeep and the Apulia foreland, the seismicity is generally deeper and more scattered and is associated to the Murge uplift and to the small structures present in the area. I also observed a small structure NE-SW oriented in the Abriola-Pietrapertosa area (activated with a swarm in November 2008) that could be considered to act as a barrier to the propagation of a potential rupture of an active NW-SE striking faults system. Focal mechanisms computed in this study are in large part normal and strike-slip solutions and their tensional axes (T-axes) have a generalized NE-SW orientation. Thanks to denser coverage of seismic stations and the detailed analysis, this study is a further contribution to the comprehension of the seismogenesis and state of stress of the Southern Apennines region, giving important contributions to seismotectonic zoning and seismic hazard assessment.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Di fronte al moltiplicarsi di episodi di commissariamento nella pubblica amministrazione italiana e in particolare nel settore culturale, la presente ricerca mira a comprendere gli obiettivi, le modalità di intervento ed i risultati raggiunti mediante la nomina di commissari straordinari. Si tratta di un intervento anomalo ed inusuale a livello internazionale (la stessa voce commissariamento risulta intraducibile in inglese), dove la ricerca di possibili termini di paragone, effettuata passando in rassegna la letteratura di disaster management, quella sul riaccentramento amministrativo e quella sugli interventi di turnaround nel settore pubblico, restituisce un quadro estremamente specifico del fenomeno, per lo più interno ai confini nazionali. Nello studio, caratterizzato da un forte approccio esplorativo e phenomenon driven, vengono analizzati quattro casi di commissariamento nel settore culturale italiano: due aree archeologiche (quella di Napoli e Pompei e quella di Roma e Ostia) e due Fondazioni Liriche (Teatro Carlo Felice di Genova e Arena di Verona). Dalla ricerca emerge un quadro profondamente critico delle gestioni commissariali. Gli obiettivi ambigui e l’elevata discrezionalità concessa al commissario non sono accompagnati da un’adeguata trasparenza nei processi di nomina, proroga e sostituzione dei commissari, con la prevalenza di rapporti di tipo personale o ‘feudale’. Dal punto di vista dei risultati il commissariamento non incide sulla routine dell’amministrazione ordinaria, rappresentando nel migliore dei casi una parentesi temporanea di buona gestione, o, nel peggiore, perseguendo interventi non legittimi rispetto ai valori professionali che regolano le organizzazioni analizzate. Se considerato alla luce del più generale processo di riforma in senso manageriale che ha coinvolto le istituzioni analizzate dalla fine degli anni ’90, il commissariamento esalta ed intensifica gli aspetti maggiormente critici dell’approccio italiano al New Public Management, in termini di scarsa trasparenza e accountability, elevata influenza della politica nei processi decisionali e generale incoerenza dei disegni di riforma.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La ricerca ha per oggetto il progetto del Foro Bonaparte a Milano redatto da Giovanni Antonio Antolini a seguito del decreto del 23 giugno 1800 che stabiliva l’abbattimento delle mura del Castello Sforzesco. Si affronta il tema dell’architettura avendo come obiettivo una lettura critica di tale progetto servendosi dell’analisi compositiva come strumento in grado di stabilire i rapporti che intercorrono tra la città, l’architettura e il tipo. Attraverso lo studio del progetto urbano la ricerca conferma l’ipotesi per la quale la grande forma totalizzante, perentoria e assoluta è capace di mutare la struttura urbana, offrendo un nuovo modello con cui rinnovare la città. L’ambizione di Antolini di veder realizzata l’opera è destinata a svanire nell’arco di pochi anni, ma il progetto per il Foro Bonaparte continuerà per lungo tempo ad evocare la sua idea innovativa fino ai giorni nostri. Sebbene l’opera sia destinata a rimanere un’architettura solo disegnata, le varie pubblicazioni continuano a circolare nelle accademie prima e nelle università successivamente, costituendo un importante patrimonio di studio e di ricerca per generazioni di architetti, fino alla riscoperta avvenuta con Aldo Rossi e Manfredo Tafuri negli anni sessanta del secolo scorso. Dalle lezioni formulate nelle architetture del passato è possibile avanzare nuove ipotesi e alimentare riflessioni e dibattiti sul ruolo dell’architettura nella città contemporanea. La ricerca si occupa del progetto d’architettura per offrire un ulteriore contributo al tema, attraverso una lettura di carattere compositivo, supportata da una serie di schemi e disegni di studio necessari per completare il testo e per verificare i concetti esposti. Dopo aver raccolto, catalogato ed analizzato il materiale iconografico relativo al progetto per il Foro Bonaparte si è scelto di basare il ridisegno sulla raccolta di disegni conservati presso la Biblioteca Nazionale di Francia.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesi riflette sulla necessità di un ripensamento delle scienze antropologiche nel senso di un loro uso pubblico e del loro riconoscimento al di fuori dell’accademia. Viene introdotto il dibattito sulla dimensione applicata dell’antropologia a partire dalle posizioni in campo nel panorama internazionale. Negli Stati Uniti la riflessione si sviluppa dalla proposta della public anthropology, l’antropologo pubblico si discosta dalla tradizionale figura europea di intellettuale pubblico. Alla luce delle varie posizioni in merito, la questione dell’applicazione è esaminata dal punto di vista etico, metodologico ed epistemologico. Inizialmente vengono prese in considerazione le diverse metodologie elaborate dalla tradizione dell’applied anthropology a partire dalle prime proposte risalenti al secondo dopoguerra. Successivamente viene trattata la questione del rapporto tra antropologia, potere coloniale e forze armate, fino al recente caso degli antropologi embedded nello Human Terrain System. Come contraltare vengono presentate le diverse forme di engagement antropologico che vedono ricercatori assumere diversi ruoli fino a casi estremi che li vedono divenire attivisti delle cause degli interlocutori. La questione del ruolo giocato dal ricercatore, e di quello che gli viene attribuito sul campo, viene approfondita attraverso la categoria di implication elaborata in contesto francese. Attraverso alcune esperienze di campo vengono presentate forme di intervento concreto nel panorama italiano che vogliono mettere in luce l’azione dell’antropologo nella società. Infine viene affrontato il dibattito, in corso in Italia, alla luce della crisi che sta vivendo la disciplina e del lavoro per la costituzione dell’associazione nazionale di antropologia professionale.