987 resultados para Représentation interne


Relevância:

10.00% 10.00%

Publicador:

Resumo:

The main objective of this article is to analyze an ideal of civic life, the Republic, based on the form of the sovereign state. Historically, the convergence between Republic and sovereign state has been truncated by the former's commitment to the thesis of royal absolutism. However, as the democratic issue (translated in the values of equality and pluralism) was absorbed by sovereignism, such convergence became more plausible. As viewed in this article, the theoretical bridge of that passage is the concept of political representation. The issue is thus to show in what way a certain vision of the political form (that of the state) can fit into a theory of political representation that contemplates the above-mentioned values.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

E’ stato in primo luogo definito il criterio di efficienza dal punto di vista economico (con una accenno anche ai parametri elaborati dagli studiosi di discipline aziendali), nelle sue varie accezioni, ponendo altresì ciascuna di queste in relazione alle condizioni di concorrenza perfetta. Le nozioni di efficienza che sono state definite a tal fine sono quelle di efficienza allocativa, efficienza tecnica, efficienza dinamica ed efficienza distributiva. Ciascuna di esse é stata inquadrata a livello teorico secondo le definizioni fornite dalla letteratura, esaminandone le ipotesi sottostanti. E’ stata altresì descritta, contestualizzandola temporalmente, l’evoluzione della nozione, e ne sono state evidenziate le implicazioni ai fini della ricerca della forma di mercato più “efficiente”. Sotto quest’ultimo aspetto l’attenzione dello scrivente si é incentrata sul rapporto tra le diverse accezioni di efficienza economica oggetto di analisi e la desiderabilità o meno di un regime di concorrenza perfetta. Il capitolo si conclude con una breve panoramica sulle metodologie di misurazione finalizzata ad individuare i principali parametri utilizzati per determinare il livello di efficienza, di un mercato, di un’attività produttiva o di un’impresa, posto che, come verrà specificato nel prosieguo della tesi, la valutazione di efficienza in ambito antitrust deve essere verificata, ove possibile, anche basandosi sull’evidenza empirica delle singole imprese esaminate, come richiede il criterio della rule of reason. Capitolo 2 Presupposto per avere una regolazione che persegua l’obiettivo di avere una regolazione efficiente ed efficace, è, a parere di chi scrive, anche l’esistenza di autorità pubbliche deputate a esercitare la funzione regolatoria che rispettino al proprio interno e nel proprio agire la condizione di efficienza definita rispetto ai pubblici poteri. Lo sviluppo di questa affermazione ha richiesto in via preliminare, di definire il criterio di efficienza in ambito pubblicistico individuandone in particolare l’ambito di applicazione, il suo rapporto con gli altri principi che reggono l’azione amministrativa (con particolare riferimento al criterio di efficacia). Successivamente é stato collocato nel nostro ordinamento nazionale, ponendolo in relazione con il principio di buon andamnento della Pubblica Amministrazione, benchè l’ordinamento italiano, per la sua specificità non costituisca un esempio estendibile ad ordinamenti. Anche con riferimento al criterio di efficienza pubblica, un paragrafo é stato dedicato alle metodologie di misurazione di questa, e, nello specifico sull’Analisi Costi-Benefici e sull’Analisi di Impatto della Regolazione Una volta inquadrata la definizione di efficienza pubblica, questa é stata analizzata con specifico riferimento all’attività di regolazione dell’economia svolta dai soggetti pubblici, ambito nella quale rientra la funzione antitrust. Si é provato in particolare ad evidenziare, a livello generale, quali sono i requisiti necessari ad un’autorità amministrativa antitrust, costituita e dotata di poteri ad hoc, affinché essa agisca, nella sua attività di regolazione, secondo il principio di efficienza, Il capitolo si chiude allargando l’orizzonte della ricerca verso una possibile alternativa metodologica al criterio di efficienza precedentemente definito: vi si é infatti brevemente interrogati circa lo schema interpretativo nel quale ci muoviamo, affrontando la questione definitoria del criterio di efficienza, ponendolo in relazione con l’unico modello alternativo esistente, quello sviluppatosi nella cultura cinese. Non certo per elaborare un’applicazione in “salsa cinese” del criterio di efficienza alla tutela della concorrenza, compito al quale lo scrivente non sarebbe stato in grado di ottemperare, bensì, più semplicemente per dare conto di un diverso approccio alla questione che il futuro ruolo di superpotenza economica della Cina imporrà di prendere in considerazione. Capitolo 3 Nel terzo capitolo si passa a definire il concetto di concorrenza come istituto oggetto di tutela da parte della legge antitrust, per poi descrivere la nascita e l’evoluzione di tale legislazione negli Stati Uniti e della sua applicazione, posto che il diritto antitrust statunitense ancora oggi costituisce il necessario punto di riferimento per lo studioso di questa materia. L’evoluzione del diritto antitrust statunitense é stata analizzata parallelamente allo sviluppo delle principali teorie di law and economics che hanno interpretato il diritto della concorrenza quale possibile strumento per conseguire l’obiettivo dell’efficienza economica: la Scuola di Harvard e il paradigma strutturalista, la teoria evoluzionista della Scuola Austriaca, la Scuola di Chicago; le c.d. teorie “Post-Chicago”. Nel terzo capitolo, in altri termini, si é dato conto dell’evoluzione del pensiero economico con riferimento alla sua applicazione al diritto antitrust, focalizzando l’attenzione su quanto avvenuto negli Stati Uniti, paese nel quale sono nati sia l’istituto giuridico della tutela della concorrenza sia l’analisi economica del diritto. A conclusione di questa ricostruzione dottrinale ho brevemente esaminato quelle che sono le nuove tendenze dell’analisi economica del diritto, e specificatamente la teoria del comportamento irrazionale, benché esse non abbiano ancora ricevuto applicazione al diritto antitrust. Chi scrive ritiene infatti che queste teorie avranno ricadute anche in questa materia poiché essa costituisce uno dei principali ambiti applicativi della law and economics. Capitolo 4 Nel quarto capitolo é stata effettuata una disanima della disciplina comunitaria antitrust sottolineando come l’Unione Europea si proponga attraverso la sua applicazione, soprattutto in materia di intese, di perseguire fini eterogenei, sia economici che non economici, tra loro diversi e non di rado contrastanti, e analizzando come questa eterogeneità di obiettivi abbia influito sull’applicazione del criterio di efficienza. Attenendomi in questo capitolo al dato normativo, ho innanzitutto evidenziato l’ampiezza dell’ambito di applicazione della disciplina comunitaria antitrust sia dal punto di vista soggettivo che territoriale (dottrina dell’effetto utile), sottolineando come la norma giustifichi esplicitamente il ricorso al criterio di efficienza solo nella valutazione delle intese: il comma 3 dell’art. 81 del Trattato include, infatti, tra i requisiti di una possibile esenzione dall’applicazione del divieto per le intese qualificate come restrittive della concorrenza, la possibilità di ottenere incrementi di efficienza tecnica e/o dinamica attraverso l’implementazione delle intese in questione. Tuttavia la previsione da parte dello stesso art. 81 (3) di altri requisiti che devono contemporaneamente essere soddisfatti affinché un intesa restrittiva della concorrenza possa beneficiare dell’esenzione, nonché la possibile diversa interpretazione della locuzione “progresso tecnico ed economico”, impone, o comunque ammette, il perseguimento di altri obiettivi, contestualmente a quello dell’efficienza, giustificando così quell’eterogeneità dei fini che contraddistingue la politica della concorrenza dell’Unione Europea. Se la disciplina delle intese aiuta a comprendere il ruolo del criterio di efficienza nell’applicazione dei precetti antitrust da parte degli organi comunitari, l’art. 82 del Trattato non contiene invece alcun riferimento alla possibilità di utilizzare il criterio di efficienza nella valutazione delle condotte unilaterali poste in essere da imprese in posizione dominante sul mercato rilevante. Si è peraltro dato conto della consultazione recentemente avviata dalla Commissione Europea finalizzata all’elaborazione di Linee Guida che definiscano i criteri di interpretazione che l’organo comunitario dovrà seguire nella valutazione dei comportamenti unilaterali. A parere dello scrivente, anzi, l’assenza di un preciso schema cui subordinare la possibilità di ricorrere al criterio di efficienza nella valutazione della fattispecie, attribuisce alle autorità competenti un più ampio margine di discrezionalità nell’utilizzo del suddetto criterio poiché manca il vincolo della contestuale sussistenza delle altre condizioni di cui all’art. 81(3). Per quanto concerne infine la disciplina delle concentrazioni, essa, come abbiamo visto, prevede un riferimento ai possibili incrementi di efficienza (tecnica e dinamica) derivanti da operazioni di fusione, utilizzando la nozione utilizzata per le intese, così come nel precedente Regolamento 4064/89. Si é infine analizzato il nuovo Regolamento in materia di concentrazioni che avrebbe potuto costituire l’occasione per recepire nella disciplina comunitaria l’attribuzione della facoltà di ricorrere all’efficiency defense in presenza di una fattispecie, quella della fusione tra imprese, suscettibile più di altre di essere valutata secondo il criterio di efficienza, ma che si é invece limitato a riprendere la medesima locuzione presente nell’art. 81(3). Il capitolo attesta anche l’attenzione verso l’istanza di efficienza che ha riguardato il meccanismo di applicazione della norma antitrust e non il contenuto della norma stessa; a questo profilo attiene, infatti, l’innovazione apportata dal Regolamento 1/2003 che ha permesso, a parere dello scrivente, un’attribuzione più razionale della competenza nella valutazione dei casi tra la Commissione e le autorità nazionali degli Stati membri; tuttavia pone alcune questioni che investono direttamente il tema dei criteri di valutazione utilizzati dalle autorità competenti. Capitolo 5 L’analisi del quarto capitolo é stata condotta, sebbene in forma più sintetica, con riferimento alle normative antitrust dei principali Stati membri della Comunità Europea (Germania, Gran Bretagna, Spagna, Francia e Italia), rapportando anche queste al criterio di efficienza, ove possibile. Particolare attenzione é stata dedicata ai poteri e alle competenze attribuite alle autorità nazionali antitrust oggetto di studio dall’ordinamento giuridico cui appartengono e al contesto, in termini di sistema giuridico, nel quale esse operano. Capitolo 6 Si é provato ad effettuare una valutazione del livello di efficienza delle autorità prese in esame, la Commissione e le diverse autorità nazionali e ciò con particolare riferimento alla idoneità di queste a svolgere i compiti istituzionali loro affidati (criterio di efficienza dal punto di vista giuridico): affinchè un’autorità si possa ispirare al criterio di efficienza economica nell’adozione delle decisioni, infatti, è preliminarmente necessario che essa sia idonea a svolgere il compito che le è stato affidato dall’ordinamento. In questo senso si é osservata la difficoltà dei paesi di civil law a inquadrare le autorità indipendenti all’interno di un modello, quello appunto di civil law, ispirato a una rigida tripartizione dei poteri. Da qui la difficile collocazione di queste autorità che, al contrario, costituiscono un potere “ibrido” che esercita una funzione di vigilanza e garanzia non attribuibile integralmente né al potere esecutivo né a quello giurisdizionale. Si rileva inoltre una certa sovrapposizione delle competenze e dei poteri tra autorità antitrust e organi ministeriali, in particolare nel campo delle concentrazioni che ingenera un rischio di confusione e bassa efficienza del sistema. Mantenendo, infatti, un parziale controllo politico si rischia, oltre all’introduzione di criteri di valutazione politica che prescindono dagli effetti delle fattispecie concrete sul livello di concorrenza ed efficienza del mercato, anche di dare luogo a conflitti tra le diverse autorità del sistema che impediscano l’adozione e l’implementazione di decisioni definitive, incrementando altresì i costi dell’intervento pubblico. Un giudizio a parte è stato infine formulato con riguardo alla Commissione Europea, istituzione, in quanto avente caratteristiche e poteri peculiari. Da un lato l’assenza di vincolo di mandato dei Commissari e l’elevata preparazione tecnica dei funzionari costituiscono aspetti che avvicinano la Commissione al modello dell’autorità indipendenti, e l’ampiezza dei poteri in capo ad essa le permette di operare efficientemente grazie anche alla possibilità di valersi dell’assistenza delle autorità nazionali. Dall’altra parte, tuttavia la Commissione si caratterizza sempre di più come un organo politico svolgente funzioni esecutive, di indirizzo e di coordinamento che possono influenzare gli obiettivi che essa persegue attraverso l’attività antitrust, deviandola dal rispetto del criterio di efficienza. Capitolo 7 Una volta definito il contesto istituzionale di riferimento e la sua idoneità a svolgere la funzione affidatagli dall’ordinamento comunitario, nonché da quelli nazionali, si è proceduto quindi all’analisi delle decisioni adottate da alcune delle principali autorità nazionali europee competenti ad applicare la disciplina della concorrenza dal punto di vista dell’efficienza. A tal fine le fattispecie rilevanti a fini antitrust dal punto di vista giuridico sono state classificate utilizzando un criterio economico, individuando e definendo quelle condotte che presentano elementi comuni sotto il profilo economico e per ciascuna di esse sono state inquadrate le problematiche rilevanti ai fini dell’efficienza economica sulla scorta dei contributi teorici e delle analisi empiriche svolte dalla letteratura. 6 Con riferimento a ciascuna condotta rilevante ho esaminato il contenuto di alcune delle decisioni antitrust più significative e le ho interpretate in base al criterio di efficienza. verificando se e in quale misura le autorità antitrust prese in esame utilizzano tale criterio, cercando altresì di valutare l’evoluzione dei parametri di valutazione occorsa nel corso degli anni. Le decisioni analizzate sono soprattutto quelle adottate dalla Commissione e le eventuali relative sentenze della Corte di Giustizia Europea; ciò sia per la maggior rilevanza dei casi trattati a livello comunitario, sia in quanto le autorità nazionali, con qualche rara eccezione, si conformano generalmente ai criteri interpretativi della Commissione. Riferimenti a decisioni adottate dalle autorità nazionali sono stati collocati allorquando i loro criteri interpretativi si discostino da quelli utilizzati dagli organi comunitari. Ne è emerso un crescente, anche se ancora sporadico e incostante, ricorso al criterio di efficienza da parte degli organi europei preposti alla tutela della concorrenza. Il tuttora scarso utilizzo del criterio di efficienza nello svolgimento dell’attività antitrust è motivato, a parere di chi scrive, in parte dall’eterogeneità degli obiettivi che l’Unione Europea persegue attraverso la politica della concorrenza comunitaria (completamento del mercato unico, tutela del consumatore, politica industriale, sviluppo delle aree svantaggiate), in parte dall’incapacità (o dall’impossibilità) delle autorità di effettuare coerenti analisi economiche delle singole fattispecie concrete. Anche le principali autorità nazionali mostrano una crescente propensione a tendere conto dell’efficienza nella valutazione dei casi, soprattutto con riferimento agli accordi verticali e alle concentrazioni, sulla scia della prassi comunitaria. Più innovativa nell’applicazione del criterio di efficienza economica così come nella ricerca di uso ottimale delle risorse si è finora dimostrato l’OFT, come vedremo anche nel prossimo capitolo. Al contrario sembra più lenta l’evoluzione in questo senso dell’Ufficio dei Cartelli tedesco sia a causa delle già citate caratteristiche della legge antitrust tedesca, sia a causa del persistente principio ordoliberale della prevalenza del criterio della rule of law sulla rule of reason. Peraltro, anche nei casi in cui le Autorità siano propense ad utilizzare il criterio di efficienza nelle loro valutazioni, esse si limitano generalmente ad un’analisi teorica dell’esistenza di precondizioni che consentano alle imprese in questione di ottenere guadagni di efficienza. La sussistenza di tali pre-condizioni viene infatti rilevata sulla base della capacità potenziale della condotta dell’impresa (o delle imprese) di avere un effetto positivo in termini di efficienza, nonché sulla base delle caratteristiche del mercato rilevante. Raramente, invece, si tiene conto della capacità reale dei soggetti che pongono in essere la pratica suscettibile di essere restrittiva della concorrenza di cogliere effettivamente queste opportunità, ovvero se la struttura e l’organizzazione interna dell’impresa (o delle imprese) non è in grado di mettere in pratica ciò che la teoria suggerisce a causa di sue carenza interne o comunque in ragione delle strategie che persegue. Capitolo 8 Poiché l’approccio ispirato al criterio di efficienza economica non può prescindere dalle caratteristiche del settore e del mercato in cui operano l’impresa o le imprese che hanno posto in essere la condotta sotto esame, e poiché una valutazione approfondita di tutti i settori non era effettuabile per quantità di decisioni adottate dalle autorità, ho infine ritenuto di svolgere un’analisi dettagliata dell’attività delle autorità con riferimento ad uno specifico settore. La scelta è caduta sul settore dei trasporti in quanto esso presenta alcune problematiche che intrecciano l’esigenza di efficienza con la tutela della concorrenza, nonché per la sua importanza ai fini dello sviluppo economico. Tanto più alla luce del fenomeno della crescente apertura dei mercati che ha enfatizzato la triplice funzione dei trasporti di merci, di livellamento nello spazio dei prezzi di produzione, di redistribuzione nello spazio dell’impiego dei fattori della produzione, e soprattutto di sollecitazione al miglioramento delle tecnologie utilizzate nella produzione stessa in quanto contribuiscono alla divisione territoriale del lavoro e alla specializzazione produttiva. A loro volta, d’altra parte, i miglioramenti tecnici e organizzativi intervenuti nel settore negli ultimi trenta anni hanno reso possibile il fenomeno della globalizzazione nella misura in cui lo conosciamo. Così come le riduzioni di costo e di tempo conseguite nel trasporto di persone hanno consentito massicci spostamenti di lavoratori e più in generale di capitale umano da una parte all’altra del globo, e favorito altresì la spettacolare crescita del settore turistico. Ho quindi condotto un’analisi delle decisioni antitrust relative al settore dei trasporti, suddividendo la casistica in base al comparto al quale esse si riferivano, cercando sempre di non perdere di vista i crescenti legami che esistono tra i vari comparti alla luce dell’ormai affermato fenomeno del trasporto multimodale. Dall’analisi svolta emerge innanzitutto come l’assoggettamento del settore dei trasporti alla disciplina di tutela della concorrenza sia un fenomeno relativamente recente rispetto alle altre attività economiche, laddove la ragione di tale ritardo risiede nel fatto che tradizionalmente questo settore era caratterizzato da un intervento pubblico diretto e da una pervasiva regolamentazione, a sua volta giustificata da vari fattori economici: le caratteristiche di monopolio naturale delle infrastrutture; le esigenze di servizio pubblico connesse all’erogazione di molti servizi di trasporto; il ruolo strategico svolto dal trasporto sia di persone che di merci ai fini della crescita economica di un sistema. Si concretizza, inoltre, con riferimento ai trasporti marittimi e aerei, l’inadeguatezza della dimensione nazionale e comunitaria delle autorità competenti rispetto a comportamenti di impresa che spesso hanno effetti letteralmente globali. Le imprese marittime e aeree coinvolte nelle fattispecie da noi esaminate, infatti, in molti casi predisponevano, direttamente o mediatamente, tramite “alleanze”, collegamenti tra tutte le aree del mondo, individuando nell’Europa solo un nodo di un network ben più ampio Da questa constatazione discende, a parere dello scrivente, l’impossibilità per l’autorità comunitaria e ancor più per quella nazionale di individuare tutti gli effetti in termini di efficienza che la fattispecie concreta può provocare, non includendo pertanto solo quelli evidenti sul mercato comunitario. Conseguentemente una reale applicazione del criterio di efficienza all’attività antitrust nel settore dei trasporti non può prescindere da una collaborazione tra autorità a livello mondiale sia a fini di indagine che a fini di individuazione di alcuni principi fondamentali cui ispirarsi nello svolgimento della loro missione istituzionale. Capitolo 9. Conclusioni L’opera si chiude con l’individuazione delle evidenze e degli elementi emersi dalla trattazione considerati dallo scrivente maggiormente rilevanti nell’ambito dell’attuale dibattito di economia positiva circa le principali problematiche che affiggono l’intervento antitrust con particolare riferimento al suo rispetto del criterio di efficienza. Sono state altresì proposte alcune soluzioni a quelle che sono, a parere dello scrivente, le principali carenze dell’attuale configurazione dell’intervento antitrust a livello europeo, sempre in una prospettiva di efficienza sia delle autorità competenti sia dei mercati in cui le autorità stesse cercano di mantenere o ripristinare condizioni di concorrenza effettiva. Da un lato il modello costituito dalla Commissione Europea, l’autorità antitrust comunitaria, non replicabile né esente da critiche: la Commissione, infatti, rappresenta il Governo dell’Unione Europea e come tale non può ovviamente costituire un esempio di autorità indipendente e neutrale recepibile da parte degli Stati membri. Ciò anche a prescindere dalla questione della sua legittimazione, che in questa sede non affrontiamo. Dall’altro in una prospettiva di efficienza dei mercati la crescente applicazione delle teorie economiche da parte delle autorità esaminate è rimasta a un livello astratto, senza porre la dovuta attenzione alle specificità dei mercati rilevanti né tantomeno alle dinamiche interne alle singole imprese, con particolare riferimento alla loro capacità di rendere effettivi i guadagni di efficienza individuabili a livello potenziale, così come prescrive la più recente teoria economica applicata al diritto antitrust. Sotto il profilo dell’applicazione del criterio di efficienza si può comunque affermare che l’evoluzione che ha avuto la prassi decisionale e la giurisprudenza, comunitaria e degli Stati membri, in materia antitrust è stata caratterizzata dal loro progressivo avvicinamento alle tendenze sviluppatesi nelle agencies e nella giurisprudenza statunitense a partire dagli anni’70, caratterizzate dalla valutazione degli effetti, piuttosto che della forma giuridica, dal riconoscimento del criterio di efficienza e dalla rule of reason quale approccio metodologico. L’effetto è stato quello di determinare una significativa riduzione delle differenze inizialmente emerse tra le due esperienze, nate inizialmente sotto diverse prospettive politiche. Per quanto concerne specificatamente i trasporti sono emersi sotto il profilo economico due aspetti rilevanti, oltre al perdurante ritardo con cui il processo di liberalizzazione del trasporto ferroviario che limita fortemente l’intervento antitrust nel comparto, ma che esula dalla competenza delle stesse autorità antitrust. Il primo consiste nella spesso troppo rigida separazione tra comparti adottata dalle autorità. Il secondo è l’estensivo ricorso all’essential facility doctrine nelle fattispecie riguardanti infrastrutture portuali e aeroportuali: la massimizzazione dell’efficienza dinamica consiglierebbe in questi casi una maggiore cautela, in quanto si tratta di un paradigma che, una volta applicato, disincentiva la duplicazione e l’ampliamento di tali infrastrutture autoalimentandone il carattere di essenzialità. Ciò soprattutto laddove queste infrastrutture possono essere sostituite o duplicate piuttosto facilmente da un punto di vista tecnico (meno da un punto di vista economico e giuridico), essendo esse nodi e non reti. E’stata infine sottolineata l’inadeguatezza della dimensione nazionale e comunitaria delle autorità competenti rispetto a comportamenti di impresa che con riferimento ai trasporti marittimi ed aerei hanno effetti letteralmente globali. E’ di tutta evidenza che le autorità comunitarie e tantomeno quelle nazionali non sono da sole in grado di condurre le analisi quantitative necessarie ad una valutazione di tali condotte ispirata a un criterio di efficienza che tenga conto degli effetti di lungo periodo della fattispecie concreta. Né tali autorità sono sufficientemente neutre rispetto alla nazionalità delle imprese indagate per poter giudicare sulla liceità o meno della condotta in questione senza considerare gli effetti della loro decisione sull’economia interna, rendendo così ancora più improbabile un corretto utilizzo del criterio di efficienza. Da ultimo ho constatato come l’applicazione del concetto di efficienza giuridica imporrebbe di concepire autorità antitrust del tutto nuove, sganciate quanto più possibile dall’elemento territoriale, in grado di elaborare regole e standards minimi comuni e di permettere il controllo dei comportamenti di impresa in un contesto ampliato rispetto al tradizionale mercato unico, nonchè ai singoli mercati nazionali. Il processo di armonizzazione a livello globale è difficile e il quadro che attualmente viene formato è ancora confuso e incompleto. Vi sono tuttavia sparsi segnali attraverso i quali é possibile intravedere i lineamenti di una futura global governance della concorrenza che permetterà, sperabilmente, di incrementare l’efficienza di un sistema, quello antitrust, che tanto più piccolo è l’ambito in cui opera quanto più si sta dimostrando inadeguato a svolgere il compito affidatogli. Solo il futuro, peraltro, ci consentirà di verificare la direzione di sviluppo di questi segnali.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’analisi condotta nella tesi mira ad indagare le determinanti del debito delle piccole e medie imprese italiane: la domanda di ricerca è indirizzata a capire se la struttura finanziaria di queste ultime segue i modelli teorici sviluppati nell’ambito della letteratura di Corporate Finance o se, d’altro canto, non sia possibile prescindere dalle peculiarità delle piccole e medie imprese per spiegare il ricorso alle diverse fonti di finanziamento. La ricerca empirica effettuata nella dissertazione vuole essere un tentativo di coniugare le teorie di riferimento e le evidenze empiriche relative alle piccole e medie imprese italiane, analizzandone il comportamento attraverso lo studio del campione di dati fornito da Capitalia, relativo alla Nona Indagine per il periodo 2001-2003. Il campione in oggetto fa riferimento a circa 4000 imprese con più di 10 addetti, prevalentemente del settore manifatturiero. Per indagare le determinanti del debito nelle sue componenti più tradizionali, si sono prese in considerazione il debito commerciale e il debito bancario a breve termine come forme di finanziamento correnti mentre, tra le forme di finanziamento di medio-lungo periodo, le variabili usate sono state il ricorso al debito bancario a lungo termine e a strumenti obbligazionari. Inoltre, si è ricorso anche a misure più tradizionali di leva finanziaria, quali il rapporto di indebitamento, la proporzione tra debiti bancari, sia di breve che di lungo periodo, e l’ammontare dei finanziamenti esterni rispetto al valore dell’impresa, distinguendo anche qui, tra finanziamenti a breve e a lungo termine. L’analisi descrittiva ha mostrato il massiccio ricorso al debito bancario e, in generale, alle forme di indebitamento a breve. Le imprese di dimensioni minori, più giovani e opache tendono a ricorrere alle fonti interne e a forme di indebitamento a breve, mentre le imprese maggiormente dimensionate mostrano una struttura del debito più articolata. Questo ha suggerito la definizione di una diversa misura di debito, che tiene conto della complessità della sua struttura all’interno delle imprese, in base ad un ricorso di tipo gerarchico alle fonti di finanziamento: il grado di complessità dipende dalle tipologie e dalla quantità dei contratti di debito conclusi dall’impresa . E’ plausibile pensare che le imprese ricorrano prima alle fonti interne di finanziamento, perché prive di costi, e poi all’indebitamento nei confronti di diversi stakeholders: rispetto alla prossimità e alla facilità dell’ottenimento del finanziamento, è sembrato naturale pensare che un’impresa ricorra dapprima al debito commerciale, poi al debito bancario e solo infine all’emissione di obbligazioni, in un ordine gerarchico. Ne consegue che se un’impresa (non) ha contratto debiti con fornitori, banche e mercato, la complessità della struttura del suo debito è massima (nulla). L’analisi econometrica successiva è stata indirizzata in tre direzioni. In primis, l’analisi longitudinale dei dati è stata volta ad evidenziare se la struttura finanziaria delle PMI risponde ad un particolare modello teorico, in accordo con le teoria tradizionali di riferimento. In secondo luogo, l’analisi delle determinanti si è allargata allo studio degli aspetti peculiari delle imprese medio-piccole. Infine, si è indagato se, nell’ambito delle imprese di dimensioni minori, si osservano comportamenti omogenei oppure se determinate scelte nelle fonti di finanziamento sono da ricondurre all’esistenza di alcuni vincoli. Quindi, partendo dalla rassegna dei principali riferimenti nella letteratura, costituiti dalla Trade-off theory (Modigliani e Miller, 1963, De Angelo e Masulis, 1980, Miller, 1977), dalla Pecking order theory (Myers 1984, Myers e Majluf, 1984) e dalla Financial growth cycle theory (Berger e Udell, 1998), una prima serie di analisi econometriche è stata rivolta alla verifica empirica delle teorie suddette. Una seconda analisi mira, invece, a capire se il comportamento delle imprese possa essere spiegato anche da altri fattori: il modello del ciclo di vita dell’impresa, mutuato dalle discipline manageriali, così come il contesto italiano e la particolarità del rapporto bancaimpresa, hanno suggerito l’analisi di altre determinanti al ricorso delle diverse fonti di debito. Di conseguenza, si sono usate delle opportune analisi econometriche per evidenziare se la struttura proprietaria e di controllo dell’impresa, il suo livello di complessità organizzativa possano incidere sulla struttura del debito delle imprese. Poi, si è indagato se il massiccio ricorso al debito bancario è spiegato dalle peculiarità del rapporto banca-impresa nel nostro Paese, rintracciabili nei fenomeni tipici del relationship lending e del multiaffidamento. Ancora, si sono verificati i possibili effetti di tale rapporto sulla complessità della struttura del debito delle imprese. Infine, l’analisi della letteratura recente sulla capital structure delle imprese, l’approccio sviluppato da Fazzari Hubbard e Petersen (1988) e Almeida e Campello (2006 , 2007) ha suggerito un ultimo livello di analisi. La presenza di vincoli nelle decisioni di finanziamento, legati essenzialmente alla profittabilità, alla dimensione delle imprese, alle sue opportunità di crescita, e alla reputazione verso l’esterno, secondo la letteratura recente, è cruciale nell’analisi delle differenze sistematiche di comportamento delle imprese. Per di più, all’interno del lavoro di tesi, così come in Almeida e Campello (2007), si è ipotizzato che la propensione agli investimenti possa essere considerata un fattore endogeno rispetto alla struttura del debito delle imprese, non esogeno come la letteratura tradizionale vuole. Per questo motivo, si è proceduto ad un ultimo tipo di analisi econometrica, volta a rilevare possibili differenze significative nel comportamento delle imprese rispetto al ricorso alle fonti di finanziamento a titolo di debito: nel caso in cui esse presentino una dimensione contenuta, una bassa redditività e una scarsa reputazione all’esterno infatti, vi dovrebbe essere un effetto di complementarietà tra fonti interne ed esterne. L’effetto sarebbe tale per cui non sussisterebbe, o per lo meno non sarebbe significativa, una relazione negativa tra fonti interne ed esterne. Complessivamente, i risultati delle analisi empiriche condotte, supportano sia le teorie classiche di riferimento nell’ambito della disciplina della Corporate finance, sia la teoria proposta da Berger e Udell (1998): le variabili che risultano significative nella spiegazione della struttura del debito sono principalmente quelle relative alla dimensione, all’età, al livello e alla qualità delle informazioni disponibili. Inoltre, il ricorso a fonti interne risulta essere la primaria fonte di finanziamento, seguita dal debito. Il ricorso a fonti esterne, in particolare al debito bancario, aumenta quanto più l’impresa cresce, ha una struttura solida e la capacità di fornire delle garanzie, e ha una reputazione forte. La struttura del debito, peraltro, diventa più complessa all’aumentare della dimensione, dell’età e del livello di informazioni disponibili. L’analisi della struttura proprietaria e della componente organizzativa all’interno delle imprese ha evidenziato principalmente che la struttura del debito aumenta di complessità con maggiore probabilità se la proprietà è diffusa, se vi è un management indipendente e se la piramide organizzativa è ben definita. Relativamente al rapporto banca-impresa, i principali risultati mostrano che l’indebitamento bancario sembra essere favorito dai fenomeni di relationship lending e dal multiaffidamento. Tali peculiarità assumono tratti diversi a seconda della fase del ciclo di vita delle imprese della Nona Indagine. Infine, per quanto attiene all’ultima tipologia di analisi condotta, le evidenze empiriche suggeriscono che le piccole e medie imprese possano essere soggette a delle restrizioni che si riflettono nell’ambito delle loro politiche di investimento. Tali vincoli, relativi alla dimensione, ai profitti conseguiti e alla reputazione all’esterno, aiutano a spiegare le scelte di finanziamento delle PMI del campione.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il lavoro svolto nella presente tesi di laurea si sviluppa all’interno del progetto di ricerca europeo SmooHs (Smart Monitoring of Historic Structures-Monitoraggio intelligente di edifici e strutture storiche) nell’ambito del 7 Programma Quadro della Commissione Europea. Gli edifici storici sono caratterizzati da elementi architettonici, materiali e soluzioni progettuali uniche e pertanto da valorizzare. Al fine si salvaguardare tali beni storici si richiede una conoscenza approfondita dei processi di deterioramento, legati spesso a fattori ambientali, e una loro rilevazione immediata. Il monitoraggio continuo dei possibili parametri che influenzano i suddetti processi può contribuire significativamente, ma un’applicazione estesa di questa tecnica è finora fallita a causa dei costi elevati di sistemi completi di monitoraggio; per questo sono stati osservati solitamente pochi parametri. L’obiettivo del progetto prevede lo sviluppo di strumenti di monitoraggio e diagnostica competitivi per gli specialisti nel settore che vada al di là del mero accumulo di dati. La normativa, in particolare le Linee Guida per l’applicazione al patrimonio culturale della normativa tecnica di cui all’Ordinanza PCM-3274 del 2005, evidenziano l’importanza di raggiungere un elevato livello di informazione dell’oggetto e del suo comportamento strutturale attraverso un percorso conoscitivo pluriramificato. “Si ha pertanto la necessità di affinare tecniche di analisi ed interpretazione dei manufatti storici mediante fasi conoscitive dal diverso grado di attendibilità, anche in relazione al loro impatto. La conoscenza può infatti essere conseguita con diversi livelli di approfondimento, in funzione dell’accuratezza delle operazioni di rilievo, delle ricerche storiche e delle indagini sperimentali” (Linee guida per l’applicazione all patrimonio culturale della normativa tecnica di cui all’ordinanza PCM-3274, 2005). Per quanto riguarda la caratterizzazione meccanica dei materiali, la normativa cita “Tecniche diagnostiche non distruttive di tipo indiretto, quali prove soniche ed ultrasoniche, consentono di valutare l’omogeneità dei parametri meccanici nelle diverse parti della costruzione, ma non forniscono stime quantitative attendibili dei loro valori, in quanto essi vengono desunti dalla misura di altre grandezze”. Non viene identificata una procedura univoca di prove non distruttive per ciascuna tipologia edilizia, pertanto ci domandiamo quale sia la procedura più idonea da utilizzare, considerando il tipo di risultato che si vuole ottenere. Si richiedono quindi degli studi di fattibilità di diverse tecniche non distruttive, soprattutto tecniche per immagini che diano un risultato più immediato da comprendere. Per questo scopo è stato impostato un programma di ricerca per valutare l’efficacia di una tecnica non distruttiva, la tomografia sonica, su provini in muratura costruiti nei laboratori del LaRM (Laboratorio di Resistenza dei Materiali del DISTART dell’Università di Bologna), reputando questa la strada da percorrere verso una diagnostica strutturale sempre più dettagliata. I provini in muratura di laterizio PNDE e PNDF, presentano al loro interno dei difetti (in polistirolo espanso) di geometria e posizione nota e diverse tessiture murarie (muratura di laterizio tradizionale e muratura a sacco). Nel capitolo 2 vengono descritte le caratteristiche e le basi teoriche delle prove soniche e di altre tecniche non distruttive, al fine di poterne fare un confronto. La tomografia sonica è definita e sono illustrate le sue peculiarità; vengono inoltre riportati alcuni esempi di applicazioni della stessa su strutture storiche lignee e murarie. Nel capitolo 3 sono presentati i provini oggetto di studio ed introdotto qualche accenno sulla natura delle murature di laterizio. Sono specificati i corsi e le sezioni verticali sui quali viene sperimentata la tomografia; essi hanno precise caratteristiche che permettono di eseguire una sperimentazione mirata all’individuazione di anomalie in una sezione e al riconoscimento di diverse tessiture murarie. Nel capitolo 4 è illustrata la procedura di acquisizione dei dati in laboratorio e di rielaborazione degli stessi nella fase di post-processing. Dopo aver scelto, in base alla risoluzione, la distanza che intercorre tra le stazioni di misura, sono stati progettati i vari percorsi uscenti da ogni stazione trasmittente, andando a definire i ray-paths delle sezioni sia orizzontali che verticali. I software per il calcolo dei tempi di volo (in ambiente LabView) e per l’inversione degli stessi (Geotom) sono presentati e vengono definite le istruzioni per l’utilizzo. Il capitolo 5 assieme al capitolo 6, mostra i risultati ottenuti dall’inversione dei tempi di volo. Per i diversi corsi orizzontali e sezioni verticali sono riportate le mappe di velocità ottenute al variare di diversi parametri di settaggio impostati nel software tomografico. Le immagini tomografiche evidenziano le caratteristiche interne delle sezioni studiate, in base alla risoluzione geometrica della tecnica. Nel capitolo 7 e 8 sono mostrati i risultati delle prove soniche dirette applicate sia sui corsi verticali sia sulle sezioni verticali. Le stazioni di misura considerate sono le stesse utilizzate per la tomografia. Il capitolo 9 riporta il confronto tra le mappe di velocità prodotte dalla tomografia sonica e gli istogrammi delle velocità registrate nelle prove soniche dirette. Si evidenziano le differenze nell’individuazione di difetti tra due metodologie differenti. Infine sono riportate le conclusioni sul lavoro svolto. I limiti e i vantaggi della tecnica tomografica vengono desunti dai risultati ottenuti per varie tipologie di sezioni, a confronto anche con risultati di prove soniche dirette. Ciò ci porta a definire la fattibilità di utilizzo della tomografia sonica nella diagnosi delle strutture in muratura.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La presente Tesi di Laurea Specialistica considera, partendo da un'analisi della normativa vigente e delle procedure aziendali interne, il Sistema di Gestione Integrato Qualità  Sicurezza Ambiente (SGI QSA) di HERA SpA con particolare attenzione alle tematiche relative alla Prevenzione e Protezione sul luogo di lavoro in riferimento al Testo Unico sulla sicurezza (D.Lgs 81/2008) . Nello specifico, l'elaborato si basa sull'esperienza maturata durante cinque mesi di stage effettuati presso l'ufficio "Servizio Prevenzione e Protezione" della Struttura Operativa Territoriale (SOT) Bologna. Durante la mia permanenza in HERA SpA, ho avuto modo di osservare e prendere parte alle attività  quotidianamente svolte sia in ufficio che presso gli impianti dislocati nel territorio della provincia di Bologna con particolare riguardo alla raccolta, gestione e fruibilità  dei dai inerenti la sicurezza dei luoghi di lavoro. Nell'ambito dello stage, ho avuto anche la possibilità , estremamente formativa, di prendere visione dei processi, delle tecnologie e delle modalità  operative sottostanti l'erogazione di servizi da parte di una Multiutility; acquisire consapevolezza e know how in merito alle energie messe in campo per effettuare attività  quali la raccolta e lo smaltimento di rifiuti piuttosto che rendere disponibile alle utenze la fornitura di acqua e gas. Ritengo che questo possa darmi un valore aggiunto sia da un punto di vista professionale che da un punto di vista umano. Scopo primario di questa trattazione è effettuare l'istantanea di un'azienda complessa e in rapida evoluzione come HERA a partire della Salute e Sicurezza dei Lavoratori con l'obiettivo di indicare le attività  eseguite durante lo stage e il contributo fornito allo sviluppo e al mantenimento del SGS (Sistema di Gestione per la Salute e la sicurezza). Per meglio evidenziare la diversa natura delle informazioni riportate, l'elaborato risulta diviso in due parti fondamentali: La I PARTE riguarda lo studio della normativa che regola il settore con particolare riferimento al TUSL Testo Unico per la Sicurezza sui Luoghi di Lavoro (norma vigente in Italia) e allo standard britannico OHSAS 18001 a cui possono fare riferimento le organizzazioni che intendono certificare il proprio sistema di gestione in materia di sicurezza. In seguito si andranno ad analizzare le norme ISO 9001e ISO14001 che riguardano rispettivamente la possibilità  di certificare il proprio sistema di gestione in merito a Qualità  del servizio e tutela dell'Ambiente. Infine saranno proposte alcune riflessioni riguardanti la necessità  di sviluppare un sistema di gestione integrato e certificato che permetta di avere una visione unitaria di Qualità  Sicurezza e Ambiente. Nella II PARTE si entrerà  nel merito delle attività  svolte dall'ufficio Prevenzione e Protezione: a partire dalle procedure aziendali che fungono da punto di contatto fra gli obblighi normativi e la necessità  di regolare l'operatività  dei lavoratori, saranno descritte le mansioni che mi sono state affidate e le attività  svolte durante lo stage.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il mio elaborato finale si chiama “Restauro tra storia e progetto”, in cui rimetto a sistema, quanto appreso nelle materie di restauro, partendo dal laboratorio di restauro, dove la Prof. Antonella Ranaldi ci ha fatto trattare il complesso monumentale dell’ex convento di Sant’ Agostino a Cesena. Partendo da una lunga ricerca bibliografica, abbiamo individuato gli interventi da effettuare sul prospetto lungo via delle Mura di Sant’ Agostino ed effettuato il rilievo che ci ha permesso l’elaborazione del progetto. Gli interventi realizzati nel corso dei secoli costituiscono un esempio inquietante perchè se pure con esiti diversi ed in parte anche positivi, hanno però complessivamente portato alla situazione attuale, ormai compromessa per la definitiva perdita di molte interessanti tracce storiche. Data l'impossibilità di restituire al prospetto la sua immagine originaria abbiamo deciso di effettuare la sagramatura, che ha cancellato le stratificazioni che si sono succedute nei vari periodi storici. Abbiamo dato al prospetto una nuova immagine, riportando il prospetto ad un periodo storico non esattamente datato. L'illuminazione di questa preziosa facciata ha voluto essere un elemento discreto, capace di porre in risalto gli elementi architettonici e consentire, anche al calare del sole, un'intensa esperienza emotiva. In ogni caso si vuole evitare una scenografia serale eccessiva o artificiosa , e illuminare la facciata in maniera uniforme. Per fare questo si sono scelti apparecchi di illuminazione dotati di ottica asimmetrica, in modo da indirizzare il fascio di luce solo sulle superfici da illuminare e di ridurre così al minimo l'inquinamento luminoso. L'illuminazione omogenea della facciata in mattoni avviene attraverso riflettori con ottica larga, vetro allungante in verticale e schermo antiabbagliamento, posizionati su appositi pali (due pezzi per palo, paralleli alla facciata) situati dall'altra parte della strada di via delle mura. Mentre le lesene e il basamento sono illuminati da riflettori con condensatore ottico incassati nel terreno o nascosti nella parte superiore della cornice, con distribuzione della luce per un'altezza di circa 7 metri. Si è scelto di utilizzare sorgenti a luce bianca per mettere in risalto i materiali della facciata, senza alterarne i colori già di per se saturi. Abbiamo previsto nonostante lo stato di degrado, di recuperare il portone e le porte. Le parti mancanti vengono integrate con parti in legno della stessa essenza. Tutte le forature verranno poi tamponate con adeguati stucchi. Si ritiene fondamentale, in termini di restauro conservativo, mantenere ogni elemento che ancora sia in grado di svolgere la sua funzione. E' evidente in facciata il filo dell'impianto elettrico. E' stato pensato di farlo scorrere all'interno di una canalina, di dimensioni 4,5 x 7 cm, posizionata sopra il cornicione, nascosta alla vista del prospetto. Le gronde e i pluviali sono stati sostituiti durante l'ultimo intervento di rifacimento delle coperture, tuttavia non è stato studiato un posizionamento adeguato dei pluviali. Infatti, alcuni di questi, sopratutto quelli del prospetto principale sono posizionati senza alcun ordine. In alcuni casi i pluviali risultano essere scarsi con conseguente allagamento delle gronde e colate di acqua piovana sul muro. Nel nostro progetto si prevede di posizionare gli scarichi delle gronde sui lati, in maniera tale da non ostruire la facciata, inoltre vengono aumentati i pluviali per la gronda più alta. La seconda parte riguarda il restauro del borgo di Castelleale, che abbiamo trattato con il Prof. Andrea Ugolini nel laboratorio di sintesi finale. Il tema del corso ha previsto una prima fase di studio comprendente la ricerca storica e bibliografica, l’inquadramento dell’oggetto nel contesto urbano, la redazione delle piante di fase e ricostruzioni planivolumetriche nelle varie fasi storiche. Nella seconda fase abbiamo effettuato il rilievo, fatto foto esterne e interne di dettaglio per l’inquadramento del tema e delle sue caratteristiche architettoniche, studiato le principali cause di degrado e alterazione dei materiali da costruzione redigendo le tavole del degrado e dello stato di conservazione. Nella fase progettuale abbiamo deciso di effettuare un minimo intervento sul rudere, ripristinando la copertura crollata attraverso una copertura moderna sostenuta da pilastri, che vanno a costituire una struttura staccata rispetto al rudere. La terza parte riguarda l’efficienza energetica, il tema che ho affrontato sotto la guida del Prof. Kristian Fabbri in occasione dell’elaborato finale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente studio, per ciò che concerne la prima parte della ricerca, si propone di fornire un’analisi che ripercorra il pensiero teorico e la pratica critica di Louis Marin, mettendone in rilievo i caratteri salienti affinché si possa verificare se, nella loro eterogenea interdisciplinarità, non emerga un profilo unitario che consenta di ricomprenderli in un qualche paradigma estetico moderno e/o contemporaneo. Va innanzitutto rilevato che la formazione intellettuale di Marin è avvenuta nell’alveo di quel montante e pervasivo interesse che lo strutturalismo di stampo linguistico seppe suscitare nelle scienze sociali degli anni sessanta. Si è cercato, allora, prima di misurare la distanza che separa l’approccio di Marin ai testi da quello praticato dalla semiotica greimasiana, impostasi in Francia come modello dominante di quella svolta semiotica che ha interessato in quegli anni diverse discipline: dagli studi estetici all’antropologia, dalla psicanalisi alla filosofia. Si è proceduto, quindi, ad un confronto tra l’apparato concettuale elaborato dalla semiotica e alcune celebri analisi del nostro autore – tratte soprattutto da Opacité de la peinture e De la représentation. Seppure Marin non abbia mai articolato sistematicametne i principi teorici che esplicitassero la sua decisa contrapposizione al potente modello greimasiano, tuttavia le reiterate riflessioni intorno ai presupposti epistemologici del proprio modo di interpretare i testi – nonché le analisi di opere pittoriche, narrative e teoriche che ci ha lasciato in centinaia di studi – permettono di definirne una concezione estetica nettamente distinta dalla pratica semio-semantica della scuola di A. J. Greimas. Da questo confronto risulterà, piuttosto, che è il pensiero di un linguista sui generis come E. Benveniste ad avere fecondato le riflessioni di Marin il quale, d’altra parte, ha saputo rielaborare originalmente i contributi fondamentali che Benveniste diede alla costruzione della teoria dell’enunciazione linguistica. Impostando l’equazione: enunciazione linguistica=rappresentazione visiva (in senso lato), Marin diviene l’inventore del dispositivo concettuale e operativo che consentirà di analizzare l’enunciazione visiva: la superficie di rappresentazione, la cornice, lo sguardo, l’iscrizione, il gesto, lo specchio, lo schema prospettico, il trompe-l’oeil, sono solo alcune delle figure in cui Marin vede tradotto – ma in realtà immagina ex novo – quei dispositivi enunciazionali che il linguista aveva individuato alla base della parole come messa in funzione della langue. Marin ha saputo così interpretare, in modo convincente, le opere e i testi della cultura francese del XVII secolo alla quale sono dedicati buona parte dei suoi studi: dai pittori del classicismo (Poussin, Le Brun, de Champaigne, ecc.) agli eruditi della cerchia di Luigi XIV, dai filosofi (soprattutto Pascal), grammatici e logici di Port-Royal alle favole di La Fontaine e Perrault. Ma, come si evince soprattutto da testi come Opacité de la peinture, Marin risulterà anche un grande interprete del rinascimento italiano. In secondo luogo si è cercato di interpretare Le portrait du Roi, il testo forse più celebre dell’autore, sulla scorta dell’ontologia dell’immagine che Gadamer elabora nel suo Verità e metodo, non certo per praticare una riduzione acritica di due concezioni che partono da presupposti divergenti – lo strutturalismo e la critica d’arte da una parte, l’ermeneutica filosofica dall’altra – ma per rilevare che entrambi ricorrono al concetto di rappresentazione intendendolo non tanto come mimesis ma soprattutto, per usare il termine di Gadamer, come repraesentatio. Sia Gadamer che Marin concepiscono la rappresentazione non solo come sostituzione mimetica del rappresentato – cioè nella direzione univoca che dal rappresentato conduce all’immagine – ma anche come originaria duplicazione di esso, la quale conferisce al rappresentato la sua legittimazione, la sua ragione o il suo incremento d’essere. Nella rappresentazione in quanto capace di legittimare il rappresentato – di cui pure è la raffigurazione – abbiamo così rintracciato la cifra comune tra l’estetica di Marin e l’ontologia dell’immagine di Gadamer. Infine, ci è sembrato di poter ricondurre la teoria della rappresentazione di Marin all’interno del paradigma estetico elaborato da Kant nella sua terza Critica. Sebbene manchino in Marin espliciti riferimenti in tal senso, la sua teoria della rappresentazione – in quanto dire che mostra se stesso nel momento in cui dice qualcos’altro – può essere intesa come una riflessione estetica che trova nel sensibile la sua condizione trascendentale di significazione. In particolare, le riflessioni kantiane sul sentimento di sublime – a cui abbiamo dedicato una lunga disamina – ci sono sembrate chiarificatrici della dinamica a cui è sottoposta la relazione tra rappresentazione e rappresentato nella concezione di Marin. L’assolutamente grande e potente come tratti distintivi del sublime discusso da Kant, sono stati da noi considerati solo nella misura in cui ci permettevano di fare emergere la rappresentazione della grandezza e del potere assoluto del monarca (Luigi XIV) come potere conferitogli da una rappresentazione estetico-politica costruita ad arte. Ma sono piuttosto le facoltà in gioco nella nostra più comune esperienza delle grandezze, e che il sublime matematico mette esemplarmente in mostra – la valutazione estetica e l’immaginazione – ad averci fornito la chiave interpretativa per comprendere ciò che Marin ripete in più luoghi citando Pascal: una città, da lontano, è una città ma appena mi avvicino sono case, alberi, erba, insetti, ecc… Così abbiamo applicato i concetti emersi nella discussione sul sublime al rapporto tra la rappresentazione e il visibile rappresentato: rapporto che non smette, per Marin, di riconfigurarsi sempre di nuovo. Nella seconda parte della tesi, quella dedicata all’opera di Bernard Stiegler, il problema della comprensione delle immagini è stato affrontato solo dopo aver posto e discusso la tesi che la tecnica, lungi dall’essere un portato accidentale e sussidiario dell’uomo – solitamente supposto anche da chi ne riconosce la pervasività e ne coglie il cogente condizionamento – deve invece essere compresa proprio come la condizione costitutiva della sua stessa umanità. Tesi che, forse, poteva essere tematizzata in tutta la sua portata solo da un pensatore testimone delle invenzioni tecnico-tecnologiche del nostro tempo e del conseguente e radicale disorientamento a cui esse ci costringono. Per chiarire la propria concezione della tecnica, nel I volume di La technique et le temps – opera alla quale, soprattutto, sarà dedicato il nostro studio – Stiegler decide di riprendere il problema da dove lo aveva lasciato Heidegger con La questione della tecnica: se volgiamo coglierne l’essenza non è più possibile pensarla come un insieme di mezzi prodotti dalla creatività umana secondo un certi fini, cioè strumentalmente, ma come un modo di dis-velamento della verità dell’essere. Posto così il problema, e dopo aver mostrato come i sistemi tecnici tendano ad evolversi in base a tendenze loro proprie che in buona parte prescindono dall’inventività umana (qui il riferimento è ad autori come F. Gille e G. Simondon), Stiegler si impegna a riprendere e discutere i contributi di A. Leroi-Gourhan. È noto come per il paletnologo l’uomo sia cominciato dai piedi, cioè dall’assunzione della posizione eretta, la quale gli avrebbe permesso di liberare le mani prima destinate alla deambulazione e di sviluppare anatomicamente la faccia e la volta cranica quali ondizioni per l’insorgenza di quelle capacità tecniche e linguistiche che lo contraddistinguono. Dei risultati conseguiti da Leroi-Gourhan e consegnati soprattutto in Le geste et la parole, Stiegler accoglie soprattutto l’idea che l’uomo si vada definendo attraverso un processo – ancora in atto – che inizia col primo gesto di esteriorizzazione dell’esperienza umana nell’oggetto tecnico. Col che è già posta, per Stiegler, anche la prima forma di simbolizzazione e di rapporto al tempo che lo caratterizzano ancora oggi. Esteriorità e interiorità dell’uomo sono, per Stiegler, transduttive, cioè si originano ed evolvono insieme. Riprendendo, in seguito, l’anti-antropologia filosofica sviluppata da Heidegger nell’analitica esistenziale di Essere e tempo, Stiegler dimostra che, se si vuole cogliere l’effettività della condizione dell’esistenza umana, è necessaria un’analisi degli oggetti tecnici che però Heidegger relega nella sfera dell’intramondano e dunque esclude dalla temporalità autentica dell’esser-ci. Se è vero che l’uomo – o il chi, come lo chiama Stiegler per distinguerlo dal che-cosa tecnico – trova nell’essere-nel-mondo la sua prima e più fattiva possibilità d’essere, è altrettanto verò che questo mondo ereditato da altri è già strutturato tecnicamente, è già saturo della temporalità depositata nelle protesi tecniche nelle quali l’uomo si esteriorizza, e nelle quali soltanto, quindi, può trovare quelle possibilità im-proprie e condivise (perché tramandate e impersonali) a partire dalle quali poter progettare la propria individuazione nel tempo. Nel percorso di lettura che abbiamo seguito per il II e III volume de La technique et le temps, l’autore è impegnato innanzitutto in una polemica serrata con le analisi fenomenologiche che Husserl sviluppa intorno alla coscienza interna del tempo. Questa fenomenologia del tempo, prendendo ad esame un oggetto temporale – ad esempio una melodia – giunge ad opporre ricordo primario (ritenzione) e ricordo secondario (rimemorazione) sulla base dell’apporto percettivo e immaginativo della coscienza nella costituzione del fenomeno temporale. In questo modo Husserl si preclude la possibilità di cogliere il contributo che l’oggetto tecnico – ad esempio la registrazione analogica di una melodia – dà alla costituzione del flusso temporale. Anzi, Husserl esclude esplicitamente che una qualsiasi coscienza d’immagine – termine al quale Stiegler fa corrispondere quello di ricordo terziario: un testo scritto, una registrazione, un’immagine, un’opera, un qualsiasi supporto memonico trascendente la coscienza – possa rientrare nella dimensione origianaria e costitutiva di tempo. In essa può trovar posto solo la coscienza con i suo vissuti temporali percepiti, ritenuti o ricordati (rimemorati). Dopo un’attenta rilettura del testo husserliano, abbiamo seguito Stiegler passo a passo nel percorso di legittimazione dell’oggetto tecnico quale condizione costitutiva dell’esperienza temporale, mostrando come le tecniche di registrazione analogica di un oggetto temporale modifichino, in tutta evidenza, il flusso ritentivo della coscienza – che Husserl aveva supposto automatico e necessitante – e con ciò regolino, conseguente, la reciproca permeabilità tra ricordo primario e secondario. L’interpretazione tecnica di alcuni oggetti temporali – una foto, la sequenza di un film – e delle possibilità dispiegate da alcuni dispositivi tecnologici – la programmazione e la diffusione audiovisiva in diretta, l’immagine analogico-digitale – concludono questo lavoro richiamando l’attenzione sia sull’evidenza prodotta da tali esperienze – evidenza tutta tecnica e trascendente la coscienza – sia sul sapere tecnico dell’uomo quale condizione – trascendentale e fattuale al tempo stesso – per la comprensione delle immagini e di ogni oggetto temporale in generale. Prendendo dunque le mosse da una riflessione, quella di Marin, che si muove all’interno di una sostanziale antropologia filosofica preoccupata di reperire, nell’uomo, le condizioni di possibilità per la comprensione delle immagini come rappresentazioni – condizione che verrà reperità nella sensibilità o nell’aisthesis dello spettatore – il presente lavoro passerà, dunque, a considerare la riflessione tecno-logica di Stiegler trovando nelle immagini in quanto oggetti tecnici esterni all’uomo – cioè nelle protesi della sua sensibilità – le condizioni di possibilità per la comprensione del suo rapporto al tempo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La ricerca svolta ha individuato fra i suoi elementi promotori l’orientamento determinato da parte della comunità europea di dare vita e sostegno ad ambiti territoriali intermedi sub nazionali di tipo regionale all’interno dei quali i sistemi di città potessero raggiungere le massime prestazioni tecnologiche per cogliere gli effetti positivi delle innovazioni. L’orientamento europeo si è confrontato con una realtà storica e geografica molto variata in quanto accanto a stati membri, nei quali le gerarchie fra città sono storicamente radicate e funzionalmente differenziate secondo un ordine che vede la città capitale dominante su città subalterne nelle quali la cultura di dominio del territorio non è né continua né gerarchizzata sussistono invece territori nazionali compositi con una città capitale di riconosciuto potere ma con città di minor dimensione che da secoli esprimono una radicata incisività nella organizzazione del territorio di appartenenza. Alla prima tipologia di stati appartengono ad esempio i Paesi del Nord Europa e l’Inghilterra, esprimendo nella Francia una situazione emblematica, alla seconda tipologia appartengono invece i Paesi dell’aera mediterranea, Italia in primis, con la grande eccezione della Germania. Applicando gli intendimenti comunitari alla realtà locale nazionale, questa tesi ha avviato un approfondimento di tipo metodologico e procedurale sulla possibile organizzazione a sistema di una regione fortemente policentrica nel suo sviluppo e “artificiosamente” rinata ad unità, dopo le vicende del XIX secolo: l’Emilia-Romagna. Anche nelle regioni che si presentano come storicamente organizzate sulla pluralità di centri emergenti, il rapporto col territorio è mediato da centri urbani minori che governano il tessuto cellulare delle aggregazioni di servizi di chiara origine agraria. Questo stato di cose comporta a livello politico -istituzionale una dialettica vivace fra territori voluti dalle istituzioni e territori legittimati dal consolidamento delle tradizioni confermato dall’uso attuale. La crescente domanda di capacità di governo dello sviluppo formulata dagli operatori economici locali e sostenuta dalle istituzioni europee si confronta con la scarsa capacità degli enti territoriali attuali: Regioni, Comuni e Province di raggiungere un livello di efficienza sufficiente ad organizzare sistemi di servizi adeguati a sostegno della crescita economica. Nel primo capitolo, dopo un breve approfondimento sulle “figure retoriche comunitarie”, quali il policentrismo, la governance, la coesione territoriale, utilizzate per descrivere questi fenomeni in atto, si analizzano gli strumenti programmatici europei e lo S.S.S.E,. in primis, che recita “Per garantire uno sviluppo regionale equilibrato nella piena integrazione anche nell’economia mondiale, va perseguito un modello di sviluppo policentrico, al fine di impedire un’ulteriore eccessiva concentrazione della forza economica e della popolazione nei territori centrali dell’UE. Solo sviluppando ulteriormente la struttura, relativamente decentrata, degli insediamenti è possibile sfruttare il potenziale economico di tutte le regioni europee.” La tesi si inserisce nella fase storica in cui si tenta di definire quali siano i nuovi territori funzionali e su quali criteri si basa la loro riconoscibilità; nel tentativo di adeguare ad essi, riformandoli, i territori istituzionali. Ai territori funzionali occorre riportare la futura fiscalità, ed è la scala adeguata per l'impostazione della maggior parte delle politiche, tutti aspetti che richiederanno anche la necessità di avere una traduzione in termini di rappresentanza/sanzionabilità politica da parte dei cittadini. Il nuovo governo auspicato dalla Comunità Europea prevede una gestione attraverso Sistemi Locali Territoriali (S.Lo.t.) definiti dalla combinazione di milieu locale e reti di attori che si comportano come un attore collettivo. Infatti il secondo capitolo parte con l’indagare il concetto di “regione funzionale”, definito sulla base della presenza di un nucleo e di una corrispondente area di influenza; che interagisce con altre realtà territoriali in base a relazioni di tipo funzionale, per poi arrivare alla definizione di un Sistema Locale territoriale, modello evoluto di regione funzionale che può essere pensato come una rete locale di soggetti i quali, in funzione degli specifici rapporti che intrattengono fra loro e con le specificità territoriali del milieu locale in cui operano e agiscono, si comportano come un soggetto collettivo. Identificare un sistema territoriale, è una condizione necessaria, ma non sufficiente, per definire qualsiasi forma di pianificazione o governance territoriale, perchè si deve soprattutto tener conto dei processi di integrazione funzionale e di networking che si vengono a generare tra i diversi sistemi urbani e che sono specchio di come il territorio viene realmente fruito., perciò solo un approccio metodologico capace di sfumare e di sovrapporre le diverse perimetrazioni territoriali riesce a definire delle aree sulle quali definire un’azione di governo del territorio. Sin dall’inizio del 2000 il Servizio Sviluppo Territoriale dell’OCSE ha condotto un’indagine per capire come i diversi paesi identificavano empiricamente le regioni funzionali. La stragrande maggioranza dei paesi adotta una definizione di regione funzionale basata sul pendolarismo. I confini delle regioni funzionali sono stati definiti infatti sulla base di “contorni” determinati dai mercati locali del lavoro, a loro volta identificati sulla base di indicatori relativi alla mobilità del lavoro. In Italia, la definizione di area urbana funzionale viene a coincidere di fatto con quella di Sistema Locale del Lavoro (SLL). Il fatto di scegliere dati statistici legati a caratteristiche demografiche è un elemento fondamentale che determina l’ubicazione di alcuni servizi ed attrezzature e una mappa per gli investimenti nel settore sia pubblico che privato. Nell’ambito dei programmi europei aventi come obiettivo lo sviluppo sostenibile ed equilibrato del territorio fatto di aree funzionali in relazione fra loro, uno degli studi di maggior rilievo è stato condotto da ESPON (European Spatial Planning Observation Network) e riguarda l’adeguamento delle politiche alle caratteristiche dei territori d’Europa, creando un sistema permanente di monitoraggio del territorio europeo. Sulla base di tali indicatori vengono costruiti i ranking dei diversi FUA e quelli che presentano punteggi (medi) elevati vengono classificati come MEGA. In questo senso, i MEGA sono FUA/SLL particolarmente performanti. In Italia ve ne sono complessivamente sei, di cui uno nella regione Emilia-Romagna (Bologna). Le FUA sono spazialmente interconnesse ed è possibile sovrapporre le loro aree di influenza. Tuttavia, occorre considerare il fatto che la prossimità spaziale è solo uno degli aspetti di interazione tra le città, l’altro aspetto importante è quello delle reti. Per capire quanto siano policentrici o monocentrici i paesi europei, il Progetto Espon ha esaminato per ogni FUA tre differenti parametri: la grandezza, la posizione ed i collegamenti fra i centri. La fase di analisi della tesi ricostruisce l’evoluzione storica degli strumenti della pianificazione regionale analizzandone gli aspetti organizzativi del livello intermedio, evidenziando motivazioni e criteri adottati nella suddivisione del territorio emilianoromagnolo (i comprensori, i distretti industriali, i sistemi locali del lavoro…). La fase comprensoriale e quella dei distretti, anche se per certi versi effimere, hanno avuto comunque il merito di confermare l’esigenza di avere un forte organismo intermedio di programmazione e pianificazione. Nel 2007 la Regione Emilia Romagna, nell’interpretare le proprie articolazioni territoriali interne, ha adeguato le proprie tecniche analitiche interpretative alle direttive contenute nel Progetto E.S.P.O.N. del 2001, ciò ha permesso di individuare sei S.Lo.T ( Sistemi Territoriali ad alta polarizzazione urbana; Sistemi Urbani Metropolitani; Sistemi Città – Territorio; Sistemi a media polarizzazione urbana; Sistemi a bassa polarizzazione urbana; Reti di centri urbani di piccole dimensioni). Altra linea di lavoro della tesi di dottorato ha riguardato la controriprova empirica degli effettivi confini degli S.Lo.T del PTR 2007 . Dal punto di vista metodologico si è utilizzato lo strumento delle Cluster Analisys per impiegare il singolo comune come polo di partenza dei movimenti per la mia analisi, eliminare inevitabili approssimazioni introdotte dalle perimetrazioni legate agli SLL e soprattutto cogliere al meglio le sfumature dei confini amministrativi dei diversi comuni e province spesso sovrapposti fra loro. La novità è costituita dal fatto che fino al 2001 la regione aveva definito sullo stesso territorio una pluralità di ambiti intermedi non univocamente circoscritti per tutte le funzioni ma definiti secondo un criterio analitico matematico dipendente dall’attività settoriale dominante. In contemporanea col processo di rinnovamento della politica locale in atto nei principali Paesi dell’Europa Comunitaria si va delineando una significativa evoluzione per adeguare le istituzioni pubbliche che in Italia comporta l’attuazione del Titolo V della Costituzione. In tale titolo si disegna un nuovo assetto dei vari livelli Istituzionali, assumendo come criteri di riferimento la semplificazione dell’assetto amministrativo e la razionalizzazione della spesa pubblica complessiva. In questa prospettiva la dimensione provinciale parrebbe essere quella tecnicamente più idonea per il minimo livello di pianificazione territoriale decentrata ma nel contempo la provincia come ente amministrativo intermedio palesa forti carenze motivazionali in quanto l’ente storico di riferimento della pianificazione è il comune e l’ente di gestione delegato dallo stato è la regione: in generale troppo piccolo il comune per fare una programmazione di sviluppo, troppo grande la regione per cogliere gli impulsi alla crescita dei territori e delle realtà locali. Questa considerazione poi deve trovare elementi di compatibilità con la piccola dimensione territoriale delle regioni italiane se confrontate con le regioni europee ed i Laender tedeschi. L'individuazione di criteri oggettivi (funzionali e non formali) per l'individuazione/delimitazione di territori funzionali e lo scambio di prestazioni tra di essi sono la condizione necessaria per superare l'attuale natura opzionale dei processi di cooperazione interistituzionale (tra comuni, ad esempio appartenenti allo stesso territorio funzionale). A questo riguardo molto utile è l'esperienza delle associazioni, ma anche delle unioni di comuni. Le esigenze della pianificazione nel riordino delle istituzioni politico territoriali decentrate, costituiscono il punto finale della ricerca svolta, che vede confermato il livello intermedio come ottimale per la pianificazione. Tale livello è da intendere come dimensione geografica di riferimento e non come ambito di decisioni amministrative, di governance e potrebbe essere validamente gestito attraverso un’agenzia privato-pubblica dello sviluppo, alla quale affidare la formulazione del piano e la sua gestione. E perché ciò avvenga è necessario che il piano regionale formulato da organi politici autonomi, coordinati dall’attività dello stato abbia caratteri definiti e fattibilità economico concreta.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo scopo di questa dissertazione è quello di costruire un modello di promozione della salute nel contesto di lavoro in relazione al consumo di sostanze psicoattive fra lavoratori, attraverso il confronto tra la situazione italiana e inglese. L’ipotesi di fondo rimanda all’idea che i luoghi di lavoro possano rappresentare setting d’elezione per i progetti di prevenzione non solo perché alcuni studi dimostrano l’esistenza di fattori di rischio connessi alla mansione rispetto alle condotte relative allo stile di vita, ma anche perché il consumo di alcol e droghe è altamente diffuso tra i lavoratori e questo comporta rischi per la sicurezza e la salute personale nonché quella dei colleghi di lavoro. Si tratta quindi di indagare il rapporto tra contesto lavorativo e utilizzo di sostanze al fine di suggerire  alla luce degli studi internazionali in materia e delle riflessioni condotte dai soggetti coinvolti nella ricerca che si andrà a presentare  linee guida e indicazioni operative per la realizzazione di interventi di promozione alla salute nei contesti professionali. A tal fine, saranno analizzati gli esiti di 13 focus group che hanno coinvolto esperti italiani e 6 interviste somministrate a esperti inglesi volti a definire la situazione attuale in Italia e Gran Bretagna in materia di prevenzione del consumo di alcol e droghe nei luoghi di lavoro. In particolare, l’analisi verterà sulle seguenti aree: - Percezione circa la diffusione dei consumi nei luoghi di lavoro - Presentazione delle politiche adottate, in logica comparativa, tra i due paesi. - Analisi critica degli interventi e problematiche aperte. L’analisi del materiale empirico permette di delineare due modelli costruiti sulla base dei focus group e delle interviste: - in Italia si può affermare che prevalga il cd. modello della sicurezza: di recente trasformazione, questo sistema enfatizza la dimensione del controllo, tanto che si parla di sorveglianza sanitaria. É orientato alla sicurezza concepita quale rimozione dei fattori di rischio. Il consumo di sostanze (anche sporadico) è inteso quale espressione di una patologia che richiede l’intervento sanitario secondo modalità previste dal quadro normativo: una procedura che annulla la discrezionalità sia del datore di lavoro sia del medico competente. Si connota inoltre per contraddizioni interne e trasversali rispetto alle categorie lavorative (i controlli non si applicano alle professioni associate a maggiore prestigio sociale sebbene palesemente associate a rischio, come per esempio i medici) e alle sostanze (atteggiamento repressivo soprattutto verso le droghe illegali); - in Gran Bretagna, invece, il modello si configura come responsabilità bilaterale: secondo questo modello, se è vero che il datore di lavoro può decidere in merito all’attuazione di misure preventive in materia di alcol e droghe nei luoghi di lavoro, egli è ritenuto responsabile della mancata vigilanza. D’altro canto, il lavoratore che non rispetta quanto previsto nella politica scritta può essere soggetto a licenziamento per motivi disciplinari. Questo modello, particolarmente attento al consumo di tutte le sostanze psicoattive (legali e illegali), considera il consumo quale esito di una libera scelta individuale attraverso la quale il lavoratore decide di consumare alcol e droghe così come decide di dedicarsi ad altre condotte a rischio. Si propone di ri-orientare le strategie analizzate nei due paesi europei presi in esame attraverso la realizzazione di un modello della promozione della salute fondato su alcuni punti chiave: – coinvolgimento di tutti i lavoratori (e non solo coloro che svolgono mansioni a rischio per la sicurezza) al fine di promuovere benessere secondo un approccio olistico di salute, orientato ad intervenire non soltanto in materia di consumo di sostanze psicoattive (legali e illegali), ma più in generale sulle condotte a rischio; – compartecipazione nelle diverse fasi (programmazione, realizzazione e valutazione del progetto) del lavoratore, datore di lavoro e medico competente secondo una logica di flessibilità, responsabilizzazione condivisa fra i diversi attori, personalizzazione e co-gestione dell’intervento; – azione volta a promuovere i fattori di protezione agendo simultaneamente sul contrasto dei fattori di rischio (stress, alienazione, scarso riconoscimento del ruolo svolto), attraverso interventi che integrano diverse strategie operative alla luce delle evidenze scientifiche (Evidence-Based Prevention); – ricorso a strumenti di controllo (drug testing) subordinato all’esigenza di tutelare l’incolumità fisica del lavoratore e dei colleghi, da attuarsi sempre e comunque attraverso prassi che non violino la privacy e attraverso strumenti in grado di verificare l’effettivo stato di alterazione psico-fisica sul luogo di lavoro; – demedicalizzazione delle situazioni di consumo che non richiedono un intervento prettamente sanitario, ma che al contrario potrebbero essere affrontate attraverso azioni incentrate sul care anziché la cure; – messa a disposizione di servizi ad hoc con funzione di supporto, counselling, orientamento per i lavoratori, non stigmatizzanti e con operatori di formazione non solamente sanitaria, sull’esempio degli EAPs (Employee Assistence Programs) statunitensi. Si ritiene che questo modello possa trasformare i contesti di lavoro da agenzie di controllo orientate alla sicurezza a luoghi di intervento orientati al benessere attraverso un’azione sinergica e congiunta volta a promuovere i fattori di protezione a discapito di quelli di rischio in modo tale da intervenire non soltanto sul consumo di sostanze psicotrope, ma più in generale sullo stile di vita che influenza la salute complessiva.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'evoluzione delle tipologie architettoniche sviluppate all'interno del panorama bolognese ha portato allo sviluppo nel XVI secolo di Palazzi immersi nella campagna rispondenti ai canoni dei principi rinascimentali di armonia fra l'uomo e la Natura. E' in questo contesto che si sviluppa il Palazzo Angelelli-Zambeccari, il cui nucleo risale alla fine del XVI secolo e che si è costituito successivamente come importante tenuta agricola. La proprietà del Palazzo va attribuita in un primo momento alla Famiglia Senatoria Angelelli, che apporta le principali modifiche costruttive, quali le due ali simmetriche e una parte fondamentale del corpo centrale, successivamente alla Famiglia Zambeccari, che si occupa di sistemazioni interne e della struttura della tenuta. Attualmente la proprietà risulta essere del Comune, che cerca di svilupparla come centro propulsore del Paese. Il progetto di restauro vuole restituire all'edificio il suo carattere originale, inserendo all'interno di esso funzioni utili al Paese, come la biblioteca e i laboratori didattici, e attività legate al sostentamento stesso della proprietà, come un piccolo agriturismo e il centro di rappresentanza della Cantina Sociale del Paese. Proprio per la Cantina il progetto ha cercato di sviluppare un adeguato impianto di climatizzazione e di parametri legati alle condizioni ottimali per l'utilizzo, al fine di costruire uno spazio funzionale che possa essere testimonianza dell'attività agro-vinicola propria della tradizione della villa di campagna.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Als erste komplette Sequenz eines Gastropoden-Hämocyanins wurde das Hämocyanin von Haliotis tuberculata über cDNA vollständig kloniert und sequenziert. Die Primärstruktur besteht aus 3404 Aminosäuren mit einer errechneten Molekülmasse von 392 kDa. Neben der vollständigen Primärstruktur des sezernierten Proteins ist in der cDNA eine Signalsequenz kodiert. Mit Hilfe spezifischer Primer wurde die Genstruktur des HtH1-Gens zwischen der Signalsequenz und dem 3´-UTR über PCR aus genomischer DNA ermittelt. Dies ist die erste bekannte Genstruktur eines Schnecken-Hämocyanins. Das Gen umfaßt etwa 28,6 kb und besteht aus 17 Exons und 16 Introns. Die kodierende Sequenz des Signalpeptids und der acht FUs sind in den Linker-Regionen durch Introns (Linker-Introns) getrennt. Die Signalsequenz von bislang 48 Nukleotiden sowie die Sequenz der funktionellen Domänen HtH1-a, HtH1-f und HtH1-g sind durch 'interne' Introns in zwei bis vier Exons unterteilt. Von der Untereinheit HtH2 wurde über cDNA und genomische PCR die vollständige kodierende Sequenz der funktionellen Domänen HtH2-b bis HtH2-h und ein großer Teil von HtH2-a sequenziert. Die partielle Primärstruktur umfaßt 3307 Aminosäuren. Es fehlen noch etwa 100 Aminosäuren aus dem N-terminalen Bereich von HtH2-a. Das Fragment des HtH2-Gens von 18,3 kb besteht aus 15 Exons und 14 Introns. Die Exon-Größen und die Positionen sowie Phasen der Introns entsprechen exakt den Verhältnissen im HtH1-Gen. Multiple Sequenzalignments und daraus erstellte phylogenetische Stammbäume mit den abgeleiteten Aminosäuresequenzen von HtH1, HtH2 und anderen Mollusken-Hämocyaninen zeigen die Verwandtschaftsverhältnisse der Mollusken-Hämocyanine. Auf der Annahme basierend, daß eine 'molekulare Uhr' existiert, läßt sich mit Hilfe einer Distanzmatrix die Phylogenie der Mollusken-Hämocyanine rekapitulieren und die einzelnen Aufspaltungsereignisse im Verlauf der Evolution der Mollusken datieren.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Einfluß der internen Architektur von Polymermikronetzwerken auf Struktur und Dynamik konzentrierter Kolloid-Dispersionen Kugelförmige Polymermikronetzwerk-Kolloide gehören zur Klasse der sogenannten Mikrogele. Dabei handelt es sich um kolloidale Modellsysteme, die durch ihre interne Vernetzungsdichte charakterisiert werden.In dieser Arbeit sollte untersucht werden, ob sich die Wechselwirkungen zwischen den Mikrogel-Kolloiden über ein repulsives Potential der Form U(r) = 1/rn beschreiben lassen und ob der Poten-tialexponent n von der Vernetzungsdichte abhängt. Dazu wurden vor allem die innere Architektur, das Phasenverhalten und der statische Strukturfaktor 1:10, 1:50, 1:72 und 1:100 vernetzter Polymer-Mikronetzwerk-Kolloide bis in den Bereich hochkonzentrierter Dispersionen mit den Mitteln der Kleinwinkelneutronenstreuung, der Digitalphotographie und der statischen Lichtstreuung untersucht. Polymeranalytische Untersuchungen ergaben einen bei der Synthese anfallenden Anteil von unver-netztem, freiem Polymer innerhalb der Mikronetzwerke, welcher sich beim Lösen aus den Netzwerken herausbewegte. Das freie Polymer spielte vor allem beim Phasenverhalten der untersuchten Teilchen eine große Rolle und verursachte bei den Untersuchungen der statischen Strukturfaktoren Abweichun-gen vom 'harte Kugel'-Verhalten. Als Ergebnis der Kleinwinkel-Neutronenstreuung konnte eine ab-nehmende Verteilungsdichte der Vernetzer innerhalb der Polymermikronetzwerke in Richtung der -Teilchenoberfläche nachgewiesen werden. Die damit verbundene Konformationsfreiheit der Polymer-segmente auf der Teilchenoberfläche (bis hin zu 'mushroom'-Strukturen) wurde als Grund dafür an-gesehen, daß sich die Resultate der untersuchten Mikrogele aller Vernetzungsdichten im wesentlichen auf 'harte Kugeln' skalieren lassen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Das Vorkommen von Häutungshormonen in adulten Insekten, insbesondere solcher, die eine lange Imaginalphase durchlaufen, wirft die Frage nach der Regulation der Ecdysteroidsynthese außerhalb der Prothorakaldrüse auf. Unter diesem Gesichtspunkt kann Gryllus bimaculatus mit einem ausgesprochen langen Adultstadium und rapiden zeitlichen Veränderungen des Ecdysontiters als ein geeignetes Versuchsobjekt angesehen werden.Der vorliegenden Dissertation liegt die Arbeitshypothese zugrunde, daß die Ecdysteroid-Synthese bzw. Sekretion von Adultgeweben in männlichen Imagines der Mittelmeerfeldgrille durch Neuropeptide hormonell reguliert wird. Als Quelle für die Ecdysteroidsynthese wurde auf Grund immunohistochemischer Befunde sowie der Ergebnisse von Sekretionsprofil-Analysen unter anderem die Oenocyten in Betracht gezogen.Zur Überprüfung dieser Hypothese wurde ein in vitro Bioassay entwickelt, der es ermöglichte, die Wirkung von extrahierten Substanzen auf die Hormonsynthese mittels RIA/HPLC zu bestimmen. Aus Köpfen adulter G. bimaculatus ließen sich durch HP-SEC Faktoren isolieren, die die Ecdysteroidsekretion in Oenocyten und Tergiten stimulierten, die aber keinen Einfluß auf die Hormonsekretion von Fettgewebe sowie der Prothorakaldrüsen hatten. Die Wirkung des aufgereinigten Extraktes in Oenocyten war zeit- und dosis-abhängig. Die ecdysiotropen Faktoren besaßen ein Molekulargewicht zwischen 26,5 und 30 kDa. Die Größe der Molmasse der ecdysiotropen Faktoren entsprach somit bei adulten männlichen Grillen etwa dem des Neurohormons PTTH bei Lepidopteren. Dennoch zeigten Antikörper, die gegen PTTH von Bombyx mori gerichtet waren im Western-Blot keine Bindung an Gryllus bimaculatus Kopfextrakte. Die Sekretionsprodukte von Oenocyten, die mit Ecdysiotropinen behandelt waren, wurden durch RP- und NP-HPLC identifiziert. Es konnten zwei zusätzliche Peaks neben einem deutlichen Anstieg von 20-Hydroxyecdyson nachgewiesen werden. Auf Grund identischer Retentionszeiten mit Referenzsubstanzen handelt es sich bei einem Peak vermutlich um Makisteron A.Obwohl die Applikation von Azadirachtin in G. bimaculatus zu einer Senkung des Hämolymph-Ecdysteroidgehalts führte, konnte keine Anreicherung von Ecdysiotropinen erzielt werden.Die die Ecdysteroidsekretion-beeinflussenden Faktoren waren resistent gegen Kochen und Alkylierung aber nicht stabil gegen Reduzierung durch DTT und Behandlung mit Neuramidase. Damit konnte gezeigt werden, daß das Vorhandensein von Disulfidbrücken und Oligosaccharidketten für die biologische Aktivität notwendig ist.Die Aminosäuresequenz-Analyse und der enzymatische Verdau der stimulierenden Faktoren durch Exopeptidasen wiesen auf geschützte N- und C-Termini hin. Ferner wurden einige interne Peptidfragmente von fünf Proteinbanden sequenziert, die keine Homologie zu bereits bekannten regulatorischen Neuropeptiden zeigten. Als einziges bekanntes Protein aus diesem Bereich konnte das „14-3-3-like Protein“ mit Hilfe MALDI-MS identifiziert werden.Die Stimulierung der Ecdysteroidsekretion in Oenocyten von G. bimaculatus durch Oenocyten-stimulierende Faktoren (OSF) aus Kopfextrakten konnte mittels Signalstoff-Effektoren in vitro nachgeahmt werden. Außerdem wurde mit Hilfe eines RRA nachgewiesen, daß der intrazelluläre cAMP-Spiegel von Oenocyten durch OSF erhöht wird. Daraus kann geschlossen werden, daß cAMP als „Second Messenger“ an der Wirkung der OSF beteiligt ist. Calcium-Ionen schienen für die Ecdysteroidsekretion notwendig zu sein. Allerdings führte eine artifizielle Erhöhung der intrazellulären Calcium-Konzentration durch das Ionophor Ionomycin zu einer Hemmung der Sekretion. Schließlich wird ein Modell zur Erklärung des Wirkmechanismus von OSF in Gryllus bimaculatus postuliert und diskutiert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il progetto di tesi dottorale qui presentato intende proporsi come il proseguimento e l’approfondimento del progetto di ricerca - svoltosi tra il e il 2006 e il 2008 grazie alla collaborazione tra l’Università di Bologna, la Cineteca del Comune e dalla Fondazione Istituto Gramsci Emilia-Romagna - dal titolo Analisi e catalogazione dell’Archivio audiovisivo del PCI dell’Emilia-Romagna di proprietà dell’Istituto Gramsci. La ricerca ha indagato la menzionata collezione che costituiva, in un arco temporale che va dagli anni Cinquanta agli anni Ottanta, una sorta di cineteca interna alla Federazione del Partito Comunista Italiano di Bologna, gestita da un gruppo di volontari denominato “Gruppo Audiovisivi della Federazione del PCI”. Il fondo, entrato in possesso dell’Istituto Gramsci nel 1993, è composto, oltre che da documenti cartacei, anche e sopratutto da un nutrito numero di film e documentari in grado di raccontare sia la storia dell’associazione (in particolare, delle sue relazioni con le sezioni e i circoli della regione) sia, in una prospettiva più ampia, di ricostruire il particolare rapporto che la sede centrale del partito intratteneva con una delle sue cellule regionali più importanti e rappresentative. Il lavoro svolto sul fondo Gramsci ha suscitato una serie di riflessioni che hanno costituito la base per il progetto della ricerca presentata in queste pagine: prima fra tutte, l’idea di realizzare un censimento, da effettuarsi su base regionale, per verificare quali e quanti audiovisivi di propaganda comunista fossero ancora conservati sul territorio. La ricerca, i cui esiti sono consultabili nell’appendice di questo scritto, si è concentrata prevalentemente sugli archivi e sui principali istituti di ricerca dell’Emilia-Romagna: sono questi i luoghi in cui, di fatto, le federazioni e le sezioni del PCI depositarono (o alle quali donarono) le proprie realizzazioni o le proprie collezioni audiovisive al momento della loro chiusura. Il risultato dell’indagine è un nutrito gruppo di film e documentari, registrati sui supporti più diversi e dalle provenienze più disparate: produzioni locali, regionali, nazionali (inviati dalla sede centrale del partito e dalle istituzioni addette alla propaganda), si mescolano a pellicole provenienti dall’estero - testimoni della rete di contatti, in particolare con i paesi comunisti, che il PCI aveva intessuto nel tempo - e a documenti realizzati all’interno dell’articolato contesto associazionistico italiano, composto sia da organizzazioni nazionali ben strutturate sul territorio 8 sia da entità più sporadiche, nate sull’onda di particolari avvenimenti di natura politica e sociale (per esempio i movimenti giovanili e studenteschi sorti durante il ’68). L’incontro con questa tipologia di documenti - così ricchi di informazioni differenti e capaci, per loro stessa natura, di offrire stimoli e spunti di ricerca assolutamente variegati - ha fatto sorgere una serie di domande di diversa natura, che fanno riferimento non solo all’audiovisivo in quanto tale (inteso in termini di contenuti, modalità espressive e narrative, contesto di produzione) ma anche e soprattutto alla natura e alle potenzialità dell’oggetto indagato, concepito in questo caso come una fonte. In altri termini, la raccolta e la catalogazione del materiale, insieme alle ricerche volte a ricostruirne le modalità produttive, gli argomenti, i tratti ricorrenti nell’ambito della comunicazione propagandistica, ha dato adito a una riflessione di carattere più generale, che guarda al rapporto tra mezzo cinematografico e storiografia e, più in dettaglio, all’utilizzo dell’immagine filmica come fonte per la ricerca. Il tutto inserito nel contesto della nostra epoca e, più in particolare, delle possibilità offerte dai mezzi di comunicazione contemporanei. Di fatti, il percorso di riflessione compiuto in queste pagine intende concludersi con una disamina del rapporto tra cinema e storia alla luce delle novità introdotte dalla tecnologia moderna, basata sui concetti chiave di riuso e di intermedialità. Processi di integrazione e rielaborazione mediale capaci di fornire nuove potenzialità anche ai documenti audiovisivi oggetto dei questa analisi: sia per ciò che riguarda il loro utilizzo come fonte storica, sia per quanto concerne un loro impiego nella didattica e nell’insegnamento - nel rispetto della necessaria interdisciplinarietà richiesta nell’utilizzo di questi documenti - all’interno di una più generale rivoluzione mediale che mette in discussione anche il classico concetto di “archivio”, di “fonte” e di “documento”. Nel tentativo di bilanciare i differenti aspetti che questa ricerca intende prendere in esame, la struttura del volume è stata pensata, in termini generali, come ad un percorso suddiviso in tre tappe: la prima, che guarda al passato, quando gli audiovisivi oggetto della ricerca vennero prodotti e distribuiti; una seconda sezione, che fa riferimento all’oggi, momento della riflessione e dell’analisi; per concludere in una terza area, dedicata alla disamina delle potenzialità di questi documenti alla luce delle nuove tecnologie multimediali. Un viaggio che è anche il percorso “ideale” condotto dal ricercatore: dalla scoperta all’analisi, fino alla rimessa in circolo (anche sotto un’altra forma) degli oggetti indagati, all’interno di un altrettanto ideale universo culturale capace di valorizzare qualsiasi tipo di fonte e documento. All’interno di questa struttura generale, la ricerca è stata compiuta cercando di conciliare diversi piani d’analisi, necessari per un adeguato studio dei documenti rintracciati i quali, come si è detto, si presentano estremamente articolati e sfaccettati. 9 Dal punto di vista dei contenuti, infatti, il corpus documentale presenta praticamente tutta la storia italiana del tentennio considerato: non solo storia del Partito Comunista e delle sue campagne di propaganda, ma anche storia sociale, culturale ed economica, in un percorso di crescita e di evoluzione che, dagli anni Cinquanta, portò la nazione ad assumere lo status di paese moderno. In secondo luogo, questi documenti audiovisivi sono prodotti di propaganda realizzati da un partito politico con il preciso scopo di convincere e coinvolgere le masse (degli iscritti e non). Osservarne le modalità produttive, il contesto di realizzazione e le dinamiche culturali interne alla compagine oggetto della ricerca assume un valore centrale per comprendere al meglio la natura dei documenti stessi. I quali, in ultima istanza, sono anche e soprattutto dei film, realizzati in un preciso contesto storico, che è anche storia della settima arte: più in particolare, di quella cinematografia che si propone come “alternativa” al circuito commerciale, strettamente collegata a quella “cultura di sinistra” sulla quale il PCI (almeno fino alla fine degli anni Sessanta) poté godere di un dominio incontrastato. Nel tentativo di condurre una ricerca che tenesse conto di questi differenti aspetti, il lavoro è stato suddiviso in tre sezioni distinte. La prima (che comprende i capitoli 1 e 2) sarà interamente dedicata alla ricostruzione del panorama storico all’interno del quale questi audiovisivi nacquero e vennero distribuiti. Una ricostruzione che intende osservare, in parallelo, i principali eventi della storia nazionale (siano essi di natura politica, sociale ed economica), la storia interna del Partito Comunista e, non da ultimo, la storia della cinematografia nazionale (interna ed esterna al partito). Questo non solo per fornire il contesto adeguato all’interno del quale inserire i documenti osservati, ma anche per spiegarne i contenuti: questi audiovisivi, infatti, non solo sono testimoni degli eventi salienti della storia politica nazionale, ma raccontano anche delle crisi e dei “boom” economici; della vita quotidiana della popolazione e dei suoi problemi, dell’emigrazione, della sanità e della speculazione edilizia; delle rivendicazioni sociali, del movimento delle donne, delle lotte dei giovani sessantottini. C’è, all’interno di questi materiali, tutta la storia del paese, che è contesto di produzione ma anche soggetto del racconto. Un racconto che, una volta spiegato nei contenuti, va indagato nella forma. In questo senso, il terzo capitolo di questo scritto si concentrerà sul concetto di “propaganda” e nella sua verifica pratica attraverso l’analisi dei documenti reperiti. Si cercherà quindi di realizzare una mappatura dei temi portanti della comunicazione politica comunista osservata nel suo evolversi e, in secondo luogo, di analizzare come questi stessi temi-chiave vengano di volta in volta declinati e 10 rappresentati tramite le immagini in movimento. L’alterità positiva del partito - concetto cardine che rappresenta il nucleo ideologico fondante la struttura stessa del Partito Comunista Italiano - verrà quindi osservato nelle sue variegate forme di rappresentazione, nel suo incarnare, di volta in volta, a seconda dei temi e degli argomenti rilevanti, la possibilità della pace; il buongoverno; la verità (contro la menzogna democristiana); la libertà (contro il bigottismo cattolico); la possibilità di un generale cambiamento. La realizzazione di alcuni percorsi d’analisi tra le pellicole reperite presso gli archivi della regione viene proposto, in questa sede, come l’ideale conclusione di un excursus storico che, all’interno dei capitoli precedenti, ha preso in considerazione la storia della cinematografia nazionale (in particolare del contesto produttivo alternativo a quello commerciale) e, in parallelo, l’analisi della produzione audiovisiva interna al PCI, dove si sono voluti osservare non solo gli enti e le istituzioni che internamente al partito si occupavano della cultura e della propaganda - in una distinzione terminologica non solo formale - ma anche le reti di relazioni e i contatti con il contesto cinematografico di cui si è detto. L’intenzione è duplice: da un lato, per inserire la storia del PCI e dei suoi prodotti di propaganda in un contesto socio-culturale reale, senza considerare queste produzioni - così come la vita stessa del partito - come avulsa da una realtà con la quale necessariamente entrava in contatto; in secondo luogo, per portare avanti un altro tipo di discorso, di carattere più speculativo, esplicitato all’interno del quarto capitolo. Ciò che si è voluto indagare, di fatto, non è solo la natura e i contenti di questi documenti audiovisivi, ma anche il loro ruolo nel sistema di comunicazione e di propaganda di partito, dove quest’ultima è identificata come il punto di contatto tra l’intellighenzia comunista (la cultura alta, legittima) e la cultura popolare (in termini gramsciani, subalterna). Il PCI, in questi termini, viene osservato come un microcosmo in grado di ripropone su scala ridotta le dinamiche e le problematiche tipiche della società moderna. L’analisi della storia della sua relazione con la società (cfr. capitolo 2) viene qui letta alla luce di alcune delle principali teorie della storia del consumi e delle interpretazioni circa l’avvento della società di massa. Lo scopo ultimo è quello di verificare se, con l’affermazione dell’industria culturale moderna si sia effettivamente verificata la rottura delle tradizionali divisioni di classe, della classica distinzione tra cultura alta e bassa, se esiste realmente una zona intermedia - nel caso del partito, identificata nella propaganda - in cui si attui concretamente questo rimescolamento, in cui si realizzi realmente la nascita di una “terza cultura” effettivamente nuova e dal carattere comunitario. Il quinto e ultimo capitolo di questo scritto fa invece riferimento a un altro ordine di problemi e argomenti, di cui in parte si è già detto. La ricerca, in questo caso, si è indirizzata verso una 11 riflessione circa l’oggetto stesso dello studio: l’audiovisivo come fonte. La rassegna delle diverse problematiche scaturite dal rapporto tra cinema e storia è corredata dall’analisi delle principali teorie che hanno permesso l’evoluzione di questa relazione, evidenziando di volta in volta le diverse potenzialità che essa può esprimere le sue possibilità d’impiego all’interno di ambiti di ricerca differenti. Il capitolo si completa con una panoramica circa le attuali possibilità di impiego e di riuso di queste fonti: la rassegna e l’analisi dei portali on-line aperti dai principali archivi storici nazionali (e la relativa messa a disposizione dei documenti); il progetto per la creazione di un “museo multimediale del lavoro” e, a seguire, il progetto didattico dei Learning Objects intendono fornire degli spunti per un futuro, possibile utilizzo di questi documenti audiovisivi, di cui questo scritto ha voluto porre in rilievo il valore e le numerose potenzialità.