992 resultados para f Quelle


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Oggetto di questa tesi è lo studio della qualità del servizio di trasporto erogato che condiziona la qualità percepita dall’utente, poiché spesso proprio a causa di un errato processo di pianificazione e gestione della rete, molte aziende non sono in grado di consolidare un alto livello di efficienza che permetta loro di attrarre e servire la crescente domanda. Per questo motivo, si è deciso di indagare sugli aspetti che determinano la qualità erogata e sui fattori che la influenzano, anche attraverso la definizione di alcuni indicatori rappresentativi del servizio erogato. L’area di studio considerata è stata quella urbana di Bologna, e sono state prese in esame due linee di ATC, la 19 e la 27, caratterizzate entrambe da una domanda di trasporto molto elevata. L’interesse è ricaduto in modo particolare sugli aspetti legati alla regolarità del servizio, ovvero al rispetto della cadenza programmata delle corse e alla puntualità, ossia il rispetto dell’orario programmato delle stesse. Proprio da questi due aspetti, infatti, dipende in larga misura la percezione della qualità che gli utenti hanno del servizio di trasporto collettivo. Lo studio è stato condotto sulla base di dati raccolti attraverso due campagne di rilevamento, una effettuata nel mese di maggio dell’anno 2008 e l’altra nel mese di settembre dello stesso anno. La scelta del periodo, della zona e delle modalità di rilevamento è strettamente connessa all’obiettivo prefissato. Il servizio è influenzato dalle caratteristiche del sistema di trasporto: sia da quelle legate alla domanda che da quelle legate all’offerta. Nel caso della domanda di trasporto si considera l’influenza sul servizio del numero di passeggeri saliti e del tempo di sosta alle fermate. Nel caso dell’offerta di trasporto si osservano soprattutto gli aspetti legati alla rete di trasporto su cui si muovono gli autobus, analizzando quindi i tempi di movimento e le velocità dei mezzi, per vedere come le caratteristiche dell’infrastruttura possano condizionare il servizio. A tale proposito è opportuno dire che, mentre i dati della prima analisi ci sono utili per lo studio dell’influenza del tempo di sosta sull’intertempo, nella seconda analisi si vuole cercare di effettuare ulteriori osservazioni sull’influenza del tempo di movimento sulla cadenza, prendendo in esame altri elementi, come ad esempio tratti di linea differenti rispetto al caso precedente. Un’attenzione particolare, inoltre, verrà riservata alla verifica del rispetto della cadenza, dalla quale scaturisce la definizione del livello di servizio per ciò che riguarda la regolarità. Per quest’ultima verrà, inoltre, determinato anche il LOS relativo alla puntualità. Collegato al problema del rispetto della cadenza è il fenomeno dell’accodamento: questo si verifica quando i mezzi di una stessa linea arrivano contemporaneamente ad una fermata uno dietro l’altro. L’accodamento ha, infatti, origine dal mancato rispetto della cadenza programmata tra i mezzi ed è un’evidente manifestazione del mal funzionamento di un servizio di trasporto. Verrà infine condotta un’analisi dei fattori che possono influenzare le prestazioni del servizio di trasporto pubblico, così da collocare i dati ottenuti dalle operazioni di rilevamento in un quadro più preciso, capace di sottolineare alcuni elementi di criticità e possibili rapporti di causalità.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La ricerca ha perseguito l’obiettivo di individuare e definire il potere di un ente territoriale di sostituire, tramite i suoi organi o atti, quelli ordinari degli enti territoriali minori, per assumere ed esercitare compiutamente, in situazioni straordinarie, le funzioni proprie di questi. Dogmaticamente potremmo distinguere due generali categorie di sostituzione: quella amministrativa e quella legislativa, a seconda dell’attività giuridica nella quale il sostituto interviene. Nonostante tale distinzione riguardi in generale il rapporto tra organi o enti della stessa o di differenti amministrazioni, con eguale o diverso grado di autonomia; la ricerca ha mirato ad analizzare le due summenzionate categorie con stretto riferimento agli enti territoriali. I presupposti, l’oggetto e le modalità di esercizio avrebbero consentito ovviamente di sottocatalogare le due generali categorie di sostituzione, ma un’indagine volta a individuare e classificare ogni fattispecie di attività sostitutiva, più che un’attività complessa, è sembrata risultare di scarsa utilità. Più proficuo è parso il tentativo di ricostruire la storia e l’evoluzione del menzionato istituto, al fine di definire e comprendere i meccanismi che consentono l’attività sostitutiva. Nel corso della ricostruzione non si è potuto trascurare che, all’interno dell’ordinamento italiano, l’istituto della sostituzione è nato nel diritto amministrativo tra le fattispecie che regolavano l’esercizio della funzione amministrativa indiretta. La dottrina del tempo collocava la potestà sostitutiva nella generale categoria dei controlli. La sostituzione, infatti, non avrebbe avuto quel valore creativo e propulsivo, nel mondo dell’effettualità giuridica, quell’energia dinamica ed innovatrice delle potestà attive. La sostituzione rappresentava non solo la conseguenza, ma anche la continuazione del controllo. Le fattispecie, che la menzionata dottrina analizzava, rientravano principalmente all’interno di due categorie di sostituzione: quella disposta a favore dello Stato contro gli inadempimenti degli enti autarchici – principalmente il comune – nonché la sostituzione operata all’interno dell’organizzazione amministrativa dal superiore gerarchico nei confronti del subordinato. Già in epoca unitaria era possibile rinvenire poteri sostitutivi tra enti, la prima vera fattispecie di potestà sostitutiva, era presente nella disciplina disposta da diverse fattispecie dell'allegato A della legge 20 marzo 1856 n. 2248, sull'unificazione amministrativa del Regno. Tentativo del candidato è stato quello, quindi, di ricostruire l'evoluzione delle fattispecie sostitutive nella stratificazione normativa che seguì con il T.U. della legge Comunale e Provinciale R.D. 4 febbraio 1915 e le successive variazioni tra cui il R.D.L. 30 dicembre 1923. Gli istituti sostitutivi vennero meno (di fatto) con il consolidarsi del regime fascista. Il fascismo, che in un primo momento aveva agitato la bandiera delle autonomie locali, non tardò, come noto, una volta giunto al potere, a seguire la sua vera vocazione, dichiarandosi ostile a ogni proposito di decentramento e rafforzando, con la moltiplicazione dei controlli e la soppressione del principio elettivo, la già stretta dipendenza delle comunità locali dallo Stato. Vennero meno i consigli liberamente eletti e al loro posto furono insediati nel 1926 i Podestà e i Consultori per le Amministrazioni comunali; nel 1928 i Presidi e i Rettorati per le Amministrazioni Provinciali, tutti organi nominati direttamente o indirettamente dall’Amministrazione centrale. In uno scenario di questo tipo i termini autarchia e autonomia risultano palesemente dissonanti e gli istituti di coordinamento tra Stato ed enti locali furono ad esso adeguati; in tale ordinamento, infatti, la sostituzione (pur essendo ancora presenti istituti disciplinanti fattispecie surrogatorie) si presentò come un semplice rapporto interno tra organi diversi, di uno stesso unico potere e non come esso è in realtà, anello di collegamento tra soggetti differenti con fini comuni (Stato - Enti autarchici); per semplificare, potremmo chiederci, in un sistema totalitario come quello fascista, in cui tutti gli interessi sono affidati all’amministrazione centrale, chi dovrebbe essere il sostituito. Il potere sostitutivo (in senso proprio) ebbe una riviviscenza nella normativa post-bellica, come reazione alla triste parentesi aperta dal fascismo, che mise a nudo i mali e gli abusi dell’accentramento statale. La suddetta normativa iniziò una riforma in favore delle autonomie locali; infatti, come noto, tutti i partiti politici assunsero posizione in favore di una maggiore autonomia degli enti territoriali minori e ripresero le proposte dei primi anni dell’Unità di Italia avanzate dal Minghetti, il quale sentiva l’esigenza dell’istituzione di un ente intermedio tra Stato e Province, a cui affidare interessi territorialmente limitati: la Regione appunto. Emerge piuttosto chiaramente dalla ricerca che la storia politica e l’evoluzione del diritto pubblico documentano come ad una sempre minore autonomia locale nelle politiche accentratrici dello Stato unitario prima, e totalitario poi, corrisponda una proporzionale diminuzione di istituti di raccordo come i poteri sostitutivi; al contrario ad una sempre maggiore ed evoluta autonomia dello Stato regionalista della Costituzione del 1948 prima, e della riforma del titolo V oggi, una contestuale evoluzione e diffusione di potestà sostitutive. Pare insomma che le relazioni stato-regioni, regioni-enti locali che la sostituzione presuppone, sembrano rappresentare (ieri come oggi) uno dei modi migliori per comprendere il sistema delle autonomie nell’evoluzione della stato regionale e soprattutto dopo la riforma apportata dalla legge costituzionale 18 ottobre 2001, n. 3. Dalla preliminare indagine storica un altro dato, che pare emergere, sembra essere la constatazione che l'istituto nato e giustificato da esigenze di coerenza e efficienza dell'azione amministrativa sia stato trasferito nell'ambio delle relazioni tra stato e autonomie territoriali. Tale considerazione sembra essere confermata dal proseguo dell’indagine, ed in particolare dai punti di contatto tra presupposti e procedure di sostituzione nell’analisi dell’istituto. Nonostante, infatti, il Costituente non disciplinò poteri sostitutivi dello Stato o delle regioni, al momento di trasferire le competenze amministrative alle regioni la Corte costituzionale rilevò il problema della mancanza di istituti posti a garantire gli interessi pubblici, volti ad ovviare alle eventuali inerzie del nuovo ente territoriale. La presente ricerca ha voluto infatti ricostruire l’ingresso dei poteri sostitutivi nel ordinamento costituzionale, riportando le sentenze del Giudice delle leggi, che a partire dalla sentenza n. 142 del 1972 e dalla connessa pronuncia n. 39 del 1971 sui poteri di indirizzo e coordinamento dello Stato, pur non senza incertezze e difficoltà, ha finito per stabilire un vero e proprio “statuto” della sostituzione con la sentenza n. 177 del 1988, individuando requisiti sostanziali e procedurali, stimolando prima e correggendo successivamente gli interventi del legislatore. Le prime fattispecie sostitutive furono disciplinate con riferimento al rispetto degli obblighi comunitari, ed in particolare con l’art. 27 della legge 9 maggio 1975, n. 153, la quale disciplina, per il rispetto dell’autonomia regionale, venne legittimata dalla stessa Corte nella sentenza n. 182 del 1976. Sempre con riferimento al rispetto degli obblighi comunitari intervenne l’art. 6 c. 3°, D.P.R. 24 luglio 1977, n. 616. La stessa norma va segnalata per introdurre (all’art. 4 c. 3°) una disciplina generale di sostituzione in caso di inadempimento regionale nelle materie delegate dallo Stato. Per il particolare interesse si deve segnalare il D.M. 21 settembre 1984, sostanzialmente recepito dal D.L. 27 giugno 1985, n. 312 (disposizioni urgenti per la tutela delle zone di particolare interesse ambientale), poi convertito in legge 8 agosto 1985, n. 431 c.d. legge Galasso. Tali disposizioni riaccesero il contenzioso sul potere sostitutivo innanzi la Corte Costituzionale, risolto nelle sentt. n. 151 e 153 del 1986. Tali esempi sembrano dimostrare quello che potremmo definire un dialogo tra legislatore e giudice della costituzionalità nella definizione dei poteri sostitutivi; il quale culminò nella già ricordata sent. n. 177 del 1988, nella quale la Corte rilevò che una legge per prevedere un potere sostitutivo costituzionalmente legittimo deve: essere esercitato da parte di un organo di governo; nei confronti di attività prive di discrezionalità nell’an e presentare idonee garanzie procedimentali in conformità al principio di leale collaborazione. Il modello definito dalla Corte costituzionale sembra poi essere stato recepito definitivamente dalla legge 15 marzo 1997, n. 59, la quale per prima ha connesso la potestà sostitutiva con il principio di sussidiarietà. Detta legge sembra rappresentare un punto di svolta nell’indagine condotta perché consente di interpretare al meglio la funzione – che già antecedentemente emergeva dallo studio dei rapporti tra enti territoriali – dei poteri sostitutivi quale attuazione del principio di sussidiarietà. La legge costituzionale 18 ottobre 2001, n. 3, ha disciplinato all’interno della Costituzione ben due fattispecie di poteri sostitutivi all’art. 117 comma 5 e all’art. 120 comma 2. La “lacuna” del 1948 necessitava di essere sanata – in tal senso erano andati anche i precedenti tentativi di riforma costituzionale, basti ricordare l’art. 58 del progetto di revisione costituzionale presentato dalla commissione D’Alema il 4 novembre 1997 – i disposti introdotti dal riformatore costituzionale, però, non possono certo essere apprezzati per la loro chiarezza e completezza. Le due richiamate disposizioni costituzionali, infatti, hanno prodotto numerose letture. Il dibattito ha riguardato principalmente la natura delle due fattispecie sostitutive. In particolare, si è discusso sulla natura legislativa o amministrativa delle potestà surrogatorie e sulla possibilità da parte del legislatore di introdurre o meno la disciplina di ulteriori fattispecie sostitutive rispetto a quelle previste dalla Costituzione. Con particolare riferimento all’art. 120 c. 2 Cost. sembra semplice capire che le difficoltà definitorie siano state dovute all’indeterminatezza della fattispecie, la quale attribuisce al Governo il potere sostitutivo nei confronti degli organi (tutti) delle regioni, province, comuni e città metropolitane. In particolare, la dottrina, che ha attribuito all’art. 120 capoverso la disciplina di un potere sostitutivo sulle potestà legislative delle Regioni, è partita dalla premessa secondo la quale detta norma ha una funzione fondamentale di limite e controllo statale sulle Regioni. La legge 18 ottobre 2001 n. 3 ha, infatti, variato sensibilmente il sistema dei controlli sulle leggi regionali, con la modificazione degli artt. 117 e 127 della Costituzione; pertanto, il sistema dei controlli dopo la riforma del 2001, troverebbe nel potere sostitutivo ex art. 120 la norma di chiusura. Sul tema è insistito un ampio dibattito, al di là di quello che il riformatore costituzionale avrebbe dovuto prevedere, un’obiezione (più delle altre) pare spingere verso l’accoglimento della tesi che propende per la natura amministrativa della fattispecie in oggetto, ovvero la constatazione che il Governo è il soggetto competente, ex art. 120 capoverso Cost., alla sostituzione; quindi, se si intendesse la sostituzione come avente natura legislativa, si dovrebbe ritenere che il Costituente abbia consentito all’Esecutivo, tosto che al Parlamento, l’adozione di leggi statali in sostituzione di quelle regionali. Suddetta conseguenza sembrerebbe comportare una palese violazione dell’assetto costituzionale vigente. Le difficoltà interpretative dell’art. 120 Cost. si sono riversate sulla normativa di attuazione della riforma costituzionale, legge 5 giugno 2003, n. 131. In particolare nell’art. 8, il quale ha mantenuto un dettato estremamente vago e non ha preso una chiara e netta opzione a favore di una della due interpretazione riportate circa la natura della fattispecie attuata, richiamando genericamente che il potere sostitutivo si adotta “Nei casi e per le finalità previsti dall'articolo 120” Cost. Di particolare interesse pare essere, invece, il procedimento disciplinato dal menzionato art. 8, il quale ha riportato una procedura volta ad attuare quelle che sono state le indicazioni della Corte in materia. Analogamente agli anni settanta ed ottanta, le riportate difficoltà interpretative dell’art. 120 Cost. e, più in generale il tema dei poteri sostitutivi dopo la riforma del 2001, sono state risolte e definite dal giudice della costituzionalità. In particolare, la Corte sembra aver palesemente accolto (sent. n. 43 del 2004) la tesi sulla natura amministrativa del potere sostitutivo previsto dall’art. 120 c. 2 Cost. Il giudice delle leggi ha tra l’altro fugato i dubbi di chi, all’indomani della riforma costituzionale del 2001, aveva letto nel potere sostitutivo, attribuito dalla riformata Costituzione al Governo, l’illegittimità di tutte quelle previsioni legislative regionali, che disponevano ipotesi di surrogazione (da parte della regione) nei confronti degli enti locali. La Corte costituzionale, infatti, nella già citata sentenza ha definito “straordinario” il potere di surrogazione attribuito dall’art. 120 Cost. allo Stato, considerando “ordinare” tutte quelle fattispecie sostitutive previste dalla legge (statale e regionale). Particolarmente innovativa è la parte dell'indagine in cui la ricerca ha verificato in concreto la prassi di esercizio della sostituzione statale, da cui sono sembrate emergere numerose tendenze. In primo luogo significativo sembra essere il numero esiguo di sostituzioni amministrative statali nei confronti delle amministrazioni regionali; tale dato sembra dimostrare ed essere causa della scarsa “forza” degli esecutivi che avrebbero dovuto esercitare la sostituzione. Tale conclusione sembra trovare conferma nell'ulteriore dato che sembra emergere ovvero i casi in cui sono stati esercitati i poteri sostitutivi sono avvenuti tutti in materie omogenee (per lo più in materia di tutela ambientale) che rappresentano settori in cui vi sono rilevanti interessi pubblici di particolare risonanza nell'opinione pubblica. Con riferimento alla procedura va enfatizzato il rispetto da parte dell'amministrazione sostituente delle procedure e dei limiti fissati tanto dal legislatore quanto nella giurisprudenza costituzionale al fine di rispettare l'autonomia dell'ente sostituito. Dalla ricerca emerge che non è stato mai esercitato un potere sostitutivo direttamente ex art. 120 Cost., nonostante sia nella quattordicesima (Governo Berlusconi) che nella quindicesima legislatura (Governo Prodi) con decreto sia stata espressamente conferita al Ministro per gli affari regionali la competenza a promuovere l’“esercizio coordinato e coerente dei poteri e rimedi previsti in caso di inerzia o di inadempienza, anche ai fini dell'esercizio del potere sostitutivo del Governo di cui all'art. 120 della Costituzione”. Tale conclusione, però, non lascia perplessi, bensì, piuttosto, sembra rappresentare la conferma della “straordinarietà” della fattispecie sostitutiva costituzionalizzata. Infatti, in via “ordinaria” lo Stato prevede sostituzioni per mezzo di specifiche disposizioni di legge o addirittura per mezzo di decreti legge, come di recente il D.L. 09 ottobre 2006, n. 263 (Misure straordinarie per fronteggiare l'emergenza nel settore dei rifiuti nella regione Campania. Misure per la raccolta differenziata), che ha assegnato al Capo del Dipartimento della protezione civile della Presidenza del Consiglio dei Ministri “le funzioni di Commissario delegato per l'emergenza nel settore dei rifiuti nella regione Campania per il periodo necessario al superamento di tale emergenza e comunque non oltre il 31 dicembre 2007”. Spesso l’aspetto interessante che sembra emergere da tali sostituzioni, disposte per mezzo della decretazione d’urgenza, è rappresentato dalla mancata previsione di diffide o procedure di dialogo, perché giustificate da casi di estrema urgenza, che spesso spingono la regione stessa a richiedere l’intervento di surrogazione. Del resto è stata la stessa Corte costituzionale a legittimare, nei casi di particolare urgenza e necessità, sostituzioni prive di dialogo e strumenti di diffida nella sent. n. 304 del 1987. Particolare attenzione è stata data allo studio dei poteri sostitutivi regionali. Non solo perché meno approfonditi in letteratura, ma per l’ulteriore ragione che tali fattispecie, disciplinate da leggi regionali, descrivono i modelli più diversi e spingono ad analisi di carattere generale in ordine alla struttura ed alla funzione dei poteri sostitutivi. Esse sembrano rappresentare (in molti casi) modelli da seguire dallo stesso legislatore statale, si vedano ad esempio leggi come quella della regione Toscana 31 ottobre 2001, n. 53, artt. 2, 3, 4, 5, 7; legge regione Emilia-Romagna 24 marzo 2004, n. 6, art. 30, le quali recepiscono i principi sviluppati dalla giurisprudenza costituzionale e scandiscono un puntuale procedimento ispirato alla collaborazione ed alla tutela delle attribuzioni degli enti locali. La ricerca di casi di esercizio di poter sostitutivi è stata effettuata anche con riferimento ai poteri sostitutivi regionali. I casi rilevati sono stati numerosi in particolare nella regione Sicilia, ma si segnalano anche casi nelle regioni Basilicata ed Emilia-Romagna. Il dato principale, che sembra emergere, pare essere che alle eterogenee discipline di sostituzione corrispondano eterogenee prassi di esercizio della sostituzione. Infatti, alle puntuali fattispecie di disciplina dei poteri sostitutivi dell’Emilia-Romagna corrispondono prassi volte ad effettuare la sostituzione con un delibera della giunta (organo di governo) motivata, nel rispetto di un ampio termine di diffida, nonché nella ricerca di intese volte ad evitare la sostituzione. Alla generale previsione della regione Sicilia, pare corrispondere un prassi sostitutiva caratterizzata da un provvedimento del dirigente generale all’assessorato per gli enti locali (organo di governo?), per nulla motivato, salvo il richiamo generico alle norme di legge, nonché brevi termini di diffida, che sembrano trovare la loro giustificazione in note o solleciti informati che avvisano l’ente locale della possibile sostituzione. In generale il fatto che in molti casi i poteri sostitutivi siano stimolati per mezzo dell’iniziativa dei privati, sembra dimostrare l’attitudine di tal istituto alla tutela degli interessi dei singoli. I differenti livelli nei quali operano i poteri sostitutivi, il ruolo che la Corte ha assegnato a tali strumenti nell’evoluzione della giurisprudenza costituzionale, nonché i dati emersi dall’indagine dei casi concreti, spingono ad individuare nel potere sostitutivo uno dei principali strumenti di attuazione del principio di sussidiarietà, principio quest’ultimo che sembra rappresentare – assieme ai corollari di proporzionalità, adeguatezza e leale collaborazione – la chiave di lettura della potestà sostitutiva di funzioni amministrative. In tal senso, come detto, pare emergere dall’analisi di casi concreti come il principio di sussidiarietà per mezzo dei poteri sostitutivi concretizzi quel fine, a cui l’art. 118 cost. sembra mirare, di tutela degli interessi pubblici, consentendo all’ente sovraordinato di intervenire laddove l’ente più vicino ai cittadini non riesca. Il principio di sussidiarietà sembra essere la chiave di lettura anche dell’altra categoria della sostituzione legislativa statale. L’impossibilità di trascurare o eliminare l’interesse nazionale, all’interno di un ordinamento regionale fondato sull’art. 5 Cost., sembra aver spino la Corte costituzionale ad individuare una sorta di “potere sostitutivo legislativo”, attraverso il (seppur criticabile) meccanismo introdotto per mezzo della sent. 303 del 2003 e della cosiddetta “chiamata i sussidiarietà”. Del resto adattare i principi enucleati nella giurisprudenza costituzionale a partire dalla sent. n. 117 del 1988 alla chiamata in sussidiarietà e i limiti che dal principio di leale collaborazione derivano, sembra rappresentare un dei modi (a costituzione invariata) per limitare quello che potrebbe rappresentare un meccanismo di rilettura dell’art. 117 Cost. ed ingerenza dello stato nelle competenze della regioni. Nonostante le sensibili differenze non si può negare che lo strumento ideato dalla Corte abbia assunto le vesti della konkurrierende gesetzgebung e, quindi, di fatto, di un meccanismo che senza limiti e procedure potrebbe rappresentare uno strumento di interferenza e sostituzione della stato nelle competenze regionali. Tali limiti e procedure potrebbero essere rinvenuti come detto nelle procedure di sostituzione scandite nelle pronunce del giudice delle leggi. I risultati che si spera emergeranno dalla descritta riflessione intorno ai poteri sostitutivi e il conseguente risultato circa lo stato del regionalismo italiano, non sembrano, però, rappresentare un punto di arrivo, bensì solo di partenza. I poteri sostitutivi potrebbero infatti essere oggetto di futuri interventi di riforma costituzionale, così come lo sono stati in occasione del tentativo di riforma del 2005. Il legislatore costituzionale nel testo di legge costituzionale approvato in seconda votazione a maggioranza assoluta (recante “Modifiche alla Parte II della Costituzione” e pubblicato in gazzetta ufficiale n. 269 del 18-11-2005) pareva aver fatto un scelta chiara sostituendo il disposto “Il Governo può sostituirsi a organi delle Regioni, delle città metropolitane, delle Province e dei Comuni” con “Lo Stato può sostituirsi alle Regioni, alle città metropolitane, alle Province e ai Comuni nell'esercizio delle funzioni loro attribuite dagli articoli 117 e 118”. Insomma si sarebbe introdotto quello strumento che in altri Paesi prende il nome di Supremacy clause o Konkurrierende Gesetzgebung, ma quali sarebbero state le procedure e limiti che lo Stato avrebbe dovuto rispettare? Il dettato che rigidamente fissa le competenze di stato e regioni, assieme alla reintroduzione espressa dell’interesse nazionale, non avrebbe ridotto eccessivamente l’autonomia regionale? Tali interrogativi mirano a riflettere non tanto intorno a quelli che potrebbero essere gli sviluppi dell’istituto dei poteri sostitutivi. Piuttosto essi sembrano rappresenterebbe l’ulteriore punto di vista per tentare di comprendere quale percorso avrebbe potuto (o potrebbe domani) prendere il regionalismo italiano.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il seguente elaborato nasce per venire incontro ad una richiesta di aiuto partita dalla comunità di St. Albert, un centro missionario nel nord dello Zimbabwe. In questo stato ogni giorno milioni di persone lottano per sopravvivere contro fame ed epidemie, la comunità di St. Albert nata attorno all’omonimo ospedale combatte contro queste calamità cercando di fornire medicinali, cibo e un istruzione. Purtroppo alcuni anni fa, a causa del perdurare di condizioni siccitose, i pozzi da cui la missione prelevava acqua si sono quasi completamente prosciugati facendo sì che l’intera missione rischiasse di non poter proseguire la sua attività. Nel 2008 si sono verificate precipitazioni più intense che hanno determinato una ricarica di falda e la ripresa dell’utilizzo di parte dei pozzi, ma questi accadimenti anno messo a nudo la non completa affidabilità di questa fonte di approvvigionamento, così si è evidenziata la necessità di creare un bacino imbrifero artificiale. In situazioni di insicurezza sulla disponibilità idrica la diversificazione delle fonti di approvvigionamento diventa indispensabile. Così nel 2004 si iniziò a costruire una diga per creare un bacino di riserva idrica nelle vicinanze, oggi i lavori sono quasi ultimati ma manca un impianto di potabilizzazione che renda adatta l’acqua prelevata dall’invaso per il consumo umano. Con questa tesi si vuole dare un supporto progettuale alla creazione del potabilizzatore, cercando di ridisegnare il funzionamento della rete per permettere un uso più razionale possibile delle risorse idriche. Facendo ciò però ci si dovrà calare in una serie di problematiche di contesto economiche e sociali di un paese in profonda crisi, dove può risultare un problema reperire i materiali e le risorse più basilari, anche quelle più strettamente organizzative e logistiche, che richiedono la valutazione dello stato di know-how locale in relazione alle capacità di gestire apparecchiature di un certo livello tecnologico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La ricerca consiste nell’analisi degli elementi normativi che caratterizzano l’azione della Comunità in materia di alimenti. L’obiettivo è quello di verificare l’esistenza di un nucleo di principi comuni cui il legislatore comunitario si ispira nella ricerca di un equilibrio tra le esigenze di tutela della salute e quelle relative alla libera circolazione degli alimenti. Lo studio si apre con la ricostruzione storica delle principali fasi che hanno condotto alla definizione della politica comunitaria di sicurezza alimentare. Durante i primi anni del processo di integrazione europea, l’attenzione del legislatore comunitario si è concentrata sugli alimenti, esclusivamente in virtù della loro qualità di merci. La tutela della salute rimaneva nella sfera di competenza nazionale e le incursioni del legislatore comunitario in tale settore erano volte ad eliminare le divergenze normative suscettibili di rappresentare un ostacolo al commercio. Nella trattazione sono illustrati i limiti che un approccio normativo essenzialmente orientato alla realizzazione del mercato interno era in grado potenzialmente di creare sul sistema e che le vicende legate alle crisi alimentari degli anni Novanta hanno contribuito a rendere evidenti. Dall’urgenza di un coinvolgimento qualitativamente diverso della Comunità nelle tematiche alimentari, si è sviluppata progressivamente la necessità di una politica che fosse in grado di determinare un punto di equilibrio tra le esigenze di sicurezza alimentare e quelle della libera circolazione degli alimenti. Il risultato di tale processo di riflessione è stata l’adozione del Regolamento 178/2002 CE che stabilisce i principi e i requisiti generali della legislazione alimentare ed istituisce l’Autorità per la sicurezza alimentare. Nei capitoli successivi, è svolta un’analisi dettagliata delle innovazioni normative introdotte nell’ambito dell’azione comunitaria in materia di alimenti, con l’obiettivo di verificare se tale riforma abbia impresso alla formazione delle regole in materia di alimenti caratteristiche e specificità proprie. In particolare, vengono esaminate le finalità della politica alimentare comunitaria, evidenziando il ruolo centrale ormai assunto dalla tutela della salute rispetto al principio fondamentale della libera circolazione. Inoltre, l’analisi si concentra nell’identificazione del campo di applicazione materiale – la definizione di alimento – e personale – la definizione di impresa alimentare e di consumatore – della legislazione alimentare. Successivamente, l'analisi si concentra s sui principi destinati ad orientare l’attività normativa della Comunità e degli Stati membri nell’ambito del settore in precedenza individuato. Particolare attenzione viene dedicata allo studio dell’interazione tra l’attività di consulenza scientifica e la fase politico-decisionale, attraverso l’approfondimento del principio dell’analisi dei rischi, del principio di precauzione e del principio di trasparenza. Infine, l’analisi si conclude con lo studio di alcuni requisiti innovativi introdotti dal Regolamento 178 come la rintracciabilità degli alimenti, l’affermazione generale dell’esigenza di garantire la sicurezza dei prodotti e la responsabilità primaria degli operatori del settore alimentare. Il risultato del profondo ripensamento del sistema attuato con il Regolamento 178 é la progressiva individuazione di un quadro di principi e requisiti orizzontali destinati ad imprimere coerenza ed organicità all’azione della Comunità in materia di alimenti. Tale tendenza è inoltre confermata dalla giurisprudenza comunitaria che utilizza tali principi in chiave interpretativa ed analogica. Lo studio si conclude con alcune considerazioni di carattere generale, mettendo in luce la difficoltà di bilanciare le esigenze di protezione della salute con gli imperativi della libera di circolazione degli alimenti. Tale difficoltà dipende dalla natura di merce “complessa” dei prodotti alimentari nel senso che, accanto alla dimensione economica e commerciale, essi sono caratterizzati da un’importante dimensione sociale e culturale. L'indagine svolta mostra come nel settore considerato la ricerca di un equilibrio tra esigenze contrapposte ha prodotto una sostanziale centralizzazione della gestione della politica alimentare a livello europeo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tesi mira ad analizzare e valutare le attuali relazioni esistenti tra le regioni e l’Unione europea, alla luce dei processi di riforma in atto sia sul versante interno sia su quello europeo. In particolare, essa prende spunto dalla riforma del Titolo V della Costituzione italiana e dalle leggi di attuazione della stessa, che hanno ridisegnato i contorni del regionalismo italiano. Nell’introduzione si analizza il contesto europeo delle relazioni dell’Unione con le entità sub-statali; in tal senso si è voluto preliminarmente chiarire il senso in cui si è utilizzato il termine “regione”: non tutti gli Stati europei infatti accolgono una tale nozione nel senso in cui essa è utilizzata nell’ordinamento italiano, né i poteri conferiti alle regioni sono i medesimi in tutti gli Stati che utilizzano ripartizioni territoriali simili alle regioni italiane. Prendendo come punto di riferimento per la prima parte della ricerca le entità territoriali dotate di competenze legislative, trascurando le relazioni dell’UE con i soggetti sub-statali con attribuzioni meramente amministrative. La ricerca prende dunque le mosse dal concetto di “regionalismo comunitario”. La questione regionale ha sempre costituito un problema aperto per le istituzioni comunitarie (legato alla problematica del “deficit democratico” dei processi legislativi comunitari). Le istituzioni, soprattutto agli inizi del cammino di integrazione europea, risentivano infatti delle origini internazionali delle Comunità, e consideravano quale unici interlocutori possibili i governi centrali degli Stati membri. Si è quindi voluta mettere in luce la rapida evoluzione dell’attitudine regionale dell’Unione, provocata da una nuova coscienza comunitaria legata alla prima fase di attuazione della politica dei fondi strutturali, ma soprattutto all’ingresso sulla scena europea del principio di sussidiarietà, e degli effetti che esso è stato in grado di produrre sull’intero sistema di relazioni Stati/Regioni/Unione europea: l’Unione è giunta di recente ad accogliere una nozione più ampia di Stato, comprensiva – anche se in modo limitato e solo per alcuni fini – delle entità sub-statali. Lo studio si concentra poi sull’ordinamento italiano, presentando lo stato attuale della legislazione nazionale relativa alla partecipazione delle regioni al sistema del diritto comunitario. All’inizio del capitolo si precisa la fondamentale distinzione tra fase ascendente, cioè partecipazione di rappresentanti regionali alle procedure legislative dell’Unione, e fase discendente, cioè relativa al ruolo delle regioni nell’attuazione del diritto comunitario; tale distinzione appare necessaria al fine di chiarire le diverse modalità che può assumere il ruolo delle regioni nel sistema comunitario, e sarà ripresa durante tutta la ricerca. Il secondo capitolo esamina la riforma costituzionale del 2001, complessivamente orientata verso una ridefinizione del nostro sistema delle autonomie e delle loro relazioni con l’Unione europea. Nel nuovo testo costituzionale le prerogative regionali risultano ormai “costituzionalizzate”, trovano ora definitiva collocazione nell’art. 117 Cost. La riforma del 2001 comporta alcuni elementi innovativi circa la complessiva strutturazione del rapporto tra l’ordinamento nazionale e quello comunitario, in particolare prevedendo che “le regioni, nelle materie di loro competenza, partecipano alle decisioni dirette alla formazione degli atti normativi comunitari, nel rispetto delle norme di procedura stabilite con legge dello Stato”. Grazie a questa previsione il coinvolgimento delle regioni assume rango costituzionale e si impone al legislatore ordinario, il quale può continuare a determinarne le modalità procedurali ma non cancellarlo o pregiudicarlo in modo sostanziale. In secondo luogo l’art. 117 Cost. propone, all’interno del nostro ordinamento, una definizione complessiva del rapporto tra le fonti statali e quelle regionali, rimodulando le sfere e le modalità di “interferenza” tra lo Stato e le autonomie regionali. Con riferimento alla ripartizione di competenze, l’evoluzione è evidente: da un sistema in cui la competenza generale era statale, e veniva fornita un’elencazione di dettaglio delle materie che facevano eccezione, si è giunti oggi ad un sistema capovolto, in cui per ogni materia non contenuta nell’elencazione dell’articolo 117 la competenza può essere regionale; in tale sistema può leggersi una forma di “sussidiarietà legislativa”, come messo in luce dalla ricerca. Lo studio passa poi ad analizzare le concrete modalità di partecipazione regionale nelle disposizioni delle leggi primarie che hanno dato attuazione alla novella costituzionale, con riferimento tanto alla fase ascendete quanto a quella discendente. La fase ascendente, osservata nel secondo capitolo della tesi, può verificarsi tramite la partecipazione diretta di rappresentanti regionali alle riunioni del Consiglio, così come previsto da una disposizione della legge n. 131/2003 (“La Loggia”), i cui risultati si sono rivelati però piuttosto modesti e privi, in assenza di una radicale revisione dei Trattati, di serie prospettive di sviluppo. Ma esiste altresì un'altra tipologia di relazioni sviluppabili in fase ascendente, relazioni “indirette”, cioè svolte tramite l’intermediazione dello Stato, che si fa portavoce delle istanze regionali a Bruxelles. In tale prospettiva, la ricerca si concentra sulle disposizioni della legge n. 11/2005 (“Buttiglione”), che riformano il sistema delle conferenze, prevedono precisi obblighi informativi per il Governo nei confronti delle regioni in relazione all’adozione di atti comunitari ed introducono nel panorama legislativo italiano l’istituto della riserva d’esame, al fine di dare maggior peso alle istituzioni regionali al momento dell’adozione di atti comunitari. La tesi passa poi all’analisi della fase discendente. Le funzioni regionali in materia di attuazione del diritto comunitario risultano altresì ampliate non soltanto alla luce della nuova formulazione dell’art. 117 Cost., ma anche e soprattutto grazie ad una disposizione della legge “Buttiglione”, che introduce la possibilità di adottare “leggi comunitarie regionali”, da adottarsi sul modello di legge comunitaria nazionale vigente nel nostro ordinamento fin dal 1989. Tale disposizione ha dato il via ad una serie di processi di riforma all’interno degli ordinamenti giuridici regionali, volti a predisporre tutti gli strumenti legislativi utili all’adozione delle leggi comunitarie regionali, di gran lunga la novità più importante contenuta nella disciplina della legge “Buttiglione”. Perciò, dopo un’analisi approfondita relativa al nuovo riparto di competenze tra Stato e regioni, oggetto della prima parte del capitolo terzo, ed uno studio relativo al locus standi delle regioni nel sistema giurisdizionale europeo, svolto nella seconda parte dello stesso capitolo, l’ultima parte della tesi è rivolta ad individuare gli atti regionali di maggior interesse nella prospettiva dell’attuazione del diritto comunitario realizzata tramite leggi comunitarie regionali. In quest’ambito particolare attenzione è stata rivolta alla legislazione della regione Emilia-Romagna, che si è dimostrata una delle regioni più attente e capaci di cogliere le potenzialità presenti nel “nuovo” sistema di relazioni delle regioni con il sistema comunitario.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

E’ stato in primo luogo definito il criterio di efficienza dal punto di vista economico (con una accenno anche ai parametri elaborati dagli studiosi di discipline aziendali), nelle sue varie accezioni, ponendo altresì ciascuna di queste in relazione alle condizioni di concorrenza perfetta. Le nozioni di efficienza che sono state definite a tal fine sono quelle di efficienza allocativa, efficienza tecnica, efficienza dinamica ed efficienza distributiva. Ciascuna di esse é stata inquadrata a livello teorico secondo le definizioni fornite dalla letteratura, esaminandone le ipotesi sottostanti. E’ stata altresì descritta, contestualizzandola temporalmente, l’evoluzione della nozione, e ne sono state evidenziate le implicazioni ai fini della ricerca della forma di mercato più “efficiente”. Sotto quest’ultimo aspetto l’attenzione dello scrivente si é incentrata sul rapporto tra le diverse accezioni di efficienza economica oggetto di analisi e la desiderabilità o meno di un regime di concorrenza perfetta. Il capitolo si conclude con una breve panoramica sulle metodologie di misurazione finalizzata ad individuare i principali parametri utilizzati per determinare il livello di efficienza, di un mercato, di un’attività produttiva o di un’impresa, posto che, come verrà specificato nel prosieguo della tesi, la valutazione di efficienza in ambito antitrust deve essere verificata, ove possibile, anche basandosi sull’evidenza empirica delle singole imprese esaminate, come richiede il criterio della rule of reason. Capitolo 2 Presupposto per avere una regolazione che persegua l’obiettivo di avere una regolazione efficiente ed efficace, è, a parere di chi scrive, anche l’esistenza di autorità pubbliche deputate a esercitare la funzione regolatoria che rispettino al proprio interno e nel proprio agire la condizione di efficienza definita rispetto ai pubblici poteri. Lo sviluppo di questa affermazione ha richiesto in via preliminare, di definire il criterio di efficienza in ambito pubblicistico individuandone in particolare l’ambito di applicazione, il suo rapporto con gli altri principi che reggono l’azione amministrativa (con particolare riferimento al criterio di efficacia). Successivamente é stato collocato nel nostro ordinamento nazionale, ponendolo in relazione con il principio di buon andamnento della Pubblica Amministrazione, benchè l’ordinamento italiano, per la sua specificità non costituisca un esempio estendibile ad ordinamenti. Anche con riferimento al criterio di efficienza pubblica, un paragrafo é stato dedicato alle metodologie di misurazione di questa, e, nello specifico sull’Analisi Costi-Benefici e sull’Analisi di Impatto della Regolazione Una volta inquadrata la definizione di efficienza pubblica, questa é stata analizzata con specifico riferimento all’attività di regolazione dell’economia svolta dai soggetti pubblici, ambito nella quale rientra la funzione antitrust. Si é provato in particolare ad evidenziare, a livello generale, quali sono i requisiti necessari ad un’autorità amministrativa antitrust, costituita e dotata di poteri ad hoc, affinché essa agisca, nella sua attività di regolazione, secondo il principio di efficienza, Il capitolo si chiude allargando l’orizzonte della ricerca verso una possibile alternativa metodologica al criterio di efficienza precedentemente definito: vi si é infatti brevemente interrogati circa lo schema interpretativo nel quale ci muoviamo, affrontando la questione definitoria del criterio di efficienza, ponendolo in relazione con l’unico modello alternativo esistente, quello sviluppatosi nella cultura cinese. Non certo per elaborare un’applicazione in “salsa cinese” del criterio di efficienza alla tutela della concorrenza, compito al quale lo scrivente non sarebbe stato in grado di ottemperare, bensì, più semplicemente per dare conto di un diverso approccio alla questione che il futuro ruolo di superpotenza economica della Cina imporrà di prendere in considerazione. Capitolo 3 Nel terzo capitolo si passa a definire il concetto di concorrenza come istituto oggetto di tutela da parte della legge antitrust, per poi descrivere la nascita e l’evoluzione di tale legislazione negli Stati Uniti e della sua applicazione, posto che il diritto antitrust statunitense ancora oggi costituisce il necessario punto di riferimento per lo studioso di questa materia. L’evoluzione del diritto antitrust statunitense é stata analizzata parallelamente allo sviluppo delle principali teorie di law and economics che hanno interpretato il diritto della concorrenza quale possibile strumento per conseguire l’obiettivo dell’efficienza economica: la Scuola di Harvard e il paradigma strutturalista, la teoria evoluzionista della Scuola Austriaca, la Scuola di Chicago; le c.d. teorie “Post-Chicago”. Nel terzo capitolo, in altri termini, si é dato conto dell’evoluzione del pensiero economico con riferimento alla sua applicazione al diritto antitrust, focalizzando l’attenzione su quanto avvenuto negli Stati Uniti, paese nel quale sono nati sia l’istituto giuridico della tutela della concorrenza sia l’analisi economica del diritto. A conclusione di questa ricostruzione dottrinale ho brevemente esaminato quelle che sono le nuove tendenze dell’analisi economica del diritto, e specificatamente la teoria del comportamento irrazionale, benché esse non abbiano ancora ricevuto applicazione al diritto antitrust. Chi scrive ritiene infatti che queste teorie avranno ricadute anche in questa materia poiché essa costituisce uno dei principali ambiti applicativi della law and economics. Capitolo 4 Nel quarto capitolo é stata effettuata una disanima della disciplina comunitaria antitrust sottolineando come l’Unione Europea si proponga attraverso la sua applicazione, soprattutto in materia di intese, di perseguire fini eterogenei, sia economici che non economici, tra loro diversi e non di rado contrastanti, e analizzando come questa eterogeneità di obiettivi abbia influito sull’applicazione del criterio di efficienza. Attenendomi in questo capitolo al dato normativo, ho innanzitutto evidenziato l’ampiezza dell’ambito di applicazione della disciplina comunitaria antitrust sia dal punto di vista soggettivo che territoriale (dottrina dell’effetto utile), sottolineando come la norma giustifichi esplicitamente il ricorso al criterio di efficienza solo nella valutazione delle intese: il comma 3 dell’art. 81 del Trattato include, infatti, tra i requisiti di una possibile esenzione dall’applicazione del divieto per le intese qualificate come restrittive della concorrenza, la possibilità di ottenere incrementi di efficienza tecnica e/o dinamica attraverso l’implementazione delle intese in questione. Tuttavia la previsione da parte dello stesso art. 81 (3) di altri requisiti che devono contemporaneamente essere soddisfatti affinché un intesa restrittiva della concorrenza possa beneficiare dell’esenzione, nonché la possibile diversa interpretazione della locuzione “progresso tecnico ed economico”, impone, o comunque ammette, il perseguimento di altri obiettivi, contestualmente a quello dell’efficienza, giustificando così quell’eterogeneità dei fini che contraddistingue la politica della concorrenza dell’Unione Europea. Se la disciplina delle intese aiuta a comprendere il ruolo del criterio di efficienza nell’applicazione dei precetti antitrust da parte degli organi comunitari, l’art. 82 del Trattato non contiene invece alcun riferimento alla possibilità di utilizzare il criterio di efficienza nella valutazione delle condotte unilaterali poste in essere da imprese in posizione dominante sul mercato rilevante. Si è peraltro dato conto della consultazione recentemente avviata dalla Commissione Europea finalizzata all’elaborazione di Linee Guida che definiscano i criteri di interpretazione che l’organo comunitario dovrà seguire nella valutazione dei comportamenti unilaterali. A parere dello scrivente, anzi, l’assenza di un preciso schema cui subordinare la possibilità di ricorrere al criterio di efficienza nella valutazione della fattispecie, attribuisce alle autorità competenti un più ampio margine di discrezionalità nell’utilizzo del suddetto criterio poiché manca il vincolo della contestuale sussistenza delle altre condizioni di cui all’art. 81(3). Per quanto concerne infine la disciplina delle concentrazioni, essa, come abbiamo visto, prevede un riferimento ai possibili incrementi di efficienza (tecnica e dinamica) derivanti da operazioni di fusione, utilizzando la nozione utilizzata per le intese, così come nel precedente Regolamento 4064/89. Si é infine analizzato il nuovo Regolamento in materia di concentrazioni che avrebbe potuto costituire l’occasione per recepire nella disciplina comunitaria l’attribuzione della facoltà di ricorrere all’efficiency defense in presenza di una fattispecie, quella della fusione tra imprese, suscettibile più di altre di essere valutata secondo il criterio di efficienza, ma che si é invece limitato a riprendere la medesima locuzione presente nell’art. 81(3). Il capitolo attesta anche l’attenzione verso l’istanza di efficienza che ha riguardato il meccanismo di applicazione della norma antitrust e non il contenuto della norma stessa; a questo profilo attiene, infatti, l’innovazione apportata dal Regolamento 1/2003 che ha permesso, a parere dello scrivente, un’attribuzione più razionale della competenza nella valutazione dei casi tra la Commissione e le autorità nazionali degli Stati membri; tuttavia pone alcune questioni che investono direttamente il tema dei criteri di valutazione utilizzati dalle autorità competenti. Capitolo 5 L’analisi del quarto capitolo é stata condotta, sebbene in forma più sintetica, con riferimento alle normative antitrust dei principali Stati membri della Comunità Europea (Germania, Gran Bretagna, Spagna, Francia e Italia), rapportando anche queste al criterio di efficienza, ove possibile. Particolare attenzione é stata dedicata ai poteri e alle competenze attribuite alle autorità nazionali antitrust oggetto di studio dall’ordinamento giuridico cui appartengono e al contesto, in termini di sistema giuridico, nel quale esse operano. Capitolo 6 Si é provato ad effettuare una valutazione del livello di efficienza delle autorità prese in esame, la Commissione e le diverse autorità nazionali e ciò con particolare riferimento alla idoneità di queste a svolgere i compiti istituzionali loro affidati (criterio di efficienza dal punto di vista giuridico): affinchè un’autorità si possa ispirare al criterio di efficienza economica nell’adozione delle decisioni, infatti, è preliminarmente necessario che essa sia idonea a svolgere il compito che le è stato affidato dall’ordinamento. In questo senso si é osservata la difficoltà dei paesi di civil law a inquadrare le autorità indipendenti all’interno di un modello, quello appunto di civil law, ispirato a una rigida tripartizione dei poteri. Da qui la difficile collocazione di queste autorità che, al contrario, costituiscono un potere “ibrido” che esercita una funzione di vigilanza e garanzia non attribuibile integralmente né al potere esecutivo né a quello giurisdizionale. Si rileva inoltre una certa sovrapposizione delle competenze e dei poteri tra autorità antitrust e organi ministeriali, in particolare nel campo delle concentrazioni che ingenera un rischio di confusione e bassa efficienza del sistema. Mantenendo, infatti, un parziale controllo politico si rischia, oltre all’introduzione di criteri di valutazione politica che prescindono dagli effetti delle fattispecie concrete sul livello di concorrenza ed efficienza del mercato, anche di dare luogo a conflitti tra le diverse autorità del sistema che impediscano l’adozione e l’implementazione di decisioni definitive, incrementando altresì i costi dell’intervento pubblico. Un giudizio a parte è stato infine formulato con riguardo alla Commissione Europea, istituzione, in quanto avente caratteristiche e poteri peculiari. Da un lato l’assenza di vincolo di mandato dei Commissari e l’elevata preparazione tecnica dei funzionari costituiscono aspetti che avvicinano la Commissione al modello dell’autorità indipendenti, e l’ampiezza dei poteri in capo ad essa le permette di operare efficientemente grazie anche alla possibilità di valersi dell’assistenza delle autorità nazionali. Dall’altra parte, tuttavia la Commissione si caratterizza sempre di più come un organo politico svolgente funzioni esecutive, di indirizzo e di coordinamento che possono influenzare gli obiettivi che essa persegue attraverso l’attività antitrust, deviandola dal rispetto del criterio di efficienza. Capitolo 7 Una volta definito il contesto istituzionale di riferimento e la sua idoneità a svolgere la funzione affidatagli dall’ordinamento comunitario, nonché da quelli nazionali, si è proceduto quindi all’analisi delle decisioni adottate da alcune delle principali autorità nazionali europee competenti ad applicare la disciplina della concorrenza dal punto di vista dell’efficienza. A tal fine le fattispecie rilevanti a fini antitrust dal punto di vista giuridico sono state classificate utilizzando un criterio economico, individuando e definendo quelle condotte che presentano elementi comuni sotto il profilo economico e per ciascuna di esse sono state inquadrate le problematiche rilevanti ai fini dell’efficienza economica sulla scorta dei contributi teorici e delle analisi empiriche svolte dalla letteratura. 6 Con riferimento a ciascuna condotta rilevante ho esaminato il contenuto di alcune delle decisioni antitrust più significative e le ho interpretate in base al criterio di efficienza. verificando se e in quale misura le autorità antitrust prese in esame utilizzano tale criterio, cercando altresì di valutare l’evoluzione dei parametri di valutazione occorsa nel corso degli anni. Le decisioni analizzate sono soprattutto quelle adottate dalla Commissione e le eventuali relative sentenze della Corte di Giustizia Europea; ciò sia per la maggior rilevanza dei casi trattati a livello comunitario, sia in quanto le autorità nazionali, con qualche rara eccezione, si conformano generalmente ai criteri interpretativi della Commissione. Riferimenti a decisioni adottate dalle autorità nazionali sono stati collocati allorquando i loro criteri interpretativi si discostino da quelli utilizzati dagli organi comunitari. Ne è emerso un crescente, anche se ancora sporadico e incostante, ricorso al criterio di efficienza da parte degli organi europei preposti alla tutela della concorrenza. Il tuttora scarso utilizzo del criterio di efficienza nello svolgimento dell’attività antitrust è motivato, a parere di chi scrive, in parte dall’eterogeneità degli obiettivi che l’Unione Europea persegue attraverso la politica della concorrenza comunitaria (completamento del mercato unico, tutela del consumatore, politica industriale, sviluppo delle aree svantaggiate), in parte dall’incapacità (o dall’impossibilità) delle autorità di effettuare coerenti analisi economiche delle singole fattispecie concrete. Anche le principali autorità nazionali mostrano una crescente propensione a tendere conto dell’efficienza nella valutazione dei casi, soprattutto con riferimento agli accordi verticali e alle concentrazioni, sulla scia della prassi comunitaria. Più innovativa nell’applicazione del criterio di efficienza economica così come nella ricerca di uso ottimale delle risorse si è finora dimostrato l’OFT, come vedremo anche nel prossimo capitolo. Al contrario sembra più lenta l’evoluzione in questo senso dell’Ufficio dei Cartelli tedesco sia a causa delle già citate caratteristiche della legge antitrust tedesca, sia a causa del persistente principio ordoliberale della prevalenza del criterio della rule of law sulla rule of reason. Peraltro, anche nei casi in cui le Autorità siano propense ad utilizzare il criterio di efficienza nelle loro valutazioni, esse si limitano generalmente ad un’analisi teorica dell’esistenza di precondizioni che consentano alle imprese in questione di ottenere guadagni di efficienza. La sussistenza di tali pre-condizioni viene infatti rilevata sulla base della capacità potenziale della condotta dell’impresa (o delle imprese) di avere un effetto positivo in termini di efficienza, nonché sulla base delle caratteristiche del mercato rilevante. Raramente, invece, si tiene conto della capacità reale dei soggetti che pongono in essere la pratica suscettibile di essere restrittiva della concorrenza di cogliere effettivamente queste opportunità, ovvero se la struttura e l’organizzazione interna dell’impresa (o delle imprese) non è in grado di mettere in pratica ciò che la teoria suggerisce a causa di sue carenza interne o comunque in ragione delle strategie che persegue. Capitolo 8 Poiché l’approccio ispirato al criterio di efficienza economica non può prescindere dalle caratteristiche del settore e del mercato in cui operano l’impresa o le imprese che hanno posto in essere la condotta sotto esame, e poiché una valutazione approfondita di tutti i settori non era effettuabile per quantità di decisioni adottate dalle autorità, ho infine ritenuto di svolgere un’analisi dettagliata dell’attività delle autorità con riferimento ad uno specifico settore. La scelta è caduta sul settore dei trasporti in quanto esso presenta alcune problematiche che intrecciano l’esigenza di efficienza con la tutela della concorrenza, nonché per la sua importanza ai fini dello sviluppo economico. Tanto più alla luce del fenomeno della crescente apertura dei mercati che ha enfatizzato la triplice funzione dei trasporti di merci, di livellamento nello spazio dei prezzi di produzione, di redistribuzione nello spazio dell’impiego dei fattori della produzione, e soprattutto di sollecitazione al miglioramento delle tecnologie utilizzate nella produzione stessa in quanto contribuiscono alla divisione territoriale del lavoro e alla specializzazione produttiva. A loro volta, d’altra parte, i miglioramenti tecnici e organizzativi intervenuti nel settore negli ultimi trenta anni hanno reso possibile il fenomeno della globalizzazione nella misura in cui lo conosciamo. Così come le riduzioni di costo e di tempo conseguite nel trasporto di persone hanno consentito massicci spostamenti di lavoratori e più in generale di capitale umano da una parte all’altra del globo, e favorito altresì la spettacolare crescita del settore turistico. Ho quindi condotto un’analisi delle decisioni antitrust relative al settore dei trasporti, suddividendo la casistica in base al comparto al quale esse si riferivano, cercando sempre di non perdere di vista i crescenti legami che esistono tra i vari comparti alla luce dell’ormai affermato fenomeno del trasporto multimodale. Dall’analisi svolta emerge innanzitutto come l’assoggettamento del settore dei trasporti alla disciplina di tutela della concorrenza sia un fenomeno relativamente recente rispetto alle altre attività economiche, laddove la ragione di tale ritardo risiede nel fatto che tradizionalmente questo settore era caratterizzato da un intervento pubblico diretto e da una pervasiva regolamentazione, a sua volta giustificata da vari fattori economici: le caratteristiche di monopolio naturale delle infrastrutture; le esigenze di servizio pubblico connesse all’erogazione di molti servizi di trasporto; il ruolo strategico svolto dal trasporto sia di persone che di merci ai fini della crescita economica di un sistema. Si concretizza, inoltre, con riferimento ai trasporti marittimi e aerei, l’inadeguatezza della dimensione nazionale e comunitaria delle autorità competenti rispetto a comportamenti di impresa che spesso hanno effetti letteralmente globali. Le imprese marittime e aeree coinvolte nelle fattispecie da noi esaminate, infatti, in molti casi predisponevano, direttamente o mediatamente, tramite “alleanze”, collegamenti tra tutte le aree del mondo, individuando nell’Europa solo un nodo di un network ben più ampio Da questa constatazione discende, a parere dello scrivente, l’impossibilità per l’autorità comunitaria e ancor più per quella nazionale di individuare tutti gli effetti in termini di efficienza che la fattispecie concreta può provocare, non includendo pertanto solo quelli evidenti sul mercato comunitario. Conseguentemente una reale applicazione del criterio di efficienza all’attività antitrust nel settore dei trasporti non può prescindere da una collaborazione tra autorità a livello mondiale sia a fini di indagine che a fini di individuazione di alcuni principi fondamentali cui ispirarsi nello svolgimento della loro missione istituzionale. Capitolo 9. Conclusioni L’opera si chiude con l’individuazione delle evidenze e degli elementi emersi dalla trattazione considerati dallo scrivente maggiormente rilevanti nell’ambito dell’attuale dibattito di economia positiva circa le principali problematiche che affiggono l’intervento antitrust con particolare riferimento al suo rispetto del criterio di efficienza. Sono state altresì proposte alcune soluzioni a quelle che sono, a parere dello scrivente, le principali carenze dell’attuale configurazione dell’intervento antitrust a livello europeo, sempre in una prospettiva di efficienza sia delle autorità competenti sia dei mercati in cui le autorità stesse cercano di mantenere o ripristinare condizioni di concorrenza effettiva. Da un lato il modello costituito dalla Commissione Europea, l’autorità antitrust comunitaria, non replicabile né esente da critiche: la Commissione, infatti, rappresenta il Governo dell’Unione Europea e come tale non può ovviamente costituire un esempio di autorità indipendente e neutrale recepibile da parte degli Stati membri. Ciò anche a prescindere dalla questione della sua legittimazione, che in questa sede non affrontiamo. Dall’altro in una prospettiva di efficienza dei mercati la crescente applicazione delle teorie economiche da parte delle autorità esaminate è rimasta a un livello astratto, senza porre la dovuta attenzione alle specificità dei mercati rilevanti né tantomeno alle dinamiche interne alle singole imprese, con particolare riferimento alla loro capacità di rendere effettivi i guadagni di efficienza individuabili a livello potenziale, così come prescrive la più recente teoria economica applicata al diritto antitrust. Sotto il profilo dell’applicazione del criterio di efficienza si può comunque affermare che l’evoluzione che ha avuto la prassi decisionale e la giurisprudenza, comunitaria e degli Stati membri, in materia antitrust è stata caratterizzata dal loro progressivo avvicinamento alle tendenze sviluppatesi nelle agencies e nella giurisprudenza statunitense a partire dagli anni’70, caratterizzate dalla valutazione degli effetti, piuttosto che della forma giuridica, dal riconoscimento del criterio di efficienza e dalla rule of reason quale approccio metodologico. L’effetto è stato quello di determinare una significativa riduzione delle differenze inizialmente emerse tra le due esperienze, nate inizialmente sotto diverse prospettive politiche. Per quanto concerne specificatamente i trasporti sono emersi sotto il profilo economico due aspetti rilevanti, oltre al perdurante ritardo con cui il processo di liberalizzazione del trasporto ferroviario che limita fortemente l’intervento antitrust nel comparto, ma che esula dalla competenza delle stesse autorità antitrust. Il primo consiste nella spesso troppo rigida separazione tra comparti adottata dalle autorità. Il secondo è l’estensivo ricorso all’essential facility doctrine nelle fattispecie riguardanti infrastrutture portuali e aeroportuali: la massimizzazione dell’efficienza dinamica consiglierebbe in questi casi una maggiore cautela, in quanto si tratta di un paradigma che, una volta applicato, disincentiva la duplicazione e l’ampliamento di tali infrastrutture autoalimentandone il carattere di essenzialità. Ciò soprattutto laddove queste infrastrutture possono essere sostituite o duplicate piuttosto facilmente da un punto di vista tecnico (meno da un punto di vista economico e giuridico), essendo esse nodi e non reti. E’stata infine sottolineata l’inadeguatezza della dimensione nazionale e comunitaria delle autorità competenti rispetto a comportamenti di impresa che con riferimento ai trasporti marittimi ed aerei hanno effetti letteralmente globali. E’ di tutta evidenza che le autorità comunitarie e tantomeno quelle nazionali non sono da sole in grado di condurre le analisi quantitative necessarie ad una valutazione di tali condotte ispirata a un criterio di efficienza che tenga conto degli effetti di lungo periodo della fattispecie concreta. Né tali autorità sono sufficientemente neutre rispetto alla nazionalità delle imprese indagate per poter giudicare sulla liceità o meno della condotta in questione senza considerare gli effetti della loro decisione sull’economia interna, rendendo così ancora più improbabile un corretto utilizzo del criterio di efficienza. Da ultimo ho constatato come l’applicazione del concetto di efficienza giuridica imporrebbe di concepire autorità antitrust del tutto nuove, sganciate quanto più possibile dall’elemento territoriale, in grado di elaborare regole e standards minimi comuni e di permettere il controllo dei comportamenti di impresa in un contesto ampliato rispetto al tradizionale mercato unico, nonchè ai singoli mercati nazionali. Il processo di armonizzazione a livello globale è difficile e il quadro che attualmente viene formato è ancora confuso e incompleto. Vi sono tuttavia sparsi segnali attraverso i quali é possibile intravedere i lineamenti di una futura global governance della concorrenza che permetterà, sperabilmente, di incrementare l’efficienza di un sistema, quello antitrust, che tanto più piccolo è l’ambito in cui opera quanto più si sta dimostrando inadeguato a svolgere il compito affidatogli. Solo il futuro, peraltro, ci consentirà di verificare la direzione di sviluppo di questi segnali.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

SCOPO DELLA RICERCA Aedes albopictus è diventata in pochi anni dalla sua introduzione in Italia la specie di zanzara più nociva e più importante sotto il profilo sanitario. Essendo una zanzara tipicamente urbana e ad attività diurna, limita fortemente la fruizione degli spazi aperti ed incide negativamente su alcune attività economiche. Il recente episodio epidemico di Chikungunya, che ha colpito il nostro Paese, ha allarmato le autorità sanitarie nazionali ed europee che stanno attivando misure di prevenzione e contrasto per fronteggiare il rischio che il virus diventi endemico o che altri virus possano essere introdotti nelle nostre aree. Le misure di lotta contro Aedes albopictus attualmente in essere (lotta larvicida, rimozione dei microfocolai, informazione e coinvolgimento dei cittadini) non danno risultati sufficienti in termini di capacità di contenimento delle densità del vettore. Per questo è stato avviato un progetto di ricerca centrato sull'applicazione del metodo dell'autocidio a questa specie. L’attività di ricerca svolta ha avuto come scopo la messa a punto delle metodiche di allevamento massale e di sterilizzazione in grado di permettere la produzione di maschi di qualità sufficiente a garantire una buona fitness nelle condizioni di campo e competitività coi maschi selvatici nella fase di accoppiamento. Le prove condotte possono essere raggruppate sotto tre principali campi di indagine: Prove di allevamento, Prove di Irraggiamento e Prove di Competizione. 1. Prove di allevamento In questo ambito sono state esaminate nuove diete larvali al fine di ottenere una più elevata produttività in termini di pupe con tempi di impupamento e dimensioni delle pupe più omogenei. È stata inoltre valutata la possibile reazione fagostimolante dell’ATP addizionato al pasto di sangue delle femmine adulte con lo scopo di incrementare la produttività di uova prodotte dai ceppi di Ae.albopictus in allevamento. 2. Prove di irraggiamento Attraverso prove di laboratorio sono stati investigati in gabbia gli effetti sterilizzanti di diverse dosi radianti (20 - 85 Gy) sulle pupe maschio di Ae. albopictus per la valutazione dei livelli di sterilità, fertilità e fecondità indotti sulle femmine. Si sono compiute inoltre indagini per valutare eventuali alterazioni dello stato fisiologico dei maschi irraggiati e dei livelli di sterilità indotti su femmine, in funzione dell’età pupale alla quale venivano sottoposti a radiazioni. Analisi degli effetti delle radiazioni sui tempi di rotazione genitale, sulla velocità ed efficacia degli accoppiamenti e sui tempi di sfarfallamento degli adulti sono state condotte su maschi irraggiati a diverse dosi. Infine su femmine di Ae. albopictus si sono realizzate prove in gabbia per lo studio dei tempi di recettività all'accoppiamento. Prove di competizione L'effetto negativo della colonizzazione in condizioni artificiali e l'irraggiamento sono riconosciuti come i fattori principali che incidono sulla competitività dei maschi sterilizzati nei confronti di quelli fertili. Per la verifica della variazione di fitness dovuta a imbreeding ed eterosi, prove di competizione in serra (7,5 x 5 x 2,80 m) sono state realizzate impiegando ceppi allevati in laboratorio, ceppi selvatici raccolti in campo e ceppi ibridi ottenuti incrociando diversi ceppi di laboratorio. RISULTATI 1. Prove di allevamento Sono state confrontate la dieta standard (DS = 2,5 mg/larva Friskies Adult ® + 0,5 mg/larva lievito di birra) e la nuova dieta integrata addizionata di Tetramin ® (DI = DS + 0,2 mg/larva Tetramin ®) per l’alimentazione delle larve in allevamento. Le prove condotte hanno evidenziato una buona risposta nelle percentuali di impupamento e di produttività in termini di pupe per la nuova dieta senza però evidenziare miglioramenti significativi con la DS. Con la dieta integrata si ottiene un impupamento a 7 giorni del 66,6% delle larve allevate (65% con la DS) e il setacciamento a 1400 μm delle pupe ottenute produce in media il 98,3% di maschi nel setacciato (98,5% con la DS). Con la dieta standard la percentuale di maschi ottenuti sulle larve iniziali è pari a 27,2% (20-25% con la DS). Come riportato da Timmermann e Briegel (1999) la dieta delle larve va strutturata con l’obiettivo di garantire un ampio range di elementi nutritivi evitando così il rischio di carenze o sub-carenze che possano influire negativamente sulla produttività dell’allevamento e sulle condizioni di vigore dei maschi. Secondo Reisen (1980, 1982), l’influenza negativa dell’allevamento sulla competitività dei maschi nella fase di accoppiamento potrebbe essere di maggiore peso rispetto all’influenza dell’irraggiamento dei maschi. Infine le prove di laboratorio condotte per la verifica dell’efficacia fagostimolante di ATP nel pasto di sangue offerto alle femmine dell’allevamento non hanno evidenziato differenze significative in nessuno dei parametri considerati tra il campione nutrito con ATP e il testimone. Nella realizzazione di allevamenti massali per la produzione di maschi da irraggiare, si ritiene quindi opportuno mantenere la nuova dieta testata che garantisce una spettro nutritivo più ampio e completo alle larve in allevamento. L’aggiunta di ATP nel pasto di sangue delle femmine adulte non sarà impiegato in quanto troppo costoso e significativamente poco produttivo nel garantire un aumento del numero di uova prodotte. 2. Prove di irraggiamento Oltre alla sopravvivenza e alla sterilità, la scelta dello stadio di sviluppo più conveniente da irraggiare in un programma SIT dipende dalla possibilità di maneggiare in sicurezza grandi quantità di insetti senza danneggiarli durante tutte le fasi che intercorrono tra l’allevamento massale, l’irraggiamento e il lancio in campo. La fase pupale risulta sicuramente più vantaggiosa per il maggior numero di pupe irraggiabili per unità di volume e per il minimo danneggiamento arrecabile all'insetto che viene mantenuto in acqua durante tutte le procedure. La possibilità di lavorare con la minima dose radiante efficace, significa ridurre lo stress provocato inevitabilmente alle pupe maschio, che si manifesta nell’adulto con una ridotta longevità, una diminuita capacità di accoppiamento o di ricerca del partner e attraverso possibili alterazioni comportamentali che possono rendere il maschio inattivo o inefficace una volta introdotto in campo. I risultati ottenuti sottoponendo pupe maschili a irraggiamento a differenti ore dall’impupamento evidenziano come la maturità del campione influisca sia sulla mortalità delle pupe che sull’efficacia sterilizzante dell’irraggiamento. Come riportato anche da Wijeyaratne (1977) le pupe più vecchie mostrano una minore mortalità e una maggiore sensibilità alle radiazioni rispetto a quelle più giovani. In particolare si è osservato come pupe maschili di età superiore 24h fossero maggiormente sensibili all’irraggiamento riportando minore perdita di competitività rispetto alle pupe irraggiate precocemente. La minore dose impiegata per il raggiungimento della sterilità con minimi effetti sulla longevità dei maschi trattati e con livelli di fecondità e fertilità indotti sulle femmine non differenti dal testimone, corrisponde a 40Gy (Cs 137 - 2,3 Gy/min). Analizzando la sopravvivenza dei maschi, si osserva una tendenza all'aumento della mortalità in funzione dell’aumento della dose fornita per tutte le età pupali di irraggiamento testate. Per trattamenti condotti su pupe di età > 30h la longevità dei maschi non risente dell’irraggiamento fino a dosi di 40Gy. La fecondità delle femmine accoppiatesi con maschi irraggiati con dosi superiori a 40Gy mostra una tendenza alla riduzione del numero di uova prodotte con l’aumentare della dose ricevuta dal maschio. L’irraggiamento delle pupe non determina variazioni significative nei tempi di sfarfallamento degli adulti per le diverse dosi radianti fornite e per le differenti età pupali testate in rapporto al testimone. L’irraggiamento influenza al contrario i tempi di rotazione dei genitali esterni dei maschi evidenziando un ritardo proporzionale alla dose ricevuta. Resta da definire sui maschi irraggiati l’effetto combinato dei due effetti sui tempi di sfarfallamento degli adulti anche se appare chiara l’assenza di variazioni significative per la dose di irraggiamento 40Gy scelta come radiazione utile per la sterilizzazione dei maschi da lanciare in campo. Per quanto riguarda l’analisi dei tempi di accoppiamento dei maschi irraggiati si osserva in generale una minore reattività rispetto ai maschi fertili particolarmente marcata nei maschi irraggiati a dosi superiori i 40 Gy. Gli studi condotti sui tempi di accoppiamento delle femmine evidenziano una buona recettività (>80%) all’accoppiamento solo per femmine di età superiore a 42 - 48 h femmine. Prima di tale periodo la femmina realizza accoppiamenti con normale appaiamento dei due sessi ma non riceve il trasferimento degli spermi. 3. Prove di competizione Prove preliminari di competizione in tunnel svolte nel 2006 su ceppi selvatici e di allevamento avevano mostrato risultati di competitività dei maschi sterili (50 Gy) segnati da forte variabilità. Nel 2007 dopo aver condotto analisi per la verifica dei tempi di sfarfallamento, di accoppiamento e di rotazione genitale nei maschi sterilizzati, e di recettività nelle femmine, sono state realizzate nuove prove. In queste prove maschi adulti di Ae. albopictus irraggiati a 40Gy sono stati posizionati in campo, in ambiente naturale ombreggiato ed isolato, all’interno di serre (8x5x2,8 m) insieme a maschi adulti fertili e femmine vergini di Ae. albopictus con rapporto 1:1:1. Le prove preliminari 2006 erano condotte con le medesime condizioni sperimentali del 2007 ad eccezione dei tempi di inserimento delle femmine vergini passati da 1 giorno nel 2006, a 3 giorni nel 2007 dall’immissione dei maschi in tunnel. Sono state effettuate prove testando la competizione tra esemplari provenienti da ceppi di allevamento (cicli di allevamento in gabbia > 15), ceppi selvatici (da materiale raccolto in campo e con cicli di allevamento in gabbia < 5) e ceppi ibridi (ottenuti dall’incrocio di ceppi italiani di diversa provenienza geografica). I risultati ottenuti mostrano indici di competizioni medi accettabili senza evidenziare differenza fra i ceppi impiegati. L’allevamento massale quindi non deprime i ceppi allevati e gli ibridi realizzati non mostrano una vigoria superiore ne rispetto ai ceppi selvatici ne rispetto agli allevati in laboratorio.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questa tesi di dottorato ha per suo oggetto la ricognizione degli elementi teorici, di linguaggio politico e di influenza concettuale che le scienze sociali tra Ottocento e Novecento hanno avuto nell’opera di Antonio Gramsci. La ricerca si articola in cinque capitoli, ciascuno dei quali intende ricostruire, da una parte, la ricezione gramsciana dei testi classici della sociologia e della scienza politica del suo tempo, dall’altra, far emergere quelle filiazioni concettuali che permettano di valutare la portata dell’influenza delle scienze sociali sugli scritti gramsciani. Il lungo processo di sedimentazione concettuale del lessico delle scienze sociali inizia in Gramsci già negli anni della formazione politica, sullo sfondo di una Torino positivista che esprime le punte più avanzate del “progetto grande borghese” per lo studio scientifico della società e per la sua “organizzazione disciplinata”; di questa tradizione culturale Gramsci incrocia a più riprese il percorso. La sua formazione più propriamente politica si svolge però all’interno del Partito socialista, ancora imbevuto del lessico positivista ed evoluzionista. Questi due grandi filoni culturali costituiscono il brodo di coltura, rifiutato politicamente ma al tempo stesso assunto concettualmente, per quelle suggestioni sociologiche che Gramsci metterà a frutto in modo più organico nei Quaderni. La ricerca e la fissazione di una specifica antropologia politica implicita al discorso gramsciano è il secondo stadio della ricerca, nella direzione di un’articolazione complessiva delle suggestioni sociologiche che i Quaderni assumono come elementi di analisi politica. L’analisi si sposta sulla storia intellettuale della Francia della Terza Repubblica, più precisamente sulla nascita del paradigma sociologico durkheimiano come espressione diretta delle necessità di integrazione sociale. Vengono così messe in risalto alcune assonanze lessicali e concettuali tra il discorso di Durkheim, di Sorel e quello di Gramsci. Con il terzo capitolo si entra più in profondità nella struttura concettuale che caratterizza il laboratorio dei Quaderni. Si ricostruisce la genesi di concetti come «blocco storico», «ideologia» ed «egemonia» per farne risaltare quelle componenti che rimandano direttamente alle funzioni di integrazione di un sistema sociale. La declinazione gramsciana di questo problema prende le forme di un discorso sull’«organicità» che rende più che mai esplicito il suo debito teorico nei confronti dell’orizzonte concettuale delle scienze sociali. Il nucleo di problemi connessi a questa trattazione fa anche emergere l’assunzione di un vero e proprio lessico sociologico, come per i concetti di «conformismo» e «coercizione», comunque molto distante dallo spazio semantico proprio del marxismo contemporaneo a Gramsci. Nel quarto capitolo si affronta un caso paradigmatico per quanto riguarda l’assunzione non solo del lessico e dei concetti delle scienze sociali, ma anche dei temi e delle modalità della ricerca sociale. Il quaderno 22 intitolato Americanismo e fordismo è il termine di paragone rispetto alla realtà che Gramsci si prefigge di indagare. Le consonanze delle analisi gramsciane con quelle weberiane dei saggi su Selezione e adattamento forniscono poi gli spunti necessari per valutare le novità emerse negli Stati Uniti con la razionalizzazione produttiva taylorista, specialmente in quella sua parte che riguarda la pervasività delle tecniche di controllo della vita extra-lavorativa degli operai. L’ultimo capitolo affronta direttamente la questione delle aporie che la ricezione della teoria sociologica di Weber e la scienza politica italiana rappresentata dagli elitisti Mosca, Pareto e Michels, sollevano per la riformulazione dei concetti politici gramsciani. L’orizzonte problematico in cui si inserisce questa ricerca è l’individuazione di una possibile “sociologia del politico” gramsciana che metta a tema quel rapporto, che è sempre stato di difficile composizione, tra marxismo e scienze sociali.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente studio ha come obbiettivo lo sviluppo di composti di origine naturale come potenziali farmaci antitumorali, attraverso la definizione dei loro specifici target cellulari e molecolari su diversi modelli cellulari ad alta predittività. Gli isotiocianati, contenuti nei vegetali appartenenti alla famiglia delle Crucifereae, sono dotati di una comprovata capacità di inibire la formazione di tumori in modelli animali preventivamente trattati con cancerogeni. Questa attività è riconducibile principalmente alla modulazione degli enzimi coinvolti nell’attivazione/detossificazione di xenobiotici e ad effetti citostatici e citossici, osservati su numerose linee cellulari. Un isotiocianato particolarmente promettente è il sulforafane (SFN). La ricerca condotta durante il periodo di dottorato si è, quindi, focalizzata sull’isotiocianato SFN e in particolare sulla sua capacità di modulare specifici eventi cellulari e molecolari coinvolti nel processo di leucemogenesi. Inizialmente è stato indagato il potenziale citostatico e citotossico del SFN su una linea cellulare T linfoblastoide (cellule Jurkat), con particolare attenzione agli effetti sulla proliferazione cellulare, all’induzione di apoptosi/necrosi e all’analisi di alcuni dei meccanismi molecolari coinvolti negli effetti citostatici e citotossici dell’isotiocianato ( livelli proteici di p53, bax e bcl-2). Successivamente, poiché requisiti fondamentali di un antitumorale sono selettività d’azione e scarsa tossicità, è stato indagato il potenziale citostatico e citotossico dell’isotiocianato SFN sulla controparte non trasformata delle cellule leucemiche T linfoblastoidi, analizzando gli stessi eventi studiati su cellule tumorali e alcuni dei meccanismi molecolari coinvolti (livelli proteici di ciclina D2, ciclina D3, chinasi ciclina dipendente (CDK) 4 e CDK6 ). Il SFN si è dimostrato in grado di indurre apoptosi sulle cellule Jurkat e di inibirne la proliferazione, mediante un blocco in fase G2/M del ciclo cellulare e un incremento dei livelli di p53 e bax. Il SFN è in grado di indurre effetti citostatici e citotossici anche su linfociti T non trasformati. Tuttavia, le dosi necessarie per esibire tali effetti sono ben più elevate di quelle attive su cellule leucemiche. Una tappa importante nello sviluppo di un farmaco antitumorale è, la definizione, dove possibile, dei suoi effetti in un modello ex vivo, altamente predittivo di quella che sarà la risposta farmacologica in vivo. Sono stati quindi valutati gli effetti del SFN su colture primarie di blasti provenienti da pazienti affetti da diversi tipi di leucemia , sia mieloide che linfoblastica. Il SFN non sembra possedere alcuna attività su campioni da pazienti affetti da LLC, mentre un importante attività proapoptotica si registra nei campioni da pazienti affetti da LMA, dove l’effetto del SFN è sorprendentemente marcato anche su campioni da pazienti multiresistenti. L’attività dell’isotiocianato sui campioni da pazienti affetti da LLA è decisamente più marcata sul campione da paziente affetto da LLA a cellule B, mentre sul campione di Leucemia Acuta Bifenotipica l’effetto proapoptotico del SFN si registra dopo tempi di trattamento brevi piuttosto che dopo tempi di trattamento più lunghi. In conclusione, i risultati ottenuti evidenziano che il SFN possiede un’interessante attività antileucemica in vitro e, dato di particolare rilevanza, anche ex vivo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tesi si occupa della teoria delle ranking functions di W. Spohn, dottrina epistemologica il cui fine è dare una veste logica rigorosa ai concetti di causalità, legge di natura, spiegazione scientifica, a partire dalla nozione di credenza. Di tale teoria manca ancora una esposizione organica e unitaria e, soprattutto, formulata in linguaggio immediatamente accessibile. Nel mio lavoro, che si presenta come introduzione ad essa, è anche messa a raffronto con le teorie che maggiormente l’hanno influenzata o rispetto alle quali si pone come avversaria. Il PRIMO CAPITOLO si concentra sulla teoria di P. Gärdenfors, il più diretto predecessore e ispiratore di Spohn. Questo consente al lettore di acquisire familiarità con le nozioni di base della logica epistemica. La conoscenza, nella teoria del filosofo svedese, è concepita come processo di acquisizione ed espulsione di credenze, identificate con proposizioni, da un insieme. I tre maggiori fenomeni epistemici sono l’espansione, la revisione e la contrazione. Nel primo caso si immagazzina una proposizione in precedenza sconosciuta, nel secondo se ne espelle una a causa dell’acquisizione della sua contraddittoria, nel terzo si cancella una proposizione per amore di ipotesi e si investigano le conseguenze di tale cancellazione. Controparte linguistica di quest’ultimo fenomeno è la formulazione di un condizionale controfattuale. L’epistemologo, così come Gärdenfors concepisce il suo compito, è fondamentalmente un logico che deve specificare funzioni: vale a dire, le regole che deve rispettare ciascun passaggio da un insieme epistemico a un successivo per via di espansione, revisione e contrazione. Il SECONDO CAPITOLO tratta infine della teoria di Spohn, cercando di esporla in modo esauriente ma anche molto semplice. Anche in Spohn evidentemente il concetto fondamentale è quello di funzione: si tratta però in questo caso di quella regola di giudizio soggettivo che, a ciascuna credenza, identificata con una proposizione, associa un grado (un rank), espresso da un numero naturale positivo o dallo zero. Un rank è un grado di non-credenza (disbelief). Perché la non-credenza (che comporta un notevole appesantimento concettuale)? Perché le leggi della credenza così concepite presentano quella che Spohn chiama una “pervasiva analogia” rispetto alle leggi della probabilità (Spohn la chiama persino “armonia prestabilita” ed è un campo su cui sta ancora lavorando). Essenziale è il concetto di condizionalizzazione (analogo a quello di probabilità condizionale): a una credenza si associa un rank sulla base di (almeno) un’altra credenza. Grazie a tale concetto Spohn può formalizzare un fenomeno che a Gärdenfors sfugge, ossia la presenza di correlazioni interdoxastiche tra le credenze di un soggetto. Nella logica epistemica del predecessore, infatti, tutto si riduce all’inclusione o meno di una proposizione nell’insieme, non si considerano né gradi di credenza né l’idea che una credenza sia creduta sulla base di un’altra. Il TERZO CAPITOLO passa alla teoria della causalità di Spohn. Anche questa nozione è affrontata in prospettiva epistemica. Non ha senso, secondo Spohn, chiedersi quali siano i tratti “reali” della causalità “nel mondo”, occorre invece studiare che cosa accade quando si crede che tra due fatti o eventi sussista una correlazione causale. Anche quest’ultima è fatta oggetto di una formalizzazione logica rigorosa (e diversificata, infatti Spohn riconosce vari tipi di causa). Una causa “innalza lo status epistemico” dell’effetto: vale a dire, quest’ultimo è creduto con rank maggiore (ossia minore, se ci si concentra sulla non-credenza) se condizionalizzato sulla causa. Nello stesso capitolo espongo la teoria della causalità di Gärdenfors, che però è meno articolata e minata da alcuni errori. Il QUARTO CAPITOLO è tutto dedicato a David Lewis e alla sua teoria controfattuale della causalità, che è il maggiore avversario tanto di Spohn quanto di Gärdenfors. Secondo Lewis la migliore definizione di causa può essere data in termini controfattuali: la causa è un evento tale che, se non fosse accaduto, nemmeno l’effetto sarebbe accaduto. Naturalmente questo lo obbliga a specificare una teoria delle condizioni di verità di tale classe di enunciati che, andando contro i fatti per definizione, non possono essere paragonati alla realtà. Lewis ricorre allora alla dottrina dei mondi possibili e della loro somiglianza comparativa, concludendo che un controfattuale è vero se il mondo possibile in cui il suo antecedente e il suo conseguente sono veri è più simile al mondo attuale del controfattuale in cui il suo antecedente è vero e il conseguente è falso. Il QUINTO CAPITOLO mette a confronto la teoria di Lewis con quelle di Spohn e Gärdenfors. Quest’ultimo riduce i controfattuali a un fenomeno linguistico che segnala il processo epistemico di contrazione, trattato nel primo capitolo, rifiutando così completamente la dottrina dei mondi possibili. Spohn non affronta direttamente i controfattuali (in quanto a suo dire sovraccarichi di sottigliezze linguistiche di cui non vuole occuparsi – ha solo un abbozzo di teoria dei condizionali) ma dimostra che la sua teoria è superiore a quella di Lewis perché riesce a rendere conto, con estrema esattezza, di casi problematici di causalità che sfuggono alla formulazione controfattuale. Si tratta di quei casi in cui sono in gioco, rafforzandosi a vicenda o “concorrendo” allo stesso effetto, più fattori causali (casi noti nella letteratura come preemption, trumping etc.). Spohn riesce a renderne conto proprio perché ha a disposizione i rank numerici, che consentono un’analisi secondo cui a ciascun fattore causale è assegnato un preciso ruolo quantitativamente espresso, mentre la dottrina controfattuale è incapace di operare simili distinzioni (un controfattuale infatti è vero o falso, senza gradazioni). Il SESTO CAPITOLO si concentra sui modelli di spiegazione scientifica di Hempel e Salmon, e sulla nozione di causalità sviluppata da quest’ultimo, mettendo in luce soprattutto il ruolo (problematico) delle leggi di natura e degli enunciati controfattuali (a questo proposito sono prese in considerazione anche le famose critiche di Goodman e Chisholm). Proprio dalla riflessione su questi modelli infatti è scaturita la teoria di Gärdenfors, e tanto la dottrina del filosofo svedese quanto quella di Spohn possono essere viste come finalizzate a rendere conto della spiegazione scientifica confrontandosi con questi modelli meno recenti. Il SETTIMO CAPITOLO si concentra sull’analisi che la logica epistemica fornisce delle leggi di natura, che nel capitolo precedente sono ovviamente emerse come elemento fondamentale della spiegazione scientifica. Secondo Spohn le leggi sono innanzitutto proposizioni generali affermative, che sono credute in modo speciale. In primo luogo sono credute persistentemente, vale a dire, non sono mai messe in dubbio (tanto che se si incappa in una loro contro-istanza si va alla ricerca di una violazione della normalità che la giustifichi). In secondo luogo, guidano e fondano la credenza in altre credenze specifiche, che sono su di esse condizionalizzate (si riprendono, con nuovo rigore logico, le vecchie idee di Wittgenstein e di Ramsey e il concetto di legge come inference ticket). In terzo luogo sono generalizzazioni ricavate induttivamente: sono oggettivazioni di schemi induttivi. Questo capitolo si sofferma anche sulla teoria di legge offerta da Gärdenfors (analoga ma embrionale) e sull’analisi che Spohn fornisce della nozione di clausola ceteris paribus. L’OTTAVO CAPITOLO termina l’analisi cominciata con il sesto, considerando finalmente il modello epistemico della spiegazione scientifica. Si comincia dal modello di Gärdenfors, che si mostra essere minato da alcuni errori o comunque caratterizzato in modo non sufficientemente chiaro (soprattutto perché non fa ricorso, stranamente, al concetto di legge). Segue il modello di Spohn; secondo Spohn le spiegazioni scientifiche sono caratterizzate dal fatto che forniscono (o sono finalizzate a fornire) ragioni stabili, vale a dire, riconducono determinati fenomeni alle loro cause e tali cause sono credute in modo persistente. Con una dimostrazione logica molto dettagliata e di acutezza sorprendente Spohn argomenta che simili ragioni, nel lungo periodo, devono essere incontrate. La sua quindi non è solo una teoria della spiegazione scientifica che elabori un modello epistemico di che cosa succede quando un fenomeno è spiegato, ma anche una teoria dello sviluppo della scienza in generale, che incoraggia a perseguire la ricerca delle cause come necessariamente coronata da successo. Le OSSERVAZIONI CONCLUSIVE fanno il punto sulle teorie esposte e sul loro raffronto. E’ riconosciuta la superiorità della teoria di Spohn, di cui si mostra anche che raccoglie in pieno l’eredità costruttiva di Hume, al quale gli avversari si rifanno costantemente ma in modo frammentario. Si analizzano poi gli elementi delle teorie di Hempel e Salmon che hanno precorso l’impostazione epistemica. La teoria di Spohn non è esente però da alcuni punti ancora problematici. Innanzitutto, il ruolo della verità; in un primo tempo Spohn sembra rinunciare, come fa esplicitamente il suo predecessore, a trattare la verità, salvo poi invocarla quando si pone il grave problema dell’oggettivazione delle ranking functions (il problema si presenta poiché di esse inizialmente si dice che sono regole soggettive di giudizio e poi si identificano in parte con le leggi di natura). C’è poi la dottrina dei gradi di credenza che Spohn dice presentarsi “unitamente alle proposizioni” e che costituisce un inutile distacco dal realismo psicologico (critica consueta alla teoria): basterebbe osservare che i gradi di credenza sono ricavati o per condizionalizzazione automatica sulla base del tipo di fonte da cui una proposizione proviene, o per paragone immaginario con altre fonti (la maggiore o minore credenza infatti è un concetto relazionale: si crede di più o di meno “sulla base di…” o “rispetto a…”). Anche la trattazione delle leggi di natura è problematica; Spohn sostiene che sono ranking functions: a mio avviso invece esse concorrono a regole di giudizio, che prescrivono di impiegare le leggi stesse per valutare proposizioni o aspettative. Una legge di natura è un ingranaggio, per così dire, di una valutazione di certezza ma non si identifica totalmente con una legge di giudizio. I tre criteri che Spohn individua per distinguere le leggi poi non sono rispettati da tutte e sole le leggi stesse: la generalizzazione induttiva può anche dare adito a pregiudizi, e non di tutte le leggi si sono viste, individualmente, istanze ripetute tanto da giustificarle induttivamente. Infine, un episodio reale di storia della scienza come la scoperta della sintesi dell’urea da parte di F. Wöhler (1828 – ottenendo carbammide, organico, da due sostanze inorganiche, dimostra che non è vera la legge di natura fini a quel momento presunta tale secondo cui “sostanze organiche non possono essere ricavate da sostanze inorganiche”) è indice che le leggi di natura non sono sempre credute in modo persistente, cosicché per comprendere il momento della scoperta è pur sempre necessario rifarsi a una teoria di tipo popperiano, rispetto alla quale Spohn presenta invece la propria in assoluta antitesi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’ermeneutica filosofica di Hans-Georg Gadamer – indubbiamente uno dei capisaldi del pensiero novecentesco – rappresenta una filosofia molto composita, sfaccettata e articolata, per così dire formata da una molteplicità di dimensioni diverse che si intrecciano l’una con l’altra. Ciò risulta evidente già da un semplice sguardo alla composizione interna della sua opera principale, Wahrheit und Methode (1960), nella quale si presenta una teoria del comprendere che prende in esame tre differenti dimensioni dell’esperienza umana – arte, storia e linguaggio – ovviamente concepite come fondamentalmente correlate tra loro. Ma questo quadro d’insieme si complica notevolmente non appena si prendano in esame perlomeno alcuni dei numerosi contributi che Gadamer ha scritto e pubblicato prima e dopo il suo opus magnum: contributi che testimoniano l’importante presenza nel suo pensiero di altre tematiche. Di tale complessità, però, non sempre gli interpreti di Gadamer hanno tenuto pienamente conto, visto che una gran parte dei contributi esegetici sul suo pensiero risultano essenzialmente incentrati sul capolavoro del 1960 (ed in particolare sui problemi della legittimazione delle Geisteswissenschaften), dedicando invece minore attenzione agli altri percorsi che egli ha seguito e, in particolare, alla dimensione propriamente etica e politica della sua filosofia ermeneutica. Inoltre, mi sembra che non sempre si sia prestata la giusta attenzione alla fondamentale unitarietà – da non confondere con una presunta “sistematicità”, da Gadamer esplicitamente respinta – che a dispetto dell’indubbia molteplicità ed eterogeneità del pensiero gadameriano comunque vige al suo interno. La mia tesi, dunque, è che estetica e scienze umane, filosofia del linguaggio e filosofia morale, dialogo con i Greci e confronto critico col pensiero moderno, considerazioni su problematiche antropologiche e riflessioni sulla nostra attualità sociopolitica e tecnoscientifica, rappresentino le diverse dimensioni di un solo pensiero, le quali in qualche modo vengono a convergere verso un unico centro. Un centro “unificante” che, a mio avviso, va individuato in quello che potremmo chiamare il disagio della modernità. In altre parole, mi sembra cioè che tutta la riflessione filosofica di Gadamer, in fondo, scaturisca dalla presa d’atto di una situazione di crisi o disagio nella quale si troverebbero oggi il nostro mondo e la nostra civiltà. Una crisi che, data la sua profondità e complessità, si è per così dire “ramificata” in molteplici direzioni, andando ad investire svariati ambiti dell’esistenza umana. Ambiti che pertanto vengono analizzati e indagati da Gadamer con occhio critico, cercando di far emergere i principali nodi problematici e, alla luce di ciò, di avanzare proposte alternative, rimedi, “correttivi” e possibili soluzioni. A partire da una tale comprensione di fondo, la mia ricerca si articola allora in tre grandi sezioni dedicate rispettivamente alla pars destruens dell’ermeneutica gadameriana (prima e seconda sezione) ed alla sua pars costruens (terza sezione). Nella prima sezione – intitolata Una fenomenologia della modernità: i molteplici sintomi della crisi – dopo aver evidenziato come buona parte della filosofia del Novecento sia stata dominata dall’idea di una crisi in cui verserebbe attualmente la civiltà occidentale, e come anche l’ermeneutica di Gadamer possa essere fatta rientrare in questo discorso filosofico di fondo, cerco di illustrare uno per volta quelli che, agli occhi del filosofo di Verità e metodo, rappresentano i principali sintomi della crisi attuale. Tali sintomi includono: le patologie socioeconomiche del nostro mondo “amministrato” e burocratizzato; l’indiscriminata espansione planetaria dello stile di vita occidentale a danno di altre culture; la crisi dei valori e delle certezze, con la concomitante diffusione di relativismo, scetticismo e nichilismo; la crescente incapacità a relazionarsi in maniera adeguata e significativa all’arte, alla poesia e alla cultura, sempre più degradate a mero entertainment; infine, le problematiche legate alla diffusione di armi di distruzione di massa, alla concreta possibilità di una catastrofe ecologica ed alle inquietanti prospettive dischiuse da alcune recenti scoperte scientifiche (soprattutto nell’ambito della genetica). Una volta delineato il profilo generale che Gadamer fornisce della nostra epoca, nella seconda sezione – intitolata Una diagnosi del disagio della modernità: il dilagare della razionalità strumentale tecnico-scientifica – cerco di mostrare come alla base di tutti questi fenomeni egli scorga fondamentalmente un’unica radice, coincidente peraltro a suo giudizio con l’origine stessa della modernità. Ossia, la nascita della scienza moderna ed il suo intrinseco legame con la tecnica e con una specifica forma di razionalità che Gadamer – facendo evidentemente riferimento a categorie interpretative elaborate da Max Weber, Martin Heidegger e dalla Scuola di Francoforte – definisce anche «razionalità strumentale» o «pensiero calcolante». A partire da una tale visione di fondo, cerco quindi di fornire un’analisi della concezione gadameriana della tecnoscienza, evidenziando al contempo alcuni aspetti, e cioè: primo, come l’ermeneutica filosofica di Gadamer non vada interpretata come una filosofia unilateralmente antiscientifica, bensì piuttosto come una filosofia antiscientista (il che naturalmente è qualcosa di ben diverso); secondo, come la sua ricostruzione della crisi della modernità non sfoci mai in una critica “totalizzante” della ragione, né in una filosofia della storia pessimistico-negativa incentrata sull’idea di un corso ineluttabile degli eventi guidato da una razionalità “irrazionale” e contaminata dalla brama di potere e di dominio; terzo, infine, come la filosofia di Gadamer – a dispetto delle inveterate interpretazioni che sono solite scorgervi un pensiero tradizionalista, autoritario e radicalmente anti-illuminista – non intenda affatto respingere l’illuminismo scientifico moderno tout court, né rinnegarne le più importanti conquiste, ma più semplicemente “correggerne” alcune tendenze e recuperare una nozione più ampia e comprensiva di ragione, in grado di render conto anche di quegli aspetti dell’esperienza umana che, agli occhi di una razionalità “limitata” come quella scientista, non possono che apparire come meri residui di irrazionalità. Dopo aver così esaminato nelle prime due sezioni quella che possiamo definire la pars destruens della filosofia di Gadamer, nella terza ed ultima sezione – intitolata Una terapia per la crisi della modernità: la riscoperta dell’esperienza e del sapere pratico – passo quindi ad esaminare la sua pars costruens, consistente a mio giudizio in un recupero critico di quello che egli chiama «un altro tipo di sapere». Ossia, in un tentativo di riabilitazione di tutte quelle forme pre- ed extra-scientifiche di sapere e di esperienza che Gadamer considera costitutive della «dimensione ermeneutica» dell’esistenza umana. La mia analisi della concezione gadameriana del Verstehen e dell’Erfahrung – in quanto forme di un «sapere pratico (praktisches Wissen)» differente in linea di principio da quello teorico e tecnico – conduce quindi ad un’interpretazione complessiva dell’ermeneutica filosofica come vera e propria filosofia pratica. Cioè, come uno sforzo di chiarificazione filosofica di quel sapere prescientifico, intersoggettivo e “di senso comune” effettivamente vigente nella sfera della nostra Lebenswelt e della nostra esistenza pratica. Ciò, infine, conduce anche inevitabilmente ad un’accentuazione dei risvolti etico-politici dell’ermeneutica di Gadamer. In particolare, cerco di esaminare la concezione gadameriana dell’etica – tenendo conto dei suoi rapporti con le dottrine morali di Platone, Aristotele, Kant e Hegel – e di delineare alla fine un profilo della sua ermeneutica filosofica come filosofia del dialogo, della solidarietà e della libertà.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Attraverso l’analisi di teorie della lettura “centripete” e “centrifughe”, tra fenomenologia, semiotica e teoria della risposta estetica, questa ricerca punta a definire la lettura come un’esperienza estetica di una variabile e plurale letterarietà, o per essere più precisi, come una relazione estetica ad una funzione nel linguaggio, che di volta in volta diviene immanente e trascendente rispetto al linguaggio, immanente nella percepibilità espressiva del segno e trascendente nella sua ristretta finzionalità o fittività, aperta alla dimensione del senso. Così, la letterarietà è vista, dal punto di vista di una teoria della lettura, come una funzione che nega o sovverte il linguaggio ordinario, inteso come contesto normale, ma anche una funzione che permette il supplemento di senso del linguaggio. Ciò rende la definizione di cosa sia letteratura e di quali testi siano considerabili come letterari come una definizione dipendente dalla lettura, ed anche mette in questione la classica dicotomia tra linguaggio standard e linguaggio deviante, di secondo grado e figurativo, comportamento che distinguerebbe la letteratura. Questi quattro saggi vorrebbero dimostrare che la lettura, come una pratica estetica, è l’espressione di una oscillazione tra una Finzione variabile nei suoi effetti ed una Ricezione, la quale è una risposta estetica controllata dal testo, ma anche una relazione estetica all’artefatto a natura verbale. Solo in questo modo può essere compresa la caratteristica paradossale della lettura, il suo stare tra una percezione passiva ed un’attiva esecuzione, tra un’attenzione aspettuale ed una comprensione intenzionale. Queste modalità si riflettono anche sulla natura dialettica della lettura, come una dialettica di apertura e chiusura, ma anche di libertà e fedeltà, risposta ad uno stimolo che può essere interpretato come una domanda, e che presenta la lettura stessa come una premessa dell’interpretazione, come momento estetico. Così una teoria della lettura dipende necessariamente da una teoria dell’arte che si presenta come funzionale, relativa più al Quando vi è arte?/Come funziona? piuttosto che al Che cosa è Arte?, che rende questo secondo problema legato al primo. Inoltre, questo Quando dell’Arte, che definisce l’opera d’arte come un’arte- all’-opera, dipende a sua volta, in un campo letterario, dalla domanda Quando vi è esperienza estetica letteraria? e dalla sue condizioni, quelle di finzione e ricezione.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Con il presente lavoro di tesi mi sono proposto di realizzare la Dichiarazione Ambientale EMAS di gruppo per la EDISON Stoccaggio S.p.A. Nell’affrontare questa tematica, ho avuto modo di comprendere a pieno la crescente importanza strategica che lo stoccaggio di gas naturale sta sempre più assumendo nei confronti della politica energetica nazionale ed internazionale. Il sistema degli stoccaggi, infatti, ha una duplice valenza: di riserva strategica, ai fini della sicurezza di approvvigionamento per il sistema energetico nazionale, e di riserva di modulazione, al fine di compensare fluttuazioni di domanda sia stagionali che di breve termine. Esso rappresenta quindi un fondamentale strumento di flessibilità per il sistema energetico nazionale. La mia attività è stata svolta giornalmente presso la Base Operativa di Edison Stoccaggio S.p.A situata nel comune di S. Giovanni Teatino (CH) dove si svolgono attività di gestione integrata ed ottimizzata dei Siti Operativi del settore Stoccaggio Gas Naturale. Visite periodiche, al fine di raccogliere dati operativi necessari al mio lavoro, sono state effettuate presso i due siti di EDISON Stoccaggio S.p.A. nei quali si svolgono attività di Stoccaggio e Produzione Gas Naturale: Centrale Gas di Cellino Attanasio (TE) e Centrale Gas di Collalto situata nel comune di Susegana (TV). La tesi è strutturata in una prima parte nella quale viene presentata una rapida panoramica sull’evoluzione e situazione europea attuale riguardante lo strumento di natura volontaria di Eco-gestione e sistema d’audit noto come regolamento EMAS; in particolare mi sono soffermato sullo studio delle fasi da compiere per ottenere la registrazione EMAS, con particolare attenzione alla Dichiarazione Ambientale, fulcro dell’iter di registrazione, e oggetto principale del mio lavoro. Particolarmente laborioso è stato infatti lo studio che è stato necessario per produrre una Dichiarazione Ambientale che contenesse tutti i dati operativi dettagliati e aggiornati dell’intera azienda Edison Stoccaggio S.p.A. Nella seconda parte dell’elaborato vengono descritte quelle che sono le caratteristiche di una centrale di stoccaggio gas, al fine di poter comprendere a pieno le tipologie di attività svolte con i loro relativi impatti ambientali e consumo di risorse, aspetti che, vengono trattati in modo dettagliato e risultano basilari nella Dichiarazione Ambientale. Nella parte riguardante la Dichiarazione Ambientale vengono esposte le linee guida e la struttura da seguire al fine di ottenere un documento completo e funzionale in modo che sia fruibile da tutti gli svariati interlocutori. A seguire viene presentata la “Proposta di Dichiarazione Ambientale” da me elaborata nel corso della esperienza avuta presso Edison Stoccaggio S.p.A. Gran parte del lavoro è stato volto all’analisi dei dati operativi dell’Organizzazione Edison Stoccaggio S.p.A. al fine di produrre una Dichiarazione Ambientale più dettagliata e particolareggiata possibile e che al contempo fornisca una chiara visione d’insieme di quelle che sono le attività e gli aspetti ambientali riguardanti i siti dell’Azienda. Sono stati esaminati nel dettaglio gli aspetti ambientali diretti e indiretti connessi all’utilizzo di risorse ed a potenziali influenze per l’ambiente esterno, formulando infine un programma ambientale contenente obbiettivi di miglioramento e conseguenti interventi da attuare allo scopo di ottenere i risultati prefissati. A conclusione del lavoro è stato inoltre presentato uno studio di fattibilità che prevede un analisi dei tempi necessari per l’ottenimento della certificazione e comprende i costi e gli interventi tecnici ritenuti necessari a seguito della visione dei documenti tecnico impiantistici, della conformità legislativa nonché dello stato attuale degli impianti.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le strutture caratterizzate da una non coincidenza tra il baricentro delle masse e quello delle rigidezze, chiamate strutture eccentriche, sviluppano degli effetti torsionali se soggette ad un’eccitazione dinamica. Un’accurata analisi delle equazioni del moto di sistemi lineari e non lineari di strutture ad un singolo piano ha portato allo sviluppo di un metodo, detto metodo ALPHA, che, attraverso un parametro, detto parametro “alpha”, permette di stimare gli spostamenti di rotazione in funzione dei soli spostamenti longitudinali. Il limite di questo metodo, tuttavia, è quello di essere riferito a strutture ad un singolo piano, non comuni nella pratica progettuale: si è reso quindi necessario uno studio per testarne la validità anche per strutture multi piano, partendo da strutture semplici a due e tre piani. Data la semplicità del metodo ALPHA, si è deciso di affrontare questo problema cercando di cogliere il comportamento dei diversi piani della struttura multipiano con delle strutture ad un singolo piano. Sono state svolte numerose analisi numeriche in cui sono stati fatti variare i parametri di rigidezza, massa, eccentricità e distribuzione delle rigidezze dei vari piani; come indice di validità della struttura mono piano scelta si è utilizzato il rapporto tra il parametro “psi” dell’i-esimo piano e quello della struttura mono piano scelta, dove “psi” rappresenta il rapporto tra “R” ed “alpha”; “R” è il rapporto tra la massima rotazione e il massimo spostamento longitudinale per una struttura eccentrica soggetta ad un’eccitazione dinamica. Dai risultati ottenuti si deduce che, nella maggioranza dei casi, la struttura mono piano che meglio rappresenta il comportamento di tutti i piani è caratterizzata da massa e rigidezza dell’intera struttura multipiano, da un’eccentricità pari alla minore tra quelle dei vari piani e presenta la peggiore distribuzione delle rigidezze tra quelle che si riscontrano nei vari piani.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’attività di ricerca del dottorando è stata rivolta allo studio della trasmissione del rumore per via strutturale negli edifici. Questo argomento e' di notevole interesse sia fondamentale che applicativo. Il fenomeno e le problematiche ad essa connesse contribuiscono alla diminuzione delle prestazioni fonoisolanti, sia per le strutture verticali (usualmente valutate rispetto al rumore aereo), sia per quelle orizzontali (valutate anche rispetto al rumore impattivo) ed è tipico degli edifici con struttura portante a telaio e tamponatura in laterizi. Si tratta delle tipiche tipologie edilizie italiane, per le quali il problema risulta amplificato rispetto ad altre tipologie. La metodologia di studio è stata di tipo sperimentale. La scelta è dettata sia dall’insufficiente avanzamento dello stato dell’arte dei metodi di calcolo teorici, o delle loro versioni numeriche, sia dalla necessità di disporre di dati certi da confrontare con i valori forniti dai metodi previsionali semplificati indicati nelle norme UNI (modello CEN); infatti queste ultime sono un recepimento letterale di quelle europee, sebbene esse si basino su tipologie costruttive, materiali e tecniche di realizzazione differenti da quelle comunemente in uso in Italia; da qui la difformità di risultati tra formule previsionali e misurazioni sperimentali. Al fine di realizzare uno studio completo delle principali casistiche della trasmissione laterale sono state utilizzate 6 configurazioni in scala reale, con elementi edilizi diversamente collegati fra loro in modo da simulare i nodi strutturali comunemente realizzati negli edifici. La parte sperimentale della ricerca è stata svolta presso le “Camere Acustiche di Prova” del Laboratorio del Lazzaretto “R. Alessi” del DIENCA. Oltre alle usuali misurazioni di isolamento acustico, sono state eseguite numerose misurazioni di vibrazione. Infatti, dal confronto dei livelli di velocità di vibrazione dei diversi elementi di una struttura, rigidamente connessi, è possibile determinare l’indice di riduzione delle vibrazioni Kij che è la grandezza chiave per modellizzare il fenomeno della trasmissione laterale. La possibilità di determinare sperimentalmente tali valori nel contesto di un lavoro di ricerca finalizzato a determinare i meccanismi di propagazione delle vibrazioni nelle strutture, permette di valutare la precisione delle formule previsionali del modello CEN e di proporne varianti e integrazioni. I valori di Kij così determinati assumono grande importanza anche in fase di progetto, fornendo dati attendibili da utilizzare per la progettazione acustica degli edifici.