23 resultados para Polimero diretto disordine debole disordine forte energia libera funzione di partizione

em AMS Tesi di Dottorato - Alm@DL - Università di Bologna


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Come si evince dal titolo della tesi, la ricerca effettuata dal presente candidato nel corso del dottorato di ricerca ha avuto ad oggetto l’analisi delle competenze che, a diverso livello, comunitario, nazionale e regionale, sono attribuite agli enti in materia di rilascio di concessioni di servizi in abito interportuale, portuale e demaniale marittimo. L’attenzione, pertanto, ha dovuto innanzitutto essere rivolta ai compiti ed alle facoltà che, in forza del trattato che istituisce la Comunità Europea, sono attribuite alla Comunità stessa. Si è provveduto, pertanto, ad analizzare l’evoluzione della normativa per giungere all’attuale sistema giuridico. Gli aspetti della disciplina delle concessioni, oggetto di ricerca, hanno dovuto ripercorrere i vari procedimenti di infrazione comminati dalla Corte Europea, per i quali il sistema giuridico nazionale si è dovuto adattare con non poche difficoltà, soprattutto per la presenza di posizioni e prassi, negli anni, divenute consolidate.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La disciplina pubblicistica dell’energia elettrica presenta specificità rilevanti rispetto ad altri settori della regolazione economica. Il settore energetico si caratterizza infatti per una complessa regolazione, dovuta sia alle specificità dell’oggetto della disciplina, cioè l’energia elettrica come bene immateriale, sia alla molteplicità degli interessi pubblici coinvolti, che si innestano su fallimenti di mercato (i.e. il sistema a rete non duplicabile), sia agli obiettivi di politica internazionale e di sicurezza nazionale, che intercettano delicate interrelazioni con l’ambiente e il clima, come tutelati nel Green Deal, nelle normative europee e nazionali e negli accordi internazionali sulla decarbonizzazione e sullo sviluppo sostenibile. Inoltre, la filiera elettrica è “verticalmente integrata”, cioè suddivisa in attività diverse, cioè la produzione, il dispacciamento, la trasmissione, la distribuzione, la vendita all’ingrosso e al dettaglio di energia. Queste sono esercitate in regimi di mercato differenti: monopolio naturale (dovuto al carattere sub-additivo dei costi) per il dispacciamento, la trasmissione e la distribuzione di energia; libera concorrenza per la produzione e la vendita. L’esigenza di assicurare la concorrenza nel mercato energetico si contempera con la necessità di rispettare gli obblighi di servizio pubblico, in un delicato bilanciamento tra esigenze contrapposte. La Direttiva U.E. del 13 luglio 2009 n. 2009/72/Cee, all’art. 3, qualifica infatti la fornitura di energia elettrica come un servizio universale, attribuendo agli utenti il diritto di ricevere la fornitura e di mantenere prezzi ragionevoli, facilmente e chiaramente comparabili, trasparenti e non discriminatori.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Negli ultimi anni, un crescente numero di studiosi ha focalizzato la propria attenzione sullo sviluppo di strategie che permettessero di caratterizzare le proprietà ADMET dei farmaci in via di sviluppo, il più rapidamente possibile. Questa tendenza origina dalla consapevolezza che circa la metà dei farmaci in via di sviluppo non viene commercializzato perché ha carenze nelle caratteristiche ADME, e che almeno la metà delle molecole che riescono ad essere commercializzate, hanno comunque qualche problema tossicologico o ADME [1]. Infatti, poco importa quanto una molecola possa essere attiva o specifica: perché possa diventare farmaco è necessario che venga ben assorbita, distribuita nell’organismo, metabolizzata non troppo rapidamente, ne troppo lentamente e completamente eliminata. Inoltre la molecola e i suoi metaboliti non dovrebbero essere tossici per l’organismo. Quindi è chiaro come una rapida determinazione dei parametri ADMET in fasi precoci dello sviluppo del farmaco, consenta di risparmiare tempo e denaro, permettendo di selezionare da subito i composti più promettenti e di lasciar perdere quelli con caratteristiche negative. Questa tesi si colloca in questo contesto, e mostra l’applicazione di una tecnica semplice, la biocromatografia, per caratterizzare rapidamente il legame di librerie di composti alla sieroalbumina umana (HSA). Inoltre mostra l’utilizzo di un’altra tecnica indipendente, il dicroismo circolare, che permette di studiare gli stessi sistemi farmaco-proteina, in soluzione, dando informazioni supplementari riguardo alla stereochimica del processo di legame. La HSA è la proteina più abbondante presente nel sangue. Questa proteina funziona da carrier per un gran numero di molecole, sia endogene, come ad esempio bilirubina, tiroxina, ormoni steroidei, acidi grassi, che xenobiotici. Inoltre aumenta la solubilità di molecole lipofile poco solubili in ambiente acquoso, come ad esempio i tassani. Il legame alla HSA è generalmente stereoselettivo e ad avviene a livello di siti di legame ad alta affinità. Inoltre è ben noto che la competizione tra farmaci o tra un farmaco e metaboliti endogeni, possa variare in maniera significativa la loro frazione libera, modificandone l’attività e la tossicità. Per queste sue proprietà la HSA può influenzare sia le proprietà farmacocinetiche che farmacodinamiche dei farmaci. Non è inusuale che un intero progetto di sviluppo di un farmaco possa venire abbandonato a causa di un’affinità troppo elevata alla HSA, o a un tempo di emivita troppo corto, o a una scarsa distribuzione dovuta ad un debole legame alla HSA. Dal punto di vista farmacocinetico, quindi, la HSA è la proteina di trasporto del plasma più importante. Un gran numero di pubblicazioni dimostra l’affidabilità della tecnica biocromatografica nello studio dei fenomeni di bioriconoscimento tra proteine e piccole molecole [2-6]. Il mio lavoro si è focalizzato principalmente sull’uso della biocromatografia come metodo per valutare le caratteristiche di legame di alcune serie di composti di interesse farmaceutico alla HSA, e sul miglioramento di tale tecnica. Per ottenere una miglior comprensione dei meccanismi di legame delle molecole studiate, gli stessi sistemi farmaco-HSA sono stati studiati anche con il dicroismo circolare (CD). Inizialmente, la HSA è stata immobilizzata su una colonna di silice epossidica impaccata 50 x 4.6 mm di diametro interno, utilizzando una procedura precedentemente riportata in letteratura [7], con alcune piccole modifiche. In breve, l’immobilizzazione è stata effettuata ponendo a ricircolo, attraverso una colonna precedentemente impaccata, una soluzione di HSA in determinate condizioni di pH e forza ionica. La colonna è stata quindi caratterizzata per quanto riguarda la quantità di proteina correttamente immobilizzata, attraverso l’analisi frontale di L-triptofano [8]. Di seguito, sono stati iniettati in colonna alcune soluzioni raceme di molecole note legare la HSA in maniera enantioselettiva, per controllare che la procedura di immobilizzazione non avesse modificato le proprietà di legame della proteina. Dopo essere stata caratterizzata, la colonna è stata utilizzata per determinare la percentuale di legame di una piccola serie di inibitori della proteasi HIV (IPs), e per individuarne il sito(i) di legame. La percentuale di legame è stata calcolata attraverso il fattore di capacità (k) dei campioni. Questo parametro in fase acquosa è stato estrapolato linearmente dal grafico log k contro la percentuale (v/v) di 1-propanolo presente nella fase mobile. Solamente per due dei cinque composti analizzati è stato possibile misurare direttamente il valore di k in assenza di solvente organico. Tutti gli IPs analizzati hanno mostrato un’elevata percentuale di legame alla HSA: in particolare, il valore per ritonavir, lopinavir e saquinavir è risultato maggiore del 95%. Questi risultati sono in accordo con dati presenti in letteratura, ottenuti attraverso il biosensore ottico [9]. Inoltre, questi risultati sono coerenti con la significativa riduzione di attività inibitoria di questi composti osservata in presenza di HSA. Questa riduzione sembra essere maggiore per i composti che legano maggiormente la proteina [10]. Successivamente sono stati eseguiti degli studi di competizione tramite cromatografia zonale. Questo metodo prevede di utilizzare una soluzione a concentrazione nota di un competitore come fase mobile, mentre piccole quantità di analita vengono iniettate nella colonna funzionalizzata con HSA. I competitori sono stati selezionati in base al loro legame selettivo ad uno dei principali siti di legame sulla proteina. In particolare, sono stati utilizzati salicilato di sodio, ibuprofene e valproato di sodio come marker dei siti I, II e sito della bilirubina, rispettivamente. Questi studi hanno mostrato un legame indipendente dei PIs ai siti I e II, mentre è stata osservata una debole anticooperatività per il sito della bilirubina. Lo stesso sistema farmaco-proteina è stato infine investigato in soluzione attraverso l’uso del dicroismo circolare. In particolare, è stato monitorata la variazione del segnale CD indotto di un complesso equimolare [HSA]/[bilirubina], a seguito dell’aggiunta di aliquote di ritonavir, scelto come rappresentante della serie. I risultati confermano la lieve anticooperatività per il sito della bilirubina osservato precedentemente negli studi biocromatografici. Successivamente, lo stesso protocollo descritto precedentemente è stato applicato a una colonna di silice epossidica monolitica 50 x 4.6 mm, per valutare l’affidabilità del supporto monolitico per applicazioni biocromatografiche. Il supporto monolitico monolitico ha mostrato buone caratteristiche cromatografiche in termini di contropressione, efficienza e stabilità, oltre che affidabilità nella determinazione dei parametri di legame alla HSA. Questa colonna è stata utilizzata per la determinazione della percentuale di legame alla HSA di una serie di poliamminochinoni sviluppati nell’ambito di una ricerca sulla malattia di Alzheimer. Tutti i composti hanno mostrato una percentuale di legame superiore al 95%. Inoltre, è stata osservata una correlazione tra percentuale di legame è caratteristiche della catena laterale (lunghezza e numero di gruppi amminici). Successivamente sono stati effettuati studi di competizione dei composti in esame tramite il dicroismo circolare in cui è stato evidenziato un effetto anticooperativo dei poliamminochinoni ai siti I e II, mentre rispetto al sito della bilirubina il legame si è dimostrato indipendente. Le conoscenze acquisite con il supporto monolitico precedentemente descritto, sono state applicate a una colonna di silice epossidica più corta (10 x 4.6 mm). Il metodo di determinazione della percentuale di legame utilizzato negli studi precedenti si basa su dati ottenuti con più esperimenti, quindi è necessario molto tempo prima di ottenere il dato finale. L’uso di una colonna più corta permette di ridurre i tempi di ritenzione degli analiti, per cui la determinazione della percentuale di legame alla HSA diventa molto più rapida. Si passa quindi da una analisi a medio rendimento a una analisi di screening ad alto rendimento (highthroughput- screening, HTS). Inoltre, la riduzione dei tempi di analisi, permette di evitare l’uso di soventi organici nella fase mobile. Dopo aver caratterizzato la colonna da 10 mm con lo stesso metodo precedentemente descritto per le altre colonne, sono stati iniettati una serie di standard variando il flusso della fase mobile, per valutare la possibilità di utilizzare flussi elevati. La colonna è stata quindi impiegata per stimare la percentuale di legame di una serie di molecole con differenti caratteristiche chimiche. Successivamente è stata valutata la possibilità di utilizzare una colonna così corta, anche per studi di competizione, ed è stata indagato il legame di una serie di composti al sito I. Infine è stata effettuata una valutazione della stabilità della colonna in seguito ad un uso estensivo. L’uso di supporti cromatografici funzionalizzati con albumine di diversa origine (ratto, cane, guinea pig, hamster, topo, coniglio), può essere proposto come applicazione futura di queste colonne HTS. Infatti, la possibilità di ottenere informazioni del legame dei farmaci in via di sviluppo alle diverse albumine, permetterebbe un migliore paragone tra i dati ottenuti tramite esperimenti in vitro e i dati ottenuti con esperimenti sull’animale, facilitando la successiva estrapolazione all’uomo, con la velocità di un metodo HTS. Inoltre, verrebbe ridotto anche il numero di animali utilizzati nelle sperimentazioni. Alcuni lavori presenti in letteratura dimostrano l’affidabilita di colonne funzionalizzate con albumine di diversa origine [11-13]: l’utilizzo di colonne più corte potrebbe aumentarne le applicazioni.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nonostante la riforma societaria ed i tentativi di rilanciare l’economia nazionale, ancora oggi la principale fonte di ricchezza e di capitalizzazione resta l’investimento immobiliare. Ed ecco perchè si sente sempre più parlare di “Real Estate”, ovvero dei diritti reali sui beni immobili, della loro circolazione, e delle garanzie e tutele ad essa correlate. Dalla vendita immobiliare tipizzata nel codice civile del ’42 ad oggi molto è cambiato. E il mio lavoro parte proprio da un’analisi delle nuove forme e dei nuovi limiti alla circolazione degli immobili. In primis ho affrontato il tema del riconoscimento giurisprudenziale della cessione di cubatura: un esempio tipico del passaggio dal fatto al diritto attraverso la costruzione giurisprudenziale di nuove fattispecie giuridiche già in uso fra gli operatori del mercato. Tecnicamente la stessa espressione “cessione di cubatura” non risulta corretta: non si ha una vera e propria cessione, quanto la costituzione di una servitù ius non edificandi a favore di un terreno e a carico di un altro. La giurisprudenza è ormai concorde nello stabilire che l’accordo delle parti rimane comunque privo di efficacia se ad esso non segue un permesso di costruire della Pubblica Amministrazione che riconosca la maggiore capacità edificatoria al terreno a cui vantaggio è stabilità la servitù. Un’altra nuova forma di circolazione della proprietà, così come degli altri diritti reali minori, è la multiproprietà. La multiproprietà viene disciplinata nel nostro ordinamento, a seguito di una risoluzione del Parlamento Europeo del 13 ottobre 1988, dapprima con il D.lgs. 9 novembre 1998 e da ultimo con il Codice del Consumo, che con gli artt. 69 ss. stabilisce una più puntuale tutela degli acquirenti. Si riconosce qui l’esistenza di uno squilibrio fra le posizioni contrattuali fra venditore ed acquirente/consumatore: vi è una profonda asimmetria informativa fra le parti, che viene colmata prevedendo la consegna al futuro acquirente di un dettagliato prospetto informativo predisposto dal venditore. La mia attenzione si è concentrata proprio sul tema delle tutele che il nostro ordinamento riconosce al consumatore multiproprietario: un prospetto informativo dal contenuto minimo legislativamente predeterminato, recesso, fideiussione. Ho dedicato un particolare approfondimento alla normativa sull’acquisto immobiliare sulla carta. Il D.lgs. 122/2005 si inserisce nel contesto di una legislazione, che spesso trova la sua origine nel diritto privato europeo, finalizzata alla regolamentazione di un fenomeno sempre più frequente nella realtà economica contemporanea, rappresentato dalla contrattazione fra soggetti che si trovano in una posizione di squilibrio contrattuale: un “contraente forte” da una parte, ed un “contraente debole” dall’altra. La legislazione nazionale interviene sempre più frequentemente per porre un rimedio a queste situazioni di squilibrio, con interventi di tipo conformativo intesi a rendere effettiva l’autonoma contrattuale delle parti e, conseguentemente, agevolare il corretto funzionamento del mercato. Si parla in tal senso di una ius espansiva del modello europeo di legislazione a tutela del contraente debole, e quindi di una espansione del diritto privato europeo anche in settori dove manca una puntuale normativa comunitaria. Vi è una generale tendenza ad un “neoformalismo”, che consiste nella richiesta espressa della forma scritta e nella conformazione del contenuto del contratto, che solo apparentemente limitano l’autonomia contrattuale delle parti ma che tende ad eliminare le situazioni di squilibrio dando una tutela effettiva al contraente debole. Contraente debole e non “consumatore”. L’art. 1 del decreto parla, infatti, espressamente di “persona fisica”. Secondo gli orientamenti dottrinali maggioritari dalla nuova disciplina resterebbero esclusi, e quindi non rientrerebbero nella definizione di “acquirenti”, le società, le persone giuridiche e gli enti collettivi in generale. Si riconosce la figura del “professionista debole”, giacché si riconosce che l’acquisto di un immobile da costruire sia un’operazione che, in virtù della sua importanza economica, viene gestita con maggiore avvedutezza: l’acquisto di un immobile non è propriamente “atto di consumo”in senso tecnico. L’esigenza di tutela è diversa: si vuole tutelare l’acquirente in considerazione dell’intrinseca rischiosità dell’operazione, stabilendo alcuni profili fondamentali del contenuto del contratto non solo e non tanto a fini informativi, quanto piuttosto per una “tutela sostanziale” dell’acquirente. Il legislatore si preoccupa di predisporre garanzie obbligatorie per il caso di dissesto dell’impresa costruttrice. Le garanzie, quindi, come forma di tutela del contraente debole. Il mio lavoro si concentra, a questo punto, sulle garanzie personali e reali. Poche le novità sulle garanzie, ma alcune significative. Nel campo delle garanzie personali, acquista maggiore rilevanza la fideiussione prestata dal contraente forte a favore del contraente debole, affinché quest’ultimo possa recuperare tutte le somme investite per l’acquisto dell’immobile: sia esso un immobile in multiproprietà, sia esso un immobile ancora da costruire. E ancora le garanzie reali: pegno e ipoteca. Ho posto particolare attenzione al tema della "portabilità" dei mutui e surrogazione ex art. 1202 c.c. ed al tema delle formalità ipotecarie così come previsti dagli artt. 6, 7 e 8 della l. 2 aprile 2007, n. 40 sulla concorrenza. Ma la mia attenzione si è soffermata soprattutto sul tema della nullità ed in particolare sulla nullità relativa. La più recente legislazione speciale, specie quella di derivazione europea, ha dato un grosso scossone alla dogmatica tradizionale della nullità negoziale. Le fattispecie di nullità relativa sono sempre più frequenti, tanto da far parlare di una nuova categoria di nullità c.d. “nullità di protezione”. Quest’ultima risponde ad esigenze profondamente differenti dalla nullità assoluta di stampo codicistico. In luogo della nullità, sembra oggi più corretto parlare delle nullità: diverse categorie di invalidità, ciascuna delle quali soddisfa interessi diversificati, e come tale riceve anche una disciplina differenziata in termini di legittimazione all’azione, rilevabilità d’ufficio, prescrittibilità, sanabilità, opponibilità ai terzi. Ancora una volta partendo da un’analisi critica del D.lgs. 122/2005, ho avuto modo di approfondire il fondamentale tema della nullità nel nostro ordinamento. L’art. 2 del decreto stabilisce espressamente la nullità relativa, e cioè azionabile dal solo acquirente parte debole del contratto, nel caso in cui non sia rilasciata dal venditore la fideiussione. L’art. 6 stabilisce, invece, un contenuto minimo del contratto poste a tutela della parte debole e del corretto funzionamento del mercato immobiliare. Se ad alcune di esse può attribuirsi un valore meramente ordinatorio, altre al contrario rivestono una natura di norme imperative di ordine pubblico attinenti più precisamente al c.d. ordine pubblico di protezione ed al c.d. ordine pubblico di direzione. Nel sistema del nostro codice, la violazione di norma imperative dà luogo, ex art. 1418, alla nullità del contatto salvo che la legge stabilisca diversamente. E’quindi configurabile una nullità virtuale del contratto, ovvero non espressamente e letteralmente stabilita, ma che può essere desunta dal tenore imperativo delle norme. La dottrina prevalente è ormai orientata nel senso di ammettere che anche la nullità relativa possa essere virtuale, nel quadro di un orientamento, ormai dominante, volto al superamento dell’approccio tendente a far rientrare nell’eccezionalità qualsiasi difformità dal modello classico della nullità. Il problema, quindi, si sposta all’individuazione della natura imperativa della norma violata. In linea generale si afferma che perché una norma possa essere definita imperativa debba porre un comando o un divieto espresso, debba essere inderogabile ed indisponibile. Oggetto di dibattiti dottrinali è, poi, il tema della rilevabilità d’ufficio delle nullità relative. A fronte di una prima posizione dottrinale tendente ad escludere tale rilevabilità d’ufficio sul presupposto di una sua inconciliabilità con il regime di legittimazione relativa all’azione di nullità, dottrina e giurisprudenza più recenti appaiono concordi nel ritenere assolutamente conciliabili tali due profili. Si concorda, inoltre, sull’esistenza di limitazioni alla rilevabilità d’ufficio della nullità: la nullità può essere rilevata d’ufficio dal giudice, ma tale rilievo deve operare nell’esclusivo interesse del contraente debole, dovendo il giudice bloccarsi davanti ad un concreto interesse della parte a mantenere in vita il contratto. Discorso a sé stante deve poi esser fatto sul rapporto fra nullità relativa e nullità virtuale e responsabilità del notaio rogante. Secondo l’orientamento dominante della giurisprudenza, nella misura in cui vi sia una violazione di norme imperative, e l’imperatività sia evidente, manifesta, dal tenore delle disposizioni, deve ritenersi che la nullità, sia testuale che virtuale, comporti la responsabilità del notaio ai sensi dell’art. 28 l. not. Ogni qualvolta, viceversa, tale nullità non si configuri, la responsabilità disciplinare sarà esclusa. Si avverte, comunque, una prima apertura verso la sanzionabilità delle nullità relative che siano manifeste. In chiusura del mio lavoro non ho potuto non tenere conto della recente crisi dei mercati internazionali. Crisi che ha avuto inizio proprio con il crollo negli Stati Uniti dei settori immobiliare e finanziario, improntati verso una eccessiva deregolamentazione e valorizzazione dell’autonomia contrattuale delle parti. L’assenza di garanzie sicure e la carenza di controllo di un professionista corrispondente al nostro notaio pubblico ufficiale, ha portato ad investimenti e finanziamenti azzardati da parte delle banche e degli istituti di credito che stanno vivendo un momento di profonda crisi aprendo la strada ad una recessione economica di portata mondiale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il problema della sicurezza/insicurezza delle città, dalle grandi metropoli sino ai più piccoli centri urbani, ha sollecitato negli ultimi anni un’attenzione crescente da parte degli studiosi, degli analisti, degli organi di informazione, delle singole comunità. La delinquenza metropolitana viene oggi diffusamente considerata «un aspetto usuale della società moderna»: «un fatto – o meglio un insieme di fatti – che non richiede nessuna speciale motivazione o predisposizione, nessuna patologia o anormalità, e che è iscritto nella routine della vita economica e sociale». Svincolata dagli schemi positivistici, la dottrina criminologica ha maturato una nuova «cultura del controllo sociale» che ha messo in risalto, rispetto ad ogni visione enfatizzante del reo, l’esigenza di pianificare adeguate politiche e pratiche di prevenzione della devianza urbana attraverso «tutto l’insieme di istituzioni sociali, di strategie e di sanzioni, che mirano a ottenere la conformità di comportamento nella sfera normativa penalmente tutelata». Tale obiettivo viene generalmente perseguito dagli organismi istituzionali, locali e centrali, con diverse modalità annoverabili nel quadro degli interventi di: prevenzione sociale in cui si includono iniziative volte ad arginare la valenza dei fattori criminogeni, incidendo sulle circostanze sociali ed economiche che determinano l’insorgenza e la proliferazione delle condotte delittuose negli ambienti urbani; prevenzione giovanile con cui si tende a migliorare le capacità cognitive e relazionali del minore, in maniera tale da controllare un suo eventuale comportamento aggressivo, e ad insegnare a genitori e docenti come gestire, senza traumi ed ulteriori motivi di tensione, eventuali situazioni di crisi e di conflittualità interpersonale ed interfamiliare che coinvolgano adolescenti; prevenzione situazionale con cui si mira a disincentivare la propensione al delitto, aumentando le difficoltà pratiche ed il rischio di essere scoperti e sanzionati che – ovviamente – viene ponderato dal reo. Nella loro quotidianità, le “politiche di controllo sociale” si sono tuttavia espresse in diversi contesti – ed anche nel nostro Paese - in maniera a tratti assai discutibile e, comunque, con risultati non sempre apprezzabili quando non - addirittura – controproducenti. La violenta repressione dei soggetti ritenuti “devianti” (zero tolerance policy), l’ulteriore ghettizzazione di individui di per sé già emarginati dal contesto sociale, l’edificazione di interi quartieri fortificati, chiusi anche simbolicamente dal resto della comunità urbana, si sono rivelate, più che misure efficaci nel contrasto alla criminalità, come dei «cortocircuiti semplificatori in rapporto alla complessità dell’insieme dei problemi posti dall’insicurezza». L’apologia della paura è venuta così a riflettersi, anche fisicamente, nelle forme architettoniche delle nuove città fortificate ed ipersorvegliate; in quelle gated-communities in cui l’individuo non esita a sacrificare una componente essenziale della propria libertà, della propria privacy, delle proprie possibilità di contatto diretto con l’altro da sé, sull’altare di un sistema di controllo che malcela, a sua volta, implacabili contraddizioni. Nei pressanti interrogativi circa la percezione, la diffusione e la padronanza del rischio nella società contemporanea - glocale, postmoderna, tardomoderna, surmoderna o della “seconda modernità”, a seconda del punto di vista al quale si aderisce – va colto l’eco delle diverse concezioni della sicurezza urbana, intesa sia in senso oggettivo, quale «situazione che, in modo obiettivo e verificabile, non comporta l’esposizione a fattori di rischio», che in senso soggettivo, quale «risultante psicologica di un complesso insieme di fattori, tra cui anche indicatori oggettivi di sicurezza ma soprattutto modelli culturali, stili di vita, caratteristiche di personalità, pregiudizi, e così via». Le amministrazioni locali sono direttamente chiamate a garantire questo bisogno primario di sicurezza che promana dagli individui, assumendo un ruolo di primo piano nell’adozione di innovative politiche per la sicurezza urbana che siano fra loro complementari, funzionalmente differenziate, integrali (in quanto parte della politica di protezione integrale di tutti i diritti), integrate (perché rivolte a soggetti e responsabilità diverse), sussidiarie (perché non valgono a sostituire i meccanismi spontanei di prevenzione e controllo della devianza che si sviluppano nella società), partecipative e multidimensionali (perché attuate con il concorso di organismi comunali, regionali, provinciali, nazionali e sovranazionali). Questa nuova assunzione di responsabilità da parte delle Amministrazioni di prossimità contribuisce a sancire il passaggio epocale «da una tradizionale attività di governo a una di governance» che deriva «da un’azione integrata di una molteplicità di soggetti e si esercita tanto secondo procedure precostituite, quanto per una libera scelta di dar vita a una coalizione che vada a vantaggio di ciascuno degli attori e della società urbana nel suo complesso». All’analisi dei diversi sistemi di governance della sicurezza urbana che hanno trovato applicazione e sperimentazione in Italia, negli ultimi anni, e in particolare negli ambienti territoriali e comunitari di Roma e del Lazio che appaiono, per molti versi, esemplificativi della complessa realtà metropolitana del nostro tempo, è dedicata questa ricerca. Risulterà immediatamente chiaro come il paradigma teorico entro il quale si dipana il percorso di questo studio sia riconducibile agli orientamenti della psicologia topologica di Kurt Lewin, introdotti nella letteratura sociocriminologica dall’opera di Augusto Balloni. Il provvidenziale crollo di antichi steccati di divisione, l’avvento di internet e, quindi, la deflagrante estensione delle frontiere degli «ambienti psicologici» in cui è destinata a svilupparsi, nel bene ma anche nel male, la personalità umana non hanno scalfito, a nostro sommesso avviso, l’attualità e la validità della «teoria del campo» lewiniana per cui il comportamento degli individui (C) appare anche a noi, oggi, condizionato dalla stretta interrelazione che sussiste fra le proprie connotazioni soggettive (P) e il proprio ambiente di riferimento (A), all’interno di un particolare «spazio di vita». Su queste basi, il nostro itinerario concettuale prende avvio dall’analisi dell’ambiente urbano, quale componente essenziale del più ampio «ambiente psicologico» e quale cornice straordinariamente ricca di elementi di “con-formazione” dei comportamenti sociali, per poi soffermarsi sulla disamina delle pulsioni e dei sentimenti soggettivi che agitano le persone nei controversi spazi di vita del nostro tempo. Particolare attenzione viene inoltre riservata all’approfondimento, a tratti anche critico, della normativa vigente in materia di «sicurezza urbana», nella ferma convinzione che proprio nel diritto – ed in special modo nell’ordinamento penale – vada colto il riflesso e la misura del grado di civiltà ma anche delle tensioni e delle contraddizioni sociali che tormentano la nostra epoca. Notevoli spunti ed un contributo essenziale per l’elaborazione della parte di ricerca empirica sono derivati dall’intensa attività di analisi sociale espletata (in collaborazione con l’ANCI) nell’ambito dell’Osservatorio Tecnico Scientifico per la Sicurezza e la Legalità della Regione Lazio, un organismo di supporto della Presidenza della Giunta Regionale del Lazio al quale compete, ai sensi dell’art. 8 della legge regionale n. 15 del 2001, la funzione specifica di provvedere al monitoraggio costante dei fenomeni criminali nel Lazio.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il progetto propone uno studio per verificare la fattibilita' di un piano territoriale (ideato per il bacino del Po ma di fatto estendibile a tutti i bacini fluviali) per la creazione di una filiera di colture bioenergetiche (biomasse) che, trasportate per mezzo della navigazione fluviale (uno dei mezzi di trasporto a minore emissione di CO2), alimentino una o piu' centrali a nuova tecnologia che associno alla produzione di calore (teleriscaldamento e raffreddamento) e di energia la separazione dei fumi. La CO2 catturata dalla crescita delle biomasse e recuperata dalla combustione, puo' quindi essere segregata nel sottosuolo di aree costiere subsidenti contrastando il fenomeno dell’abbassamento del suolo. Ricavando benefici in tutti i passaggi di attuazione del piano territoriale (lancio dell'agricoltura bioenergetica, rilancio della navigazione a corrente libera, avvio di una economia legata alla logistica del trasporto e dello stoccaggio delle biomasse, generazione di energia pulita, lotta alla subsidenza) il progetto, di fatto, consente di catturare ingenti quantitativi di CO2 dall'atmosfera e di segregarli nel sottosuolo, riducendo l'effetto serra. Nel corso del Dottorato e' stata sviluppata una metodologia di valutazione della sostenibilita' economica ed ambientale del progetto ad un bacino fluviale, che consta di una modulistica di raccolta dei dati di base e di una procedura informatizzata di analisi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

E’ stato in primo luogo definito il criterio di efficienza dal punto di vista economico (con una accenno anche ai parametri elaborati dagli studiosi di discipline aziendali), nelle sue varie accezioni, ponendo altresì ciascuna di queste in relazione alle condizioni di concorrenza perfetta. Le nozioni di efficienza che sono state definite a tal fine sono quelle di efficienza allocativa, efficienza tecnica, efficienza dinamica ed efficienza distributiva. Ciascuna di esse é stata inquadrata a livello teorico secondo le definizioni fornite dalla letteratura, esaminandone le ipotesi sottostanti. E’ stata altresì descritta, contestualizzandola temporalmente, l’evoluzione della nozione, e ne sono state evidenziate le implicazioni ai fini della ricerca della forma di mercato più “efficiente”. Sotto quest’ultimo aspetto l’attenzione dello scrivente si é incentrata sul rapporto tra le diverse accezioni di efficienza economica oggetto di analisi e la desiderabilità o meno di un regime di concorrenza perfetta. Il capitolo si conclude con una breve panoramica sulle metodologie di misurazione finalizzata ad individuare i principali parametri utilizzati per determinare il livello di efficienza, di un mercato, di un’attività produttiva o di un’impresa, posto che, come verrà specificato nel prosieguo della tesi, la valutazione di efficienza in ambito antitrust deve essere verificata, ove possibile, anche basandosi sull’evidenza empirica delle singole imprese esaminate, come richiede il criterio della rule of reason. Capitolo 2 Presupposto per avere una regolazione che persegua l’obiettivo di avere una regolazione efficiente ed efficace, è, a parere di chi scrive, anche l’esistenza di autorità pubbliche deputate a esercitare la funzione regolatoria che rispettino al proprio interno e nel proprio agire la condizione di efficienza definita rispetto ai pubblici poteri. Lo sviluppo di questa affermazione ha richiesto in via preliminare, di definire il criterio di efficienza in ambito pubblicistico individuandone in particolare l’ambito di applicazione, il suo rapporto con gli altri principi che reggono l’azione amministrativa (con particolare riferimento al criterio di efficacia). Successivamente é stato collocato nel nostro ordinamento nazionale, ponendolo in relazione con il principio di buon andamnento della Pubblica Amministrazione, benchè l’ordinamento italiano, per la sua specificità non costituisca un esempio estendibile ad ordinamenti. Anche con riferimento al criterio di efficienza pubblica, un paragrafo é stato dedicato alle metodologie di misurazione di questa, e, nello specifico sull’Analisi Costi-Benefici e sull’Analisi di Impatto della Regolazione Una volta inquadrata la definizione di efficienza pubblica, questa é stata analizzata con specifico riferimento all’attività di regolazione dell’economia svolta dai soggetti pubblici, ambito nella quale rientra la funzione antitrust. Si é provato in particolare ad evidenziare, a livello generale, quali sono i requisiti necessari ad un’autorità amministrativa antitrust, costituita e dotata di poteri ad hoc, affinché essa agisca, nella sua attività di regolazione, secondo il principio di efficienza, Il capitolo si chiude allargando l’orizzonte della ricerca verso una possibile alternativa metodologica al criterio di efficienza precedentemente definito: vi si é infatti brevemente interrogati circa lo schema interpretativo nel quale ci muoviamo, affrontando la questione definitoria del criterio di efficienza, ponendolo in relazione con l’unico modello alternativo esistente, quello sviluppatosi nella cultura cinese. Non certo per elaborare un’applicazione in “salsa cinese” del criterio di efficienza alla tutela della concorrenza, compito al quale lo scrivente non sarebbe stato in grado di ottemperare, bensì, più semplicemente per dare conto di un diverso approccio alla questione che il futuro ruolo di superpotenza economica della Cina imporrà di prendere in considerazione. Capitolo 3 Nel terzo capitolo si passa a definire il concetto di concorrenza come istituto oggetto di tutela da parte della legge antitrust, per poi descrivere la nascita e l’evoluzione di tale legislazione negli Stati Uniti e della sua applicazione, posto che il diritto antitrust statunitense ancora oggi costituisce il necessario punto di riferimento per lo studioso di questa materia. L’evoluzione del diritto antitrust statunitense é stata analizzata parallelamente allo sviluppo delle principali teorie di law and economics che hanno interpretato il diritto della concorrenza quale possibile strumento per conseguire l’obiettivo dell’efficienza economica: la Scuola di Harvard e il paradigma strutturalista, la teoria evoluzionista della Scuola Austriaca, la Scuola di Chicago; le c.d. teorie “Post-Chicago”. Nel terzo capitolo, in altri termini, si é dato conto dell’evoluzione del pensiero economico con riferimento alla sua applicazione al diritto antitrust, focalizzando l’attenzione su quanto avvenuto negli Stati Uniti, paese nel quale sono nati sia l’istituto giuridico della tutela della concorrenza sia l’analisi economica del diritto. A conclusione di questa ricostruzione dottrinale ho brevemente esaminato quelle che sono le nuove tendenze dell’analisi economica del diritto, e specificatamente la teoria del comportamento irrazionale, benché esse non abbiano ancora ricevuto applicazione al diritto antitrust. Chi scrive ritiene infatti che queste teorie avranno ricadute anche in questa materia poiché essa costituisce uno dei principali ambiti applicativi della law and economics. Capitolo 4 Nel quarto capitolo é stata effettuata una disanima della disciplina comunitaria antitrust sottolineando come l’Unione Europea si proponga attraverso la sua applicazione, soprattutto in materia di intese, di perseguire fini eterogenei, sia economici che non economici, tra loro diversi e non di rado contrastanti, e analizzando come questa eterogeneità di obiettivi abbia influito sull’applicazione del criterio di efficienza. Attenendomi in questo capitolo al dato normativo, ho innanzitutto evidenziato l’ampiezza dell’ambito di applicazione della disciplina comunitaria antitrust sia dal punto di vista soggettivo che territoriale (dottrina dell’effetto utile), sottolineando come la norma giustifichi esplicitamente il ricorso al criterio di efficienza solo nella valutazione delle intese: il comma 3 dell’art. 81 del Trattato include, infatti, tra i requisiti di una possibile esenzione dall’applicazione del divieto per le intese qualificate come restrittive della concorrenza, la possibilità di ottenere incrementi di efficienza tecnica e/o dinamica attraverso l’implementazione delle intese in questione. Tuttavia la previsione da parte dello stesso art. 81 (3) di altri requisiti che devono contemporaneamente essere soddisfatti affinché un intesa restrittiva della concorrenza possa beneficiare dell’esenzione, nonché la possibile diversa interpretazione della locuzione “progresso tecnico ed economico”, impone, o comunque ammette, il perseguimento di altri obiettivi, contestualmente a quello dell’efficienza, giustificando così quell’eterogeneità dei fini che contraddistingue la politica della concorrenza dell’Unione Europea. Se la disciplina delle intese aiuta a comprendere il ruolo del criterio di efficienza nell’applicazione dei precetti antitrust da parte degli organi comunitari, l’art. 82 del Trattato non contiene invece alcun riferimento alla possibilità di utilizzare il criterio di efficienza nella valutazione delle condotte unilaterali poste in essere da imprese in posizione dominante sul mercato rilevante. Si è peraltro dato conto della consultazione recentemente avviata dalla Commissione Europea finalizzata all’elaborazione di Linee Guida che definiscano i criteri di interpretazione che l’organo comunitario dovrà seguire nella valutazione dei comportamenti unilaterali. A parere dello scrivente, anzi, l’assenza di un preciso schema cui subordinare la possibilità di ricorrere al criterio di efficienza nella valutazione della fattispecie, attribuisce alle autorità competenti un più ampio margine di discrezionalità nell’utilizzo del suddetto criterio poiché manca il vincolo della contestuale sussistenza delle altre condizioni di cui all’art. 81(3). Per quanto concerne infine la disciplina delle concentrazioni, essa, come abbiamo visto, prevede un riferimento ai possibili incrementi di efficienza (tecnica e dinamica) derivanti da operazioni di fusione, utilizzando la nozione utilizzata per le intese, così come nel precedente Regolamento 4064/89. Si é infine analizzato il nuovo Regolamento in materia di concentrazioni che avrebbe potuto costituire l’occasione per recepire nella disciplina comunitaria l’attribuzione della facoltà di ricorrere all’efficiency defense in presenza di una fattispecie, quella della fusione tra imprese, suscettibile più di altre di essere valutata secondo il criterio di efficienza, ma che si é invece limitato a riprendere la medesima locuzione presente nell’art. 81(3). Il capitolo attesta anche l’attenzione verso l’istanza di efficienza che ha riguardato il meccanismo di applicazione della norma antitrust e non il contenuto della norma stessa; a questo profilo attiene, infatti, l’innovazione apportata dal Regolamento 1/2003 che ha permesso, a parere dello scrivente, un’attribuzione più razionale della competenza nella valutazione dei casi tra la Commissione e le autorità nazionali degli Stati membri; tuttavia pone alcune questioni che investono direttamente il tema dei criteri di valutazione utilizzati dalle autorità competenti. Capitolo 5 L’analisi del quarto capitolo é stata condotta, sebbene in forma più sintetica, con riferimento alle normative antitrust dei principali Stati membri della Comunità Europea (Germania, Gran Bretagna, Spagna, Francia e Italia), rapportando anche queste al criterio di efficienza, ove possibile. Particolare attenzione é stata dedicata ai poteri e alle competenze attribuite alle autorità nazionali antitrust oggetto di studio dall’ordinamento giuridico cui appartengono e al contesto, in termini di sistema giuridico, nel quale esse operano. Capitolo 6 Si é provato ad effettuare una valutazione del livello di efficienza delle autorità prese in esame, la Commissione e le diverse autorità nazionali e ciò con particolare riferimento alla idoneità di queste a svolgere i compiti istituzionali loro affidati (criterio di efficienza dal punto di vista giuridico): affinchè un’autorità si possa ispirare al criterio di efficienza economica nell’adozione delle decisioni, infatti, è preliminarmente necessario che essa sia idonea a svolgere il compito che le è stato affidato dall’ordinamento. In questo senso si é osservata la difficoltà dei paesi di civil law a inquadrare le autorità indipendenti all’interno di un modello, quello appunto di civil law, ispirato a una rigida tripartizione dei poteri. Da qui la difficile collocazione di queste autorità che, al contrario, costituiscono un potere “ibrido” che esercita una funzione di vigilanza e garanzia non attribuibile integralmente né al potere esecutivo né a quello giurisdizionale. Si rileva inoltre una certa sovrapposizione delle competenze e dei poteri tra autorità antitrust e organi ministeriali, in particolare nel campo delle concentrazioni che ingenera un rischio di confusione e bassa efficienza del sistema. Mantenendo, infatti, un parziale controllo politico si rischia, oltre all’introduzione di criteri di valutazione politica che prescindono dagli effetti delle fattispecie concrete sul livello di concorrenza ed efficienza del mercato, anche di dare luogo a conflitti tra le diverse autorità del sistema che impediscano l’adozione e l’implementazione di decisioni definitive, incrementando altresì i costi dell’intervento pubblico. Un giudizio a parte è stato infine formulato con riguardo alla Commissione Europea, istituzione, in quanto avente caratteristiche e poteri peculiari. Da un lato l’assenza di vincolo di mandato dei Commissari e l’elevata preparazione tecnica dei funzionari costituiscono aspetti che avvicinano la Commissione al modello dell’autorità indipendenti, e l’ampiezza dei poteri in capo ad essa le permette di operare efficientemente grazie anche alla possibilità di valersi dell’assistenza delle autorità nazionali. Dall’altra parte, tuttavia la Commissione si caratterizza sempre di più come un organo politico svolgente funzioni esecutive, di indirizzo e di coordinamento che possono influenzare gli obiettivi che essa persegue attraverso l’attività antitrust, deviandola dal rispetto del criterio di efficienza. Capitolo 7 Una volta definito il contesto istituzionale di riferimento e la sua idoneità a svolgere la funzione affidatagli dall’ordinamento comunitario, nonché da quelli nazionali, si è proceduto quindi all’analisi delle decisioni adottate da alcune delle principali autorità nazionali europee competenti ad applicare la disciplina della concorrenza dal punto di vista dell’efficienza. A tal fine le fattispecie rilevanti a fini antitrust dal punto di vista giuridico sono state classificate utilizzando un criterio economico, individuando e definendo quelle condotte che presentano elementi comuni sotto il profilo economico e per ciascuna di esse sono state inquadrate le problematiche rilevanti ai fini dell’efficienza economica sulla scorta dei contributi teorici e delle analisi empiriche svolte dalla letteratura. 6 Con riferimento a ciascuna condotta rilevante ho esaminato il contenuto di alcune delle decisioni antitrust più significative e le ho interpretate in base al criterio di efficienza. verificando se e in quale misura le autorità antitrust prese in esame utilizzano tale criterio, cercando altresì di valutare l’evoluzione dei parametri di valutazione occorsa nel corso degli anni. Le decisioni analizzate sono soprattutto quelle adottate dalla Commissione e le eventuali relative sentenze della Corte di Giustizia Europea; ciò sia per la maggior rilevanza dei casi trattati a livello comunitario, sia in quanto le autorità nazionali, con qualche rara eccezione, si conformano generalmente ai criteri interpretativi della Commissione. Riferimenti a decisioni adottate dalle autorità nazionali sono stati collocati allorquando i loro criteri interpretativi si discostino da quelli utilizzati dagli organi comunitari. Ne è emerso un crescente, anche se ancora sporadico e incostante, ricorso al criterio di efficienza da parte degli organi europei preposti alla tutela della concorrenza. Il tuttora scarso utilizzo del criterio di efficienza nello svolgimento dell’attività antitrust è motivato, a parere di chi scrive, in parte dall’eterogeneità degli obiettivi che l’Unione Europea persegue attraverso la politica della concorrenza comunitaria (completamento del mercato unico, tutela del consumatore, politica industriale, sviluppo delle aree svantaggiate), in parte dall’incapacità (o dall’impossibilità) delle autorità di effettuare coerenti analisi economiche delle singole fattispecie concrete. Anche le principali autorità nazionali mostrano una crescente propensione a tendere conto dell’efficienza nella valutazione dei casi, soprattutto con riferimento agli accordi verticali e alle concentrazioni, sulla scia della prassi comunitaria. Più innovativa nell’applicazione del criterio di efficienza economica così come nella ricerca di uso ottimale delle risorse si è finora dimostrato l’OFT, come vedremo anche nel prossimo capitolo. Al contrario sembra più lenta l’evoluzione in questo senso dell’Ufficio dei Cartelli tedesco sia a causa delle già citate caratteristiche della legge antitrust tedesca, sia a causa del persistente principio ordoliberale della prevalenza del criterio della rule of law sulla rule of reason. Peraltro, anche nei casi in cui le Autorità siano propense ad utilizzare il criterio di efficienza nelle loro valutazioni, esse si limitano generalmente ad un’analisi teorica dell’esistenza di precondizioni che consentano alle imprese in questione di ottenere guadagni di efficienza. La sussistenza di tali pre-condizioni viene infatti rilevata sulla base della capacità potenziale della condotta dell’impresa (o delle imprese) di avere un effetto positivo in termini di efficienza, nonché sulla base delle caratteristiche del mercato rilevante. Raramente, invece, si tiene conto della capacità reale dei soggetti che pongono in essere la pratica suscettibile di essere restrittiva della concorrenza di cogliere effettivamente queste opportunità, ovvero se la struttura e l’organizzazione interna dell’impresa (o delle imprese) non è in grado di mettere in pratica ciò che la teoria suggerisce a causa di sue carenza interne o comunque in ragione delle strategie che persegue. Capitolo 8 Poiché l’approccio ispirato al criterio di efficienza economica non può prescindere dalle caratteristiche del settore e del mercato in cui operano l’impresa o le imprese che hanno posto in essere la condotta sotto esame, e poiché una valutazione approfondita di tutti i settori non era effettuabile per quantità di decisioni adottate dalle autorità, ho infine ritenuto di svolgere un’analisi dettagliata dell’attività delle autorità con riferimento ad uno specifico settore. La scelta è caduta sul settore dei trasporti in quanto esso presenta alcune problematiche che intrecciano l’esigenza di efficienza con la tutela della concorrenza, nonché per la sua importanza ai fini dello sviluppo economico. Tanto più alla luce del fenomeno della crescente apertura dei mercati che ha enfatizzato la triplice funzione dei trasporti di merci, di livellamento nello spazio dei prezzi di produzione, di redistribuzione nello spazio dell’impiego dei fattori della produzione, e soprattutto di sollecitazione al miglioramento delle tecnologie utilizzate nella produzione stessa in quanto contribuiscono alla divisione territoriale del lavoro e alla specializzazione produttiva. A loro volta, d’altra parte, i miglioramenti tecnici e organizzativi intervenuti nel settore negli ultimi trenta anni hanno reso possibile il fenomeno della globalizzazione nella misura in cui lo conosciamo. Così come le riduzioni di costo e di tempo conseguite nel trasporto di persone hanno consentito massicci spostamenti di lavoratori e più in generale di capitale umano da una parte all’altra del globo, e favorito altresì la spettacolare crescita del settore turistico. Ho quindi condotto un’analisi delle decisioni antitrust relative al settore dei trasporti, suddividendo la casistica in base al comparto al quale esse si riferivano, cercando sempre di non perdere di vista i crescenti legami che esistono tra i vari comparti alla luce dell’ormai affermato fenomeno del trasporto multimodale. Dall’analisi svolta emerge innanzitutto come l’assoggettamento del settore dei trasporti alla disciplina di tutela della concorrenza sia un fenomeno relativamente recente rispetto alle altre attività economiche, laddove la ragione di tale ritardo risiede nel fatto che tradizionalmente questo settore era caratterizzato da un intervento pubblico diretto e da una pervasiva regolamentazione, a sua volta giustificata da vari fattori economici: le caratteristiche di monopolio naturale delle infrastrutture; le esigenze di servizio pubblico connesse all’erogazione di molti servizi di trasporto; il ruolo strategico svolto dal trasporto sia di persone che di merci ai fini della crescita economica di un sistema. Si concretizza, inoltre, con riferimento ai trasporti marittimi e aerei, l’inadeguatezza della dimensione nazionale e comunitaria delle autorità competenti rispetto a comportamenti di impresa che spesso hanno effetti letteralmente globali. Le imprese marittime e aeree coinvolte nelle fattispecie da noi esaminate, infatti, in molti casi predisponevano, direttamente o mediatamente, tramite “alleanze”, collegamenti tra tutte le aree del mondo, individuando nell’Europa solo un nodo di un network ben più ampio Da questa constatazione discende, a parere dello scrivente, l’impossibilità per l’autorità comunitaria e ancor più per quella nazionale di individuare tutti gli effetti in termini di efficienza che la fattispecie concreta può provocare, non includendo pertanto solo quelli evidenti sul mercato comunitario. Conseguentemente una reale applicazione del criterio di efficienza all’attività antitrust nel settore dei trasporti non può prescindere da una collaborazione tra autorità a livello mondiale sia a fini di indagine che a fini di individuazione di alcuni principi fondamentali cui ispirarsi nello svolgimento della loro missione istituzionale. Capitolo 9. Conclusioni L’opera si chiude con l’individuazione delle evidenze e degli elementi emersi dalla trattazione considerati dallo scrivente maggiormente rilevanti nell’ambito dell’attuale dibattito di economia positiva circa le principali problematiche che affiggono l’intervento antitrust con particolare riferimento al suo rispetto del criterio di efficienza. Sono state altresì proposte alcune soluzioni a quelle che sono, a parere dello scrivente, le principali carenze dell’attuale configurazione dell’intervento antitrust a livello europeo, sempre in una prospettiva di efficienza sia delle autorità competenti sia dei mercati in cui le autorità stesse cercano di mantenere o ripristinare condizioni di concorrenza effettiva. Da un lato il modello costituito dalla Commissione Europea, l’autorità antitrust comunitaria, non replicabile né esente da critiche: la Commissione, infatti, rappresenta il Governo dell’Unione Europea e come tale non può ovviamente costituire un esempio di autorità indipendente e neutrale recepibile da parte degli Stati membri. Ciò anche a prescindere dalla questione della sua legittimazione, che in questa sede non affrontiamo. Dall’altro in una prospettiva di efficienza dei mercati la crescente applicazione delle teorie economiche da parte delle autorità esaminate è rimasta a un livello astratto, senza porre la dovuta attenzione alle specificità dei mercati rilevanti né tantomeno alle dinamiche interne alle singole imprese, con particolare riferimento alla loro capacità di rendere effettivi i guadagni di efficienza individuabili a livello potenziale, così come prescrive la più recente teoria economica applicata al diritto antitrust. Sotto il profilo dell’applicazione del criterio di efficienza si può comunque affermare che l’evoluzione che ha avuto la prassi decisionale e la giurisprudenza, comunitaria e degli Stati membri, in materia antitrust è stata caratterizzata dal loro progressivo avvicinamento alle tendenze sviluppatesi nelle agencies e nella giurisprudenza statunitense a partire dagli anni’70, caratterizzate dalla valutazione degli effetti, piuttosto che della forma giuridica, dal riconoscimento del criterio di efficienza e dalla rule of reason quale approccio metodologico. L’effetto è stato quello di determinare una significativa riduzione delle differenze inizialmente emerse tra le due esperienze, nate inizialmente sotto diverse prospettive politiche. Per quanto concerne specificatamente i trasporti sono emersi sotto il profilo economico due aspetti rilevanti, oltre al perdurante ritardo con cui il processo di liberalizzazione del trasporto ferroviario che limita fortemente l’intervento antitrust nel comparto, ma che esula dalla competenza delle stesse autorità antitrust. Il primo consiste nella spesso troppo rigida separazione tra comparti adottata dalle autorità. Il secondo è l’estensivo ricorso all’essential facility doctrine nelle fattispecie riguardanti infrastrutture portuali e aeroportuali: la massimizzazione dell’efficienza dinamica consiglierebbe in questi casi una maggiore cautela, in quanto si tratta di un paradigma che, una volta applicato, disincentiva la duplicazione e l’ampliamento di tali infrastrutture autoalimentandone il carattere di essenzialità. Ciò soprattutto laddove queste infrastrutture possono essere sostituite o duplicate piuttosto facilmente da un punto di vista tecnico (meno da un punto di vista economico e giuridico), essendo esse nodi e non reti. E’stata infine sottolineata l’inadeguatezza della dimensione nazionale e comunitaria delle autorità competenti rispetto a comportamenti di impresa che con riferimento ai trasporti marittimi ed aerei hanno effetti letteralmente globali. E’ di tutta evidenza che le autorità comunitarie e tantomeno quelle nazionali non sono da sole in grado di condurre le analisi quantitative necessarie ad una valutazione di tali condotte ispirata a un criterio di efficienza che tenga conto degli effetti di lungo periodo della fattispecie concreta. Né tali autorità sono sufficientemente neutre rispetto alla nazionalità delle imprese indagate per poter giudicare sulla liceità o meno della condotta in questione senza considerare gli effetti della loro decisione sull’economia interna, rendendo così ancora più improbabile un corretto utilizzo del criterio di efficienza. Da ultimo ho constatato come l’applicazione del concetto di efficienza giuridica imporrebbe di concepire autorità antitrust del tutto nuove, sganciate quanto più possibile dall’elemento territoriale, in grado di elaborare regole e standards minimi comuni e di permettere il controllo dei comportamenti di impresa in un contesto ampliato rispetto al tradizionale mercato unico, nonchè ai singoli mercati nazionali. Il processo di armonizzazione a livello globale è difficile e il quadro che attualmente viene formato è ancora confuso e incompleto. Vi sono tuttavia sparsi segnali attraverso i quali é possibile intravedere i lineamenti di una futura global governance della concorrenza che permetterà, sperabilmente, di incrementare l’efficienza di un sistema, quello antitrust, che tanto più piccolo è l’ambito in cui opera quanto più si sta dimostrando inadeguato a svolgere il compito affidatogli. Solo il futuro, peraltro, ci consentirà di verificare la direzione di sviluppo di questi segnali.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il lavoro di tesi di dottorato, dal titolo “Turismo religioso: percorsi culturali-religiosi come leva di sviluppo territoriale”, ha preso in esame in particolare il tema dei percorsi culturali/religiosi, considerati “strategici” in una prospettiva di ricomposizione territoriale e di sviluppo locale, e considerati importanti per la promozione di nuovi flussi turistici e valorizzazione delle risorse storiche, artistiche e culturali del Salento leccese. Il lavoro di tesi affronta il tema del turismo culturale legato all’offerta del bene religioso inteso come potenziale fattore di attrazione turistica ed importante risorsa per lo sviluppo sostenibile del territorio. L’attenzione a santuari e luoghi di culto costituisce, infatti, una valida occasione di interesse per le opere d'arte in essi presenti, e rappresenta anche una possibilità di conoscenza del territorio in cui essi insistono, diventando la destinazione di un turismo colto e di qualità. Il lavoro di tesi, si propone di dimostrare come l’attenzione al motivo religioso creando mobilità, flussi di popolazione, di turisti possa diventare occasione di promozione del prodotto locale, mettendo a sistema tutte le risorse economiche presenti nel territorio. Più in dettaglio, dopo un iniziale approccio teorico al concetto di turismo culturale, turismo religioso e marketing territoriale, esso analizza lo stato dell’arte nel territorio provinciale leccese, individuando possibili itinerari turistico-religiosi nel Salento leccese rapportati ai “Cammini d’Europa”. Si propone l’itinerario turistico - e, in particolare, a quello Leucadense, noto come la “via della Perdonanza di Leuca”, che segue la via dei pellegrinaggi medioevali che si suffragavano di luoghi di sosta in chiese e cappelle dedicate alla Vergine Maria - come strumento verso cui si orientano le recenti strategie di competitività territoriale, definibile come uno strumento d’offerta turistica che mira a valorizzare elementi-risorse del territorio. Si tratta di percorsi utili a promuovere un prodotto competitivo, che presuppone l’enucleazione dell’offerta turistica locale integrata e la costruzione intorno ad essi di un territorio dotato di infrastrutture, ricettività, politiche dell’accoglienza, valorizzazione e fruizione del patrimonio culturale materiale, immateriale ed ambientale. Non mancano nel lavoro preoccupazioni legate alla sostenibilità di un tipo di turismo, che, se di massa (come è il caso delle visite al santuario di San Pio a San Giovanni Rotondo), produce gravi pressioni sull’ambiente e perciò necessita un forte impegno in termini di pubblicità, pianificazione investimenti e presume un’opportuna programmazione da parte degli enti locali in termini di offerta ricettiva, ristorativa e dotazione di infrastrutture. La coerenza degli interventi che promuovono il prodotto religioso non può prescindere da un’integrazione orizzontale tra il sistema territoriale (ambiente, paesaggio, sistemi socio-produttivi) e gli attori locali coinvolti, ai fini di un processo di valorizzazione del patrimonio culturale che produce sviluppo locale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La valutazione dell’intensità secondo una procedura formale trasparente, obiettiva e che permetta di ottenere valori numerici attraverso scelte e criteri rigorosi, rappresenta un passo ed un obiettivo per la trattazione e l’impiego delle informazioni macrosismiche. I dati macrosismici possono infatti avere importanti applicazioni per analisi sismotettoniche e per la stima della pericolosità sismica. Questa tesi ha affrontato il problema del formalismo della stima dell’intensità migliorando aspetti sia teorici che pratici attraverso tre passaggi fondamentali sviluppati in ambiente MS-Excel e Matlab: i) la raccolta e l’archiviazione del dataset macrosismico; ii), l’associazione (funzione di appartenenza o membership function) tra effetti e gradi di intensità della scala macrosismica attraverso i principi della logica dei fuzzy sets; iii) l’applicazione di algoritmi decisionali rigorosi ed obiettivi per la stima dell’intensità finale. L’intera procedura è stata applicata a sette terremoti italiani sfruttando varie possibilità, anche metodologiche, come la costruzione di funzioni di appartenenza combinando le informazioni macrosismiche di più terremoti: Monte Baldo (1876), Valle d’Illasi (1891), Marsica (1915), Santa Sofia (1918), Mugello (1919), Garfagnana (1920) e Irpinia (1930). I risultati ottenuti hanno fornito un buon accordo statistico con le intensità di un catalogo macrosismico di riferimento confermando la validità dell’intera metodologia. Le intensità ricavate sono state poi utilizzate per analisi sismotettoniche nelle aree dei terremoti studiati. I metodi di analisi statistica sui piani quotati (distribuzione geografica delle intensità assegnate) si sono rivelate in passato uno strumento potente per analisi e caratterizzazione sismotettonica, determinando i principali parametri (localizzazione epicentrale, lunghezza, larghezza, orientazione) della possibile sorgente sismogenica. Questa tesi ha implementato alcuni aspetti delle metodologie di analisi grazie a specifiche applicazioni sviluppate in Matlab che hanno permesso anche di stimare le incertezze associate ai parametri di sorgente, grazie a tecniche di ricampionamento statistico. Un’analisi sistematica per i terremoti studiati è stata portata avanti combinando i vari metodi per la stima dei parametri di sorgente con i piani quotati originali e ricalcolati attraverso le procedure decisionali fuzzy. I risultati ottenuti hanno consentito di valutare le caratteristiche delle possibili sorgenti e formulare ipotesi di natura sismotettonica che hanno avuto alcuni riscontri indiziali con dati di tipo geologico e geologico-strutturale. Alcuni eventi (1915, 1918, 1920) presentano una forte stabilità dei parametri calcolati (localizzazione epicentrale e geometria della possibile sorgente) con piccole incertezze associate. Altri eventi (1891, 1919 e 1930) hanno invece mostrato una maggiore variabilità sia nella localizzazione dell’epicentro che nella geometria delle box: per il primo evento ciò è probabilmente da mettere in relazione con la ridotta consistenza del dataset di intensità mentre per gli altri con la possibile molteplicità delle sorgenti sismogenetiche. Anche l’analisi bootstrap ha messo in evidenza, in alcuni casi, le possibili asimmetrie nelle distribuzioni di alcuni parametri (ad es. l’azimut della possibile struttura), che potrebbero suggerire meccanismi di rottura su più faglie distinte.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La conoscenza delle esigenze luminose (intensità, spettro, durata minima, massima ed ottimale del fotoperiodo di illuminazione) e della tolleranza alle condizioni degli interni delle piante ad uso decorativo, è di fondamentale importanza per una giusta tecnica di progettazione (dimensionamento e dislocazione dei punti luce) dell’indoor plantscaping. Il lungo periodo di condizionamento al quale queste piante vengono sottoposte, caratterizzato principalmente dalla scarsa disponibilità di luce naturale e dagli alti livelli di concentrazione di CO2 determina una forte influenza sui processi morfo-fisiologici. Il presente studio analizza il fattore luminoso ed è articolato su più punti quali; • caratterizzazione della riposta fotosintetica all’intensità luminosa di 21 delle principali specie a fogliame decorativo comunemente utilizzate nella realizzazione degli spazi verdi indoor, per stabilire quali siano i minimi ed ottimali livelli di PAR tali da garantire una fotosintesi netta positiva e nel complesso le condizioni di maggior benessere per le piante; • quantificazione dell’incremento fotosintetico netto dovuto ad una maggior concentrazione di CO2 negli interni rispetto alla concentrazione CO2 atmosferica esterna, all’aumentare dell’ intensità luminosa artificiale sulle precedenti specie; • monitoraggio dell’andamento delle attività fotosintetiche durante il periodo di illuminazione di 8 ore comunemente utilizzato in un interno ad uso lavorativo, a PAR costante e variabile in Ficus elastica e Dieffenbachia picta, al fine di stabilire quali possano essere le durate e le modalità di somministrazione della luce per rendere massima la fotosintesi netta riducendo al minimo i consumi energetici dovuti all’accensione delle lampade; • valutazione della risposta morfo-fisiologica e fotosintetica a modificazioni dello spettro luminoso mediante l’uso di LED monocromatici colorati ad emissione nel bianco, blu e rosso in Ficus benjamina e Iresine herbistii al fine di stabilire se questo tipo di lampade possano essere utilizzate come fonte integrativa e/o sostitutiva nella realizzazione degli spazi verdi interni. Vengono analizzati il punto si compensazione alla luce (g), il punto di saturazione alla luce (s), l’efficienza quantica (AQE), il punto di respirazione al buio (Rd) e la fotosintesi netta massima (A max) per (Aglaonema commutatum, Asplenium nidus, Anthurium andreanum, Begonia rex, Calathea luoise, Calathea veitchiana, Calathea rufibarba, Calathea zebrina, Codiaeum variegatum, Cthenanthe oppenheimiana, Dieffenbakia picta, Ficus benjamina, Ficus elatica, Ficus longifolia, Fittonia verschaffeltii, Iresine herbistii, Philodendron erubescens, Philodendron pertusum, Potos aureus, Spathiphillum wallisi, Syngonium podophillum ) e classificate le specie in funzione di Amax in quattro categorie; A max < 2 µmol CO2 m-2 s-1, A max compresa tra 2 e 4 µmol CO2 m-2 s-1, Amax cpmpresa tra 4 e 6 µmol CO2 m-2 s-1, Amax > 6 µmol CO2 m-2 s-1, al fine di mettere in risalto la potenzialità fotosintetiche di ogni singola specie. I valori di PAR compresi tra (g) ed (s) forniscono le indicazioni sulle quali basarsi per scegliere una giusta lampada o dimensionare un punto luce per ogni singola specie e/o composizione. È stimata l’influenza di due livelli di concentrazione di CO2 ambientale (400 e 800 ppm) all’incrementare dell’intensità luminosa sul processo fotosintetico delle specie precedenti. Per quasi tutte le specie 800 ppm di CO2 non favoriscono nessun incremento all’attività fotosintetica ad eccezione di Ficus benjamina, Ficus elatica e Syngonium podophillum se non accompagnati da una disponibilità luminosa superiore alle 10 µmol m-2 s-1. Viene monitorato l’andamento dell’attività fotosintetica a PAR costante e variabile (intervallando periodi di 8 minuti a PAR 40 e 80) durante 8 ore di illuminazione su Ficus elastica e Dieffenbachia picta al fine di stabilire la miglior modalità di somministrazione della luce. La fotosintesi netta cumulativa per l’intera durata di illuminazione a PAR costante mostra un calo dopo alcune ore dall’attivazione in Dieffenbackia, e un andamento oscillatorio in Ficus. L’illuminazione alternata consente di raggiungere i quantitativi di CO2 organicata a 80 µmol m-2 s-1 di PAR, dopo 5 ore e mezza sia in Ficus che Dieffenbackia sebbene le potenzialità fotosintetiche delle due piante siano molto differenti. È stato valutato l’effetto dell’illuminazione artificiale mediante LED (15W) a luce bianca, blu e rossa monocromatica in rapporto alla luce neon(36W) bianca tradizionale (con differenti abbinamenti tra le lampade) sui principali parametri morfologici e fisiologici, in Ficus benjamin ‘Variegata’ e Iresine herbistii per verificare se tali fonti possono rappresentare una valida alternativa nella sostituzione o integrazione di altre lampade per gli spazi verdi indoor. Tutte le combinazioni LED indagate possono rappresentare un’alternativa di sostituzione alla coltivazione con neon ed un risparmio energetico di oltre il 50%. Una PAR di 20,6 µmol m-2 s-1 della singola lampada LED bianco è sufficiente per mantenere la pianta in condizioni di sopravvivenza con un consumo di 15W a fronte dei 36W necessari per il funzionamento di ogni neon. La combinazione LED bianco + LED blu monocromatico favorisce il contenimento della taglia della pianta, caratteristica gradita nella fase di utilizzo indoor, una maggior produzione di sostanza secca e un’attività fotosintetica più elevata.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Scopo della presente ricerca era quello di approfondire il ruolo dei Sirfidi afidifagi ponendo particolare attenzione alle interazioni multitrofiche e all'effetto del paesaggio sul popolamento di Sirfidi. Larve e pupe di Sirfidi sono state monitorate in siti a diverso impatto antropico, in particolare in monocolture di mais e frumento ed in aree a maggiore diversità. La percentuale di parassitizzazione è risultata significativamente maggiore in aree a maggiore semplificazione, in particolare nei campi di mais. Anche la tipologia dei parassitoidi di Sirfidi è risultata diversa: mentre Pachyneuron (Encyrtidae) è il parassitoide chiave nel mais, in altri siti i Diplazontini (Ichneumonidae) sono risultati più frequenti. La distribuzione spaziale di Sirfidi ed altri predatori/parassitoidi afidifagi è stata analizzata in campi di mais e frumento dal 2007 al 2009. I pattern di distribuzione spaziale e temporale sembrano tali da impedire la sovrapposizione degli afidifagi favorendo una partizione di nicchia. Il popolamento di Sirfidi in un'area rurale caratterizzata da forte ricchezza in elementi di naturalità è stata analizzata per tre anni consecutivi, permettendo il ritrovamento di specie molto rare come Criorhina pachymera. Ai dati ottenuti è stato applicato Syrph the Net per la valutazione dello stato di conservazione del sito; è stata riscontrata una percentuale elevata di specie osservate ma non attese confermando come questo parametro può essere molto utile nella valutazione del paesaggio soprattutto in ambienti rurali. Infine Syrph the Net è stato applicato al popolamento di Sirfidi della provincia di Ferrara confermando l'utilità di questa tecnica per la valutazione della conservazione degli habitat anche in comprensori molto ampi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo scopo di questa dissertazione è quello di costruire un modello di promozione della salute nel contesto di lavoro in relazione al consumo di sostanze psicoattive fra lavoratori, attraverso il confronto tra la situazione italiana e inglese. L’ipotesi di fondo rimanda all’idea che i luoghi di lavoro possano rappresentare setting d’elezione per i progetti di prevenzione non solo perché alcuni studi dimostrano l’esistenza di fattori di rischio connessi alla mansione rispetto alle condotte relative allo stile di vita, ma anche perché il consumo di alcol e droghe è altamente diffuso tra i lavoratori e questo comporta rischi per la sicurezza e la salute personale nonché quella dei colleghi di lavoro. Si tratta quindi di indagare il rapporto tra contesto lavorativo e utilizzo di sostanze al fine di suggerire  alla luce degli studi internazionali in materia e delle riflessioni condotte dai soggetti coinvolti nella ricerca che si andrà a presentare  linee guida e indicazioni operative per la realizzazione di interventi di promozione alla salute nei contesti professionali. A tal fine, saranno analizzati gli esiti di 13 focus group che hanno coinvolto esperti italiani e 6 interviste somministrate a esperti inglesi volti a definire la situazione attuale in Italia e Gran Bretagna in materia di prevenzione del consumo di alcol e droghe nei luoghi di lavoro. In particolare, l’analisi verterà sulle seguenti aree: - Percezione circa la diffusione dei consumi nei luoghi di lavoro - Presentazione delle politiche adottate, in logica comparativa, tra i due paesi. - Analisi critica degli interventi e problematiche aperte. L’analisi del materiale empirico permette di delineare due modelli costruiti sulla base dei focus group e delle interviste: - in Italia si può affermare che prevalga il cd. modello della sicurezza: di recente trasformazione, questo sistema enfatizza la dimensione del controllo, tanto che si parla di sorveglianza sanitaria. É orientato alla sicurezza concepita quale rimozione dei fattori di rischio. Il consumo di sostanze (anche sporadico) è inteso quale espressione di una patologia che richiede l’intervento sanitario secondo modalità previste dal quadro normativo: una procedura che annulla la discrezionalità sia del datore di lavoro sia del medico competente. Si connota inoltre per contraddizioni interne e trasversali rispetto alle categorie lavorative (i controlli non si applicano alle professioni associate a maggiore prestigio sociale sebbene palesemente associate a rischio, come per esempio i medici) e alle sostanze (atteggiamento repressivo soprattutto verso le droghe illegali); - in Gran Bretagna, invece, il modello si configura come responsabilità bilaterale: secondo questo modello, se è vero che il datore di lavoro può decidere in merito all’attuazione di misure preventive in materia di alcol e droghe nei luoghi di lavoro, egli è ritenuto responsabile della mancata vigilanza. D’altro canto, il lavoratore che non rispetta quanto previsto nella politica scritta può essere soggetto a licenziamento per motivi disciplinari. Questo modello, particolarmente attento al consumo di tutte le sostanze psicoattive (legali e illegali), considera il consumo quale esito di una libera scelta individuale attraverso la quale il lavoratore decide di consumare alcol e droghe così come decide di dedicarsi ad altre condotte a rischio. Si propone di ri-orientare le strategie analizzate nei due paesi europei presi in esame attraverso la realizzazione di un modello della promozione della salute fondato su alcuni punti chiave: – coinvolgimento di tutti i lavoratori (e non solo coloro che svolgono mansioni a rischio per la sicurezza) al fine di promuovere benessere secondo un approccio olistico di salute, orientato ad intervenire non soltanto in materia di consumo di sostanze psicoattive (legali e illegali), ma più in generale sulle condotte a rischio; – compartecipazione nelle diverse fasi (programmazione, realizzazione e valutazione del progetto) del lavoratore, datore di lavoro e medico competente secondo una logica di flessibilità, responsabilizzazione condivisa fra i diversi attori, personalizzazione e co-gestione dell’intervento; – azione volta a promuovere i fattori di protezione agendo simultaneamente sul contrasto dei fattori di rischio (stress, alienazione, scarso riconoscimento del ruolo svolto), attraverso interventi che integrano diverse strategie operative alla luce delle evidenze scientifiche (Evidence-Based Prevention); – ricorso a strumenti di controllo (drug testing) subordinato all’esigenza di tutelare l’incolumità fisica del lavoratore e dei colleghi, da attuarsi sempre e comunque attraverso prassi che non violino la privacy e attraverso strumenti in grado di verificare l’effettivo stato di alterazione psico-fisica sul luogo di lavoro; – demedicalizzazione delle situazioni di consumo che non richiedono un intervento prettamente sanitario, ma che al contrario potrebbero essere affrontate attraverso azioni incentrate sul care anziché la cure; – messa a disposizione di servizi ad hoc con funzione di supporto, counselling, orientamento per i lavoratori, non stigmatizzanti e con operatori di formazione non solamente sanitaria, sull’esempio degli EAPs (Employee Assistence Programs) statunitensi. Si ritiene che questo modello possa trasformare i contesti di lavoro da agenzie di controllo orientate alla sicurezza a luoghi di intervento orientati al benessere attraverso un’azione sinergica e congiunta volta a promuovere i fattori di protezione a discapito di quelli di rischio in modo tale da intervenire non soltanto sul consumo di sostanze psicotrope, ma più in generale sullo stile di vita che influenza la salute complessiva.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'elaborato considera anzitutto la genesi dell'istituto, e con chiarezza analizza il percorso di affioramento della figura del distacco nell'impiego pubblico rimarcando affinità e differenze con ipotesi similari di temporanea dissociazione tra datore di lavoro e fruitore della prestazione. Nell'operare gli opportuni distinguo, il dott. Tortini si confronta con la fattispecie tipica del lavoro subordinato e con il divieto di dissociazione che ad essa sarebbe sotteso, anche alla luce della legge 1369 del 1960 sul divieto di interposizione. Gli elementi caratterizzanti il distacco sono poi esposti analizzando con acutezza i più rilevanti orientamenti emersi nella giurisprudenza di merito e di legittimità , in specie con riguardo alla prassi invalsa nei gruppi di società  di dirigere la prestazione di lavoro a favore di società  collegate o controllate dalla società  datrice di lavoro. In tal senso l'elaborato prende posizione in ordine alla necessaria temporaneità  dell'interesse del distaccante, nonchè all'inclusione del distacco nell'ambito del potere direttivo-organizzativo del datore di lavoro, ciò che esclude la necessità  del consenso del lavoratore distaccato. Nel secondo capitolo il dott. Tortini si confronta con il quadro delle libertà  fondamentali del diritto comunitario, ed in particolare con la libera prestazione di servizi, analizzando profili essenziali quali la natura autonoma, la transnazionalità  e la temporaneità  del servizio prestato. Con ampi riferimenti alla dottrina, anche comparata, in argomento, il capitolo delinea le possibili forme di interazione tra gli ordinamenti nazionali all'interno dell'Unione europea ed individua, in alternativa, tre modelli di coordinamento tra le esigenze liberalizzanti tipiche del mercato unico e le prerogative nazionali di tipo protezionistico che si manifestano qualora un servizio venga prestato in uno Stato membro diverso da quello in cui ha sede il prestatore: host state control, home state control e controllo sovranazionale. L'analisi si rivela essenziale al fine di delineare le ragioni della più recente giurisprudenza della Corte di giustizia in tema di appalti cross-border e libera circolazione dei lavoratori, e dimostra un sostanziale "slittamento" della base giuridica mediante la quale il diritto comunitario regola il fenomeno della prestazione di lavoro transnazionale, dall'art. 39 all'art. 49 TCE. Il terzo capitolo confronta l'impianto teorico ricavabile dai principi del Trattato con la Direttiva 96/71 sul distacco ed i relativi provvedimenti attuativi (d.lgs. n. 72/2000 e art. 30, d.lgs. n. 276/2003). In particolare, vengono analizzate le ipotesi limitrofe alla nozione di distacco ricavabile dal diritto comunitario, accomunate dalla dissociazione tra datore di lavoro ed utilizzatore della prestazione, ma distinguibili in base alla natura del rapporto contrattuale tra impresa distaccante ed impresa distaccataria. La funzione principale della Direttiva comunitaria in argomento viene individuata dal dott. Tortini nella predisposizione di una base inderogabile di diritti che devono essere, in ogni caso, assicurati al lavoratore oggetto del distacco. Questa base, denominata hard core della tutela, deve essere garantita, all'interno del singolo Stato membro, dalla contrattazione collettiva. Nell'ordinamento italiano, la disciplina del distacco contenuta nella Direttiva viene attuata con il d.lgs. n. 72/2000 che, come opportunamente segnalato dal dott. Tortini, contiene una serie di incongruenze e di lacune. Fra tutte, si rimarca come la stessa Commissione abbia rilevato uno scostamento tra le due discipline, dato che la legge italiana estende surrettiziamente ai lavoratori distaccati tutte le disposizioni legislative e/o i contratti collettivi che disciplinano le condizioni di lavoro, operazione non consentita dal la Direttiva 76/91. E' in specie il riferimento al contratto collettivo stipulato dalle organizzazioni comparativamente più rappresentative ad essere criticato dall'elaborato, in quanto finisce con il trasformare l'art. 3.1 del D. Lgs. 72/2000 in una discriminazione fondata sulla nazionalità  e rischia di creare maggiori difficoltà  e più oneri per gli imprenditori stranieri che intendano erogare servizi sul territorio nazionale. A conclusione della tesi, il dott. Tortini esamina la nozione di distacco introdotta ad opera dell'art. 30, d.lgs. n. 276/2003, ed enuclea gli elementi caratterizzanti dell'istituto, individuati nell'interesse del distaccante e nella temporaneità  dell'assegnazione, definita «l'in sè» dell'interesse stesso.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In this thesis three measurements of top-antitop differential cross section at an energy in the center of mass of 7 TeV will be shown, as a function of the transverse momentum, the mass and the rapidity of the top-antitop system. The analysis has been carried over a data sample of about 5/fb recorded with the ATLAS detector. The events have been selected with a cut based approach in the "one lepton plus jets" channel, where the lepton can be either an electron or a muon. The most relevant backgrounds (multi-jet QCD and W+jets) have been extracted using data driven methods; the others (Z+ jets, diboson and single top) have been simulated with Monte Carlo techniques. The final, background-subtracted, distributions have been corrected, using unfolding methods, for the detector and selection effects. At the end, the results have been compared with the theoretical predictions. The measurements are dominated by the systematic uncertainties and show no relevant deviation from the Standard Model predictions.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’oggetto principale delle attività di tesi è la caratterizzazione numerico-sperimentale di processi di colata in sabbia di ghisa sferoidale. Inizialmente è stata effettuata un’approfondita indagine bibliografica per comprendere appieno le problematiche relative all’influenza dei parametri del processo fusorio (composizione chimica, trattamento del bagno, velocità di raffreddamento) sulle proprietà microstrutturali e meccaniche di getti ottenuti e per valutare lo stato dell’arte degli strumenti numerici di simulazione delle dinamiche di solidificazione e di previsione delle microstrutture. Sono state definite, realizzate ed impiegate attrezzature sperimentali di colata per la caratterizzazione di leghe rivolte alla misura ed alla differenziazione delle condizioni di processo, in particolare le velocità di raffreddamento, ed atte a validare strumenti di simulazione numerica e modelli previsionali. Inoltre sono stati progettati ed impiegati diversi sistemi per l’acquisizione ed analisi delle temperature all’interno di getti anche di grandi dimensioni. Lo studio, mediante analisi metallografica, di campioni di materiale ottenuto in condizioni differenziate ha confermato l’effetto dei parametri di processo considerati sulle proprietà microstrutturali quali dimensioni dei noduli di grafite e contenuto di ferrite e perlite. In getti di grandi dimensioni si è riscontrata anche una forte influenza dei fenomeni di macrosegregazione e convezione della lega su microstrutture e difettologie dei getti. Le attività si sono concentrate principalmente nella simulazione numerica FEM dei processi fusori studiati e nell’impiego di modelli empirico-analitici per la previsione delle microstrutture. I dati misurati di temperature di processo e di microstrutture sono stati impiegati per la validazione ed ottimizzazione degli strumenti numerici previsionali impiegati su un ampio intervallo di condizioni di processo. L’impiego di strumenti affidabili di simulazione del processo fusorio, attraverso l’implementazione di correlazioni sperimentali microstrutture-proprietà meccaniche, permette la valutazione di proprietà e difettologie dei getti, fornendo un valido aiuto nell’ottimizzazione del prodotto finito e del relativo processo produttivo.