225 resultados para Miccoli, Giovanni: I dilemmi e i silenzi di Pio XII
Resumo:
La definizione dell’ordinamento dell’Unione come ordinamento costituzionale è centrale, ma resta frammentata. Per restituirle sistematicità è importante individuare un principio sul quale poggiarne il consolidamento. Per questo si è scelto di esaminare il principio di non discriminazione attraverso l’analisi della giurisprudenza, con l’obiettivo di verificare se questo principio è parte fondamentale dell’identità costituzionale dell’Unione Europea. Nella prima parte della tesi si analizza la struttura del giudizio sulla discriminazione davanti alla CGUE e davanti alla CEDU, mettendo in evidenza come la struttura ricordi sempre di più quella del giudizio di costituzionalità. Nella seconda parte ci si concentra sul contributo dato dal principio di non discriminazione all’identità costituzionale dell’Unione Europea attraverso la lotta contro specifiche tipologie di discriminazione. Poiché i motivi di discriminazione sono molto numerosi, si è stabilito di esaminare quei motivi che sono regolati dal diritto derivato. Per questo la seconda parte dell’analisi si è concentrata sulle discriminazioni a motivo della nazionalità (dir. 2004/38/CE), della razza (dir. 2000/43/CE), del genere (dir. 2006/54/CE, dir. 2004/113/CE) dell’età, disabilità, religione ed orientamento sessuale (dir. 2000/78/CE). Dall’analisi della giurisprudenza e del diritto derivato che ne dà attuazione è possibile comprendere che questo principio, oltre ad essere sostenuto da un vero e proprio giudizio di legittimità costituzionale (il rinvio pregiudiziale), ha gli strumenti necessari a permetterne lo sviluppo tenendo conto delle identità costituzionali degli stati membri e può aiutare ad offrire delle risposte rispetto a uno dei problemi fondamentali inerenti all’efficacia del diritto dell’Unione Europea: la tensione fra il principio di attribuzione e la dottrina degli effetti diretti. Le conclusioni di questo lavoro portano a sostenere che è possibile individuare una giurisprudenza della Corte che, attraverso alcuni passaggi fondamentali (le sentenze Mangold, Kucukdeveci, Hay, Deckmyn e Zambrano), definisce il principio di non discriminazione come principio fondamentale, e costituzionale, del diritto dell’Unione Europea.
Resumo:
La ricerca di dottorato riguarda i banchetti tenuti dall'imperatore Taizong di Tang durante i suoi 23 anni di regno (dal 626 al 649 d.C.) e a partire da essi ho esaminato la costruzione delle istituzioni politiche e dell'ordine sociale dello Stato cinese dell'epoca, per scoprire come queste attività contribuissero, in una certa misura, alla legittimazione e all'affermazione del potere dell'imperatore stesso. Da questa premessa, sorgono una serie di domande che riguardano vari aspetti: ad esempio, cosa spinse Taizong a puntare su questi banchetti per la costruzione del suo ordine politico? Quando furono organizzati? In quali luoghi? Chi vi partecipava? E come venivano organizzati? Studiando questo tipo di attività ricreative a cui partecipavano Taizong e la sua corte, esplorerò l'evoluzione e i cambiamenti della cultura politica nella dinastia Tang (618-907 d.C.). Analizzerò come il sovrano utilizzasse i banchetti per promuovere lo sviluppo della politica statale e i rituali di corte al fine di mantenere la stabilità sociale all'interno della governance della macchina statale. Esaminerò e metterò a fuoco la relazione dinamica e simbiotica tra cibo e politica nell'antica Cina, anche facendo riferimento a semplici frammenti di cronaca relativi ai resoconti dei banchetti stessi, oltre che a concetti storiografici più generali.
Resumo:
Helicobacter pylori, un patogeno umano in grado di colonizzare la nicchia gastrica, è associato a patologie del tratto gastrointestinale di varia gravità. Per sopravvivere nell’ambiente ostile dello stomaco dell’ospite, e mettere in atto un’infezione persistente, il batterio si serve di una serie di fattori di virulenza che includono anche le proteine Heat Shock (chaperone). I principali geni codificanti le proteine chaperone in H. pylori sono organizzati in tre operoni trascritti dall’RNA polimerasi contenente il fattore sigma vegetativo σ80. La trascrizione di due dei tre operoni è regolata negativamente da due regolatori trascrizionali, HspR e HrcA, mentre il terzo operone è represso solo da HspR. Fino ad ora, studi molecolari per la comprensione del ruolo di ciascuna proteina nel controllo trascrizionale dei geni heat shock sono stati ostacolati dalla citotossicità ed insolubilità di HrcA quando espressa in sistemi eterologhi. In questo lavoro, è stata analizzata la sequenza amminoacidica di HrcA ed è stata confermata sperimentalmente la predizione bioinformatica della sua associazione con la membrana interna. La citotossicità e l’insolubilità di HrcA in E. coli sono state alleviate inducendone l’espressione a 42°C. Saggi in vitro con le proteine ricombinanti purificate, HspR e HrcA, hanno consentito di definire i siti di legame dei due repressori sui promotori degli operoni heat shock. Ulteriori saggi in vitro hanno suggerito che l’affinità di HrcA per gli operatori è aumentata dalla chaperonina GroESL. Questi dati contribuiscono parzialmente alla comprensione del meccanismo di repressione della trascrizione espletato da HrcA e HspR e permettono di ipotizzare il coinvolgimento di altri regolatori trascrizionali. L’analisi di RNA estratti dal ceppo selvatico e dai mutanti hrcA, hspR e hrcA/hspR di H.pylori su DNAmacroarrays non ha evidenziato il coinvolgimento di altri regolatori trascrizionali, ma ha permesso l’identificazione di un gruppo di geni indotti da HrcA e/ HspR. Questi geni sono coinvolti nella biosintesi e regolazione dell’apparato flagellare, suggerendo un’interconnessione tra la risposta heat shock e la motilità e chemiotassi del batterio.
Resumo:
Durante il periodo di dottorato, l’attività di ricerca di cui mi sono occupato è stata finalizzata allo sviluppo di metodologie per la diagnostica e l’analisi delle prestazioni di un motore automobilistico. Un primo filone di ricerca è relativo allo sviluppo di strategie per l’identificazione delle mancate combustioni (misfires) in un motore a benzina. La sperimentazione si è svolta nella sala prove della Facoltà di Ingegneria dell’Università di Bologna, nei quali è presente un motore Fiat 1.200 Fire, accoppiato ad un freno a correnti parassite, e comandato da una centralina virtuale, creata mediante un modello Simulink, ed interfacciata al motore tramite una scheda di input/output dSpace. Per quanto riguarda la campagna sperimentale, sono stati realizzati delle prove al banco in diverse condizioni di funzionamento (sia stazionarie, che transitorie), durante le quali sono stati indotti dei misfires, sia singoli che multipli. Durante tali test sono stati registrati i segnali provenienti sia dalla ruota fonica usata per il controllo motore (che, nel caso in esame, era affacciata al volano), sia da quella collegata al freno a correnti parassite. Partendo da tali segnali, ed utilizzando un modello torsionale del sistema motoregiunto-freno, è possibile ottenere una stima sia della coppia motrice erogata dal motore, sia della coppia resistente dissipata dal freno. La prontezza di risposta di tali osservatori è tale da garantirci la possibilità di effettuare una diagnosi misfire. In particolare, si è visto che l’indice meglio correlato ala mancata combustione risultaessere la differenza fra la coppia motrice e la coppia resistente; tale indice risulta inoltre essere quello più semplice da calibrare sperimentalmente, in quanto non dipende dalle caratteristiche del giunto, ma solamente dalle inerzie del sistema. Una seconda attività della quale mi sono occupato è relativa alla stima della coppia indicata in un motore diesel automobilistico. A tale scopo, è stata realizzata una campagna sperimentale presso i laboratori della Magneti Marelli Powertrain (Bologna), nella quale sono state effettuati test in molteplici punti motori, sia in condizioni di funzionamento “nominale”, sia variando artificiosamente alcuni dei fattori di controllo (quali Start of Injection, pressione nel rail e, nei punti ove è stato possibile, tasso di EGR e pressione di sovralimentazione), sia effettuando degli sbilanciamenti di combustibile fra un cilindro e l’altro. Utilizzando il solo segnale proveniente da una ruota fonica posta sul lato motore, e sfruttando un modello torsionale simile a quello utilizzato nella campagna di prove relativa alla diagnosi del misfire, è possibile correlare la componente armonica con frequenza di combustione della velocità all’armonica di pari ordine della coppia indicata; una volta stimata tale componente in frequenza, mediante un’analisi di tipo statistico, è possibile eseguire una stima della coppia indicata erogata dal motore. A completamento dell’algoritmo, sfruttando l’analisi delle altre componenti armoniche presenti nel segnale, è possibile avere una stima dello sbilanciamento di coppia fra i vari cilindri. Per la verifica dei risultati ottenuti, sono stati acquisiti i segnali di pressione provenienti da tutti e quattro i cilindri del motore in esame.
Resumo:
La terapia di resincronizzazione cardiaca (TRC) è un presidio non farmacologico che riduce la mortalità e la morbosità nei pazienti con scompenso refrattario alla terapia medica. La maggior parte dei dati riguardanti gli effetti della TRC coinvolgono i pazienti con le indicazioni consolidate seguenti: classe NYHA III-IV, ritardo della conduzione ventricolare (QRS>opp= 20 msec), disfunzione sistolica ventricolare sinistra (frazione di eiezione ventricolare sinistra >opp= 35%) e ritmo sinusale (RS). Mentre è noto che la fibrillazione atriale permanente (FA) sia presente in una porzione consistente dei pazienti con scompenso cardiaco, vi sono pochi dati riguardanti la sopravvivenza e gli effetti a lungo-termine della TRC in pazienti con scompenso cardiaco e fibrillazione atriale (FA); la maggior parte degli studi sono osservazionali ed hanno dimostrato che la TRC potrebbe conferire dei benefici a corto e medio termine anche in pazienti con FA permanente. Solo recentemente un ampio studio osservazionale ha descritto che, a lungo-termine, la TRC migliora significativamente la capacità funzionale, la frazione di eiezione e induce il rimodellamento inverso del ventricolo sinistro solamente in quei pazienti con FA dove la TRC viene combinata con l’ablazione del nodo atrio-ventricolare (NAV). La strategia ablativa del NAV infatti conferendo una stimolazione completa e costante, permette di eliminare gli effetti del ritmo spontaneo di FA (ritmo irregolare e tendenzialmente tachicardico) cheinterferisce in maniera importante con la stimolazione biventricolare in particolare durante gli sforzi fisici. Sulla base di queste premesse il presente studio si propone di valutare gli effetti a lungo-termine della TRC su pazienti con scompenso cardiaco e FA permanente focalizzando su due aspetti principali: 1) confrontando la sopravvivenza di pazienti con FA permanente rispetto ai pazienti in RS; 2) confrontando la sopravvivenza di pazienti in FA suddivisi secondo la modalità di controllo della frequenza con somministrazione di farmaci antiaritmici (gruppo FA-farm) oppure mediante controllo ablazione del NAV (gruppo FA-abl). Metodi e risultati: Sono presentati i dati di 1303 pazienti sottoposti consecutivamente ad impianto di dispositivo per la TRC e seguiti per un periodo mediano di 24 mesi. Diciotto pazienti sono stati persi durante il follow-up per cui la popolazione dello studio è rappresentata da una popolazione totale di 1295 pazienti di cui 1042 in RS e 243 (19%) in FA permanente. Nei pazienti con FA il controllo della frequenza cardiaca è stato effettuato mediante la somministrazione di farmaci anti-aritmici (gruppo FA-farm: 125 pazienti) oppure mediante ablazione del NAV (FA-abl: 118 pazienti). Rispetto ai pazienti in RS, i pazienti in FA permanente erano significativamente più vecchi, più spesso presentavano eziologia nonischemica, avevano una frazione di eiezione più elevata al preimpianto, una durata del QRS minore e erano più raramente trattati con un defibrillatore. Lungo un follow-up mediano di 24 mesi, 170/1042 pazienti in RS e 39/243 in FA sono deceduti (l’incidenza di mortalità a 1 anno era di 8,4% e 8,9%, rispettivamente). I rapporti di rischio derivanti dall’analisi multivariata con il 95% dell’intervallo di confidenza (HR, 95% CI) erano simili sia per la morte per tutte le cause che per la morte cardiaca (0.9 [0.57-1.42], p=0.64 e 1.00 [0.60-1.66] p=0.99, rispettivamente). Fra i pazienti con FA, il gruppo FA-abl presentava una durata media del QRS minore ed era meno frequentemente trattato con il defibrillatore impiantabile rispetto al gruppo FA-farm. Soli 11/118 pazienti del FA-abl sono deceduti rispetto a 28/125 nel gruppo FA-farm (mortalità cumulativa a 1 anno di 9,3% e 15,2% rispettivamente, p<0.001), con HR, 95% CI per FA-abl vs FA-farm di 0.15 [0.05-0.43],,p<0.001 per la mortalità per tutte le cause, di 0.18 [0.06-0.57], p=0.004 per la mortalità cardiaca, e di 0.09 [0.02-0.42], p<0.002 per la mortalità da scompenso cardiaco. Conclusioni: I pazienti con scompenso cardiaco e FA permanente trattati con la TRC presentano una simile sopravvivenza a lungo-termine di pazienti in RS. Nei pazienti in FA l’ablazione del NAV in aggiunta alla TRC migliora significativamente la sopravvivenza rispetto alla sola TRC; questo effetto è ottenuto primariamente attraverso una riduzione della morte per scompenso cardiaco.
Resumo:
Il lavoro è incentrato sull’applicazione ed integrazione di differenti tecniche di indagine geofisica in campo ambientale e ingegneristico/archeologico. Alcuni esempi sono stati descritti al fine di dimostrare l’utilità delle metodologie geofisiche nella risoluzione di svariate problematiche. Nello specifico l’attenzione è stata rivolta all’utilizzo delle tecniche del Ground Penetrating Radar e del Time Domain Reflectometry in misure condotte su un corpo sabbioso simulante una Zona Insatura. L’esperimento è stato realizzato all’interno di un’area test costruita presso l’azienda agricola dell’Università La Tuscia di Viterbo. Hanno partecipato al progetto le Università di Roma Tre, Roma La Sapienza, La Tuscia, con il supporto tecnico della Sensore&Software. Nello studio è stato condotto un approccio definito idrogeofisico al fine di ottenere informazioni da misure dei parametri fisici relativi alla Zona Insatura simulata nell’area test. Il confronto e l’integrazione delle due differenti tecniche di indagine ha offerto la possibilità di estendere la profondità di indagine all’interno del corpo sabbioso e di verificare l’utilità della tecnica GPR nello studio degli effetti legati alle variazioni del contenuto d’acqua nel suolo, oltre a determinare la posizione della superficie piezometrica per i differenti scenari di saturazione. Uno specifico studio è stato realizzato sul segnale radar al fine di stabilire i fattori di influenza sulla sua propagazione all’interno del suolo. Il comportamento dei parametri dielettrici nelle condizioni di drenaggio e di imbibizione del corpo sabbioso è stato riprodotto attraverso una modellizzazione delle proprietà dielettriche ed idrologiche sulla base della dimensione, forma e distribuzione dei granuli di roccia e pori, nonché sulla base della storia relativa alla distribuzione dei fluidi di saturazione all’interno del mezzo. La modellizzazione è stata operata sulle basi concettuali del Differential Effective Medium Approximation.
Resumo:
L’obiettivo della tesi riguarda l’utilizzo di immagini aerofotogrammetriche e telerilevate per la caratterizzazione qualitativa e quantitativa di ecosistemi forestali e della loro evoluzione. Le tematiche affrontate hanno riguardato, da una parte, l’aspetto fotogrammetrico, mediante recupero, digitalizzazione ed elaborazione di immagini aeree storiche di varie epoche, e, dall’altra, l’aspetto legato all’uso del telerilevamento per la classificazione delle coperture al suolo. Nel capitolo 1 viene fatta una breve introduzione sullo sviluppo delle nuove tecnologie di rilievo con un approfondimento delle applicazioni forestali; nel secondo capitolo è affrontata la tematica legata all’acquisizione dei dati telerilevati e fotogrammetrici con una breve descrizione delle caratteristiche e grandezze principali; il terzo capitolo tratta i processi di elaborazione e classificazione delle immagini per l’estrazione delle informazioni significative. Nei tre capitoli seguenti vengono mostrati tre casi di applicazioni di fotogrammetria e telerilevamento nello studio di ecosistemi forestali. Il primo caso (capitolo 4) riguarda l’area del gruppo montuoso del Prado- Cusna, sui cui è stata compiuta un’analisi multitemporale dell’evoluzione del limite altitudinale degli alberi nell’arco degli ultimi cinquant’anni. E’ stata affrontata ed analizzata la procedura per il recupero delle prese aeree storiche, definibile mediante una serie di successive operazioni, a partire dalla digitalizzazione dei fotogrammi, continuando con la determinazione di punti di controllo noti a terra per l’orientamento delle immagini, per finire con l’ortorettifica e mosaicatura delle stesse, con l’ausilio di un Modello Digitale del Terreno (DTM). Tutto ciò ha permesso il confronto di tali dati con immagini digitali più recenti al fine di individuare eventuali cambiamenti avvenuti nell’arco di tempo intercorso. Nel secondo caso (capitolo 5) si è definita per lo studio della zona del gruppo del monte Giovo una procedura di classificazione per l’estrazione delle coperture vegetative e per l’aggiornamento della cartografia esistente – in questo caso la carta della vegetazione. In particolare si è cercato di classificare la vegetazione soprasilvatica, dominata da brughiere a mirtilli e praterie con prevalenza di quelle secondarie a nardo e brachipodio. In alcune aree sono inoltre presenti comunità che colonizzano accumuli detritici stabilizzati e le rupi arenacee. A questo scopo, oltre alle immagini aeree (Volo IT2000) sono state usate anche immagini satellitari ASTER e altri dati ancillari (DTM e derivati), ed è stato applicato un sistema di classificazione delle coperture di tipo objectbased. Si è cercato di definire i migliori parametri per la segmentazione e il numero migliore di sample per la classificazione. Da una parte, è stata fatta una classificazione supervisionata della vegetazione a partire da pochi sample di riferimento, dall’altra si è voluto testare tale metodo per la definizione di una procedura di aggiornamento automatico della cartografia esistente. Nel terzo caso (capitolo 6), sempre nella zona del gruppo del monte Giovo, è stato fatto un confronto fra la timberline estratta mediante segmentazione ad oggetti ed il risultato di rilievi GPS a terra appositamente effettuati. L’obiettivo è la definizione del limite altitudinale del bosco e l’individuazione di gruppi di alberi isolati al di sopra di esso mediante procedure di segmentazione e classificazione object-based di ortofoto aeree in formato digitale e la verifica sul campo in alcune zone campione dei risultati, mediante creazione di profili GPS del limite del bosco e determinazione delle coordinate dei gruppi di alberi isolati. I risultati finali del lavoro hanno messo in luce come le moderne tecniche di analisi di immagini sono ormai mature per consentire il raggiungimento degli obiettivi prefissi nelle tre applicazioni considerate, pur essendo in ogni caso necessaria una attenta validazione dei dati ed un intervento dell’operatore in diversi momenti del processo. In particolare, le operazioni di segmentazione delle immagini per l’estrazione di feature significative hanno dimostrato grandi potenzialità in tutti e tre i casi. Un software ad “oggetti” semplifica l’implementazione dei risultati della classificazione in un ambiente GIS, offrendo la possibilità, ad esempio, di esportare in formato vettoriale gli oggetti classificati. Inoltre dà la possibilità di utilizzare contemporaneamente, in un unico ambiente, più sorgenti di informazione quali foto aeree, immagini satellitari, DTM e derivati. Le procedure automatiche per l’estrazione della timberline e dei gruppi di alberi isolati e per la classificazione delle coperture sono oggetto di un continuo sviluppo al fine di migliorarne le prestazioni; allo stato attuale esse non devono essere considerate una soluzione ottimale autonoma ma uno strumento per impostare e semplificare l’intervento da parte dello specialista in fotointerpretazione.
Resumo:
Gli istoni sono proteine basiche che possono essere classificate in varie classi: H1, H2A, H2B, H3 e H4. Queste proteine formano l’ottamero proteico attorno al quale si avvolge il DNA per formare il nucleosoma che è l’unità fondamentale della cromatina. A livello delle code N-terminali, gli istoni possono essere soggetti a numerose modifiche posttraduzionali quali acetilazioni, metilazioni, fosforilazioni, ADP-ribosilazioni e ubiquitinazioni. Queste modifiche portano alla formazione di diversi siti di riconoscimento per diversi complessi enzimatici coinvolti in importanti processi come la riparazione e la replicazione del DNA e l’assemblaggio della cromatina. La più importante e la più studiata di queste modifiche è l’acetilazione che avviene a livello dei residui amminici della catena laterale dell’amminoacido lisina. I livelli corretti di acetilazione delle proteine istoniche sono mantenuti dall’attività combinata di due enzimi: istone acetil transferasi (HAT) e istone deacetilasi (HDAC). Gli enzimi appartenenti a questa famiglia possono essere suddivisi in varie classi a seconda delle loro diverse caratteristiche, quali la localizzazione cellulare, la dimensione, l’omologia strutturale e il meccanismo d’azione. Recentemente è stato osservato che livelli aberranti di HDAC sono coinvolti nella carcinogenesi; per questo motivo numerosi gruppi di ricerca sono interessati alla progettazione e alla sintesi di composti che siano in grado di inibire questa classe enzimatica. L’inibizione delle HDAC può infatti provocare arresto della crescita cellulare, apoptosi o morte cellulare. Per questo motivo la ricerca farmaceutica in campo antitumorale è mirata alla sintesi di inibitori selettivi verso le diverse classi di HDAC per sviluppare farmaci meno tossici e per cercare di comprendere con maggiore chiarezza il ruolo biologico di questi enzimi. Il potenziale antitumorale degli inibitori delle HDAC deriva infatti dalla loro capacità di interferire con diversi processi cellulari, generalmente non più controllati nelle cellule neoplastiche. Nella maggior parte dei casi l’attività antitumorale risiede nella capacità di attivare programmi di differenziamento, di inibire la progressione del ciclo cellulare e di indurre apoptosi. Inoltre sembra essere molto importante anche la capacità di attivare la risposta immunitaria e l’inibizione dell’angiogenesi. Gli inibitori delle HDAC possono essere a loro volta classificati in base alla struttura chimica, alla loro origine (naturale o sintetica), e alla loro capacità di inibire selettivamente le HDAC appartenenti a classi diverse. Non è ancora chiaro se la selettività di queste molecole verso una specifica classe di HDAC sia importante per ottenere un effetto antitumorale, ma sicuramente inibitori selettivi possono essere molto utili per investigare e chiarire il ruolo delle HDAC nei processi cellulari che portano all’insorgenza del tumore. Nel primo capitolo di questa tesi quindi è riportata un’introduzione sull’importanza delle proteine istoniche non solo da un punto di vista strutturale ma anche funzionale per il destino cellulare. Nel secondo capitolo è riportato lo stato dell’arte dell’analisi delle proteine istoniche che comprende sia i metodi tradizionali come il microsequenziamento e l’utilizzo di anticorpi, sia metodi più innovativi (RP-LC, HILIC, HPCE) ideati per poter essere accoppiati ad analisi mediante spettrometria di massa. Questa tecnica consente infatti di ottenere importanti e precise informazioni che possono aiutare sia a identificare gli istoni come proteine che a individuare i siti coinvolti nelle modifiche post-traduzionali. Nel capitolo 3 è riportata la prima parte del lavoro sperimentale di questa tesi volto alla caratterizzazione delle proteine istoniche mediante tecniche cromatografiche accoppiate alla spettrometria di massa. Nella prima fase del lavoro è stato messo a punto un nuovo metodo cromatografico HPLC che ha consentito di ottenere una buona separazione, alla linea di base, delle otto classi istoniche (H1-1, H1-2, H2A-1, H2A-2, H2B, H3-1, H3-2 e H4). La separazione HPLC delle proteine istoniche ha permesso di poter eseguire analisi accurate di spettrometria di massa mediante accoppiamento con un analizzatore a trappola ionica tramite la sorgente electrospray (ESI). E’ stato così possibile identificare e quantificare tutte le isoforme istoniche, che differiscono per il tipo e il numero di modifiche post-traduzionali alle quali sono soggette, previa estrazione da colture cellulari di HT29 (cancro del colon). Un’analisi così dettagliata delle isoforme non può essere ottenuta con i metodi immunologici e permette di eseguire un’indagine molto accurata delle modifiche delle proteine istoniche correlandole ai diversi stadi della progressione del ciclo e alla morte cellulare. Il metodo messo a punto è stato convalidato mediante analisi comparative che prevedono la stessa separazione cromatografica ma accoppiata a uno spettrometro di massa avente sorgente ESI e analizzatore Q-TOF, dotato di maggiore sensibilità e risoluzione. Successivamente, per identificare quali sono gli specifici amminoacidi coinvolti nelle diverse modifiche post-traduzionali, l’istone H4 è stato sottoposto a digestione enzimatica e successiva analisi mediante tecniche MALDI-TOF e LC-ESI-MSMS. Queste analisi hanno permesso di identificare le specifiche lisine acetilate della coda N-terminale e la sequenza temporale di acetilazione delle lisine stesse. Nel quarto capitolo sono invece riportati gli studi di inibizione, mirati a caratterizzare le modifiche a carico delle proteine istoniche indotte da inibitori delle HDAC, dotati di diverso profilo di potenza e selettività. Dapprima Il metodo messo a punto per l’analisi delle proteine istoniche è stato applicato all’analisi di istoni estratti da cellule HT29 trattate con due noti inibitori delle HDAC, valproato e butirrato, somministrati alle cellule a dosi diverse, che corrispondono alle dosi con cui sono stati testati in vivo, per convalidare il metodo per studi di inibizione di composti incogniti. Successivamente, lo studio è proseguito con lo scopo di evidenziare effetti legati alla diversa potenza e selettività degli inibitori. Le cellule sono state trattate con due inibitori più potenti, SAHA e MS275, alla stessa concentrazione. In entrambi i casi il metodo messo a punto ha permesso di evidenziare l’aumento dei livelli di acetilazione indotto dal trattamento con gli inibitori; ha inoltre messo in luce differenti livelli di acetilazione. Ad esempio il SAHA, potente inibitore di tutte le classi di HDAC, ha prodotto un’estesa iperacetilazione di tutte le proteine istoniche, mentre MS275 selettivo per la classe I di HDAC, ha prodotto modifiche molto più blande. E’ stato quindi deciso di applicare questo metodo per studiare la dose e la tempo-dipendenza dell’effetto di quattro diversi inibitori delle HDAC (SAHA, MS275, MC1855 e MC1568) sulle modifiche post-traduzionali di istoni estratti da cellule HT29. Questi inibitori differiscono oltre che per la struttura chimica anche per il profilo di selettività nei confronti delle HDAC appartenenti alle diverse classi. Sono stati condotti quindi studi di dose-dipendenza che hanno consentito di ottenere i valori di IC50 (concentrazione capace di ridurre della metà la quantità relativa dell’istone meno acetilato) caratteristici per ogni inibitore nei confronti di tutte le classi istoniche. E’ stata inoltre calcolata la percentuale massima di inibizione per ogni inibitore. Infine sono stati eseguiti studi di tempo-dipendenza. I risultati ottenuti da questi studi hanno permesso di correlare i livelli di acetilazione delle varie classi istoniche con la selettività d’azione e la struttura chimica degli inibitori somministrati alle cellule. In particolare, SAHA e MC1855, inibitori delle HDAC di classi I e II a struttura idrossamica, hanno causato l’iperacetilazione di tutte le proteine istoniche, mentre MC1568 (inibitore selettivo per HDAC di classe II) ha prodotto l’iperacetilazione solo di H4. Inoltre la potenza e la selettività degli inibitori nel provocare un aumento dei livelli di acetilazione a livello delle distinte classi istoniche è stata correlata al destino biologico della cellula, tramite studi di vitalità cellulare. E’ stato osservato che il SAHA e MC1855, inibitori potenti e non selettivi, somministrati alla coltura HT29 a dose 50 μM producono morte cellulare, mentre MS275 alla stessa dose produce accumulo citostatico in G1/G0. MC1568, invece, non produce effetti significatici sul ciclo cellulare. Questo studio ha perciò dimostrato che l’analisi tramite HPLC-ESI-MS delle proteine istoniche permette di caratterizzare finemente la potenza e la selettività di nuovi composti inibitori delle HDAC, prevedendone l’effetto sul ciclo cellulare. In maggiore dettaglio è risultato che l’iperacetilazione di H4 non è in grado di provocare modifiche significative sul ciclo cellulare. Questo metodo, insieme alle analisi MALDI-TOF e LC-ESI-MSMS che permettono di individuare l’ordine di acetilazione delle lisine della coda N-terminale, potrà fornire importanti informazioni sugli inibitori delle HDAC e potrà essere applicato per delineare la potenza, la selettività e il meccanismo di azione di nuovi potenziali inibitori di questa classe enzimatica in colture cellulari tumorali.
Resumo:
Il traffico veicolare è la principale fonte antropogenica di NOx, idrocarburi (HC) e CO e, dato che la sostituzione dei motori a combustione interna con sistemi alternativi appare ancora lontana nel tempo, lo sviluppo di sistemi in grado di limitare al massimo le emissioni di questi mezzi di trasporto riveste un’importanza fondamentale. Sfortunatamente non esiste un rapporto ottimale aria/combustibile che permetta di avere basse emissioni, mentre la massima potenza ottenibile dal motore corrisponde alle condizioni di elevata formazione di CO e HC. Gli attuali sistemi di abbattimento permettono il controllo delle emissioni da sorgenti mobili tramite una centralina che collega il sistema di iniezione del motore e la concentrazione di ossigeno del sistema catalitico (posto nella marmitta) in modo da controllare il rapporto aria/combustibile (Fig. 1). Le marmitte catalitiche per motori a benzina utilizzano catalizzatori “three way” a base di Pt/Rh supportati su ossidi (allumina, zirconia e ceria), che, dovendo operare con un rapporto quasi stechiometrico combustibile/comburente, comportano una minore efficienza del motore e consumi maggiori del 20-30% rispetto alla combustione in eccesso di ossigeno. Inoltre, questa tecnologia non può essere utilizzata nei motori diesel, che lavorano in eccesso di ossigeno ed utilizzano carburanti con un tenore di zolfo relativamente elevato. In questi ultimi anni è cresciuto l’interesse per il controllo delle emissioni di NOx da fonti veicolari, con particolare attenzione alla riduzione catalitica in presenza di un eccesso di ossigeno, cioè in condizioni di combustione magra. Uno sviluppo recente è rappresentato dai catalizzatori tipo “Toyota” che sono basati sul concetto di accumulo e riduzione (storage/reduction), nei quali l’NO viene ossidato ed accumulato sul catalizzatore come nitrato in condizioni di eccesso di ossigeno. Modificando poi per brevi periodi di tempo le condizioni di alimentazione da ossidanti (aria/combustibile > 14,7 p/p) a riducenti (aria/combustibile < 14,7 p/p) il nitrato immagazzinato viene ridotto a N2 e H2O. Questi catalizzatori sono però molto sensibili alla presenza di zolfo e non possono essere utilizzati con i carburanti diesel attualmente in commercio. Obiettivo di questo lavoro di tesi è stato quello di ottimizzare e migliorare la comprensione del meccanismo di reazione dei catalizzatori “storage-reduction” per l’abbattimento degli NOx nelle emissioni di autoveicoli in presenza di un eccesso di ossigeno. In particolare lo studio è stato focalizzato dapprima sulle proprietà del Pt, fase attiva nei processi di storage-reduction, in funzione del tipo di precursore e sulle proprietà e composizione della fase di accumulo (Ba, Mg ed una loro miscela equimolare) e del supporto (γ-Al2O3 o Mg(Al)O). Lo studio è stato inizialmente focalizzato sulle proprietà dei precursori del Pt, fase attiva nei processi di storage-reduction, sulla composizione della fase di accumulo (Ba, Mg ed una loro miscela equimolare) e del supporto (γ-Al2O3 o Mg(Al)O). E’ stata effettuata una dettagliata caratterizzazione chimico-fisica dei materiali preparati tramite analisi a raggi X (XRD), area superficiale, porosimetria, analisi di dispersione metallica, analisi in riduzione e/o ossidazione in programmata di temperatura (TPR-O), che ha permesso una migliore comprensione delle proprietà dei catalizzatori. Vista la complessità delle miscele gassose reali, sono state utilizzate, nelle prove catalitiche di laboratorio, alcune miscele più semplici, che tuttavia potessero rappresentare in maniera significativa le condizioni reali di esercizio. Il comportamento dei catalizzatori è stato studiato utilizzando differenti miscele sintetiche, con composizioni che permettessero di comprendere meglio il meccanismo. L’intervallo di temperatura in cui si è operato è compreso tra 200-450°C. Al fine di migliorare i catalizzatori, per aumentarne la resistenza alla disattivazione da zolfo, sono state effettuate prove alimentando in continuo SO2 per verificare la resistenza alla disattivazione in funzione della composizione del catalizzatore. I principali risultati conseguiti possono essere così riassunti: A. Caratteristiche Fisiche. Dall’analisi XRD si osserva che l’impregnazione con Pt(NH3)2(NO2)2 o con la sospensione nanoparticellare in DEG, non modifica le proprietà chimico-fisiche del supporto, con l’eccezione del campione con sospensione nanoparticellare impregnata su ossido misto per il quale si è osservata sia la segregazione del Pt, sia la presenza di composti carboniosi sulla superficie. Viceversa l’impregnazione con Ba porta ad una significativa diminuzione dell’area superficiale e della porosità. B. Caratteristiche Chimiche. L’analisi di dispersione metallica, tramite il chemiassorbimento di H2, mostra per i catalizzatori impregnati con Pt nanoparticellare, una bassa dispersione metallica e di conseguenza elevate dimensioni delle particelle di Pt. I campioni impregnati con Pt(NH3)2(NO2)2 presentano una migliore dispersione. Infine dalle analisi TPR-O si è osservato che: Maggiore è la dispersione del metallo nobile maggiore è la sua interazione con il supporto, L’aumento della temperatura di riduzione del PtOx è proporzionale alla quantità dei metalli alcalino terrosi, C. Precursore Metallo Nobile. Nelle prove di attività catalitica, con cicli ossidanti e riducenti continui in presenza ed in assenza di CO2, i catalizzatori con Pt nanoparticellare mostrano una minore attività catalitica, specie in presenza di un competitore come la CO2. Al contrario i catalizzatori ottenuti per impregnazione con la soluzione acquosa di Pt(NH3)2(NO2)2 presentano un’ottima attività catalitica, stabile nel tempo, e sono meno influenzabili dalla presenza di CO2. D. Resistenza all’avvelenamento da SO2. Il catalizzatore di riferimento, 17Ba1Pt/γAl2O3, mostra un effetto di avvelenamento con formazione di solfati più stabili che sul sistema Ba-Mg; difatti il campione non recupera i valori iniziali di attività se non dopo molti cicli di rigenerazione e temperature superiori ai 300°C. Per questi catalizzatori l’avvelenamento da SO2 sembra essere di tipo reversibile, anche se a temperature e condizioni più favorevoli per il 1.5Mg8.5Ba-1Pt/γAl2O3. E. Capacità di Accumulo e Rigenerabilità. Tramite questo tipo di prova è stato possibile ipotizzare e verificare il meccanismo della riduzione. I catalizzatori ottenuti per impregnazione con la soluzione acquosa di Pt(NH3)2(NO2)2 hanno mostrato un’elevata capacità di accumulo. Questa è maggiore per il campione bimetallico (Ba-Mg) a T < 300°C, mentre per il riferimento è maggiore per T > 300°C. Per ambedue i catalizzatori è evidente la formazione di ammoniaca, che potrebbe essere utilizzata come un indice che la riduzione dei nitrati accumulati è arrivata al termine e che il tempo ottimale per la riduzione è stato raggiunto o superato. Per evitare la formazione di NH3, sul catalizzatore di riferimento, è stata variata la concentrazione del riducente e la temperatura in modo da permettere alle specie adsorbite sulla superficie e nel bulk di poter raggiungere il Pt prima che l’ambiente diventi troppo riducente e quindi meno selettivo. La presenza di CO2 riduce fortemente la formazione di NH3; probabilmente perché la CO2, occupando i siti degli elementi alcalino-terrosi lontani dal Pt, impedisce ai nitriti/nitrati o all’H2 attivato di percorrere “elevate” distanze prima di reagire, aumentando così le possibilità di una riduzione più breve e più selettiva. F. Tempo di Riduzione. Si è migliorata la comprensione del ruolo svolto dalla concentrazione dell’agente riducente e dell’effetto della durata della fase riducente. Una durata troppo breve porta, nel lungo periodo, alla saturazione dei siti attivi, un eccesso alla formazione di NH3 Attraverso queste ultime prove è stato possibile formulare un meccanismo di reazione, in particolare della fase riducente. G. Meccanismo di Riduzione. La mobilità dei reagenti, nitriti/nitrati o H2 attivato è un elemento fondamentale nel meccanismo della riduzione. La vicinanza tra i siti di accumulo e quelli redox è determinante per il tipo di prodotti che si possono ottenere. La diminuzione della concentrazione del riducente o l’aumento della temperatura concede maggiore tempo o energia alle specie adsorbite sulla superficie o nel bulk per migrare e reagire prima che l’ambiente diventi troppo riducente e quindi meno selettivo.
Resumo:
La famiglia rappresenta un micro sistema all’interno del macro sistema società, che vive, si riproduce, rimane in equilibrio o cade in situazioni di squilibrio, implode e si rigenera, attraverso gli infiniti feedback comunicativi con l’ambiente esterno. I suoi componenti sono i medium di tale processo interattivo. Quindi: tutti gli eventi all’interno del nucleo familiare, compreso il conflitto, non possono considerarsi slegati dalla società circostante. La famiglia possiede una dimensione politica che si esplicita nella distribuzione di potere fra i suoi componenti. Tale distribuzione può assumere sia forme democratiche, che dispotiche. A forme di distribuzione del potere non democratiche si associano livelli elevati di conflitto. Quest’ultimo, tuttavia, è una dimensione inevitabile delle associazioni umane. Ciò che distingue le relazioni – familiari e non – non è tanto la presenza o assenza del conflitto, quanto piuttosto la modalità di espressione e di gestione di tale conflittualità. In tal senso, infatti, l’antagonismo relazionale si può tradurre in aggressione e violenza, prevaricazione, lesione della integrità e della libertà, oppure divenire occasione di crescita, di confronto, di mediazione e di negoziazione. La ricerca svolta all’interno del Dottorato in Criminologia dell’ Università di Bologna è finalizzata, attraverso un’integrazione teorica, ad individuare le variabili intervenienti nel contesto e nell’esperienza dei conflitti violenti in ambito di coppia, per accertare il loro eventuale ruolo predittivo del fenomeno. In particolare, s’indagano le modalità attraverso le quali la condizione socio-strutturale dei partner di coppia e la costruzione sociale dei ruoli di genere - con la relativa attribuzione di potere – e le condizioni lavorative, interagiscono nell’ espressione violenta della conflittualità. Il collettivo di riferimento - individuato grazie alla collaborazione di associazioni del privato sociale e di istituzioni pubbliche presenti e operanti nel territorio della Provincia di Trento eroganti prestazioni eterogenee alle famiglie - è composto da coppie sposate/conviventi alle quali è stato somministrato un questionario strutturato.
Resumo:
E’ stato in primo luogo definito il criterio di efficienza dal punto di vista economico (con una accenno anche ai parametri elaborati dagli studiosi di discipline aziendali), nelle sue varie accezioni, ponendo altresì ciascuna di queste in relazione alle condizioni di concorrenza perfetta. Le nozioni di efficienza che sono state definite a tal fine sono quelle di efficienza allocativa, efficienza tecnica, efficienza dinamica ed efficienza distributiva. Ciascuna di esse é stata inquadrata a livello teorico secondo le definizioni fornite dalla letteratura, esaminandone le ipotesi sottostanti. E’ stata altresì descritta, contestualizzandola temporalmente, l’evoluzione della nozione, e ne sono state evidenziate le implicazioni ai fini della ricerca della forma di mercato più “efficiente”. Sotto quest’ultimo aspetto l’attenzione dello scrivente si é incentrata sul rapporto tra le diverse accezioni di efficienza economica oggetto di analisi e la desiderabilità o meno di un regime di concorrenza perfetta. Il capitolo si conclude con una breve panoramica sulle metodologie di misurazione finalizzata ad individuare i principali parametri utilizzati per determinare il livello di efficienza, di un mercato, di un’attività produttiva o di un’impresa, posto che, come verrà specificato nel prosieguo della tesi, la valutazione di efficienza in ambito antitrust deve essere verificata, ove possibile, anche basandosi sull’evidenza empirica delle singole imprese esaminate, come richiede il criterio della rule of reason. Capitolo 2 Presupposto per avere una regolazione che persegua l’obiettivo di avere una regolazione efficiente ed efficace, è, a parere di chi scrive, anche l’esistenza di autorità pubbliche deputate a esercitare la funzione regolatoria che rispettino al proprio interno e nel proprio agire la condizione di efficienza definita rispetto ai pubblici poteri. Lo sviluppo di questa affermazione ha richiesto in via preliminare, di definire il criterio di efficienza in ambito pubblicistico individuandone in particolare l’ambito di applicazione, il suo rapporto con gli altri principi che reggono l’azione amministrativa (con particolare riferimento al criterio di efficacia). Successivamente é stato collocato nel nostro ordinamento nazionale, ponendolo in relazione con il principio di buon andamnento della Pubblica Amministrazione, benchè l’ordinamento italiano, per la sua specificità non costituisca un esempio estendibile ad ordinamenti. Anche con riferimento al criterio di efficienza pubblica, un paragrafo é stato dedicato alle metodologie di misurazione di questa, e, nello specifico sull’Analisi Costi-Benefici e sull’Analisi di Impatto della Regolazione Una volta inquadrata la definizione di efficienza pubblica, questa é stata analizzata con specifico riferimento all’attività di regolazione dell’economia svolta dai soggetti pubblici, ambito nella quale rientra la funzione antitrust. Si é provato in particolare ad evidenziare, a livello generale, quali sono i requisiti necessari ad un’autorità amministrativa antitrust, costituita e dotata di poteri ad hoc, affinché essa agisca, nella sua attività di regolazione, secondo il principio di efficienza, Il capitolo si chiude allargando l’orizzonte della ricerca verso una possibile alternativa metodologica al criterio di efficienza precedentemente definito: vi si é infatti brevemente interrogati circa lo schema interpretativo nel quale ci muoviamo, affrontando la questione definitoria del criterio di efficienza, ponendolo in relazione con l’unico modello alternativo esistente, quello sviluppatosi nella cultura cinese. Non certo per elaborare un’applicazione in “salsa cinese” del criterio di efficienza alla tutela della concorrenza, compito al quale lo scrivente non sarebbe stato in grado di ottemperare, bensì, più semplicemente per dare conto di un diverso approccio alla questione che il futuro ruolo di superpotenza economica della Cina imporrà di prendere in considerazione. Capitolo 3 Nel terzo capitolo si passa a definire il concetto di concorrenza come istituto oggetto di tutela da parte della legge antitrust, per poi descrivere la nascita e l’evoluzione di tale legislazione negli Stati Uniti e della sua applicazione, posto che il diritto antitrust statunitense ancora oggi costituisce il necessario punto di riferimento per lo studioso di questa materia. L’evoluzione del diritto antitrust statunitense é stata analizzata parallelamente allo sviluppo delle principali teorie di law and economics che hanno interpretato il diritto della concorrenza quale possibile strumento per conseguire l’obiettivo dell’efficienza economica: la Scuola di Harvard e il paradigma strutturalista, la teoria evoluzionista della Scuola Austriaca, la Scuola di Chicago; le c.d. teorie “Post-Chicago”. Nel terzo capitolo, in altri termini, si é dato conto dell’evoluzione del pensiero economico con riferimento alla sua applicazione al diritto antitrust, focalizzando l’attenzione su quanto avvenuto negli Stati Uniti, paese nel quale sono nati sia l’istituto giuridico della tutela della concorrenza sia l’analisi economica del diritto. A conclusione di questa ricostruzione dottrinale ho brevemente esaminato quelle che sono le nuove tendenze dell’analisi economica del diritto, e specificatamente la teoria del comportamento irrazionale, benché esse non abbiano ancora ricevuto applicazione al diritto antitrust. Chi scrive ritiene infatti che queste teorie avranno ricadute anche in questa materia poiché essa costituisce uno dei principali ambiti applicativi della law and economics. Capitolo 4 Nel quarto capitolo é stata effettuata una disanima della disciplina comunitaria antitrust sottolineando come l’Unione Europea si proponga attraverso la sua applicazione, soprattutto in materia di intese, di perseguire fini eterogenei, sia economici che non economici, tra loro diversi e non di rado contrastanti, e analizzando come questa eterogeneità di obiettivi abbia influito sull’applicazione del criterio di efficienza. Attenendomi in questo capitolo al dato normativo, ho innanzitutto evidenziato l’ampiezza dell’ambito di applicazione della disciplina comunitaria antitrust sia dal punto di vista soggettivo che territoriale (dottrina dell’effetto utile), sottolineando come la norma giustifichi esplicitamente il ricorso al criterio di efficienza solo nella valutazione delle intese: il comma 3 dell’art. 81 del Trattato include, infatti, tra i requisiti di una possibile esenzione dall’applicazione del divieto per le intese qualificate come restrittive della concorrenza, la possibilità di ottenere incrementi di efficienza tecnica e/o dinamica attraverso l’implementazione delle intese in questione. Tuttavia la previsione da parte dello stesso art. 81 (3) di altri requisiti che devono contemporaneamente essere soddisfatti affinché un intesa restrittiva della concorrenza possa beneficiare dell’esenzione, nonché la possibile diversa interpretazione della locuzione “progresso tecnico ed economico”, impone, o comunque ammette, il perseguimento di altri obiettivi, contestualmente a quello dell’efficienza, giustificando così quell’eterogeneità dei fini che contraddistingue la politica della concorrenza dell’Unione Europea. Se la disciplina delle intese aiuta a comprendere il ruolo del criterio di efficienza nell’applicazione dei precetti antitrust da parte degli organi comunitari, l’art. 82 del Trattato non contiene invece alcun riferimento alla possibilità di utilizzare il criterio di efficienza nella valutazione delle condotte unilaterali poste in essere da imprese in posizione dominante sul mercato rilevante. Si è peraltro dato conto della consultazione recentemente avviata dalla Commissione Europea finalizzata all’elaborazione di Linee Guida che definiscano i criteri di interpretazione che l’organo comunitario dovrà seguire nella valutazione dei comportamenti unilaterali. A parere dello scrivente, anzi, l’assenza di un preciso schema cui subordinare la possibilità di ricorrere al criterio di efficienza nella valutazione della fattispecie, attribuisce alle autorità competenti un più ampio margine di discrezionalità nell’utilizzo del suddetto criterio poiché manca il vincolo della contestuale sussistenza delle altre condizioni di cui all’art. 81(3). Per quanto concerne infine la disciplina delle concentrazioni, essa, come abbiamo visto, prevede un riferimento ai possibili incrementi di efficienza (tecnica e dinamica) derivanti da operazioni di fusione, utilizzando la nozione utilizzata per le intese, così come nel precedente Regolamento 4064/89. Si é infine analizzato il nuovo Regolamento in materia di concentrazioni che avrebbe potuto costituire l’occasione per recepire nella disciplina comunitaria l’attribuzione della facoltà di ricorrere all’efficiency defense in presenza di una fattispecie, quella della fusione tra imprese, suscettibile più di altre di essere valutata secondo il criterio di efficienza, ma che si é invece limitato a riprendere la medesima locuzione presente nell’art. 81(3). Il capitolo attesta anche l’attenzione verso l’istanza di efficienza che ha riguardato il meccanismo di applicazione della norma antitrust e non il contenuto della norma stessa; a questo profilo attiene, infatti, l’innovazione apportata dal Regolamento 1/2003 che ha permesso, a parere dello scrivente, un’attribuzione più razionale della competenza nella valutazione dei casi tra la Commissione e le autorità nazionali degli Stati membri; tuttavia pone alcune questioni che investono direttamente il tema dei criteri di valutazione utilizzati dalle autorità competenti. Capitolo 5 L’analisi del quarto capitolo é stata condotta, sebbene in forma più sintetica, con riferimento alle normative antitrust dei principali Stati membri della Comunità Europea (Germania, Gran Bretagna, Spagna, Francia e Italia), rapportando anche queste al criterio di efficienza, ove possibile. Particolare attenzione é stata dedicata ai poteri e alle competenze attribuite alle autorità nazionali antitrust oggetto di studio dall’ordinamento giuridico cui appartengono e al contesto, in termini di sistema giuridico, nel quale esse operano. Capitolo 6 Si é provato ad effettuare una valutazione del livello di efficienza delle autorità prese in esame, la Commissione e le diverse autorità nazionali e ciò con particolare riferimento alla idoneità di queste a svolgere i compiti istituzionali loro affidati (criterio di efficienza dal punto di vista giuridico): affinchè un’autorità si possa ispirare al criterio di efficienza economica nell’adozione delle decisioni, infatti, è preliminarmente necessario che essa sia idonea a svolgere il compito che le è stato affidato dall’ordinamento. In questo senso si é osservata la difficoltà dei paesi di civil law a inquadrare le autorità indipendenti all’interno di un modello, quello appunto di civil law, ispirato a una rigida tripartizione dei poteri. Da qui la difficile collocazione di queste autorità che, al contrario, costituiscono un potere “ibrido” che esercita una funzione di vigilanza e garanzia non attribuibile integralmente né al potere esecutivo né a quello giurisdizionale. Si rileva inoltre una certa sovrapposizione delle competenze e dei poteri tra autorità antitrust e organi ministeriali, in particolare nel campo delle concentrazioni che ingenera un rischio di confusione e bassa efficienza del sistema. Mantenendo, infatti, un parziale controllo politico si rischia, oltre all’introduzione di criteri di valutazione politica che prescindono dagli effetti delle fattispecie concrete sul livello di concorrenza ed efficienza del mercato, anche di dare luogo a conflitti tra le diverse autorità del sistema che impediscano l’adozione e l’implementazione di decisioni definitive, incrementando altresì i costi dell’intervento pubblico. Un giudizio a parte è stato infine formulato con riguardo alla Commissione Europea, istituzione, in quanto avente caratteristiche e poteri peculiari. Da un lato l’assenza di vincolo di mandato dei Commissari e l’elevata preparazione tecnica dei funzionari costituiscono aspetti che avvicinano la Commissione al modello dell’autorità indipendenti, e l’ampiezza dei poteri in capo ad essa le permette di operare efficientemente grazie anche alla possibilità di valersi dell’assistenza delle autorità nazionali. Dall’altra parte, tuttavia la Commissione si caratterizza sempre di più come un organo politico svolgente funzioni esecutive, di indirizzo e di coordinamento che possono influenzare gli obiettivi che essa persegue attraverso l’attività antitrust, deviandola dal rispetto del criterio di efficienza. Capitolo 7 Una volta definito il contesto istituzionale di riferimento e la sua idoneità a svolgere la funzione affidatagli dall’ordinamento comunitario, nonché da quelli nazionali, si è proceduto quindi all’analisi delle decisioni adottate da alcune delle principali autorità nazionali europee competenti ad applicare la disciplina della concorrenza dal punto di vista dell’efficienza. A tal fine le fattispecie rilevanti a fini antitrust dal punto di vista giuridico sono state classificate utilizzando un criterio economico, individuando e definendo quelle condotte che presentano elementi comuni sotto il profilo economico e per ciascuna di esse sono state inquadrate le problematiche rilevanti ai fini dell’efficienza economica sulla scorta dei contributi teorici e delle analisi empiriche svolte dalla letteratura. 6 Con riferimento a ciascuna condotta rilevante ho esaminato il contenuto di alcune delle decisioni antitrust più significative e le ho interpretate in base al criterio di efficienza. verificando se e in quale misura le autorità antitrust prese in esame utilizzano tale criterio, cercando altresì di valutare l’evoluzione dei parametri di valutazione occorsa nel corso degli anni. Le decisioni analizzate sono soprattutto quelle adottate dalla Commissione e le eventuali relative sentenze della Corte di Giustizia Europea; ciò sia per la maggior rilevanza dei casi trattati a livello comunitario, sia in quanto le autorità nazionali, con qualche rara eccezione, si conformano generalmente ai criteri interpretativi della Commissione. Riferimenti a decisioni adottate dalle autorità nazionali sono stati collocati allorquando i loro criteri interpretativi si discostino da quelli utilizzati dagli organi comunitari. Ne è emerso un crescente, anche se ancora sporadico e incostante, ricorso al criterio di efficienza da parte degli organi europei preposti alla tutela della concorrenza. Il tuttora scarso utilizzo del criterio di efficienza nello svolgimento dell’attività antitrust è motivato, a parere di chi scrive, in parte dall’eterogeneità degli obiettivi che l’Unione Europea persegue attraverso la politica della concorrenza comunitaria (completamento del mercato unico, tutela del consumatore, politica industriale, sviluppo delle aree svantaggiate), in parte dall’incapacità (o dall’impossibilità) delle autorità di effettuare coerenti analisi economiche delle singole fattispecie concrete. Anche le principali autorità nazionali mostrano una crescente propensione a tendere conto dell’efficienza nella valutazione dei casi, soprattutto con riferimento agli accordi verticali e alle concentrazioni, sulla scia della prassi comunitaria. Più innovativa nell’applicazione del criterio di efficienza economica così come nella ricerca di uso ottimale delle risorse si è finora dimostrato l’OFT, come vedremo anche nel prossimo capitolo. Al contrario sembra più lenta l’evoluzione in questo senso dell’Ufficio dei Cartelli tedesco sia a causa delle già citate caratteristiche della legge antitrust tedesca, sia a causa del persistente principio ordoliberale della prevalenza del criterio della rule of law sulla rule of reason. Peraltro, anche nei casi in cui le Autorità siano propense ad utilizzare il criterio di efficienza nelle loro valutazioni, esse si limitano generalmente ad un’analisi teorica dell’esistenza di precondizioni che consentano alle imprese in questione di ottenere guadagni di efficienza. La sussistenza di tali pre-condizioni viene infatti rilevata sulla base della capacità potenziale della condotta dell’impresa (o delle imprese) di avere un effetto positivo in termini di efficienza, nonché sulla base delle caratteristiche del mercato rilevante. Raramente, invece, si tiene conto della capacità reale dei soggetti che pongono in essere la pratica suscettibile di essere restrittiva della concorrenza di cogliere effettivamente queste opportunità, ovvero se la struttura e l’organizzazione interna dell’impresa (o delle imprese) non è in grado di mettere in pratica ciò che la teoria suggerisce a causa di sue carenza interne o comunque in ragione delle strategie che persegue. Capitolo 8 Poiché l’approccio ispirato al criterio di efficienza economica non può prescindere dalle caratteristiche del settore e del mercato in cui operano l’impresa o le imprese che hanno posto in essere la condotta sotto esame, e poiché una valutazione approfondita di tutti i settori non era effettuabile per quantità di decisioni adottate dalle autorità, ho infine ritenuto di svolgere un’analisi dettagliata dell’attività delle autorità con riferimento ad uno specifico settore. La scelta è caduta sul settore dei trasporti in quanto esso presenta alcune problematiche che intrecciano l’esigenza di efficienza con la tutela della concorrenza, nonché per la sua importanza ai fini dello sviluppo economico. Tanto più alla luce del fenomeno della crescente apertura dei mercati che ha enfatizzato la triplice funzione dei trasporti di merci, di livellamento nello spazio dei prezzi di produzione, di redistribuzione nello spazio dell’impiego dei fattori della produzione, e soprattutto di sollecitazione al miglioramento delle tecnologie utilizzate nella produzione stessa in quanto contribuiscono alla divisione territoriale del lavoro e alla specializzazione produttiva. A loro volta, d’altra parte, i miglioramenti tecnici e organizzativi intervenuti nel settore negli ultimi trenta anni hanno reso possibile il fenomeno della globalizzazione nella misura in cui lo conosciamo. Così come le riduzioni di costo e di tempo conseguite nel trasporto di persone hanno consentito massicci spostamenti di lavoratori e più in generale di capitale umano da una parte all’altra del globo, e favorito altresì la spettacolare crescita del settore turistico. Ho quindi condotto un’analisi delle decisioni antitrust relative al settore dei trasporti, suddividendo la casistica in base al comparto al quale esse si riferivano, cercando sempre di non perdere di vista i crescenti legami che esistono tra i vari comparti alla luce dell’ormai affermato fenomeno del trasporto multimodale. Dall’analisi svolta emerge innanzitutto come l’assoggettamento del settore dei trasporti alla disciplina di tutela della concorrenza sia un fenomeno relativamente recente rispetto alle altre attività economiche, laddove la ragione di tale ritardo risiede nel fatto che tradizionalmente questo settore era caratterizzato da un intervento pubblico diretto e da una pervasiva regolamentazione, a sua volta giustificata da vari fattori economici: le caratteristiche di monopolio naturale delle infrastrutture; le esigenze di servizio pubblico connesse all’erogazione di molti servizi di trasporto; il ruolo strategico svolto dal trasporto sia di persone che di merci ai fini della crescita economica di un sistema. Si concretizza, inoltre, con riferimento ai trasporti marittimi e aerei, l’inadeguatezza della dimensione nazionale e comunitaria delle autorità competenti rispetto a comportamenti di impresa che spesso hanno effetti letteralmente globali. Le imprese marittime e aeree coinvolte nelle fattispecie da noi esaminate, infatti, in molti casi predisponevano, direttamente o mediatamente, tramite “alleanze”, collegamenti tra tutte le aree del mondo, individuando nell’Europa solo un nodo di un network ben più ampio Da questa constatazione discende, a parere dello scrivente, l’impossibilità per l’autorità comunitaria e ancor più per quella nazionale di individuare tutti gli effetti in termini di efficienza che la fattispecie concreta può provocare, non includendo pertanto solo quelli evidenti sul mercato comunitario. Conseguentemente una reale applicazione del criterio di efficienza all’attività antitrust nel settore dei trasporti non può prescindere da una collaborazione tra autorità a livello mondiale sia a fini di indagine che a fini di individuazione di alcuni principi fondamentali cui ispirarsi nello svolgimento della loro missione istituzionale. Capitolo 9. Conclusioni L’opera si chiude con l’individuazione delle evidenze e degli elementi emersi dalla trattazione considerati dallo scrivente maggiormente rilevanti nell’ambito dell’attuale dibattito di economia positiva circa le principali problematiche che affiggono l’intervento antitrust con particolare riferimento al suo rispetto del criterio di efficienza. Sono state altresì proposte alcune soluzioni a quelle che sono, a parere dello scrivente, le principali carenze dell’attuale configurazione dell’intervento antitrust a livello europeo, sempre in una prospettiva di efficienza sia delle autorità competenti sia dei mercati in cui le autorità stesse cercano di mantenere o ripristinare condizioni di concorrenza effettiva. Da un lato il modello costituito dalla Commissione Europea, l’autorità antitrust comunitaria, non replicabile né esente da critiche: la Commissione, infatti, rappresenta il Governo dell’Unione Europea e come tale non può ovviamente costituire un esempio di autorità indipendente e neutrale recepibile da parte degli Stati membri. Ciò anche a prescindere dalla questione della sua legittimazione, che in questa sede non affrontiamo. Dall’altro in una prospettiva di efficienza dei mercati la crescente applicazione delle teorie economiche da parte delle autorità esaminate è rimasta a un livello astratto, senza porre la dovuta attenzione alle specificità dei mercati rilevanti né tantomeno alle dinamiche interne alle singole imprese, con particolare riferimento alla loro capacità di rendere effettivi i guadagni di efficienza individuabili a livello potenziale, così come prescrive la più recente teoria economica applicata al diritto antitrust. Sotto il profilo dell’applicazione del criterio di efficienza si può comunque affermare che l’evoluzione che ha avuto la prassi decisionale e la giurisprudenza, comunitaria e degli Stati membri, in materia antitrust è stata caratterizzata dal loro progressivo avvicinamento alle tendenze sviluppatesi nelle agencies e nella giurisprudenza statunitense a partire dagli anni’70, caratterizzate dalla valutazione degli effetti, piuttosto che della forma giuridica, dal riconoscimento del criterio di efficienza e dalla rule of reason quale approccio metodologico. L’effetto è stato quello di determinare una significativa riduzione delle differenze inizialmente emerse tra le due esperienze, nate inizialmente sotto diverse prospettive politiche. Per quanto concerne specificatamente i trasporti sono emersi sotto il profilo economico due aspetti rilevanti, oltre al perdurante ritardo con cui il processo di liberalizzazione del trasporto ferroviario che limita fortemente l’intervento antitrust nel comparto, ma che esula dalla competenza delle stesse autorità antitrust. Il primo consiste nella spesso troppo rigida separazione tra comparti adottata dalle autorità. Il secondo è l’estensivo ricorso all’essential facility doctrine nelle fattispecie riguardanti infrastrutture portuali e aeroportuali: la massimizzazione dell’efficienza dinamica consiglierebbe in questi casi una maggiore cautela, in quanto si tratta di un paradigma che, una volta applicato, disincentiva la duplicazione e l’ampliamento di tali infrastrutture autoalimentandone il carattere di essenzialità. Ciò soprattutto laddove queste infrastrutture possono essere sostituite o duplicate piuttosto facilmente da un punto di vista tecnico (meno da un punto di vista economico e giuridico), essendo esse nodi e non reti. E’stata infine sottolineata l’inadeguatezza della dimensione nazionale e comunitaria delle autorità competenti rispetto a comportamenti di impresa che con riferimento ai trasporti marittimi ed aerei hanno effetti letteralmente globali. E’ di tutta evidenza che le autorità comunitarie e tantomeno quelle nazionali non sono da sole in grado di condurre le analisi quantitative necessarie ad una valutazione di tali condotte ispirata a un criterio di efficienza che tenga conto degli effetti di lungo periodo della fattispecie concreta. Né tali autorità sono sufficientemente neutre rispetto alla nazionalità delle imprese indagate per poter giudicare sulla liceità o meno della condotta in questione senza considerare gli effetti della loro decisione sull’economia interna, rendendo così ancora più improbabile un corretto utilizzo del criterio di efficienza. Da ultimo ho constatato come l’applicazione del concetto di efficienza giuridica imporrebbe di concepire autorità antitrust del tutto nuove, sganciate quanto più possibile dall’elemento territoriale, in grado di elaborare regole e standards minimi comuni e di permettere il controllo dei comportamenti di impresa in un contesto ampliato rispetto al tradizionale mercato unico, nonchè ai singoli mercati nazionali. Il processo di armonizzazione a livello globale è difficile e il quadro che attualmente viene formato è ancora confuso e incompleto. Vi sono tuttavia sparsi segnali attraverso i quali é possibile intravedere i lineamenti di una futura global governance della concorrenza che permetterà, sperabilmente, di incrementare l’efficienza di un sistema, quello antitrust, che tanto più piccolo è l’ambito in cui opera quanto più si sta dimostrando inadeguato a svolgere il compito affidatogli. Solo il futuro, peraltro, ci consentirà di verificare la direzione di sviluppo di questi segnali.
Resumo:
L’infezione da virus dell’ epatite E (HEV) nei suini e nell’uomo è stata segnalata in diversi Paesi. Nei suini, il virus causa infezioni asintomatiche, mentre nell’uomo è responsabile di epidemie di epatite ad andamento acuto nei Paesi a clima tropicale o subtropicale con condizioni igieniche scadenti, di casi sporadici in quelli sviluppati. HEV è stato isolato anche in diversi animali e l’analisi nucleotidica degli isolati virali di origine animale ha mostrato un elevato grado di omologia con i ceppi di HEV umani isolati nelle stesse aree geografiche, avvalorando l’ipotesi che l'infezione da HEV sia una zoonosi. In America del Sud HEV suino è stato isolato per la prima volta in suini argentini nel 2006, mentre solo dal 1998 esistono dati sull’ infezione da HEV nell’uomo in Bolivia. In questa indagine è stato eseguito uno studio di sieroprevalenza in due comunità rurali boliviane e i risultati sono stati confrontati con quelli dello studio di sieroprevalenza sopra menzionato condotto in altre zone rurali della Bolivia. Inoltre, mediante Nested RT-PCR, è stata verificata la presenza di HEV nella popolazione umana e suina. La sieroprevalenza per anticorpi IgG anti-HEV è risultata pari al 6,2%, molto simile a quella evidenziata nello studio precedente. La prevalenza maggiore (24%) si è osservata nei soggetti di età compresa tra 41 e 50 anni, confermando che l’ infezione da HEV è maggiore fra i giovani-adulti. La ricerca di anticorpi anti HEV di classe IgM eseguita su 52 sieri ha fornito 4 risultati positivi. Il genoma virale è stato identificato in uno dei 22 pool di feci umane e l'esame virologico di 30 campioni individuali fecali e 7 individuali di siero ha fornito rispettivamente risultati positivi in 4/30 e 1/7. La Nested RT-PCR eseguita sui 22 pool di feci suine ha dato esito positivo in 7 pool. L’analisi delle sequenze genomiche di tutti gli amplificati ha consentito di stabilire che gli isolati umani appartenevano allo stesso genotipo III di quelli suini e presentavano con questi una elevata omologia aminoacidica (92%).
Resumo:
La ricerca si propone di definire le linee guida per la stesura di un Piano che si occupi di qualità della vita e di benessere. Il richiamo alla qualità e al benessere è positivamente innovativo, in quanto impone agli organi decisionali di sintonizzarsi con la soggettività attiva dei cittadini e, contemporaneamente, rende evidente la necessità di un approccio più ampio e trasversale al tema della città e di una più stretta relazione dei tecnici/esperti con i responsabili degli organismi politicoamministrativi. La ricerca vuole indagare i limiti dell’urbanistica moderna di fronte alla complessità di bisogni e di nuove necessità espresse dalle popolazioni urbane contemporanee. La domanda dei servizi è notevolmente cambiata rispetto a quella degli anni Sessanta, oltre che sul piano quantitativo anche e soprattutto sul piano qualitativo, a causa degli intervenuti cambiamenti sociali che hanno trasformato la città moderna non solo dal punto di vista strutturale ma anche dal punto di vista culturale: l’intermittenza della cittadinanza, per cui le città sono sempre più vissute e godute da cittadini del mondo (turisti e/o visitatori, temporaneamente presenti) e da cittadini diffusi (suburbani, provinciali, metropolitani); la radicale trasformazione della struttura familiare, per cui la famiglia-tipo costituita da una coppia con figli, solido riferimento per l’economia e la politica, è oggi minoritaria; l’irregolarità e flessibilità dei calendari, delle agende e dei ritmi di vita della popolazione attiva; la mobilità sociale, per cui gli individui hanno traiettorie di vita e pratiche quotidiane meno determinate dalle loro origini sociali di quanto avveniva nel passato; l’elevazione del livello di istruzione e quindi l’incremento della domanda di cultura; la crescita della popolazione anziana e la forte individualizzazione sociale hanno generato una domanda di città espressa dalla gente estremamente variegata ed eterogenea, frammentata e volatile, e per alcuni aspetti assolutamente nuova. Accanto a vecchie e consolidate richieste – la città efficiente, funzionale, produttiva, accessibile a tutti – sorgono nuove domande, ideali e bisogni che hanno come oggetto la bellezza, la varietà, la fruibilità, la sicurezza, la capacità di stupire e divertire, la sostenibilità, la ricerca di nuove identità, domande che esprimono il desiderio di vivere e di godere la città, di stare bene in città, domande che non possono essere più soddisfatte attraverso un’idea di welfare semplicemente basata sull’istruzione, la sanità, il sistema pensionistico e l’assistenza sociale. La città moderna ovvero l’idea moderna della città, organizzata solo sui concetti di ordine, regolarità, pulizia, uguaglianza e buon governo, è stata consegnata alla storia passata trasformandosi ora in qualcosa di assai diverso che facciamo fatica a rappresentare, a descrivere, a raccontare. La città contemporanea può essere rappresentata in molteplici modi, sia dal punto di vista urbanistico che dal punto di vista sociale: nella letteratura recente è evidente la difficoltà di definire e di racchiudere entro limiti certi l’oggetto “città” e la mancanza di un convincimento forte nell’interpretazione delle trasformazioni politiche, economiche e sociali che hanno investito la società e il mondo nel secolo scorso. La città contemporanea, al di là degli ambiti amministrativi, delle espansioni territoriali e degli assetti urbanistici, delle infrastrutture, della tecnologia, del funzionalismo e dei mercati globali, è anche luogo delle relazioni umane, rappresentazione dei rapporti tra gli individui e dello spazio urbano in cui queste relazioni si muovono. La città è sia concentrazione fisica di persone e di edifici, ma anche varietà di usi e di gruppi, densità di rapporti sociali; è il luogo in cui avvengono i processi di coesione o di esclusione sociale, luogo delle norme culturali che regolano i comportamenti, dell’identità che si esprime materialmente e simbolicamente nello spazio pubblico della vita cittadina. Per studiare la città contemporanea è necessario utilizzare un approccio nuovo, fatto di contaminazioni e saperi trasversali forniti da altre discipline, come la sociologia e le scienze umane, che pure contribuiscono a costruire l’immagine comunemente percepita della città e del territorio, del paesaggio e dell’ambiente. La rappresentazione del sociale urbano varia in base all’idea di cosa è, in un dato momento storico e in un dato contesto, una situazione di benessere delle persone. L’urbanistica moderna mirava al massimo benessere del singolo e della collettività e a modellarsi sulle “effettive necessità delle persone”: nei vecchi manuali di urbanistica compare come appendice al piano regolatore il “Piano dei servizi”, che comprende i servizi distribuiti sul territorio circostante, una sorta di “piano regolatore sociale”, per evitare quartieri separati per fasce di popolazione o per classi. Nella città contemporanea la globalizzazione, le nuove forme di marginalizzazione e di esclusione, l’avvento della cosiddetta “new economy”, la ridefinizione della base produttiva e del mercato del lavoro urbani sono espressione di una complessità sociale che può essere definita sulla base delle transazioni e gli scambi simbolici piuttosto che sui processi di industrializzazione e di modernizzazione verso cui era orientata la città storica, definita moderna. Tutto ciò costituisce quel complesso di questioni che attualmente viene definito “nuovo welfare”, in contrapposizione a quello essenzialmente basato sull’istruzione, sulla sanità, sul sistema pensionistico e sull’assistenza sociale. La ricerca ha quindi analizzato gli strumenti tradizionali della pianificazione e programmazione territoriale, nella loro dimensione operativa e istituzionale: la destinazione principale di tali strumenti consiste nella classificazione e nella sistemazione dei servizi e dei contenitori urbanistici. E’ chiaro, tuttavia, che per poter rispondere alla molteplice complessità di domande, bisogni e desideri espressi dalla società contemporanea le dotazioni effettive per “fare città” devono necessariamente superare i concetti di “standard” e di “zonizzazione”, che risultano essere troppo rigidi e quindi incapaci di adattarsi all’evoluzione di una domanda crescente di qualità e di servizi e allo stesso tempo inadeguati nella gestione del rapporto tra lo spazio domestico e lo spazio collettivo. In questo senso è rilevante il rapporto tra le tipologie abitative e la morfologia urbana e quindi anche l’ambiente intorno alla casa, che stabilisce il rapporto “dalla casa alla città”, perché è in questa dualità che si definisce il rapporto tra spazi privati e spazi pubblici e si contestualizzano i temi della strada, dei negozi, dei luoghi di incontro, degli accessi. Dopo la convergenza dalla scala urbana alla scala edilizia si passa quindi dalla scala edilizia a quella urbana, dal momento che il criterio del benessere attraversa le diverse scale dello spazio abitabile. Non solo, nei sistemi territoriali in cui si è raggiunto un benessere diffuso ed un alto livello di sviluppo economico è emersa la consapevolezza che il concetto stesso di benessere sia non più legato esclusivamente alla capacità di reddito collettiva e/o individuale: oggi la qualità della vita si misura in termini di qualità ambientale e sociale. Ecco dunque la necessità di uno strumento di conoscenza della città contemporanea, da allegare al Piano, in cui vengano definiti i criteri da osservare nella progettazione dello spazio urbano al fine di determinare la qualità e il benessere dell’ambiente costruito, inteso come benessere generalizzato, nel suo significato di “qualità dello star bene”. E’ evidente che per raggiungere tale livello di qualità e benessere è necessario provvedere al soddisfacimento da una parte degli aspetti macroscopici del funzionamento sociale e del tenore di vita attraverso gli indicatori di reddito, occupazione, povertà, criminalità, abitazione, istruzione, etc.; dall’altra dei bisogni primari, elementari e di base, e di quelli secondari, culturali e quindi mutevoli, trapassando dal welfare state allo star bene o well being personale, alla wellness in senso olistico, tutte espressioni di un desiderio di bellezza mentale e fisica e di un nuovo rapporto del corpo con l’ambiente, quindi manifestazione concreta di un’esigenza di ben-essere individuale e collettivo. Ed è questa esigenza, nuova e difficile, che crea la diffusa sensazione dell’inizio di una nuova stagione urbana, molto più di quanto facciano pensare le stesse modifiche fisiche della città.
Resumo:
Nella prima parte di questa tesi di dottorato sono presentate le attività svolte, di carattere numerico, ai fini della modellizzazione di macchine volumetriche ad ingranaggi esterni. In particolare viene dapprima presentato un modello a parametri concentrati utilizzato per l’analisi dei fenomeni che coinvolgono l’area di ingranamento della macchina; un codice di calcolo associato al modello è stato sviluppato ed utilizzato per la determinazione dell’influenza delle condizioni di funzionamento e delle caratteristiche geometriche della macchina sulle sovra-pressioni e sull’eventuale instaurarsi della cavitazione nei volumi tra i denti che si trovano nell’area di ingranamento. In seguito vengono presentati i risultati ottenuti dall’analisi del bilanciamento assiale di diverse unità commerciali, evidenziando l’influenza delle caratteristiche geometriche delle fiancate di bilanciamento; a questo proposito, viene presentato anche un semplice modello a parametri concentrati per valutare il rendimento volumetrico della macchina ad ingranaggi esterni, con l’intenzione di usare tale parametro quale indice qualitativo della bontà del bilanciamento assiale. Infine, viene presentato un modello completo della macchina ad ingranaggi esterni, realizzato in un software commerciale a parametri concentrati, che permette di analizzare nel dettaglio il funzionamento della macchina e di studiare anche l’interazione della stessa con il circuito idraulico in cui è inserita. Nella seconda parte della tesi si presentano le attività legate alla messa in funzione di due banchi prova idraulici per la caratterizzazione sperimentale di macchine volumetriche e componenti di regolazione, con particolare attenzione dedicata alla messa a punto del sistema di acquisizione e gestione dei dati sperimentali; si presentano infine i risultati di alcune prove eseguite su componenti di regolazione e macchine volumetriche.
Resumo:
Il lavoro persegue l’obiettivo generale di indagare sulle scelte di investimento dei fondi pensione italiani. Per giungere al suddetto obiettivo il lavoro si articola in quattro capitoli principali corredati da premessa e conclusioni. Il primo capitolo si preoccupa di analizzare in quale modo le scelte operate dal legislatore italiano abbiano influenzato e influenzino le politiche di investimento dei fondi pensione. E’ indubbio, infatti, che l’intervento del legislatore abbia un forte ascendente sull’operatività dei fondi e possa limitarne o, viceversa, agevolarne l’attività. Alla luce di queste considerazioni, il secondo capitolo mira ad analizzare nel concreto l’influenza delle scelte operate dal legislatore sullo sviluppo del mercato dei fondi pensione italiani. In sostanza, l’obiettivo è quello di fornire informazioni circa il mercato italiano dei fondi pensione sviluppatosi in conseguenza alla normativa testé presentata. Il successivo capitolo, il terzo, propone un’analisi della letteratura che, nel contesto nazionale ed internazionale, ha analizzato la tematica dei fondi pensione. Più nel dettaglio, si propone una disamina dei riferimenti letterari che, affrontando il problema della gestione finanziaria dei fondi pensione, trattano delle politiche e delle scelte di investimento operate da questi. Il quarto capitolo riguarda un’analisi empirica mirata ad analizzare le politiche di investimento dei fondi pensione, in particolare quelle relative agli investimenti alternativi e soprattutto, tra questi, quelli immobiliari. L’obiettivo generale perseguito è quello di analizzare la composizione del patrimonio dei fondi appartenenti al campione considerato e ricavarne indicazioni circa le scelte manageriali operate dai fondi, nonché trarre indicazioni circa lo spazio riservato e/o riservabile alle asset class alternative, soprattutto a quelle di tipo immobiliare. Si evidenzia, infatti, che la verifica presentata riguarda prevalentemente gli investimenti immobiliari che rappresentano nella realtà italiana l’alternative class maggiormente diffusa. L’analisi si concentra, anche se in modo inferiore e con un approccio quasi esclusivamente qualitativo, su altre asset class alternative (hedge fund e private equity). Si precisa, inoltre, che la volontà di focalizzare la verifica sugli alternative investment limita l’analisi ai soli fondi pensione preesistenti che, ad oggi, rappresentano l’unica categoria alla quale è consentito effettuare investimenti di tipo alternativo. A differenza dei fondi di nuova generazione, tali fondi, infatti, non sono sottoposti a limitazioni nell’attività di investimento e, almeno in linea teorica, essi possono optare senza alcuna restrizione per l’asset allocation ritenuta più appropriata Tre sono le domande di ricerca a cui l’analisi proposta mira a dare risposta: Quale è la dimensione e la composizione del portafoglio dei fondi pensione preesistenti? Quale è la dimensione e la tipologia di investimento immobiliare all’interno del portafoglio dei fondi pensione preesistenti? Esiste uno “spazio” ulteriore per gli investimenti immobiliari e/o per altri alternative investment nel portafoglio dei fondi pensione preesistenti? L’analisi è condotta su un campione di dieci fondi preesistenti, che rappresenta il 60% dell’universo di riferimento (dei 29 fondi pensione preesistenti che investono in immobiliare) e la metodologia utilizzata è quella della case study. Le dieci case study, una per ogni fondo preesistente analizzato, sono condotte e presentate secondo uno schema quanto più standard e si basano su varie tipologie di informazioni reperite da tre differenti fonti. 2 La prima fonte informativa utilizzata è rappresentata dai bilanci o rendiconti annuali dei fondi analizzati. A questi si aggiungono i risultati di un’intervista svolta nei mesi di gennaio e febbraio 2008, ai direttori generali o ai direttori dell’area investimento dei fondi. Le interviste aggiungono informazioni prevalentemente di tipo qualitativo, in grado di descrivere le scelte manageriali operate dai fondi in tema di politica di investimento. Infine, laddove presente, sono state reperite informazioni anche dai siti internet che in taluni casi i fondi possiedono. Dalle case study condotte è possibile estrapolare una serie di risultati, che consentono di dare risposta alle tre domande di ricerca poste in precedenza. Relativamente alla prima domanda, è stato possibile stabilire che il portafoglio dei fondi pensione preesistenti analizzati cresce nel tempo. Esso si compone per almeno un terzo di titoli di debito, prevalentemente titoli di stato, e per un altro terzo di investimenti immobiliari di vario tipo. Il restante terzo è composto da altre asset class, prevalentemente investimenti in quote di OICR. Per quanto riguarda la politica d’investimento, si rileva che mediamente essa è caratterizzata da un’alta avversione al rischio e pochissimi sono i casi in cui i fondi prevedono linee di investimento aggressive. Relativamente alla seconda domanda, si osserva che la dimensione dell’asset class immobiliare all’interno del portafoglio raggiunge una quota decrescente nell’arco di tempo considerato, seppur rilevante. Al suo interno prevalgono nettamente gli investimenti diretti in immobili. Seguono le partecipazioni in società immobiliari. L’analisi ha permesso, poi, di approfondire il tema degli investimenti immobiliari consentendo di trarre indicazioni circa le loro caratteristiche. Infine, relativamente all’ultima domanda di ricerca, i dati ottenuti, soprattutto per mezzo delle interviste, permettono di stabilire che, almeno con riferimento al campione analizzato, l’investimento immobiliare perde quota e in parte interesse. Questo risulta vero soprattutto relativamente agli investimenti immobiliari di tipo diretto. I fondi con patrimoni immobiliari rilevanti, infatti, sono per la totalità nel mezzo di processi di dismissione degli asset, mirati, non tanto all’eliminazione dell’asset class, ma piuttosto ad una riduzione della stessa, conformemente anche a quanto richiesto dalle recenti normative. Le interviste hanno messo in luce, tuttavia, che a fronte di un’esigenza generale di contentere la quota investita, l’asset immobiliare è considerato positivamente soprattutto in termini di opportunità di diversificazione di portafoglio e buoni rendimenti nel lungo periodo. I fondi appaiono interessati in modo particolare a diversificare il portafoglio immobiliare, dismettendo parte degli asset detenuti direttamente e aumentando al contrario le altre tipologie di investimento immobiliare, soprattutto quote di OICR immobiliari. Altrettanto positivi i giudizi relativi alle altre asset class alternative. Pur restando ancora limitato il totale delle risorse destinate, tali investimenti sono percepiti come una buona opportunità di diversificazione del portafoglio. In generale, si è rilevato che, anche laddove l’investimento non è presente o è molto ridotto, nel breve periodo è intenzione del management aumentare la quota impiegata.