36 resultados para sole

em AMS Tesi di Dottorato - Alm@DL - Università di Bologna


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Durante il secolo scorso sono state individuate alcune mutazioni per il colore della buccia della varietà William che invece di essere giallo arriva a maturazione con diverse tonalità di colore rosso. L’intensità e la tipologia del fenotipo dovuto a questa mutazione mostra una variabilità all’interno dei diversi cloni rossi di questa cultivar: Max Red Bartlett, Rosired e Sensation. Questa mutazione è ereditabile e usando come genitore uno dei sopra-citati mutanti per il rosso sono state prodotte altre cultivar caratterizzate da buccia rossa come Cascade. Max Red Bartlett presenta una intensa colorazione rossa nelle prime fasi di maturazione per poi striarsi perdendo di lucentezza e non ricoprendo totalmente la superficie del frutto. Max Red Bartlett ha inoltre il problema di regressione del colore. Questa mutazione infatti non è stabile e dopo qualche anno può regredire e presentare il fenotipo di William. Diverso è invece lo sviluppo per esempio di Rosired che durante le prime fasi di accrescimento del frutto è identica a Williams (di colore verde con la parte del frutto rivolta verso il sole leggermente rossastra) per poi virare e mantenere un vivo colore rosso su tutta la superficie del frutto. Questa tesi si è proposta di caratterizzare questa mutazione che coinvolge in qualche modo la via biosintetica per la sintesi del colore. In particolare si è cercato di investigare sui probabili geni della via degli antociani coinvolti e in quale modo vengono espressi durante la maturazione del frutto, inoltre si è cercato di trovare quali specifiche molecole venissero diversamente sintetizzate. Le cultivar utilizzate sono state William e Max Red Bartlett. Di quest’ultima era già disponibile una mappa molecolare, ottenuta sulla popolazione di’incrocio di Abate Fetel (gialla) x MRB (rossa) con AFLP e SSR, quest’ultimi hanno permesso di denominare i diversi linkage group grazie alla sintenia con le altre mappe di pero e di melo. I semenzali appartenenti a questa popolazione, oltre a dimostrare l’ereditarietà del carattere, erano per il 50% gialli e 50% rossi. Questo ha permesso il mappaggio di questo carattere/mutazione che si è posizionato nel linkage group 4. Una ricerca in banca dati eseguita in parallelo ha permesso di trovare sequenze di melo dei geni coinvolti nella via biosintetica degli antociani (CHS, CHI, F3H, DFR, ANS e UFGT), sulle quali è stato possibile disegnare primer degenerati che amplificassero su DNA genomico di pero. Le amplificazioni hanno dato frammenti di lunghezza diversa. Infatti nel caso di F3H e DFR l’altissima omologia tra melo e pero ha permesso l’amplificazione quasi totale del gene, negli altri casi invece è stato necessario utilizzare primer sempre più vicini in modo da facilitare l’amplificazione. I frammenti ottenuti sono stati clonati sequenziati per confermare la specificità degli amplificati. Non sono stati evidenziati polimorfismi di sequenza in nessuna delle sei sequenze tra William e Max Red Bartlett e nessun polimorfismo con Abate, per questo motivo non è stato possibile mapparli e vedere se qualcuno di questi geni era localizzato nella medesima posizione in cui era stato mappato il “colore/mutazione”. Sulle le sequenze ottenute è stato possibile disegnare altri primer, questa volta specifici, sia per analisi d’espressione. Inizialmente è stato sintetizzato il cDNA dei geni suddetti per retrotrascrizione da RNA estratto sia da bucce sia da foglie appena germogliate (le quali presentano solo in questa fase una colorazione rossastra in MRB ma non in William). Al fine di osservare come varia l’espressione dei geni della via biosintetica delle antocianine durante la fase di maturazione dei frutti, sono stati fatti 4 campionamenti, il primo a 45gg dalla piena fioritura, poi a 60, 90, 120 giorni. Foglie e bucce sono state prelevate in campo e poste immediatamente in azoto liquido. Dai risultati con Real Time è emerso che vi è una maggiore espressione nelle prime fasi di sviluppo in Max Red Bartlett per poi calare enormemente in giugno. Si potrebbe ipotizzare che ci sia una reazione di feed back da parte della piante considerando che in questa fase il frutto non si accresce. I livelli di espressione poi aumentano verso la fase finale della maturazione del frutto. In agosto, con l’ultimo campionamento vi è una espressione assai maggiore in Max Red Bartlett per quei geni posti a valle della via biosintetica per la sintesi delle antocianine. Questo risultato è confermato anche dal livello di espressione che si riscontra nelle foglie. In cui i geni F3H, LDOX e UFGT hanno un livello di espressione nettamente maggiore in Max Red Bartlett rispetto a William. Recentemente Takos et al (2006) hanno pubblicato uno studio su un gene regolatore della famiglia Myb e ciò ha permesso di ampliare i nostri studi anche su questo gene. L’altissima omologia di sequenza, anche a livello di introni, non ha permesso di individuare polimorfismi tra le varietà Abate Fetel e Max Red Bartlett, per nessun gene ad eccezione proprio del gene regolatore Myb. I risultati ottenuti in questa tesi dimostrano che in pero l’espressione relativa del gene Myb codificante per una proteina regolatrice mostra una netta sovra-espressione nel primo stadio di maturazione del frutto, in Max Red Bartlett 25 volte maggiore che in William. All’interno della sequenza del gene un polimorfismo prodotto da un microsatellite ha permesso il mappaggio del gene nel linkage group 9 in Max Red Bartlett e in Abate Fetel. Confrontando questo dato di mappa con quello del carattere morfologico rosso, mappato nel linkage group 4, si deduce che la mutazione non agisce direttamente sulla sequenza di questo gene regolatore, benché sia espresso maggiormente in Max Red Bartlett rispetto a William ma agisca in un altro modo ancora da scoprire. Infine per entrambe le varietà (William e Max Red Bartlett) sono state effettuate analisi fenotipiche in diversi step. Innanzi tutto si è proceduto con una analisi preliminare in HPLC per osservare se vi fossero differenze nella produzione di composti con assorbenza specifica delle antocianine e dei flavonoidi in generale. Si è potuto quindi osservare la presenza di due picchi in Max Red Bartlett ma non in William. La mancanza di standard che coincidessero con i picchi rilevati dallo spettro non ha permesso in questa fase di fare alcuna ipotesi riguardo alla loro natura. Partendo da questo risultato l’investigazione è proceduta attraverso analisi di spettrometria di massa associate ad una cromatografia liquida identificando con una certa precisione due composti: la cianidina-3-0-glucoside e la quercitina-3-o-glucoside. In particolare la cianidina sembra essere la molecola responsabile della colorazione della buccia nei frutti di pero. Successive analisi sono state fatte sempre con lo spettrometro di massa ma collegato ad un gas cromatografo per verificare se vi fossero delle differenze anche nella produzione di zuccheri e più in generale di molecole volatili. L’assenza di variazioni significative ha dimostrato che la mutazione coinvolge solo il colore della buccia e non le caratteristiche gustative e organolettiche di William che restano inalterate nel mutante.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The growth and the metabolism of Bifidobacterium adolescentis MB 239 fermenting GOS, lactose, galactose, and glucose were investigated. An unstructerd unsegregated model for growth of B. adolescentis MB 239 in batch cultures was developed and kinetic parameters were calculated with a Matlab algorithm. Galactose was the best carbon source; lactose and GOS led to lower growth rate and cellular yield, but glucose was the poorest carbon source. Lactate, acetate and ethanol yields allowed calculation of the carbon fluxes toward fermentation products. Similar distribution between 3- and 2-carbon products was observed on all the carbohydrates (45 and 55%, respectively), but ethanol production was higher on glucose than on GOS, lactose and galactose, in decreasing order. Based on the stoichiometry of the fructose 6-phosphate shunt and on the carbon distribution among the products, ATP yield was calculated on the different carbohydrates. ATP yield was the highest on galactose, while it was 5, 8, and 25% lower on lactose, GOS, and glucose, respectively. Therefore, a correspondance among ethanol production, low ATP yields, and low biomass production was established demonstrating that carbohydrate preferences may result from different sorting of carbon fluxes through the fermentative pathway. During GOS fermentation, stringent selectivity based on the degree of polymerization was exhibited, since lactose and the trisaccharide were first to be consumed, and a delay was observed until longer oligosaccharides were utilized. Throughout the growth on both lactose and GOS, galactose accumulated in the cultural broth, suggesting that β-(1-4) galactosides can be hydrolysed before they are taken up. The physiology of Bifidobacterium adolescentis MB 239 toward xylooligosaccharides (XOS) was also studied and our attention was focused on an extracellular glycosyl-hydrolase (β-Xylosidase) expressed by a culture of B. adolescentis grown on XOS as sole carbon source. The extracellular enzyme was purified from the the supernatant, which was dialyzed and concentrated by ultrafiltration. A two steps purification protocol was developed: the sample was loaded on a Mono-Q anion exchange chromatography and then, the active fractions were pooled and β-Xylosidase was purified by gel filtration chromatography on a Superdex-75. The enzyme was characterized in many aspects. β- Xylosidase was an homo-tetramer of 160 kDa as native molecular mass; it was a termostable enzyme with an optimum of temperature at 53 °C and an optimum of pH of 6.0. The kinetics parameter were calculated: km = 4.36 mM, Vmax = 0.93 mM/min. The substrate specificity with different di-, oligo- and polysaccharides was tested. The reactions were carried out overnight at pH 7 and at the optimum of temperature and the carbohydrates hydrolysis were analyzed by thin layer chromatography (TLC). Only glycosyl-hydrolase activities on XOS and on xylan were detected, whereas sucrose, lactose, cellobiose, maltose and raffinose were not hydrolyzed. It’s clearly shown that β-Xylosidase activity was higher than the Xylanase one. These studies on the carbohydrate preference of a strain of Bifidobacterium underlined the importance of the affinity between probiotics and prebiotics. On the basis of this concept, together with Barilla G&R f.lli SpA, we studied the possibility to develop a functional food containing a synbiotic. Three probiotic strains Lactobacillus plantarum BAR 10, Streptococcus thermophilus BAR 20, and Bifidobacterium lactis BAR 30 were studied to assess their suitability for utilization in synbiotic products on the basis of antioxidative activity, glutathione production, acid and bile tolerance, carbohydrates fermentation and viability in food matrices. Bile and human gastric juice resistance was tested in vitro to estimate the transit tolerance in the upper gastrointestinal tract. B. lactis and L. plantarum were more acid tolerant than S. thermophilus. All the strains resisted to bile. The growth kinetics on 13 prebiotic carbohydrates were determined. Galactooligosaccharides and fructo-oligosaccharides were successfully utilized by all the strains and could be considered the most appropriate prebiotics to be used in effective synbiotic formulations. The vitality of the three strains inoculated in different food matrices and maintained at room temperature was studied. The best survival of Lactobacillus plantarum BAR 10, Streptococcus thermophilus BAR 20, and Bifidobacterium lactis BAR 30 was found in food chocolate matrices. Then an in vivo clinical trial was carried out for 20 healthy volunteers. The increase in faecal bifidobacteria and lactobacilli populations and the efficacy of the pre-prototype was promising for the future develop of potential commercial products.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The continuous increase of genome sequencing projects produced a huge amount of data in the last 10 years: currently more than 600 prokaryotic and 80 eukaryotic genomes are fully sequenced and publically available. However the sole sequencing process of a genome is able to determine just raw nucleotide sequences. This is only the first step of the genome annotation process that will deal with the issue of assigning biological information to each sequence. The annotation process is done at each different level of the biological information processing mechanism, from DNA to protein, and cannot be accomplished only by in vitro analysis procedures resulting extremely expensive and time consuming when applied at a this large scale level. Thus, in silico methods need to be used to accomplish the task. The aim of this work was the implementation of predictive computational methods to allow a fast, reliable, and automated annotation of genomes and proteins starting from aminoacidic sequences. The first part of the work was focused on the implementation of a new machine learning based method for the prediction of the subcellular localization of soluble eukaryotic proteins. The method is called BaCelLo, and was developed in 2006. The main peculiarity of the method is to be independent from biases present in the training dataset, which causes the over‐prediction of the most represented examples in all the other available predictors developed so far. This important result was achieved by a modification, made by myself, to the standard Support Vector Machine (SVM) algorithm with the creation of the so called Balanced SVM. BaCelLo is able to predict the most important subcellular localizations in eukaryotic cells and three, kingdom‐specific, predictors were implemented. In two extensive comparisons, carried out in 2006 and 2008, BaCelLo reported to outperform all the currently available state‐of‐the‐art methods for this prediction task. BaCelLo was subsequently used to completely annotate 5 eukaryotic genomes, by integrating it in a pipeline of predictors developed at the Bologna Biocomputing group by Dr. Pier Luigi Martelli and Dr. Piero Fariselli. An online database, called eSLDB, was developed by integrating, for each aminoacidic sequence extracted from the genome, the predicted subcellular localization merged with experimental and similarity‐based annotations. In the second part of the work a new, machine learning based, method was implemented for the prediction of GPI‐anchored proteins. Basically the method is able to efficiently predict from the raw aminoacidic sequence both the presence of the GPI‐anchor (by means of an SVM), and the position in the sequence of the post‐translational modification event, the so called ω‐site (by means of an Hidden Markov Model (HMM)). The method is called GPIPE and reported to greatly enhance the prediction performances of GPI‐anchored proteins over all the previously developed methods. GPIPE was able to predict up to 88% of the experimentally annotated GPI‐anchored proteins by maintaining a rate of false positive prediction as low as 0.1%. GPIPE was used to completely annotate 81 eukaryotic genomes, and more than 15000 putative GPI‐anchored proteins were predicted, 561 of which are found in H. sapiens. In average 1% of a proteome is predicted as GPI‐anchored. A statistical analysis was performed onto the composition of the regions surrounding the ω‐site that allowed the definition of specific aminoacidic abundances in the different considered regions. Furthermore the hypothesis that compositional biases are present among the four major eukaryotic kingdoms, proposed in literature, was tested and rejected. All the developed predictors and databases are freely available at: BaCelLo http://gpcr.biocomp.unibo.it/bacello eSLDB http://gpcr.biocomp.unibo.it/esldb GPIPE http://gpcr.biocomp.unibo.it/gpipe

Relevância:

10.00% 10.00%

Publicador:

Resumo:

E’ stato in primo luogo definito il criterio di efficienza dal punto di vista economico (con una accenno anche ai parametri elaborati dagli studiosi di discipline aziendali), nelle sue varie accezioni, ponendo altresì ciascuna di queste in relazione alle condizioni di concorrenza perfetta. Le nozioni di efficienza che sono state definite a tal fine sono quelle di efficienza allocativa, efficienza tecnica, efficienza dinamica ed efficienza distributiva. Ciascuna di esse é stata inquadrata a livello teorico secondo le definizioni fornite dalla letteratura, esaminandone le ipotesi sottostanti. E’ stata altresì descritta, contestualizzandola temporalmente, l’evoluzione della nozione, e ne sono state evidenziate le implicazioni ai fini della ricerca della forma di mercato più “efficiente”. Sotto quest’ultimo aspetto l’attenzione dello scrivente si é incentrata sul rapporto tra le diverse accezioni di efficienza economica oggetto di analisi e la desiderabilità o meno di un regime di concorrenza perfetta. Il capitolo si conclude con una breve panoramica sulle metodologie di misurazione finalizzata ad individuare i principali parametri utilizzati per determinare il livello di efficienza, di un mercato, di un’attività produttiva o di un’impresa, posto che, come verrà specificato nel prosieguo della tesi, la valutazione di efficienza in ambito antitrust deve essere verificata, ove possibile, anche basandosi sull’evidenza empirica delle singole imprese esaminate, come richiede il criterio della rule of reason. Capitolo 2 Presupposto per avere una regolazione che persegua l’obiettivo di avere una regolazione efficiente ed efficace, è, a parere di chi scrive, anche l’esistenza di autorità pubbliche deputate a esercitare la funzione regolatoria che rispettino al proprio interno e nel proprio agire la condizione di efficienza definita rispetto ai pubblici poteri. Lo sviluppo di questa affermazione ha richiesto in via preliminare, di definire il criterio di efficienza in ambito pubblicistico individuandone in particolare l’ambito di applicazione, il suo rapporto con gli altri principi che reggono l’azione amministrativa (con particolare riferimento al criterio di efficacia). Successivamente é stato collocato nel nostro ordinamento nazionale, ponendolo in relazione con il principio di buon andamnento della Pubblica Amministrazione, benchè l’ordinamento italiano, per la sua specificità non costituisca un esempio estendibile ad ordinamenti. Anche con riferimento al criterio di efficienza pubblica, un paragrafo é stato dedicato alle metodologie di misurazione di questa, e, nello specifico sull’Analisi Costi-Benefici e sull’Analisi di Impatto della Regolazione Una volta inquadrata la definizione di efficienza pubblica, questa é stata analizzata con specifico riferimento all’attività di regolazione dell’economia svolta dai soggetti pubblici, ambito nella quale rientra la funzione antitrust. Si é provato in particolare ad evidenziare, a livello generale, quali sono i requisiti necessari ad un’autorità amministrativa antitrust, costituita e dotata di poteri ad hoc, affinché essa agisca, nella sua attività di regolazione, secondo il principio di efficienza, Il capitolo si chiude allargando l’orizzonte della ricerca verso una possibile alternativa metodologica al criterio di efficienza precedentemente definito: vi si é infatti brevemente interrogati circa lo schema interpretativo nel quale ci muoviamo, affrontando la questione definitoria del criterio di efficienza, ponendolo in relazione con l’unico modello alternativo esistente, quello sviluppatosi nella cultura cinese. Non certo per elaborare un’applicazione in “salsa cinese” del criterio di efficienza alla tutela della concorrenza, compito al quale lo scrivente non sarebbe stato in grado di ottemperare, bensì, più semplicemente per dare conto di un diverso approccio alla questione che il futuro ruolo di superpotenza economica della Cina imporrà di prendere in considerazione. Capitolo 3 Nel terzo capitolo si passa a definire il concetto di concorrenza come istituto oggetto di tutela da parte della legge antitrust, per poi descrivere la nascita e l’evoluzione di tale legislazione negli Stati Uniti e della sua applicazione, posto che il diritto antitrust statunitense ancora oggi costituisce il necessario punto di riferimento per lo studioso di questa materia. L’evoluzione del diritto antitrust statunitense é stata analizzata parallelamente allo sviluppo delle principali teorie di law and economics che hanno interpretato il diritto della concorrenza quale possibile strumento per conseguire l’obiettivo dell’efficienza economica: la Scuola di Harvard e il paradigma strutturalista, la teoria evoluzionista della Scuola Austriaca, la Scuola di Chicago; le c.d. teorie “Post-Chicago”. Nel terzo capitolo, in altri termini, si é dato conto dell’evoluzione del pensiero economico con riferimento alla sua applicazione al diritto antitrust, focalizzando l’attenzione su quanto avvenuto negli Stati Uniti, paese nel quale sono nati sia l’istituto giuridico della tutela della concorrenza sia l’analisi economica del diritto. A conclusione di questa ricostruzione dottrinale ho brevemente esaminato quelle che sono le nuove tendenze dell’analisi economica del diritto, e specificatamente la teoria del comportamento irrazionale, benché esse non abbiano ancora ricevuto applicazione al diritto antitrust. Chi scrive ritiene infatti che queste teorie avranno ricadute anche in questa materia poiché essa costituisce uno dei principali ambiti applicativi della law and economics. Capitolo 4 Nel quarto capitolo é stata effettuata una disanima della disciplina comunitaria antitrust sottolineando come l’Unione Europea si proponga attraverso la sua applicazione, soprattutto in materia di intese, di perseguire fini eterogenei, sia economici che non economici, tra loro diversi e non di rado contrastanti, e analizzando come questa eterogeneità di obiettivi abbia influito sull’applicazione del criterio di efficienza. Attenendomi in questo capitolo al dato normativo, ho innanzitutto evidenziato l’ampiezza dell’ambito di applicazione della disciplina comunitaria antitrust sia dal punto di vista soggettivo che territoriale (dottrina dell’effetto utile), sottolineando come la norma giustifichi esplicitamente il ricorso al criterio di efficienza solo nella valutazione delle intese: il comma 3 dell’art. 81 del Trattato include, infatti, tra i requisiti di una possibile esenzione dall’applicazione del divieto per le intese qualificate come restrittive della concorrenza, la possibilità di ottenere incrementi di efficienza tecnica e/o dinamica attraverso l’implementazione delle intese in questione. Tuttavia la previsione da parte dello stesso art. 81 (3) di altri requisiti che devono contemporaneamente essere soddisfatti affinché un intesa restrittiva della concorrenza possa beneficiare dell’esenzione, nonché la possibile diversa interpretazione della locuzione “progresso tecnico ed economico”, impone, o comunque ammette, il perseguimento di altri obiettivi, contestualmente a quello dell’efficienza, giustificando così quell’eterogeneità dei fini che contraddistingue la politica della concorrenza dell’Unione Europea. Se la disciplina delle intese aiuta a comprendere il ruolo del criterio di efficienza nell’applicazione dei precetti antitrust da parte degli organi comunitari, l’art. 82 del Trattato non contiene invece alcun riferimento alla possibilità di utilizzare il criterio di efficienza nella valutazione delle condotte unilaterali poste in essere da imprese in posizione dominante sul mercato rilevante. Si è peraltro dato conto della consultazione recentemente avviata dalla Commissione Europea finalizzata all’elaborazione di Linee Guida che definiscano i criteri di interpretazione che l’organo comunitario dovrà seguire nella valutazione dei comportamenti unilaterali. A parere dello scrivente, anzi, l’assenza di un preciso schema cui subordinare la possibilità di ricorrere al criterio di efficienza nella valutazione della fattispecie, attribuisce alle autorità competenti un più ampio margine di discrezionalità nell’utilizzo del suddetto criterio poiché manca il vincolo della contestuale sussistenza delle altre condizioni di cui all’art. 81(3). Per quanto concerne infine la disciplina delle concentrazioni, essa, come abbiamo visto, prevede un riferimento ai possibili incrementi di efficienza (tecnica e dinamica) derivanti da operazioni di fusione, utilizzando la nozione utilizzata per le intese, così come nel precedente Regolamento 4064/89. Si é infine analizzato il nuovo Regolamento in materia di concentrazioni che avrebbe potuto costituire l’occasione per recepire nella disciplina comunitaria l’attribuzione della facoltà di ricorrere all’efficiency defense in presenza di una fattispecie, quella della fusione tra imprese, suscettibile più di altre di essere valutata secondo il criterio di efficienza, ma che si é invece limitato a riprendere la medesima locuzione presente nell’art. 81(3). Il capitolo attesta anche l’attenzione verso l’istanza di efficienza che ha riguardato il meccanismo di applicazione della norma antitrust e non il contenuto della norma stessa; a questo profilo attiene, infatti, l’innovazione apportata dal Regolamento 1/2003 che ha permesso, a parere dello scrivente, un’attribuzione più razionale della competenza nella valutazione dei casi tra la Commissione e le autorità nazionali degli Stati membri; tuttavia pone alcune questioni che investono direttamente il tema dei criteri di valutazione utilizzati dalle autorità competenti. Capitolo 5 L’analisi del quarto capitolo é stata condotta, sebbene in forma più sintetica, con riferimento alle normative antitrust dei principali Stati membri della Comunità Europea (Germania, Gran Bretagna, Spagna, Francia e Italia), rapportando anche queste al criterio di efficienza, ove possibile. Particolare attenzione é stata dedicata ai poteri e alle competenze attribuite alle autorità nazionali antitrust oggetto di studio dall’ordinamento giuridico cui appartengono e al contesto, in termini di sistema giuridico, nel quale esse operano. Capitolo 6 Si é provato ad effettuare una valutazione del livello di efficienza delle autorità prese in esame, la Commissione e le diverse autorità nazionali e ciò con particolare riferimento alla idoneità di queste a svolgere i compiti istituzionali loro affidati (criterio di efficienza dal punto di vista giuridico): affinchè un’autorità si possa ispirare al criterio di efficienza economica nell’adozione delle decisioni, infatti, è preliminarmente necessario che essa sia idonea a svolgere il compito che le è stato affidato dall’ordinamento. In questo senso si é osservata la difficoltà dei paesi di civil law a inquadrare le autorità indipendenti all’interno di un modello, quello appunto di civil law, ispirato a una rigida tripartizione dei poteri. Da qui la difficile collocazione di queste autorità che, al contrario, costituiscono un potere “ibrido” che esercita una funzione di vigilanza e garanzia non attribuibile integralmente né al potere esecutivo né a quello giurisdizionale. Si rileva inoltre una certa sovrapposizione delle competenze e dei poteri tra autorità antitrust e organi ministeriali, in particolare nel campo delle concentrazioni che ingenera un rischio di confusione e bassa efficienza del sistema. Mantenendo, infatti, un parziale controllo politico si rischia, oltre all’introduzione di criteri di valutazione politica che prescindono dagli effetti delle fattispecie concrete sul livello di concorrenza ed efficienza del mercato, anche di dare luogo a conflitti tra le diverse autorità del sistema che impediscano l’adozione e l’implementazione di decisioni definitive, incrementando altresì i costi dell’intervento pubblico. Un giudizio a parte è stato infine formulato con riguardo alla Commissione Europea, istituzione, in quanto avente caratteristiche e poteri peculiari. Da un lato l’assenza di vincolo di mandato dei Commissari e l’elevata preparazione tecnica dei funzionari costituiscono aspetti che avvicinano la Commissione al modello dell’autorità indipendenti, e l’ampiezza dei poteri in capo ad essa le permette di operare efficientemente grazie anche alla possibilità di valersi dell’assistenza delle autorità nazionali. Dall’altra parte, tuttavia la Commissione si caratterizza sempre di più come un organo politico svolgente funzioni esecutive, di indirizzo e di coordinamento che possono influenzare gli obiettivi che essa persegue attraverso l’attività antitrust, deviandola dal rispetto del criterio di efficienza. Capitolo 7 Una volta definito il contesto istituzionale di riferimento e la sua idoneità a svolgere la funzione affidatagli dall’ordinamento comunitario, nonché da quelli nazionali, si è proceduto quindi all’analisi delle decisioni adottate da alcune delle principali autorità nazionali europee competenti ad applicare la disciplina della concorrenza dal punto di vista dell’efficienza. A tal fine le fattispecie rilevanti a fini antitrust dal punto di vista giuridico sono state classificate utilizzando un criterio economico, individuando e definendo quelle condotte che presentano elementi comuni sotto il profilo economico e per ciascuna di esse sono state inquadrate le problematiche rilevanti ai fini dell’efficienza economica sulla scorta dei contributi teorici e delle analisi empiriche svolte dalla letteratura. 6 Con riferimento a ciascuna condotta rilevante ho esaminato il contenuto di alcune delle decisioni antitrust più significative e le ho interpretate in base al criterio di efficienza. verificando se e in quale misura le autorità antitrust prese in esame utilizzano tale criterio, cercando altresì di valutare l’evoluzione dei parametri di valutazione occorsa nel corso degli anni. Le decisioni analizzate sono soprattutto quelle adottate dalla Commissione e le eventuali relative sentenze della Corte di Giustizia Europea; ciò sia per la maggior rilevanza dei casi trattati a livello comunitario, sia in quanto le autorità nazionali, con qualche rara eccezione, si conformano generalmente ai criteri interpretativi della Commissione. Riferimenti a decisioni adottate dalle autorità nazionali sono stati collocati allorquando i loro criteri interpretativi si discostino da quelli utilizzati dagli organi comunitari. Ne è emerso un crescente, anche se ancora sporadico e incostante, ricorso al criterio di efficienza da parte degli organi europei preposti alla tutela della concorrenza. Il tuttora scarso utilizzo del criterio di efficienza nello svolgimento dell’attività antitrust è motivato, a parere di chi scrive, in parte dall’eterogeneità degli obiettivi che l’Unione Europea persegue attraverso la politica della concorrenza comunitaria (completamento del mercato unico, tutela del consumatore, politica industriale, sviluppo delle aree svantaggiate), in parte dall’incapacità (o dall’impossibilità) delle autorità di effettuare coerenti analisi economiche delle singole fattispecie concrete. Anche le principali autorità nazionali mostrano una crescente propensione a tendere conto dell’efficienza nella valutazione dei casi, soprattutto con riferimento agli accordi verticali e alle concentrazioni, sulla scia della prassi comunitaria. Più innovativa nell’applicazione del criterio di efficienza economica così come nella ricerca di uso ottimale delle risorse si è finora dimostrato l’OFT, come vedremo anche nel prossimo capitolo. Al contrario sembra più lenta l’evoluzione in questo senso dell’Ufficio dei Cartelli tedesco sia a causa delle già citate caratteristiche della legge antitrust tedesca, sia a causa del persistente principio ordoliberale della prevalenza del criterio della rule of law sulla rule of reason. Peraltro, anche nei casi in cui le Autorità siano propense ad utilizzare il criterio di efficienza nelle loro valutazioni, esse si limitano generalmente ad un’analisi teorica dell’esistenza di precondizioni che consentano alle imprese in questione di ottenere guadagni di efficienza. La sussistenza di tali pre-condizioni viene infatti rilevata sulla base della capacità potenziale della condotta dell’impresa (o delle imprese) di avere un effetto positivo in termini di efficienza, nonché sulla base delle caratteristiche del mercato rilevante. Raramente, invece, si tiene conto della capacità reale dei soggetti che pongono in essere la pratica suscettibile di essere restrittiva della concorrenza di cogliere effettivamente queste opportunità, ovvero se la struttura e l’organizzazione interna dell’impresa (o delle imprese) non è in grado di mettere in pratica ciò che la teoria suggerisce a causa di sue carenza interne o comunque in ragione delle strategie che persegue. Capitolo 8 Poiché l’approccio ispirato al criterio di efficienza economica non può prescindere dalle caratteristiche del settore e del mercato in cui operano l’impresa o le imprese che hanno posto in essere la condotta sotto esame, e poiché una valutazione approfondita di tutti i settori non era effettuabile per quantità di decisioni adottate dalle autorità, ho infine ritenuto di svolgere un’analisi dettagliata dell’attività delle autorità con riferimento ad uno specifico settore. La scelta è caduta sul settore dei trasporti in quanto esso presenta alcune problematiche che intrecciano l’esigenza di efficienza con la tutela della concorrenza, nonché per la sua importanza ai fini dello sviluppo economico. Tanto più alla luce del fenomeno della crescente apertura dei mercati che ha enfatizzato la triplice funzione dei trasporti di merci, di livellamento nello spazio dei prezzi di produzione, di redistribuzione nello spazio dell’impiego dei fattori della produzione, e soprattutto di sollecitazione al miglioramento delle tecnologie utilizzate nella produzione stessa in quanto contribuiscono alla divisione territoriale del lavoro e alla specializzazione produttiva. A loro volta, d’altra parte, i miglioramenti tecnici e organizzativi intervenuti nel settore negli ultimi trenta anni hanno reso possibile il fenomeno della globalizzazione nella misura in cui lo conosciamo. Così come le riduzioni di costo e di tempo conseguite nel trasporto di persone hanno consentito massicci spostamenti di lavoratori e più in generale di capitale umano da una parte all’altra del globo, e favorito altresì la spettacolare crescita del settore turistico. Ho quindi condotto un’analisi delle decisioni antitrust relative al settore dei trasporti, suddividendo la casistica in base al comparto al quale esse si riferivano, cercando sempre di non perdere di vista i crescenti legami che esistono tra i vari comparti alla luce dell’ormai affermato fenomeno del trasporto multimodale. Dall’analisi svolta emerge innanzitutto come l’assoggettamento del settore dei trasporti alla disciplina di tutela della concorrenza sia un fenomeno relativamente recente rispetto alle altre attività economiche, laddove la ragione di tale ritardo risiede nel fatto che tradizionalmente questo settore era caratterizzato da un intervento pubblico diretto e da una pervasiva regolamentazione, a sua volta giustificata da vari fattori economici: le caratteristiche di monopolio naturale delle infrastrutture; le esigenze di servizio pubblico connesse all’erogazione di molti servizi di trasporto; il ruolo strategico svolto dal trasporto sia di persone che di merci ai fini della crescita economica di un sistema. Si concretizza, inoltre, con riferimento ai trasporti marittimi e aerei, l’inadeguatezza della dimensione nazionale e comunitaria delle autorità competenti rispetto a comportamenti di impresa che spesso hanno effetti letteralmente globali. Le imprese marittime e aeree coinvolte nelle fattispecie da noi esaminate, infatti, in molti casi predisponevano, direttamente o mediatamente, tramite “alleanze”, collegamenti tra tutte le aree del mondo, individuando nell’Europa solo un nodo di un network ben più ampio Da questa constatazione discende, a parere dello scrivente, l’impossibilità per l’autorità comunitaria e ancor più per quella nazionale di individuare tutti gli effetti in termini di efficienza che la fattispecie concreta può provocare, non includendo pertanto solo quelli evidenti sul mercato comunitario. Conseguentemente una reale applicazione del criterio di efficienza all’attività antitrust nel settore dei trasporti non può prescindere da una collaborazione tra autorità a livello mondiale sia a fini di indagine che a fini di individuazione di alcuni principi fondamentali cui ispirarsi nello svolgimento della loro missione istituzionale. Capitolo 9. Conclusioni L’opera si chiude con l’individuazione delle evidenze e degli elementi emersi dalla trattazione considerati dallo scrivente maggiormente rilevanti nell’ambito dell’attuale dibattito di economia positiva circa le principali problematiche che affiggono l’intervento antitrust con particolare riferimento al suo rispetto del criterio di efficienza. Sono state altresì proposte alcune soluzioni a quelle che sono, a parere dello scrivente, le principali carenze dell’attuale configurazione dell’intervento antitrust a livello europeo, sempre in una prospettiva di efficienza sia delle autorità competenti sia dei mercati in cui le autorità stesse cercano di mantenere o ripristinare condizioni di concorrenza effettiva. Da un lato il modello costituito dalla Commissione Europea, l’autorità antitrust comunitaria, non replicabile né esente da critiche: la Commissione, infatti, rappresenta il Governo dell’Unione Europea e come tale non può ovviamente costituire un esempio di autorità indipendente e neutrale recepibile da parte degli Stati membri. Ciò anche a prescindere dalla questione della sua legittimazione, che in questa sede non affrontiamo. Dall’altro in una prospettiva di efficienza dei mercati la crescente applicazione delle teorie economiche da parte delle autorità esaminate è rimasta a un livello astratto, senza porre la dovuta attenzione alle specificità dei mercati rilevanti né tantomeno alle dinamiche interne alle singole imprese, con particolare riferimento alla loro capacità di rendere effettivi i guadagni di efficienza individuabili a livello potenziale, così come prescrive la più recente teoria economica applicata al diritto antitrust. Sotto il profilo dell’applicazione del criterio di efficienza si può comunque affermare che l’evoluzione che ha avuto la prassi decisionale e la giurisprudenza, comunitaria e degli Stati membri, in materia antitrust è stata caratterizzata dal loro progressivo avvicinamento alle tendenze sviluppatesi nelle agencies e nella giurisprudenza statunitense a partire dagli anni’70, caratterizzate dalla valutazione degli effetti, piuttosto che della forma giuridica, dal riconoscimento del criterio di efficienza e dalla rule of reason quale approccio metodologico. L’effetto è stato quello di determinare una significativa riduzione delle differenze inizialmente emerse tra le due esperienze, nate inizialmente sotto diverse prospettive politiche. Per quanto concerne specificatamente i trasporti sono emersi sotto il profilo economico due aspetti rilevanti, oltre al perdurante ritardo con cui il processo di liberalizzazione del trasporto ferroviario che limita fortemente l’intervento antitrust nel comparto, ma che esula dalla competenza delle stesse autorità antitrust. Il primo consiste nella spesso troppo rigida separazione tra comparti adottata dalle autorità. Il secondo è l’estensivo ricorso all’essential facility doctrine nelle fattispecie riguardanti infrastrutture portuali e aeroportuali: la massimizzazione dell’efficienza dinamica consiglierebbe in questi casi una maggiore cautela, in quanto si tratta di un paradigma che, una volta applicato, disincentiva la duplicazione e l’ampliamento di tali infrastrutture autoalimentandone il carattere di essenzialità. Ciò soprattutto laddove queste infrastrutture possono essere sostituite o duplicate piuttosto facilmente da un punto di vista tecnico (meno da un punto di vista economico e giuridico), essendo esse nodi e non reti. E’stata infine sottolineata l’inadeguatezza della dimensione nazionale e comunitaria delle autorità competenti rispetto a comportamenti di impresa che con riferimento ai trasporti marittimi ed aerei hanno effetti letteralmente globali. E’ di tutta evidenza che le autorità comunitarie e tantomeno quelle nazionali non sono da sole in grado di condurre le analisi quantitative necessarie ad una valutazione di tali condotte ispirata a un criterio di efficienza che tenga conto degli effetti di lungo periodo della fattispecie concreta. Né tali autorità sono sufficientemente neutre rispetto alla nazionalità delle imprese indagate per poter giudicare sulla liceità o meno della condotta in questione senza considerare gli effetti della loro decisione sull’economia interna, rendendo così ancora più improbabile un corretto utilizzo del criterio di efficienza. Da ultimo ho constatato come l’applicazione del concetto di efficienza giuridica imporrebbe di concepire autorità antitrust del tutto nuove, sganciate quanto più possibile dall’elemento territoriale, in grado di elaborare regole e standards minimi comuni e di permettere il controllo dei comportamenti di impresa in un contesto ampliato rispetto al tradizionale mercato unico, nonchè ai singoli mercati nazionali. Il processo di armonizzazione a livello globale è difficile e il quadro che attualmente viene formato è ancora confuso e incompleto. Vi sono tuttavia sparsi segnali attraverso i quali é possibile intravedere i lineamenti di una futura global governance della concorrenza che permetterà, sperabilmente, di incrementare l’efficienza di un sistema, quello antitrust, che tanto più piccolo è l’ambito in cui opera quanto più si sta dimostrando inadeguato a svolgere il compito affidatogli. Solo il futuro, peraltro, ci consentirà di verificare la direzione di sviluppo di questi segnali.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tesi si occupa della teoria delle ranking functions di W. Spohn, dottrina epistemologica il cui fine è dare una veste logica rigorosa ai concetti di causalità, legge di natura, spiegazione scientifica, a partire dalla nozione di credenza. Di tale teoria manca ancora una esposizione organica e unitaria e, soprattutto, formulata in linguaggio immediatamente accessibile. Nel mio lavoro, che si presenta come introduzione ad essa, è anche messa a raffronto con le teorie che maggiormente l’hanno influenzata o rispetto alle quali si pone come avversaria. Il PRIMO CAPITOLO si concentra sulla teoria di P. Gärdenfors, il più diretto predecessore e ispiratore di Spohn. Questo consente al lettore di acquisire familiarità con le nozioni di base della logica epistemica. La conoscenza, nella teoria del filosofo svedese, è concepita come processo di acquisizione ed espulsione di credenze, identificate con proposizioni, da un insieme. I tre maggiori fenomeni epistemici sono l’espansione, la revisione e la contrazione. Nel primo caso si immagazzina una proposizione in precedenza sconosciuta, nel secondo se ne espelle una a causa dell’acquisizione della sua contraddittoria, nel terzo si cancella una proposizione per amore di ipotesi e si investigano le conseguenze di tale cancellazione. Controparte linguistica di quest’ultimo fenomeno è la formulazione di un condizionale controfattuale. L’epistemologo, così come Gärdenfors concepisce il suo compito, è fondamentalmente un logico che deve specificare funzioni: vale a dire, le regole che deve rispettare ciascun passaggio da un insieme epistemico a un successivo per via di espansione, revisione e contrazione. Il SECONDO CAPITOLO tratta infine della teoria di Spohn, cercando di esporla in modo esauriente ma anche molto semplice. Anche in Spohn evidentemente il concetto fondamentale è quello di funzione: si tratta però in questo caso di quella regola di giudizio soggettivo che, a ciascuna credenza, identificata con una proposizione, associa un grado (un rank), espresso da un numero naturale positivo o dallo zero. Un rank è un grado di non-credenza (disbelief). Perché la non-credenza (che comporta un notevole appesantimento concettuale)? Perché le leggi della credenza così concepite presentano quella che Spohn chiama una “pervasiva analogia” rispetto alle leggi della probabilità (Spohn la chiama persino “armonia prestabilita” ed è un campo su cui sta ancora lavorando). Essenziale è il concetto di condizionalizzazione (analogo a quello di probabilità condizionale): a una credenza si associa un rank sulla base di (almeno) un’altra credenza. Grazie a tale concetto Spohn può formalizzare un fenomeno che a Gärdenfors sfugge, ossia la presenza di correlazioni interdoxastiche tra le credenze di un soggetto. Nella logica epistemica del predecessore, infatti, tutto si riduce all’inclusione o meno di una proposizione nell’insieme, non si considerano né gradi di credenza né l’idea che una credenza sia creduta sulla base di un’altra. Il TERZO CAPITOLO passa alla teoria della causalità di Spohn. Anche questa nozione è affrontata in prospettiva epistemica. Non ha senso, secondo Spohn, chiedersi quali siano i tratti “reali” della causalità “nel mondo”, occorre invece studiare che cosa accade quando si crede che tra due fatti o eventi sussista una correlazione causale. Anche quest’ultima è fatta oggetto di una formalizzazione logica rigorosa (e diversificata, infatti Spohn riconosce vari tipi di causa). Una causa “innalza lo status epistemico” dell’effetto: vale a dire, quest’ultimo è creduto con rank maggiore (ossia minore, se ci si concentra sulla non-credenza) se condizionalizzato sulla causa. Nello stesso capitolo espongo la teoria della causalità di Gärdenfors, che però è meno articolata e minata da alcuni errori. Il QUARTO CAPITOLO è tutto dedicato a David Lewis e alla sua teoria controfattuale della causalità, che è il maggiore avversario tanto di Spohn quanto di Gärdenfors. Secondo Lewis la migliore definizione di causa può essere data in termini controfattuali: la causa è un evento tale che, se non fosse accaduto, nemmeno l’effetto sarebbe accaduto. Naturalmente questo lo obbliga a specificare una teoria delle condizioni di verità di tale classe di enunciati che, andando contro i fatti per definizione, non possono essere paragonati alla realtà. Lewis ricorre allora alla dottrina dei mondi possibili e della loro somiglianza comparativa, concludendo che un controfattuale è vero se il mondo possibile in cui il suo antecedente e il suo conseguente sono veri è più simile al mondo attuale del controfattuale in cui il suo antecedente è vero e il conseguente è falso. Il QUINTO CAPITOLO mette a confronto la teoria di Lewis con quelle di Spohn e Gärdenfors. Quest’ultimo riduce i controfattuali a un fenomeno linguistico che segnala il processo epistemico di contrazione, trattato nel primo capitolo, rifiutando così completamente la dottrina dei mondi possibili. Spohn non affronta direttamente i controfattuali (in quanto a suo dire sovraccarichi di sottigliezze linguistiche di cui non vuole occuparsi – ha solo un abbozzo di teoria dei condizionali) ma dimostra che la sua teoria è superiore a quella di Lewis perché riesce a rendere conto, con estrema esattezza, di casi problematici di causalità che sfuggono alla formulazione controfattuale. Si tratta di quei casi in cui sono in gioco, rafforzandosi a vicenda o “concorrendo” allo stesso effetto, più fattori causali (casi noti nella letteratura come preemption, trumping etc.). Spohn riesce a renderne conto proprio perché ha a disposizione i rank numerici, che consentono un’analisi secondo cui a ciascun fattore causale è assegnato un preciso ruolo quantitativamente espresso, mentre la dottrina controfattuale è incapace di operare simili distinzioni (un controfattuale infatti è vero o falso, senza gradazioni). Il SESTO CAPITOLO si concentra sui modelli di spiegazione scientifica di Hempel e Salmon, e sulla nozione di causalità sviluppata da quest’ultimo, mettendo in luce soprattutto il ruolo (problematico) delle leggi di natura e degli enunciati controfattuali (a questo proposito sono prese in considerazione anche le famose critiche di Goodman e Chisholm). Proprio dalla riflessione su questi modelli infatti è scaturita la teoria di Gärdenfors, e tanto la dottrina del filosofo svedese quanto quella di Spohn possono essere viste come finalizzate a rendere conto della spiegazione scientifica confrontandosi con questi modelli meno recenti. Il SETTIMO CAPITOLO si concentra sull’analisi che la logica epistemica fornisce delle leggi di natura, che nel capitolo precedente sono ovviamente emerse come elemento fondamentale della spiegazione scientifica. Secondo Spohn le leggi sono innanzitutto proposizioni generali affermative, che sono credute in modo speciale. In primo luogo sono credute persistentemente, vale a dire, non sono mai messe in dubbio (tanto che se si incappa in una loro contro-istanza si va alla ricerca di una violazione della normalità che la giustifichi). In secondo luogo, guidano e fondano la credenza in altre credenze specifiche, che sono su di esse condizionalizzate (si riprendono, con nuovo rigore logico, le vecchie idee di Wittgenstein e di Ramsey e il concetto di legge come inference ticket). In terzo luogo sono generalizzazioni ricavate induttivamente: sono oggettivazioni di schemi induttivi. Questo capitolo si sofferma anche sulla teoria di legge offerta da Gärdenfors (analoga ma embrionale) e sull’analisi che Spohn fornisce della nozione di clausola ceteris paribus. L’OTTAVO CAPITOLO termina l’analisi cominciata con il sesto, considerando finalmente il modello epistemico della spiegazione scientifica. Si comincia dal modello di Gärdenfors, che si mostra essere minato da alcuni errori o comunque caratterizzato in modo non sufficientemente chiaro (soprattutto perché non fa ricorso, stranamente, al concetto di legge). Segue il modello di Spohn; secondo Spohn le spiegazioni scientifiche sono caratterizzate dal fatto che forniscono (o sono finalizzate a fornire) ragioni stabili, vale a dire, riconducono determinati fenomeni alle loro cause e tali cause sono credute in modo persistente. Con una dimostrazione logica molto dettagliata e di acutezza sorprendente Spohn argomenta che simili ragioni, nel lungo periodo, devono essere incontrate. La sua quindi non è solo una teoria della spiegazione scientifica che elabori un modello epistemico di che cosa succede quando un fenomeno è spiegato, ma anche una teoria dello sviluppo della scienza in generale, che incoraggia a perseguire la ricerca delle cause come necessariamente coronata da successo. Le OSSERVAZIONI CONCLUSIVE fanno il punto sulle teorie esposte e sul loro raffronto. E’ riconosciuta la superiorità della teoria di Spohn, di cui si mostra anche che raccoglie in pieno l’eredità costruttiva di Hume, al quale gli avversari si rifanno costantemente ma in modo frammentario. Si analizzano poi gli elementi delle teorie di Hempel e Salmon che hanno precorso l’impostazione epistemica. La teoria di Spohn non è esente però da alcuni punti ancora problematici. Innanzitutto, il ruolo della verità; in un primo tempo Spohn sembra rinunciare, come fa esplicitamente il suo predecessore, a trattare la verità, salvo poi invocarla quando si pone il grave problema dell’oggettivazione delle ranking functions (il problema si presenta poiché di esse inizialmente si dice che sono regole soggettive di giudizio e poi si identificano in parte con le leggi di natura). C’è poi la dottrina dei gradi di credenza che Spohn dice presentarsi “unitamente alle proposizioni” e che costituisce un inutile distacco dal realismo psicologico (critica consueta alla teoria): basterebbe osservare che i gradi di credenza sono ricavati o per condizionalizzazione automatica sulla base del tipo di fonte da cui una proposizione proviene, o per paragone immaginario con altre fonti (la maggiore o minore credenza infatti è un concetto relazionale: si crede di più o di meno “sulla base di…” o “rispetto a…”). Anche la trattazione delle leggi di natura è problematica; Spohn sostiene che sono ranking functions: a mio avviso invece esse concorrono a regole di giudizio, che prescrivono di impiegare le leggi stesse per valutare proposizioni o aspettative. Una legge di natura è un ingranaggio, per così dire, di una valutazione di certezza ma non si identifica totalmente con una legge di giudizio. I tre criteri che Spohn individua per distinguere le leggi poi non sono rispettati da tutte e sole le leggi stesse: la generalizzazione induttiva può anche dare adito a pregiudizi, e non di tutte le leggi si sono viste, individualmente, istanze ripetute tanto da giustificarle induttivamente. Infine, un episodio reale di storia della scienza come la scoperta della sintesi dell’urea da parte di F. Wöhler (1828 – ottenendo carbammide, organico, da due sostanze inorganiche, dimostra che non è vera la legge di natura fini a quel momento presunta tale secondo cui “sostanze organiche non possono essere ricavate da sostanze inorganiche”) è indice che le leggi di natura non sono sempre credute in modo persistente, cosicché per comprendere il momento della scoperta è pur sempre necessario rifarsi a una teoria di tipo popperiano, rispetto alla quale Spohn presenta invece la propria in assoluta antitesi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Asset Management (AM) is a set of procedures operable at the strategic-tacticaloperational level, for the management of the physical asset’s performance, associated risks and costs within its whole life-cycle. AM combines the engineering, managerial and informatics points of view. In addition to internal drivers, AM is driven by the demands of customers (social pull) and regulators (environmental mandates and economic considerations). AM can follow either a top-down or a bottom-up approach. Considering rehabilitation planning at the bottom-up level, the main issue would be to rehabilitate the right pipe at the right time with the right technique. Finding the right pipe may be possible and practicable, but determining the timeliness of the rehabilitation and the choice of the techniques adopted to rehabilitate is a bit abstruse. It is a truism that rehabilitating an asset too early is unwise, just as doing it late may have entailed extra expenses en route, in addition to the cost of the exercise of rehabilitation per se. One is confronted with a typical ‘Hamlet-isque dilemma’ – ‘to repair or not to repair’; or put in another way, ‘to replace or not to replace’. The decision in this case is governed by three factors, not necessarily interrelated – quality of customer service, costs and budget in the life cycle of the asset in question. The goal of replacement planning is to find the juncture in the asset’s life cycle where the cost of replacement is balanced by the rising maintenance costs and the declining level of service. System maintenance aims at improving performance and maintaining the asset in good working condition for as long as possible. Effective planning is used to target maintenance activities to meet these goals and minimize costly exigencies. The main objective of this dissertation is to develop a process-model for asset replacement planning. The aim of the model is to determine the optimal pipe replacement year by comparing, temporally, the annual operating and maintenance costs of the existing asset and the annuity of the investment in a new equivalent pipe, at the best market price. It is proposed that risk cost provide an appropriate framework to decide the balance between investment for replacing or operational expenditures for maintaining an asset. The model describes a practical approach to estimate when an asset should be replaced. A comprehensive list of criteria to be considered is outlined, the main criteria being a visà- vis between maintenance and replacement expenditures. The costs to maintain the assets should be described by a cost function related to the asset type, the risks to the safety of people and property owing to declining condition of asset, and the predicted frequency of failures. The cost functions reflect the condition of the existing asset at the time the decision to maintain or replace is taken: age, level of deterioration, risk of failure. The process model is applied in the wastewater network of Oslo, the capital city of Norway, and uses available real-world information to forecast life-cycle costs of maintenance and rehabilitation strategies and support infrastructure management decisions. The case study provides an insight into the various definitions of ‘asset lifetime’ – service life, economic life and physical life. The results recommend that one common value for lifetime should not be applied to the all the pipelines in the stock for investment planning in the long-term period; rather it would be wiser to define different values for different cohorts of pipelines to reduce the uncertainties associated with generalisations for simplification. It is envisaged that more criteria the municipality is able to include, to estimate maintenance costs for the existing assets, the more precise will the estimation of the expected service life be. The ability to include social costs enables to compute the asset life, not only based on its physical characterisation, but also on the sensitivity of network areas to social impact of failures. The type of economic analysis is very sensitive to model parameters that are difficult to determine accurately. The main value of this approach is the effort to demonstrate that it is possible to include, in decision-making, factors as the cost of the risk associated with a decline in level of performance, the level of this deterioration and the asset’s depreciation rate, without looking at age as the sole criterion for making decisions regarding replacements.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Se il lavoro dello storico è capire il passato come è stato compreso dalla gente che lo ha vissuto, allora forse non è azzardato pensare che sia anche necessario comunicare i risultati delle ricerche con strumenti propri che appartengono a un'epoca e che influenzano la mentalità di chi in quell'epoca vive. Emergenti tecnologie, specialmente nell’area della multimedialità come la realtà virtuale, permettono agli storici di comunicare l’esperienza del passato in più sensi. In che modo la storia collabora con le tecnologie informatiche soffermandosi sulla possibilità di fare ricostruzioni storiche virtuali, con relativi esempi e recensioni? Quello che maggiormente preoccupa gli storici è se una ricostruzione di un fatto passato vissuto attraverso la sua ricreazione in pixels sia un metodo di conoscenza della storia che possa essere considerato valido. Ovvero l'emozione che la navigazione in una realtà 3D può suscitare, è un mezzo in grado di trasmettere conoscenza? O forse l'idea che abbiamo del passato e del suo studio viene sottilmente cambiato nel momento in cui lo si divulga attraverso la grafica 3D? Da tempo però la disciplina ha cominciato a fare i conti con questa situazione, costretta soprattutto dall'invasività di questo tipo di media, dalla spettacolarizzazione del passato e da una divulgazione del passato parziale e antiscientifica. In un mondo post letterario bisogna cominciare a pensare che la cultura visuale nella quale siamo immersi sta cambiando il nostro rapporto con il passato: non per questo le conoscenze maturate fino ad oggi sono false, ma è necessario riconoscere che esiste più di una verità storica, a volte scritta a volte visuale. Il computer è diventato una piattaforma onnipresente per la rappresentazione e diffusione dell’informazione. I metodi di interazione e rappresentazione stanno evolvendo di continuo. Ed è su questi due binari che è si muove l’offerta delle tecnologie informatiche al servizio della storia. Lo scopo di questa tesi è proprio quello di esplorare, attraverso l’utilizzo e la sperimentazione di diversi strumenti e tecnologie informatiche, come si può raccontare efficacemente il passato attraverso oggetti tridimensionali e gli ambienti virtuali, e come, nel loro essere elementi caratterizzanti di comunicazione, in che modo possono collaborare, in questo caso particolare, con la disciplina storica. La presente ricerca ricostruisce alcune linee di storia delle principali fabbriche attive a Torino durante la seconda guerra mondiale, ricordando stretta relazione che esiste tra strutture ed individui e in questa città in particolare tra fabbrica e movimento operaio, è inevitabile addentrarsi nelle vicende del movimento operaio torinese che nel periodo della lotta di Liberazione in città fu un soggetto politico e sociale di primo rilievo. Nella città, intesa come entità biologica coinvolta nella guerra, la fabbrica (o le fabbriche) diventa il nucleo concettuale attraverso il quale leggere la città: sono le fabbriche gli obiettivi principali dei bombardamenti ed è nelle fabbriche che si combatte una guerra di liberazione tra classe operaia e autorità, di fabbrica e cittadine. La fabbrica diventa il luogo di "usurpazione del potere" di cui parla Weber, il palcoscenico in cui si tengono i diversi episodi della guerra: scioperi, deportazioni, occupazioni .... Il modello della città qui rappresentata non è una semplice visualizzazione ma un sistema informativo dove la realtà modellata è rappresentata da oggetti, che fanno da teatro allo svolgimento di avvenimenti con una precisa collocazione cronologica, al cui interno è possibile effettuare operazioni di selezione di render statici (immagini), di filmati precalcolati (animazioni) e di scenari navigabili interattivamente oltre ad attività di ricerca di fonti bibliografiche e commenti di studiosi segnatamente legati all'evento in oggetto. Obiettivo di questo lavoro è far interagire, attraverso diversi progetti, le discipline storiche e l’informatica, nelle diverse opportunità tecnologiche che questa presenta. Le possibilità di ricostruzione offerte dal 3D vengono così messe a servizio della ricerca, offrendo una visione integrale in grado di avvicinarci alla realtà dell’epoca presa in considerazione e convogliando in un’unica piattaforma espositiva tutti i risultati. Divulgazione Progetto Mappa Informativa Multimediale Torino 1945 Sul piano pratico il progetto prevede una interfaccia navigabile (tecnologia Flash) che rappresenti la pianta della città dell’epoca, attraverso la quale sia possibile avere una visione dei luoghi e dei tempi in cui la Liberazione prese forma, sia a livello concettuale, sia a livello pratico. Questo intreccio di coordinate nello spazio e nel tempo non solo migliora la comprensione dei fenomeni, ma crea un maggiore interesse sull’argomento attraverso l’utilizzo di strumenti divulgativi di grande efficacia (e appeal) senza perdere di vista la necessità di valicare le tesi storiche proponendosi come piattaforma didattica. Un tale contesto richiede uno studio approfondito degli eventi storici al fine di ricostruire con chiarezza una mappa della città che sia precisa sia topograficamente sia a livello di navigazione multimediale. La preparazione della cartina deve seguire gli standard del momento, perciò le soluzioni informatiche utilizzate sono quelle fornite da Adobe Illustrator per la realizzazione della topografia, e da Macromedia Flash per la creazione di un’interfaccia di navigazione. La base dei dati descrittivi è ovviamente consultabile essendo contenuta nel supporto media e totalmente annotata nella bibliografia. È il continuo evolvere delle tecnologie d'informazione e la massiccia diffusione dell’uso dei computer che ci porta a un cambiamento sostanziale nello studio e nell’apprendimento storico; le strutture accademiche e gli operatori economici hanno fatto propria la richiesta che giunge dall'utenza (insegnanti, studenti, operatori dei Beni Culturali) di una maggiore diffusione della conoscenza storica attraverso la sua rappresentazione informatizzata. Sul fronte didattico la ricostruzione di una realtà storica attraverso strumenti informatici consente anche ai non-storici di toccare con mano quelle che sono le problematiche della ricerca quali fonti mancanti, buchi della cronologia e valutazione della veridicità dei fatti attraverso prove. Le tecnologie informatiche permettono una visione completa, unitaria ed esauriente del passato, convogliando tutte le informazioni su un'unica piattaforma, permettendo anche a chi non è specializzato di comprendere immediatamente di cosa si parla. Il miglior libro di storia, per sua natura, non può farlo in quanto divide e organizza le notizie in modo diverso. In questo modo agli studenti viene data l'opportunità di apprendere tramite una rappresentazione diversa rispetto a quelle a cui sono abituati. La premessa centrale del progetto è che i risultati nell'apprendimento degli studenti possono essere migliorati se un concetto o un contenuto viene comunicato attraverso più canali di espressione, nel nostro caso attraverso un testo, immagini e un oggetto multimediale. Didattica La Conceria Fiorio è uno dei luoghi-simbolo della Resistenza torinese. Il progetto è una ricostruzione in realtà virtuale della Conceria Fiorio di Torino. La ricostruzione serve a arricchire la cultura storica sia a chi la produce, attraverso una ricerca accurata delle fonti, sia a chi può poi usufruirne, soprattutto i giovani, che, attratti dall’aspetto ludico della ricostruzione, apprendono con più facilità. La costruzione di un manufatto in 3D fornisce agli studenti le basi per riconoscere ed esprimere la giusta relazione fra il modello e l’oggetto storico. Le fasi di lavoro attraverso cui si è giunti alla ricostruzione in 3D della Conceria: . una ricerca storica approfondita, basata sulle fonti, che possono essere documenti degli archivi o scavi archeologici, fonti iconografiche, cartografiche, ecc.; . La modellazione degli edifici sulla base delle ricerche storiche, per fornire la struttura geometrica poligonale che permetta la navigazione tridimensionale; . La realizzazione, attraverso gli strumenti della computer graphic della navigazione in 3D. Unreal Technology è il nome dato al motore grafico utilizzato in numerosi videogiochi commerciali. Una delle caratteristiche fondamentali di tale prodotto è quella di avere uno strumento chiamato Unreal editor con cui è possibile costruire mondi virtuali, e che è quello utilizzato per questo progetto. UnrealEd (Ued) è il software per creare livelli per Unreal e i giochi basati sul motore di Unreal. E’ stata utilizzata la versione gratuita dell’editor. Il risultato finale del progetto è un ambiente virtuale navigabile raffigurante una ricostruzione accurata della Conceria Fiorio ai tempi della Resistenza. L’utente può visitare l’edificio e visualizzare informazioni specifiche su alcuni punti di interesse. La navigazione viene effettuata in prima persona, un processo di “spettacolarizzazione” degli ambienti visitati attraverso un arredamento consono permette all'utente una maggiore immersività rendendo l’ambiente più credibile e immediatamente codificabile. L’architettura Unreal Technology ha permesso di ottenere un buon risultato in un tempo brevissimo, senza che fossero necessari interventi di programmazione. Questo motore è, quindi, particolarmente adatto alla realizzazione rapida di prototipi di una discreta qualità, La presenza di un certo numero di bug lo rende, però, in parte inaffidabile. Utilizzare un editor da videogame per questa ricostruzione auspica la possibilità di un suo impiego nella didattica, quello che le simulazioni in 3D permettono nel caso specifico è di permettere agli studenti di sperimentare il lavoro della ricostruzione storica, con tutti i problemi che lo storico deve affrontare nel ricreare il passato. Questo lavoro vuole essere per gli storici una esperienza nella direzione della creazione di un repertorio espressivo più ampio, che includa gli ambienti tridimensionali. Il rischio di impiegare del tempo per imparare come funziona questa tecnologia per generare spazi virtuali rende scettici quanti si impegnano nell'insegnamento, ma le esperienze di progetti sviluppati, soprattutto all’estero, servono a capire che sono un buon investimento. Il fatto che una software house, che crea un videogame di grande successo di pubblico, includa nel suo prodotto, una serie di strumenti che consentano all'utente la creazione di mondi propri in cui giocare, è sintomatico che l'alfabetizzazione informatica degli utenti medi sta crescendo sempre più rapidamente e che l'utilizzo di un editor come Unreal Engine sarà in futuro una attività alla portata di un pubblico sempre più vasto. Questo ci mette nelle condizioni di progettare moduli di insegnamento più immersivi, in cui l'esperienza della ricerca e della ricostruzione del passato si intreccino con lo studio più tradizionale degli avvenimenti di una certa epoca. I mondi virtuali interattivi vengono spesso definiti come la forma culturale chiave del XXI secolo, come il cinema lo è stato per il XX. Lo scopo di questo lavoro è stato quello di suggerire che vi sono grosse opportunità per gli storici impiegando gli oggetti e le ambientazioni in 3D, e che essi devono coglierle. Si consideri il fatto che l’estetica abbia un effetto sull’epistemologia. O almeno sulla forma che i risultati delle ricerche storiche assumono nel momento in cui devono essere diffuse. Un’analisi storica fatta in maniera superficiale o con presupposti errati può comunque essere diffusa e avere credito in numerosi ambienti se diffusa con mezzi accattivanti e moderni. Ecco perchè non conviene seppellire un buon lavoro in qualche biblioteca, in attesa che qualcuno lo scopra. Ecco perchè gli storici non devono ignorare il 3D. La nostra capacità, come studiosi e studenti, di percepire idee ed orientamenti importanti dipende spesso dai metodi che impieghiamo per rappresentare i dati e l’evidenza. Perché gli storici possano ottenere il beneficio che il 3D porta con sè, tuttavia, devono sviluppare un’agenda di ricerca volta ad accertarsi che il 3D sostenga i loro obiettivi di ricercatori e insegnanti. Una ricostruzione storica può essere molto utile dal punto di vista educativo non sono da chi la visita ma, anche da chi la realizza. La fase di ricerca necessaria per la ricostruzione non può fare altro che aumentare il background culturale dello sviluppatore. Conclusioni La cosa più importante è stata la possibilità di fare esperienze nell’uso di mezzi di comunicazione di questo genere per raccontare e far conoscere il passato. Rovesciando il paradigma conoscitivo che avevo appreso negli studi umanistici, ho cercato di desumere quelle che potremo chiamare “leggi universali” dai dati oggettivi emersi da questi esperimenti. Da punto di vista epistemologico l’informatica, con la sua capacità di gestire masse impressionanti di dati, dà agli studiosi la possibilità di formulare delle ipotesi e poi accertarle o smentirle tramite ricostruzioni e simulazioni. Il mio lavoro è andato in questa direzione, cercando conoscere e usare strumenti attuali che nel futuro avranno sempre maggiore presenza nella comunicazione (anche scientifica) e che sono i mezzi di comunicazione d’eccellenza per determinate fasce d’età (adolescenti). Volendo spingere all’estremo i termini possiamo dire che la sfida che oggi la cultura visuale pone ai metodi tradizionali del fare storia è la stessa che Erodoto e Tucidide contrapposero ai narratori di miti e leggende. Prima di Erodoto esisteva il mito, che era un mezzo perfettamente adeguato per raccontare e dare significato al passato di una tribù o di una città. In un mondo post letterario la nostra conoscenza del passato sta sottilmente mutando nel momento in cui lo vediamo rappresentato da pixel o quando le informazioni scaturiscono non da sole, ma grazie all’interattività con il mezzo. La nostra capacità come studiosi e studenti di percepire idee ed orientamenti importanti dipende spesso dai metodi che impieghiamo per rappresentare i dati e l’evidenza. Perché gli storici possano ottenere il beneficio sottinteso al 3D, tuttavia, devono sviluppare un’agenda di ricerca volta ad accertarsi che il 3D sostenga i loro obiettivi di ricercatori e insegnanti. Le esperienze raccolte nelle pagine precedenti ci portano a pensare che in un futuro non troppo lontano uno strumento come il computer sarà l’unico mezzo attraverso cui trasmettere conoscenze, e dal punto di vista didattico la sua interattività consente coinvolgimento negli studenti come nessun altro mezzo di comunicazione moderno.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

INTRODUCTION – In human medicine, diabetes mellitus (DM), hypertension, proteinuria and nephropathy are often associated although it is still not clear whether hypertension is the consequence or the cause of nephropathy and albuminuria. Microalbuminuria, in humans, is an early and sensitive marker which permits timely and effective therapy in the early phase of renal damage. Conversely, in dogs, these relationships were not fully investigated, even though hypertension has been associated with many diseases (Bodey and Michell, 1996). In a previous study, 20% of diabetic dogs were found proteinuric based on a U:P/C > 1 and 46% were hypertensive; this latter finding is similar to the prevalence of hypertension in diabetic people (40-80%) (Struble et al., 1998). In the same canine study, hypertension was also positively correlated with the duration of the disease, as is the case in human beings. Hypertension was also found to be a common complication of hypercortisolism (HC) in dogs, with a prevalence which varies from 50 (Goy-Thollot et al., 2002) to 80% (Danese and Aron, 1994).The aim of our study was to evaluate the urinary albumin to creatinine ratio (U:A/C) in dogs affected by Diabetes Mellitus and HC in order to ascertain if, as in human beings, it could represent an early and more sensitive marker of renal damage than U:P/C. Furthermore, the relationship between proteinuria and hypertension in DM and HC was also investigated. MATERIALS AND METHODS – Twenty dogs with DM, 14 with HC and 21 healthy dogs (control group) were included in the prospective case-control study. Inclusion criteria were hyperglycaemia, glicosuria and serum fructosamine above the reference range for DM dogs and a positive ACTH stimulation test and/or low-dose dexamethasone test and consistent findings of HC on abdominal ultrasonography in HC dogs. Dogs were excluded if affected by urinary tract infections and if the serum creatinine or urea values were above the reference range. At the moment of inclusion, an appropriate therapy had already been instituted less than 1 month earlier in 12 diabetic dogs. The control dogs were considered healthy based on clinical exam and clinicopathological findings. All dogs underwent urine sample collection by cystocentesis and systemic blood pressure measurement by means of either an oscillometric device (BP-88 Next, Colin Corporation, Japan) or by Doppler ultrasonic traducer (Minidop ES-100VX, Hadeco, Japan). The choice of method depended on the dog’s body weight: Doppler ultrasonography was employed in dogs < 20 kg of body weight and the oscillometric method in the other subjects. Dogs were considered hypertensive whenever systemic blood pressure was found ≥ 160 mmHg. The urine was assayed for U:P/C and U:A/C (Gentilini et al., 2005). The data between groups were compared using the Mann-Whitney U test. The reference ranges for U:P/C and U:A/C had already been established by our laboratory as 0.6 and 0.05, respectively. U:P/C and U:A/C findings were correlated to systemic blood pressure and Spearman R correlation coefficients were calculated. In all cases, p < 0.05 was considered statistically significant. RESULTS – The mean ± sd urinary albumin concentration in the three groups was 1.79 mg/dl ± 2.18; 20.02 mg/dl ± 43.25; 52.02 mg/dl ± 98.27, in healthy, diabetic and hypercortisolemic dogs, respectively. The urine albumin concentration differed significantly between healthy and diabetic dogs (p = 0.008) and between healthy and HC dogs (p = 0.011). U:A/C values ranged from 0.00 to 0.34 (mean ± sd 0.02 ± 0.07), 0.00 to 6.72 (mean ± sd 0.62 ± 1.52) and 0.00 to 5.52 (mean ± sd 1.27 ± 1.70) in the control, DM and HC groups, respectively; U:P/C values ranged from 0.1 to 0.6 (mean ± sd 0.17 ± 0.15) 0.1 to 6.6 (mean ± sd 0.93 ± 1.15) and 0.2 to 7.1 (mean ± sd 1.90 ± 2.11) in the control, DM and HC groups, respectively. In diabetic dogs, U:A/C was above the reference range in 11 out of 20 dogs (55%). Among these, 5/20 (25%) showed an increase only in the U:A/C ratio while, in 6/20 (30%), both the U:P/C and the U:A/C were abnormal. Among the latter, 4 dogs had already undergone therapy. In subjects affected with HC, U:P/C and U:A/C were both increased in 10/14 (71%) while in 2/14 (14%) only U:A/C was above the reference range. Overall, by comparing U:P/C and U:A/C in the various groups, a significant increase in protein excretion in disease-affected animals compared to healthy dogs was found. Blood pressure (BP) in diabetic subjects ranged from 88 to 203 mmHg (mean ± sd 143 ± 33 mmHg) and 7/20 (35%) dogs were found to be hypertensive. In HC dogs, BP ranged from 116 to 200 mmHg (mean ± sd 167 ± 26 mmHg) and 9/14 (64%) dogs were hypertensive. Blood pressure and proteinuria were not significantly correlated. Furthermore, in the DM group, U:P/C and U:A/C were both increased in 3 hypertensive dogs and 2 normotensive dogs while the only increase of U:A/C was observed in 2 hypertensive and 3 normotensive dogs. In the HC group, the U:P/C and the U:A/C were both increased in 6 hypertensive and 2 normotensive dogs; the U:A/C was the sole increased parameter in 1 hypertensive dog and in 1 dog with normal pressure. DISCUSSION AND CONCLUSION- The findings of this study suggest that, in dogs affected by DM and HC, an increase in U:P/C, U:A/C and systemic hypertension is frequently present. Remarkably, some dogs affected by both DM and HC showed an U:A/C but not U:P/C above the reference range. In diabetic dogs, albuminuria was observed in 25% of the subjects, suggesting the possibility that this parameter could be employed for detecting renal damage at an early phase when common semiquantiative tests and even U:P/C fall inside the reference range. In HC dogs, a higher number of subjects with overt proteinuria was found while only 14% presented an increase only in the U:A/C. This fact, associated with a greater number of hypertensive dogs having HC rather than DM, could suggest a greater influence on renal function by the mechanisms involved in hypertension secondary to hypercortisolemia. Furthermore, it is possible that, in HC dogs, the diagnosis was more delayed than in DM dogs. However, the lack of a statistically significant correlation between hypertension and increased protein excretion as well as the apparently random distribution of proteinuric subjects in normotensive and hypertensive cases, imply that other factors besides hypertension are involved in causing proteinuria. Longitudinal studies are needed to further investigate the relationship between hypertension and proteinuria.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Oggetto della ricerca sono l’esame e la valutazione dei limiti posti all’autonomia privata dal divieto di abuso della posizione dominante, come sancito, in materia di tutela della concorrenza, dall’art. 3 della legge 10 ottobre 1990, n. 287, a sua volta modellato sull’art. 82 del Trattato CE. Preliminarmente, si è ritenuto opportuno svolgere la ricognizione degli interessi tutelati dal diritto della concorrenza, onde individuare la cerchia dei soggetti legittimati ad avvalersi dell’apparato di rimedi civilistici – invero scarno e necessitante di integrazione in via interpretativa – contemplato dall’art. 33 della legge n. 287/1990. È così emerso come l’odierno diritto della concorrenza, basato su un modello di workable competition, non possa ritenersi sorretto da ragioni corporative di tutela dei soli imprenditori concorrenti, investendo direttamente – e rivestendo di rilevanza giuridica – le situazioni soggettive di coloro che operano sul mercato, indipendentemente da qualificazioni formali. In tal senso, sono stati esaminati i caratteri fondamentali dell’istituto dell’abuso di posizione dominante, come delineatisi nella prassi applicativa non solo degli organi nazionali, ma anche di quelli comunitari. Ed invero, un aspetto importante che caratterizza la disciplina italiana dell’abuso di posizione dominante e della concorrenza in generale, distinguendola dalle normative di altri sistemi giuridici prossimi al nostro, è costituito dal vincolo di dipendenza dal diritto comunitario, sancito dall’art. 1, quarto comma, della legge n. 287/1990, idoneo a determinare peculiari riflessi anche sul piano dell’applicazione civilistica dell’istituto. La ricerca si è quindi spostata sulla figura generale del divieto di abuso del diritto, onde vagliarne i possibili rapporti con l’istituto in esame. A tal proposito, si è tentato di individuare, per quanto possibile, i tratti essenziali della figura dell’abuso del diritto relativamente all’esercizio dell’autonomia privata in ambito negoziale, con particolare riferimento all’evoluzione del pensiero della dottrina e ai più recenti orientamenti giurisprudenziali sul tema, che hanno valorizzato il ruolo della buona fede intesa in senso oggettivo. Particolarmente interessante è parsa la possibilità di estendere i confini della figura dell’abuso del diritto sì da ricomprendere anche l’esercizio di prerogative individuali diverse dai diritti soggettivi. Da tale estensione potrebbero infatti discendere interessanti ripercussioni per la tutela dei soggetti deboli nel contesto dei rapporti d’impresa, intendendosi per tali tanto i rapporti tra imprenditori in posizione paritaria o asimmetrica, quanto i rapporti tra imprenditori e consumatori. È stato inoltre preso in considerazione l’aspetto dei rimedi avverso le condotte abusive, alla luce dei moderni contributi sull’eccezione di dolo generale, sulla tutela risarcitoria e sull’invalidità negoziale, con i quali è opportuno confrontarsi qualora si intenda cercare di colmare – come sembra opportuno – i vuoti di disciplina della tutela civilistica avverso l’abuso di posizione dominante. Stante l’evidente contiguità con la figura in esame, si è poi provveduto ad esaminare, per quanto sinteticamente, il divieto di abuso di dipendenza economica, il quale si delinea come figura ibrida, a metà strada tra il diritto dei contratti e quello della concorrenza. Tale fattispecie, pur inserita in una legge volta a disciplinare il settore della subfornitura industriale (art. 9, legge 18 giugno 1998, n. 192), ha suscitato un vasto interessamento della dottrina. Si sono infatti levate diverse voci favorevoli a riconoscere la portata applicativa generale del divieto, quale principio di giustizia contrattuale valevole per tutti i rapporti tra imprenditori. Nel tentativo di verificare tale assunto, si è cercato di individuare la ratio sottesa all’art. 9 della legge n. 192/1998, anche in considerazione dei suoi rapporti con il divieto di abuso di posizione dominante. Su tale aspetto è d’altronde appositamente intervenuto il legislatore con la legge 5 marzo 2001, n. 57, riconoscendo la competenza dell’Autorità garante per la concorrenza ed il mercato a provvedere, anche d’ufficio, sugli abusi di dipendenza economica con rilevanza concorrenziale. Si possono così prospettare due fattispecie normative di abusi di dipendenza economica, quella con effetti circoscritti al singolo rapporto interimprenditoriale, la cui disciplina è rimessa al diritto civile, e quella con effetti negativi per il mercato, soggetta anche – ma non solo – alle regole del diritto antitrust; tracciare una netta linea di demarcazione tra i reciproci ambiti non appare comunque agevole. Sono stati inoltre dedicati brevi cenni ai rimedi avverso le condotte di abuso di dipendenza economica, i quali involgono problematiche non dissimili a quelle che si delineano per il divieto di abuso di posizione dominante. Poste tali basi, la ricerca è proseguita con la ricognizione dei rimedi civilistici esperibili contro gli abusi di posizione dominante. Anzitutto, è stato preso in considerazione il rimedio del risarcimento dei danni, partendo dall’individuazione della fonte della responsabilità dell’abutente e vagliando criticamente le diverse ipotesi proposte in dottrina, anche con riferimento alle recenti elaborazioni in tema di obblighi di protezione. È stata altresì vagliata l’ammissibilità di una visione unitaria degli illeciti in questione, quali fattispecie plurioffensive e indipendenti dalla qualifica formale del soggetto leso, sia esso imprenditore concorrente, distributore o intermediario – o meglio, in generale, imprenditore complementare – oppure consumatore. L’individuazione della disciplina applicabile alle azioni risarcitorie sembra comunque dipendere in ampia misura dalla risposta al quesito preliminare sulla natura – extracontrattuale, precontrattuale ovvero contrattuale – della responsabilità conseguente alla violazione del divieto. Pur non sembrando prospettabili soluzioni di carattere universale, sono apparsi meritevoli di approfondimento i seguenti profili: quanto all’individuazione dei soggetti legittimati, il problema della traslazione del danno, o passing-on; quanto al nesso causale, il criterio da utilizzare per il relativo accertamento, l’ammissibilità di prove presuntive e l’efficacia dei provvedimenti amministrativi sanzionatori; quanto all’elemento soggettivo, la possibilità di applicare analogicamente l’art. 2600 c.c. e gli aspetti collegati alla colpa per inosservanza di norme di condotta; quanto ai danni risarcibili, i criteri di accertamento e di prova del pregiudizio; infine, quanto al termine di prescrizione, la possibilità di qualificare il danno da illecito antitrust quale danno “lungolatente”, con le relative conseguenze sull’individuazione del dies a quo di decorrenza del termine prescrizionale. In secondo luogo, è stata esaminata la questione della sorte dei contratti posti in essere in violazione del divieto di abuso di posizione dominante. In particolare, ci si è interrogati sulla possibilità di configurare – in assenza di indicazioni normative – la nullità “virtuale” di detti contratti, anche a fronte della recente conferma giunta dalla Suprema Corte circa la distinzione tra regole di comportamento e regole di validità del contratto. È stata inoltre esaminata – e valutata in senso negativo – la possibilità di qualificare la nullità in parola quale nullità “di protezione”, con una ricognizione, per quanto sintetica, dei principali aspetti attinenti alla legittimazione ad agire, alla rilevabilità d’ufficio e all’estensione dell’invalidità. Sono poi state dedicate alcune considerazioni alla nota questione della sorte dei contratti posti “a valle” di condotte abusive, per i quali non sembra agevole configurare declaratorie di nullità, mentre appare prospettabile – e, anzi, preferibile – il ricorso alla tutela risarcitoria. Da ultimo, non si è trascurata la valutazione dell’esperibilità, avverso le condotte di abuso di posizione dominante, di azioni diverse da quelle di nullità e risarcimento, le sole espressamente contemplate dall’art. 33, secondo comma, della legge n. 287/1990. Segnatamente, l’attenzione si è concentrata sulla possibilità di imporre a carico dell’impresa in posizione dominante un obbligo a contrarre a condizioni eque e non discriminatorie. L’importanza del tema è attestata non solo dalla discordanza delle pronunce giurisprudenziali, peraltro numericamente scarse, ma anche dal vasto dibattito dottrinale da tempo sviluppatosi, che investe tuttora taluni aspetti salienti del diritto delle obbligazioni e della tutela apprestata dall’ordinamento alla libertà di iniziativa economica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Water is a safe, harmless, and environmentally benign solvent. From an eco-sustainable chemistry perspective, the use of water instead of organic solvent is preferred to decrease environmental contamination. Moreover, water has unique physical and chemical properties, such as high dielectric constant and high cohesive energy density compared to most organic solvents. The different interactions between water and substrates, make water an interesting candidate as a solvent or co-solvent from an industrial and laboratory perspective. In this regard, organic reactions in aqueous media are of current interest. In addition, from practical and synthetic standpoints, a great advantage of using water is immediately evident, since it does not require any preliminary drying process. This thesis was found on this aspect of chemical research, with particular attention to the mechanisms which control organo and bio-catalysis outcome. The first part of the study was focused on the aldol reaction. In particular, for the first time it has been analyzed for the first time the stereoselectivity of the condensation reaction between 3-pyridincarbaldehyde and the cyclohexanone, catalyzed by morpholine and 4-tertbutyldimethylsiloxyproline, using water as sole solvent. This interest has resulted in countless works appeared in the literature concerning the use of proline derivatives as effective catalysts in organic aqueous environment. These studies showed good enantio and diastereoselectivities but they did not present an in depth study of the reaction mechanism. The analysis of the products diastereomeric ratios through the Eyring equation allowed to compare the activation parameters (ΔΔH≠ and ΔΔS≠) of the diastereomeric reaction paths, and to compare the different type of catalysis. While morpholine showed constant diasteromeric ratio at all temperatures, the O(TBS)-L-proline, showed a non-linear Eyring diagram, with two linear trends and the presence of an inversion temperature (Tinv) at 53 ° C, which denotes the presence of solvation effects by water. A pH-dependent study allowed to identify two different reaction mechanisms, and in the case of O(TBS)-L-proline, to ensure the formation of an enaminic species, as a keyelement in the stereoselective process. Moreover, it has been studied the possibility of using the 6- aminopenicillanic acid (6-APA) as amino acid-type catalyst for aldol condensation between cyclohexanone and aromatic aldehydes. A detailed analysis of the catalyst regarding its behavior in different organic solvents and pH, allowed to prove its potential as a candidate for green catalysis. Best results were obtained in neat conditions, where 6-APA proved to be an effective catalyst in terms of yields. The catalyst performance in terms of enantio- and diastereo-selectivity, was impaired by the competition between two different catalytic mechanisms: one via imine-enamine mechanism and one via a Bronsted-acid catalysis. The last part of the thesis was dedicated to the enzymatic catalysis, with particular attention to the use of an enzyme belonging to the class of alcohol dehydrogenase, the Horse Liver Alcohol Dehydrogenase (HLADH) which was selected and used in the enantioselective reduction of aldehydes to enantiopure arylpropylic alcohols. This enzyme has showed an excellent responsiveness to this type of aldehydes and a good tolerance toward organic solvents. Moreover, the fast keto-enolic equilibrium of this class of aldehydes that induce the stereocentre racemization, allows the dynamic-kinetic resolution (DKR) to give the enantiopure alcohol. By analyzing the different reaction parameters, especially the pH and the amount of enzyme, and adding a small percentage of organic solvent, it was possible to control all the parameters involved in the reaction. The excellent enatioselectivity of HLADH along with the DKR of arylpropionic aldehydes, allowed to obtain the corresponding alcohols in quantitative yields and with an optical purity ranging from 64% to >99%.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Curved mountain belts have always fascinated geologists and geophysicists because of their peculiar structural setting and geodynamic mechanisms of formation. The need of studying orogenic bends arises from the numerous questions to which geologists and geophysicists have tried to answer to during the last two decades, such as: what are the mechanisms governing orogenic bends formation? Why do they form? Do they develop in particular geological conditions? And if so, what are the most favorable conditions? What are their relationships with the deformational history of the belt? Why is the shape of arcuate orogens in many parts of the Earth so different? What are the factors controlling the shape of orogenic bends? Paleomagnetism demonstrated to be one of the most effective techniques in order to document the deformation of a curved belt through the determination of vertical axis rotations. In fact, the pattern of rotations within a curved belt can reveal the occurrence of a bending, and its timing. Nevertheless, paleomagnetic data alone are not sufficient to constrain the tectonic evolution of a curved belt. Usually, structural analysis integrates paleomagnetic data, in defining the kinematics of a belt through kinematic indicators on brittle fault planes (i.e., slickensides, mineral fibers growth, SC-structures). My research program has been focused on the study of curved mountain belts through paleomagnetism, in order to define their kinematics, timing, and mechanisms of formation. Structural analysis, performed only in some regions, supported and integrated paleomagnetic data. In particular, three arcuate orogenic systems have been investigated: the Western Alpine Arc (NW Italy), the Bolivian Orocline (Central Andes, NW Argentina), and the Patagonian Orocline (Tierra del Fuego, southern Argentina). The bending of the Western Alpine Arc has been investigated so far using different approaches, though few based on reliable paleomagnetic data. Results from our paleomagnetic study carried out in the Tertiary Piedmont Basin, located on top of Alpine nappes, indicate that the Western Alpine Arc is a primary bend that has been subsequently tightened by further ~50° during Aquitanian-Serravallian times (23-12 Ma). This mid-Miocene oroclinal bending, superimposing onto a pre-existing Eocene nonrotational arc, is the result of a composite geodynamic mechanism, where slab rollback, mantle flows, and rotating thrust emplacement are intimately linked. Relying on our paleomagnetic and structural evidence, the Bolivian Orocline can be considered as a progressive bend, whose formation has been driven by the along-strike gradient of crustal shortening. The documented clockwise rotations up to 45° are compatible with a secondary-bending type mechanism occurring after Eocene-Oligocene times (30-40 Ma), and their nature is probably related to the widespread shearing taking place between zones of differential shortening. Since ~15 Ma ago, the activity of N-S left-lateral strike-slip faults in the Eastern Cordillera at the border with the Altiplano-Puna plateau induced up to ~40° counterclockwise rotations along the fault zone, locally annulling the regional clockwise rotation. We proposed that mid-Miocene strike-slip activity developed in response of a compressive stress (related to body forces) at the plateau margins, caused by the progressive lateral (southward) growth of the Altiplano-Puna plateau, laterally spreading from the overthickened crustal region of the salient apex. The growth of plateaux by lateral spreading seems to be a mechanism common to other major plateaux in the Earth (i.e., Tibetan plateau). Results from the Patagonian Orocline represent the first reliable constraint to the timing of bending in the southern tip of South America. They indicate that the Patagonian Orocline did not undergo any significant rotation since early Eocene times (~50 Ma), implying that it may be considered either a primary bend, or an orocline formed during the late Cretaceous-early Eocene deformation phase. This result has important implications on the opening of the Drake Passage at ~32 Ma, since it is definitely not related to the formation of the Patagonian orocline, but the sole consequence of the Scotia plate spreading. Finally, relying on the results and implications from the study of the Western Alpine Arc, the Bolivian Orocline, and the Patagonian Orocline, general conclusions on curved mountain belt formation have been inferred.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'attività di ricerca descritta in questa tesi fornisce linee guida per la progettazione di arti protesici inferiori, con particolare riferimento alla progettazione di protesi a basso costo. La necessità di efficienti protesi a basso costo risulta infatti sentita nei Paesi in via di sviluppo ma anche dalle fasce meno abbienti dei paesi occidentali. Al fine di comprendere le strategie adottate dall'apparato locomotorio per muoversi con le protesi sono analizzati il cammino fisiologico, le protesi presenti sul mercato ed infine le modalità con cui le loro prestazioni sono valutate. Con il presente lavoro, dopo aver osservato la presenza di una scarsa strutturazione della metodologia di progettazione che riguarda specialmente il settore del basso costo, si propone una metodologia il più possibile oggettiva e ripetibile tesa ad individuare quali sono gli aspetti essenziali di una protesi per garantire al paziente una buona qualità di vita. Solo questi aspetti dovranno essere selezionati al fine di ottenere la massima semplificazione della protesi e ridurre il più possibile i costi. Per la simulazione delle attività di locomozione, in particolare del cammino, è stato elaborato un apposito modello spaziale del cammino. Il modello proposto ha 7 membri rigidi (corrispondenti a piedi, tibie, femori e bacino) e 24 gradi di libertà. Le articolazioni e l'appoggio dei piedi al suolo sono modellati con giunti sferici. La pianta del piede consente tre possibili punti di appoggio. I criteri di realizzazione delle simulazioni possono comprendere aspetti energetici, cinematici e dinamici considerati come obiettivo dall'apparato locomotorio. In questa tesi vengono trattati in particolare gli aspetti cinematici ed è mostrata un'applicazione della procedura nella quale vengono dapprima identificati i riferimenti fisiologici del cammino e quindi simulato il cammino in presenza di una menomazione al ginocchio (eliminazione della flessione in fase di appoggio). Viene quindi lasciato a sviluppi futuri il completamento della procedura e la sua implementazione in un codice di calcolo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

I libretti che Pascoli scrisse in forma di abbozzi e che sognò potessero calcare il palcoscenico di un teatro furono davvero un “melodramma senza musica”. In primo luogo, perché non giunsero mai ad essere vestiti di note e ad arrivare in scena; ma anche perché il tentativo di scrivere per il teatro si tinse per Pascoli di toni davvero melodrammatici, nel senso musicale di sconfitta ed annullamento, tanto da fare di quella pagina della sua vita una piccola tragedia lirica, in cui c’erano tante parole e, purtroppo, nessuna musica. Gli abbozzi dei drammi sono abbastanza numerosi; parte di essi è stata pubblicata postuma da Maria Pascoli.1 Il lavoro di pubblicazione è stato poi completato da Antonio De Lorenzi.2 Ho deciso di analizzare solo quattro di questi abbozzi, che io reputo particolarmente significativi per poter cogliere lo sviluppo del pensiero drammatico e della poetica di Pascoli. I drammi che analizzo sono Nell’Anno Mille (con il rifacimento Il ritorno del giullare), Gretchen’s Tochter (con il rifacimento La figlia di Ghita), Elena Azenor la Morta e Aasvero o Caino nel trivio o l’Ebreo Errante. La prima ragione della scelta risiede nel fatto che questi abbozzi presentano una lunghezza più consistente dell’appunto di uno scheletro di dramma registrato su un foglietto e, quindi, si può seguire attraverso di essi il percorso della vicenda, delle dinamiche dei personaggi e dei significati dell’opera. Inoltre, questi drammi mostrano cosa Pascoli intendesse comporre per sollevare le vesti del libretto d’opera e sono funzionali all’esemplificazione delle sue concezioni teoriche sulla musica e il melodramma, idee che egli aveva espresso nelle lettere ad amici e compositori. In questi quattro drammi è possibile cogliere bene le motivazioni della scelta dei soggetti, il loro significato entro la concezione melodrammatica del poeta, il sistema simbolico che soggiace alla creazione delle vicende e dei personaggi e i legami con la poetica pascoliana. Compiere un’analisi di questo tipo significa per me, innanzitutto, risalire alle concezioni melodrammatiche di Pascoli e capire esattamente cosa egli intendesse per dramma musicale e per rinnovamento dello stesso. Pascoli parla di musica e dei suoi tentativi di scrivere per il teatro lirico nelle lettere ai compositori e, sporadicamente, ad alcuni amici (Emma Corcos, Luigi Rasi, Alfredo Caselli). La ricostruzione del pensiero e dell’estetica musicale di Pascoli ha dovuto quindi legarsi a ricerche d’archivio e di materiali inediti o editi solo in parte e, nella maggioranza dei casi, in pubblicazioni locali o piuttosto datate (i primi anni del Novecento). Quindi, anche in presenza della pubblicazione di parte del materiale necessario, quest’ultimo non è certo facilmente e velocemente consultabile e molto spesso è semi sconosciuto. Le lettere di Pascoli a molti compositori sono edite solo parzialmente; spesso, dopo quei primi anni del Novecento, in cui chi le pubblicò poté vederle presso i diretti possessori, se ne sono perse le tracce. Ho cercato di ricostruire il percorso delle lettere di Pascoli a Giacomo Puccini, Riccardo Zandonai, Giovanni Zagari, Alfredo Cuscinà e Guglielmo Felice Damiani. Si tratta sempre di contatti che Pascoli tenne per motivi musicali, legati alla realizzazione dei suoi drammi. O per le perdite prodotte dalla storia (è il 1 Giovanni Pascoli, Nell’Anno Mille. Sue notizie e schemi da altri drammi, a c. di Maria Pascoli, Bologna, Zanichelli, 1924. 2 Giovanni Pascoli, Testi teatrali inediti, a c. di Antonio De Lorenzi, Ravenna, Longo, 1979. caso delle lettere di Pascoli a Zandonai, che andarono disperse durante la seconda guerra mondiale, come ha ricordato la prof.ssa Tarquinia Zandonai, figlia del compositore) o per l’impossibilità di stabilire contatti quando i possessori dei materiali sono privati e, spesso, collezionisti, questa parte delle mie ricerche è stata vana. Mi è stato possibile, però, ritrovare gli interi carteggi di Pascoli e i due Bossi, Marco Enrico e Renzo. Le lettere di Pascoli ai Bossi, di cui do notizie dettagliate nelle pagine relative ai rapporti con i compositori e all’analisi dell’Anno Mille, hanno permesso di cogliere aspetti ulteriori circa il legame forte e meditato che univa il poeta alla musica e al melodramma. Da queste riflessioni è scaturita la prima parte della tesi, Giovanni Pascoli, i musicisti e la musica. I rapporti tra Pascoli e i musicisti sono già noti grazie soprattutto agli studi di De Lorenzi. Ho sentito il bisogno di ripercorrerli e di darne un aggiornamento alla luce proprio dei nuovi materiali emersi, che, quando non sono gli inediti delle lettere di Pascoli ai Bossi, possono essere testi a stampa di scarsa diffusione e quindi poco conosciuti. Il quadro, vista la vastità numerica e la dispersione delle lettere di Pascoli, può subire naturalmente ancora molti aggiornamenti e modifiche. Quello che ho qui voluto fare è stato dare una trattazione storico-biografica, il più possibile completa ed aggiornata, che vedesse i rapporti tra Pascoli e i musicisti nella loro organica articolazione, come premessa per valutare le posizioni del poeta in campo musicale. Le lettere su cui ho lavorato rientrano tutte nel rapporto culturale e professionale di Pascoli con i musicisti e non toccano aspetti privati e puramente biografici della vita del poeta: sono legate al progetto dei drammi teatrali e, per questo, degne di interesse. A volte, nel passato, alcune di queste pagine sono state lette, soprattutto da giornalisti e non da critici letterari, come un breve aneddoto cronachistico da inserire esclusivamente nel quadro dell’insuccesso del Pascoli teatrale o come un piccolo ragguaglio cronologico, utile alla datazione dei drammi. Ricostruire i rapporti con i musicisti equivale nel presente lavoro a capire quanto tenace e meditato fu l’avvicinarsi di Pascoli al mondo del teatro d’opera, quali furono i mezzi da lui perseguiti e le proposte avanzate; sempre ho voluto e cercato di parlare in termini di materiale documentario e archivistico. Da qui il passo ad analizzare le concezioni musicali di Pascoli è stato breve, dato che queste ultime emergono proprio dalle lettere ai musicisti. L’analisi dei rapporti con i compositori e la trattazione del pensiero di Pascoli in materia di musica e melodramma hanno in comune anche il fatto di avvalersi di ricerche collaterali allo studio della letteratura italiana; ricerche che sconfinano, per forza di cose, nella filosofia, estetica e storia della musica. Non sono una musicologa e non è stata mia intenzione affrontare problematiche per le quali non sono provvista di conoscenze approfonditamente adeguate. Comprendere il panorama musicale di quegli anni e i fermenti che si agitavano nel teatro lirico, con esiti vari e contrapposti, era però imprescindibile per procedere in questo cammino. Non sono pertanto entrata negli anfratti della storia della musica e della musicologia, ma ho compiuto un volo in deltaplano sopra quella terra meravigliosa e sconfinata che è l’opera lirica tra Ottocento e Novecento. Molti consigli, per non smarrirmi in questo volo, mi sono venuti da valenti musicologi ed esperti conoscitori della materia, che ho citato nei ringraziamenti e che sempre ricordo con viva gratitudine. Utile per gli studi e fondamentale per questo mio lavoro è stato riunire tutte le dichiarazioni, da me conosciute finora, fornite da Pascoli sulla musica e il melodramma. Ne emerge quella che è la filosofia pascoliana della musica e la base teorica della scrittura dei suoi drammi. Da questo si comprende bene perché Pascoli desiderasse tanto scrivere per il teatro musicale: egli riteneva che questo fosse il genere perfetto, in cui musica e parola si compenetravano. Così, egli era convinto che la sua arte potesse parlare ed arrivare a un pubblico più vasto. Inoltre e soprattutto, egli intese dare, in questo modo, una precisa risposta a un dibattito europeo sul rinnovamento del melodramma, da lui molto sentito. La scrittura teatrale di Pascoli non è tanto un modo per trovare nuove forme espressive, quanto soprattutto un tentativo di dare il suo contributo personale a un nuovo teatro musicale, di cui, a suo dire, l’umanità aveva bisogno. Era quasi un’urgenza impellente. Le risposte che egli trovò sono in linea con svariate concezioni di quegli anni, sviluppate in particolare dalla Scapigliatura. Il fatto poi che il poeta non riuscisse a trovare un compositore disposto a rischiare fino in fondo, seguendolo nelle sue creazioni di drammi tutti interiori, con scarso peso dato all’azione, non significa che egli fosse una voce isolata o bizzarra nel contesto culturale a lui contemporaneo. Si potranno, anche in futuro, affrontare studi sugli elementi di vicinanza tra Pascoli e alcuni compositori o possibili influenze tra sue poesie e libretti d’opera, ma penso non si potrà mai prescindere da cosa egli effettivamente avesse ascoltato e avesse visto rappresentato. Il che, documenti alla mano, non è molto. Solo ciò a cui possiamo effettivamente risalire come dato certo e provato è valido per dire che Pascoli subì il fascino di questa o di quell’opera. Per questo motivo, si trova qui (al termine del secondo capitolo), per la prima volta, un elenco di quali opere siamo certi Pascoli avesse ascoltato o visto: lo studio è stato possibile grazie ai rulli di cartone perforato per il pianoforte Racca di Pascoli, alle testimonianze della sorella Maria circa le opere liriche che il poeta aveva ascoltato a teatro e alle lettere del poeta. Tutto questo è stato utile per l’interpretazione del pensiero musicale di Pascoli e dei suoi drammi. I quattro abbozzi che ho scelto di analizzare mostrano nel concreto come Pascoli pensasse di attuare la sua idea di dramma e sono quindi interpretati attraverso le sue dichiarazioni di carattere musicale. Mi sono inoltre avvalsa degli autografi dei drammi, conservati a Castelvecchio. In questi abbozzi hanno un ruolo rilevante i modelli che Pascoli stesso aveva citato nelle sue lettere ai compositori: Wagner, Dante, Debussy. Soprattutto, Nell’Anno Mille, il dramma medievale sull’ultima notte del Mille, vede la significativa presenza del dantismo pascoliano, come emerge dai lavori di esegesi della Commedia. Da questo non è immune nemmeno Aasvero o Caino nel trivio o l’Ebreo Errante, che è il compimento della figura di Asvero, già apparsa nella poesia di Pascoli e portatrice di un messaggio di rinascita sociale. I due drammi presentano anche una specifica simbologia, connessa alla figura e al ruolo del poeta. Predominano, invece, in Gretchen’s Tochter e in Elena Azenor la Morta le tematiche legate all’archetipo femminile, elemento ambiguo, materno e infero, ma sempre incaricato di tenere vivo il legame con l’aldilà e con quanto non è direttamente visibile e tangibile. Per Gretchen’s Tochter la visione pascoliana del femminile si innesta sulle fonti del dramma: il Faust di Marlowe, il Faust di Goethe e il Mefistofele di Boito. I quattro abbozzi qui analizzati sono la prova di come Pascoli volesse personificare nel teatro musicale i concetti cardine e i temi dominanti della sua poesia, che sarebbero così giunti al grande pubblico e avrebbero avuto il merito di traghettare l’opera italiana verso le novità già percorse da Wagner. Nel 1906 Pascoli aveva chiaramente compreso che i suoi drammi non sarebbero mai arrivati sulle scene. Molti studi e molti spunti poetici realizzati per gli abbozzi gli restavano inutilizzati tra le mani. Ecco, allora, che buona parte di essi veniva fatta confluire nel poema medievale, in cui si cantano la storia e la cultura italiane attraverso la celebrazione di Bologna, città in cui egli era appena rientrato come professore universitario, dopo avervi già trascorso gli anni della giovinezza da studente. Le Canzoni di Re Enzio possono quindi essere lette come il punto di approdo dell’elaborazione teatrale, come il “melodramma senza musica” che dà il titolo a questo lavoro sul pensiero e l’opera del Pascoli teatrale. Già Cesare Garboli aveva collegato il manierismo con cui sono scritte le Canzoni al teatro musicale europeo e soprattutto a Puccini. Alcuni precisi parallelismi testuali e metrici e l’uso di fonti comuni provano che il legame tra l’abbozzo dell’Anno Mille e le Canzoni di Re Enzio è realmente attivo. Le due opere sono avvicinate anche dalla presenza del sostrato dantesco, tenendo presente che Dante era per Pascoli uno dei modelli a cui guardare proprio per creare il nuovo e perfetto dramma musicale. Importantissimo, infine, è il piccolo schema di un dramma su Ruth, che egli tracciò in una lettera della fine del 1906, a Marco Enrico Bossi. La vicinanza di questo dramma e di alcuni degli episodi principali della Canzone del Paradiso è tanto forte ed evidente da rendere questo abbozzo quasi un cartone preparatorio della Canzone stessa. Il Medioevo bolognese, con il suo re prigioniero, la schiava affrancata e ancella del Sole e il giullare che sulla piazza intona la Chanson de Roland, costituisce il ritorno del dramma nella poesia e l’avvento della poesia nel dramma o, meglio, in quel continuo melodramma senza musica che fu il lungo cammino del Pascoli librettista.