31 resultados para bench-kokoluokka

em AMS Tesi di Dottorato - Alm@DL - Università di Bologna


Relevância:

20.00% 20.00%

Publicador:

Resumo:

in the everyday clinical practice. Having this in mind, the choice of a simple setup would not be enough because, even if the setup is quick and simple, the instrumental assessment would still be in addition to the daily routine. The will to overcome this limit has led to the idea of instrumenting already existing and widely used functional tests. In this way the sensor based assessment becomes an integral part of the clinical assessment. Reliable and validated signal processing methods have been successfully implemented in Personal Health Systems based on smartphone technology. At the end of this research project there is evidence that such solution can really and easily used in clinical practice in both supervised and unsupervised settings. Smartphone based solution, together or in place of dedicated wearable sensing units, can truly become a pervasive and low-cost means for providing suitable testing solutions for quantitative movement analysis with a clear clinical value, ultimately providing enhanced balance and mobility support to an aging population.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Durante il secolo scorso sono state individuate alcune mutazioni per il colore della buccia della varietà William che invece di essere giallo arriva a maturazione con diverse tonalità di colore rosso. L’intensità e la tipologia del fenotipo dovuto a questa mutazione mostra una variabilità all’interno dei diversi cloni rossi di questa cultivar: Max Red Bartlett, Rosired e Sensation. Questa mutazione è ereditabile e usando come genitore uno dei sopra-citati mutanti per il rosso sono state prodotte altre cultivar caratterizzate da buccia rossa come Cascade. Max Red Bartlett presenta una intensa colorazione rossa nelle prime fasi di maturazione per poi striarsi perdendo di lucentezza e non ricoprendo totalmente la superficie del frutto. Max Red Bartlett ha inoltre il problema di regressione del colore. Questa mutazione infatti non è stabile e dopo qualche anno può regredire e presentare il fenotipo di William. Diverso è invece lo sviluppo per esempio di Rosired che durante le prime fasi di accrescimento del frutto è identica a Williams (di colore verde con la parte del frutto rivolta verso il sole leggermente rossastra) per poi virare e mantenere un vivo colore rosso su tutta la superficie del frutto. Questa tesi si è proposta di caratterizzare questa mutazione che coinvolge in qualche modo la via biosintetica per la sintesi del colore. In particolare si è cercato di investigare sui probabili geni della via degli antociani coinvolti e in quale modo vengono espressi durante la maturazione del frutto, inoltre si è cercato di trovare quali specifiche molecole venissero diversamente sintetizzate. Le cultivar utilizzate sono state William e Max Red Bartlett. Di quest’ultima era già disponibile una mappa molecolare, ottenuta sulla popolazione di’incrocio di Abate Fetel (gialla) x MRB (rossa) con AFLP e SSR, quest’ultimi hanno permesso di denominare i diversi linkage group grazie alla sintenia con le altre mappe di pero e di melo. I semenzali appartenenti a questa popolazione, oltre a dimostrare l’ereditarietà del carattere, erano per il 50% gialli e 50% rossi. Questo ha permesso il mappaggio di questo carattere/mutazione che si è posizionato nel linkage group 4. Una ricerca in banca dati eseguita in parallelo ha permesso di trovare sequenze di melo dei geni coinvolti nella via biosintetica degli antociani (CHS, CHI, F3H, DFR, ANS e UFGT), sulle quali è stato possibile disegnare primer degenerati che amplificassero su DNA genomico di pero. Le amplificazioni hanno dato frammenti di lunghezza diversa. Infatti nel caso di F3H e DFR l’altissima omologia tra melo e pero ha permesso l’amplificazione quasi totale del gene, negli altri casi invece è stato necessario utilizzare primer sempre più vicini in modo da facilitare l’amplificazione. I frammenti ottenuti sono stati clonati sequenziati per confermare la specificità degli amplificati. Non sono stati evidenziati polimorfismi di sequenza in nessuna delle sei sequenze tra William e Max Red Bartlett e nessun polimorfismo con Abate, per questo motivo non è stato possibile mapparli e vedere se qualcuno di questi geni era localizzato nella medesima posizione in cui era stato mappato il “colore/mutazione”. Sulle le sequenze ottenute è stato possibile disegnare altri primer, questa volta specifici, sia per analisi d’espressione. Inizialmente è stato sintetizzato il cDNA dei geni suddetti per retrotrascrizione da RNA estratto sia da bucce sia da foglie appena germogliate (le quali presentano solo in questa fase una colorazione rossastra in MRB ma non in William). Al fine di osservare come varia l’espressione dei geni della via biosintetica delle antocianine durante la fase di maturazione dei frutti, sono stati fatti 4 campionamenti, il primo a 45gg dalla piena fioritura, poi a 60, 90, 120 giorni. Foglie e bucce sono state prelevate in campo e poste immediatamente in azoto liquido. Dai risultati con Real Time è emerso che vi è una maggiore espressione nelle prime fasi di sviluppo in Max Red Bartlett per poi calare enormemente in giugno. Si potrebbe ipotizzare che ci sia una reazione di feed back da parte della piante considerando che in questa fase il frutto non si accresce. I livelli di espressione poi aumentano verso la fase finale della maturazione del frutto. In agosto, con l’ultimo campionamento vi è una espressione assai maggiore in Max Red Bartlett per quei geni posti a valle della via biosintetica per la sintesi delle antocianine. Questo risultato è confermato anche dal livello di espressione che si riscontra nelle foglie. In cui i geni F3H, LDOX e UFGT hanno un livello di espressione nettamente maggiore in Max Red Bartlett rispetto a William. Recentemente Takos et al (2006) hanno pubblicato uno studio su un gene regolatore della famiglia Myb e ciò ha permesso di ampliare i nostri studi anche su questo gene. L’altissima omologia di sequenza, anche a livello di introni, non ha permesso di individuare polimorfismi tra le varietà Abate Fetel e Max Red Bartlett, per nessun gene ad eccezione proprio del gene regolatore Myb. I risultati ottenuti in questa tesi dimostrano che in pero l’espressione relativa del gene Myb codificante per una proteina regolatrice mostra una netta sovra-espressione nel primo stadio di maturazione del frutto, in Max Red Bartlett 25 volte maggiore che in William. All’interno della sequenza del gene un polimorfismo prodotto da un microsatellite ha permesso il mappaggio del gene nel linkage group 9 in Max Red Bartlett e in Abate Fetel. Confrontando questo dato di mappa con quello del carattere morfologico rosso, mappato nel linkage group 4, si deduce che la mutazione non agisce direttamente sulla sequenza di questo gene regolatore, benché sia espresso maggiormente in Max Red Bartlett rispetto a William ma agisca in un altro modo ancora da scoprire. Infine per entrambe le varietà (William e Max Red Bartlett) sono state effettuate analisi fenotipiche in diversi step. Innanzi tutto si è proceduto con una analisi preliminare in HPLC per osservare se vi fossero differenze nella produzione di composti con assorbenza specifica delle antocianine e dei flavonoidi in generale. Si è potuto quindi osservare la presenza di due picchi in Max Red Bartlett ma non in William. La mancanza di standard che coincidessero con i picchi rilevati dallo spettro non ha permesso in questa fase di fare alcuna ipotesi riguardo alla loro natura. Partendo da questo risultato l’investigazione è proceduta attraverso analisi di spettrometria di massa associate ad una cromatografia liquida identificando con una certa precisione due composti: la cianidina-3-0-glucoside e la quercitina-3-o-glucoside. In particolare la cianidina sembra essere la molecola responsabile della colorazione della buccia nei frutti di pero. Successive analisi sono state fatte sempre con lo spettrometro di massa ma collegato ad un gas cromatografo per verificare se vi fossero delle differenze anche nella produzione di zuccheri e più in generale di molecole volatili. L’assenza di variazioni significative ha dimostrato che la mutazione coinvolge solo il colore della buccia e non le caratteristiche gustative e organolettiche di William che restano inalterate nel mutante.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

E’ stato in primo luogo definito il criterio di efficienza dal punto di vista economico (con una accenno anche ai parametri elaborati dagli studiosi di discipline aziendali), nelle sue varie accezioni, ponendo altresì ciascuna di queste in relazione alle condizioni di concorrenza perfetta. Le nozioni di efficienza che sono state definite a tal fine sono quelle di efficienza allocativa, efficienza tecnica, efficienza dinamica ed efficienza distributiva. Ciascuna di esse é stata inquadrata a livello teorico secondo le definizioni fornite dalla letteratura, esaminandone le ipotesi sottostanti. E’ stata altresì descritta, contestualizzandola temporalmente, l’evoluzione della nozione, e ne sono state evidenziate le implicazioni ai fini della ricerca della forma di mercato più “efficiente”. Sotto quest’ultimo aspetto l’attenzione dello scrivente si é incentrata sul rapporto tra le diverse accezioni di efficienza economica oggetto di analisi e la desiderabilità o meno di un regime di concorrenza perfetta. Il capitolo si conclude con una breve panoramica sulle metodologie di misurazione finalizzata ad individuare i principali parametri utilizzati per determinare il livello di efficienza, di un mercato, di un’attività produttiva o di un’impresa, posto che, come verrà specificato nel prosieguo della tesi, la valutazione di efficienza in ambito antitrust deve essere verificata, ove possibile, anche basandosi sull’evidenza empirica delle singole imprese esaminate, come richiede il criterio della rule of reason. Capitolo 2 Presupposto per avere una regolazione che persegua l’obiettivo di avere una regolazione efficiente ed efficace, è, a parere di chi scrive, anche l’esistenza di autorità pubbliche deputate a esercitare la funzione regolatoria che rispettino al proprio interno e nel proprio agire la condizione di efficienza definita rispetto ai pubblici poteri. Lo sviluppo di questa affermazione ha richiesto in via preliminare, di definire il criterio di efficienza in ambito pubblicistico individuandone in particolare l’ambito di applicazione, il suo rapporto con gli altri principi che reggono l’azione amministrativa (con particolare riferimento al criterio di efficacia). Successivamente é stato collocato nel nostro ordinamento nazionale, ponendolo in relazione con il principio di buon andamnento della Pubblica Amministrazione, benchè l’ordinamento italiano, per la sua specificità non costituisca un esempio estendibile ad ordinamenti. Anche con riferimento al criterio di efficienza pubblica, un paragrafo é stato dedicato alle metodologie di misurazione di questa, e, nello specifico sull’Analisi Costi-Benefici e sull’Analisi di Impatto della Regolazione Una volta inquadrata la definizione di efficienza pubblica, questa é stata analizzata con specifico riferimento all’attività di regolazione dell’economia svolta dai soggetti pubblici, ambito nella quale rientra la funzione antitrust. Si é provato in particolare ad evidenziare, a livello generale, quali sono i requisiti necessari ad un’autorità amministrativa antitrust, costituita e dotata di poteri ad hoc, affinché essa agisca, nella sua attività di regolazione, secondo il principio di efficienza, Il capitolo si chiude allargando l’orizzonte della ricerca verso una possibile alternativa metodologica al criterio di efficienza precedentemente definito: vi si é infatti brevemente interrogati circa lo schema interpretativo nel quale ci muoviamo, affrontando la questione definitoria del criterio di efficienza, ponendolo in relazione con l’unico modello alternativo esistente, quello sviluppatosi nella cultura cinese. Non certo per elaborare un’applicazione in “salsa cinese” del criterio di efficienza alla tutela della concorrenza, compito al quale lo scrivente non sarebbe stato in grado di ottemperare, bensì, più semplicemente per dare conto di un diverso approccio alla questione che il futuro ruolo di superpotenza economica della Cina imporrà di prendere in considerazione. Capitolo 3 Nel terzo capitolo si passa a definire il concetto di concorrenza come istituto oggetto di tutela da parte della legge antitrust, per poi descrivere la nascita e l’evoluzione di tale legislazione negli Stati Uniti e della sua applicazione, posto che il diritto antitrust statunitense ancora oggi costituisce il necessario punto di riferimento per lo studioso di questa materia. L’evoluzione del diritto antitrust statunitense é stata analizzata parallelamente allo sviluppo delle principali teorie di law and economics che hanno interpretato il diritto della concorrenza quale possibile strumento per conseguire l’obiettivo dell’efficienza economica: la Scuola di Harvard e il paradigma strutturalista, la teoria evoluzionista della Scuola Austriaca, la Scuola di Chicago; le c.d. teorie “Post-Chicago”. Nel terzo capitolo, in altri termini, si é dato conto dell’evoluzione del pensiero economico con riferimento alla sua applicazione al diritto antitrust, focalizzando l’attenzione su quanto avvenuto negli Stati Uniti, paese nel quale sono nati sia l’istituto giuridico della tutela della concorrenza sia l’analisi economica del diritto. A conclusione di questa ricostruzione dottrinale ho brevemente esaminato quelle che sono le nuove tendenze dell’analisi economica del diritto, e specificatamente la teoria del comportamento irrazionale, benché esse non abbiano ancora ricevuto applicazione al diritto antitrust. Chi scrive ritiene infatti che queste teorie avranno ricadute anche in questa materia poiché essa costituisce uno dei principali ambiti applicativi della law and economics. Capitolo 4 Nel quarto capitolo é stata effettuata una disanima della disciplina comunitaria antitrust sottolineando come l’Unione Europea si proponga attraverso la sua applicazione, soprattutto in materia di intese, di perseguire fini eterogenei, sia economici che non economici, tra loro diversi e non di rado contrastanti, e analizzando come questa eterogeneità di obiettivi abbia influito sull’applicazione del criterio di efficienza. Attenendomi in questo capitolo al dato normativo, ho innanzitutto evidenziato l’ampiezza dell’ambito di applicazione della disciplina comunitaria antitrust sia dal punto di vista soggettivo che territoriale (dottrina dell’effetto utile), sottolineando come la norma giustifichi esplicitamente il ricorso al criterio di efficienza solo nella valutazione delle intese: il comma 3 dell’art. 81 del Trattato include, infatti, tra i requisiti di una possibile esenzione dall’applicazione del divieto per le intese qualificate come restrittive della concorrenza, la possibilità di ottenere incrementi di efficienza tecnica e/o dinamica attraverso l’implementazione delle intese in questione. Tuttavia la previsione da parte dello stesso art. 81 (3) di altri requisiti che devono contemporaneamente essere soddisfatti affinché un intesa restrittiva della concorrenza possa beneficiare dell’esenzione, nonché la possibile diversa interpretazione della locuzione “progresso tecnico ed economico”, impone, o comunque ammette, il perseguimento di altri obiettivi, contestualmente a quello dell’efficienza, giustificando così quell’eterogeneità dei fini che contraddistingue la politica della concorrenza dell’Unione Europea. Se la disciplina delle intese aiuta a comprendere il ruolo del criterio di efficienza nell’applicazione dei precetti antitrust da parte degli organi comunitari, l’art. 82 del Trattato non contiene invece alcun riferimento alla possibilità di utilizzare il criterio di efficienza nella valutazione delle condotte unilaterali poste in essere da imprese in posizione dominante sul mercato rilevante. Si è peraltro dato conto della consultazione recentemente avviata dalla Commissione Europea finalizzata all’elaborazione di Linee Guida che definiscano i criteri di interpretazione che l’organo comunitario dovrà seguire nella valutazione dei comportamenti unilaterali. A parere dello scrivente, anzi, l’assenza di un preciso schema cui subordinare la possibilità di ricorrere al criterio di efficienza nella valutazione della fattispecie, attribuisce alle autorità competenti un più ampio margine di discrezionalità nell’utilizzo del suddetto criterio poiché manca il vincolo della contestuale sussistenza delle altre condizioni di cui all’art. 81(3). Per quanto concerne infine la disciplina delle concentrazioni, essa, come abbiamo visto, prevede un riferimento ai possibili incrementi di efficienza (tecnica e dinamica) derivanti da operazioni di fusione, utilizzando la nozione utilizzata per le intese, così come nel precedente Regolamento 4064/89. Si é infine analizzato il nuovo Regolamento in materia di concentrazioni che avrebbe potuto costituire l’occasione per recepire nella disciplina comunitaria l’attribuzione della facoltà di ricorrere all’efficiency defense in presenza di una fattispecie, quella della fusione tra imprese, suscettibile più di altre di essere valutata secondo il criterio di efficienza, ma che si é invece limitato a riprendere la medesima locuzione presente nell’art. 81(3). Il capitolo attesta anche l’attenzione verso l’istanza di efficienza che ha riguardato il meccanismo di applicazione della norma antitrust e non il contenuto della norma stessa; a questo profilo attiene, infatti, l’innovazione apportata dal Regolamento 1/2003 che ha permesso, a parere dello scrivente, un’attribuzione più razionale della competenza nella valutazione dei casi tra la Commissione e le autorità nazionali degli Stati membri; tuttavia pone alcune questioni che investono direttamente il tema dei criteri di valutazione utilizzati dalle autorità competenti. Capitolo 5 L’analisi del quarto capitolo é stata condotta, sebbene in forma più sintetica, con riferimento alle normative antitrust dei principali Stati membri della Comunità Europea (Germania, Gran Bretagna, Spagna, Francia e Italia), rapportando anche queste al criterio di efficienza, ove possibile. Particolare attenzione é stata dedicata ai poteri e alle competenze attribuite alle autorità nazionali antitrust oggetto di studio dall’ordinamento giuridico cui appartengono e al contesto, in termini di sistema giuridico, nel quale esse operano. Capitolo 6 Si é provato ad effettuare una valutazione del livello di efficienza delle autorità prese in esame, la Commissione e le diverse autorità nazionali e ciò con particolare riferimento alla idoneità di queste a svolgere i compiti istituzionali loro affidati (criterio di efficienza dal punto di vista giuridico): affinchè un’autorità si possa ispirare al criterio di efficienza economica nell’adozione delle decisioni, infatti, è preliminarmente necessario che essa sia idonea a svolgere il compito che le è stato affidato dall’ordinamento. In questo senso si é osservata la difficoltà dei paesi di civil law a inquadrare le autorità indipendenti all’interno di un modello, quello appunto di civil law, ispirato a una rigida tripartizione dei poteri. Da qui la difficile collocazione di queste autorità che, al contrario, costituiscono un potere “ibrido” che esercita una funzione di vigilanza e garanzia non attribuibile integralmente né al potere esecutivo né a quello giurisdizionale. Si rileva inoltre una certa sovrapposizione delle competenze e dei poteri tra autorità antitrust e organi ministeriali, in particolare nel campo delle concentrazioni che ingenera un rischio di confusione e bassa efficienza del sistema. Mantenendo, infatti, un parziale controllo politico si rischia, oltre all’introduzione di criteri di valutazione politica che prescindono dagli effetti delle fattispecie concrete sul livello di concorrenza ed efficienza del mercato, anche di dare luogo a conflitti tra le diverse autorità del sistema che impediscano l’adozione e l’implementazione di decisioni definitive, incrementando altresì i costi dell’intervento pubblico. Un giudizio a parte è stato infine formulato con riguardo alla Commissione Europea, istituzione, in quanto avente caratteristiche e poteri peculiari. Da un lato l’assenza di vincolo di mandato dei Commissari e l’elevata preparazione tecnica dei funzionari costituiscono aspetti che avvicinano la Commissione al modello dell’autorità indipendenti, e l’ampiezza dei poteri in capo ad essa le permette di operare efficientemente grazie anche alla possibilità di valersi dell’assistenza delle autorità nazionali. Dall’altra parte, tuttavia la Commissione si caratterizza sempre di più come un organo politico svolgente funzioni esecutive, di indirizzo e di coordinamento che possono influenzare gli obiettivi che essa persegue attraverso l’attività antitrust, deviandola dal rispetto del criterio di efficienza. Capitolo 7 Una volta definito il contesto istituzionale di riferimento e la sua idoneità a svolgere la funzione affidatagli dall’ordinamento comunitario, nonché da quelli nazionali, si è proceduto quindi all’analisi delle decisioni adottate da alcune delle principali autorità nazionali europee competenti ad applicare la disciplina della concorrenza dal punto di vista dell’efficienza. A tal fine le fattispecie rilevanti a fini antitrust dal punto di vista giuridico sono state classificate utilizzando un criterio economico, individuando e definendo quelle condotte che presentano elementi comuni sotto il profilo economico e per ciascuna di esse sono state inquadrate le problematiche rilevanti ai fini dell’efficienza economica sulla scorta dei contributi teorici e delle analisi empiriche svolte dalla letteratura. 6 Con riferimento a ciascuna condotta rilevante ho esaminato il contenuto di alcune delle decisioni antitrust più significative e le ho interpretate in base al criterio di efficienza. verificando se e in quale misura le autorità antitrust prese in esame utilizzano tale criterio, cercando altresì di valutare l’evoluzione dei parametri di valutazione occorsa nel corso degli anni. Le decisioni analizzate sono soprattutto quelle adottate dalla Commissione e le eventuali relative sentenze della Corte di Giustizia Europea; ciò sia per la maggior rilevanza dei casi trattati a livello comunitario, sia in quanto le autorità nazionali, con qualche rara eccezione, si conformano generalmente ai criteri interpretativi della Commissione. Riferimenti a decisioni adottate dalle autorità nazionali sono stati collocati allorquando i loro criteri interpretativi si discostino da quelli utilizzati dagli organi comunitari. Ne è emerso un crescente, anche se ancora sporadico e incostante, ricorso al criterio di efficienza da parte degli organi europei preposti alla tutela della concorrenza. Il tuttora scarso utilizzo del criterio di efficienza nello svolgimento dell’attività antitrust è motivato, a parere di chi scrive, in parte dall’eterogeneità degli obiettivi che l’Unione Europea persegue attraverso la politica della concorrenza comunitaria (completamento del mercato unico, tutela del consumatore, politica industriale, sviluppo delle aree svantaggiate), in parte dall’incapacità (o dall’impossibilità) delle autorità di effettuare coerenti analisi economiche delle singole fattispecie concrete. Anche le principali autorità nazionali mostrano una crescente propensione a tendere conto dell’efficienza nella valutazione dei casi, soprattutto con riferimento agli accordi verticali e alle concentrazioni, sulla scia della prassi comunitaria. Più innovativa nell’applicazione del criterio di efficienza economica così come nella ricerca di uso ottimale delle risorse si è finora dimostrato l’OFT, come vedremo anche nel prossimo capitolo. Al contrario sembra più lenta l’evoluzione in questo senso dell’Ufficio dei Cartelli tedesco sia a causa delle già citate caratteristiche della legge antitrust tedesca, sia a causa del persistente principio ordoliberale della prevalenza del criterio della rule of law sulla rule of reason. Peraltro, anche nei casi in cui le Autorità siano propense ad utilizzare il criterio di efficienza nelle loro valutazioni, esse si limitano generalmente ad un’analisi teorica dell’esistenza di precondizioni che consentano alle imprese in questione di ottenere guadagni di efficienza. La sussistenza di tali pre-condizioni viene infatti rilevata sulla base della capacità potenziale della condotta dell’impresa (o delle imprese) di avere un effetto positivo in termini di efficienza, nonché sulla base delle caratteristiche del mercato rilevante. Raramente, invece, si tiene conto della capacità reale dei soggetti che pongono in essere la pratica suscettibile di essere restrittiva della concorrenza di cogliere effettivamente queste opportunità, ovvero se la struttura e l’organizzazione interna dell’impresa (o delle imprese) non è in grado di mettere in pratica ciò che la teoria suggerisce a causa di sue carenza interne o comunque in ragione delle strategie che persegue. Capitolo 8 Poiché l’approccio ispirato al criterio di efficienza economica non può prescindere dalle caratteristiche del settore e del mercato in cui operano l’impresa o le imprese che hanno posto in essere la condotta sotto esame, e poiché una valutazione approfondita di tutti i settori non era effettuabile per quantità di decisioni adottate dalle autorità, ho infine ritenuto di svolgere un’analisi dettagliata dell’attività delle autorità con riferimento ad uno specifico settore. La scelta è caduta sul settore dei trasporti in quanto esso presenta alcune problematiche che intrecciano l’esigenza di efficienza con la tutela della concorrenza, nonché per la sua importanza ai fini dello sviluppo economico. Tanto più alla luce del fenomeno della crescente apertura dei mercati che ha enfatizzato la triplice funzione dei trasporti di merci, di livellamento nello spazio dei prezzi di produzione, di redistribuzione nello spazio dell’impiego dei fattori della produzione, e soprattutto di sollecitazione al miglioramento delle tecnologie utilizzate nella produzione stessa in quanto contribuiscono alla divisione territoriale del lavoro e alla specializzazione produttiva. A loro volta, d’altra parte, i miglioramenti tecnici e organizzativi intervenuti nel settore negli ultimi trenta anni hanno reso possibile il fenomeno della globalizzazione nella misura in cui lo conosciamo. Così come le riduzioni di costo e di tempo conseguite nel trasporto di persone hanno consentito massicci spostamenti di lavoratori e più in generale di capitale umano da una parte all’altra del globo, e favorito altresì la spettacolare crescita del settore turistico. Ho quindi condotto un’analisi delle decisioni antitrust relative al settore dei trasporti, suddividendo la casistica in base al comparto al quale esse si riferivano, cercando sempre di non perdere di vista i crescenti legami che esistono tra i vari comparti alla luce dell’ormai affermato fenomeno del trasporto multimodale. Dall’analisi svolta emerge innanzitutto come l’assoggettamento del settore dei trasporti alla disciplina di tutela della concorrenza sia un fenomeno relativamente recente rispetto alle altre attività economiche, laddove la ragione di tale ritardo risiede nel fatto che tradizionalmente questo settore era caratterizzato da un intervento pubblico diretto e da una pervasiva regolamentazione, a sua volta giustificata da vari fattori economici: le caratteristiche di monopolio naturale delle infrastrutture; le esigenze di servizio pubblico connesse all’erogazione di molti servizi di trasporto; il ruolo strategico svolto dal trasporto sia di persone che di merci ai fini della crescita economica di un sistema. Si concretizza, inoltre, con riferimento ai trasporti marittimi e aerei, l’inadeguatezza della dimensione nazionale e comunitaria delle autorità competenti rispetto a comportamenti di impresa che spesso hanno effetti letteralmente globali. Le imprese marittime e aeree coinvolte nelle fattispecie da noi esaminate, infatti, in molti casi predisponevano, direttamente o mediatamente, tramite “alleanze”, collegamenti tra tutte le aree del mondo, individuando nell’Europa solo un nodo di un network ben più ampio Da questa constatazione discende, a parere dello scrivente, l’impossibilità per l’autorità comunitaria e ancor più per quella nazionale di individuare tutti gli effetti in termini di efficienza che la fattispecie concreta può provocare, non includendo pertanto solo quelli evidenti sul mercato comunitario. Conseguentemente una reale applicazione del criterio di efficienza all’attività antitrust nel settore dei trasporti non può prescindere da una collaborazione tra autorità a livello mondiale sia a fini di indagine che a fini di individuazione di alcuni principi fondamentali cui ispirarsi nello svolgimento della loro missione istituzionale. Capitolo 9. Conclusioni L’opera si chiude con l’individuazione delle evidenze e degli elementi emersi dalla trattazione considerati dallo scrivente maggiormente rilevanti nell’ambito dell’attuale dibattito di economia positiva circa le principali problematiche che affiggono l’intervento antitrust con particolare riferimento al suo rispetto del criterio di efficienza. Sono state altresì proposte alcune soluzioni a quelle che sono, a parere dello scrivente, le principali carenze dell’attuale configurazione dell’intervento antitrust a livello europeo, sempre in una prospettiva di efficienza sia delle autorità competenti sia dei mercati in cui le autorità stesse cercano di mantenere o ripristinare condizioni di concorrenza effettiva. Da un lato il modello costituito dalla Commissione Europea, l’autorità antitrust comunitaria, non replicabile né esente da critiche: la Commissione, infatti, rappresenta il Governo dell’Unione Europea e come tale non può ovviamente costituire un esempio di autorità indipendente e neutrale recepibile da parte degli Stati membri. Ciò anche a prescindere dalla questione della sua legittimazione, che in questa sede non affrontiamo. Dall’altro in una prospettiva di efficienza dei mercati la crescente applicazione delle teorie economiche da parte delle autorità esaminate è rimasta a un livello astratto, senza porre la dovuta attenzione alle specificità dei mercati rilevanti né tantomeno alle dinamiche interne alle singole imprese, con particolare riferimento alla loro capacità di rendere effettivi i guadagni di efficienza individuabili a livello potenziale, così come prescrive la più recente teoria economica applicata al diritto antitrust. Sotto il profilo dell’applicazione del criterio di efficienza si può comunque affermare che l’evoluzione che ha avuto la prassi decisionale e la giurisprudenza, comunitaria e degli Stati membri, in materia antitrust è stata caratterizzata dal loro progressivo avvicinamento alle tendenze sviluppatesi nelle agencies e nella giurisprudenza statunitense a partire dagli anni’70, caratterizzate dalla valutazione degli effetti, piuttosto che della forma giuridica, dal riconoscimento del criterio di efficienza e dalla rule of reason quale approccio metodologico. L’effetto è stato quello di determinare una significativa riduzione delle differenze inizialmente emerse tra le due esperienze, nate inizialmente sotto diverse prospettive politiche. Per quanto concerne specificatamente i trasporti sono emersi sotto il profilo economico due aspetti rilevanti, oltre al perdurante ritardo con cui il processo di liberalizzazione del trasporto ferroviario che limita fortemente l’intervento antitrust nel comparto, ma che esula dalla competenza delle stesse autorità antitrust. Il primo consiste nella spesso troppo rigida separazione tra comparti adottata dalle autorità. Il secondo è l’estensivo ricorso all’essential facility doctrine nelle fattispecie riguardanti infrastrutture portuali e aeroportuali: la massimizzazione dell’efficienza dinamica consiglierebbe in questi casi una maggiore cautela, in quanto si tratta di un paradigma che, una volta applicato, disincentiva la duplicazione e l’ampliamento di tali infrastrutture autoalimentandone il carattere di essenzialità. Ciò soprattutto laddove queste infrastrutture possono essere sostituite o duplicate piuttosto facilmente da un punto di vista tecnico (meno da un punto di vista economico e giuridico), essendo esse nodi e non reti. E’stata infine sottolineata l’inadeguatezza della dimensione nazionale e comunitaria delle autorità competenti rispetto a comportamenti di impresa che con riferimento ai trasporti marittimi ed aerei hanno effetti letteralmente globali. E’ di tutta evidenza che le autorità comunitarie e tantomeno quelle nazionali non sono da sole in grado di condurre le analisi quantitative necessarie ad una valutazione di tali condotte ispirata a un criterio di efficienza che tenga conto degli effetti di lungo periodo della fattispecie concreta. Né tali autorità sono sufficientemente neutre rispetto alla nazionalità delle imprese indagate per poter giudicare sulla liceità o meno della condotta in questione senza considerare gli effetti della loro decisione sull’economia interna, rendendo così ancora più improbabile un corretto utilizzo del criterio di efficienza. Da ultimo ho constatato come l’applicazione del concetto di efficienza giuridica imporrebbe di concepire autorità antitrust del tutto nuove, sganciate quanto più possibile dall’elemento territoriale, in grado di elaborare regole e standards minimi comuni e di permettere il controllo dei comportamenti di impresa in un contesto ampliato rispetto al tradizionale mercato unico, nonchè ai singoli mercati nazionali. Il processo di armonizzazione a livello globale è difficile e il quadro che attualmente viene formato è ancora confuso e incompleto. Vi sono tuttavia sparsi segnali attraverso i quali é possibile intravedere i lineamenti di una futura global governance della concorrenza che permetterà, sperabilmente, di incrementare l’efficienza di un sistema, quello antitrust, che tanto più piccolo è l’ambito in cui opera quanto più si sta dimostrando inadeguato a svolgere il compito affidatogli. Solo il futuro, peraltro, ci consentirà di verificare la direzione di sviluppo di questi segnali.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La definizione di “benessere animale” e le modalità di determinazione di tale parametro sono ancora ampiamente dibattute. C’è, però, una generale concordanza sul fatto che una condizione di malessere dia origine a variazioni fisiologiche e comportamentali che possono essere rilevate e misurate. Tra i parametri endocrini, il più studiato è, senza dubbio, il cortisolo, in quanto connesso con l’attivazione dell’asse ipotalamico-pituitario-surrenale in condizioni di stress e quindi ritenuto indicatore ideale di benessere, benché debba essere utilizzato con cautela in quanto un aumento dei livelli di questo ormone non si verifica con ogni tipo di stressor. Inoltre, si deve considerare che la raccolta del campione per effettuare le analisi, spesso implica il confinamento ed il contenimento degli animali e può essere, quindi, essa stessa un fattore stressante andando ad alterare i risultati. Alla luce delle suddette conoscenze gli obiettivi scientifici di questa ricerca, condotta sul gatto e sul cane, sono stati innanzitutto validare il metodo di dosaggio di cortisolo dal pelo e stabilire se tale dosaggio può rappresentare un indicatore, non invasivo, di benessere dell’animale (indice di “stress cronico”). In seguito, abbiamo voluto individuare i fattori di stress psico-sociale in gatti che vivono in gattile, in condizioni di alta densità, analizzando i correlati comportamentali ed ormonali dello stress e del benessere in questa condizione socio-ecologica, ricercando, in particolare, l’evidenza ormonale di uno stato di stress prolungato e la messa in atto di strategie comportamentali di contenimento dello stesso e il ruolo della marcatura visivo-feromonale, inoltre abbiamo effettuato un confronto tra oasi feline di diversa estensione spaziale per valutare come varia lo stress in rapporto allo spazio disponibile. Invece, nel cane abbiamo voluto evidenziare eventuali differenze dei livelli ormonali tra cani di proprietà e cani di canili, tra cani ospitati in diversi canili e tra cani che vivono in diverse realtà familiari; abbiamo voluto valutare gli effetti di alcuni arricchimenti sui cani di canile ed, infine, abbiamo analizzato cani sottoposti a specifici programmi si addestramento. Il primo importante ed originale risultato raggiunto, che risponde al primo obiettivo della ricerca, è stato la validazione del dosaggio radioimmunologico di cortisolo in campioni di pelo. Questo risultato, a nostro avviso, apre una nuova finestra sul campo della diagnostica endocrinologica metabolica. Attualmente, infatti, il monitoraggio ormonale viene effettuato su campioni ematici la cui raccolta prevede un elevato stress (stress da prelievo) per l’animale data l'invasività dell'operazione che modifica l’attività di ipotalamo-ipofisi-surrene e, dunque, provoca repentine alterazioni delle concentrazioni ormonali. Questa metodica offre, quindi, il vantaggio dell’estrema semplicità di raccolta del campione e, in più, il bassissimo costo del materiale utilizzato. Dalle ricerche condotte sui gatti di gattile sono scaturite preziose indicazioni per future indagini sullo stress e sul comportamento sociale felino. I risultati dell’analisi congiunta del comportamento e delle concentrazioni ormonali hanno evidenziato che la disponibilità di postazioni di marcatura visivo-feromonale ha un effetto positivo sia sugli indicatori comportamentali, sia su quelli ormonali di stress. I risultati dell’analisi delle concentrazioni di cortisolo, derivanti dal confronto tra sette oasi feline di diversa estensione spaziale hanno permesso di evidenziare un aumento dei livelli dell’ormone inversamente proporzionale allo spazio disponibile. Lo spazio disponibile, però, non è l’unico fattore da prendere in considerazione al fine di assicurare il benessere dell’animale infatti, nelle colonie che presentavano instabilità sociale e variabilità territoriale il cortisolo aveva valori elevati nonostante le notevoli disponibilità di spazio. Infine, si è potuto costatare come anche lo stare appartati, aumenti proporzionalmente con l’aumentare dello spazio. Questo comportamento risulta essere molto importante in quanto mitiga lo stress ed è da prendere in considerazione nell’allestimento di colonie feline. Infatti, nelle colonie di dimensioni ridotte dove lo stress è già alto, l’impossibilità dei soggetti di appartarsi può contribuire a peggiorare la situazione; ecco perché si dovrebbero creare luoghi artificiali per fornire ai gatti la possibilità di appartarsi, magari sfruttando gli spazi sopraelevati (tetti, alberi, ecc.). Per quanto riguarda il confronto tra cani di proprietà e cani di canile non sono state evidenziate differenze significative nei livelli di cortisolo nel pelo mentre abbiamo rilevato che quest’ultimi sono influenzati dalla disponibilità di spazio: infatti sia i cani di proprietà che vivevano in giardino, sia i cani dei canili che praticavano lo sgambamento presentavano livelli di cortisolo nel pelo più bassi rispetto, rispettivamente, ai cani di proprietà che vivevano in appartamento o appartamento/giardino e a quelli di canile che non praticavano lo sgambamento. L’arricchimento ambientale fornito ai cani di canile ha esercitato un’influenza positiva riducendo i livelli di cortisolo e migliorando la docilità dei soggetti, favorendone un’eventuale adozione. Si è inoltre messo in luce che i programmi di addestramento, eseguiti con tecniche “gentili”, non comportano situazioni stressanti per l’animale e aiutano i cani ad esprimere doti di equilibrio che rimarrebbero altrimenti celate dagli aspetti più istintivi del carattere. D’altra parte, l’impegno agonistico prima di una competizione e il livello di addestramento raggiunto dai cani, influenzano le concentrazioni di cortisolo a riposo e durante l’esercizio fisico. Questi risultati possono sicuramente dare utili suggerimenti per la gestione e la cura di gatti e cani al fine di migliorarne le condizioni di benessere.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The topics I came across during the period I spent as a Ph.D. student are mainly two. The first concerns new organocatalytic protocols for Mannich-type reactions mediated by Cinchona alkaloids derivatives (Scheme I, left); the second topic, instead, regards the study of a new approach towards the enantioselective total synthesis of Aspirochlorine, a potent gliotoxin that recent studies indicate as a highly selective and active agent against fungi (Scheme I, right). At the beginning of 2005 I had the chance to join the group of Prof. Alfredo Ricci at the Department of Organic Chemistry of the University of Bologna, starting my PhD studies. During the first period I started to study a new homogeneous organocatalytic aza-Henry reaction by means of Cinchona alkaloid derivatives as chiral base catalysts with good results. Soon after we introduced a new protocol which allowed the in situ synthesis of N-carbamoyl imines, scarcely stable, moisture sensitive compounds. For this purpose we used α-amido sulfones, bench stable white crystalline solids, as imine precursors (Scheme II). In particular we were able to obtain the aza-Henry adducts, by using chiral phase transfer catalysis, with a broad range of substituents as R-group and excellent results, unprecedented for Mannich-type transformations (Scheme II). With the optimised protocol in hand we have extended the methodology to the other Mannich-type reactions. We applied the new method to the Mannich, Strecker and Pudovik (hydrophosphonylation of imines) reactions with very good results in terms of enantioselections and yields, broadening the usefulness of this novel protocol. The Mannich reaction was certainly the most extensively studied work in this thesis (Scheme III). Initially we developed the reaction with α-amido sulfones as imine precursors and non-commercially available malonates with excellent results in terms of yields and enantioselections.3 In this particular case we recorded 1 mol% of catalyst loading, very low for organocatalytic processes. Then we thought to develop a new Mannich reaction by using simpler malonates, such as dimethyl malonate.4 With new optimised condition the reaction provided slightly lower enantioselections than the previous protocol, but the Mannich adducts were very versatile for the obtainment of β3-amino acids. Furthermore we performed the first addition of cyclic β-ketoester to α-amido sulfones obtaining the corresponding products in good yield with high level of diastereomeric and enantiomeric excess (Scheme III). Further studies were done about the Strecker reaction mediated by Cinchona alkaloid phase-transfer quaternary ammonium salt derivatives, using acetone cyanohydrin, a relatively harmless cyanide source (Scheme IV). The reaction proceeded very well providing the corresponding α-amino nitriles in good yields and enantiomeric excesses. Finally, we developed two new complementary methodologies for the hydrophosphonylation of imines (Scheme V). As a result of the low stability of the products derived from aromatic imines, we performed the reactions in mild homogeneous basic condition by using quinine as a chiral base catalyst giving the α-aryl-α-amido phosphonic acid esters as products (Scheme V, top).6 On the other hand, we performed the addition of dialkyl phosphite to aliphatic imines by using chiral Cinchona alkaloid phase transfer quaternary ammonium salt derivatives using our methodology based on α-amido sulfones (Scheme V, bottom). The results were good for both procedures covering a broad range of α-amino phosphonic acid ester. During the second year Ph.D. studies, I spent six months in the group of Prof. Steven V. Ley, at the Department of Chemistry of the University of Cambridge, in United Kingdom. During this fruitful period I have been involved in a project concerning the enantioselective synthesis of Aspirochlorine. We provided a new route for the synthesis of a key intermediate, reducing the number of steps and increasing the overall yield. Then we introduced a new enantioselective spirocyclisation for the synthesis of a chiral building block for the completion of the synthesis (Scheme VI).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The running innovation processes of the microwave transistor technologies, used in the implementation of microwave circuits, have to be supported by the study and development of proper design methodologies which, depending on the applications, will fully exploit the technology potentialities. After the choice of the technology to be used in the particular application, the circuit designer has few degrees of freedom when carrying out his design; in the most cases, due to the technological constrains, all the foundries develop and provide customized processes optimized for a specific performance such as power, low-noise, linearity, broadband etc. For these reasons circuit design is always a “compromise”, an investigation for the best solution to reach a trade off between the desired performances. This approach becomes crucial in the design of microwave systems to be used in satellite applications; the tight space constraints impose to reach the best performances under proper electrical and thermal de-rated conditions, respect to the maximum ratings provided by the used technology, in order to ensure adequate levels of reliability. In particular this work is about one of the most critical components in the front-end of a satellite antenna, the High Power Amplifier (HPA). The HPA is the main power dissipation source and so the element which mostly engrave on space, weight and cost of telecommunication apparatus; it is clear from the above reasons that design strategies addressing optimization of power density, efficiency and reliability are of major concern. Many transactions and publications demonstrate different methods for the design of power amplifiers, highlighting the availability to obtain very good levels of output power, efficiency and gain. Starting from existing knowledge, the target of the research activities summarized in this dissertation was to develop a design methodology capable optimize power amplifier performances complying all the constraints imposed by the space applications, tacking into account the thermal behaviour in the same manner of the power and the efficiency. After a reminder of the existing theories about the power amplifier design, in the first section of this work, the effectiveness of the methodology based on the accurate control of the dynamic Load Line and her shaping will be described, explaining all steps in the design of two different kinds of high power amplifiers. Considering the trade-off between the main performances and reliability issues as the target of the design activity, we will demonstrate that the expected results could be obtained working on the characteristics of the Load Line at the intrinsic terminals of the selected active device. The methodology proposed in this first part is based on the assumption that designer has the availability of an accurate electrical model of the device; the variety of publications about this argument demonstrates that it is so difficult to carry out a CAD model capable to taking into account all the non-ideal phenomena which occur when the amplifier operates at such high frequency and power levels. For that, especially for the emerging technology of Gallium Nitride (GaN), in the second section a new approach for power amplifier design will be described, basing on the experimental characterization of the intrinsic Load Line by means of a low frequency high power measurements bench. Thanks to the possibility to develop my Ph.D. in an academic spin-off, MEC – Microwave Electronics for Communications, the results of this activity has been applied to important research programs requested by space agencies, with the aim support the technological transfer from universities to industrial world and to promote a science-based entrepreneurship. For these reasons the proposed design methodology will be explained basing on many experimental results.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Several activities were conducted during my PhD activity. For the NEMO experiment a collaboration between the INFN/University groups of Catania and Bologna led to the development and production of a mixed signal acquisition board for the Nemo Km3 telescope. The research concerned the feasibility study for a different acquisition technique quite far from that adopted in the NEMO Phase 1 telescope. The DAQ board that we realized exploits the LIRA06 front-end chip for the analog acquisition of anodic an dynodic sources of a PMT (Photo-Multiplier Tube). The low-power analog acquisition allows to sample contemporaneously multiple channels of the PMT at different gain factors in order to increase the signal response linearity over a wider dynamic range. Also the auto triggering and self-event-classification features help to improve the acquisition performance and the knowledge on the neutrino event. A fully functional interface towards the first level data concentrator, the Floor Control Module, has been integrated as well on the board, and a specific firmware has been realized to comply with the present communication protocols. This stage of the project foresees the use of an FPGA, a high speed configurable device, to provide the board with a flexible digital logic control core. After the validation of the whole front-end architecture this feature would be probably integrated in a common mixed-signal ASIC (Application Specific Integrated Circuit). The volatile nature of the configuration memory of the FPGA implied the integration of a flash ISP (In System Programming) memory and a smart architecture for a safe remote reconfiguration of it. All the integrated features of the board have been tested. At the Catania laboratory the behavior of the LIRA chip has been investigated in the digital environment of the DAQ board and we succeeded in driving the acquisition with the FPGA. The PMT pulses generated with an arbitrary waveform generator were correctly triggered and acquired by the analog chip, and successively they were digitized by the on board ADC under the supervision of the FPGA. For the communication towards the data concentrator a test bench has been realized in Bologna where, thanks to a lending of the Roma University and INFN, a full readout chain equivalent to that present in the NEMO phase-1 was installed. These tests showed a good behavior of the digital electronic that was able to receive and to execute command imparted by the PC console and to answer back with a reply. The remotely configurable logic behaved well too and demonstrated, at least in principle, the validity of this technique. A new prototype board is now under development at the Catania laboratory as an evolution of the one described above. This board is going to be deployed within the NEMO Phase-2 tower in one of its floors dedicated to new front-end proposals. This board will integrate a new analog acquisition chip called SAS (Smart Auto-triggering Sampler) introducing thus a new analog front-end but inheriting most of the digital logic present in the current DAQ board discussed in this thesis. For what concern the activity on high-resolution vertex detectors, I worked within the SLIM5 collaboration for the characterization of a MAPS (Monolithic Active Pixel Sensor) device called APSEL-4D. The mentioned chip is a matrix of 4096 active pixel sensors with deep N-well implantations meant for charge collection and to shield the analog electronics from digital noise. The chip integrates the full-custom sensors matrix and the sparsifification/readout logic realized with standard-cells in STM CMOS technology 130 nm. For the chip characterization a test-beam has been set up on the 12 GeV PS (Proton Synchrotron) line facility at CERN of Geneva (CH). The collaboration prepared a silicon strip telescope and a DAQ system (hardware and software) for data acquisition and control of the telescope that allowed to store about 90 million events in 7 equivalent days of live-time of the beam. My activities concerned basically the realization of a firmware interface towards and from the MAPS chip in order to integrate it on the general DAQ system. Thereafter I worked on the DAQ software to implement on it a proper Slow Control interface of the APSEL4D. Several APSEL4D chips with different thinning have been tested during the test beam. Those with 100 and 300 um presented an overall efficiency of about 90% imparting a threshold of 450 electrons. The test-beam allowed to estimate also the resolution of the pixel sensor providing good results consistent with the pitch/sqrt(12) formula. The MAPS intrinsic resolution has been extracted from the width of the residual plot taking into account the multiple scattering effect.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Con il presente lavoro, che ha ad oggetto l’istituto dello scioglimento anticipato delle Camere nell’ordinamento costituzionale italiano, il candidato si propone tre obiettivi. Il primo è quello della ricostruzione dogmatica dell’istituto che sconta inevitabilmente un grosso debito nei confronti della vasta letteratura giuridica che si è sviluppata nel corso dei decenni. Il secondo obiettivo è quello, ben più originale, dell’indagine sulla prassi che ha contraddistinto il ricorso allo scioglimento nella peculiare realtà italiana. In questo modo si viene colmando uno spazio di ricerca diretto a leggere gli avvenimenti e a ricondurli in un quadro costituzionale sistematico, anche al fine di ricavare utili riflessioni circa la conformità della prassi stessa al dato normativo, nonché sulle modalità di funzionamento concreto dell'istituto. Il terzo obiettivo, quello più ambizioso, è utilizzare le considerazioni così sviluppate per ricercare soluzioni interpretative adeguate all’evoluzione subita dall’assetto politico-istituzionale italiano negli ultimi due decenni. Quanto al metodo, la scelta del candidato è stata quella di ricorrere ad uno strumentario che pone in necessaria sequenza logica: a) i presupposti storici/comparatistici e il dibattito in Assemblea costituente, utili per l’acquisizione del patrimonio del parlamentarismo europeo del tempo e per la comprensione del substrato su cui si costruisce l’edificio costituzionale; b) il testo costituzionale, avvalendosi anche delle importanti considerazioni svolte dalla dottrina più autorevole; c) la prassi costituzionale, consistente nella fase di implementazione concreta del disposto normativo. La finalità che il candidato si pone è dimostrare la possibilità di configurare lo scioglimento secondo un modello di tipo “primoministeriale”. Per quanto riguarda la prima parte della ricerca, dalla pur sintetica descrizione dei precedenti storici (sia rispetto alle realtà europee, inglese e francese in primis, che al periodo prerepubblicano) si trae conferma che l’operatività dell’istituto è intrinsecamente influenzata dalla forma di governo. Una prima indicazione che emerge con forza è come la strutturazione del sistema partitico e il grado di legame tra Assemblea rappresentativa e Gabinetto condizionino la ratio del potere di scioglimento, la sua titolarità ed il suo effettivo rendimento. Infatti, in presenza di regimi bipartitici e di impianti istituzionali che accentuano il raccordo fiduciario, il Capo dello Stato tende all’emarginazione, e lo scioglimento acquisisce carattere di automaticità tutte le volte in cui si verificano crisi ministeriali (eventualità però piuttosto rara); più consueto è invece lo scioglimento primoministeriale libero, come arma politica vera e propria attraverso cui il Governo in carica tende a sfruttare il momento migliore per ricercare il giudizio del popolo. Al contrario, dove il sistema politico è più dinamico, e il pluralismo sociale radicalizzato, il Capo dello Stato interferisce fortemente nella vita istituzionale e, in particolare, nella formazione dell’indirizzo politico: in quest’ottica lo scioglimento viene da questi inglobato, ed il suo ricorso subordinato ad esigenze di recupero della funzionalità perduta; soprattutto, quando si verificano crisi ministeriali (invero frequenti) il ricorso alle urne non è conseguenza automatica, ma semmai gli viene preferita la via della formazione di un Gabinetto poggiante su una maggioranza alternativa. L’indagine svolta dal candidato sui lavori preparatori mostra come il Costituente abbia voluto perseguire l'obiettivo di allargare le maglie della disciplina costituzionale il più possibile, in modo da poter successivamente ammettere più soluzioni interpretative. Questa conclusione è il frutto del modo in cui si sono svolte le discussioni. Le maggiori opzioni prospettate si collocavano lungo una linea che aveva ad un estremo una tassativa preordinazione delle condizioni legittimanti, ed all’altro estremo l’esclusiva e pressoché arbitraria facoltà decisionale dello scioglimento nelle mani del Capo dello Stato; in mezzo, la via mediana (e maggiormente gradita) del potere sì presidenziale, benché circondato da tutta una serie di limiti e garanzie, nel quadro della costruzione di una figura moderatrice dei conflitti tra Esecutivo e Legislativo. Ma non bisogna tralasciare che, seppure rare, diverse voci propendevano per la delineazione di un potere governativo di scioglimento la quale impedisse che la subordinazione del Governo al Parlamento si potesse trasformare in degenerazione assemblearista. Quindi, il candidato intende sottolineare come l’adamantina prescrizione dell’art. 88 non postuli, nell’ambito dell’interpretazione teleologica che è stata data, alcuno specifico indirizzo interpretativo dominante: il che, in altri termini, è l’ammissione di una pluralità di concezioni teoricamente valide. L'analisi del dettato costituzionale non ha potuto prescindere dalla consolidata tripartizione delle teorie interpretative. Dall'analisi della letteratura emerge la preferenza per la prospettiva dualistica, anche in virtù del richiamo che la Costituzione svolge nei confronti delle competenze sia del Presidente della Repubblica (art. 88) che del Governo (art. 89), il che lo convince dell’inopportunità di imporre una visione esclusivista, come invece sovente hanno fatto i sostenitori della tesi presidenziale. Sull’altro versante ciò gli permette di riconferire una certa dignità alla tesi governativa, che a partire dal primo decennio repubblicano era stata accantonata in sede di dibattito dottrinario: in questo modo, entrambe le teoriche fondate su una titolarità esclusiva assumono una pari dignità, benchè parimenti nessuna delle due risulti persuasiva. Invece, accedere alla tesi della partecipazione complessa significa intrinsecamente riconoscere una grande flessibilità nell’esercizio del potere in questione, permettendo così una sua più adeguata idoneità a mutare le proprie sembianze in fase applicativa e a calarsi di volta in volta nelle situazioni contingenti. Questa costruzione si inserisce nella scelta costituente di rafforzare le garanzie, ed il reciproco controllo che si instaura tra Presidente e Governo rappresenta la principale forma di tutela contro potenziali abusi di potere. Ad ognuno dei due organi spettano però compiti differenti, poiché le finalità perseguite sono differenti: come l’Esecutivo agisce normalmente secondo canoni politici, in quanto principale responsabile dell’indirizzo politico, al Capo dello Stato si addice soprattutto il compito di sorvegliare il regolare svolgimento dei meccanismi istituzionali, in posizione di imparzialità. Lo schema costituzionale, secondo il candidato, sembra perciò puntare sulla leale collaborazione tra i poteri in questione, senza però predefinire uno ruolo fisso ed immutabile, ma esaltando le potenzialità di una configurazione così eclettica. Assumendo questa concezione, si ha buon gioco a conferire piena cittadinanza costituzionale all’ipotesi di scioglimento disposto su proposta del Presidente del Consiglio, che si può ricavare in via interpretativa dalla valorizzazione dell’art. 89 Cost. anche secondo il suo significato letterale. Al discorso della titolarità del potere di scioglimento, il candidato lega quello circa i presupposti legittimanti, altro nodo irrisolto. La problematica relativa alla loro definizione troverebbe un decisivo ridimensionamento nel momento in cui si ammette la compartecipazione di Governo e Presidente della Repubblica: il diverso titolo con il quale essi cooperano consentirebbe di prevenire valutazioni pretestuose circa la presenza delle condizioni legittimanti, poichè è nel reciproco controllo che entrambi gli organi individuano i confini entro cui svolgere le rispettive funzioni. Si giustificano così sia ragioni legate ad esigenze di funzionalità del sistema (le più ricorrenti in un sistema politico pluripartitico), sia quelle scaturenti dalla divaricazione tra orientamento dei rappresentati e orientamento dei rappresentanti: purchè, sottolinea il candidato, ciò non conduca il Presidente della Repubblica ad assumere un ruolo improprio di interferenza con le prerogative proprie della sfera di indirizzo politico. Il carattere aperto della disciplina costituzionale spinge inevitabilmente il candidato ad approfondire l'analisi della prassi, la cui conoscenza costituisce un fondamentale modo sia per comprendere il significato delle disposizioni positive che per apprezzare l’utilità reale ed il rendimento sistemico dell’istituto. Infatti, è proprio dall'indagine sulla pratica che affiorano in maniera prepotente le molteplici virtualità dello strumento dissolutorio, con modalità operative che, a seconda delle singole fasi individuate, trovano una strutturazione casistica variabile. In pratica: nel 1953 e nel 1958 è l'interesse del partito di maggioranza relativa ad influenzare il Governo circa la scelta di anticipare la scadenza del Senato; nel 1963 e nel 1968 invece si fa strada l'idea del consenso diffuso allo scioglimento, seppure nel primo caso l'anticipo valga ancora una volta per il solo Senato, e nel secondo ci si trovi di fronte all'unica ipotesi di fine naturale della legislatura; nel 1972, nel 1976, nel 1979, nel 1983 e nel 1987 (con una significativa variante) si manifesta con tutta la sua forza la pratica consociativa, figlia della degenerazione partitocratica che ha svuotato le istituzioni giuridiche (a partire dal Governo) e cristallizzato nei partiti politici il centro di gravità della vita pubblica; nel 1992, a chiusura della prima epoca repubblicana, caratterizzata dal dominio della proporzionale (con tutte le sue implicazioni), si presentano elementi atipici, i quali vanno a combinarsi con le consolidate tendenze, aprendo così la via all'incertezza sulle tendenze future. È con l'avvento della logica maggioritaria, prepotentemente affacciatasi per il tramite dei referendum elettorali, a sconvolgere il quadro delle relazioni fra gli organi costituzionali, anche per quanto concerne ratio e caratteristiche del potere di scioglimento delle Camere. Soprattutto, nella fase di stretta transizione che ha attraversato il quadriennio 1992-1996, il candidato mette in luce come i continui smottamenti del sistema politico abbiano condotto ad una fase di destabilizzazione anche per quanto riguarda la prassi, incrinando le vecchie regolarità e dando vita a potenzialità fino allora sconosciute, addirittura al limite della conformità a Costituzione. La Presidenza Scalfaro avvia un processo di netta appropriazione del potere di scioglimento, esercitandolo in maniera esclusiva, grazie anche alla controfirma offerta da un Governo compiacente (“tecnicco”, perciò debitore della piena fiducia quirinalizia). La piena paternità presidenziale, nel 1994, è accompagnata da un altro elemento di brusca rottura con il passato, ossia quello della ragione legittimante: infatti, per la prima volta viene addotta palesemente la motivazione del deficit di rappresentatività. Altro momento ad aver costituito da spartiacque nell’evoluzione della forma di governo è stato il mancato scioglimento a seguito della crisi del I Governo Berlusconi, in cui forti erano state le pressioni perché si adeguasse il parlamentarismo secondo i canoni del bipolarismo e del concetto di mandato di governo conferito direttamente dagli elettori ad una maggioranza (che si voleva predefinita, nonostante essa in verità non lo fosse affatto). Dopo questa parentesi, secondo il candidato la configurazione dello strumento dissolutorio si allinea su ben altri binari. Dal punto di vista della titolarità, sono i partiti politici a riprendere vigorosamente un certo protagonismo decisionale, ma con una netta differenza rispetto al passato consociativo: ora, il quadro politico pare saldamente attestato su una dinamica bipolare, per cui anche in relazione all’opzione da adottare a seguito di crisi ministeriale sono le forze della maggioranza che decidono se proseguire la legislatura (qualora trovino l’accordo tra di loro) o se sciogliere (allorchè invece si raggiunga una sorta di maggioranza per lo scioglimento). Dal punto di vista dei presupposti, sembra consolidarsi l’idea che lo scioglimento rappresenti solo l’extrema ratio, chiamando gli elettori ad esprimersi solo nel momento in cui si certifica l’assoluta impossibilità di ripristinare la funzionalità perduta. Conclusioni. Il rafforzamento della prospettiva bipolare dovrebbe postulare una riconfigurazione del potere di scioglimento tesa a valorizzare la potestà decisionale del Governo. Ciò discenderebbe dal principio secondo cui il rafforzamento del circuito che unisce corpo elettorale, maggioranza parlamentare e Governo, grazie al collante di un programma politico condiviso, una coalizione che si presenta alle elezioni ed un candidato alla Presidenza del Consiglio che incarna la perfetta sintesi di tutte queste istanze, comporta che alla sua rottura non si può che tornare al giudizio elettorale: e quindi sciogliere le Camere, evitando la composizione di maggioranze che non rappresentano la diretta volontà popolare. Il candidato però non ritiene auspicabile l’adozione di un automatismo analogo alla regola dell'aut simul stabunt aut simul cadent proprio dell’esperienza regionale post 1999, perché soluzione eccessivamente rigida, che ingesserebbe in maniera inappropriata una forma parlamentare che comunque richiede margini di flessiblità. La proposta è invece di rileggere il testo costituzionale, rebus sic stantibus, nel senso di far prevalere un potere libero di proposta da parte del Governo, cui il Capo dello Stato non potrebbe non consentire, salvo svolgere un generale controllo di costituzionalità volto ad accertare l’insussistenza di alcuna forma di abuso. Su queste conclusioni il lavoro esprime solo prime idee, che meritano di essere approfondite. Come è da approfondire un tema che rappresenta forse l’elemento di maggiore originalità: trattasi della qualificazione e descrizione di un mandato a governare, ossia della compatibilità costituzionale (si pensi, in primis, al rapporto con il divieto di mandato imperativo di cui all’art. 67 Cost.) di un compito di governo che, tramite le elezioni, gli elettori affidano ad una determinata maggioranza, e che va ad arricchire il significato del voto rispetto a quello classico della mera rappresentanza delle istanze dei cittadini (e propria del parlamentarismo ottocentesco): riflessi di tali considerazioni si avrebbero inevitabilmente anche rispetto alla concezione del potere di scioglimento, che in siffatta maniera verrebbe percepito come strumento per il ripristino del “circuito di consonanza politica” che in qualche modo si sarebbe venuto a rompere. Ad ogni buon conto, già emergono dei riflessi in questo senso, per cui la strada intrapresa dal candidato pare quella giusta affinchè l’opera risulti completa, ben argomentata ed innovativa.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The Adaptive Optics is the measurement and correction in real time of the wavefront aberration of the star light caused by the atmospheric turbulence, that limits the angular resolution of ground based telescopes and thus their capabilities to deep explore faint and crowded astronomical objects. The lack of natural stars enough bright to be used as reference sources for the Adaptive Optics, over a relevant fraction of the sky, led to the introduction of artificial reference stars. The so-called Laser Guide Stars are produced by exciting the Sodium atoms in a layer laying at 90km of altitude, by a powerful laser beam projected toward the sky. The possibility to turn on a reference star close to the scientific targets of interest has the drawback in an increased difficulty in the wavefront measuring, mainly due to the time instability of the Sodium layer density. These issues are increased with the telescope diameter. In view of the construction of the 42m diameter European Extremely Large Telescope a detailed investigation of the achievable performances of Adaptive Optics becomes mandatory to exploit its unique angular resolution . The goal of this Thesis was to present a complete description of a laboratory Prototype development simulating a Shack-Hartmann wavefront sensor using Laser Guide Stars as references, in the expected conditions for a 42m telescope. From the conceptual design, through the opto-mechanical design, to the Assembly, Integration and Test, all the phases of the Prototype construction are explained. The tests carried out shown the reliability of the images produced by the Prototype that agreed with the numerical simulations. For this reason some possible upgrades regarding the opto-mechanical design are presented, to extend the system functionalities and let the Prototype become a more complete test bench to simulate the performances and drive the future Adaptive Optics modules design.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’evoluzione dei sensori multispettrali e la prospettiva di sviluppo dei sensori iperspettrali nel campo del telerilevamento ottico offrono nuovi strumenti per l’indagine del territorio e rinnovano la necessità di ridefinire potenzialità, limiti e accuratezza delle metodologie tradizionali. Nel caso delle immagini iperspettrali, in particolare, l’elevatissima risoluzione spettrale apre nuove possibilità di sviluppo di modelli fisicamente basati per correlare grandezze radiometriche con indicatori fisico-chimici caratteristici delle superfici osservate, a prezzo però di maggiori oneri nella gestione del dato. Il presente lavoro mira appunto ad esaminare, per alcune applicazioni di carattere ambientale e attraverso casi di studio specifici, le criticità del problema del rilevamento da remoto nel suo complesso: dai problemi di correzione radiometrica delle immagini, all'acquisizione di dati di calibrazione sul campo, infine all'estrazione delle informazioni di interesse dal dato telerilevato. A tal fine sono stati sperimentati diversi modelli di trasferimento radiativo ed è stata sviluppata un’interfaccia per la gestione del modello 6SV. Per quest’ultimo sono state inoltre sviluppate routine specifiche per il supporto dei sensori Hyperion e World View 2. La ricerca svolta intende quindi offrire un contributo alla definizione di procedure operative ripetibili, per alcune applicazioni intimamente connesse all’indagine conoscitiva ed al monitoraggio dei processi in atto sul territorio. Nello specifico, si è scelto il caso di studio dell’oasi del Fayyum, in Egitto, per valutare il contenuto informativo delle immagini satellitari sotto tre diversi profili, soltanto in apparenza distinti: la classificazione della litologia superficiale, la valutazione dello stato di qualità delle acque ed il monitoraggio delle opere di bonifica. Trattandosi di un’oasi, le aree coltivate del Fayyum sono circondate dai suoli aridi del deserto libico. La mancanza di copertura vegetale rappresenta una condizione privilegiata per l’osservazione della litologia superficiale da remoto, auspicabile anche per la scarsa accessibilità di alcune aree. Il fabbisogno idrico dell’oasi è garantito dall’apporto di acque del fiume Nilo attraverso una rete di irrigazione che ha, come recettore finale, il lago Qarun, situato nella porzione più depressa dell’oasi. Questo lago, privo di emissari, soffre enormi problemi di salinizzazione, visto il clima iper-arido in cui si trova, e di inquinamento da fertilizzanti agricoli. Il problema della sostenibilità ambientale dello sfruttamento agricolo intensivo dell’oasi è un problema di deterioramento della qualità dell’acqua e della qualità dei suoli. È un problema che richiede una adeguata conoscenza del contesto geologico in cui questi terreni sono inseriti ed una capacità di monitoraggio degli interventi di bonifica ed estensione delle coltivazioni in atto; entrambe conoscenze necessarie alla definizione di un piano di sviluppo economico sostenibile. Con l’intento di contribuire ad una valutazione delle effettive potenzialità del telerilevamento come strumento di informazione territoriale, sono state sperimentate tecniche di classificazione di immagini multispettrali ASTER ed iperspettrali Hyperion di archivio per discriminare la litologia superficiale sulle aree adiacenti al lago Qarun nell’oasi del Fayyum. Le stesse immagini Hyperion di archivio più altre appositamente acquisite sono state utilizzate, assieme ad immagini multispettrali ALI, per la valutazione qualitativa e quantitativa di parametri di qualità delle acque, attraverso l’applicazione di modelli empirici di correlazione. Infine, per valutare l’ipotesi che il deterioramento della qualità delle acque possa essere correlato ai processi di bonifica ed estensione delle coltivazioni in atto negli ultimi decenni, le immagini dell’archivio Landsat sono state utilizzate per analisi di change detection. Per quanto riguarda il problema della validazione dei risultati, si è fatto uso di alcuni dati di verità a terra acquisiti nel corso di un survey preliminare effettuato nell’Ottobre 2010. I campioni di roccia prelevati e le misure di conducibilità elettrica delle acque del lago, benché in numero estremamente limitato per la brevità della missione e le ovvie difficoltà logistiche, consentono alcune valutazioni preliminari sui prodotti ottenuti dalle elaborazioni. Sui campioni di roccia e sabbie sciolte, in particolare, sono state effettuate misure di riflettività in laboratorio ed analisi mineralogiche dettagliate. Per la valutazione della qualità delle acque, più precisamente delle concentrazioni di clorofilla, la metodologia utilizzata per il caso di studio egiziano è stata applicata anche sul tratto costiero adriatico antistante le foci dei fiumi Tronto e Salinello. In questo sito sono state effettuate misure in situ di conducibilità elettrica ed il prelievo di campioni di acqua per la determinazione in laboratorio delle concentrazioni di clorofilla. I risultati ottenuti hanno evidenziato le potenzialità offerte dall’informazione spettrale contenuta nelle immagini satellitari e consentono l’individuazione di alcune pratiche operative. D’altro canto hanno anche messo in luce le carenze dei modelli attualmente esistenti, nonché le criticità legate alla correzione atmosferica delle grandezze radiometriche rilevate.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Analytical pyrolysis was used to investigate the formation of diketopiperazines (DKPs) which are cyclic dipeptides formed from the thermal degradation of proteins. A quali/quantitative procedure was developed combining microscale flash pyrolysis at 500 °C with gas chromatography-mass spectrometry (GC-MS) of DKPs trapped onto an adsorbent phase. Polar DKPs were silylated prior to GC-MS. Particular attention was paid to the identification of proline (Pro) containing DKPs due to their greater facility of formation. The GC-MS characteristics of more than 80 original and silylated DKPs were collected from the pyrolysis of sixteen linear dipeptides and four model proteins (e.g. bovine serum albumin, BSA). The structure of a novel DKP, cyclo(pyroglutamic-Pro) was established by NMR and ESI-MS analysis, while the structures of other novel DKPs remained tentative. DKPs resulted rather specific markers of amino acid sequence in proteins, even though the thermal degradation of DKPs should be taken into account. Structural information of DKPs gathered from the pyrolysis of model compounds was employed to the identification of these compounds in the pyrolysate of proteinaceous samples, including intrinsecally unfolded protein (IUP). Analysis of the liquid fraction (bio-oil) obtained from the pyrolysis of microalgae Nannochloropsis gaditana, Scenedesmus spp with a bench scale reactor showed that DKPs constituted an important pool of nitrogen-containing compounds. Conversely, the level of DKPs was rather low in the bio-oil of Botryococcus braunii. The developed micropyrolysis procedure was applied in combination with thermogravimetry (TGA) and infrared spectroscopy (FT-IR) to investigate surface interaction between BSA and synthetic chrysotile. The results showed that the thermal behavior of BSA (e.g. DKPs formation) was affected by the different form of doped synthetic chrysotile. The typical DKPs evolved from collagen were quantified in the pyrolysates of archaeological bones from Vicenne Necropolis in order to evaluate their conservation status in combination with TGA, FTIR and XRD analysis.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La Peste dei Piccoli Ruminanti (PPR) è una patologia virale ed acuta che colpisce i piccoli ruminanti, diffusa in Africa Sub-Sahariana, in Medio Oriente ed in Asia Meridionale. Questo lavoro si propone di effettuare il primo studio epidemiologico sulla PPR nella Repubblica Araba Saharawi Democratica (RASD), che comprende i Campi Profughi Saharawi, in territorio algerino, ed i “Territori Liberati” del Sahara Occidentale, valutando la potenziale presenza, prevalenza e distribuzione del virus della PPR in questi territori. Lo studio si è basato su una metodica di campionamento “a cluster” secondo la tecnica “a due stadi”. Sono stati individuati 23 siti di campionamento dai quali sono stati raccolti un totale di 976 campioni di siero prelevati da pecore, capre e cammelli. I campioni sono stati prelevati in Marzo ed Aprile 2008. I risultati dei test Competitive-Elisa hanno evidenziato una sieroprevalenza nel 28,26% degli animali testati, benché durante la raccolta dei campioni nessun animale abbia presentato sintomi clinici riferibili alla PPR. Tra Gennaio e Maggio 2010, in seguito ad episodi di aumentata mortalità nella popolazione ovi-caprina presente nei Campi Profughi, le autorità veterinarie locali sospettarono un outbreak di PPR. Tra Maggio ed Ottobre 2010 è stato sviluppato un outbreak investigation nei Campi Profughi Saharawi con lo scopo di confermare la circolazione del PPRV. I risultati di laboratorio hanno confermato la presenza del virus nel 33,33% dei campioni. Il sequenziamento del genoma virale ha rivelato che il virus apparteneva al Lignaggio 4 e le analisi filogenetiche hanno indicato una stretta relazione (99.3%) con il PPRV isolato durante l'epidemia di PPR in Marocco del 2008.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’attività nel teatro della Villa medicea di Pratolino, presso Firenze, giunse al culmine nel primo decennio del ’700, quando il principe Ferdinando de’ Medici commissionò e vi fece rappresentare, una per anno, opere in musica di Alessandro Scarlatti e di Giacomo Antonio Perti. Benché le partiture siano perdute, sopravvive un’ingente quantità di materiale documentario, in massima parte inedito, il quale dà un eccezionale resoconto sul mecenatismo del Principe e sul funzionamento della macchina teatrale. La dissertazione si concentra sulle sei opere poste in musica da Perti ("Lucio Vero", 1700, in collaborazione con Martino Bitti; "Astianatte", 1701; "Dionisio re di Portogallo", 1707; "Ginevra principessa di Scozia", 1708; "Berenice regina d’Egitto", 1709; "Rodelinda regina de’ Longobardi", 1710), sui rapporti del compositore col Principe, col librettista Antonio Salvi, col rivale Scarlatti, coi cantanti e con la corte medicea, sullo stile da lui perseguito e – per quanto è dato sapere o lecito ipotizzare – sulla fisionomia dei suoi lavori (strutture e risorse letterarie, teatrali e musicali).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Desde los plantemientos que entienden la mediación como una mera relación de hecho, se avanzará hasta la consideración de la misma como contrato. Para ello, se separarán las categorías o institutos que no se consideren adecuados a la naturaleza de la mediación, profundizando en sus estructuras más básicas, hasta llegar a la consideración contractual de la misma. Desde el contrato, se tratarán los elementos de sinalagmaticidad, principalidad, onerosidad o consensualidad, entre otras circunstancias, esenciales o naturales, antes de abordar la que quizá sea la circunstancia que merezca un tratamiento más especial: el riesgo aleatorio de la mediación. Además, al tratarse de contratos infrarregulados, la dimensión económica y efectiva de los mismos no sólo permite la reflexión, sino que impulsa la crítica y, si bien no puede ofrecer por sí misma respuestas, sí puede ayudar a descartar opciones menos adecuadas en cada caso. De todo lo anterior se concluirá una única categoría contractual, clara y precisa, enfrentada también a un análisis económico de cada uno de sus elementos, así como una confrontación con las propuestas, sobre los mismos supuestos, del Derecho contractual europeo. Así, se tratará de evaluar, en cada paso, que las conclusiones parciales sobre las que se asienten ulteriores estadios de la investigación no sólo resulten sistemáticas, sino también idóneas para alcanzar la finalidad de contrato y, a su través, la de las partes. El contrato resultante se encontrará categorizado, pero no por ello regulado. De ahí la necesidad, última, de ubicarlo en una categoría contractual más amplia que pueda informar dichos caracteres con una regulación suficiente, desde la que establecer una normatividad real.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dopo gli indubbi sviluppi politici e legali tendenti all’uniformazione è inevitabile non sostenere che anche il mercato della gestione delle infrastrutture e del trasporto aereo a terra costituisce un fattore determinante del trasporto aereo con una più stretta necessità di uniformazione del quadro regolamentare. La gestione aeroportuale e i servizi connessi è collocata all’interno del diritto aereo. Perché si configuri il “trasporto aereo” (nozione dinamica base che caratterizza il diritto del trasporto aereo) si ha la necessità di un accordo tra due paesi – un permesso di volo designato – una finestra di orario di decollo e atterraggio e la regolamentazione delle relative attività connesse, affinché si svolgano in situazione di safety, quale conditio sine qua non di tutte le attività di aviazione. Tuttavia, la migliore dottrina sente il bisogno di una trattazione separata della materia diritto aereo in senso stretto e quella della disciplina aeroportuale, benché i due ambiti sono tra di loro contigui. Questo è legittimato da esigenze contrapposte fra gli operatori dei due settori. In ultima considerazione possiamo sostenere che gli sviluppi legislativi, sia nel diritto aeronautico e in quello marittimo, portano all’abbraccio della impostazione di un diritto dei trasporti inclusivo di ogni forma dell’attuazione del fenomeno trasporto, scollegandosi al solo fenomeno dell’esercizio nautico quale elemento caratterizzante della disciplina. Quale futuro legislativo si prospetta per la gestione del bene aeroporto? Quale sarà la sua dimensione legale su questioni importanti sulle quali esiste una normazione europea come l’allocazione delle bande orarie, tasse aeroportuali e assistenza a terra oppure su quelle che hanno un carattere prevalentemente nazionale? E infine, quale sarebbe la strada da seguire per regolare il nuovo mercato aeroportuale che è passato dalla idea della competizione per il mercato esplorando anche la competizione nel mercato, con aeroporti che si comportano come operatori in concorrenza tra loro?