998 resultados para teoria dei giochi teoria delle decisioni
Resumo:
Mode of access: Internet.
Resumo:
Mode of access: Internet.
Resumo:
"Introduzione" signed: Roberto Palmarocchi.
Resumo:
La tesi in oggetto è stata svolta presso la Galletti spa. L'obiettivo iniziale era quello di studiare un percorso all'interno dello stabilimento produttivo al fine di enfatizzare le peculiarità della produzione tenendo conto dei fattori riguardanti la sicurezza. E' stata inoltre realizzata, con l'aiuto di una agenzia di comunicazione, una piattaforma di comunicazione. Analizzando il processo produttivo è emersa un'ulteriore problematica: l'elevata quantità di work in progress stoccati a bordo linea. In particolare, in questa tesi è stata fatta un'analisi preliminare circa una linea di produzione. Sono stati analizzati, in termini di quantità, i prodotti che vengono assemblati in essa, e i codici dei semilavorati utili. In seguito sono state studiate le operazioni che vengono svolte in ogni postazione di lavoro e, in funzione del ciclo di lavoro gli sono stati assegnati i codici dei semilavorati. L'analisi si è conclusa studiando i consumi medi. Le prossime fasi dell'analisi prevedono lo studio dei volumi dei codici e di conseguenza la definizione delle aree di stoccaggio e lo studio dei lotti di produzione.
Resumo:
Il lavoro è volto all’approfondimento, anche in chiave comparatistica, della vigente normativa riguardante la tutela e la valorizzazione dei beni archeologici. Nell’ambito della disciplina predisposta nell’ordinamento italiano si sono prese le mosse dal regime delle scoperte e dei ritrovamenti, per passare successivamente all’approfondimento della tutela approntata nella legislazione nazionale anche con riferimento alle limitazioni alla libera disponibilità e circolazione. Una particolare attenzione è stata dedicata alla tutela del territorio in cui i beni archeologici sono inseriti e quindi alla tutela indiretta, ai vincoli ope legis e alla pianificazione paesaggistica, mentre una specifica trattazione ha riguardato il regime dell’archeologia preventiva e la valorizzazione e fruizione di aree e parchi archeologici nel reciproco interfacciarsi delle legislazioni regionali e delle linee guida emanate con il d.m. MiBAC 18 aprile 2012. Un’indagine articolata ha avuto per oggetto la tutela del patrimonio archeologico subacqueo e in particolare la Convenzione dell’UNESCO adottata a Parigi nel 2001, nonché la tutela sovranazionale dei beni culturali, con riferimento alla disciplina dell’Unione europea e a quella della Convenzione europea per la protezione del patrimonio archeologico del 16 gennaio 1992 e della Convenzione UNIDROIT del 24 giugno 1995 sui beni culturali rubati o esportati illegalmente. Hanno infine fatto seguito due specifiche indagini sulla tutela del patrimonio archeologico in Spagna e in Francia. Quanto alla prima si è esaminato l’attuale quadro costituzionale in cui si inserisce la tutela del patrimonio culturale con particolare attenzione alle disposizioni della Ley 16/1985 del 25 giugno 1985 e alla legislazione delle Comunidades autónomas. Per quanto riguarda la seconda una particolare attenzione è stata dedicata alla Legge 27 settembre 1941 che ha introdotto in Francia la prima disciplina organica relativa agli scavi e ai ritrovamenti archeologici. Nel quadro normativo vigente un’analisi particolareggiata è stata dedicata al Code du Patrimoine, il cui quinto libro è interamente dedicato all’archeologia.
Resumo:
Le neoplasie cutanee di tipo non-melanoma (non-melanoma skin cancers, NMSCs), quali il carcinoma a cellule basali (basal cell carcinoma, BCC) e il carcinoma a cellule squamose (squamous cell carcinoma, SCC) possono mostrare invasività locale e alto tasso di recidiva. La chirurgia microscopicamente controllata di Mohs (Mohs micrographic surgery, MMS) permette di eseguire una valutazione istologica immediata dei margini chirurgici delle neoplasie contestualmente alla loro escissione. Nel nostro studio abbiamo valutato del ruolo delle tecnologie in vivo (dermatoscopia e microscopia confocale a riflettanza, MCR) nella definizione dei margini preoperatori di NMSC ad alto rischio del volto e descritto la nostra esperienza con chirurgia tradizionale e MMS. Sono stati valutati 234 pazienti operati nel triennio 2019-2021: 39 con MMS e guida videodermatoscopica (Gruppo 1) e 195 con chirurgia tradizionale e guida videodermatoscopica (Gruppo 2). I pazienti operati nel periodo 2013-2018 (con MMS, Gruppo 3 (n = 241), e con chirurgia tradizionale, Gruppo 4 (n = 1086)) sono stati usati come confronto. La radicalità chirurgica è stata ottenuta nel Gruppo 1 nel 92,3% dei casi, con 1,2 steps in media di MMS (versus 1,7 nel Gruppo 3), nel Gruppo 2 nell’84,5% dei casi. La percentuale di non radicalità è stata: 7,7% nel Gruppo 1, 15,9% nel Gruppo 2, 6,2% nel Gruppo 3, 17,9% nel Gruppo 4. I tassi di recidiva sono stati: 5,1% nel Gruppo 1, 3,6% nel Gruppo 2, 4,1% nel Gruppo 3, 5,9% nel Gruppo 4, soprattutto in BCC di tipo sclerodermiforme e infiltrante. La MCR prechirurgica è stata utilizzata in 11 pazienti, con alcuni limiti nel delineare BCC di tipo sclerodermiforme e infiltrante. In conclusione, la videodermatoscopia e la MCR appaiono valide tecniche ancillari alla MMS e anche alla chirurgia tradizionale nel trattamento dei NMSCs. La MMS appare indicata soprattutto nei pazienti giovani e salvaguarda l’outcome estetico e funzionale.
Resumo:
In questo elaborato viene proposta la traduzione in lingua russa dei pannelli esplicativi e delle didascalie presenti nel Museo di Casa Vasari di Arezzo, un esempio di dimora d’artista che, ancora dopo secoli, si conserva in gran parte inalterata. La struttura della tesi di laurea ricalca il percorso di visita del museo. Al commento, in cui si analizzano le principali difficoltà traduttive e si elencano le strategie adottate, segue la traduzione dei testi collocati all’ingresso, che offrono una panoramica generale sul periodo storico e sulla vita dell’artista. Si propone poi la traduzione dei pannelli e delle didascalie presenti nella Camera della Fama e delle Arti, la prima sala a cui il visitatore accede. Si procede successivamente con lo Stanzino vasariano, la Camera di Apollo e delle Muse e la Cucina. A seguire il Corridoio di Cerere, che conduce agli “Orti” di Casa Vasari, un giardino pensile in stile rinascimentale, la Camera di Abramo e la Sala del trionfo della Virtù, sala di rappresentanza della residenza aretina. Per finire, si propone la traduzione dei testi presenti nella Cappellina, un piccolo ambiente con cui si conclude il percorso di visita. Pannelli e didascalie sono tradotti con l’aiuto di strumenti enciclopedici e dizionari. Rientrano nelle ricerche svolte anche le visite fatte al museo per osservare gli affreschi e le opere esposte.
Resumo:
E’ stato in primo luogo definito il criterio di efficienza dal punto di vista economico (con una accenno anche ai parametri elaborati dagli studiosi di discipline aziendali), nelle sue varie accezioni, ponendo altresì ciascuna di queste in relazione alle condizioni di concorrenza perfetta. Le nozioni di efficienza che sono state definite a tal fine sono quelle di efficienza allocativa, efficienza tecnica, efficienza dinamica ed efficienza distributiva. Ciascuna di esse é stata inquadrata a livello teorico secondo le definizioni fornite dalla letteratura, esaminandone le ipotesi sottostanti. E’ stata altresì descritta, contestualizzandola temporalmente, l’evoluzione della nozione, e ne sono state evidenziate le implicazioni ai fini della ricerca della forma di mercato più “efficiente”. Sotto quest’ultimo aspetto l’attenzione dello scrivente si é incentrata sul rapporto tra le diverse accezioni di efficienza economica oggetto di analisi e la desiderabilità o meno di un regime di concorrenza perfetta. Il capitolo si conclude con una breve panoramica sulle metodologie di misurazione finalizzata ad individuare i principali parametri utilizzati per determinare il livello di efficienza, di un mercato, di un’attività produttiva o di un’impresa, posto che, come verrà specificato nel prosieguo della tesi, la valutazione di efficienza in ambito antitrust deve essere verificata, ove possibile, anche basandosi sull’evidenza empirica delle singole imprese esaminate, come richiede il criterio della rule of reason. Capitolo 2 Presupposto per avere una regolazione che persegua l’obiettivo di avere una regolazione efficiente ed efficace, è, a parere di chi scrive, anche l’esistenza di autorità pubbliche deputate a esercitare la funzione regolatoria che rispettino al proprio interno e nel proprio agire la condizione di efficienza definita rispetto ai pubblici poteri. Lo sviluppo di questa affermazione ha richiesto in via preliminare, di definire il criterio di efficienza in ambito pubblicistico individuandone in particolare l’ambito di applicazione, il suo rapporto con gli altri principi che reggono l’azione amministrativa (con particolare riferimento al criterio di efficacia). Successivamente é stato collocato nel nostro ordinamento nazionale, ponendolo in relazione con il principio di buon andamnento della Pubblica Amministrazione, benchè l’ordinamento italiano, per la sua specificità non costituisca un esempio estendibile ad ordinamenti. Anche con riferimento al criterio di efficienza pubblica, un paragrafo é stato dedicato alle metodologie di misurazione di questa, e, nello specifico sull’Analisi Costi-Benefici e sull’Analisi di Impatto della Regolazione Una volta inquadrata la definizione di efficienza pubblica, questa é stata analizzata con specifico riferimento all’attività di regolazione dell’economia svolta dai soggetti pubblici, ambito nella quale rientra la funzione antitrust. Si é provato in particolare ad evidenziare, a livello generale, quali sono i requisiti necessari ad un’autorità amministrativa antitrust, costituita e dotata di poteri ad hoc, affinché essa agisca, nella sua attività di regolazione, secondo il principio di efficienza, Il capitolo si chiude allargando l’orizzonte della ricerca verso una possibile alternativa metodologica al criterio di efficienza precedentemente definito: vi si é infatti brevemente interrogati circa lo schema interpretativo nel quale ci muoviamo, affrontando la questione definitoria del criterio di efficienza, ponendolo in relazione con l’unico modello alternativo esistente, quello sviluppatosi nella cultura cinese. Non certo per elaborare un’applicazione in “salsa cinese” del criterio di efficienza alla tutela della concorrenza, compito al quale lo scrivente non sarebbe stato in grado di ottemperare, bensì, più semplicemente per dare conto di un diverso approccio alla questione che il futuro ruolo di superpotenza economica della Cina imporrà di prendere in considerazione. Capitolo 3 Nel terzo capitolo si passa a definire il concetto di concorrenza come istituto oggetto di tutela da parte della legge antitrust, per poi descrivere la nascita e l’evoluzione di tale legislazione negli Stati Uniti e della sua applicazione, posto che il diritto antitrust statunitense ancora oggi costituisce il necessario punto di riferimento per lo studioso di questa materia. L’evoluzione del diritto antitrust statunitense é stata analizzata parallelamente allo sviluppo delle principali teorie di law and economics che hanno interpretato il diritto della concorrenza quale possibile strumento per conseguire l’obiettivo dell’efficienza economica: la Scuola di Harvard e il paradigma strutturalista, la teoria evoluzionista della Scuola Austriaca, la Scuola di Chicago; le c.d. teorie “Post-Chicago”. Nel terzo capitolo, in altri termini, si é dato conto dell’evoluzione del pensiero economico con riferimento alla sua applicazione al diritto antitrust, focalizzando l’attenzione su quanto avvenuto negli Stati Uniti, paese nel quale sono nati sia l’istituto giuridico della tutela della concorrenza sia l’analisi economica del diritto. A conclusione di questa ricostruzione dottrinale ho brevemente esaminato quelle che sono le nuove tendenze dell’analisi economica del diritto, e specificatamente la teoria del comportamento irrazionale, benché esse non abbiano ancora ricevuto applicazione al diritto antitrust. Chi scrive ritiene infatti che queste teorie avranno ricadute anche in questa materia poiché essa costituisce uno dei principali ambiti applicativi della law and economics. Capitolo 4 Nel quarto capitolo é stata effettuata una disanima della disciplina comunitaria antitrust sottolineando come l’Unione Europea si proponga attraverso la sua applicazione, soprattutto in materia di intese, di perseguire fini eterogenei, sia economici che non economici, tra loro diversi e non di rado contrastanti, e analizzando come questa eterogeneità di obiettivi abbia influito sull’applicazione del criterio di efficienza. Attenendomi in questo capitolo al dato normativo, ho innanzitutto evidenziato l’ampiezza dell’ambito di applicazione della disciplina comunitaria antitrust sia dal punto di vista soggettivo che territoriale (dottrina dell’effetto utile), sottolineando come la norma giustifichi esplicitamente il ricorso al criterio di efficienza solo nella valutazione delle intese: il comma 3 dell’art. 81 del Trattato include, infatti, tra i requisiti di una possibile esenzione dall’applicazione del divieto per le intese qualificate come restrittive della concorrenza, la possibilità di ottenere incrementi di efficienza tecnica e/o dinamica attraverso l’implementazione delle intese in questione. Tuttavia la previsione da parte dello stesso art. 81 (3) di altri requisiti che devono contemporaneamente essere soddisfatti affinché un intesa restrittiva della concorrenza possa beneficiare dell’esenzione, nonché la possibile diversa interpretazione della locuzione “progresso tecnico ed economico”, impone, o comunque ammette, il perseguimento di altri obiettivi, contestualmente a quello dell’efficienza, giustificando così quell’eterogeneità dei fini che contraddistingue la politica della concorrenza dell’Unione Europea. Se la disciplina delle intese aiuta a comprendere il ruolo del criterio di efficienza nell’applicazione dei precetti antitrust da parte degli organi comunitari, l’art. 82 del Trattato non contiene invece alcun riferimento alla possibilità di utilizzare il criterio di efficienza nella valutazione delle condotte unilaterali poste in essere da imprese in posizione dominante sul mercato rilevante. Si è peraltro dato conto della consultazione recentemente avviata dalla Commissione Europea finalizzata all’elaborazione di Linee Guida che definiscano i criteri di interpretazione che l’organo comunitario dovrà seguire nella valutazione dei comportamenti unilaterali. A parere dello scrivente, anzi, l’assenza di un preciso schema cui subordinare la possibilità di ricorrere al criterio di efficienza nella valutazione della fattispecie, attribuisce alle autorità competenti un più ampio margine di discrezionalità nell’utilizzo del suddetto criterio poiché manca il vincolo della contestuale sussistenza delle altre condizioni di cui all’art. 81(3). Per quanto concerne infine la disciplina delle concentrazioni, essa, come abbiamo visto, prevede un riferimento ai possibili incrementi di efficienza (tecnica e dinamica) derivanti da operazioni di fusione, utilizzando la nozione utilizzata per le intese, così come nel precedente Regolamento 4064/89. Si é infine analizzato il nuovo Regolamento in materia di concentrazioni che avrebbe potuto costituire l’occasione per recepire nella disciplina comunitaria l’attribuzione della facoltà di ricorrere all’efficiency defense in presenza di una fattispecie, quella della fusione tra imprese, suscettibile più di altre di essere valutata secondo il criterio di efficienza, ma che si é invece limitato a riprendere la medesima locuzione presente nell’art. 81(3). Il capitolo attesta anche l’attenzione verso l’istanza di efficienza che ha riguardato il meccanismo di applicazione della norma antitrust e non il contenuto della norma stessa; a questo profilo attiene, infatti, l’innovazione apportata dal Regolamento 1/2003 che ha permesso, a parere dello scrivente, un’attribuzione più razionale della competenza nella valutazione dei casi tra la Commissione e le autorità nazionali degli Stati membri; tuttavia pone alcune questioni che investono direttamente il tema dei criteri di valutazione utilizzati dalle autorità competenti. Capitolo 5 L’analisi del quarto capitolo é stata condotta, sebbene in forma più sintetica, con riferimento alle normative antitrust dei principali Stati membri della Comunità Europea (Germania, Gran Bretagna, Spagna, Francia e Italia), rapportando anche queste al criterio di efficienza, ove possibile. Particolare attenzione é stata dedicata ai poteri e alle competenze attribuite alle autorità nazionali antitrust oggetto di studio dall’ordinamento giuridico cui appartengono e al contesto, in termini di sistema giuridico, nel quale esse operano. Capitolo 6 Si é provato ad effettuare una valutazione del livello di efficienza delle autorità prese in esame, la Commissione e le diverse autorità nazionali e ciò con particolare riferimento alla idoneità di queste a svolgere i compiti istituzionali loro affidati (criterio di efficienza dal punto di vista giuridico): affinchè un’autorità si possa ispirare al criterio di efficienza economica nell’adozione delle decisioni, infatti, è preliminarmente necessario che essa sia idonea a svolgere il compito che le è stato affidato dall’ordinamento. In questo senso si é osservata la difficoltà dei paesi di civil law a inquadrare le autorità indipendenti all’interno di un modello, quello appunto di civil law, ispirato a una rigida tripartizione dei poteri. Da qui la difficile collocazione di queste autorità che, al contrario, costituiscono un potere “ibrido” che esercita una funzione di vigilanza e garanzia non attribuibile integralmente né al potere esecutivo né a quello giurisdizionale. Si rileva inoltre una certa sovrapposizione delle competenze e dei poteri tra autorità antitrust e organi ministeriali, in particolare nel campo delle concentrazioni che ingenera un rischio di confusione e bassa efficienza del sistema. Mantenendo, infatti, un parziale controllo politico si rischia, oltre all’introduzione di criteri di valutazione politica che prescindono dagli effetti delle fattispecie concrete sul livello di concorrenza ed efficienza del mercato, anche di dare luogo a conflitti tra le diverse autorità del sistema che impediscano l’adozione e l’implementazione di decisioni definitive, incrementando altresì i costi dell’intervento pubblico. Un giudizio a parte è stato infine formulato con riguardo alla Commissione Europea, istituzione, in quanto avente caratteristiche e poteri peculiari. Da un lato l’assenza di vincolo di mandato dei Commissari e l’elevata preparazione tecnica dei funzionari costituiscono aspetti che avvicinano la Commissione al modello dell’autorità indipendenti, e l’ampiezza dei poteri in capo ad essa le permette di operare efficientemente grazie anche alla possibilità di valersi dell’assistenza delle autorità nazionali. Dall’altra parte, tuttavia la Commissione si caratterizza sempre di più come un organo politico svolgente funzioni esecutive, di indirizzo e di coordinamento che possono influenzare gli obiettivi che essa persegue attraverso l’attività antitrust, deviandola dal rispetto del criterio di efficienza. Capitolo 7 Una volta definito il contesto istituzionale di riferimento e la sua idoneità a svolgere la funzione affidatagli dall’ordinamento comunitario, nonché da quelli nazionali, si è proceduto quindi all’analisi delle decisioni adottate da alcune delle principali autorità nazionali europee competenti ad applicare la disciplina della concorrenza dal punto di vista dell’efficienza. A tal fine le fattispecie rilevanti a fini antitrust dal punto di vista giuridico sono state classificate utilizzando un criterio economico, individuando e definendo quelle condotte che presentano elementi comuni sotto il profilo economico e per ciascuna di esse sono state inquadrate le problematiche rilevanti ai fini dell’efficienza economica sulla scorta dei contributi teorici e delle analisi empiriche svolte dalla letteratura. 6 Con riferimento a ciascuna condotta rilevante ho esaminato il contenuto di alcune delle decisioni antitrust più significative e le ho interpretate in base al criterio di efficienza. verificando se e in quale misura le autorità antitrust prese in esame utilizzano tale criterio, cercando altresì di valutare l’evoluzione dei parametri di valutazione occorsa nel corso degli anni. Le decisioni analizzate sono soprattutto quelle adottate dalla Commissione e le eventuali relative sentenze della Corte di Giustizia Europea; ciò sia per la maggior rilevanza dei casi trattati a livello comunitario, sia in quanto le autorità nazionali, con qualche rara eccezione, si conformano generalmente ai criteri interpretativi della Commissione. Riferimenti a decisioni adottate dalle autorità nazionali sono stati collocati allorquando i loro criteri interpretativi si discostino da quelli utilizzati dagli organi comunitari. Ne è emerso un crescente, anche se ancora sporadico e incostante, ricorso al criterio di efficienza da parte degli organi europei preposti alla tutela della concorrenza. Il tuttora scarso utilizzo del criterio di efficienza nello svolgimento dell’attività antitrust è motivato, a parere di chi scrive, in parte dall’eterogeneità degli obiettivi che l’Unione Europea persegue attraverso la politica della concorrenza comunitaria (completamento del mercato unico, tutela del consumatore, politica industriale, sviluppo delle aree svantaggiate), in parte dall’incapacità (o dall’impossibilità) delle autorità di effettuare coerenti analisi economiche delle singole fattispecie concrete. Anche le principali autorità nazionali mostrano una crescente propensione a tendere conto dell’efficienza nella valutazione dei casi, soprattutto con riferimento agli accordi verticali e alle concentrazioni, sulla scia della prassi comunitaria. Più innovativa nell’applicazione del criterio di efficienza economica così come nella ricerca di uso ottimale delle risorse si è finora dimostrato l’OFT, come vedremo anche nel prossimo capitolo. Al contrario sembra più lenta l’evoluzione in questo senso dell’Ufficio dei Cartelli tedesco sia a causa delle già citate caratteristiche della legge antitrust tedesca, sia a causa del persistente principio ordoliberale della prevalenza del criterio della rule of law sulla rule of reason. Peraltro, anche nei casi in cui le Autorità siano propense ad utilizzare il criterio di efficienza nelle loro valutazioni, esse si limitano generalmente ad un’analisi teorica dell’esistenza di precondizioni che consentano alle imprese in questione di ottenere guadagni di efficienza. La sussistenza di tali pre-condizioni viene infatti rilevata sulla base della capacità potenziale della condotta dell’impresa (o delle imprese) di avere un effetto positivo in termini di efficienza, nonché sulla base delle caratteristiche del mercato rilevante. Raramente, invece, si tiene conto della capacità reale dei soggetti che pongono in essere la pratica suscettibile di essere restrittiva della concorrenza di cogliere effettivamente queste opportunità, ovvero se la struttura e l’organizzazione interna dell’impresa (o delle imprese) non è in grado di mettere in pratica ciò che la teoria suggerisce a causa di sue carenza interne o comunque in ragione delle strategie che persegue. Capitolo 8 Poiché l’approccio ispirato al criterio di efficienza economica non può prescindere dalle caratteristiche del settore e del mercato in cui operano l’impresa o le imprese che hanno posto in essere la condotta sotto esame, e poiché una valutazione approfondita di tutti i settori non era effettuabile per quantità di decisioni adottate dalle autorità, ho infine ritenuto di svolgere un’analisi dettagliata dell’attività delle autorità con riferimento ad uno specifico settore. La scelta è caduta sul settore dei trasporti in quanto esso presenta alcune problematiche che intrecciano l’esigenza di efficienza con la tutela della concorrenza, nonché per la sua importanza ai fini dello sviluppo economico. Tanto più alla luce del fenomeno della crescente apertura dei mercati che ha enfatizzato la triplice funzione dei trasporti di merci, di livellamento nello spazio dei prezzi di produzione, di redistribuzione nello spazio dell’impiego dei fattori della produzione, e soprattutto di sollecitazione al miglioramento delle tecnologie utilizzate nella produzione stessa in quanto contribuiscono alla divisione territoriale del lavoro e alla specializzazione produttiva. A loro volta, d’altra parte, i miglioramenti tecnici e organizzativi intervenuti nel settore negli ultimi trenta anni hanno reso possibile il fenomeno della globalizzazione nella misura in cui lo conosciamo. Così come le riduzioni di costo e di tempo conseguite nel trasporto di persone hanno consentito massicci spostamenti di lavoratori e più in generale di capitale umano da una parte all’altra del globo, e favorito altresì la spettacolare crescita del settore turistico. Ho quindi condotto un’analisi delle decisioni antitrust relative al settore dei trasporti, suddividendo la casistica in base al comparto al quale esse si riferivano, cercando sempre di non perdere di vista i crescenti legami che esistono tra i vari comparti alla luce dell’ormai affermato fenomeno del trasporto multimodale. Dall’analisi svolta emerge innanzitutto come l’assoggettamento del settore dei trasporti alla disciplina di tutela della concorrenza sia un fenomeno relativamente recente rispetto alle altre attività economiche, laddove la ragione di tale ritardo risiede nel fatto che tradizionalmente questo settore era caratterizzato da un intervento pubblico diretto e da una pervasiva regolamentazione, a sua volta giustificata da vari fattori economici: le caratteristiche di monopolio naturale delle infrastrutture; le esigenze di servizio pubblico connesse all’erogazione di molti servizi di trasporto; il ruolo strategico svolto dal trasporto sia di persone che di merci ai fini della crescita economica di un sistema. Si concretizza, inoltre, con riferimento ai trasporti marittimi e aerei, l’inadeguatezza della dimensione nazionale e comunitaria delle autorità competenti rispetto a comportamenti di impresa che spesso hanno effetti letteralmente globali. Le imprese marittime e aeree coinvolte nelle fattispecie da noi esaminate, infatti, in molti casi predisponevano, direttamente o mediatamente, tramite “alleanze”, collegamenti tra tutte le aree del mondo, individuando nell’Europa solo un nodo di un network ben più ampio Da questa constatazione discende, a parere dello scrivente, l’impossibilità per l’autorità comunitaria e ancor più per quella nazionale di individuare tutti gli effetti in termini di efficienza che la fattispecie concreta può provocare, non includendo pertanto solo quelli evidenti sul mercato comunitario. Conseguentemente una reale applicazione del criterio di efficienza all’attività antitrust nel settore dei trasporti non può prescindere da una collaborazione tra autorità a livello mondiale sia a fini di indagine che a fini di individuazione di alcuni principi fondamentali cui ispirarsi nello svolgimento della loro missione istituzionale. Capitolo 9. Conclusioni L’opera si chiude con l’individuazione delle evidenze e degli elementi emersi dalla trattazione considerati dallo scrivente maggiormente rilevanti nell’ambito dell’attuale dibattito di economia positiva circa le principali problematiche che affiggono l’intervento antitrust con particolare riferimento al suo rispetto del criterio di efficienza. Sono state altresì proposte alcune soluzioni a quelle che sono, a parere dello scrivente, le principali carenze dell’attuale configurazione dell’intervento antitrust a livello europeo, sempre in una prospettiva di efficienza sia delle autorità competenti sia dei mercati in cui le autorità stesse cercano di mantenere o ripristinare condizioni di concorrenza effettiva. Da un lato il modello costituito dalla Commissione Europea, l’autorità antitrust comunitaria, non replicabile né esente da critiche: la Commissione, infatti, rappresenta il Governo dell’Unione Europea e come tale non può ovviamente costituire un esempio di autorità indipendente e neutrale recepibile da parte degli Stati membri. Ciò anche a prescindere dalla questione della sua legittimazione, che in questa sede non affrontiamo. Dall’altro in una prospettiva di efficienza dei mercati la crescente applicazione delle teorie economiche da parte delle autorità esaminate è rimasta a un livello astratto, senza porre la dovuta attenzione alle specificità dei mercati rilevanti né tantomeno alle dinamiche interne alle singole imprese, con particolare riferimento alla loro capacità di rendere effettivi i guadagni di efficienza individuabili a livello potenziale, così come prescrive la più recente teoria economica applicata al diritto antitrust. Sotto il profilo dell’applicazione del criterio di efficienza si può comunque affermare che l’evoluzione che ha avuto la prassi decisionale e la giurisprudenza, comunitaria e degli Stati membri, in materia antitrust è stata caratterizzata dal loro progressivo avvicinamento alle tendenze sviluppatesi nelle agencies e nella giurisprudenza statunitense a partire dagli anni’70, caratterizzate dalla valutazione degli effetti, piuttosto che della forma giuridica, dal riconoscimento del criterio di efficienza e dalla rule of reason quale approccio metodologico. L’effetto è stato quello di determinare una significativa riduzione delle differenze inizialmente emerse tra le due esperienze, nate inizialmente sotto diverse prospettive politiche. Per quanto concerne specificatamente i trasporti sono emersi sotto il profilo economico due aspetti rilevanti, oltre al perdurante ritardo con cui il processo di liberalizzazione del trasporto ferroviario che limita fortemente l’intervento antitrust nel comparto, ma che esula dalla competenza delle stesse autorità antitrust. Il primo consiste nella spesso troppo rigida separazione tra comparti adottata dalle autorità. Il secondo è l’estensivo ricorso all’essential facility doctrine nelle fattispecie riguardanti infrastrutture portuali e aeroportuali: la massimizzazione dell’efficienza dinamica consiglierebbe in questi casi una maggiore cautela, in quanto si tratta di un paradigma che, una volta applicato, disincentiva la duplicazione e l’ampliamento di tali infrastrutture autoalimentandone il carattere di essenzialità. Ciò soprattutto laddove queste infrastrutture possono essere sostituite o duplicate piuttosto facilmente da un punto di vista tecnico (meno da un punto di vista economico e giuridico), essendo esse nodi e non reti. E’stata infine sottolineata l’inadeguatezza della dimensione nazionale e comunitaria delle autorità competenti rispetto a comportamenti di impresa che con riferimento ai trasporti marittimi ed aerei hanno effetti letteralmente globali. E’ di tutta evidenza che le autorità comunitarie e tantomeno quelle nazionali non sono da sole in grado di condurre le analisi quantitative necessarie ad una valutazione di tali condotte ispirata a un criterio di efficienza che tenga conto degli effetti di lungo periodo della fattispecie concreta. Né tali autorità sono sufficientemente neutre rispetto alla nazionalità delle imprese indagate per poter giudicare sulla liceità o meno della condotta in questione senza considerare gli effetti della loro decisione sull’economia interna, rendendo così ancora più improbabile un corretto utilizzo del criterio di efficienza. Da ultimo ho constatato come l’applicazione del concetto di efficienza giuridica imporrebbe di concepire autorità antitrust del tutto nuove, sganciate quanto più possibile dall’elemento territoriale, in grado di elaborare regole e standards minimi comuni e di permettere il controllo dei comportamenti di impresa in un contesto ampliato rispetto al tradizionale mercato unico, nonchè ai singoli mercati nazionali. Il processo di armonizzazione a livello globale è difficile e il quadro che attualmente viene formato è ancora confuso e incompleto. Vi sono tuttavia sparsi segnali attraverso i quali é possibile intravedere i lineamenti di una futura global governance della concorrenza che permetterà, sperabilmente, di incrementare l’efficienza di un sistema, quello antitrust, che tanto più piccolo è l’ambito in cui opera quanto più si sta dimostrando inadeguato a svolgere il compito affidatogli. Solo il futuro, peraltro, ci consentirà di verificare la direzione di sviluppo di questi segnali.
Resumo:
Il percorso parte dall'analisi delle strategie della Teoria dei giochi, si sofferma sul concetto di razionalità nelle decisioni(economiche); continua con la descrizione del funzionamento del baratto in tempi antichi e le declinazioni che ha avuto(economie del dono, baratto muto); esamina la teoria del valore di Carl Menger, per poi allargare la visione alle teorie del valore enunciate dagli economisti dal XVIII secolo, anni in cui si iniziavano ad esaminare i meccanismi alla base degli scambi di mercato; si precisa il funzionamento del ciclo economico(non è eterno), la possibilità di crollo del sistema economico, le ripercussioni di questo sulla moneta(ricerca di sistemi economici alternativi). Nella seconda parte si analizzano i risultati delle più recenti simulazioni relative alla nascita della moneta e, non meno importante, al suo collasso.
Resumo:
Le neuroscienze occupano oggi un ruolo essenziale nel dibattito scientifico e filosofico, nonché in quello delle scienze umane. Esse costituiscono la sfida più seria al sapere fin qui elaborato intorno ai fondamenti dell'esperienza di coscienza, poiché si propongono come capaci di rispondere alla domanda di origine e funzionamento della coscienza. Le neuroscienze cognitive stanno, oggi, rivoluzionando la nostra concezione della mente e delle sue funzioni. Ci forniscono nuovi dati sulla natura delle sensazioni, della memoria, della percezione e dei processi di astrazione. L'epistemologia è rientrata così pienamente nell'ambito di una disciplina sperimentale, come diversi filosofi (da Hume a Quine) hanno auspicato. È, alla fine, evoluta nell'esperienza odierna della cosiddetta "epistemologia sperimentale", luogo che coniuga il rigore sperimentale della scienza con la profondità e la sofisticazione argomentativa della tradizione filosofica. Come arriviamo a conoscere? Quali vincoli poniamo a quello che deve essere conosciuto? Perché seguiamo certe vie invece di altre? Come arriviamo a formulare giudizi e a prendere decisioni? Che valore ha la conoscenza già acquisita nell'elaborazione di nuove esperienze? In particolare, che peso hanno le aspettative e i ricordi in questo processo? Qual è il rapporto fra esperienza, conoscenza e memoria? Come si fissano e come si richiamano i ricordi? Qual è il rapporto fra coscienza e memoria? Sono alcune delle domande che l'autore si pone in questa ottica e alle quali cerca di rispondere, a partire dall'analisi e valutazione del dialogo-dibattito fra J.-P. Changeux e P. Ricoeur, per apprenderne il linguaggio, capire i problemi sollevati, adattarsi alla complessità della materia. Nel contesto della filosofia della mente, la "lettura" della discussione ripercorre i relativi percorsi attraverso l'analisi delle loro opere, da un lato quelle dello scienziato (sulla struttura e dinamica del cervello, la teoria dell'epigenesi e stabilizzazione selettiva, le speculazioni sull'uomo neuronale e i rilievi antropologici, le teorie della conoscenza e della coscienza, oltre che sulla conoscenza matematica, gli argomenti di estetica ed etica); dall'altro lato quelle del filosofo (dal Cogito riflessivo alla scoperta dell'ermeneutica, dalle eterogenee riflessioni sul Conflitto delle interpretazioni alla grande teoria sulla creatività del linguaggio, le conclusioni teoriche sull'ermeneutica del sé e l'ontologia dell'agire). Il punto di arrivo è la determinazione delle relative posizioni: quella di Changeux tra i neuroscienziati che si occupano di questioni filosofiche, epistemologiche ed etiche, e quella di Ricoeur tra i filosofi che si occupano di neuroscienze. La conclusione della tesi si svolge in un approfondimento teoretico che dalla nozione di "traccia" porta all'esperienza della "memoria", al fine di intrecciare i fili della discussione ripercorsa ed offrire una sponda non forzata al dibattito più ampio. Il tema della memoria è privilegiato per ragioni intrinseche, poiché si tratta di uno dei temi precipui delle neuroscienze, della filosofia della mente e della fenomenologia. A un primo livello viene instaurato su questo punto un confronto epistemologico tra la proposta della neurofenomenologia (Varala, ad esempio) e la posizione tenuta in particolare da Ricoeur rispetto ad essa e al suo "progetto unificante", posizione defilata e, per certi aspetti, criticamente dubbiosa sul fatto che si possa davvero giungere a un "terzo discorso". Si riferisce poi del largo interesse e dei risultati più significativi della riflessione fenomenologica antica e moderna sulla memoria. A un secondo livello vengono illustrati i programmi di ricerca recenti della neurofenomenologia su questo argomento all'interno delle scienze cognitive e si dà conto dei risultati più significativi. Ad un terzo e conclusivo livello, si approfondisce il significato teologico della memoria. Les neurosciences ont aujourd'hui un rôle essentiel dans le débat scientifique et philosophique, ainsi que dans celui des sciences humaines. Elles constituent le défi le plus sérieux aux savoir qu'on a construit jusqu'ici sur les fondements de l'expérience de conscience, attendu qu'elles-mêmes se considèrent capables de répondre à la demande sur l'origine e le fonctionnement de la conscience. Les neurosciences cognitives sont aujourd'hui en train de révolutionner notre conception de l'esprit et des ses fonctions. Elles nous offrent des nouvelles données au sujet de la nature de nos sensations, mémoire, perception et procédés d'abstraction. Aussi l'épistémologie est rentrée pleinement dans le domaine d'une discipline expérimentale, comme plusieurs philosophes (de Hume à Quine) l'ont souhaité. Elle s'est enfin adressée, dans l'expérience actuelle, vers la soi-disant "épistémologie expérimentale", lieu qui met en accord la rigueur expérimentale de la science avec la profondeur et la sophistiquée finesse argumentative de la tradition philosophique. Comment en arrivons-nous à connaître? Quels liens mettons-nous à ce qu'on doit être connu? Pourquoi suivons-nous certaines vois au lieu d'autres? Comment en arrivons-nous à formuler des opinions et à prendre des décisions? Quelle valeur a la connaissance qu'on a déjà acquise par l'élaboration des nouvelles expériences? En particulier, quelle est l'importance des attentes et des souvenirs dans cette évolution? Quel est le rapport entre expérience, connaissance e mémoire? Comment fixons et rappelons-nous nos souvenirs? Quel est le rapport entre conscience et mémoire? Ces sont quelques-unes des questions que l'auteur se pose dans cette perspective et aux quelles essaie de répondre a partir de l'analyse et l'évaluation du dialogue-débat entre fra J.-P. Changeux et P. Ricoeur, pour en apprendre le langage, comprendre les problèmes soulevés, s'adapter à la complexité du sujet. Dans le contexte de la philosophie du cerveau, la "lecture" du dialogue reparcourt les parcours des deux interlocuteurs par l'analyse de leur ouvrages, d'une part celles du savant (sur la structure et la dynamique du cerveau, la théorie de l'épigenèse et stabilisation sélective; les spéculations sur l'homme neuronal et les commentaires anthropologiques; les théories de la connaissance et de la conscience, de même que sur la connaissance de la mathématique, les sujets d'esthétique et étique; d'autre part celles du philosophe (du Cogito réflexif à la découverte de l'herméneutique, de les hétérogènes réflexions sur le Conflit des interprétations à la grande théorie sur la créativité du langage, les conclusions théoriques sur l'herméneutique du soi et l'ontologie de l'agir). L'issue est la determination des relatives positions: celle de Changeux parmi les neuro-scientifiques qui s'occupent de questions philosophiques, épistémologiques et éthiques, et celle de Ricoeur parmi les philosophes qui s'occupent de neurosciences. La conclusion de la thèse se développe dans un approfondissement théorétique que de la notion de "trace" à l'expérience de la "mémoire", à l'effet de nouer les fils de la discussion passée en revue et d'assurer un appui pas forcé au débat plus vaste. Le thème de la mémoire a été choisi pour des raisons intrinsèques, puisqu'il est un des thèmes principaux des neurosciences, de la philosophie de l'esprit et de la phénoménologie. Sur un premier plan épistémologique il est établi une comparaison entre la proposition de la neurophénoménologie (Varala, par exemple) et la position soutenue en particulier par Ricoeur au sujet de ce courant phénoménologique et de son "projet unifiant", position défilée et, à certains égards, critiquement hésitante sur le fait qu'on puisse vraiment en venir à un "troisième discours". On rend compte du grand intérêt et des résultats les plus significatifs de la réflexion phénoménologique ancienne et moderne sur la mémoire. Sur un second plan neurophénoménologique on illustre des plans de recherche récents sur cet argument au-dedans des sciences cognitives et on rend compte des résultats les plus distinctives. Sur un troisième et conclusif plan on approfondit le sens théologique de la mémoire.
Resumo:
Questa tesi di dottorato ha per suo oggetto la ricognizione degli elementi teorici, di linguaggio politico e di influenza concettuale che le scienze sociali tra Ottocento e Novecento hanno avuto nell’opera di Antonio Gramsci. La ricerca si articola in cinque capitoli, ciascuno dei quali intende ricostruire, da una parte, la ricezione gramsciana dei testi classici della sociologia e della scienza politica del suo tempo, dall’altra, far emergere quelle filiazioni concettuali che permettano di valutare la portata dell’influenza delle scienze sociali sugli scritti gramsciani. Il lungo processo di sedimentazione concettuale del lessico delle scienze sociali inizia in Gramsci già negli anni della formazione politica, sullo sfondo di una Torino positivista che esprime le punte più avanzate del “progetto grande borghese” per lo studio scientifico della società e per la sua “organizzazione disciplinata”; di questa tradizione culturale Gramsci incrocia a più riprese il percorso. La sua formazione più propriamente politica si svolge però all’interno del Partito socialista, ancora imbevuto del lessico positivista ed evoluzionista. Questi due grandi filoni culturali costituiscono il brodo di coltura, rifiutato politicamente ma al tempo stesso assunto concettualmente, per quelle suggestioni sociologiche che Gramsci metterà a frutto in modo più organico nei Quaderni. La ricerca e la fissazione di una specifica antropologia politica implicita al discorso gramsciano è il secondo stadio della ricerca, nella direzione di un’articolazione complessiva delle suggestioni sociologiche che i Quaderni assumono come elementi di analisi politica. L’analisi si sposta sulla storia intellettuale della Francia della Terza Repubblica, più precisamente sulla nascita del paradigma sociologico durkheimiano come espressione diretta delle necessità di integrazione sociale. Vengono così messe in risalto alcune assonanze lessicali e concettuali tra il discorso di Durkheim, di Sorel e quello di Gramsci. Con il terzo capitolo si entra più in profondità nella struttura concettuale che caratterizza il laboratorio dei Quaderni. Si ricostruisce la genesi di concetti come «blocco storico», «ideologia» ed «egemonia» per farne risaltare quelle componenti che rimandano direttamente alle funzioni di integrazione di un sistema sociale. La declinazione gramsciana di questo problema prende le forme di un discorso sull’«organicità» che rende più che mai esplicito il suo debito teorico nei confronti dell’orizzonte concettuale delle scienze sociali. Il nucleo di problemi connessi a questa trattazione fa anche emergere l’assunzione di un vero e proprio lessico sociologico, come per i concetti di «conformismo» e «coercizione», comunque molto distante dallo spazio semantico proprio del marxismo contemporaneo a Gramsci. Nel quarto capitolo si affronta un caso paradigmatico per quanto riguarda l’assunzione non solo del lessico e dei concetti delle scienze sociali, ma anche dei temi e delle modalità della ricerca sociale. Il quaderno 22 intitolato Americanismo e fordismo è il termine di paragone rispetto alla realtà che Gramsci si prefigge di indagare. Le consonanze delle analisi gramsciane con quelle weberiane dei saggi su Selezione e adattamento forniscono poi gli spunti necessari per valutare le novità emerse negli Stati Uniti con la razionalizzazione produttiva taylorista, specialmente in quella sua parte che riguarda la pervasività delle tecniche di controllo della vita extra-lavorativa degli operai. L’ultimo capitolo affronta direttamente la questione delle aporie che la ricezione della teoria sociologica di Weber e la scienza politica italiana rappresentata dagli elitisti Mosca, Pareto e Michels, sollevano per la riformulazione dei concetti politici gramsciani. L’orizzonte problematico in cui si inserisce questa ricerca è l’individuazione di una possibile “sociologia del politico” gramsciana che metta a tema quel rapporto, che è sempre stato di difficile composizione, tra marxismo e scienze sociali.
Resumo:
Il Test di Risposta Termica (Thermal Response Test-TRT) (Mogenson,1983) è il test esistente con il più alto grado di accuratezza per la caratterizzazione del reservoir geotermico superficiale. Il test consiste in una simulazione in situ del funzionamento di un sistema a circuito chiuso di sfruttamento dell’energia geotermica, per un periodo limitato di tempo, attraverso l’iniezione o estrazione di calore a potenza costante all’interno del geo-scambiatore (Borehole Heat Exchanger-BHE). Dall’analisi della variazione delle temperature del fluido circolante, è possibile avere una stima delle proprietà termiche medie del volume del reservoir geotermico interessato dal test. Le grandezze principali per la caratterizzazione di un serbatoio geotermico sono la conduttività termica (λ), la capacità termica volumetrica (c), la temperatura indisturbata del suolo (Tg) e la resistenza termica del pozzo (Rb); la loro determinazione è necessaria per il corretto progettazione degli geo-scambiatori. I risultati del TRT sono tuttavia sensibili alle condizioni al contorno spazio-temporali quali ad es.: variazione della temperatura del terreno, movimento d’acqua di falda, condizioni metereologiche, eventi stagionali, ecc. Questo lavoro vuole: i) introdurre uno studio sui problemi di caratterizzazione del reservoir geotermico superficiale, in particolare analizzando l’effetto che il movimento d’acqua di falda ha sui parametri termici; ii) analizzare la sensitività dei risultati del test alle variabilità dei parametri caratteristici del funzionamento delle attrezzature. Parte del lavoro della mia tesi è stata svolta in azienda per un periodo di 4 mesi presso la “Groenholland Geo Energy systems” che ha sede ad Amsterdam in Olanda. Tre diversi esperimenti sono stati realizzati sullo stesso sito (stratigrafia nota del terreno: argilla, sabbia fine e sabbia grossa) usando una sonda profonda 30 metri e diversi pozzi per l’estrazione d’acqua e per monitorare gli effetti in prossimità del geo scambiatore. I risultati degli esperimenti sono stati molto diversi tra di loro, non solo in termini di dati registrati (temperature del fluido termovettore), ma in termini dei valori dei parametri ottenuti elaborando i dati. In particolare non è sufficiente adottare il modello classico della sorgente lineare infinita (Infinite Line Source Solution- ILS) (Ingersoll and Plass, 1948), il quale descrive il trasferimento di calore per conduzione in un mezzo omogeneo indefinito a temperatura costante. Infatti, lo scambio di calore avviene anche tramite convezione causata dal movimento d’acqua di falda, non identificabile mediante gli approcci classici tipo CUSUM test (Cumulative Sum test) (Brown e altri,1975) Lo studio della tesi vuole dare un quadro di riferimento per correlare la variabilità dei risultati con la variabilità delle condizioni al contorno. L’analisi integra le metodologie classiche (ILS) con un approccio geostatistico utile a comprendere i fenomeni e fluttuazioni che caratterizzano il test. Lo studio delle principali variabili e parametri del test, quali temperatura in ingresso e uscita del fluido termovettore, portata del fluido e potenza iniettata o estratta, è stato sviluppato mediante: il variogramma temporale, ovvero la semivarianza dell’accrescimento, che esprime il tipo di autocorrelazione temporale della variabile in esame; la covarianza incrociata temporale, ovvero la covarianza fra due variabili del sistema, che ne definisce quantitativamente il grado di correlazione in funzionamento del loro sfasamento temporale. L’approccio geostatistico proposto considera la temperatura del fluido Tf come una funzione aleatoria (FA) non stazionaria nel tempo (Chiles, 1999), il cui trend è formalmente definito, ma deve essere identificato numericamente. Si considera quindi un classico modello a residuo; in cui la FA è modellizzata come la somma di un termine deterministico, la media (il valore atteso) m(t),coincidente col modello descritto dalla teoria della sorgente lineare infinità, e di un termine aleatorio, la fluttuazione, Y(t). Le variabili portata e potenza sono invece considerate delle funzioni aleatorie stazionarie nel tempo, ovvero a media costante. Da questo studio di Tesi si sono raggiunte delle conclusioni molto importanti per lo studio del TRT: Confronto tra gli esperimenti in estrazione di calore, con e senza movimento d’acqua di falda: si studia l’effetto indotto dalla falda sul TRT. E’ possibile caratterizzare quantitativamente l’incremento della conducibilità termica equivalente legata a fenomeni convettivi dovuti al movimento d’acqua di falda. Inoltre, i variogrammi sperimentali evidenziano periodicità simili nei due casi e legate al funzionamento della pompa di calore e della componentistica associata ed alla circolazione del fluido termovettore all’interno della sonda. Tuttavia, la componente advettiva ha un effetto di smorzamento sulle piccole periodicità dei variogrammi, ma di aumento dell’ampiezza delle periodicità maggiori a causa del funzionamento della pompa di calore che deve fornire maggiore energia al sistema per bilanciare le dispersioni dovute al movimento d’acqua di falda. Confronto fra estrazione ed iniezione di calore, con movimento d’acqua di falda: si studia la significatività dei risultati nei due casi. L’analisi delle variografie evidenzia significative differenze nella struttura dei variogrammi sperimentali. In particolare, nel test con iniezione di calore i variogrammi sperimentali delle temperature hanno valori sistematicamente inferiori, circostanza che assicura una migliore precisione nella stima dei parametri termici. Quindi eseguire il TRT in iniezione di calore risulta più preciso. Dall’analisi dei variogrammi sperimentali delle singole variabili quali temperatura del fluido in ingresso e uscita all’interno del geoscambiatore è stato confermato il fenomeno di smorzamento delle oscillazioni da parte del terreno. Dall’analisi delle singole variabili del test (temperature, potenza, portata) è stata confermata l’indipendenza temporale fra portate e temperature. Ciò è evidenziato dalle diverse strutture dei variogrammi diretti e dalle covarianze incrociate prossime a zero. Mediante correlogrami è stato dimostrato la possibilità di calcolare il tempo impiegato dal fluido termovettore per circolare all’interno della sonda. L’analisi geostatistica ha permesso quindi di studiare in dettaglio la sensitività dei risultati del TRT alle diverse condizioni al contorno, quelle legate al reservoir e quelle legate al funzionamento delle attrezzature
Resumo:
Questa tesi è una panoramica di alcuni concetti base su cui si fonda la dinamica delle galassie. Nel primo capitolo vengono messi in evidenza i concetti più generali dal punto di vista morfologico- strutturale attraverso la classificazione di Hubble. Nel secondo capitolo si mette in evidenza come un sistema possa essere definito non collisionale (attraverso la stima del tempo di rilassamento ai due corpi) e le conseguenze che ne derivano come, per esempio, l' anisotropia dello stesso sistema che conferisce alla galassia la sua classica forma “schiacciata”. Vengono poi descritti la collisional Boltzmann equation (CBE) e il teorema del viriale in forma tensoriale . Integrando la CBE nello spazio delle velocità otteniamo tre equazioni note come equazioni di Jeans: queste hanno una struttura del tutto identica a quelle della fluidodinamica ma con alcune eccezioni significative che non permettono di descrivere completamente la dinamica delle galassie attraverso la fluidodinamica. Il terzo capitolo è un excursus generale sulle galassie ellittiche: dalla loro struttura alla loro dinamica. Dall' applicazione del teorema del viriale ad un sistema ellittico si può notare come la forma “schiacciata” delle galassie sia una conseguenza dell' anisotropia del sistema e sia dovuta solo in minima parte alla rotazione. Successivamente viene presentato un modello galattico (quello di Jeans), che ci permette di calcolare una distribuzione di massa del sistema attraverso un' equazione che purtroppo non ha soluzione unica e quindi ci rende impossibile calcolare il rapporto massa- luminosità. Infine viene descritto il fundamental plane che è una relazione empirica tale per cui ad ogni galassia viene associato un determinato valore di raggio effettivo, dispersione di velocità e luminosità. Nel quarto ed ultimo capitolo viene trattata la dinamica delle parti più esterne di una galassia: disco e bracci. La dinamica del disco è descritta attraverso la curva di rotazione che, come vedremo, ha delle caratteristiche abbastanza diverse da una curva di rotazione di tipo kepleriano (quella che ad esempio descrive l' andamento della velocità in funzione della distanza nel nostro sistema solare). Infine viene descritta la dinamica dei bracci e la teoria delle onde di densità di Lin e Shu, due astronomi americani, che riesce a descrivere compiutamente la nascita e l' evoluzione dei bracci a spirale.
Resumo:
L'analisi della segmentazione, viene utilizzata per identificare sottogruppi omogenei all'interno di una popolazione generale. La segmentazione è particolarmente importante se la concorrenza varia nei diversi sottomercati all'interno di un settore in modo tale che alcuni sono più attraenti di altri. Il lavoro di tesi svolto è stato organizzato in quattro capitoli. Nel primo si parla della strategia e dell'importanza che essa riveste per un'azienda, e si analizzanno le caratteristiche di una strategia di successo. Nel secondo capitolo si trattano tre aspetti vitali di un'azienda : la vision, la mission e gli obiettivi. Nel terzo capitolo si parla del modello che Porter ha sviluppato per fornire un quadro di riferimento per la comprensione della competitività strategica di un'impresa all'interno di un mercato specifico. Si definisce formalmente cosa si intende per teoria dei giochi e si presenta quello che probabilmente è l'esempio più noto di questa teoria : il dilemma del prigioniero - un gioco di cooperazione a somma zero. Nel quarto capitolo si analizza la segmentazione del mercato italiano, si fà l'analisi dell'ambiente esterno e vedremo infatti che un'azienda prima di creare piani di business o di prendere decisioni, deve conoscere l'ambiente su cui opera. Ciò può essere ottenuto attraverso un analisi PESTEL.Il capitolo si conclude con l'analisi di un campione di azende su cui calcoleremo alcuni indici medi di redditività, il Return On Assets (ROA), il Return On common Equity (ROE)e l'Earnings Before Interests Taxes and Amortization (EBITA).
Resumo:
Riguarda la realizzazione di un modello per l'analisi prestazionale di un casello autostradale, in grado di valutare performance e livello di qualità erogato all'utenza in relazione al rapporto esistente tra domanda e offerta di servizio. Trattandosi di un varco autostradale si tratterà di analizzare un problema relativo ad un certo numero di veicoli in attesa di ricevere un servizio caratterizzato da tempi e modalità diverse a seconda della tipologia veicolare e della tipologia di esazione utilizzata. Il problema viene affrontato tramite la teoria delle code che permette la valutazione dei relativi parametri prestazionali. Partendo dallo studio dei casi più semplici di coda M/M/1 vengono fatte valutazioni sui tempi di servizio arrivando a identificare il modello M/G/1 come più appropriato per un tale problema. Viene poi illustrata l'impostazione del modello con input e output relativi. Il modello viene infine applicato a una stazione reale della rete per evidenziare le valutazioni che è possibile ottenere da un modello così realizzato.