1000 resultados para teoria dei giochi evoluzione moneta economie baratto
Resumo:
Nel primo capitolo proporrò una breve visione generale della storia che legò queste due realtà per molto tempo e che lasciò inevitabilmente delle tracce a livello lessicale. Nel secondo capitolo potrete trovare una breve analisi del dialetto genovese, lingua per eccellenza del famoso cantautore Fabrizio De André, mentre nel terzo capitolo presenterò una poesia in dialetto spezzino, la lingua della mia città natale, dei miei nonni. Infine, il quarto capitolo sarà consacrato a riflessioni di carattere personale.
Resumo:
Lo scopo dello studio è comprendere i fenomeni alla base della fiducia degli utenti verso l'enciclopedia online Wikipedia. Per farlo è necessario prima di tutto comprendere e modellizzare l'organizzazione della struttura dei processi socio-produttivi sottostanti alla produzione del contenuto di Wikipedia, procedendo quindi nel verificare empiricamente e descrivere le capacità di autocorrezione della stessa. Oltre a quelli utilizzati in questo studio, saranno anche descritti gli approcci e i risultati trattati in letteratura, riportando i principali studi che nel corso degli anni hanno affrontato questi argomenti, sebbene mantenendoli indipendenti. Per comprendere la struttura della community degli editor di Wikipedia, si è ipotizzata l'esistenza di un modello di tipo Core-Periphery. Per studiare il modello sono state eseguite delle analisi su dati derivanti da un campione di pagine della versione italiana di Wikipedia. I risultati ottenuti dall'analisi di queste informazioni rappresentano le basi utilizzate per la selezione delle pagine oggetto dell'iniezione degli errori, costituendo un metodo per stimare le diverse probabilità di autocorrezione per ciascuna pagina. Per quanto riguarda le capacità di resilienza di Wikipedia, i risultati sono ricavati utilizzando un approccio empirico. Questo consiste nell'inserimento di errori all'interno del campione di pagine sotto specifici vincoli metodologici per poi valutare in quanto tempo e con quali modalità questi errori vengono corretti. E' stata effettuata un'analisi specifica per la scelta delle tipologie di errore e delle variabili da considerare nell'inserimento di questi. Questa analisi ha portato alla definizione di 2 esperimenti tra loro distinti, i cui risultati portano ad interessanti conclusioni sia visti separatamente che combinati tra loro. Sulla base dei risultati di questi esperimenti è stato possibile discutere sulle capacità di autocorrezione del sistema, elemento chiave nello studio delle dinamiche della fiducia verso Wikipedia.
Resumo:
Le reti transeuropee sono uno dei vettori della competitività, dell’integrazione e dello sviluppo sostenibile dell’Unione. La tesi mette in luce la progressiva affermazione di una coerente politica infrastrutturale europea a carattere strumentale, esaminando tale evoluzione sotto tre profili: normativo, istituzionale e finanziario. In primo luogo, sotto il profilo normativo, la tesi evidenzia, da un lato, la progressiva emancipazione delle istituzioni dell’Unione dall’influenza degli Stati membri nell’esercizio delle proprie competenze in materia di reti transeuropee e, dall’altro, lo sviluppo di relazioni di complementarietà e specialità tra la politica di reti e altre politiche dell’Unione. L’elaborato sottolinea, in secondo luogo, sotto il profilo istituzionale, il ruolo del processo di «integrazione organica» dei regolatori nazionali e del processo di «agenzificazione» nel perseguimento degli obiettivi di interconnessione e accesso alle reti nazionali. La tesi osserva, infine, sotto il profilo finanziario, l’accresciuta importanza del sostegno finanziario dell’UE alla costituzione delle reti, che si è accompagnata al parziale superamento dei limiti derivanti dal diritto dell’UE alla politiche di spesa pubblica infrastrutturale degli Stati membri. Da un lato rispetto al diritto della concorrenza e, in particolare, al divieto di aiuti di stato, grazie al rapporto funzionale tra reti e prestazione di servizi di interesse economico generale, e dall’altro lato riguardo ai vincoli di bilancio, attraverso un’interpretazione evolutiva della cd. investment clause del Patto di stabilità e crescita. La tesi, in conclusione, rileva gli sviluppi decisivi della politica di reti europea, ma sottolinea il ruolo che gli Stati membri sono destinati a continuare ad esercitare nel suo sviluppo. Da questi ultimi, infatti, dipende la concreta attuazione di tale politica, ma anche il definitivo superamento, in occasione di una prossima revisione dei Trattati, dei retaggi intergovernativi che continuano a caratterizzare il diritto primario in materia.
Resumo:
Questa tesi di dottorato, partendo dall’assunto teorico secondo cui lo sport, pur essendo un fenomeno periferico e non decisivo del sistema politico internazionale, debba considerarsi, in virtù della sua elevata visibilità, sia come un componente delle relazioni internazionali sia come uno strumento di politica estera, si pone l’obiettivo di investigare, con un approccio di tipo storico-politico, l’attività internazionale dello sport italiano nel decennio che va dal 1943 al 1953. Nello specifico viene dedicata una particolare attenzione agli attori e alle istituzioni della “politica estera sportiva”, al rientro dello sport italiano nel consesso internazionale e alla sua forza legittimante di attrazione culturale. Vengono approfonditi altresì alcuni casi relativi a «crisi politiche» che influirono sullo sport e a «crisi sportive» che influenzarono la politica. La ricerca viene portata avanti con lo scopo primario di far emergere, da un lato se e quanto coscientemente lo sport sia stato usato come strumento di politica estera da parte dei governi e della diplomazia dell’Italia repubblicana, dall’altro quanto e con quale intensità lo sviluppo dell’attività internazionale dello sport italiano abbia avuto significative ripercussioni sull’andamento e dai rapporti di forza della politica internazionale.
Resumo:
La cosmologia ha come scopo lo studio di origine ed evoluzione dell’Universo, per averne una comprensione generale attraverso le leggi fisiche conosciute. Il modello del Big Bang, di cui si dà la descrizione teorica nel capitolo 1, è una delle formulazioni più recenti di teoria che mira a spiegare l’inizio e la successiva evoluzione dell’Universo, fino ad avanzare anche ipotesi sul suo destino futuro; è inoltre il modello generalmente accettato dalla comunità scientifica in quanto, di tutti i modelli proposti nel corso degli anni, è quello con più riscontri sperimentali e che meglio si trova in accordo con le osservazioni. I principali successi del modello vengono trattati nel capitolo 2. In particolare: si tratterà di redshift e legge di Hubble, collegati all’espansione dell’Universo, importante prova dell’attendibilità del modello del Big Bang; della radiazione cosmica di fondo, scoperta negli anni ’60 quasi per caso e poi ricondotta a ipotesi teoriche già avanzate anni prima nelle prime formulazioni del modello; della nucleosintesi primordiale, che spiega l’abbondanza attuale dei principali costituenti dell’Universo, H ed He, cosa che altrimenti non sarebbe spiegabile se si considerasse soltanto la formazione di tali elementi nelle stelle. Ovviamente anche questo modello, come si vede nel capitolo 3, non manca di problemi, a cui si è trovata una risoluzione parziale o comunque non definitiva; in questa sede tuttavia, per ragioni di spazio, tali problemi e la loro soluzione verranno soltanto accennati. Si accennerà al problema dell’Universo piatto e al problema dell’orizzonte, e a come essi possano essere spiegati introducendo il concetto di inflazione. Infine, nel capitolo 4, si accenna anche alla materia oscura, soprattutto per quanto riguarda le evidenze sperimentali che ne hanno permesso la scoperta e le prove successive che ne confermano l’esistenza. Tuttora ne ignoriamo natura e composizione, visto che a differenza della materia ordinaria non emette radiazione elettromagnetica, ma i suoi effetti gravitazionali sono evidenti ed è estremamente difficile che la sua esistenza possa essere messa in discussione.
Resumo:
Lo scopo di questo elaborato consiste principalmente in una presentazione generale e teorica dei fondamenti dell'Apprendimento Automatico, dei suoi paradigmi principali e dell’applicazione concreta di due di queste tecniche nei giochi di strategia. Nel primo caso di studio è stato descritto il processo che si cela dietro l’addestramento di una rete neurale per giocare a Tris; nel secondo, invece, è stata riporta l’esperienza che mostra come sia possibile addestrare un giocatore di scacchi attraverso le annotazioni di gioco.
Resumo:
Questo lavoro di tesi si occupa dello studio dei buchi neri e delle loro proprietà termodinamiche da un punto di vista teorico. Nella prima parte si affronta una analisi teorico-matematica che mostra la soluzione dell’equazione di Einstein in relatività generale per un problema a simmetria sferica. Da questa soluzione si osserva la possibile presenza nell’universo di oggetti ai quali nemmeno alla luce è data la possibilità di fuggire, chiamati buchi neri. Ad ogni buco nero è associato un orizzonte degli eventi che si comporta come una membrana a senso unico: materia e luce possono entrare ma niente può uscire. E` studiata inoltre la possibile formazione di questi oggetti, mostrando che se una stella supera un certo valore critico di massa, durante la fase finale della sua evoluzione avverrà un collasso gravitazionale che nessuna forza conosciuta sarà in grado di fermare, portando alla formazione di un buco nero. Nella seconda parte si studiano le leggi meccaniche dei buchi neri. Queste leggi descrivono l’evoluzione degli stessi attraverso parametri come l’area dell’orizzonte degli eventi, la massa e la gravità di superficie. Si delinea quindi una analogia formale tra queste leggi meccaniche e le quattro leggi della termodinamica, con l’area dell’orizzonte degli eventi che si comporta come l’entropia e la gravità di superficie come la temperatura. Nella terza parte, attraverso l’utilizzo della meccanica quantistica, si mostra che l’analogia non è solo formale. Ad un buco nero è associata l’emissione di uno spettro di radiazione che corrisponde proprio a quello di un corpo nero che ha una temperatura proporzionale alla gravità di superficie. Si osserva inoltre che l’area dell’orizzonte degli eventi può essere interpretata come una misura della informazione contenuta nel buco nero e di conseguenza della sua entropia.
Resumo:
In questa tesi viene affrontato il problema della stabilità delle strutture stellari da un punto di vista relativistico. La stella è approssimata ad un fluido perfetto a simmetria sferica, e le equazioni che ne governano la struttura vengono ricavate grazie alle risoluzione delle equazioni di campo della relatività generale in questo caso particolare. L'approssimazione di fluido perfetto permette anche di ricavare un'equazione di stato che lega densità di energia e pressione tramite un parametro, detto parametro di rigidità. Un'analisi del comportamento della materia al variare della densità consente di stabilire l'andamento di questo parametro, mentre uno studio delle piccole oscillazioni radiali della stella permette di stabilire quali sono i valori del parametro che consentono un equilibrio stabile. La stabilità risulta possibile in due differenti intervalli di densità, che corrispondono ai due tipici stadi finali dell'evoluzione stellare: nana bianca e stella di neutroni. Grazie alle equazioni che descrivono la struttura stellare è possibile stabilire, nei due intervalli di densità, quale sia il valore che la massa della stella non può superare: si ricavano il limite di Chandrasekhar e il limite di Oppenheimer-Volkoff. Infine viene mostrato come la relatività generale imponga un limite assoluto alla stabilità di una distribuzione di materia, sostenuta da una qualsiasi forza della natura: superato questo confine, la materia non può fare altro che collassare in un buco nero.
Resumo:
In questa tesi verrà trattato il problema di introdurre una teoria omologica sui grafi. Si vedranno i grafi come un 1-complessi simpliciali, e dunque l'idea sarà di applicare le conoscenze che si hanno di una teoria omologica generale ad un oggetto specifico, che è appunto il grafo.
Resumo:
In questo lavoro di tesi sono state evidenziate alcune problematiche relative alle macchine exascale (sistemi che sviluppano un exaflops di Potenza di calcolo) e all'evoluzione dei software che saranno eseguiti su questi sistemi, prendendo in esame principalmente la necessità del loro sviluppo, in quanto indispensabili per lo studio di problemi scientifici e tecnologici di più grandi dimensioni, con particolare attenzione alla Material Science, che è uno dei campi che ha avuto maggiori sviluppi grazie all'utilizzo di supercomputer, ed ad uno dei codici HPC più utilizzati in questo contesto: Quantum ESPRESSO. Dal punto di vista del software sono state presentate le prime misure di efficienza energetica su architettura ibrida grazie al prototipo di cluster EURORA sul software Quantum ESPRESSO. Queste misure sono le prime ad essere state pubblicate nel contesto software per la Material Science e serviranno come baseline per future ottimizzazioni basate sull'efficienza energetica. Nelle macchine exascale infatti uno dei requisiti per l'accesso sarà la capacità di essere energeticamente efficiente, così come oggi è un requisito la scalabilità del codice. Un altro aspetto molto importante, riguardante le macchine exascale, è la riduzione del numero di comunicazioni che riduce il costo energetico dell'algoritmo parallelo, poiché in questi nuovi sistemi costerà di più, da un punto di vista energetico, spostare i dati che calcolarli. Per tale motivo in questo lavoro sono state esposte una strategia, e la relativa implementazione, per aumentare la località dei dati in uno degli algoritmi più dispendiosi, dal punto di vista computazionale, in Quantum ESPRESSO: Fast Fourier Transform (FFT). Per portare i software attuali su una macchina exascale bisogna iniziare a testare la robustezza di tali software e i loro workflow su test case che stressino al massimo le macchine attualmente a disposizione. In questa tesi per testare il flusso di lavoro di Quantum ESPRESSO e WanT, un software per calcolo di trasporto, è stato caratterizzato un sistema scientificamente rilevante costituito da un cristallo di PDI - FCN2 che viene utilizzato per la costruzione di transistor organici OFET. Infine è stato simulato un dispositivo ideale costituito da due elettrodi in oro con al centro una singola molecola organica.
Resumo:
Negli ultimi anni si è assistito nel panorama mondiale ad un notevole ed importante cambiamento nell’asset della produzione dell’energia elettrica. L’aumentare del costo nell'estrazione dei combustibili fossili ed il conseguente impatto ambientale che questi hanno nell'atmosfera ha influito notevolmente sullo sviluppo e sulla diffusione della tecnologia fotovoltaica. L’evoluzione di questa tecnologia ha permesso di raggiungere la “grid parity”, ossia l’uguaglianza tra il costo di 1 kWh prodotto dal fotovoltaico con 1 kWh prodotto da fonti fossili, per molte aree del pianeta. Tale tecnologia non è recente, già negli anni ‘60 si svilupparono i primi studi a riguardo, ma negli ultimi anni ha subito notevoli migliorie che l’hanno portata ad essere competitiva nel settore dell’energia elettrica. Il presente lavoro di tesi riporta una rassegna delle celle solari a base di silicio, a partire dal silicio monocristallino, al silicio poli e multi cristallino, fino ad arrivare a celle a film sottile o celle costituite da materiali multi-fase contenenti strutture quantiche e nanocristalli di Si. Negli ultimi anni tutti gli studi si stanno concentrando su un nuovo tipo di fotovoltaico, quello di terza generazione, il cui scopo è quello di ottenere dispositivi che, ad un prezzo molto contenuto dovuto ad un utilizzo di materiali economici come i Si-NCs (nano cristalli di silicio), possano garantire elevate efficienze in modo tale che la tecnologia fotovoltaica sia in grado di affermarsi definitivamente nel settore dell’energia.
Resumo:
Lo studio stratigrafico di diverse prove geognostiche nel sottosuolo dell’alta pianura forlivese ha permesso di ricostruire uno scenario stratigrafico di dettaglio dei depositi tardoquaternari del Bacino Padano. Attraverso la realizzazione di una sezione stratigrafica, parallela al margine del bacino, nei territori compresi tra il comune di Forlì e Forlimpopoli, ottenuta utilizzando stratigrafie di pozzi per acqua, di sondaggi a carotaggio continuo e di prove penetrometriche corredati da datazioni radiometriche, ha evidenziato un’architettura stratigrafica tipica di una pianura alluvionale. L’analisi di facies e le correlazioni stratigrafiche mostrano un’evidente suddivisione dei depositi alluvionali in quattro intervalli stratigrafici a controllo glacio-eustatico. Alla base sono presenti depositi che possono essere attribuibili ad un sistema di regressione forzata (FST), durante i quali si verificherebbe l’incisione dei sistemi alluvionali. I corpi amalgamati di canale fluviale, invece, sarebbero riconducibili alla successiva fase di stazionamento basso del livello del mare (LST), avvenuto durante l’ultimo acme glaciale. Al di sopra di questi depositi, la presenza di corpi lenticolari, isolati, di canale fluviale, entro depositi fini di piana inondabile, è compatibile con una fase di sollevamento del livello del mare (depositi trasgressivi o TST) ed infine i depositi sommitali, prevalentemente fini, potrebbero rappresentare la fase di stazionamento alto del livello del mare (HST). La definizione della geometria dei corpi sepolti in Pianura Padana costituisce uno strumento di rilevante importanza nella ricerca e nella protezione della risorsa idrica: in particolare, l’applicazione dei principi di stratigrafia sequenziale risulta fondamentale nell’interpretazione della distribuzione spaziale dei corpi acquiferi.
Resumo:
In questo studio vengono misurati e descritti nel dettaglio i canali sottomarini che si sviluppano sulle testate dei canyon presenti nella Baia di Milazzo (NE Sicilia) attraverso sezioni sismiche a riflessione e dati batimetrici di tipo Multibeam. In base alla creazione della carta geomorfologica della piattaforma continentale che copre l'intera area di studio (31 km2) ed alla correlazione dei profili sismici è stato possibile formulare ipotesi sulle dinamiche in atto nell'evoluzione geomorfologica delle testate dei canyon dell'area. L'evoluzione e la posizione attuale delle testate dei canyon sono condizionate dall'intensa attività tettonica della Sicilia nord-orientale caratterizzata da un forte uplift. Sono anche state descritte le relazioni tra l'assetto tettonico e le dinamiche fluviali poiché queste contribuiscono ai fenomeni osservati in ambiente sottomarino. Si è visto infine che le testate dei canyon sono in arretramento e che ciò produce un forte disequilibrio nel bilancio sedimentario delle spiagge dell'area causandone l'erosione.
Resumo:
In questo documento si presenta lo studio degli algoritmi matematici e crittografici su cui si basa il sistema di moneta digitale Bitcoin, in circolazione dal 2009. Bitcoin è un sistema di cripto valuta elettronica peer-to-peer, ideato da un anonimo conosciuto con lo pseudonimo "Satoshi Nakamoto", i cui principi sono descritti in un documento pubblicato nel 2008 ed ora accessibile in rete. L'utilizzo di Bitcoin permette di effettuare transazioni con sicurezza da un soggetto ad un altro e, grazie a una tecnologia peer-to-peer che opera senza alcuna autorità centrale e intermediari quali banche o istituzioni governative, sia la gestione delle operazioni sia l'emissione di denaro sono svolte per mezzo di un protocollo P2P. Nel corso della trattazione si propone un analisi più tecnica del sistema di gestione e creazione dei Bitcoin e degli strumenti crittografici che hanno permesso l'avvento di questa moneta elettronica decentralizzata.
Resumo:
In questo momento i servizi costituiscono il principale settore d’impiego e la maggior fonte di reddito per le economie sviluppate, rappresentando circa tre quarti del prodotto interno lordo sia negli Stati Uniti che nel Regno Unito. (Piercy e Rich, 2009) Nonostante però questa notevole importanza per l’economia, le organizzazioni di questo settore non riescono a fornire dei servizi di qualità tale da soddisfare le richieste dei clienti. (Piercy e Rich, 2009) Ancora più preoccupante è il risultato degli indicatori che forniscono un livello di qualità dei servizi in calo di anno in anno. (Dickson et al., 2005) Questo lavoro di tesi si occupa di analizzare il Lean Six Sigma come metodologia di cambiamento organizzativo e miglioramento dei processi aziendali, nel contesto dei servizi e in modo particolare in quelli finanziari. L’obiettivo di questo lavoro è quello di presentare il Lean Six Sigma applicato ai servizi analizzando i fattori critici di successo, i fattori ostativi, le barriere organizzative interne, le differenze tra il settore manifatturiero e quello dei servizi, gli strumenti, gli obiettivi e i benefici introdotti. Si vuole inoltre indagare l’applicazione di tale metodologia a un’azienda italiana di piccole e medie dimensioni esaminando le caratteristiche da tenere in considerazione durante la sua implementazione.