985 resultados para principio dei lavori virtuali
Resumo:
La tesi descrive come si è arrivati dal baratto ai sistemi di monete virtuali, attraverso l'evoluzione dei sistemi bancari e dell'IT. Inoltre viene mostrata l'implementazione del protocollo Bitcoin.
Resumo:
Una macchina relativistica è una macchina il cui tempo scorre ad una velocità diversa da quella del tempo reale. Macchine di questo tipo possono essere utili ad esempio per simulare tempi di trasferimento dei dati più veloci, oppure per testare protocolli di sincronizzazione degli orologi. La possibilità di definire la velocità del tempo virtuale è stata aggiunta a User-Mode Linux. Grazie ad una modifica a Marionnet che include un'interfaccia grafica è stato reso semplice il processo di creazione di reti di macchine virtuali relativistiche.
Resumo:
La definizione dell’ordinamento dell’Unione come ordinamento costituzionale è centrale, ma resta frammentata. Per restituirle sistematicità è importante individuare un principio sul quale poggiarne il consolidamento. Per questo si è scelto di esaminare il principio di non discriminazione attraverso l’analisi della giurisprudenza, con l’obiettivo di verificare se questo principio è parte fondamentale dell’identità costituzionale dell’Unione Europea. Nella prima parte della tesi si analizza la struttura del giudizio sulla discriminazione davanti alla CGUE e davanti alla CEDU, mettendo in evidenza come la struttura ricordi sempre di più quella del giudizio di costituzionalità. Nella seconda parte ci si concentra sul contributo dato dal principio di non discriminazione all’identità costituzionale dell’Unione Europea attraverso la lotta contro specifiche tipologie di discriminazione. Poiché i motivi di discriminazione sono molto numerosi, si è stabilito di esaminare quei motivi che sono regolati dal diritto derivato. Per questo la seconda parte dell’analisi si è concentrata sulle discriminazioni a motivo della nazionalità (dir. 2004/38/CE), della razza (dir. 2000/43/CE), del genere (dir. 2006/54/CE, dir. 2004/113/CE) dell’età, disabilità, religione ed orientamento sessuale (dir. 2000/78/CE). Dall’analisi della giurisprudenza e del diritto derivato che ne dà attuazione è possibile comprendere che questo principio, oltre ad essere sostenuto da un vero e proprio giudizio di legittimità costituzionale (il rinvio pregiudiziale), ha gli strumenti necessari a permetterne lo sviluppo tenendo conto delle identità costituzionali degli stati membri e può aiutare ad offrire delle risposte rispetto a uno dei problemi fondamentali inerenti all’efficacia del diritto dell’Unione Europea: la tensione fra il principio di attribuzione e la dottrina degli effetti diretti. Le conclusioni di questo lavoro portano a sostenere che è possibile individuare una giurisprudenza della Corte che, attraverso alcuni passaggi fondamentali (le sentenze Mangold, Kucukdeveci, Hay, Deckmyn e Zambrano), definisce il principio di non discriminazione come principio fondamentale, e costituzionale, del diritto dell’Unione Europea.
Resumo:
L’attività di ricerca è focalizzata sull’analisi delle normative in materia di contratto di lavoro a termine in Italia, Francia e Spagna. Si tratta di Stati che, al pari del nostro, fanno un grandissimo uso di tale fattispecie, divenuta nei fatti il principale canale di ingresso nel mondo del lavoro, con percentuali complessive di rapporti a tempo determinato anche superiori a quelle italiane. Il confronto con due Paesi a noi vicini da un punto di vista giuridico, culturale e sociale è servito allo scopo di valutare la razionalità e l’opportunità delle profonde modifiche apportate alla disciplina generale da parte del decreto-legge n. 34/2014 (c.d. Decreto Poletti) ed ancora prima dalla riforma del sistema risarcitorio ad opera della legge n. 183/2010. Per ciascun ordinamento sono prese in considerazione le regole finalizzate alla tutela dei diritti dei lavoratori a termine, nonché gli orientamenti giurisprudenziali che hanno contribuito, specie in materia di non discriminazione, ad implementare il livello di protezione della posizione dei lavoratori stessi. Specifica attenzione viene dedicata, inoltre, alla disciplina del pubblico impiego, settore in cui si riscontra spesso un uso distorto delle assunzioni a tempo determinato, come testimoniano le vicende degli agents contractuels francesi e dei lavoratori c.d. indefinidos no fijos de plantilla. La conclusione della tesi è affidata allo studio del contenzioso originato dai tre Stati avanti alla Corte di Giustizia dell’Unione Europea, al fine di isolare eventuali momenti di sintesi delle differenze delle rispettive regolamentazioni. L’elemento aggregante che affiora dai dicta del supremo organo di giustizia comunitario è il principio di stabilità dell’impiego, la cui portata generale e trasversale può essere utile al fine di orientare l’attività produttiva e interpretativa delle norme nazionali nella direzione di un’implementazione delle tutele spettanti ai prestatori di lavoro a termine.
Resumo:
La ricerca indaga le relazioni che si sono instaurate nel corso degli anni tra il principio di legalità, inteso nella sua declinazione di principio di funzionalizzazione, e principio di concorrenza nell’ambito delle società per la gestione dei servizi pubblici locali. Più precisamente, lo scopo del lavoro è valutare le evoluzioni di tale rapporto, dal momento in cui gli enti locali sono stati ufficialmente autorizzati a costituire società per la gestione dei servizi pubblici locali nel 1990. Lo stimolo a sviluppare queste considerazioni trova la sua ragione nelle pressioni provenienti dalle istituzioni europee, che hanno gradualmente imposto una qualificazione prettamente economica ai servizi a favore della collettività, ritenuti un ambito in cui possa naturalmente imporsi una competizione economica tra operatori economici, indipendentemente dalla loro natura giuridica. Il problema del vincolo funzionale nella partecipazione in società degli enti locali è certamente l’oggetto principale del lavoro. Tuttavia, la questione non può essere analizzata separatamente dalle politiche di dismissione promosse dal legislatore nell’ultimo decennio. L’obiettivo principale delle riforme avviate è stato quello di frenare la proliferazione di società costituite dagli enti locali, così da garantire sia un risparmio di risorse pubbliche sia una maggiore facilità per gli imprenditori privati ad affacciarsi su mercati tradizionalmente appannaggio delle amministrazioni. Stona però con le intenzioni il fatto che gli obblighi ex lege di cessione delle partecipazioni azionarie detenute dagli enti locali non siano stati generalmente imposti per le società di gestione dei servizi pubblici (resi in favore della collettività), bensì per quelle che svolgono servizi strumentali (in favore dell’amministrazione stessa). La scelta appare contraddittoria, in quanto il distacco tra vincolo funzionale e partecipazione degli enti locali nella compagine societaria si ravvisa in particolar modo nel primo dei due moduli menzionati. Si assiste dunque ad una frammentazione del principio di legalità.
Resumo:
L’assioma di scelta ha una preistoria, che riguarda l’uso inconsapevole e i primi barlumi di consapevolezza che si trattasse di un nuovo principio di ragionamento. Lo scopo della prima parte di questa tesi è quello di ricostruire questo percorso di usi più o meno impliciti e più o meno necessari che rivelarono la consapevolezza non solo del fatto che fosse indispensabile introdurre un nuovo principio, ma anche che il modo di “fare matematica” stava cambiando. Nei capitoli 2 e 3, si parla dei moltissimi matematici che, senza rendersene conto, utilizzarono l’assioma di scelta nei loro lavori; tra questi anche Cantor che appellandosi alla banalità delle dimostrazioni, evitava spesso di chiarire le situazioni in cui era richiesta questa particolare assunzione. Il capitolo 2 è dedicato ad un caso notevole e rilevante dell’uso inconsapevole dell’Assioma, di cui per la prima volta si accorse R. Bettazzi nel 1892: l’equivalenza delle due nozioni di finito, quella di Dedekind e quella “naturale”. La prima parte di questa tesi si conclude con la dimostrazione di Zermelo del teorema del buon ordinamento e con un’analisi della sua assiomatizzazione della teoria degli insiemi. La seconda parte si apre con il capitolo 5 in cui si parla dell’intenso dibattito sulla dimostrazione di Zermelo e sulla possibilità o meno di accettare il suo Assioma, che coinvolse i matematici di tutta Europa. In quel contesto l’assioma di scelta trovò per lo più oppositori che si appellavano ad alcune sue conseguenze apparentemente paradossali. Queste conseguenze, insieme alle molte importanti, sono analizzate nel capitolo 6. Nell’ultimo capitolo vengono riportate alcune tra le molte equivalenze dell’assioma di scelta con altri enunciati importanti come quello della tricotomia dei cardinali. Ci si sofferma poi sulle conseguenze dell’Assioma e sulla sua influenza sulla matematica del Novecento, quindi sulle formulazioni alternative o su quelle più deboli come l’assioma delle scelte dipendenti e quello delle scelte numerabili. Si conclude con gli importanti risultati, dovuti a Godel e a Cohen sull’indipendenza e sulla consistenza dell’assioma di scelta nell’ambito della teoria degli insiemi di Zermelo-Fraenkel.
Resumo:
L’analisi del cammino è uno strumento in grado di fornire importanti informazioni sul ciclo del passo; in particolare è fondamentale per migliorare le conoscenze biomeccaniche del cammino, sia normale che patologico, e su come questo viene eseguito dai singoli soggetti. I parametri spazio temporali del passo rappresentano alcuni degli indici più interessanti per caratterizzare il cammino ed il passo nelle sue diverse fasi. Essi permettono infatti il confronto e il riconoscimento di patologie e disturbi dell’andatura. Negli ultimi anni è notevolmente aumentato l’impiego di sensori inerziali (Inertial Measurement Unit, IMU), che comprendono accelerometri, giroscopi e magnetometri. Questi dispositivi, utilizzati singolarmente o insieme, possono essere posizionati direttamente sul corpo dei pazienti e sono in grado fornire, rispettivamente, il segnale di accelerazione, di velocità angolare e del campo magnetico terrestre. A partire da questi segnali, ottenuti direttamente dal sensore, si è quindi cercato di ricavare i parametri caratteristici dell’andatura, per valutare il cammino anche al di fuori dell’ambiente di laboratorio. Vista la loro promettente utilità e la potenziale vasta applicabilità nell’analisi del ciclo del cammino; negli ultimi anni un vasto settore della ricerca scientifica si è dedicata allo sviluppo di algoritmi e metodi per l’estrazione dei parametri spazio temporali a partire da dati misurati mediante sensori inerziali. Data la grande quantità di lavori pubblicati e di studi proposti è emersa la necessità di fare chiarezza, riassumendo e confrontando i metodi conosciuti, valutando le prestazioni degli algoritmi, l’accuratezza dei parametri ricavati, anche in base alla tipologia del sensore e al suo collocamento sull’individuo, e gli eventuali limiti. Lo scopo della presente tesi è quindi l’esecuzione di una revisione sistematica della letteratura riguardante la stima dei parametri spazio temporali mediante sensori inerziali. L’intento è di analizzare le varie tecniche di estrazione dei parametri spazio temporali a partire da dati misurati con sensori inerziali, utilizzate fino ad oggi ed indagate nella letteratura più recente; verrà utilizzato un approccio prettamente metodologico, tralasciando l’aspetto clinico dei risultati.
Resumo:
La tesi tratta dell'influenza cognitivo-emozionale che gli avatar esercitano sui gameplayers all'interno del mondo virtuale, nella fattispecie i videogiochi.
Resumo:
Questa tesi si pone l’obiettivo di effettuare un’analisi aggiornata sulla recente evoluzione del Cloud Computing e dei nuovi modelli architetturali a sostegno della continua crescita di richiesta di risorse di computazione, di storage e di rete all'interno dei data center, per poi dedicarsi ad una fase sperimentale di migrazioni live singole e concorrenti di macchine virtuali, studiandone le prestazioni a livello di risorse applicative e di rete all’interno della piattaforma open source di virtualizzazione QEMU-KVM, oggi alla base di sistemi cloud-based come Openstack. Nel primo capitolo, viene effettuato uno studio dello stato dell’arte del Cloud Computing, dei suoi attuali limiti e delle prospettive offerte da un modello di Cloud Federation nel futuro immediato. Nel secondo capitolo vengono discusse nel dettaglio le tecniche di live migration, di recente riferimento per la comunità scientifica internazionale e le possibili ottimizzazioni in scenari inter e intra data center, con l’intento di definire la base teorica per lo studio approfondito dell’implementazione effettiva del processo di migrazione su piattaforma QEMU-KVM, che viene affrontato nel terzo capitolo. In particolare, in quest’ultimo sono descritti i principi architetturali e di funzionamento dell'hypervisor e viene definito il modello di progettazione e l’algoritmo alla base del processo di migrazione. Nel quarto capitolo, infine, si presenta il lavoro svolto, le scelte configurative e progettuali per la creazione di un ambiente di testbed adatto allo studio di sessioni di live migration concorrenti e vengono discussi i risultati delle misure di performance e del comportamento del sistema, tramite le sperimentazioni effettuate.
Resumo:
La presente tesi si occupa, da un punto di vista matematico e filosofico, dello studio dei numeri transfiniti introdotti da Georg Cantor. Vengono introdotti i concetti di numero cardinale ed ordinale, la loro aritmetica ed i principali risultati riguardo al concetto di insieme numerabile. Si discutono le nozioni di infinito potenziale ed attuale e quella di esistenza secondo la concezione di Cantor. Viene infine presentata l'induzione transfinita, una generalizzazione al caso transfinito del principio di induzione matematica.
Resumo:
Esperimenti condotti negli anni Ottanta per la determinazione della vita media di alcuni radioisotopi sembrano mostrare fluttuazioni anomale del valore delle costanti di decadimento. Negli anni a seguire, altri studi hanno tentato di spiegare l'origine delle fluttuazioni osservate in questi primi lavori. Insieme agli esperimenti che hanno mostrato anomalie, però, ve ne sono altri che non hanno registrato alcuna deviazione. Con il seguente elaborato si ha l'intento di ordinare e organizzare schematicamente gli articoli pubblicati finora e realizzare così un quadro della situazione attuale. Questo può essere utile per predisporre un esperimento, da svolgersi presso il Laboratorio di Fisica delle Radiazioni del Dipartimento di Fisica e Astronomia dell'Università di Bologna, che possa arricchire la casistica del fenomeno. Si affronta in conclusione la progettazione dell'esperimento a lungo termine, per il quale si prevede inizialmente una durata triennale delle osservazioni.
Resumo:
In questo lavoro si parla di un particolare comportamento emergente nei sistemi complessi: il flocking. Dopo aver dato una panoramica generale di come sia stato affrontato finora lo studio della formazione degli stormi, vengono portati come esempio un modello matematico e uno studio empirico particolare, il quale fonda le basi del flocking su un’interazione topologica. Il modello matematico, basato su un’interazione metrica, viene dapprima presentato, cercando di darne una parziale spiegazione tramite le proprietà delle matrici laplaciane, per poi essere testato attraverso delle simulazioni numeriche. Lo studio empirico, invece, viene presentato nei dettagli fornendo risultati e ipotesi atte a spiegarli. Infine prendendo spunto da questi due lavori, nell’ultima parte vengono posti a confronto due modelli, uno metrico e uno topologico, tramite simulazioni al calcolatore. L’esito di queste simulazioni conferma le ipotesi avanzate per spiegare i risultati empirici.
Resumo:
Lo scopo di questa tesi è dimostrare il Principio Forte di Continuazione Unica per opportune soluzioni di un'equazione di tipo Schrödinger Du=Vu, ove D è il sub-Laplaciano canonico di un gruppo di tipo H e V è un potenziale opportuno. Nel primo capitolo abbiamo esposto risultati già noti in letteratura sui gruppi di tipo H: partendo dalla definizione di tali gruppi, abbiamo fornito un'utile caratterizzazione in termini "elementari" che permette di esplicitare la soluzione fondamentale dei relativi sub-Laplaciani canonici. Nel secondo capitolo abbiamo mostrato una formula di rappresentazione per funzioni lisce sui gruppi di tipo H, abbiamo dimostrato una forma forte del Principio di Indeterminazione di Heisenberg (sempre nel caso di gruppi di tipo H) e abbiamo fornito una formula per la variazione prima dell'integrale di Dirichlet associato a Du=Vu. Nel terzo capitolo, infine, abbiamo analizzato le proprietà di crescita di funzioni di frequenza, utili a dimostrare le stime integrali che implicano in modo piuttosto immediato il Principio Forte di Continuazione Unica, principale oggetto del nostro studio.
Resumo:
Le basi neurali della memoria semantica e lessicale sono oggetto di indagine da anni nelle neuroscienze cognitive. In tale ambito, un ruolo crescente è svolto dall’uso di modelli matematici basati su reti di neuroni. Scopo del presente lavoro è di utilizzare e migliorare un modello sviluppato in anni recenti, per spiegare come la conoscenza del significato di parole e concetti sia immagazzinata nel sistema nervoso e successivamente utilizzata. Il principio alla base del modello è che la semantica di un concetto è descritta attraverso una collezione di proprietà, che sintetizzano la percezione del concetto stesso nelle diverse regioni corticali. Gli aspetti semantici e lessicali sono memorizzati in regioni separate, ma reciprocamente connesse sulla base dell’esperienza passata, secondo un meccanismo di apprendimento Hebbiano. L’obiettivo del lavoro è stato quello di indagare i meccanismi che portano alla formazione di categorie. Una importante modifica effettuata è consistita nell’utilizzare un meccanismo di apprendimento Hebbiano a soglia variabile, in grado di adattarsi automaticamente alla statistica delle proprietà date in input. Ciò ha portato ad un miglioramento significativo dei risultati. In particolare, è stato possibile evitare che un proprietà comune a molti (ma non a tutti) i membri di una categoria (come la proprietà “vola” per la categoria “uccelli”) sia erroneamente attribuita all’intera categoria. Nel lavoro viene presentato lo stesso modello con quattro differenti tassonomie, relative ad animali e a oggetti artificiali. La rete, una volta addestrata con una delle 4 tassonomie, è in grado di risolvere compiti di riconoscimento e denominazione di concetti, mantenendo una distinzione tra le categorie e i suoi membri, e attribuendo un diverso ruolo alle proprietà salienti rispetto alle proprietà marginali. Le tassonomie presentano un numero di concetti e features crescente, per avvicinarsi al reale funzionamento della memoria semantica, in cui ai diversi concetti è associato un numero diverso di caratteristiche.
Resumo:
Il documento analizza i vantaggi introdotti nel mondo delle telecomunicazioni dai paradigmi di Software Defined Networking e Network Functions Virtualization: questi nuovi approcci permettono di creare reti programmabili e dinamiche, mantenendo alte le prestazioni. L’obiettivo finale è quello di capire se tramite la generalizzazione del codice del controller SDN , il dispositivo programmabile che permette di gestire gli switch OpenFlow, e la virtualizzazione delle reti, si possa risolvere il problema dell’ossificazione della rete Internet.