566 resultados para Crittografia Computazionale Generatori Pseudocasuali Dimostrazione Automatica CryptoVerif
Resumo:
Nella letteratura economica e di teoria dei giochi vi è un dibattito aperto sulla possibilità di emergenza di comportamenti anticompetitivi da parte di algoritmi di determinazione automatica dei prezzi di mercato. L'obiettivo di questa tesi è sviluppare un modello di reinforcement learning di tipo actor-critic con entropy regularization per impostare i prezzi in un gioco dinamico di competizione oligopolistica con prezzi continui. Il modello che propongo esibisce in modo coerente comportamenti cooperativi supportati da meccanismi di punizione che scoraggiano la deviazione dall'equilibrio raggiunto a convergenza. Il comportamento di questo modello durante l'apprendimento e a convergenza avvenuta aiuta inoltre a interpretare le azioni compiute da Q-learning tabellare e altri algoritmi di prezzo in condizioni simili. I risultati sono robusti alla variazione del numero di agenti in competizione e al tipo di deviazione dall'equilibrio ottenuto a convergenza, punendo anche deviazioni a prezzi più alti.
Resumo:
Al contrario dei computer classici, i computer quantistici lavorano tramite le leggi della meccanica quantistica, e pertanto i qubit, ovvero l'unità base di informazione quantistica, possiedono proprietà estremamente interessanti di sovrapposizione ed entanglement. Queste proprietà squisitamente quantistiche sono alla base di innumerevoli algoritmi, i quali sono in molti casi più performanti delle loro controparti classiche. Obiettivo di questo lavoro di tesi è introdurre dal punto di vista teorico la logica computazionale quantistica e di riassumere brevemente una classe di tali algoritmi quantistici, ossia gli algoritmi di Quantum Phase Estimation, il cui scopo è stimare con precisione arbitraria gli autovalori di un dato operatore unitario. Questi algoritmi giocano un ruolo cruciale in vari ambiti della teoria dell'informazione quantistica e pertanto verranno presentati anche i risultati dell'implementazione degli algoritmi discussi sia su un simulatore che su un vero computer quantistico.
Resumo:
La ricostruzione delle traiettorie delle particelle prodotte dai vertici di interazione a LHC è di fondamentale importanza per tutti gli esperimenti. Questo passo è uno dei più dispendiosi in termini di tempo e calcolo computazionale nella catena di ricostruzione dell’evento e diventa sempre più complesso con l’aumentare del numero di collisioni. L’esperimento CMS adotta un rivelatore di tracciamento con tecnologia al silicio, dove la parte più interna sfrutta rivelatori con geometria a pixel, mentre la parte esterna utilizza delle strisce di silicio. Per quanto riguarda la ricostruzione nel rivelatore a pixel, sono stati sviluppati diversi algoritmi ottimizzati per fronteggiare l’alto rate di acquisizione dati, sfruttando anche il calcolo parallelo su GPU, con un’efficienza di tracciamento comparabile o superiore agli algoritmi precedentemente utilizzati. Questi nuovi algoritmi sono alla base del software Patatrack per la ricostruzione delle traiettorie. Il lavoro descritto in questa tesi punta ad adattare Patatrack ad una geometria diversa e più complessa di quella di CMS e di valutarne le prestazioni di fisica e computazionali. Sono stati utilizzati i dati forniti dalla TrackML challenge, il cui scopo è incentivare lo sviluppo di nuovi algoritmi di ricostruzione di tracce per gli esperimenti in fisica delle alte energie. E' stato condotto uno studio approfondito della nuova geometria per potervi successivamente adattare il software esistente. Infine, la catena di ricostruzione è stata modificata per poter utilizzare i dati forniti dalla TrackML challenge e permettere la ricostruzione delle traiettorie.
Resumo:
L’obiettivo della tesi è quello di realizzare un progetto basato sull’interazione tra Raspberry Pi e NanoVNA, allo scopo di rendere automatico il processo di acquisizione dei dati di questo strumento di misura. A tal fine è stato sviluppato un programma in linguaggio Python, eseguibile dal terminale del Raspberry Pi, che permette all’utente di inserire agevolmente i parametri essenziali, come l’orario di inizio e termine delle misurazioni e l'intervallo di tempo tra una rilevazione e l’altra.
Resumo:
Lo scopo di questa tesi è introdurre in breve le prime proprietà delle curve modulari e delle forme modulari, per poi mostrarne alcune applicazioni archetipiche. Per farlo, dopo aver richiamato alcune nozioni utili nel primo capitolo, sviluppiamo, nel secondo capitolo, la teoria di base delle curve modulari compatte come superfici di Riemann, calcolandone il genere nel caso dei sottogruppi principali di congruenza. Dunque, nel terzo capitolo, dopo un estesa trattazione dell'esempio delle forme modulari rispetto al gruppo modulare, viene calcolata la dimensione degli spazi delle forme intere e delle forme cuspidali rispetto a un sottogruppo di indice finito del gruppo modulare. Questo capitolo si conclude con tre esempi di applicazione della teoria esposta, tra i quali spiccano la dimostrazione del Grande Teorema di Picard e del Teorema dei quattro quadrati di Jacobi.
Resumo:
Questa tesi intende approfondire da un punto di vista, sia teorico sia computazionale, le proprietà fondamentali dei fononi. A tal fine, sono presentati i modelli quantistici di Einstein e di Debye che permettono la derivazione analitica degli osservabili macroscopici principali di un solido, come l’energia media e la capacità termica. Ciò è possibile tramite una trattazione meccano-statistica basata sull’approssimazione armonica dei modi normali di vibrazione degli ioni reticolari. Quindi, all’inizio si mostrano brevemente i risultati principali riguardanti l’oscillatore armonico quantistico. Successivamente, si approfondiscono i temi della dispersione fononica e della densità degli stati vibrazionali per reticoli cristallini 1D e 3D. Si ottiene che la prima non può essere considerata lineare se non nel limite di alte lunghezze d’onda, e che la seconda può presentare punti di singolarità correlati alla forma della relazione di dispersione. Infine, sono state svolte alcune analisi computazionali ab initio relative alla dispersione fononica, la densità degli stati vibrazionali e la frequenza di Debye del Carbonio (diamante) tramite i programmi VASP e Phonopy, confrontando i risultati con dati sperimentali presenti in letteratura.
Resumo:
Il seguente elaborato si prefigge l’obiettivo di fornire una panoramica completa ed esau- stiva sullo studio delle statistiche di fotoconteggio, ricavando i fondamentali risultati di natura teorica e al contempo illustrando le procedure di determinazione sperimentale. Il principale risultato conseguibile in tale ambito è l’inequivocabile dimostrazione della natura quantizzata della luce, rendendo definitivamente superato l’alternativo model- lo semiclassico, in cui l’ipotesi di quantizzazione è limitata all’interazione radiazione- rilevatore, mentre la luce viene considerata interamente trattabile come onda. Se infatti entrambi gli approcci forniscono previsioni in accordo con le osservazioni sperimentali per quanto riguarda sorgenti coerenti e termiche, che producono rispettivamente distri- buzioni Poissoniane o Super-Poissoniane, il secondo modello non è in grado di motivare in alcun modo l’esistenza delle distribuzioni Sub-Poissoniane, caratterizzate matemati- camente da una varianza inferiore al valor medio di conteggi ̄n. Il primo capitolo è dedicato a ricavare la forma delle statistiche di fotoconteggio basan- dosi sul modello a fotoni, riportando le più rilevanti dimostrazioni matematiche; il secondo capitolo ha invece l’obiettivo di analizzare i risultati forniti dal modello semi- classico, rivelando la perfetta compatibilità con quelli ottenuti nel capitolo precedente per quanto riguarda sorgenti di tipo classico; nel terzo capitolo si illustra una serie di esperimenti svolti presso il ”Laboratorio di Ottica Quantistica dell’Istituto Nazionale di Ottica-CNR”, nel polo scientifico di Sesto Fiorentino, realizzati con l’obiettivo di confermare la validità delle conclusioni di natura teorica esposte nei primi due capitoli; infine il quarto capitolo si prefigge lo scopo di dare un breve accenno alle distribuzioni di tipo Sub-Poissiano, attraverso una breve trattazione matematica e illustrando alcune modalità di osservazione sperimentale.
Resumo:
Gli integratori esponenziali costituiscono un'ampia classe di metodi numerici per la risoluzione di equazioni differenziali ordinarie. I primi esempi risalgono a ottanta anni fa e vennero introdotti per la prima volta da Certaine e Pope, ma non hanno avuto un ruolo importante nelle applicazioni per molto tempo, in quanto fanno uso esplicito dell'esponenziale di matrice o di funzioni di matrici di grandi dimensioni. Originariamente, tali metodi vennero sviluppati per problemi stiff e successivamente vennero applicati a equazioni differenziali alle derivate parziali; l'applicazione degli integratori esponenziali a problemi di notevole rilevanza diede inizio a un rigoroso approfondimento teorico e alla costruzione di nuove classi, ad esempio con ordine di convergenza maggiore. I primi modelli di integratori esponenziali sfruttano la linearizzazione del problema e fanno uso della matrice Jacobiana. In generale, tale matrice non ha una struttura particolare e varia continuamente nel tempo, pertanto le tecniche standard per la valutazione dell'esponenziale non sono molto efficienti dal punto di vista computazionale. In questa tesi, studiamo inizialmente l'esponenziale di matrice e il Metodo di Scaling and Squaring per approssimarlo. In seguito, introduciamo alcuni metodi numerici a un passo per la risoluzione di Problemi di Cauchy; infine studiamo il Metodo di Rosenbrock - Eulero che fa uso degli integratori esponenziali per risolvere problemi differenziali con dato iniziale, ne analizziamo convergenza e stabilità e lo applichiamo all'equazione differenziale alle derivate parziali di Allen - Cahn.
Resumo:
Lo scopo di questa tesi è introdurre alla analisi delle componenti principali, una metodologia statistico computazionale utilizzata per l'interpretazione di grandi insiemi di dati. L'obiettivo principale di questa tecnica è quello di ridurre le dimensioni del problema ricercando delle combinazioni lineari delle variabili di partenza che mantengano le principali informazioni sulla variabilità dei dati. In particolare, all’interno di questo elaborato verrà trattata una variante della PCA: l’analisi delle componenti principali “sparsa”. Dopo alcuni richiami iniziali verrà presentato un approccio standard all'analisi delle componenti principali, legato alle proprietà della matrice di covarianza (o correlazione) dei dati iniziali. Successivamente ne verrà mostrato un secondo approccio basato sulla decomposizione in valori singolari della matrice dei dati. Questo metodo permetterà di ottenere gli stessi risultati dell'approccio standard senza calcolare in modo esplicito la matrice di covarianza (o correlazione) dei dati e consentirà di sfruttare alcune proprietà importanti della decomposizione in valori singolari. Per introdurre la variante “sparsa” dell’analisi delle componenti principali verranno riportate alcune nozioni di base sulla regressione lineare. Infatti, questa tecnica ci permetterà di ottenere delle nuove combinazioni lineari delle variabili originarie che abbiano un numero alto di coefficienti uguali a zero, questo favorirà l’analisi delle componenti principali. La tesi si concluderà con la presentazione di alcuni risultati rielaborati in linguaggio Matlab, insieme alla valutazione dei risultati ottenuti.
Resumo:
Il reversal learning (o apprendimento inverso) è la capacità di un soggetto di invertire una regola precedentemente appresa per adattarsi a un cambiamento avvenuto nell’ambiente esterno. Nel primo capitolo vengono esposte alcune strutture anatomiche generalmente coinvolte nell’apprendimento e negli aspetti motorio, cognitivo e decisionale dell’essere umano, quali i gangli della base. Poiché alcune zone dei gangli della base sono costituite da neuroni dopaminergici, viene introdotta l’importanza della dopamina per l’apprendimento e viene spiegato il suo ruolo all’interno del modello neuro computazionale tradizionale dei gangli della base. Dopo aver illustrato in cosa consiste l’apprendimento classico, in cosa consiste l’apprendimento operante e il ruolo della ricompensa in seguito al conseguimento di un’azione, viene approfondito il concetto di apprendimento per rinforzo, di punizione e di errori di previsione. La comprensione di queste forme di apprendimento dovuto a stimolo-azione-ricompensa/punizione e di cosa si intende per errori di previsione risulta fondamentale per capire l’apprendimento inverso; infatti, quest’ultimo viene presentato al lettore solamente nel secondo capitolo. Successivamente alla sua introduzione, vengono esposti/e alcuni disturbi/patologie con lo scopo di evidenziare il motivo per cui l’abilità di inversione risulti invalidata nei soggetti che ne sono affetti. Ciò permette di delineare un quadro generale sull’apprendimento inverso e su come esso risulti corretto o compromesso in un soggetto in base alla sua condizione di salute. Infine, nel terzo capitolo viene illustrato un recentissimo modello matematico volto a descriverlo in maniera più dettagliata.
Resumo:
Lo scopo di questa Tesi di Laurea è quello di dimostrare il Teorema di Connettività per un sistema di Hörmander di campi vettoriali, il quale ci fornisce una condizione sufficiente alla connessione di un aperto di R^N tramite curve integrali a tratti dei campi vettoriali stessi e dei loro opposti, e presentarne alcune applicazioni. Nel primo Capitolo daremo i prerequisiti necessari alla trattazione degli altri tre, con particolare attenzione ad un Lemma che mette in relazione le curve integrali del commutatore di m campi vettoriali con la composizione di un opportuno numero di mappe flusso dei campi vettoriali che costituiscono il commutatore. Il secondo Capitolo è interamente dedicato alla dimostrazione del Teorema di Connettività e all'analisi della definizione delle curve subunitarie in un aperto rispetto ad una famiglia di campi vettoriali X, dette curve X-subunitarie. Nel terzo Capitolo forniremo una introduzione alla distanza di Carnot-Carathéodory, detta anche distanza di X-controllo, arrivando a dimostrare il notevolissimo Teorema di Chow-Rashewskii, il quale ci fornisce, sotto le ipotesi del Teorema di Connettività, una stima tra la metrica Euclidea e la distanza di X-controllo, mediante due disuguaglianze. Queste ultime implicano anche una equivalenza tra la topologia indotta dalla distanza di X-controllo e la topologia Euclidea. Nel quarto e ultimo Capitolo, indagheremo gli insiemi di propagazione tramite curve integrali dei campi vettoriali in X e tramite curve X-subunitarie. Utilizzando la definizione di invarianza di un insieme rispetto ad un campo vettoriale e avvalendosi del Teorema di Nagumo-Bony, dimostreremo che: la chiusura dei punti raggiungibili, partendo da un punto P in un aperto fissato, tramite curve integrali a tratti dei campi vettoriali in X e dei loro opposti, è uguale alla chiusura dei punti raggiungibili, sempre partendo da P, tramite un particolare sottoinsieme di curve X-subunitarie C^1 a tratti.
Resumo:
Il tema centrale di questa Tesi è il cosiddetto "Teorema di Rappresentazione di Riesz" per i funzionali positivi su alcuni spazi di funzione continue. Questo Teorema, caposaldo dell'Analisi Funzionale, è inscindibilmente legato alla Teoria della Misura. Esso, infatti, stabilisce un'importante legame tra funzionali lineari positivi e misure positive di Radon. Dopo un'ampia disamina di questo Teorema, la Tesi si concentra su alcune delle sue Applicazioni in Analisi Reale e in Teoria del Potenziale. Nello specifico, viene provato un notevole risultato di Analisi Reale: la differenziabilità quasi dappertutto delle funzioni monotone su un intervallo reale. Nella dimostrazione di questo fatto, risulta cruciale anche un interessantissimo argomento di "continuità dalla positività", attraverso cui passiamo varie volte nella Tesi. Infatti, esso è determinante anche nelle Applicazioni in Teoria del Potenziale per la costruzione della misura armonica di un aperto regolare e della cosiddetta "misura di Riesz di una funzione subarmonica".
Resumo:
Che cos’è la sordità? Chi sono le persone sorde? Essere sordi significa essere “handicappati”, “disabili”, “menomati”? Il presente elaborato si pone come obiettivo quello di rispondere a queste domande attraverso un’analisi socioculturale della sordità. In primo luogo, si parlerà di sordità passando dall’aspetto culturale, ontologico e antropologico, approfondendo i concetti di Deafhood, deafness, Cultura Sorda e Lingua dei Segni. In secondo luogo, si parlerà della visione sociale che si ha della sordità, che è ben diversa dalla sua vera natura, venendo relegata a una condizione unicamente medica e di disabilità: la natura paternalistica della legislazione in materia di sordità e l’abilismo interiorizzato della società ne sono una dimostrazione. Infine, si parlerà di come risolvere la mancanza di educazione e di conoscenza nell’ambito della sordità da parte degli udenti, ovvero con il giusto approccio e metodo educativo sin dall’infanzia, volto all’inclusione e al bilinguismo italiano-LIS, al fine di educare, includere e dare consapevolezza sulla sordità.
Resumo:
I convertitori elettronici di potenza sono da anni largamente diffusi sul mercato, poiché necessari per pilotare motori elettrici a velocità variabile in ambito industriale e a interfacciare alla rete elettrica i generatori da fonti di energia rinnovabili, in particolare eolica e fotovoltaica. In tutti i casi è richiesto che i convertitori siano efficienti, ovvero che l’energia persa durante la conversione sia minima. Considerando che il cuore di un convertitore è costituito da interruttori statici, è fondamentale una stima accurata dell’efficienza di questi ultimi per definire le prestazioni di un convertitore. Il materiale più diffuso per la realizzazione di questi componenti è il silicio (Si), ma esistono oggi altri semiconduttori che permettono prestazioni migliori, quali il carburo di silicio (SiC) e il nitruro di gallio (GaN). A causa del loro elevato costo di produzione rispetto ai componenti tradizionali, è divenuto sempre più importante stimare l’efficienza dei convertitori che montano queste tecnologie innovative, per trovare una giustificazione al loro impiego. In questa tesi, in particolare, l’efficienza di un convertitore con tecnologia SiC è stata prima calcolata analiticamente e poi testata a banco. Infine, è proposta un’architettura per un inverter trifase che possa essere impiegata per un’applicazione fotovoltaica. Questo lavoro è parte delle attività assegnate a Raw Power S.r.l. nell’ambito del progetto Europeo YesVGaN, il cui scopo ultimo entro i prossimi anni, è la realizzazione di componenti GaN commercialmente appetibili, che necessiteranno di essere testati e confrontati con i dispositivi al silicio e al carburo di silicio.
Resumo:
L'obiettivo principale di molti problemi industriali è tipicamente massimizzare i profitti o minimizzare costi o tempi di produzione. Questi problemi sono detti "di ottimizzazione" poiché bisogna ottimizzare determinati processi o attività attraverso decisioni che portino alla soluzione ottima del problema. Il giusto utilizzo di modelli matematici può condurre, tramite l'utilizzo di algoritmi esatti, alla soluzione ottima di un problema di questo tipo. Queste tecniche sono spesso basate su l'enumerazione completa di tutte le possibili soluzioni e ciò potrebbe pertanto richiedere una quantità di calcoli talmente elevata da renderle di fatto inutilizzabili. Per risolvere problemi di grandi dimensioni vengono quindi utilizzati i cosiddetti algoritmi euristici, i quali non assicurano di trovare la soluzione ottima del problema, ma promettono di trovarne una di buona qualità. In questa tesi vengono analizzati, sviluppati e confrontati entrambi gli approcci, attraverso l'analisi di un problema reale che richiede la pianificazione delle attività di un satellite.