368 resultados para Crittografia Computazionale Generatori Pseudocasuali Dimostrazione Automatica CryptoVerif


Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’assioma di scelta ha una preistoria, che riguarda l’uso inconsapevole e i primi barlumi di consapevolezza che si trattasse di un nuovo principio di ragionamento. Lo scopo della prima parte di questa tesi è quello di ricostruire questo percorso di usi più o meno impliciti e più o meno necessari che rivelarono la consapevolezza non solo del fatto che fosse indispensabile introdurre un nuovo principio, ma anche che il modo di “fare matematica” stava cambiando. Nei capitoli 2 e 3, si parla dei moltissimi matematici che, senza rendersene conto, utilizzarono l’assioma di scelta nei loro lavori; tra questi anche Cantor che appellandosi alla banalità delle dimostrazioni, evitava spesso di chiarire le situazioni in cui era richiesta questa particolare assunzione. Il capitolo 2 è dedicato ad un caso notevole e rilevante dell’uso inconsapevole dell’Assioma, di cui per la prima volta si accorse R. Bettazzi nel 1892: l’equivalenza delle due nozioni di finito, quella di Dedekind e quella “naturale”. La prima parte di questa tesi si conclude con la dimostrazione di Zermelo del teorema del buon ordinamento e con un’analisi della sua assiomatizzazione della teoria degli insiemi. La seconda parte si apre con il capitolo 5 in cui si parla dell’intenso dibattito sulla dimostrazione di Zermelo e sulla possibilità o meno di accettare il suo Assioma, che coinvolse i matematici di tutta Europa. In quel contesto l’assioma di scelta trovò per lo più oppositori che si appellavano ad alcune sue conseguenze apparentemente paradossali. Queste conseguenze, insieme alle molte importanti, sono analizzate nel capitolo 6. Nell’ultimo capitolo vengono riportate alcune tra le molte equivalenze dell’assioma di scelta con altri enunciati importanti come quello della tricotomia dei cardinali. Ci si sofferma poi sulle conseguenze dell’Assioma e sulla sua influenza sulla matematica del Novecento, quindi sulle formulazioni alternative o su quelle più deboli come l’assioma delle scelte dipendenti e quello delle scelte numerabili. Si conclude con gli importanti risultati, dovuti a Godel e a Cohen sull’indipendenza e sulla consistenza dell’assioma di scelta nell’ambito della teoria degli insiemi di Zermelo-Fraenkel.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questo lavoro di tesi sono state evidenziate alcune problematiche relative alle macchine exascale (sistemi che sviluppano un exaflops di Potenza di calcolo) e all'evoluzione dei software che saranno eseguiti su questi sistemi, prendendo in esame principalmente la necessità del loro sviluppo, in quanto indispensabili per lo studio di problemi scientifici e tecnologici di più grandi dimensioni, con particolare attenzione alla Material Science, che è uno dei campi che ha avuto maggiori sviluppi grazie all'utilizzo di supercomputer, ed ad uno dei codici HPC più utilizzati in questo contesto: Quantum ESPRESSO. Dal punto di vista del software sono state presentate le prime misure di efficienza energetica su architettura ibrida grazie al prototipo di cluster EURORA sul software Quantum ESPRESSO. Queste misure sono le prime ad essere state pubblicate nel contesto software per la Material Science e serviranno come baseline per future ottimizzazioni basate sull'efficienza energetica. Nelle macchine exascale infatti uno dei requisiti per l'accesso sarà la capacità di essere energeticamente efficiente, così come oggi è un requisito la scalabilità del codice. Un altro aspetto molto importante, riguardante le macchine exascale, è la riduzione del numero di comunicazioni che riduce il costo energetico dell'algoritmo parallelo, poiché in questi nuovi sistemi costerà di più, da un punto di vista energetico, spostare i dati che calcolarli. Per tale motivo in questo lavoro sono state esposte una strategia, e la relativa implementazione, per aumentare la località dei dati in uno degli algoritmi più dispendiosi, dal punto di vista computazionale, in Quantum ESPRESSO: Fast Fourier Transform (FFT). Per portare i software attuali su una macchina exascale bisogna iniziare a testare la robustezza di tali software e i loro workflow su test case che stressino al massimo le macchine attualmente a disposizione. In questa tesi per testare il flusso di lavoro di Quantum ESPRESSO e WanT, un software per calcolo di trasporto, è stato caratterizzato un sistema scientificamente rilevante costituito da un cristallo di PDI - FCN2 che viene utilizzato per la costruzione di transistor organici OFET. Infine è stato simulato un dispositivo ideale costituito da due elettrodi in oro con al centro una singola molecola organica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questo studio si propone di realizzare un’applicazione per dispositivi Android che permetta, per mezzo di un gioco di ruolo strutturato come caccia al tesoro, di visitare in prima persona città d’arte e luoghi turistici. Gli utenti finali, grazie alle funzionalità dell’app stessa, potranno giocare, creare e condividere cacce al tesoro basate sulla ricerca di edifici, monumenti, luoghi di rilevanza artistico-storica o turistica; in particolare al fine di completare ciascuna tappa di una caccia al tesoro il giocatore dovrà scattare una fotografia al monumento o edificio descritto nell’obiettivo della caccia stessa. Il software grazie ai dati rilevati tramite GPS e giroscopio (qualora il dispositivo ne sia dotato) e per mezzo di un algoritmo di instance recognition sarà in grado di affermare se la foto scattata rappresenta la risposta corretta al quesito della tappa. L’applicazione GeoPhotoHunt rappresenta non solo uno strumento ludico per la visita di città turistiche o più in generale luoghi di interesse, lo studio propone, infatti come suo contributo originale, l’implementazione su piattaforma mobile di un Content Based Image Retrieval System (CBIR) del tutto indipendente da un supporto server. Nello specifico il server dell’applicazione non sarà altro che uno strumento di appoggio con il quale i membri della “community” di GeoPhotoHunt potranno pubblicare le cacce al tesoro da loro create e condividere i punteggi che hanno totalizzato partecipando a una caccia al tesoro. In questo modo quando un utente ha scaricato sul proprio smartphone i dati di una caccia al tesoro potrà iniziare l’avventura anche in assenza di una connessione internet. L’intero studio è stato suddiviso in più fasi, ognuna di queste corrisponde ad una specifica sezione dell’elaborato che segue. In primo luogo si sono effettuate delle ricerche, soprattutto nel web, con lo scopo di individuare altre applicazioni che implementano l’idea della caccia al tesoro su piattaforma mobile o applicazioni che implementassero algoritmi di instance recognition direttamente su smartphone. In secondo luogo si è ricercato in letteratura quali fossero gli algoritmi di riconoscimento di immagini più largamente diffusi e studiati in modo da avere una panoramica dei metodi da testare per poi fare la scelta dell’algoritmo più adatto al caso di studio. Quindi si è proceduto con lo sviluppo dell’applicazione GeoPhotoHunt stessa, sia per quanto riguarda l’app front-end per dispositivi Android sia la parte back-end server. Infine si è passati ad una fase di test di algoritmi di riconoscimento di immagini in modo di avere una sufficiente quantità di dati sperimentali da permettere di effettuare una scelta dell’algoritmo più adatto al caso di studio. Al termine della fase di testing si è deciso di implementare su Android un algoritmo basato sulla distanza tra istogrammi di colore costruiti sulla scala cromatica HSV, questo metodo pur non essendo robusto in presenza di variazioni di luminosità e contrasto, rappresenta un buon compromesso tra prestazioni, complessità computazionale in modo da rendere la user experience quanto più coinvolgente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il progetto IDCardOCR si propone di investigare e realizzare le tecnologie per la messa in opera di un servizio avanzato di scanning di documenti di identità e acquisizione automatica dei dati anagrafici in formato strutturato tramite dispositivi mobili. In particolare si vuole realizzare una App Android in grado di: • Acquisire immagini di documenti di identità in diversi formati e rilevare tramite OCR i dati anagrafici. I dati dovranno poi essere salvati in formato strutturato. • Permettere la definizione di diversi template per l’acquisizione di documenti di tipo diverso (patenti, passaporti, IDCard straniere,… ) • Predisporre la possibilità di caricamento dei dati acquisiti su un server.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La metafora del viaggio è una metafora 'pervasiva', utilizzata quotidianamente e spesso inconsapevolmente. Ma è altrettanto 'automatico' tradurre tali metafore in interpretazione simultanea? Attraverso lo studio di tale tipologia di metafore, tratte dai discorsi pronunciati durante le sessioni plenarie del Parlamento Europeo, e tratti dal corpus EPIC, e durante gli esami finali della Scuola Superiore di Lingue Letterature Traduzione e Interpretazione, se ne osserverà l'uso in italiano, in inglese e in spagnolo. Solo in seguito, sarà possibile prendere in considerazione le rese in interpretazione simultanea degli interpreti del Parlamento Europeo, i 'professionisti', e gli studenti che sostengono gli esami finali, i 'semi-professionisti'. Dalla ricerca sono emerse sostanziali differenze tra la lessicalizzazione delle metafore del viaggio in italiano, inglese e spagnolo che rendono la loro interpretazione in simultanea tutto fuorché semplice e automatica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The aim of this dissertation is to provide a translation from English into Italian of a highly specialized scientific article published by the online journal ALTEX. In this text, the authors propose a roadmap for how to overcome the acknowledged scientific gaps for the full replacement of systemic toxicity testing using animals. The main reasons behind this particular choice are my personal interest in specialized translation of scientific texts and in the alternatives to animal testing. Moreover, this translation has been directly requested by the Italian molecular biologist and clinical biochemist Candida Nastrucci. It was not possible to translate the whole article in this project, for this reason, I decided to translate only the introduction, the chapter about skin sensitization, and the conclusion. I intend to use the resources that were created for this project to translate the rest of the article in the near future. In this study, I will show how a translator can translate such a specialized text with the help of a field expert using CAT Tools and a specialized corpus. I will also discuss whether machine translation can prove useful to translate this type of document. This work is divided into six chapters. The first one introduces the main topic of the article and explains my reasons for choosing this text; the second one contains an analysis of the text type, focusing on the differences and similarities between Italian and English conventions. The third chapter provides a description of the resources that were used to translate this text, i.e. the corpus and the CAT Tools. The fourth one contains the actual translation, side-by-side with the original text, while the fifth one provides a general comment on the translation difficulties, an analysis of my translation choices and strategies, and a comment about the relationship between the field expert and the translator. Finally, the last chapter shows whether machine translation and post-editing can be an advantageous strategy to translate this type of document. The project also contains two appendixes. The first one includes 54 complex terminological sheets, while the second one includes 188 simple terminological sheets.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

I processori multi core stanno cambiando lo sviluppo dei software in tutti i settori dell'informatica poiché offrono prestazioni più elevate con un consumo energetico più basso. Abbiamo quindi la possibilità di una computazione realmente parallela, distribuita tra i diversi core del processore. Uno standard per la programmazione multithreading è sicuramente OpenMP, il quale si propone di fornire direttive semplici e chiare per lo sviluppo di programmi su sistemi a memoria condivisa, fornendo un controllo completo sulla parallelizzazione. Nella fisica moderna spesso vengono utilizzate simulazioni al computer di sistemi con alti livelli di complessità computazionale. Si ottimizzerà un software che utilizza l'algoritmo DMRG (Density Matrix Renormalization Group), un algoritmo che consente di studiare reticoli lineari di sistemi a molti corpi, al fine di renderlo più veloce nei calcoli cercando di sfruttare al meglio i core del processore. Per fare ciò verrà utilizzata l'API OpenMP, che ci permetterà in modo poco invasivo di parallelizzare l'algoritmo rendendo così più veloce l'esecuzione su architetture multi core.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La firma digitale è uno degli sviluppi più importanti della crittografia a chiave pubblica, che permette di implementarne le funzionalità di sicurezza. La crittografia a chiave pubblica, introdotta nel 1976 da Diffie ed Hellman, è stata l'unica grande rivoluzione nella storia della crittografia. Si distacca in modo radicale da ciò che l'ha preceduta, sia perché i suoi algoritmi si basano su funzioni matematiche e non su operazioni di sostituzione e permutazione, ma sopratutto perché è asimmetrica: prevede l'uso di due chiavi distinte (mentre nelle crittografia simmetrica si usa una sola chiave condivisa tra le parti). In particolare, le funzioni matematiche su cui si basa tale crittografia sono funzioni ben note nella Teoria dei Numeri: ad esempio fattorizzazione, calcolo del logaritmo discreto. La loro importanza deriva dal fatto che si ritiene che siano 'computazionalmente intrattabili' da calcolare. Dei vari schemi per la firma digitale basati sulla crittografia a chiave pubblica, si è scelto di studiare quello proposto dal NIST (National Institute of Standard and Technology): il Digital Signature Standard (DSS), spesso indicato come DSA (Digital Signature Algorithm) dal nome dell'algoritmo che utilizza. Il presente lavoro è strutturato in tre capitoli. Nel Capitolo 1 viene introdotto il concetto di logaritmo discreto (centrale nell'algoritmo DSA) e vengono mostrati alcuni algoritmi per calcolarlo. Nel Capitolo 2, dopo una panoramica sulla crittografia a chiave pubblica, si dà una definizione di firma digitale e delle sue caratteristiche. Chiude il capitolo una spiegazione di un importante strumento utilizzato negli algoritmi di firma digitale: le funzioni hash. Nel Capitolo 3, infine, si analizza nel dettaglio il DSA nelle tre fasi che lo costituiscono (inizializzazione, generazione, verifica), mostrando come il suo funzionamento e la sua sicurezza derivino dai concetti precedentemente illustrati.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nella tesi si illustra il passaggio dagli spazi polinomiali agli spazi polinomiali generalizzati, gli spazi di Chebyshev estesi (spazi EC), e viene dato un metodo per costruirli a partire da opportuni sistemi di funzioni dette funzioni peso. Successivamente si tratta il problema dell'esistenza di un analogo della base di Bernstein negli spazi EC: si presenta, in analogia ad una particolare costruzione nel caso polinomiale, una dimostrazione costruttiva dell'esistenza di tale base. Infine viene studiato il problema delle lunghezze critiche di uno spazio EC: si tratta di determinare l'ampiezza dell'intervallo oltre la quale lo spazio considerato perde le proprietà di uno spazio EC, o non possiede più una base di Bernstein generalizzata; l'approccio adottato è di tipo sperimentale: nella tesi sono presentati i risultati ottenuti attraverso algoritmi di ricerca che analizzano le proprietà delle funzioni di transizione e ne traggono informazioni sullo spazio di studio.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questa tesi si vede una dimostrazione elementare del teorema dei numeri primi. Dopo aver definito le funzioni aritmetiche di Tchebychev theta e psi, si utilizzano le loro proprietà per studiare il comportamento asintotico della funzione di Mertens e infine di pi(x). Inoltre si mostrano alcuni legami tra la zeta di Riemann e la teoria dei numeri e cenni ad altre dimostrazioni del teorema dei numeri primi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il mapping di grandezze fisiche risulta estremamente importante, essendo in grado di fornire un adeguato supporto per la localizzazione e il monitoraggio di parametri ambientali sensibili. Nel caso indoor, in assenza di un sistema di localizzazione di riferimento analogo al GPS per il caso outdoor, sfruttando appieno le potenzialità della sensoristica a bordo degli smartphone, si è fatto progressivamente strada il mapping di grandezze fisiche quali, ad esempio, il segnale Wi-Fi e il campo magnetico terrestre. In questo caso il mapping, senza richiedere alcuna infrastruttura e coadiuvato dall'utilizzo di dispositivi portatili largamente diffusi ad uso quotidiano, rappresenta una soluzione relativamente recente ridefinibile come Mobile Crowd Sensing. Il MCS rappresenta un nuovo paradigma di servizio, volto a sfruttare l'interconnettività tra dispositivi portatili per effettuare misurazioni di caratteristiche ambientali in maniera automatizzata, aggregandole in un sistema cloud usufruibile ad una vasta comunità. Tuttavia , il considerevole flusso di dati generato, la variabilità temporale delle grandezze di interesse e il rumore insito nelle misurazioni costituiscono problematiche fondamentali per l'utilizzo e la gestione delle misurazioni effettuate. Per tali motivi l'attività di tesi ha previsto i seguenti obiettivi: (i) fornire una panoramica delle principali tecniche e tecnologie di localizzazione volta a motivare l'importanza del mapping di grandezze fisiche ambientali; (ii) individuazione di grandezze fisiche appetibili per la creazione di mappe affidabili e realizzabili nei contesti applicativi più disparati, sfruttando risorse già presenti nell'ambiente; (iii) sviluppo di un algoritmo statistico in grado di fornire una stima accurata dell'andamento spaziale della grandezza di interesse attraverso un numero limitato di misurazioni, mantenendo la compatibilità con processi MCS e una bassa complessità computazionale. L’algoritmo sviluppato è stato validato attraverso simulazioni e misurazioni svolte in ambienti reali. In particolare, prove sperimentali sono state effettuate nell’arena Vicon nei laboratori DEI dell’Università di Bologna, sede Cesena, concepita dal gruppo di ricerca Casy.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Magic Carpet, nato come un middleware orientato a una dimostrazione sullo spatial computing, che inizialmente coinvolgeva solo smart devices ed un tappeto di tag NFC, è il punto di partenza per uno studio sulle tecnologie abilitanti in tale campo. Il prodotto finale è una toolchain per lo sviluppo e la distribuzione, su dispositivi connessi, di applicazioni di spatial computing. Essa comprende un interprete per un DSL basato su un core calculus formalizzato, Field Calculus, e un middleware che supporta l'astrazione curando, a basso livello, le comunicazioni con il vicinato e le percezioni ambientali.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nella tesi vengono introdotte le varietà differenziabili per poter trattare un problema di immergibilità di varietà differenziabili. Viene data una dimostrazione di un teorema di Whitney nel caso di varietà differenziabili compatte. Il teorema stabilisce che per una varietà compatta di dimensione n esiste un embedding nello spazio euclideo di dimensione 2n+1. Whitney stesso ha migliorato questo risultato, dimostrando che una varietà differenziabile può essere immersa tramite un embedding nello spazio euclideo di dimensione 2n. Nella tesi vengono dati alcuni esempi di questo miglioramento del teorema.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La complessa materia della prevenzione incendi può essere approcciata secondo due strategie sostanzialmente differenti. Da una parte, l’approccio di tipo deterministico, imperante in Italia, si concretizza nell’emanazione di norme estremamente prescrittive e nel ricorso da parte del progettista a strumenti di calcolo molto semplici. Il pregio maggiore di tale approccio risiede senza dubbio alcuno nella sua estrema semplicità, nella garanzia di una certa omogeneità di applicazione e nella possibilità di erogare in tempi ragionevoli una formazione uniforme ed accettabile ai controllori. Mentre il limite più evidente consiste nella rigidità, talora eccessiva, delle prescrizioni normative e nelle procedure di calcolo da adottare. Dall’altra, un approccio di tipo ingegneristico (Fire Safety Engineering), seguito per lo più nei paesi anglosassoni, si basa sulla predizione della dinamica evolutiva dell’incendio tramite l’applicazione di idonei modelli di calcolo fisicamente basati (physically sound). Punto di forza di questa seconda strategia è la sua estrema flessibilità, che consente la simulazione d’incendi di complessità anche molto elevata. Per contro i limiti più evidenti di tale approccio risiedono nella problematica validazione sperimentale dei modelli in argomento, data la natura distruttiva delle prove che andrebbero condotte, nella spinta preparazione richiesta ai professionisti ed ancor più ai controllori, dato il proliferare negli anni di modelli anche molto diversi tra loro, ed, infine, nel caso di raffinati modelli di campo, in un onere computazionale non sempre sostenibile con i PC di comune diffusione. Allo stato attuale in Italia il ricorso alla Fire Safety Engineering è di fatto circoscritto alle applicazioni per le quali non esiste una specifica norma prescrittiva, su tutte la valutazione del rischio in attività a rischio di incidente rilevante e la Fire Investigation; talora essa è impiegata anche per la valutazione della sicurezza equivalente in occasione di richiesta di deroga a norme prescrittive.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il fine ultimo di questo lavoro è di analizzare ed interpretare alcuni parametri morfometrici che riguardano bacini in roccia e canali di colate detritiche nelle Dolomiti, estrapolati tramite l’analisi di un DEM derivato da rilievo LiDAR. La procedura, implementata in ambiente GIS, è basata sull’analisi di mappe raster morfometriche derivate dalla rappresentazione digitale del terreno. L’elevata risoluzione di questi modelli digitali del terreno (1m) ha permesso uno studio approfondito della morfologia delle colate detritiche nell’area alpina. L’area di studio, nel comune di Cortina D’Ampezzo, è caratterizzata da frequenti eventi di colata detritica a causa della particolare e caratteristica morfologia dolomitica che si sviluppa in altezza con imponenti testate rocciose ed alla loro base con conoidi detritici. I bacini di roccia sono di piccole dimensioni, mentre la lunghezza dei canaloni può variare in base alla pendenza e alla litologia del luogo. In questo tipo di ambiente la causa principale di innesco di tali fenomeni sono i temporali ad elevata intensità i quali trasformano il materiale di deposito in un fluido che scende, grazie alla pendenza, con velocità elevate attraverso i canali. Raggiunte pendenze basse il fluido si arresta e il materiale viene depositato. In questo studio le zone d’innesco di colata detritica sono state indagate con metodologie quali la fotointerpretazione confrontata con il DEM e la modellazione spazialmente distribuita, una procedura automatica volta ad identificare i possibili punti d’innesco e basata sulla relazione tra pendenza locale e area contribuente. Tramite i punti d’innesco individuati con fotointerpretazione sono stati estratti i relativi bacini di colata. In principio sono stati analizzati e interpretati i parametri morfologici e idrologici che caratterizzano i bacini in roccia e i loro rispettivi canali di colata tramite istogrammi di frequenza. Successivamente sono stati confrontati i parametri più significativi attraverso l’uso di grafici a dispersione. Nello studio è stata posta particolare attenzione soprattutto a quei bacini considerati attivi tramite la raccolta di fonti storiche, con l’obbiettivo di analizzare dettagliatamente i parametri morfometrici che risultano essere direttamente legati all’attività dei bacini.