194 resultados para teoria dei nodi esperimento didattico
Resumo:
High Performance Computing e una tecnologia usata dai cluster computazionali per creare sistemi di elaborazione che sono in grado di fornire servizi molto piu potenti rispetto ai computer tradizionali. Di conseguenza la tecnologia HPC e diventata un fattore determinante nella competizione industriale e nella ricerca. I sistemi HPC continuano a crescere in termini di nodi e core. Le previsioni indicano che il numero dei nodi arrivera a un milione a breve. Questo tipo di architettura presenta anche dei costi molto alti in termini del consumo delle risorse, che diventano insostenibili per il mercato industriale. Un scheduler centralizzato non e in grado di gestire un numero di risorse cosi alto, mantenendo un tempo di risposta ragionevole. In questa tesi viene presentato un modello di scheduling distribuito che si basa sulla programmazione a vincoli e che modella il problema dello scheduling grazie a una serie di vincoli temporali e vincoli sulle risorse che devono essere soddisfatti. Lo scheduler cerca di ottimizzare le performance delle risorse e tende ad avvicinarsi a un profilo di consumo desiderato, considerato ottimale. Vengono analizzati vari modelli diversi e ognuno di questi viene testato in vari ambienti.
Resumo:
Questo elaborato finale intende presentare una proposta di traduzione di una parte del sito internet del celebre Museo ebraico di Berlino progettato da Daniel Libeskind, architetto statunitense di origine polacca. Il presente elaborato si articola nelle seguenti sezioni: il primo capitolo si concentrerà sulla teoria dei siti internet e sulla loro organizzazione, focalizzando l’interesse sulle modalità di scrittura dei siti web, nel secondo capitolo, verranno presentate la vita e le opere di Daniel Libeskind con una breve introduzione al Museo Ebraico. Seguirà poi un'analisi testuale e nel quarto capitolo la proposta di traduzione. Nel quinto capitolo verranno analizzate le strategie adottate nella traduzione. L’elaborato si concluderà con alcune considerazioni finali, e con indicazioni sulla bibliografia e sitografia.
Resumo:
Con questa tesi verrà spiegata l'intrinseca connessione tra la matematica della teoria dei numeri e l'affidabilità e sicurezza dei crittosistemi asimmetrici moderni. I principali argomenti trattati saranno la crittografia a chiave pubblica ed il problema della verifica della primalità. Nei primi capitoli si capirà cosa vuol dire crittografia e qual è la differenza tra asimmetria e simmetria delle chiavi. Successivamente verrà fatta maggiore luce sugli utilizzi della crittografia asimmetrica, mostrando tecniche per: comunicare in modo confidenziale, scambiare in modo sicuro chiavi private su un canale insicuro, firmare messaggi, certificare identità e chiavi pubbliche. La tesi proseguirà con la spiegazione di quale sia la natura dei problemi alla base della sicurezza dei crittosistemi asimmetrici oggigiorno più diffusi, illustrando brevemente le novità introdotte dall'avvento dei calcolatori quantistici e dimostrando l'importanza che riveste in questo contesto il problema della verifica della primalità. Per concludere verrà fatta una panoramica di quali sono i test di primalità più efficienti ed efficaci allo stato dell'arte, presentando una nuova tecnica per migliorare l'affidabilità del test di Fermat mediante un nuovo algoritmo deterministico per fattorizzare gli pseudoprimi di Carmichael, euristicamente in tempo O~( log^3{n}), poi modificato sfruttando alcune proprietà del test di Miller per ottenere un nuovo test di primalità deterministico ed euristico con complessità O~( log^2{n} ) e la cui probabilità di errore tende a 0 con n che tende ad infinito.
Resumo:
Recentemente sono stati valutati come fisicamente consistenti diversi modelli non-hermitiani sia in meccanica quantistica che in teoria dei campi. La classe dei modelli pseudo-hermitiani, infatti, si adatta ad essere usata per la descrizione di sistemi fisici dal momento che, attraverso un opportuno operatore metrico, risulta possibile ristabilire una struttura hermitiana ed unitaria. I sistemi PT-simmetrici, poi, sono una categoria particolarmente studiata in letteratura. Gli esempi riportati sembrano suggerire che anche le cosiddette teorie conformi non-unitarie appartengano alla categoria dei modelli PT-simmetrici, e possano pertanto adattarsi alla descrizione di fenomeni fisici. In particolare, si tenta qui la costruzione di determinate lagrangiane Ginzburg-Landau per alcuni modelli minimali non-unitari, sulla base delle identificazioni esistenti per quanto riguarda i modelli minimali unitari. Infine, si suggerisce di estendere il dominio del noto teorema c alla classe delle teorie di campo PT-simmetriche, e si propongono alcune linee per una possibile dimostrazione dell'ipotizzato teorema c_{eff}.
Resumo:
La diffusione di soluzioni domotiche dipende da tecnologie abilitanti che supportino la comunicazione tra i numerosi agenti delle reti. L’obiettivo della tesi è progettare e realizzare un middleware per sensori distribuiti Java-based chiamato SensorNetwork, che permetta ad un agente domotico di effettuare sensing sull’ambiente. Le funzionalità principali del sistema sono uniformità di accesso a sensori eterogenei distribuiti, alto livello di automazione (autoconfigurazione e autodiscovery dei nodi), configurazione a deployment time, modularità, semplicità di utilizzo ed estensione con nuovi sensori. Il sistema realizzato è basato su un’architettura a componente-container che permette l’utilizzo di sensori all’interno di stazioni di sensori e che supporti l’accesso remoto per mezzo di un servizio di naming definito ad-hoc.
Resumo:
Questo elaborato si propone di approfondire lo studio dei campi finiti, in modo particolare soffermandosi sull’esistenza di una base normale per un campo finito, in quanto l'utilizzo di una tale base ha notevoli applicazioni in ambito crittografico. Vengono trattati i seguenti argomenti: elementi di base della teoria dei campi finiti, funzione traccia e funzione norma, basi duali, basi normali. Vengono date due dimostrazioni del Teorema della Base Normale, la seconda delle quali fa uso dei polinomi linearizzati ed è in realtà un po' più generale, in quanto si riferisce ai q-moduli.
Resumo:
Nel 1837 il matematico A.F. Möbius definì la funzione aritmetica mu(n) che vale 0 se n è divisibile per il quadrato di un numero primo, (-1)^k se n è il prodotto di k primi distinti e \mu(1)=1. Essa ricopre un ruolo di fondamentale importanza per quanto riguarda la distribuzione dei numeri primi, nonché per la sua duttilità nella risoluzione di diversi problemi di conteggio grazie alla formula di inversione di Möbius, che può essere pensata come un analogo formale del teorema fondamentale del calcolo integrale. Una sorprendente varietà di problemi di calcolo combinatorio si rivelano essere nient'altro che casi particolari di un problema più generale che riguarda la possibilità di invertire una somma fatta sugli elementi di un insieme parzialmente ordinato. L'obiettivo di questo elaborato è quello di illustrare come sia possibile generalizzare il concetto di funzione aritmetica estendendolo a quello di funzione di un'algebra di incidenza. Le algebre di incidenza hanno catturato l'interesse di svariati matematici a partire dagli anni '60 del secolo scorso, e si svilupparono come ambiente naturale nel quale generalizzare la formula di inversione di Mobius. La funzione di Möbius della teoria dei numeri, definita originariamente sull'insieme dei numeri interi positivi ordinato per divisibilità, può quindi essere definita su generici insiemi parzialmente ordinati.
Resumo:
I robot ad architettura parallela sono meccanismi robotici a catena chiusa. Se al posto di membri rigidi estensibili, come collegamenti tra base e piattaforma, si utilizzano dei cavi avvolgibili allora si parla di manipolatori paralleli a cavi. Nel primo capitolo si mettono a confronto robot seriali e paralleli, si descrivono le caratteristiche dei manipolatori paralleli a cavi e si presentano alcune attuali applicazioni. Nel secondo capitolo si forniscono richiami fondamentali di cinematica e dinamica del corpo rigido e si fanno alcuni cenni alla teoria dei torsori. Nel terzo capitolo si affronta il problema geometrico-statico inverso di un robot parallelo a tre cavi. Nel quarto capitolo si affronta il problema della dinamica inversa, che è sempre da risolvere nei casi in cui si abbiano forze inerziali rilevanti e si desideri raggiungere livelli di accuratezza elevati. Nel quinto capitolo si descrive il codice di simulazione Matlab-Adams. Nel sesto capitolo si descrive la componentistica meccanica ed elettronica del prototipo di laboratorio di manipolatore parallelo a tre cavi e si presentano i risultati ottenuti dalle simulazioni combinate Matlab-Adams nei casi di diverse traiettorie percorse a differenti velocità; infine, si mettono in evidenza le differenze tra l’approccio dinamico e quello statico quando le velocità dei motori e le inerzie della piattaforma mobile sono rilevanti.
Resumo:
La Blockchain è un deposito di dati distribuito costituito da una lista di record (in continua crescita) resistente a modifiche e revisioni, anche da parte degli operatori dei nodi (computer) su cui risiede. I dati sono sicuri anche in presenza di partecipanti non affidabili o disonesti alla rete. Una copia totale o parziale della blockchain è memorizzata su tutti i nodi. I record contenuti sono di due tipi: le transazioni, che sono i dati veri e propri, e i blocchi, che sono la registrazione di quanto ed in quale ordine le transazioni sono state inserite in modo indelebile nel database. Le transazioni sono create dai partecipanti alla rete nelle loro operazioni (per esempio, trasferimento di valuta ad un altro utente), mentre i blocchi sono generati da partecipanti speciali, i cosiddetti “miners”, che utilizzano software e a volte hardware specializzato per creare i blocchi. L’attività dei miners viene ricompensata con l’assegnazione di “qualcosa”, nel caso della rete Bitcoin di un certo numero di unità di valuta. Spesso negli esempi si fa riferimento alla Blockchain di Bitcoin perché è la catena di blocchi implementata per prima, e l'unica ad avere una dimensione consistente. Le transazioni, una volta create, vengono distribuite sui nodi con un protocollo del tipo “best effort”. La validità di una transazione viene verificata attraverso il consenso dei nodi della rete sulla base di una serie di parametri, che variano secondo l’implementazione specifica dell’architettura. Una volta verificata come valida, la transazione viene inserita nel primo blocco libero disponibile. Per evitare che ci sia una duplicazione delle informazioni l’architettura prevede un sistema di time stamping, che non richiede un server centralizzato.
Resumo:
Dato il recente avvento delle tecnologie NGS, in grado di sequenziare interi genomi umani in tempi e costi ridotti, la capacità di estrarre informazioni dai dati ha un ruolo fondamentale per lo sviluppo della ricerca. Attualmente i problemi computazionali connessi a tali analisi rientrano nel topic dei Big Data, con databases contenenti svariati tipi di dati sperimentali di dimensione sempre più ampia. Questo lavoro di tesi si occupa dell'implementazione e del benchmarking dell'algoritmo QDANet PRO, sviluppato dal gruppo di Biofisica dell'Università di Bologna: il metodo consente l'elaborazione di dati ad alta dimensionalità per l'estrazione di una Signature a bassa dimensionalità di features con un'elevata performance di classificazione, mediante una pipeline d'analisi che comprende algoritmi di dimensionality reduction. Il metodo è generalizzabile anche all'analisi di dati non biologici, ma caratterizzati comunque da un elevato volume e complessità, fattori tipici dei Big Data. L'algoritmo QDANet PRO, valutando la performance di tutte le possibili coppie di features, ne stima il potere discriminante utilizzando un Naive Bayes Quadratic Classifier per poi determinarne il ranking. Una volta selezionata una soglia di performance, viene costruito un network delle features, da cui vengono determinate le componenti connesse. Ogni sottografo viene analizzato separatamente e ridotto mediante metodi basati sulla teoria dei networks fino all'estrapolazione della Signature finale. Il metodo, già precedentemente testato su alcuni datasets disponibili al gruppo di ricerca con riscontri positivi, è stato messo a confronto con i risultati ottenuti su databases omici disponibili in letteratura, i quali costituiscono un riferimento nel settore, e con algoritmi già esistenti che svolgono simili compiti. Per la riduzione dei tempi computazionali l'algoritmo è stato implementato in linguaggio C++ su HPC, con la parallelizzazione mediante librerie OpenMP delle parti più critiche.
Resumo:
Il primo capitolo verte su argomenti di musica e, dopo una breve premessa generale, ed alcuni cenni biografici di J. S. Bach, si passa ad una analisi strutturale di tipo aritmetico e geometrico su alcune sue famose composizioni, sottolineando in particolare la passione del grande compositore per la numerologia, esaminando l’importanza che il fattore numerologico sempre assume nelle sue opere. Il secondo capitolo verte su argomenti di matematica e tratta alcuni importanti aspetti della teoria dei grafi, del toro e dell’immersione di grafi in superfici. Il terzo capitolo, nel quale si fa riferimento agli argomenti dei primi due capitoli, è diviso in tre parti: la prima esamina alcuni principali fondamenti matematico-musicali, la seconda propone un excursus storico dalla scala pitagorica al temperamento equabile, la terza approfondisce il ciclo delle quinte, il Tonnetz e le teorie neo-riemanniane.
Resumo:
Negli ultimi 50 anni Internet è passata da una piccola rete di ricerca, formata da pochi nodi, ad un’infrastruttura globale capace di connettere più di un milione di utenti. La progressiva miniaturizzazione e la riduzione di costi di produzione dei dispositivi elettronici, permette, tuttora, l’estensione della rete a una nuova dimensione: gli oggetti intelligenti. In questi scenari dove le risorse di rete sono spesso proibitive o la mobilità dei nodi è una caratteristica comune, è necessario che sia garantita forte robustezza a transitori di connessione. Lo dimostra uno studio precedente riguardo ad un applicativo d'agricoltura di precisione denominato Agri-Eagle. In esso vengono confrontate due diverse implementazioni utilizzando il framework SMART M3 e MQTT. Il lavoro di tesi in esame ne estende le considerazioni ed esplora vari metodi per conferire robustezza ad applicazioni sviluppati su SMART-M3. Verrà studiata la funzionalità di Lastwill e Testament proprie di MQTT e se ne tenterà una trasposizione nel mondo semantico. Infine verrà modificato il meccanismo di sottoscrizione in modo da renderlo più robusto a cadute di connessione.
Resumo:
La metodologia convenzionalmente adottata per l’analisi e progettazione di reti acquedottistiche è la Demand Driven (DD), ovvero un’analisi guidata dalla domanda idrica dell’utenza che viene imposta, dal punto di vista matematico, nelle equazioni del modello idraulico; la struttura di risoluzione matematica di tale approccio è costituita dalle sole equazioni di continuità e del moto, le cui incognite sono i carichi idraulici da garantire per soddisfare la richiesta idrica (dato noto). Purtroppo la DD non è in grado di simulare, in modo ottimale, scenari in cui le pressioni in rete risultano essere inferiori rispetto a quelle richieste per un servizio di erogazione corretto. Dunque, per una completa analisi di una rete di distribuzione idrica, è utile adottare la metodologia Pressure Driven (PD), che si basa sullo stesso modello matematico utilizzato per l’analisi DD al quale viene aggiunta un’equazione che lega la portata erogata alle utenze e la perdita idrica al carico idraulico disponibile in corrispondenza dei nodi. In questo caso un ulteriore dato incognito, oltre al carico idraulico nei nodi ed alla portata nelle condotte della rete, risulta essere la portata effettivamente prelevata ai nodi oppure persa (leakage) dalla rete. Il presente lavoro di tesi ha portato alla calibrazione del modello di un distretto della rete di distribuzione idrica della città di Rapallo. Le simulazioni sono state eseguite attraverso il codice InfoWorks applicando sia la Demand Driven Analysis che risulta funzionale per l’ottenimento del modello calibrato, sia la Pressure Driven Analysis che non agisce sul bilancio complessivo della rete, ma interviene localmente nelle zone in cui le problematiche di funzionamento riscontrate riguardano le pressioni
Resumo:
Il presente lavoro di tesi mira a fornire una panoramica delle tecnologie utilizzate in sala di elettrofisiologia che hanno permesso una riduzione dell’utilizzo del fluoroscopio e quindi della radiazioni ionizzanti per l’individuazione dei cateteri utilizzati durante le procedure. Infatti, si è presentato lo strumento che ha rivoluzionato il mondo della elettrofisiologia quale il sistema di mappaggio elettroanatomico. Esso consente la ricostruzione paziente-specifica dell’anatomia atriale o ventricolare e l’identificazione spaziale e temporale degli elettrogrammi durante un particolare ritmo cardiaco. Infatti questo viene utilizzato dal bioingegnere nelle procedure come l’ablazione transcatetere della fibrillazione atriale per guidare il clinico. Sebbene tale aritmia sia molto diffusa, i suoi meccanismi di mantenimento sono ancora in fase di studio. In particolare, tale tesi presenta la teoria dei rotori che sostiene che la fibrillazione atriale abbia un meccanismo di mantenimento basato su pattern di attivazione spiraliformi. Dato che i rotori possono essere definiti come singolarità di fase che soddisfano un'opportuna persistenza temporale, si è utilizzato un sistema di analisi di dati elettroanatomici (già utilizzato in precedenti casi di studio) in ambiente Matlab per la generazione delle mappe di fase e l’individuazione delle singolarità di fase. In particolare, si è studiata l’attività elettrica di un paziente affetto da FA persistente e sottoposto ad ablazione transcatetere, in due segmenti di acquisizione. Per raggiungere tale obiettivo, è stato utilizzato il catetere HD GRID e il sistema Ensite Precision della Abbott. L’esistenza dei rotori è ancora fortemente dibattuta dalla comunità scientifica, alcuni sostengono che siano artefatti introdotti dal movimento degli elettrodi del catetere durante le procedure. L’eventuale identificazione di rotori con un catetere ad elevata risoluzione, come nel caso in questione, confuterebbe la precedente teoria.
Resumo:
Nella letteratura economica e di teoria dei giochi vi è un dibattito aperto sulla possibilità di emergenza di comportamenti anticompetitivi da parte di algoritmi di determinazione automatica dei prezzi di mercato. L'obiettivo di questa tesi è sviluppare un modello di reinforcement learning di tipo actor-critic con entropy regularization per impostare i prezzi in un gioco dinamico di competizione oligopolistica con prezzi continui. Il modello che propongo esibisce in modo coerente comportamenti cooperativi supportati da meccanismi di punizione che scoraggiano la deviazione dall'equilibrio raggiunto a convergenza. Il comportamento di questo modello durante l'apprendimento e a convergenza avvenuta aiuta inoltre a interpretare le azioni compiute da Q-learning tabellare e altri algoritmi di prezzo in condizioni simili. I risultati sono robusti alla variazione del numero di agenti in competizione e al tipo di deviazione dall'equilibrio ottenuto a convergenza, punendo anche deviazioni a prezzi più alti.