405 resultados para Analisi Discriminante, Teoria dei Network, Cross-Validation, Validazione.


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Un sistema sottoposto ad una lenta evoluzione ciclica è descritto da un'Hamiltoniana H(X_1(t),...,X_n(t)) dipendente da un insieme di parametri {X_i} che descrivono una curva chiusa nello spazio di appartenenza. Sotto le opportune ipotesi, il teorema adiabatico ci garantisce che il sistema ritornerà nel suo stato di partenza, e l'equazione di Schrödinger prevede che esso acquisirà una fase decomponibile in due termini, dei quali uno è stato trascurato per lungo tempo. Questo lavoro di tesi va ad indagare principalmente questa fase, detta fase di Berry o, più in generale, fase geometrica, che mostra della caratteristiche uniche e ricche di conseguenze da esplorare: essa risulta indipendente dai dettagli della dinamica del sistema, ed è caratterizzata unicamente dal percorso descritto nello spazio dei parametri, da cui l'attributo geometrico. A partire da essa, e dalle sue generalizzazioni, è stata resa possibile l'interpretazione di nuovi e vecchi effetti, come l'effetto Aharonov-Bohm, che pare mettere sotto una nuova luce i potenziali dell'elettromagnetismo, e affidare loro un ruolo più centrale e fisico all'interno della teoria. Il tutto trova una rigorosa formalizzazione all'interno della teoria dei fibrati e delle connessioni su di essi, che verrà esposta, seppur in superficie, nella parte iniziale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Solitamente il concetto di difficoltà è piuttosto soggettivo, ma per un matematico questa parola ha un significato diverso: anche con l’aiuto dei più potenti computer può essere impossibile trovare la soluzione di un sudoku, risolvere l’enigma del commesso viaggiatore o scomporre un numero nei suoi fattori primi; in questo senso le classi di complessità computazionale quantificano il concetto di difficoltà secondo le leggi dell’informatica classica. Una macchina quantistica, però, non segue le leggi classiche e costituisce un nuovo punto di vista in una frontiera della ricerca legata alla risoluzione dei celebri problemi del millennio: gli algoritmi quantistici implementano le proprietà straordinarie e misteriose della teoria dei quanti che, quando applicate lucidamente, danno luogo a risultati sorprendenti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le funzioni generalizzate sono uno strumento matematico che trova la sua applicazione fisica quando si trattano problemi con discontinuità o singolarità. Risulta perciò necessario formulare una teoria in grado di descrivere completamente questi oggetti e le loro proprietà. Nella teoria delle funzioni generalizzate il problema del loro prodotto è tuttora aperto poiché non esiste un metodo univoco per dare la definizione tra questi oggetti. Lo scopo di questo elaborato è di presentare la teoria delle funzioni generalizzate e i problemi legati al loro prodotto per poi presentare due metodi per affrontarlo, con esempi e risultati di particolare interesse. Vengono mostrati infine alcuni esempi fisici dove la soluzione richiede l'utilizzo di questo apparato matematico vertendo soprattutto sullo stretto legame tra il prodotto di funzioni generalizzate e la procedura della rinormalizzazione nella teoria dei campi quantistici.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questa tesi vengono presentati i piu recenti risultati relativi all'estensione della teoria dei campi localmente covariante a geometrie che permettano di descrivere teorie di campo supersimmetriche. In particolare, si mostra come la definizione assiomatica possa essere generalizzata, mettendo in evidenza le problematiche rilevanti e le tecniche utilizzate in letteratura per giungere ad una loro risoluzione. Dopo un'introduzione alle strutture matematiche di base, varieta Lorentziane e operatori Green-iperbolici, viene definita l'algebra delle osservabili per la teoria quantistica del campo scalare. Quindi, costruendo un funtore dalla categoria degli spazio-tempo globalmente iperbolici alla categoria delle *-algebre, lo stesso schema viene proposto per le teorie di campo bosoniche, purche definite da un operatore Green-iperbolico su uno spazio-tempo globalmente iperbolico. Si procede con lo studio delle supervarieta e alla definizione delle geometrie di background per le super teorie di campo: le strutture di super-Cartan. Associando canonicamente ad ognuna di esse uno spazio-tempo ridotto, si introduce la categoria delle strutture di super-Cartan (ghsCart) il cui spazio-tempo ridotto e globalmente iperbolico. Quindi, si mostra, in breve, come e possibile costruire un funtore da una sottocategoria di ghsCart alla categoria delle super *-algebre e si conclude presentando l'applicazione dei risultati esposti al caso delle strutture di super-Cartan in dimensione 2|2.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questo elaborato si tratterà il metodo di analisi e modellazione post-sismica del terreno attraverso l’utilizzo dei dati GPS e dati SAR. Si prenderanno in esame due eventi sismici: il grande terremoto di Tohoku in Giappone del marzo 2011, con particolare attenzione alla conseguente formazione di un grande tsunami, e la sequenza sismica umbro-marchigiana del settembre/ottobre 1997. In tale contesto verranno descritti i diversi strumenti di monitoraggio e i modelli delle sorgenti sismiche, i quali hanno il compito di determinare importanti informazioni per la più rapida valutazione possibile del rischio sismico e per la corretta pianificazione delle attività umane e del territorio. Obiettivo della tesi è descrivere l’efficacia dell’utilizzo congiunto della tecnica di monitoraggio GPS e l’Interferometria Differenziale SAR. Grazie all’analisi ed alla conseguente modellazione dei dati raccolti nei due eventi sismici descritti in questo lavoro si dimostra l’importanza di tali tecniche per comprendere al meglio i fenomeni sismici. Nel primo capitolo verranno descritte le tecniche di monitoraggio GPS e SAR e le successive tecniche di analisi e modellazione dei dati al fine di avere una previsione dell’evento preso in considerazione. Nel secondo capitolo si esamineranno le peculiarità dell’evento sismico giapponese (2011) e delle elaborazioni condotte per caratterizzare lo tsunami provocato dalla rottura del fondale oceanico. Nel terzo capitolo si analizzerà la sequenza sismica umbro-marchigiana del 1997 prestando attenzione allo sviluppo della rete geodetica del territorio nazionale italiano con riferimenti allo sviluppo della Rete Integrata Nazionale GPS (RING). Nel quarto capitolo verrà descritto in modo introduttivo la struttura del software Bernese GNSS v. 5.2; un software di elaborazione dati usato in ambito scientifico per l’analisi di reti GNSS per il controllo delle deformazioni.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questa tesi concerne quella che è una generalizzata tendenza verso la trasformazione digitale dei processi di business. Questa evoluzione, che implica l’utilizzo delle moderne tecnologie informatiche tra cui il Cloud Computing, le Big Data Analytics e gli strumenti Mobile, non è priva di insidie che vanno di volta in volta individuate ed affrontate opportunamente. In particolare si farà riferimento ad un caso aziendale, quello della nota azienda bolognese FAAC spa, ed alla funzione acquisti. Nell'ambito degli approvvigionamenti l'azienda sente la necessità di ristrutturare e digitalizzare il processo di richiesta di offerta (RdO) ai propri fornitori, al fine di consentire alla funzione di acquisti di concentrarsi sull'implementazione della strategia aziendale più che sull'operatività quotidiana. Si procede quindi in questo elaborato all'implementazione di un progetto di implementazione di una piattaforma specifica di e-procurement per la gestione delle RdO. Preliminarmente vengono analizzati alcuni esempi di project management presenti in letteratura e quindi viene definito un modello per la gestione del progetto specifico. Lo svolgimento comprende quindi: una fase di definizione degli obiettivi di continuità dell'azienda, un'analisi As-Is dei processi, la definizione degli obiettivi specifici di progetto e dei KPI di valutazione delle performance, la progettazione della piattaforma software ed infine alcune valutazioni relative ai rischi ed alle alternative dell'implementazione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Con questa tesi verrà spiegata l'intrinseca connessione tra la matematica della teoria dei numeri e l'affidabilità e sicurezza dei crittosistemi asimmetrici moderni. I principali argomenti trattati saranno la crittografia a chiave pubblica ed il problema della verifica della primalità. Nei primi capitoli si capirà cosa vuol dire crittografia e qual è la differenza tra asimmetria e simmetria delle chiavi. Successivamente verrà fatta maggiore luce sugli utilizzi della crittografia asimmetrica, mostrando tecniche per: comunicare in modo confidenziale, scambiare in modo sicuro chiavi private su un canale insicuro, firmare messaggi, certificare identità e chiavi pubbliche. La tesi proseguirà con la spiegazione di quale sia la natura dei problemi alla base della sicurezza dei crittosistemi asimmetrici oggigiorno più diffusi, illustrando brevemente le novità introdotte dall'avvento dei calcolatori quantistici e dimostrando l'importanza che riveste in questo contesto il problema della verifica della primalità. Per concludere verrà fatta una panoramica di quali sono i test di primalità più efficienti ed efficaci allo stato dell'arte, presentando una nuova tecnica per migliorare l'affidabilità del test di Fermat mediante un nuovo algoritmo deterministico per fattorizzare gli pseudoprimi di Carmichael, euristicamente in tempo O~( log^3{n}), poi modificato sfruttando alcune proprietà del test di Miller per ottenere un nuovo test di primalità deterministico ed euristico con complessità O~( log^2{n} ) e la cui probabilità di errore tende a 0 con n che tende ad infinito.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Recentemente sono stati valutati come fisicamente consistenti diversi modelli non-hermitiani sia in meccanica quantistica che in teoria dei campi. La classe dei modelli pseudo-hermitiani, infatti, si adatta ad essere usata per la descrizione di sistemi fisici dal momento che, attraverso un opportuno operatore metrico, risulta possibile ristabilire una struttura hermitiana ed unitaria. I sistemi PT-simmetrici, poi, sono una categoria particolarmente studiata in letteratura. Gli esempi riportati sembrano suggerire che anche le cosiddette teorie conformi non-unitarie appartengano alla categoria dei modelli PT-simmetrici, e possano pertanto adattarsi alla descrizione di fenomeni fisici. In particolare, si tenta qui la costruzione di determinate lagrangiane Ginzburg-Landau per alcuni modelli minimali non-unitari, sulla base delle identificazioni esistenti per quanto riguarda i modelli minimali unitari. Infine, si suggerisce di estendere il dominio del noto teorema c alla classe delle teorie di campo PT-simmetriche, e si propongono alcune linee per una possibile dimostrazione dell'ipotizzato teorema c_{eff}.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questo elaborato si propone di approfondire lo studio dei campi finiti, in modo particolare soffermandosi sull’esistenza di una base normale per un campo finito, in quanto l'utilizzo di una tale base ha notevoli applicazioni in ambito crittografico. ​Vengono trattati i seguenti argomenti: elementi di base della teoria dei campi finiti, funzione traccia e funzione norma, basi duali, basi normali. Vengono date due dimostrazioni del Teorema della Base Normale, la seconda delle quali fa uso dei polinomi linearizzati ed è in realtà un po' più generale, in quanto si riferisce ai q-moduli.​

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nel 1837 il matematico A.F. Möbius definì la funzione aritmetica mu(n) che vale 0 se n è divisibile per il quadrato di un numero primo, (-1)^k se n è il prodotto di k primi distinti e \mu(1)=1. Essa ricopre un ruolo di fondamentale importanza per quanto riguarda la distribuzione dei numeri primi, nonché per la sua duttilità nella risoluzione di diversi problemi di conteggio grazie alla formula di inversione di Möbius, che può essere pensata come un analogo formale del teorema fondamentale del calcolo integrale. Una sorprendente varietà di problemi di calcolo combinatorio si rivelano essere nient'altro che casi particolari di un problema più generale che riguarda la possibilità di invertire una somma fatta sugli elementi di un insieme parzialmente ordinato. L'obiettivo di questo elaborato è quello di illustrare come sia possibile generalizzare il concetto di funzione aritmetica estendendolo a quello di funzione di un'algebra di incidenza. Le algebre di incidenza hanno catturato l'interesse di svariati matematici a partire dagli anni '60 del secolo scorso, e si svilupparono come ambiente naturale nel quale generalizzare la formula di inversione di Mobius. La funzione di Möbius della teoria dei numeri, definita originariamente sull'insieme dei numeri interi positivi ordinato per divisibilità, può quindi essere definita su generici insiemi parzialmente ordinati.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo scopo di questa tesi è la trattazione della materia oscura partendo dalle evidenze sperimentali, ripercorrendo i possibili costituenti e riportando dati relativi a rivelazioni dirette ed indirette. Il primo capitolo è dedicato alla discussione delle due più importanti evidenze della presenza di materia oscura, ossia le curve di rotazione ed il Bullet Cluster, che risultano entrambe interazioni di tipo gravitazionale. Si provvede inoltre a fornire le due più plausibili soluzioni in grado di spiegare i risultati ottenuti dalle osservazioni sperimentali e a discutere la loro validità come modello per la descrizione di tali fenomeni. Il capitolo successivo è volto all'esposizione delle possibili particelle che compongono la materia oscura, discutendo quali siano le più probabili, e alla spiegazione della loro creazione nell'Universo primordiale. La terza parte è dedicata alle rilevazioni dirette, consistenti nello scattering fra particelle di materia oscura e nuclei, ed in particolare all'analisi del modello dei neutralini. Vengono poi riportati nello stesso capitolo i risultati di tali rilevazioni, con riferimento agli esperimenti CDMS II, XENON100 e LUX. Nel quarto capitolo si tratteranno i risultati delle rilevazioni indirette, ossia osservazioni di processi derivanti dall'annichilazione di materia oscura, e verranno riportati i risultati degli esperimenti più importanti, fra cui i più recenti sono Fermi-LAT e CTA (ancora in sviluppo). L'ultimo paragrafo è riservato ad un breve riassunto dei risultati e delle ipotesi trattate, per raccogliere i dati più importanti e fornire una visione generale della materia oscura.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

I simulatori di guida sono strumenti altamente tecnologici che permettono di svolgere attività di ricerca in vari ambiti quali la psicologia, la medicina e l’ingegneria. Tuttavia, affinché i dati ottenuti mediante le simulazioni siano rapportabili alla loro controparte reale, la fedeltà delle componenti del simulatore di guida deve essere elevata. Questo lavoro tratta del miglioramento del sistema di restituzione del movimento nel simulatore a due gradi di libertà (2DOF) SIMU-LACET Driving Simulator, costruito e sviluppato presso il laboratorio LEPSIS dell’IFSTTAR (Istituto Francese delle Scienze e Tecnologie dei Trasporti, dello Sviluppo e delle Reti), in particolare nella sua sede di Parigi – Marne-la-Vallée. Si è deciso di andare a riprogettare la parte software del sistema di restituzione del movimento (motion cueing), operando su due elementi principali: lo scale factor (fattore di scala) applicato agli impulsi dinamici provenienti dal modello veicolare e i Motion Cueing Algorihms (MCA, algoritmi di restituzione del movimento), questo per entrambi i gradi di libertà. Si è quindi intervenuti sul modello esistente implementato in MATLAB-Simulink nello specifico blocco del motion cueing sul surge (traslazione longitudinale) e sul yaw (imbardata). Riguardo lo scale factor, è stata introdotta una metodologia per creare uno scale factor non lineare in forma esponenziale, tale da migliorare la restituzione degli impulsi meno ampi, pur rispettando i limiti fisici della piattaforma di movimento. Per quanto concerne il MCA, si sono vagliate diverse transfer function dell’algoritmo classico. La scelta finale dei MCA e la validazione del motion cueig in genere è stata effettuata mediante due esperimenti ed il giudizio dei soggetti che vi hanno partecipato. Inoltre, in virtù dei risultati del primo esperimento, si è investigata l’influenza che la strategia in merito al cambio delle marce avesse sulla percezione del movimento da parte del guidatore.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nella letteratura economica e di teoria dei giochi vi è un dibattito aperto sulla possibilità di emergenza di comportamenti anticompetitivi da parte di algoritmi di determinazione automatica dei prezzi di mercato. L'obiettivo di questa tesi è sviluppare un modello di reinforcement learning di tipo actor-critic con entropy regularization per impostare i prezzi in un gioco dinamico di competizione oligopolistica con prezzi continui. Il modello che propongo esibisce in modo coerente comportamenti cooperativi supportati da meccanismi di punizione che scoraggiano la deviazione dall'equilibrio raggiunto a convergenza. Il comportamento di questo modello durante l'apprendimento e a convergenza avvenuta aiuta inoltre a interpretare le azioni compiute da Q-learning tabellare e altri algoritmi di prezzo in condizioni simili. I risultati sono robusti alla variazione del numero di agenti in competizione e al tipo di deviazione dall'equilibrio ottenuto a convergenza, punendo anche deviazioni a prezzi più alti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’etichetta del discorso e le buone maniere comunicative rappresentano una parte fondamentale per il successo della comunicazione. La lingua russa e italiana presentano non poche differenze e incongruenze in questo aspetto che potrebbero rivelarsi fatali per la buona relazione fra gli interlocutori. In questo elaborato viene sottolineata l’importanza della conoscenza delle norme dell’etichetta del discorso per la mediazione linguistica e vengono analizzati nello specifico gli elementi principali in entrambe le lingue a confronto, affinché non si generi alcuna offesa o malumore. Tali elementi comprendono gli allocutivi di cortesia, gli appellativi diretti, il nome completo, le forme diminutive-vezzeggiative e le relative strategie traduttive.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questa tesi propone una panoramica sul funzionamento interno delle architetture alla base del deep learning e in particolare del geometric deep learning. Iniziando a discutere dalla storia degli algoritmi di intelligenza artificiale, vengono introdotti i principali costituenti di questi. In seguito vengono approfonditi alcuni elementi della teoria dei grafi, in particolare il concetto di laplaciano discreto e il suo ruolo nello studio del fenomeno di diffusione sui grafi. Infine vengono presentati alcuni algoritmi utilizzati nell'ambito del geometric deep learning su grafi per la classificazione di nodi. I concetti discussi vengono poi applicati nella realizzazione di un'architettura in grado di classficiare i nodi del dataset Zachary Karate Club.