194 resultados para teoria dei nodi esperimento didattico


Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’etichetta del discorso e le buone maniere comunicative rappresentano una parte fondamentale per il successo della comunicazione. La lingua russa e italiana presentano non poche differenze e incongruenze in questo aspetto che potrebbero rivelarsi fatali per la buona relazione fra gli interlocutori. In questo elaborato viene sottolineata l’importanza della conoscenza delle norme dell’etichetta del discorso per la mediazione linguistica e vengono analizzati nello specifico gli elementi principali in entrambe le lingue a confronto, affinché non si generi alcuna offesa o malumore. Tali elementi comprendono gli allocutivi di cortesia, gli appellativi diretti, il nome completo, le forme diminutive-vezzeggiative e le relative strategie traduttive.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La seguente tesi propone un’introduzione al geometric deep learning. Nella prima parte vengono presentati i concetti principali di teoria dei grafi ed introdotta una dinamica di diffusione su grafo, in analogia con l’equazione del calore. A seguire, iniziando dal linear classifier verranno introdotte le architetture che hanno portato all’ideazione delle graph convolutional networks. In conclusione, si analizzano esempi di alcuni algoritmi utilizzati nel geometric deep learning e si mostra una loro implementazione sul Cora dataset, un insieme di dati con struttura a grafo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il crescente numero di attacchi condotti contro sistemi e servizi informatici richiede nuove strategie per la cybersicurezza. In questa tesi si prende in considerazione uno degli approcci più moderni per questa attività, basato su architetture Zero Trust, che deperimetrizzano i sistemi e mirano a verificare ogni tentativo di accesso alle risorse indipendentemente dalla provenienza locale o remota della richiesta. In tale ambito, la tesi propone una nuova forma di microsegmentazione agent-based basata su overlay network, con l'obiettivo di migliorare la scalabilità e la robustezza delle soluzioni esistenti, ad oggi messe in secondo piano in favore della facilità di configurazione. Una consistente serie di test dimostra che l'approccio descritto, attuabile in molteplici tipologie di sistemi cloud, è in grado di garantire, oltre alla sicurezza, scalabilità al crescere dei nodi partecipanti, robustezza evitando punti unici di fallimento e semplicità di configurazione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’Intelligenza Artificiale (IA), sin dalla sua introduzione, si è occupata dei giochi, ponendo l’attenzione a quelli detti a informazione perfetta e a somma zero e sequenziali (Tris, Scacchi e Forza4). Dalla Teoria dei Giochi è derivato il modello Minimax, che sfrutta l'albero di gioco per effettuare una ricerca in profondità allo scopo di minimizzare la massima perdita possibile per individuare la mossa migliore da giocare. Tuttavia, il limite di tale algoritmo risiede nel tempo necessario al calcolo (per alberi profondi e di grandi dimensioni) che, in alcuni casi, può essere considerevole. Per mitigare tale problema, è stato introdotta la proposta Alpha-Beta, che attua delle potature sull’albero di gioco grazie l’introduzione di due nuove variabili dette, appunto, alpha e beta. Tale approccio è stato ulteriormente migliorato ricorrendo all’utilizzo del concetto di funzione euristica e introducendo un limite di profondità al quale fermare la ricorsione del modello Alpha-Beta. Tale limite, tuttavia, determina il problema dell’effetto orizzonte, legato al fatto che fermarsi a una profondità intermedia dell’albero può portare l’algoritmo a non vedere delle alcune mosse migliori che possono situarsi nel sotto albero del nodo a cui si ferma la ricerca, appunto l’orizzonte. Ulteriori accorgimenti, come l'algoritmo ad approfondimento iterativo (Iterative Deepening) e il salvataggio degli stati di gioco in una tabella hash, possono ridurre in modo significativo il tempo di calcolo. Partendo da questi studi, sono stati sviluppati degli agenti software per ConnectX, un gioco sviluppato in Java a somma zero e a informazione perfetta come Forza4. Le implementazioni sono state testate su 39 diverse configurazioni di gioco, dimostrando che l'agente PlayerSoft risulta il più ottimale e che l'implementazione della funzione euristica rappresenta un buon compromesso tra complessità di calcolo e risultato atteso.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

I Phase-Locked Loops sono circuiti ancora oggi utilizzati per la generazione di segnali coerenti in frequenza e in fase con i segnali in ingresso, motivo per cui sono uno degli strumenti della radio scienza per la ricostruzione dei segnali scambiati con le sonde e nascosti dal rumore accumulato nel tragitto che separa le sonde stesse dalle stazioni di tracking a terra. Questa tesi illustra l'implementazione di un PLL digitale linearizzato in Matlab e Simulink in una nuova veste rispetto al modello implementato durante l'attività di tirocinio curricolare, al fine di migliorarne le prestazioni per bassi carrier-to-noise density ratios. Il capitolo 1 si compone di due parti: la prima introduce all'ambito nel quale si inserisce il lavoro proposto, ossia la determinazione d'orbita; la seconda illustra i fondamenti della teoria dei segnali. Il capitolo 2 è incentrato sull'analisi dei Phase-Locked Loops, partendo da un'introduzione teorica e approdando all'implementazione di un modello in Simulink. Il capitolo 3, infine, mostra i risultati dell'applicazione del modello implementato in Simulink nell'analisi dei segnali di una missione realmente svolta.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il primo modello matematico in grado di descrivere il prototipo di un sistema eccitabile assimilabile ad un neurone fu sviluppato da R. FitzHugh e J. Nagumo nel 1961. Tale modello, per quanto schematico, rappresenta un importante punto di partenza per la ricerca nell'ambito neuroscientifico delle dinamiche neuronali, ed è infatti capostipite di una serie di lavori che hanno puntato a migliorare l’accuratezza e la predicibilità dei modelli matematici per le scienze. L’elevato grado di complessità nello studio dei neuroni e delle dinamiche inter-neuronali comporta, tuttavia, che molte delle caratteristiche e delle potenzialità dell’ambito non siano ancora state comprese appieno. In questo lavoro verrà approfondito un modello ispirato al lavoro originale di FitzHugh e Nagumo. Tale modello presenta l’introduzione di un termine di self-coupling con ritardo temporale nel sistema di equazioni differenziali, diventa dunque rappresentativo di modelli di campo medio in grado di descrivere gli stati macroscopici di un ensemble di neuroni. L'introduzione del ritardo è funzionale ad una descrizione più realistica dei sistemi neuronali, e produce una dinamica più ricca e complessa rispetto a quella presente nella versione originale del modello. Sarà mostrata l'esistenza di una soluzione a ciclo limite nel modello che comprende il termine di ritardo temporale, ove tale soluzione non può essere interpretata nell’ambito delle biforcazioni di Hopf. Allo scopo di esplorare alcune delle caratteristiche basilari della modellizzazione del neurone, verrà principalmente utilizzata l’impostazione della teoria dei sistemi dinamici, integrando dove necessario con alcune nozioni provenienti dall’ambito fisiologico. In conclusione sarà riportata una sezione di approfondimento sulla integrazione numerica delle equazioni differenziali con ritardo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo scopo di questa tesi è studiare alcune proprietà di base delle algebre di Hopf, strutture algebriche emerse intorno agli anni ’50 dalla topologica algebrica e dalla teoria dei gruppi algebrici, e mostrare un collegamento tra esse e le algebre di Lie. Il primo capitolo è un’introduzione basilare al concetto di prodotto tensoriale di spazi vettoriali, che verrà utilizzato nel secondo capitolo per definire le strutture di algebra, co-algebra e bi-algebra. Il terzo capitolo introduce le definizioni e alcune proprietà di base delle algebre di Hopf e di Lie, con particolare attenzione al legame tra le prime e l’algebra universale inviluppante di un’algebra di Lie. Questo legame sarà approfondito nel quarto capitolo, dedicato allo studio di una particolare classe di algebre di Hopf, quelle graduate e connesse, che terminerà con il teorema di Cartier-Quillen-Milnor-Moore, un teorema strutturale che fornisce condizioni sufficienti affinché un’algebra di Hopf sia isomorfa all’algebra universale inviluppante dei suoi elementi primitivi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Studio della teoria dei processi di semi-Markov nella modellizzazione a tempo discreto. Introduzione delle catene di rinnovo di Markov, del nucleo di semi-Markov e delle catene di semi-Markov, risultati ad essi relativi. Analisi delle equazioni di rinnovo di Markov, caratterizzazione degli stati di una catena di semi-Markov, teorema di esistenza e unicità dell'equazione di rinnovo di Markov. Un esempio concreto.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questa tesi abbiamo voluto studiare alcune delle proprietà e caratterizzazioni di questa classe di insiemi e di funzioni, nonchè alcune loro possibili applicazioni. Nel primo capitolo vengono analizzati gli insiemi convessi in R^n con le loro proprietà; se ne osserva la relazione con gli iperpiani e con l’inviluppo convesso dell’insieme stesso. Infine abbiamo studiato come la funzione distanza da un insieme caratterizzi gli insiemi convessi. Nel secondo capitolo abbiamo guardato invece le funzioni convesse, osservando alcuni esempi, per poi focalizzarci sulle proprietà generali e diverse possibili caratterizzazioni. In particolare abbiamo osservato come le cosiddette funzioni lisce si relazionano alla convessità. Nella sezione sulla dualità convessa abbiamo infine esaminato il caso di funzioni con codominio R esteso per studiare funzioni convesse semicontinue inferiormente, fino ad arrivare alla dualità. Nel terzo capitolo, vediamo una delle tante possibili applicazioni della teoria convessa, la teoria dei giochi. L’ultimo capitolo è molto breve e non vuole entrare nel merito di questa importante area della matematica, ma vuole solo far “vedere all’opera” alcune delle proprietà della teoria convessa precedentemente esposta.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'obiettivo di questa tesi è la caratterizzazione dei gruppi di Galois di alcune classi di polinomi separabili e risolubili per radicali. Questa classificazione si baserà sulle proprietà di primitività e imprimitività di tali gruppi, proprietà che descrivono il carattere della loro azione permutativa sulle radici dei polinomi. Da tale analisi potremo inoltre dedurre importanti informazioni sui polinomi, i quali, a loro volta, saranno detti primitivi o imprimitivi. Dopo aver ricordato alcune definizioni e risultati fondamentali di Teoria di Galois e Teoria dei gruppi, studieremo alcuni gruppi di permutazioni, concentrandoci in particolare sul gruppo lineare affine e sul prodotto intrecciato di due gruppi di permutazioni: tali oggetti costituiscono, infatti, gli strumenti principali per la descrizione dei gruppi di Galois che affronteremo negli ultimi capitoli. Nel Capitolo 3, in particolare, ci concentreremo su polinomi imprimitivi di grado p², con p primo. Nel quarto, invece, dimostreremo un potente Teorema che fornisce una notevole caratterizzazione dei gruppi di Galois di tutti i polinomi primitivi e risolubili per radicali.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La presenti tesi ha come obiettivo lo studio di due algoritmi per il rilevamento di anomalie all' interno di grafi random. Per entrambi gli algoritmi sono stati creati dei modelli generativi di grafi dinamici in modo da eseguire dei test sintetici. La tesi si compone in una parte iniziale teorica e di una seconda parte sperimentale. Il secondo capitolo introduce la teoria dei grafi. Il terzo capitolo presenta il problema del rilevamento di comunità. Il quarto capitolo introduce possibili definizioni del concetto di anomalie dinamiche e il problema del loro rilevamento. Il quinto capitolo propone l' introduzione di un punteggio di outlierness associato ad ogni nodo sulla base del confronto tra la sua dinamica e quella della comunità a cui appartiene. L' ultimo capitolo si incentra sul problema della ricerca di una descrizione della rete in termini di gruppi o ruoli sulla base della quale incentrare la ricerca delle anomalie dinamiche.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

In questo lavoro si è affrontata la definizione e la caratterizzazione di una misura di entropia di singolo nodo nell’ambito della teoria statistica dei network, per ottenere informazioni a livello di singolo nodo a fini di analisi e classificazione. Sono state introdotte e studiate alcune proprietà di questi osservabili in quanto la Network Entropy, precedentemente definita e utilizzata nello stesso contesto, fornisce un’informazione globale a livello dell’intero network. I risultati delle analisi svolte con questa definizione sono stati confrontati con una seconda definizione di entropia di singolo nodo proveniente dalla letteratura, applicando entrambe le misure allo stesso problema di caratterizzazione di due classi di nodi all’interno di un network

Relevância:

40.00% 40.00%

Publicador:

Resumo:

I sistemi di versionamento moderni quali "git" o "svn" sono ad oggi basati su svariati algoritmi di analisi delle differenze (detti algoritmi di diffing) tra documenti (detti versioni). Uno degli algoritmi impiegati con maggior successo a tal proposito è il celebre "diff" di Unix. Tale programma è in grado di rilevare le modifiche necessarie da apportare ad un documento al fine di ottenerne un altro in termini di aggiunta o rimozione di linee di testo. L'insieme di tali modifiche prende nome di "delta". La crescente richiesta e applicazione dei documenti semi-strutturati (ed in particolar modo dei documenti XML) da parte della comunità informatica soprattutto in ambito web ha motivato la ricerca di algoritmi di diffing più raffinati che operino al meglio su tale tipologia di documenti. Svariate soluzioni di successo sono state discusse; algoritmi ad alte prestazioni capaci di individuare differenze più sottili della mera aggiunta o rimozione di testo quali il movimento di interi nodi, il loro riordinamento finanche il loro incapsulamento e così via. Tuttavia tali algoritmi mancano di versatilità. L'incapsulamento di un nodo potrebbe essere considerata una differenza troppo (o troppo poco) generale o granulare in taluni contesti. Nella realtà quotidiana ogni settore, pubblico o commerciale, interessato a rilevare differenze tra documenti ha interesse nell'individuarne sempre e soltanto un sottoinsieme molto specifico. Si pensi al parlamento italiano interessato all'analisi comparativa di documenti legislativi piuttosto che ad un ospedale interessato alla diagnostica relativa alla storia clinica di un paziente. Il presente elaborato di tesi dimostra come sia possibile sviluppare un algoritmo in grado di rilevare le differenze tra due documenti semi-strutturati (in termini del più breve numero di modifiche necessarie per trasformare l'uno nell'altro) che sia parametrizzato relativamente alle funzioni di trasformazione operanti su tali documenti. Vengono discusse le definizioni essenziali ed i principali risultati alla base della teoria delle differenze e viene dimostrato come assunzioni più blande inducano la non calcolabilità dell'algoritmo di diffing in questione.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Alcune osservazioni sperimentali portano ad affermare che la maggior parte della massa dell'universo è costituita da un tipo di materia definita oscura, cioè materia che interagisce solo gravitazionalmente e debolmente. I candidati più promettenti sono tipicamente identificati con le WIMP (Weakly Interacting Massive Particle). L'esperimento XENON1T per la rivelazione di materia oscura, in fase di costruzione nei Laboratori Nazionali del Gran Sasso, sfrutta uno spessore di 1.4 km di roccia schermante. Il rivelatore è una Time Projection Chamber contenente circa 2 tonnellate di xeno e avrà sensibilità per sezioni d’urto WIMP-nucleo spin-indipendent pari a circa 2x10-47 cm2 (per WIMP di massa 50 GeV/c2), due ordini di grandezza al di sotto degli attuali limiti. Per raggiungere tale sensibilità la TPC sarà inserita in una tank cilindrica riempita di acqua ultrapura, che fungerà sia da schermo passivo contro la radiazione esterna (gamma e neutroni di bassa energia), sia da veto per i muoni cosmici. I muoni possono infatti produrre neutroni di energia tale da raggiungere la TPC e simulare segnali tipici delle WIMP. Essi sono identificati per via della radiazione Cherenkov, emessa in seguito al loro passaggio in acqua, rivelata per mezzo di 84 fotomoltiplicatori (PMT) 8'' Hamamatsu R5912ASSY HQE. Lo studio delle prestazioni e delle caratteristiche dei PMT utilizzati nel sistema di veto di muoni sono lo scopo di questo lavoro di tesi. In particolare è stato preparato un opportuno setup per i test dei fotomoltiplicatori e sono state effettuate misure di guadagno, dark rate ed afterpulse. In una prima fase sono stati testati in aria 50 PMT presso la Sezione INFN di Bologna, nel periodo compreso tra Novembre 2012 e Marzo 2013 ed in una seconda fase sono stati testati in acqua 90 PMT presso i Laboratori Nazionali del Gran Sasso, nel periodo compreso tra Aprile e Settembre 2013.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

La presenza di materia oscura nell'universo venne ipotizzata negli anni '30 a seguito di alcune anomalie nei risultati sperimentali ottenuti in astrofisica e cosmologia. La distribuzione di materia ottenuta non concordava infatti con i dati provenienti dalle osservazioni astronomiche e gli scienziati ipotizzarono l'esistenza di un tipo di materia, denominata appunto materia oscura, che interagisse debolmente con la radiazione elettromagnetica e fosse quindi interamente invisibile ai telescopi, sia che fossero a radiofrequenze che operanti nel campo del visibile o con raggi gamma e X, ma che producesse effetti gravitazionali. Nel corso degli anni si sono aggiunte ulteriori evidenze a sostegno dell'esistenza di materia oscura, provenienti anche dallo studio della cosmologia, e numerosi esperimenti (tra cui XENON, IGEX, DAMA/LIBRA) sono stati condotti per cercare di determinare tipo e massa delle particelle o la loro abbondanza (PLANCK). Il lavoro di questa tesi consiste in uno studio delle interazioni dei neutroni con lo xenon per l'esperimento XENON1T. I neutroni costituiscono un fondo particolarmente pericoloso per l'esperimento, in quanto producono uno scattering direttamente sul nucleo allo stesso modo delle particelle di materia oscura. Nel lavoro svolto sono state dapprima analizzate le caratteristiche delle singole interazioni con lo xenon contenuto nella camera, per poi passare ad uno studio più specifico sul comportamento dei neutroni prodotti dai fotomoltiplicatori del rivelatore. In seguito alle analisi svolte è stato possibile caratterizzare il fondo di neutroni in modo più preciso, permettendo di determinare alcuni criteri di selezione per il loro riconoscimento.