998 resultados para indirizzo :: 009 :: Applicativo


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Presentazione dei risultati più importanti e famosi che riguardano la congettura di Collatz. Analisi empiriche e nuovi risultati riguardanti la congettura e le sue generalizzazioni.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Lo scopo della tesi è quello di studiare una delle applicazioni della teoria dei campi finiti: il segnale GPS. A questo scopo si descrivono i registri a scorrimento a retroazione lineare (linear feedback shift register, LFSR), dispositivi utili in applicazioni che richiedono la generazione molto rapida di numeri pseudo-casuali. I ricevitori GPS sfruttano il determinismo di questi dispositivi per identificare il satellite da cui proviene il segnale e per sincronizzarsi con esso. Si inizia con una breve introduzione al funzionamento del GPS, poi si studiano i campi finiti: sottocampi, estensioni di campo, gruppo moltiplicativo e costruzione attraverso la riduzione modulo un polinomio irriducibile, fattorizzazione di polinomi, formula per il numero e metodi per la determinazione di polinomi irriducibili, radici di polinomi irriducibili, coniugati, teoria di Galois (automorfismo ed orbite di Frobenius, gruppo e corrispondenza di Galois), traccia, polinomio caratteristico, formula per il numero e metodi per la determinazione di polinomi primitivi. Successivamente si introducono e si esaminano sequenze ricorrenti lineari, loro periodicità, la sequenza risposta impulsiva, il polinomio caratteristico associato ad una sequenza e la sequenza di periodo massimo. Infine, si studiano i registri a scorrimento che generano uno dei segnali GPS. In particolare si esamina la correlazione tra due sequenze. Si mostra che ogni polinomio di grado n-1 a coefficienti nel campo di Galois di ordine 2 può essere rappresentato univocamente in n bit; la somma tra polinomi può essere eseguita come XOR bit-a-bit; la moltiplicazione per piccoli coefficienti richiede al massimo uno shift ed uno XOR. Si conclude con la dimostrazione di un importante risultato: è possibile inizializzare un registro in modo tale da fargli generare una sequenza di periodo massimo poco correlata con ogni traslazione di se stessa.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In this work we address the problem of finding formulas for efficient and reliable analytical approximation for the calculation of forward implied volatility in LSV models, a problem which is reduced to the calculation of option prices as an expansion of the price of the same financial asset in a Black-Scholes dynamic. Our approach involves an expansion of the differential operator, whose solution represents the price in local stochastic volatility dynamics. Further calculations then allow to obtain an expansion of the implied volatility without the aid of any special function or expensive from the computational point of view, in order to obtain explicit formulas fast to calculate but also as accurate as possible.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Analisi e sviluppo di uno script in PHP per il testing automatico di elaborati in linguaggio c

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Analisi e sviluppo di uno script PHP per il testing automatico di elaborati in linguaggio c

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Android, Google App Engine e Machine Learning per lo studio dell'affollamento delle tratte ferroviarie.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Questo lavoro di tesi muove da tematiche relative alla sicurezza IT e risulta dagli otto mesi di lavoro all’interno della funzione Technical Security di Telecom Italia Information Technology. Il compito primario di questa unità di business è ridurre il rischio informatico dei sistemi di Telecom Italia per mezzo dell’attuazione del processo di ICT Risk Management, che coinvolge l’intera organizzazione ed è stato oggetto di una riprogettazione nel corso del 2012. Per estendere tale processo a tutti i sistemi informatici, nello specifico a quelli caratterizzati da non conformità, all’inizio del 2013 è stato avviato il Programma Strutturato di Sicurezza, un aggregato di quattro progetti dalla durata triennale particolarmente articolato e complesso. La pianificazione di tale Programma ha visto coinvolto, tra gli altri, il team di cui ho fatto parte, che ha collaborato con Telecom Italia assolvendo alcune delle funzioni di supporto tipiche dei Project Management Office (PMO).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

I metodi saddlepoint studiati nella tesi permettono di approssimare la densità di una variabile aleatoria a partire dalla funzione generatrice dei cumulanti (ricavabile dalla funzione caratteristica). Integrando la densità saddlepoint si ottiene la formula di Lugannani-Rice (e ulteriori generalizzazioni) per approssimare le probabilità di coda. Quest'ultima formula è stata poi applicata in ambito finanziario per il calcolo del prezzo di un'opzione call rispetto a vari modelli (Black-Scholes, Merton, CGMY)e in ambito assicurativo per calcolare la probabilità che il costo totale dei sinistri in una polizza non superi una certa quota fissata.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La tomografia computerizzata (CT) è una metodica di diagnostica per immagini che consiste in una particolare applicazione dei raggi X. Essa, grazie ad una valutazione statistico-matematica (computerizzata) dell'assorbimento di tali raggi da parte delle strutture corporee esaminate, consente di ottenere immagini di sezioni assiali del corpo umano. Nonostante le dosi di radiazioni somministrate durante un esame siano contenute, questa tecnica rimane sconsigliata per pazienti sensibili, perciò nasce il tentativo della tomosintesi: ottenere lo stesso risultato della CT diminuendo le dosi somministrate. Infatti un esame di tomosintesi richiede poche proiezioni distribuite su un range angolare di appena 40°. Se da una parte la possibilità di una ingente diminuzione di dosi e tempi di somministrazione costituisce un grosso vantaggio dal punto di vista medico-diagnostico, dal punto di vista matematico esso comporta un nuovo problema di ricostruzione di immagini: infatti non è banale ottenere risultati validi come per la CT con un numero basso di proiezioni,cosa che va a infierire sulla mal posizione del problema di ricostruzione. Un possibile approccio al problema della ricostruzione di immagini è considerarlo un problema inverso mal posto e studiare tecniche di regolarizzazione opportune. In questa tesi viene discussa la regolarizzazione tramite variazione totale: verranno presentati tre algoritmi che implementano questa tecnica in modi differenti. Tali algoritmi verranno mostrati dal punto di vista matematico, dimostrandone ben posizione e convergenza, e valutati dal punto di vista qualitativo, attraverso alcune immagini ricostruite. Lo scopo è quindi stabilire se ci sia un metodo più vantaggioso e se si possano ottenere buoni risultati in tempi brevi, condizione necessaria per una applicazione diffusa della tomosintesi a livello diagnostico. Per la ricostruzione si è fatto riferimento a problemi-test cui è stato aggiunto del rumore, così da conoscere l'immagine originale e poter vedere quanto la ricostruzione sia ad essa fedele. Il lavoro principale dunque è stata la sperimentazione degli algoritmi su problemi test e la valutazione dei risultati, in particolare per gli algoritmi SGP e di Vogel, che in letteratura sono proposti per problemi di image deblurring.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La teoria dei sistemi dinamici studia l'evoluzione nel tempo dei sistemi fisici e di altra natura. Nonostante la difficoltà di assegnare con esattezza una condizione iniziale (fatto che determina un non-controllo della dinamica del sistema), gli strumenti della teoria ergodica e dello studio dell'evoluzione delle densità di probabilità iniziali dei punti del sistema (operatore di Perron-Frobenius), ci permettono di calcolare la probabilità che un certo evento E (che noi definiamo come evento raro) accada, in particolare la probabilità che il primo tempo in cui E si verifica sia n. Abbiamo studiato i casi in cui l'evento E sia definito da una successione di variabili aleatorie (prima nel caso i.i.d, poi nel caso di catene di Markov) e da una piccola regione dello spazio delle fasi da cui i punti del sistema possono fuoriuscire (cioè un buco). Dagli studi matematici sui sistemi aperti condotti da Keller e Liverani, si ricava una formula esplicita del tasso di fuga nella taglia del buco. Abbiamo quindi applicato questo metodo al caso in cui l'evento E sia definito dai punti dello spazio in cui certe osservabili assumono valore maggiore o uguale a un dato numero reale a, per ricavare l'andamento asintotico in n della probabilità che E non si sia verificato al tempo n, al primo ordine, per a che tende all'infinito.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La tesi in oggetto propone un algoritmo che viene incontro alla necessità di segmentare in modo regolare immagini di nevi. Si è fatto uso di metodi level set region-based in una formulazione variazionale. Tale metodo ha permesso di ottenere una segmentazione precisa, adattabile a immagini di nevi con caratteristiche molto diverse ed in tempi computazionali molto bassi.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Analizzeremo dati di metilazione di diversi gruppi di pazienti, mettendoli in relazione con le loro età, intesa in senso anagrafico e biologico. Adatteremo metodi di regressione che sono già stati usati in altri studi, in particolare di tipo statistico, cercando di migliorarli e proveremo ad applicare a questi dati anche dei metodi nuovi, non solo di tipo statistico. La nostra analisi vuole essere innovativa soprattutto perché, oltre a guardare i dati in maniera locale attraverso lo studio della metilazione di particolari sequenze genetiche più o meno note per essere collegate all’invecchiamento, andremo a considerare i dati anche in maniera globale, analizzando le proprietà della distribuzione di tutti i valori di metilazione di un paziente attraverso la trasformata di Fourier.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In questa tesi si è studiato un metodo per modellare e virtualizzare tramite algoritmi in Matlab le distorsioni armoniche di un dispositivo audio non lineare, ovvero uno “strumento” che, sollecitato da un segnale audio, lo modifichi, introducendovi delle componenti non presenti in precedenza. Il dispositivo che si è scelto per questo studio il pedale BOSS SD-1 Super OverDrive per chitarra elettrica e lo “strumento matematico” che ne fornisce il modello è lo sviluppo in serie di Volterra. Lo sviluppo in serie di Volterra viene diffusamente usato nello studio di sistemi fisici non lineari, nel caso in cui si abbia interesse a modellare un sistema che si presenti come una “black box”. Il metodo della Nonlinear Convolution progettato dall'Ing. Angelo Farina ha applicato con successo tale sviluppo anche all'ambito dell'acustica musicale: servendosi di una tecnica di misurazione facilmente realizzabile e del modello fornito dalla serie di Volterra Diagonale, il metodo permette di caratterizzare un dispositivo audio non lineare mediante le risposte all'impulso non lineari che il dispositivo fornisce a fronte di un opportuno segnale di test (denominato Exponential Sine Sweep). Le risposte all'impulso del dispositivo vengono utilizzate per ricavare i kernel di Volterra della serie. L'utilizzo di tale metodo ha permesso all'Università di Bologna di ottenere un brevetto per un software che virtualizzasse in post-processing le non linearità di un sistema audio. In questa tesi si è ripreso il lavoro che ha portato al conseguimento del brevetto, apportandovi due innovazioni: si è modificata la scelta del segnale utilizzato per testare il dispositivo (si è fatto uso del Synchronized Sine Sweep, in luogo dell'Exponential Sine Sweep); si è messo in atto un primo tentativo di orientare la virtualizzazione verso l'elaborazione in real-time, implementando un procedimento (in post-processing) di creazione dei kernel in dipendenza dal volume dato in input al dispositivo non lineare.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Questa tesi è incentrata sull'analisi dell'arbitraggio statistico, strategia di trading che cerca di trarre profitto dalle fluttuazioni statistiche di prezzo di uno o più asset sulla base del loro valore atteso. In generale, si creano opportunità di arbitraggio statistico quando si riescono ad individuare delle componenti sistematiche nelle dinamiche dei prezzi di alcuni asset che si muovono con regolarità persistenti e prevalenti. Perturbazioni casuali della domanda e dell’offerta nei mercati possono causare divergenze nei prezzi, dando luogo a opportunità di intermarket spread, ossia simultanei acquisto e vendita di commodities correlate tra loro. Vengono approfonditi vari test econometrici, i test unit root utilizzati per verificare se una serie storica possa essere modellizzata con un processo random walk. Infine viene costruita una strategia di trading basata sull'arbitraggio statistico e applicata numericamente alle serie storiche dal 2010 al 2014 di due titoli azionari sul petrolio: Brent e WTI.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Our goal in this thesis is to provide a result of existence of the degenerate non-linear, non-divergence PDE which describes the mean curvature flow in the Lie group SE(2) equipped with a sub-Riemannian metric. The research is motivated by problems of visual completion and models of the visual cortex.