992 resultados para Finanza matematica, Probabilità e statistica, Approssimazioni saddlepoint
Resumo:
La tesi fornisce una panoramica delle principali metodologie di analisi dei dati utilizzando il software open source R e l’ambiente di sviluppo integrato (IDE) RStudio. Viene effettuata un’analisi descrittiva e quantitativa dei dati GICS, tassonomia industriale che cataloga le principali aziende per il processo di gestione e ricerca degli asset di investimento. Sono stati studiati i principali settori del mercato USA considerando il fatturato, le spese per il lobbying e tre indici che misurano il grado di collegamento fra industrie. Su questi dati si sono svolte delle analisi quantitative e si sono tentati alcuni modelli nell’ambito della regressione lineare semplice e multipla. Tale studio ha il compito di verificare eventuali interazioni fra le variabili o pattern di comportamento strategico societario durante il periodo 2007 - 2012, anni di rinnovo e miglioramento delle regolamentazioni in materia di lobbying negli Stati Uniti. Più nello specifico vengono presi in esame tre settori: IT, Health Care e Industrial dove viene studiato l’andamento del reddito medio e la spesa media in attività di lobbying dei settori. I risultati ottenuti mostrano l’utilità dei pacchetti di R per l’analisi dei dati: vengono individuati alcuni andamenti che, se confermati da ulteriori e necessarie analisi, potrebbero essere interessanti per capire non solo i meccanismi impliciti nell’attività di lobbying ma anche comportamenti anomali legati a questa attività.
Resumo:
L’esplosione della crisi nel 2007 ha contribuito alla diffusione di numerosi termini e concetti afferenti al dominio nella finanza strutturata non solo nelle pagine dei quotidiani specializzati, ma anche di quelli generalisti, producendo uno straniante «sentimento neologico» che ha accresciuto il senso di inaccessibilità e soggezione che in molti nutrono nei riguardi delle “cose della finanza” e delle notizie economiche, percepite come ostiche e incomprensibili. Questo lavoro mira a dimostrare che le cause di questo imperante senso di smarrimento di fronte all’informazione economica sono da addurre a più fattori: alla comune scarsa dimestichezza con il linguaggio e le “cose della finanza” dei cittadini; alla complessità dei concetti che i termini in questione veicolano e alla maniera in cui essi vengono presentati dalla vulgata giornalistica. Questa tesi si articola in quattro capitoli: nel primo si discute del tirocinio svolto presso la DGT della Commissione Europea, che ha fornito degli utili spunti per la stesura del presente lavoro; nel secondo si evidenzia l’importanza di una corretta educazione finanziaria per la formazione di una cittadinanza consapevole, in grado alimentare un sistema finanziario sano. Nel terzo capitolo si discute di finanza strutturata, volgendo particolare attenzione al CDO, di cui anche la Consob ha sottolineato l’intrinseca complessità e che ha assunto un ruolo da protagonista nell’esplosione della crisi dei mutui subprime. Nel quarto capitolo si delinea un breve quadro dell’informazione finanziaria in Italia e in Germania; mediante l’analisi di due corpora comparabili e diacronici si mira, infine, a osservare in che modo i giornali, nel corso degli anni, hanno veicolato il concetto che sottende al termine CDO rintracciando, contestualmente, similarità e differenze tra la stampa generalista e quella specializzata e tra i quotidiani tedeschi e quelli italiani.
Resumo:
Tesi sulla creazione di un'app che adotta i princìpi di gamification e micro-learning
Resumo:
Dai Sumeri a Galileo lo studio dei cinque pianeti conosciuti era stato effettuato ad occhio nudo e aveva consentito di comprendere le modalità del loro moto. Con Galileo gli strumenti tecnologici sono posti a servizio della scienza, per migliorare le prestazioni dei sensi umani. La ricerca subisce così una netta accelerazione che porta, nell'arco di soli tre secoli, alla scoperta dei satelliti di Giove e dei pianeti Urano e Nettuno. Quest'ultima è considerata il trionfo della matematica perché effettuata esclusivamente con lunghi e complessi calcoli.
Resumo:
Argomento di questa tesi è l’ottimizzazione di un portafoglio, cioè, dato un portafoglio, massimizzarne il guadagno minimizzando il rischio. Nel primo capitolo illustrerò le nozioni matematiche basi della finanza, come i mercati discreti, la definizione di portafoglio, il modello binomiale,l’arbitraggio e la misura martingala. Nel secondo capitolo presenterò i due metodi risolutivi del problema di ottimizzazione:il Metodo Martingala e il Metodo della Programmazione Dinamica. Nell’ultimo capitolo parto dalla funzione d'utilità esponenziale e calcolo il portafoglio ottimizzato utilizzando i due metodi precedenti.
Resumo:
Questa ricerca affronta in maniera interdisciplinare il tema delle funzioni polinomiali definite sugli anelli degli interi modulo la potenza di un numero primo. In primo luogo è stato esaminato il caso particolare del campo Zp, dimostrando che in esso tutte le funzioni sono polinomiali. In seguito è stato calcolato il numero delle funzioni polinomiali negli interi modulo 9 e modulo 25, mostrando un procedimento che può essere esteso a qualsiasi potenza di un numero primo. Esso fa uso di alcuni risultati di teoria dei numeri e di aritmetica e affronta il tema da un punto di vista prettamente algebrico. A queste dimostrazioni è stato affiancato un esperimento di tipo statistico, il cui obiettivo è cercare una regolarità che permetta, dati il numero primo p e il suo esponente n, di calcolare immediatamente il numero delle funzioni polinomiali nell'anello degli interi modulo p^n. Sono state presentate due congetture, ottenute utilizzando strumenti di tipo informatico: un software di calcolo e un linguaggio di programmazione ad alto livello. Gli strumenti della statistica descrittiva, in particolare il test di Pearson, si sono rivelati essenziali per verificare l'adeguatezza delle supposizioni. Questa ricerca può essere considerata il punto di partenza per dimostrare (o confutare) quello che è stato ipotizzato attraverso un'analisi di tipo sperimentale.
Resumo:
In questa trattazione si introduce il concetto di catena di Markov nascosta: una coppia di processi stocastici (X,O), dove X è una catena di Markov non osservabile direttamente e O è il processo stocastico delle osservazioni, dipendente istante per istante solo dallo stato corrente della catena X. In prima istanza si illustrano i metodi per la soluzione di tre problemi classici, dato un modello di Markov nascosto e una sequenza di segnali osservati: valutare la probabilità della osservazione nel modello, trovare la sequenza nascosta di stati più probabile e aggiornare il modello per rendere più probabile l'osservazione. In secondo luogo si applica il modello ai giochi stocastici, nel caso in cui solo uno dei giocatori non è a conoscenza del gioco in ogni turno, ma può cercare di ottenere informazioni utili osservando le mosse dell'avversario informato. In particolare si cercano strategie basate sul concetto di catena di Markov nascoste e si analizzano i risultati ottenuti per valutare l'efficienza dell'approccio.
Resumo:
Analisi dei modelli statistici alla base delle indagini di valutazione matematica e confronto tra Pisa e Timss
Resumo:
Nel presente lavoro di tesi ho sviluppato un metodo di analisi di dati di DW-MRI (Diffusion-Weighted Magnetic Resonance Imaging)cerebrale, tramite un algoritmo di trattografia, per la ricostruzione del tratto corticospinale, in un campione di 25 volontari sani. Il diffusion tensor imaging (DTI) sfrutta la capacità del tensore di diffusione D di misurare il processo di diffusione dell’acqua, per stimare quantitativamente l’anisotropia dei tessuti. In particolare, nella sostanza bianca cerebrale la diffusione delle molecole di acqua è direzionata preferenzialmente lungo le fibre, mentre è ostacolata perpendicolarmente ad esse. La trattografia utilizza le informazioni ottenute tramite il DW imaging per fornire una misura della connettività strutturale fra diverse regioni del cervello. Nel lavoro si è concentrata l’attenzione sul fascio corticospinale, che è coinvolto nella motricità volontaria, trasmettendo gli impulsi dalla corteccia motoria ai motoneuroni del midollo spinale. Il lavoro si è articolato in 3 fasi. Nella prima ho sviluppato il pre-processing di immagini DW acquisite con un gradiente di diffusione sia 25 che a 64 direzioni in ognuno dei 25 volontari sani. Si è messo a punto un metodo originale ed innovativo, basato su “Regions of Interest” (ROIs), ottenute attraverso la segmentazione automatizzata della sostanza grigia e ROIs definite manualmente su un template comune a tutti i soggetti in esame. Per ricostruire il fascio si è usato un algoritmo di trattografia probabilistica che stima la direzione più probabile delle fibre e, con un numero elevato di direzioni del gradiente, riesce ad individuare, se presente, più di una direzione dominante (seconda fibra). Nella seconda parte del lavoro, ciascun fascio è stato suddiviso in 100 segmenti (percentili). Sono stati stimati anisotropia frazionaria (FA), diffusività media, probabilità di connettività, volume del fascio e della seconda fibra con un’analisi quantitativa “along-tract”, per ottenere un confronto accurato dei rispettivi percentili dei fasci nei diversi soggetti. Nella terza parte dello studio è stato fatto il confronto dei dati ottenuti a 25 e 64 direzioni del gradiente ed il confronto del fascio fra entrambi i lati. Dall’analisi statistica dei dati inter-subject e intra-subject è emersa un’elevata variabilità tra soggetti, dimostrando l’importanza di parametrizzare il tratto. I risultati ottenuti confermano che il metodo di analisi trattografica del fascio cortico-spinale messo a punto è risultato affidabile e riproducibile. Inoltre, è risultato che un’acquisizione con 25 direzioni di DTI, meglio tollerata dal paziente per la minore durata dello scan, assicura risultati attendibili. La principale applicazione clinica riguarda patologie neurodegenerative con sintomi motori sia acquisite, quali sindromi parkinsoniane sia su base genetica o la valutazione di masse endocraniche, per la definizione del grado di contiguità del fascio. Infine, sono state poste le basi per la standardizzazione dell’analisi quantitativa di altri fasci di interesse in ambito clinico o di studi di ricerca fisiopatogenetica.
Resumo:
Gli argomenti trattati in questa tesi sono le catene di Markov reversibili e alcune applicazioni al metodo Montecarlo basato sulle catene di Markov. Inizialmente vengono descritte alcune delle proprietà fondamentali delle catene di Markov e in particolare delle catene di Markov reversibili. In seguito viene descritto il metodo Montecarlo basato sulle catene di Markov, il quale attraverso la simulazione di catene di Markov cerca di stimare la distribuzione di una variabile casuale o di un vettore di variabili casuali con una certa distribuzione di probabilità. La parte finale è dedicata ad un esempio in cui utilizzando Matlab sono evidenziati alcuni aspetti studiati nel corso della tesi.
Resumo:
In questa tesi si dimostra il teorema di inversione di Lévy, risultato che permette di ricostruire, a partire dalla funzione caratteristica di una variabile aleatoria assolutamente continua, la sua densità. Come conseguenza si dimostra che la funzione caratteristica di una variabile aleatoria ne caratterizza univocamente la distribuzione. Viene inoltre presentata una applicazione della formula di inversione per la valutazione di opzioni in finanza con esempi numerici basati sul modello Merton.
Resumo:
La statistica è un ramo della matematica che studia i metodi per raccogliere, organizzare e analizzare un insieme di dati numerici, la cui variazione è influenzata da cause diverse, con lo scopo sia di descrivere le caratteristiche del fenomeno a cui i dati si riferiscono, sia di dedurre, ove possibile, le leggi generali che lo regolano. La statistica si suddivide in statistica descrittiva o deduttiva e in statistica induttiva o inferenza statistica. Noi ci occuperemo di approfondire la seconda, nella quale si studiano le condizioni per cui le conclusioni dedotte dall'analisi statistica di un campione sono valide in casi più generali. In particolare l'inferenza statistica si pone l'obiettivo di indurre o inferire le proprietà di una popolazione (parametri) sulla base dei dati conosciuti relativi ad un campione. Lo scopo principale di questa tesi è analizzare il Teorema di Cochran e illustrarne le possibili applicazioni nei problemi di stima in un campione Gaussiano. In particolare il Teorema di Cochran riguarda un'importante proprietà delle distribuzioni normali multivariate, che risulta fondamentale nella determinazione di intervalli di fiducia per i parametri incogniti.
Resumo:
Un esperimento nell'insegnamento della matematica condotto attraverso l'aspetto geometrico delle identità algebriche.
Resumo:
La tesi analizza l'estensione del calcolo classico, il calcolo frazionario, descrivendone le proprietà principali e dandone esempi concreti. Si procede con la definizione di indice di Hurst e di moto Browniano frazionario. Si vede poi come è possibile estendere il calcolo frazionario al calcolo stocastico rispetto ad un moto Browniano frazionario. Infine, si richiamano alcuni concetti di teoria della probabilità.
Resumo:
Il presente lavoro ha come obiettivo la descrizione dello studio del degassamento diffuso di CO2 (acquisizione dei dati e loro trattazione) effettuato nell'area vulcanica dei Campi Flegrei (NA), nello specifico nell'area della Solfatara di Pozzuoli. Questo infatti rappresenta attualmente il punto di massimo rilascio di fluidi ed energia dell'intero Distretto Vulcanico Flegreo attraverso attività quali fumarole e degassamento diffuso dal suolo, nonché deformazioni del terreno (bradisismo). Tramite l'acquisizione dei valori di flusso diffuso e delle temperature dei primi 10 cm di suolo, attraverso una trattazione dei dati statistica e geostatistica, è stato possibile distinguere e caratterizzare le sorgenti di CO2 (biologica o vulcanica), la realizzazione di sviluppo di mappe di probabilità e di flusso medio e la quantificazione dell'output totale giornaliero di CO2. Il lavoro è stato suddiviso in due fasi principali: 1. La prima fase ha riguardato l'acquisizione dei dati sul campo nei giorni 19 e 20 marzo 2015, tramite l'utilizzo di una camera d'accumulo ed un termometro munito di sonda, in 434 punti all'interno del cratere della Solfatara e nelle aree circostanti. 2. Nella seconda fase sono stati elaborati i dati, utilizzando il metodo statistico GSA (Graphical Statistic Approach) ed il metodo geostatistico della simulazione sequenziale Gaussiana (sGs). Tramite il GSA è stato possibile ripartire i dati in popolazioni e definire una media (con relativa varianza) per ognuna di esse. Con la sGs è stato possibile trattare i dati, considerando la loro distribuzione spaziale, per simulare valori per le aree prive di misurazioni; ciò ha permesso di generare delle mappe che mostrassero l'andamento dei flussi e la geometria della struttura del degassamento diffuso (Diffuse Degassing Structure, DDS; Chiodini et al., 2001). Infine i dati ottenuti sono stati confrontati con i risultati di precedenti studi e si è messo in relazione la geometria e l'intensità di degassamento con la geologia strutturale dell'area flegrea indagata.