12 resultados para Feynman-Kac

em AMS Tesi di Laurea - Alm@DL - Università di Bologna


Relevância:

100.00% 100.00%

Publicador:

Resumo:

The thesis presents a probabilistic approach to the theory of semigroups of operators, with particular attention to the Markov and Feller semigroups. The first goal of this work is the proof of the fundamental Feynman-Kac formula, which gives the solution of certain parabolic Cauchy problems, in terms of the expected value of the initial condition computed at the associated stochastic diffusion processes. The second target is the characterization of the principal eigenvalue of the generator of a semigroup with Markov transition probability function and of second order elliptic operators with real coefficients not necessarily self-adjoint. The thesis is divided into three chapters. In the first chapter we study the Brownian motion and some of its main properties, the stochastic processes, the stochastic integral and the Itô formula in order to finally arrive, in the last section, at the proof of the Feynman-Kac formula. The second chapter is devoted to the probabilistic approach to the semigroups theory and it is here that we introduce Markov and Feller semigroups. Special emphasis is given to the Feller semigroup associated with the Brownian motion. The third and last chapter is divided into two sections. In the first one we present the abstract characterization of the principal eigenvalue of the infinitesimal generator of a semigroup of operators acting on continuous functions over a compact metric space. In the second section this approach is used to study the principal eigenvalue of elliptic partial differential operators with real coefficients. At the end, in the appendix, we gather some of the technical results used in the thesis in more details. Appendix A is devoted to the Sion minimax theorem, while in appendix B we prove the Chernoff product formula for not necessarily self-adjoint operators.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

This thesis deals with inflation theory, focussing on the model of Jarrow & Yildirim, which is nowadays used when pricing inflation derivatives. After recalling main results about short and forward interest rate models, the dynamics of the main components of the market are derived. Then the most important inflation-indexed derivatives are explained (zero coupon swap, year-on-year, cap and floor), and their pricing proceeding is shown step by step. Calibration is explained and performed with a common method and an heuristic and non standard one. The model is enriched with credit risk, too, which allows to take into account the possibility of bankrupt of the counterparty of a contract. In this context, the general method of pricing is derived, with the introduction of defaultable zero-coupon bonds, and the Monte Carlo method is treated in detailed and used to price a concrete example of contract. Appendixes: A: martingale measures, Girsanov's theorem and the change of numeraire. B: some aspects of the theory of Stochastic Differential Equations; in particular, the solution for linear EDSs, and the Feynman-Kac Theorem, which shows the connection between EDSs and Partial Differential Equations. C: some useful results about normal distribution.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Questo elaborato si pone come obiettivo l’introduzione e lo studio di due strumenti estremamente interessanti in Analisi Stocastica per le loro applicazioni nell’ambito del controllo ottimo stocastico e, soprattutto (per i fini di questo lavoro), della finanza matematica: le equazioni differenziali stocastiche backward (BSDEs) e le equazioni differenziali stocastiche forward-backward (FBSDEs). Innanzitutto, la trattazione verterà sull’analisi delle BSDEs. Partendo dal caso lineare, perfettamente esplicativo dei problemi di adattabilità che si riscontrano nella definizione di soluzione, si passerà allo studio delle BSDEs non lineari con coefficienti Lipschitziani, giungendo, in entrambe le situazioni, alla prova di risultati di esistenza e unicità della soluzione. Tale analisi sarà completata con un’indagine sulle relazioni che persistono con le PDEs, che porterà all’introduzione di una generalizzazione della formula di Feynman-Kac e si concluderà, dopo aver introdotto le FBSDEs, con la definizione di un metodo risolutivo per queste ultime, noto come Schema a quattro fasi. Tali strumenti troveranno applicazione nel quinto e ultimo capitolo come modelli teorici alla base della Formula di Black-Scholes per problemi di prezzatura e copertura di opzioni.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The decomposition of Feynman integrals into a basis of independent master integrals is an essential ingredient of high-precision theoretical predictions, that often represents a major bottleneck when processes with a high number of loops and legs are involved. In this thesis we present a new algorithm for the decomposition of Feynman integrals into master integrals with the formalism of intersection theory. Intersection theory is a novel approach that allows to decompose Feynman integrals into master integrals via projections, based on a scalar product between Feynman integrals called intersection number. We propose a new purely rational algorithm for the calculation of intersection numbers of differential $n-$forms that avoids the presence of algebraic extensions. We show how expansions around non-rational poles, which are a bottleneck of existing algorithms for intersection numbers, can be avoided by performing an expansion in series around a rational polynomial irreducible over $\mathbb{Q}$, that we refer to as $p(z)-$adic expansion. The algorithm we developed has been implemented and tested on several diagrams, both at one and two loops.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questo lavoro ci si propone di studiare la quantizzazione del campo vettoriale, massivo e non massivo, in uno spazio-tempo di Rindler, considerando in particolare i gauge di Feynman e assiale. Le equazioni del moto vengono risolte esplicitamente in entrambi i casi; sotto opportune condizioni, è stato inoltre possibile trovare una base completa e ortonormale di soluzioni delle equazioni di campo in termini di modi normali di Fulling. Si è poi analizzata la quantizzazione dei campi vettoriali espressi in questa base.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questa tesi studiamo il ruolo dei sistemi di radici nella classificazione delle algebre di Lie e delle superalgebre di Lie. L'interesse per le superalgebre di Lie nasce nei primi anni '70 quando una parte dei fisici si convinse che sarebbe stato più utile e molto più chiaro riuscire ad avere uno schema di riferimento unitario in cui non dovesse essere necessario trattare separatamente particelle fisiche come bosoni e fermioni. Una teoria sistematica sulle superalgebre di Lie fu introdotta da V. Kac nel 1977 che diede la classificazione delle superalgebre di Lie semplici su un campo algebricamente chiuso.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The LHCb experiment has been designed to perform precision measurements in the flavour physics sector at the Large Hadron Collider (LHC) located at CERN. After the recent observation of CP violation in the decay of the Bs0 meson to a charged pion-kaon pair at LHCb, it is interesting to see whether the same quark-level transition in Λ0b baryon decays gives rise to large CP-violating effects. Such decay processes involve both tree and penguin Feynman diagrams and could be sensitive probes for physics beyond the Standard Model. The measurement of the CP-violating observable defined as ∆ACP = ACP(Λ0b → pK−)−ACP(Λ0b →pπ−),where ACP(Λ0b →pK−) and ACP(Λ0b →pπ−) are the direct CP asymmetries in Λ0b → pK− and Λ0b → pπ− decays, is presented for the first time using LHCb data. The procedure followed to optimize the event selection, to calibrate particle identification, to parametrise the various components of the invariant mass spectra, and to compute corrections due to the production asymmetry of the initial state and the detection asymmetries of the final states, is discussed in detail. Using the full 2011 and 2012 data sets of pp collisions collected with the LHCb detector, corresponding to an integrated luminosity of about 3 fb−1, the value ∆ACP = (0.8 ± 2.1 ± 0.2)% is obtained. The first uncertainty is statistical and the second corresponds to one of the dominant systematic effects. As the result is compatible with zero, no evidence of CP violation is found. This is the most precise measurement of CP violation in the decays of baryons containing the b quark to date. Once the analysis will be completed with an exhaustive study of systematic uncertainties, the results will be published by the LHCb Collaboration.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questa tesi il Gruppo di Rinormalizzazione non-perturbativo (FRG) viene applicato ad una particolare classe di modelli rilevanti in Gravit`a quantistica, conosciuti come Tensorial Group Field Theories (TGFT). Le TGFT sono teorie di campo quantistiche definite sulla variet`a di un gruppo G. In ogni dimensione esse possono essere espanse in grafici di Feynman duali a com- plessi simpliciali casuali e sono caratterizzate da interazioni che implementano una non-localit`a combinatoriale. Le TGFT aspirano a generare uno spaziotempo in un contesto background independent e precisamente ad ottenere una descrizione con- tinua della sua geometria attraverso meccanismi fisici come le transizioni di fase. Tra i metodi che meglio affrontano il problema di estrarre le transizioni di fase e un associato limite del continuo, uno dei pi` u efficaci `e il Gruppo di Rinormalizzazione non-perturbativo. In questo elaborato ci concentriamo su TGFT definite sulla variet`a di un gruppo non-compatto (G = R) e studiamo il loro flusso di Rinormalizzazione. Identifichiamo con successo punti fissi del flusso di tipo IR, e una superficie critica che suggerisce la presenza di transizioni di fase in regime Infrarosso. Ci`o spinge ad uno stu- dio per approfondire la comprensione di queste transizioni di fase e della fisica continua che vi `e associata. Affrontiamo inoltre il problema delle divergenze Infrarosse, tramite un processo di regolarizzazione che definisce il limite termodinamico appropriato per le TGFT. Infine, applichiamo i metodi precedentementi sviluppati ad un modello dotato di proiezione sull’insieme dei campi gauge invarianti. L’analisi, simile a quella applicata al modello precedente, conduce nuovamente all’identificazione di punti fissi (sia IR che UV) e di una superficie critica. La presenza di transizioni di fasi `e, dunque, evidente ancora una volta ed `e possibile confrontare il risultato col modello senza proiezione sulla dinamica gauge invariante.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tesi è dedicata allo studio delle rappresentazioni delle algebre di Lie semisemplici su un campo algebricamente chiuso di caratteristica zero. Mediante il teorema di Weyl sulla completa riducibilità, ogni rappresentazione di dimensione finita di una algebra di Lie semisemplice è scrivibile come somma diretta di sottorappresentazioni irriducibili. Questo permette di poter concentrare l'attenzione sullo studio delle rappresentazioni irriducibili. Inoltre, mediante il ricorso all'algebra inviluppante universale si ottiene che ogni rappresentazione irriducibile è una rappresentazione di peso più alto. Perciò è naturale chiedersi quando una rappresentazione di peso più alto sia di dimensione finita ottenendo che condizione necessaria e sufficiente perché una rappresentazione di peso più alto sia di dimensione finita è che il peso più alto sia dominante. Immediata è quindi l'applicazione della teoria delle rappresentazioni delle algebre di Lie semisemplici nello studio delle superalgebre di Lie, in quanto costituite da un'algebra di Lie e da una sua rappresentazione, dove viene utilizzata la tecnica della Z-graduazione che viene utilizzata per la prima volta da Victor Kac nello studio delle algebre di Lie di dimensione infinita nell'articolo ''Simple irreducible graded Lie algebras of finite growth'' del 1968.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questo lavoro viene presentato l'utilizzo di simulatori quantistici nello studio di sistemi a molte componenti. Dall'idea iniziale di Feynman della intersimulazione tra sistemi quantistici in questi anni si è sempre più sviluppata la tecnica sperimentale necessaria a creare sistemi di atomi in reticoli ottici ben controllati, nei quali riprodurre il comportamento di sistemi di natura diversa, ottenendo risultati promettenti nell'indagine di situazioni non trattabili analiticamente o numericamente. Tra questi, la conduzione di elettroni in materiali disordinati è ancora un problema aperto. In questa tesi nello specifico sono trattati i modelli di Anderson e di André-Aubry, i quali prevedono una transizione da stati estesi a localizzati in presenza di disordine nel materiale. I due modelli sono stati investigati numericamente su reticoli monodimensionali e i risultati confrontati con una realizzazione sperimentale realizzata con atomi freddi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Normalmente la meccanica quantistica non relativistica è ricavata a partire dal fatto che una particella al tempo t non può essere descritta da una posizione $x$ definita, ma piuttosto è descritta da una funzione, chiamata funzione d'onda, per cui vale l'equazione differenziale di Schr\"odinger, e il cui modulo quadro in $x$ viene interpretato come la probabilità di rilevare la particella in tale posizione. Quindi grazie all'equazione di Schr\"odinger si studia la dinamica della funzione d'onda, la sua evoluzione temporale. Seguendo quest'approccio bisogna quindi abbandonare il concetto classico di traiettoria di una particella, piuttosto quello che si studia è la "traiettoria" della funzione d'onda nei vari casi di campi di forze che agiscono sulla particella. In questa tesi si è invece scelto di studiare un approccio diverso, ma anch'esso efficace nel descrivere i fenomeni della meccanica quantistica non relativistica, formulato per la prima volta negli anni '50 del secolo scorso dal dott. Richard P. Feynman. Tale approccio consiste nel considerare una particella rilevata in posizione $x_a$ nell'istante $t_a$, e studiarne la probabilità che questa ha, nelle varie configurazioni dei campi di forze in azione, di giungere alla posizione $x_b$ ad un successivo istante $t_b$. Per farlo si associa ad ogni percorso che congiunge questi due punti spazio-temporali $a$ e $b$ una quantità chiamata ampiezza di probabilità del percorso, e si sviluppa una tecnica che permette di sommare le ampiezze relative a tutti gli infiniti cammini possibili che portano da $a$ a $b$, ovvero si integra su tutte le traiettorie $x(t)$, questo tipo di integrale viene chiamato integrale di cammino o più comunemente path integral. Il modulo quadro di tale quantità darà la probabilità che la particella rilevata in $a$ verrà poi rilevata in $b$.