929 resultados para Moto browniano lemma di Ito modello di Black-Scholes-Merton


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este Diccionario Biográfico de Matemáticos incluye más de 2040 reseñas de matemáticos, entre las que hay unas 280 de españoles y 36 de mujeres (Agnesi, Blum, Byron, Friedman, Hipatia, Robinson, Scott, etc.), de las que 11 son españolas (Casamayor, Sánchez Naranjo, Sanz-Solé, etc.). Se ha obtenido la mayor parte de las informaciones por medio de los libros recogidos en el apéndice “Bibliografía consultada”; otra parte, de determinadas obras matemáticas de los autores reseñados (estas obras no están incluidas en el citado apéndice, lo están en las correspondientes reseñas de sus autores). Las obras más consultadas han sido las de Boyer, Cajori, Kline, Martinón, Peralta, Rey Pastor y Babini, Wieleitner, las Enciclopedias Espasa, Británica, Larousse, Universalis y Wikipedia. Entre las reseñas incluidas, destacan las siguientes, en orden alfabético: Al-Khuwairizmi, Apolonio, Arquímedes, Jacob y Johann Bernoulli, Brouwer, Cantor, Cauchy, Cayley, Descartes, Diofanto, Euclides, Euler, Fermat, Fourier, Galileo, Gauss, Hilbert, Lagrange, Laplace, Leibniz, Monge, Newton, Pappus, Pascal, Pitágoras, Poincaré, Ptolomeo, Riemann, Weierstrass, etc. Entre los matemáticos españoles destacan las de Echegaray, Etayo, Puig Adam, Rey Pastor, Reyes Prósper, Terradas (de quien Einstein dijo: “Es uno de los seis primeros cerebros mundiales de su tiempo y uno de los pocos que pueden comprender hoy en día la teoría de la relatividad”), Torre Argaiz, Torres Quevedo, los Torroja, Tosca, etc. Se han incluido varias referencias de matemáticos nacidos en la segunda mitad del siglo XX. Entre ellos descuellan nombres como Perelmán o Wiles. Pero para la mayor parte de ellos sería conveniente un mayor distanciamiento en el tiempo para poder dar una opinión más objetiva sobre su obra. Las reseñas no son exhaustivas. Si a algún lector le interesa profundizar en la obra de un determinado matemático, puede utilizar con provecho la bibliografía incluida, o también las obras recogidas en su reseña. En cada reseña se ha seguido la secuencia: nombre, fechas de nacimiento y muerte, profesión, nacionalidad, breve bosquejo de su vida y exposición de su obra. En algunos casos, pocos, no se ha podido encontrar el nombre completo. Cuando sólo existe el año de nacimiento, se indica con la abreviatura “n.”, y si sólo se conoce el año de la muerte, con la abreviatura “m.”. Si las fechas de nacimiento y muerte son sólo aproximadas, se utiliza la abreviatura “h.” –hacia–, abreviatura que también se utiliza cuando sólo se conoce que vivió en una determinada época. Esta utilización es, entonces, similar a la abreviatura clásica “fl.” –floreció–. En algunos casos no se ha podido incluir el lugar de nacimiento del personaje o su nacionalidad. No todos los personajes son matemáticos en sentido estricto, aunque todos ellos han realizado importantes trabajos de índole matemática. Los hay astrónomos como, por ejemplo, Brahe, Copérnico, Laplace; físicos como Dirac, Einstein, Palacios; ingenieros como La Cierva, Shannon, Stoker, Torres Quevedo (muchos matemáticos, considerados primordialmente como tales, se formaron como ingenieros, como Abel Transon, Bombelli, Cauchy, Poincaré); geólogos, cristalógrafos y mineralogistas como Barlow, Buerger, Fedorov; médicos y fisiólogos como Budan, Cardano, Helmholtz, Recorde; naturalistas y biólogos como Bertalanfly, Buffon, Candolle; anatomistas y biomecánicos como Dempster, Seluyanov; economistas como Black, Scholes; estadísticos como Akaike, Fisher; meteorólogos y climatólogos como Budyko, Richardson; filósofos como Platón, Aristóteles, Kant; religiosos y teólogos como Berkeley, Santo Tomás; historiadores como Cajori, Eneström; lingüistas como Chomsky, Grassmann; psicólogos y pedagogos como Brousseau, Fishbeim, Piaget; lógicos como Boole, Robinson; abogados y juristas como Averroes, Fantet, Schweikart; escritores como Aristófanes, Torres de Villarroel, Voltaire; arquitectos como Le Corbusier, Moneo, Utzon; pintores como Durero, Escher, Leonardo da Vinci (pintor, arquitecto, científico, ingeniero, escritor, lingüista, botánico, zoólogo, anatomista, geólogo, músico, escultor, inventor, ¿qué es lo que 6 no fue?); compositores y musicólogos como Gugler, Rameau; políticos como Alfonso X, los Banu Musa, los Médicis; militares y marinos como Alcalá Galiano, Carnot, Ibáñez, Jonquières, Poncelet, Ulloa; autodidactos como Fermat, Simpson; con oficios diversos como Alcega (sastre), Argand (contable), Bosse (grabador), Bürgi (relojero), Dase (calculista), Jamnitzer (orfebre), Richter (instrumentista), etc. También hay personajes de ficción como Sancho Panza (siendo gobernador de la ínsula Barataria, se le planteó a Sancho una paradoja que podría haber sido formulada por Lewis Carroll; para resolverla, Sancho aplicó su sentido de la bondad) y Timeo (Timeo de Locri, interlocutor principal de Platón en el diálogo Timeo). Se ha incluido en un apéndice una extensa “Tabla Cronológica”, donde en columnas contiguas están todos los matemáticos del Diccionario, las principales obras matemáticas (lo que puede representar un esbozo de la historia de la evolución da las matemáticas) y los principales acontecimientos históricos que sirven para situar la época en que aquéllos vivieron y éstas se publicaron. Cada matemático se sitúa en el año de su nacimiento, exacto o aproximado; si no se dispone de este dato, en el año de su muerte, exacto o aproximado; si no se dispone de ninguna de estas fechas, en el año aproximado de su florecimiento. Si sólo se dispone de un periodo de tiempo más o menos concreto, el personaje se clasifica en el año más representativo de dicho periodo: por ejemplo, en el año 250 si se sabe que vivió en el siglo III, o en el año -300 si se sabe que vivió hacia los siglos III y IV a.C. En el apéndice “Algunos de los problemas y conjeturas expuestos en el cuerpo del Diccionario”, se ha resumido la situación actual de algunos de dichos problemas y conjeturas. También se han incluido los problemas que Hilbert planteó en 1900, los expuestos por Smale en 1997, y los llamados “problemas del milenio” (2000). No se estudian con detalle, sólo se indica someramente de qué tratan. Esta segunda edición del Diccionario Biográfico de Matemáticos tiene por objeto su puesta a disposición de la Escuela de Ingenieros de Minas de la Universidad Politécnica de Madrid.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In the first chapter, we test some stochastic volatility models using options on the S&P 500 index. First, we demonstrate the presence of a short time-scale, on the order of days, and a long time-scale, on the order of months, in the S&P 500 volatility process using the empirical structure function, or variogram. This result is consistent with findings of previous studies. The main contribution of our paper is to estimate the two time-scales in the volatility process simultaneously by using nonlinear weighted least-squares technique. To test the statistical significance of the rates of mean-reversion, we bootstrap pairs of residuals using the circular block bootstrap of Politis and Romano (1992). We choose the block-length according to the automatic procedure of Politis and White (2004). After that, we calculate a first-order correction to the Black-Scholes prices using three different first-order corrections: (i) a fast time scale correction; (ii) a slow time scale correction; and (iii) a multiscale (fast and slow) correction. To test the ability of our model to price options, we simulate options prices using five different specifications for the rates or mean-reversion. We did not find any evidence that these asymptotic models perform better, in terms of RMSE, than the Black-Scholes model. In the second chapter, we use Brazilian data to compute monthly idiosyncratic moments (expected skewness, realized skewness, and realized volatility) for equity returns and assess whether they are informative for the cross-section of future stock returns. Since there is evidence that lagged skewness alone does not adequately forecast skewness, we estimate a cross-sectional model of expected skewness that uses additional predictive variables. Then, we sort stocks each month according to their idiosyncratic moments, forming quintile portfolios. We find a negative relationship between higher idiosyncratic moments and next-month stock returns. The trading strategy that sells stocks in the top quintile of expected skewness and buys stocks in the bottom quintile generates a significant monthly return of about 120 basis points. Our results are robust across sample periods, portfolio weightings, and to Fama and French (1993)’s risk adjustment factors. Finally, we identify a return reversal of stocks with high idiosyncratic skewness. Specifically, stocks with high idiosyncratic skewness have high contemporaneous returns. That tends to reverse, resulting in negative abnormal returns in the following month.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Proposed by M. Stutzer (1996), canonical valuation is a new method for valuing derivative securities under the risk-neutral framework. It is non-parametric, simple to apply, and, unlike many alternative approaches, does not require any option data. Although canonical valuation has great potential, its applicability in realistic scenarios has not yet been widely tested. This article documents the ability of canonical valuation to price derivatives in a number of settings. In a constant-volatility world, canonical estimates of option prices struggle to match a Black-Scholes estimate based on historical volatility. However, in a more realistic stochastic-volatility setting, canonical valuation outperforms the Black-Scholes model. As the volatility generating process becomes further removed from the constant-volatility world, the relative performance edge of canonical valuation is more evident. In general, the results are encouraging that canonical valuation is a useful technique for valuing derivatives. (C) 2005 Wiley Periodicals, Inc.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

To evaluate an investment project in the competitive electricity market, there are several key factors that affects the project's value: the present value that the project could bring to investor, the possible future course of actions that investor has and the project's management flexibility. The traditional net present value (NPV) criteria has the ability to capture the present value of the project's future cash flow, but it fails to assess the value brought by market uncertainty and management flexibility. By contrast with NPV, the real options approach (ROA) method has the advantage to combining the uncertainty and flexibility in evaluation process. In this paper, a framework for using ROA to evaluate the generation investment opportunity has been proposed. By given a detailed case study, the proposed framework is compared with NPV and showing a different results

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The literature on bond markets and interest rates has focused largely on the term structure of interest rates, specifically, on the so-called expectations hypothesis. At the same time, little is known about the nature of the spread of the interest rates in the money market beyond the fact that such spreads are generally unstable. However, with the evolution of complex financial instruments, it has become imperative to identify the time series process that can help one accurately forecast such spreads into the future. This article explores the nature of the time series process underlying the spread between three-month and one-year US rates, and concludes that the movements in this spread over time is best captured by a GARCH(1,1) process. It also suggests the use of a relatively long term measure of interest rate volatility as an explanatory variable. This exercise has gained added importance in view of the revelation that GARCH based estimates of option prices consistently outperform the corresponding estimates based on the stylized Black-Scholes algorithm.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This study examines the information content of alternative implied volatility measures for the 30 components of the Dow Jones Industrial Average Index from 1996 until 2007. Along with the popular Black-Scholes and \model-free" implied volatility expectations, the recently proposed corridor implied volatil- ity (CIV) measures are explored. For all pair-wise comparisons, it is found that a CIV measure that is closely related to the model-free implied volatility, nearly always delivers the most accurate forecasts for the majority of the firms. This finding remains consistent for different forecast horizons, volatility definitions, loss functions and forecast evaluation settings.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

2000 Mathematics Subject Classification: 65M06, 65M12.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

2000 Mathematics Subject Classification: 65M06, 65M12.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ennek a cikknek az a célja, hogy áttekintést adjon annak a folyamatnak néhány főbb állomásáról, amit Black, Scholes és Merton opcióárazásról írt cikkei indítottak el a 70-es évek elején, és ami egyszerre forradalmasította a fejlett nyugati pénzügyi piacokat és a pénzügyi elméletet. / === / This review article compares the development of financial theory within and outside Hungary in the last three decades starting with the Black-Scholes revolution. Problems like the term structure of interest rate volatilities which is in the focus of many research internationally has not received the proper attention among the Hungarian economists. The article gives an overview of no-arbitrage pricing, the partial differential equation approach and the related numerical techniques, like the lattice methods in pricing financial derivatives. The relevant concepts of the martingal approach are overviewed. There is a special focus on the HJM framework of the interest rate development. The idea that the volatility and the correlation can be traded is a new horizon to the Hungarian capital market.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El artículo revisa la teoría de opciones y propone un método para la implementación del «Portfolio Insurance » basado en el modelo binomial, el cual es evaluado en oposición al modelo de Black-Scholes. Usando datos reales y simulados se encuentra que el método de Black-Scholes se desempeña mejor en condiciones «inestables »; el modelo binomial, en cambio,obtiene mejores resultados con tendencias definidas en los precios de las acciones (crecientes, decrecientes o estables durante un período extendido).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Doutoramento em Gestão.

Relevância:

70.00% 70.00%

Publicador:

Resumo:

Il lavoro di tesi eseguito comprende la ricerca sulle problematiche arginali e le tipologie di intervento per la protezione idraulica del territorio. Convenzione n.37/2010 tra AdBPo e Università di Bologna. Campagna di indagini eseguite e caratterizzazione del suolo. Caratterizzazione geologica. Caratterizzazione del modello geotecnico della “sez.6_GU”, che corrisponde alla sezione “S38C” del catasto delle arginature maestre, tramite l’utilizzo delle funzioni di Excel, ed elaborazione dei risultati delle prove con la determinazione dei valori statistici dei vari parametri geotecnici, del livello di falda e delle proprietà fisico-meccaniche dei terreni. Risultati delle prove CPTU U16BR, U17BR e U18BR. Creazione del modello utilizzando dei codici agli elementi finiti Plaxis e GeoStudio per la verifica di stabilità dell’argine soggetto ad una portata di piena con tempo di ritorno Tr pari a 200 anni. Verifiche di stabilità: analisi e risultati della sezione completa per la verifica della stabilità globale; della sezione ridotta per potersi concentrare sul sistema argine-substrato di fondazione (verifica locåale in assenza di area golenale); della sezione ridotta con falda a piano campagna (per individuare se la rottura avviene per il moto di filtrazione oppure per la deformazione del modello soggetto ai carichi agenti); sezione con substrato di fondazione ridotto (per verificare la presenza di eventuali fenomeni di sifonamento modellabili nei software).

Relevância:

70.00% 70.00%

Publicador:

Resumo:

Una teoria di unificazione ha il notevole compito di fornire un modello in grado di unificare le forze fondamentali della natura in una sola. Storicamente uno dei primi tentativi è rappresentato dal modello di Kaluza, che propone una formulazione unificata di gravità ed elettromagnetismo. In 4 dimensioni il campo gravitazionale e il campo elettromagnetico sono entità nettamente separate. Tale dualismo può essere superato estendendo la teoria della Relatività Generale ad uno spaziotempo a 5 dimensioni. Se alle consuete 4 si aggiunge una quinta dimensione spaziale, allora si dimostra che la gravità e l’elettromagnetismo possono essere visti come la manifestazione di un unico campo di forza, che è interpretabile in termini della geometria dello spaziotempo a 5 dimensioni. Nonostante i suoi intrinseci limiti, il modello di Kaluza rappresenta comunque un punto di partenza per molte altre teorie di campo unificato più moderne e a più di 5 dimensioni. L'obiettivo è di sviluppare le linee fondamentali del modello di Kaluza. Preliminarmente si riportano i risultati principali dell'elettromagnetismo e della Relatività Generale, dato che il modello si formula a partire da questi. Si stabilisce la condizione di cilindro, secondo cui le quantità fisiche non subiscono variazioni nella quinta dimensione. Si ipotizza un ansatz per il tensore metrico 5D e si scrivono le equazioni di campo unitario e della geodetica, come estensioni a 5 dimensioni di quelle in 4. Si dimostra che il campo unitario in 4 dimensioni si separa nel campo scalare costante, nel campo elettromagnetico e nel campo gravitazionale. Le componenti quadridimensionali della geodetica 5D riconducono a quella 4D e alle leggi del moto 4D in presenza dei campi gravitazionale ed elettromagnetico. Inoltre si interpreta la carica elettrica come la quinta componente della velocità covariante 5D.

Relevância:

70.00% 70.00%

Publicador:

Resumo:

In questa tesi discutiamo un modello di segmentazione di immagini ecocardiografiche espresso tramite un'equazione a derivate parziali di evoluzione geometrica. A questo scopo introduciamo la nozione di curvatura in una opportuna metrica riemanniana associata all'immagine e verifichiamo che il modello inizialmente introdotto da C. Corsi, G. Saracino, A. Sarti, C. Lamberti, può essere interpretato come una generalizzaione di un flusso per curvatura in questa metrica.

Relevância:

70.00% 70.00%

Publicador:

Resumo:

La mobilitazione di polveri radioattive nel caso di un incidente di perdita di vuoto (LOVA) all’interno di ITER (International Thermonuclear Experimental Reactor), è uno dei problemi di sicurezza che si sono posti durante la costruzione di tale reattore. Le polveri vengono generate dalla continua erosione da parte del plasma del materiale di contenimento. Ciò porta ad un accumulo delle stesse all’interno della camera di vuoto. Nel caso di un incidente LOVA il rilascio di tali polveri in atmosfera rappresenta un rischio per la salute di lavoratori e della popolazione circostante. Per raccogliere dati su tale tipo di incidente è stata costruita presso il laboratorio dell’università di Tor Vergata una piccola facility, STARDUST, in cui sono stati eseguiti vari esperimenti con delle condizioni iniziali simili a quelle presenti all’interno di ITER. Uno di questi esperimenti in particolare simula la rottura della camera di vuoto mediante l’ingresso di aria in STARDUST, inizialmente posto a 100 Pa, con un rateo di pressurizzazione di 300 Pa s−1. All’interno del serbatoio sono presenti delle polveri che, in differente percentuale, vengono portate in sospensione dal flusso di fluido entrante. In particolare le polveri sono composte da tungsteno (W), acciaio inossidabile (SS – 316 ) e carbonio ( C ). Scopo del presente lavoro è quello di riprodurre il campo di velocità che si genera all’interno di STARDUST nel caso dell’esperimento appena descritto e valutare il moto delle particelle portate in sospensione e la loro successiva deposizione. Ciò viene fatto mediante l’utilizzo di una geometria bidimensionale creata con Salome. Su tale geometria sono costruite differenti mesh strutturate in base al tipo di simulazione che si vuole implementare. Quest’ultima viene poi esportata nel solutore utilizzato, Code_Saturne. Le simulazioni eseguite possono essere suddivise in tre categorie principali. Nella prima (Mesh A) si è cercato di riprodurre i risultati numerici presentati dagli autori della parte sperimentale, che hanno utilizzato il software commerciale Fluent. Nella seconda si è riprodotto il campo di velocità interno a STARUDST sulla base dei dati sperimentali in possesso. Infine nell’ultima parte delle simulazioni si è riprodotto il moto delle particelle sospese all’interno del fluido in STARDUST, valutandone la deposizione. Il moto del fluido pressurizzante è stato considerato come compressibile. Il regime di moto è stato considerato turbolento viste le elevate velocità che provocavano elevati valori del numero di Reynolds per l’aria. I modelli con cui si è trattata la turbolenza sono stati di tre tipi. Il campo di velocità ottenuto è stato leggermente differente nei tre casi e si è proceduto ad un confronto per valutare le cause che hanno portato a tali differenze. Il moto delle particelle è stato trattato mediante l’utilizzo del modello di tracciamento lagrangiano delle particelle implementato in Code_Saturne. Differenti simulazioni sono state eseguite per tenere in considerazione i vari modelli di turbolenza adottati. Si è dunque proceduto ad analizzare similitudini e differenze dei risultati ottenuti.