979 resultados para Prospectus forecasts


Relevância:

10.00% 10.00%

Publicador:

Relevância:

10.00% 10.00%

Publicador:

Resumo:

For predicting future volatility, empirical studies find mixed results regarding two issues: (1) whether model free implied volatility has more information content than Black-Scholes model-based implied volatility; (2) whether implied volatility outperforms historical volatilities. In this thesis, we address these two issues using the Canadian financial data. First, we examine the information content and forecasting power between VIXC - a model free implied volatility, and MVX - a model-based implied volatility. The GARCH in-sample test indicates that VIXC subsumes all information that is reflected in MVX. The out-of-sample examination indicates that VIXC is superior to MVX for predicting the next 1-, 5-, 10-, and 22-trading days' realized volatility. Second, we investigate the predictive power between VIXC and alternative volatility forecasts derived from historical index prices. We find that for time horizons lesser than 10-trading days, VIXC provides more accurate forecasts. However, for longer time horizons, the historical volatilities, particularly the random walk, provide better forecasts. We conclude that VIXC cannot incorporate all information contained in historical index prices for predicting future volatility.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse envisage un ensemble de méthodes permettant aux algorithmes d'apprentissage statistique de mieux traiter la nature séquentielle des problèmes de gestion de portefeuilles financiers. Nous débutons par une considération du problème général de la composition d'algorithmes d'apprentissage devant gérer des tâches séquentielles, en particulier celui de la mise-à-jour efficace des ensembles d'apprentissage dans un cadre de validation séquentielle. Nous énumérons les desiderata que des primitives de composition doivent satisfaire, et faisons ressortir la difficulté de les atteindre de façon rigoureuse et efficace. Nous poursuivons en présentant un ensemble d'algorithmes qui atteignent ces objectifs et présentons une étude de cas d'un système complexe de prise de décision financière utilisant ces techniques. Nous décrivons ensuite une méthode générale permettant de transformer un problème de décision séquentielle non-Markovien en un problème d'apprentissage supervisé en employant un algorithme de recherche basé sur les K meilleurs chemins. Nous traitons d'une application en gestion de portefeuille où nous entraînons un algorithme d'apprentissage à optimiser directement un ratio de Sharpe (ou autre critère non-additif incorporant une aversion au risque). Nous illustrons l'approche par une étude expérimentale approfondie, proposant une architecture de réseaux de neurones spécialisée à la gestion de portefeuille et la comparant à plusieurs alternatives. Finalement, nous introduisons une représentation fonctionnelle de séries chronologiques permettant à des prévisions d'être effectuées sur un horizon variable, tout en utilisant un ensemble informationnel révélé de manière progressive. L'approche est basée sur l'utilisation des processus Gaussiens, lesquels fournissent une matrice de covariance complète entre tous les points pour lesquels une prévision est demandée. Cette information est utilisée à bon escient par un algorithme qui transige activement des écarts de cours (price spreads) entre des contrats à terme sur commodités. L'approche proposée produit, hors échantillon, un rendement ajusté pour le risque significatif, après frais de transactions, sur un portefeuille de 30 actifs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

We study the workings of the factor analysis of high-dimensional data using artificial series generated from a large, multi-sector dynamic stochastic general equilibrium (DSGE) model. The objective is to use the DSGE model as a laboratory that allow us to shed some light on the practical benefits and limitations of using factor analysis techniques on economic data. We explain in what sense the artificial data can be thought of having a factor structure, study the theoretical and finite sample properties of the principal components estimates of the factor space, investigate the substantive reason(s) for the good performance of di¤usion index forecasts, and assess the quality of the factor analysis of highly dissagregated data. In all our exercises, we explain the precise relationship between the factors and the basic macroeconomic shocks postulated by the model.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ma thèse est composée de trois chapitres reliés à l'estimation des modèles espace-état et volatilité stochastique. Dans le première article, nous développons une procédure de lissage de l'état, avec efficacité computationnelle, dans un modèle espace-état linéaire et gaussien. Nous montrons comment exploiter la structure particulière des modèles espace-état pour tirer les états latents efficacement. Nous analysons l'efficacité computationnelle des méthodes basées sur le filtre de Kalman, l'algorithme facteur de Cholesky et notre nouvelle méthode utilisant le compte d'opérations et d'expériences de calcul. Nous montrons que pour de nombreux cas importants, notre méthode est plus efficace. Les gains sont particulièrement grands pour les cas où la dimension des variables observées est grande ou dans les cas où il faut faire des tirages répétés des états pour les mêmes valeurs de paramètres. Comme application, on considère un modèle multivarié de Poisson avec le temps des intensités variables, lequel est utilisé pour analyser le compte de données des transactions sur les marchés financières. Dans le deuxième chapitre, nous proposons une nouvelle technique pour analyser des modèles multivariés à volatilité stochastique. La méthode proposée est basée sur le tirage efficace de la volatilité de son densité conditionnelle sachant les paramètres et les données. Notre méthodologie s'applique aux modèles avec plusieurs types de dépendance dans la coupe transversale. Nous pouvons modeler des matrices de corrélation conditionnelles variant dans le temps en incorporant des facteurs dans l'équation de rendements, où les facteurs sont des processus de volatilité stochastique indépendants. Nous pouvons incorporer des copules pour permettre la dépendance conditionnelle des rendements sachant la volatilité, permettant avoir différent lois marginaux de Student avec des degrés de liberté spécifiques pour capturer l'hétérogénéité des rendements. On tire la volatilité comme un bloc dans la dimension du temps et un à la fois dans la dimension de la coupe transversale. Nous appliquons la méthode introduite par McCausland (2012) pour obtenir une bonne approximation de la distribution conditionnelle à posteriori de la volatilité d'un rendement sachant les volatilités d'autres rendements, les paramètres et les corrélations dynamiques. Le modèle est évalué en utilisant des données réelles pour dix taux de change. Nous rapportons des résultats pour des modèles univariés de volatilité stochastique et deux modèles multivariés. Dans le troisième chapitre, nous évaluons l'information contribuée par des variations de volatilite réalisée à l'évaluation et prévision de la volatilité quand des prix sont mesurés avec et sans erreur. Nous utilisons de modèles de volatilité stochastique. Nous considérons le point de vue d'un investisseur pour qui la volatilité est une variable latent inconnu et la volatilité réalisée est une quantité d'échantillon qui contient des informations sur lui. Nous employons des méthodes bayésiennes de Monte Carlo par chaîne de Markov pour estimer les modèles, qui permettent la formulation, non seulement des densités a posteriori de la volatilité, mais aussi les densités prédictives de la volatilité future. Nous comparons les prévisions de volatilité et les taux de succès des prévisions qui emploient et n'emploient pas l'information contenue dans la volatilité réalisée. Cette approche se distingue de celles existantes dans la littérature empirique en ce sens que ces dernières se limitent le plus souvent à documenter la capacité de la volatilité réalisée à se prévoir à elle-même. Nous présentons des applications empiriques en utilisant les rendements journaliers des indices et de taux de change. Les différents modèles concurrents sont appliqués à la seconde moitié de 2008, une période marquante dans la récente crise financière.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans ce mémoire, nous proposons une méthodologie statistique permettant d’obtenir un estimateur de l’espérance de vie des clients en assurance. Les prédictions effectuées tiennent compte des caractéristiques individuelles des clients, notamment du fait qu’ils peuvent détenir différents types de produits d’assurance (automobile, résidentielle ou les deux). Trois approches sont comparées. La première approche est le modèle de Markov simple, qui suppose à la fois l’homogénéité et la stationnarité des probabilités de transition. L’autre modèle – qui a été implémenté par deux approches, soit une approche directe et une approche par simulations – tient compte de l’hétérogénéité des probabilités de transition, ce qui permet d’effectuer des prédictions qui évoluent avec les caractéristiques des individus dans le temps. Les probabilités de transition de ce modèle sont estimées par des régressions logistiques multinomiales.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nous présentons dans cette thèse notre travail dans le domaine de la visualisation. Nous nous sommes intéressés au problème de la génération des bulletins météorologiques. Étant donné une masse énorme d’information générée par Environnement Canada et un utilisateur, il faut lui générer une visualisation personnalisée qui répond à ses besoins et à ses préférences. Nous avons développé MeteoVis, un générateur de bulletin météorologique. Comme nous avons peu d’information sur le profil de l’utilisateur, nous nous sommes basés sur les utilisateurs similaires pour lui calculer ses besoins et ses préférences. Nous utilisons l'apprentissage non supervisé pour regrouper les utilisateurs similaires. Nous calculons le taux de similarité des profils utilisateurs dans le même cluster pour pondérer les besoins et les préférences. Nous avons mené, avec l’aide d'utilisateurs n’ayant aucun rapport avec le projet, des expériences d'évaluation et de comparaison de notre outil par rapport à celui utilisé actuellement par Environnement Canada. Les résultats de cette évaluation montrent que les visualisation générées par MeteoVis sont de loin meilleures que les bulletins actuels préparés par EC.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The present study helped to understand the trend in rainfall patterns at smaller spatial scales and the large regional differences in the variability of rainfall. The effect of land use and orography on the diurnal variability is also understood. But a better understanding on the long term variation in rainfall is possible by using a longer dataset,which may provide insight into the rainfall variation over country during the past century. The basic mechanism behind the interannual rainfall variability would be possible with numerical studies using coupled Ocean-Atmosphere models. The regional difference in the active-break conditions points to the significance of regional studies than considering India as a single unit. The underlying dynamics of diurnal variability need to be studied by making use of a high resolution model as the present study could not simulate the local onshore circulation. Also the land use modification in this study, selected a region, which is surrounded by crop land. This implies the high possibility for the conversion of the remaining region to agricultural land. Therefore the study is useful than considering idealized conditions, but the adverse effect of irrigated crop is more than non-irrigated crop. Therefore, such studies would help to understand the climate changes occurred in the recent period. The large accumulation of rainfall between 300-600 m height of western Ghats has been found but the reason behind this need to be studied, which is possible by utilizing datasets that would better represent the orography and landuse over the region in high resolution model. Similarly a detailed analysis is needed to clearly identify the causative relations of the predictors identified with the predictant and the physical reasons behind them. New approaches that include nonlinear relationships and dynamical variables from model simulations can be included in the existing statistical models to improve the skill of the models. Also the statistical models for the forecasts of monsoon have to be continually updated.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This thesis Entitled Studies on certain exploited marine Finfish Resources of india.Marine fish catch forecasting is short term or long term basis for purposes of explation and management. Among the short term forecasts, two approaches need serious consideration in India: 1. to improve the methods of understanding the influence of environmental characteristics on the abundance or availability of fish in different areas in different periods and to make the forecasts of the same, 2. to make analysis of time series catch data (ARIMA models) to make forecasts of catch in the next year or in a particular period during next year. There is some evidence of suitability of these approaches to Indian marine fisheries but attempts aiming at comprehensive studies should be made. In the area of long term forecasts, considerable work is done in India on single species assessments but in the context of multi species, multigear nature of Indian marine fisheries, assessments of all species together in a mixed fishery are urgently required for effective managements of fisheries.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Numerische Urteile wie Schätzungen oder Prognosen sind anfällig für Ankereffekte. Ein in eine Entscheidungssituation willkürlich eingeführter numerischer Wert – der Anker – beeinflusst oft das Urteil im Sinne einer Assimilation des Urteils an diesen Wert. Bei Kaufentscheidungen fließt das Ergebnis eines Vergleichs des Produktpreises mit einem Referenzpreis, einem numerischen Wert, in die Kaufentscheidung mit ein. Unter Orientierung an die Prospekttheorie von Kahneman & Tversky kann dieser Referenzpreis in Form eines implementierten Ankers variiert werden. Die vorgelegte interdisziplinäre Arbeit wendet psychologisches Fachwissen in den Wirtschaftswissenschaften an. Sie beschäftigt sich mit den Möglichkeiten bei telefonischen Verkaufsgesprächen, gezielt Anker zu Erhöhung der Verkaufsquote einzusetzen. Der Anker wird in drei unterschiedlichen Experimenten entweder durch den Preis eines zusätzlich angebotenen Produkts, durch das Einbringen eines belanglos scheinenden numerischen Wertes, wie die Anzahl an bereits getätigten Anrufen, oder in Form einer Schätzfrage in das Verkaufsgespräch implementiert. Es wird dabei festgestellt, dass durch einen im Vergleich zum verkaufenden Produkt höheren numerischen Wert, dem Anker, die Verkaufsquote erhöht werden kann. Das Neuartige an der Arbeit liegt vor allem im Aufzeigen der Einfachheit solcher ökonomisch effektiver Ankersetzungen in Verkaufsgesprächen. Willkürlich in eine Kaufsituation eingeführte numerische Werte können - analog zu ihrem Einfluss in Urteilssituationen - auch Kaufentscheidungen in einem realen Markt beeinflussen.