987 resultados para Forecasts


Relevância:

10.00% 10.00%

Publicador:

Resumo:

A Work Project, presented as part of the requirements for the Award of a Masters Degree in Finance from the NOVA – School of Business and Economics

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The aim of this work project is to find a model that is able to accurately forecast the daily Value-at-Risk for PSI-20 Index, independently of the market conditions, in order to expand empirical literature for the Portuguese stock market. Hence, two subsamples, representing more and less volatile periods, were modeled through unconditional and conditional volatility models (because it is what drives returns). All models were evaluated through Kupiec’s and Christoffersen’s tests, by comparing forecasts with actual results. Using an out-of-sample of 204 observations, it was found that a GARCH(1,1) is an accurate model for our purposes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RESUMO - Introdução — O presente estudo descreve os cenários de impacto que uma eventual pandemia de gripe poderá ter na população portuguesa e nos serviços de saúde. Trata-se de uma versão actualizada dos cenários preliminares que têm vindo a ser elaborados e discutidos desde 2005. Material e métodos — Os cenários assumem que a pandemia ocorrerá em duas ondas das quais a primeira (taxa de ataque: 10%) será menos intensa do que a segunda (taxas de ataque: 20%, 25% ou 30%). Neste trabalho são descritos apenas os cenários respeitantes à situação mais grave (taxa de ataque global = 10% + 30%). A elaboração dos cenários utilizou o método proposto por Meltzer, M. I., Cox, N. J. e Fukuda, K. (1999) mas com quase todos os parâmetros adaptados à população portuguesa. Esta adaptação incidiu sobre: 1. duração da pandemia; 2. taxa de letalidade; 3. percentagem da população com risco elevado de complicações; 4. percentagem de doentes com suspeita de gripe que procurará consulta; 5. tempo entre o início dos sintomas e a procura de cuidados; 6. percentagem de doentes que terá acesso efectivo a antiviral; 7. taxa de hospitalização por gripe e tempo médio de hospitalização; 8. percentagem de doentes hospitalizados que necessitarão de cuidados intensivos (CI) e tempo de internamento em CI; 9. efectividade de oseltamivir para evitar complicações e morte. Resultados — Os cenários correspondentes à situação mais grave (taxa de ataque global: 10% + 30%) são apresentados sem qualquer intervenção e, também, com utilização de oseltamivir para fins terapêuticos. Os resultados sem intervenção para o cenário «provável» indicam: • número total de casos — 4 142 447; • número total de indivíduos a necessitar de consulta — 5 799 426; • número total de hospitalizações — 113 712; • número total de internamentos em cuidados intensivos — 17 057; • número total de óbitos — 32 051; • número total de óbitos, nas semanas com valor máximo — 1.a onda: 2551, 2.a onda: 7651. Quando os cenários foram simulados entrando em linha de conta com a utilização de oseltamivir (considerando uma efectividade de 10% e 30%), verificou-se uma redução dos valores dos óbitos e hospitalizações calculados. O presente artigo também apresenta a distribuição semanal, no período de desenvolvimento da pandemia, dos vários resultados obtidos. Discussão — Os resultados apresentados devem ser interpretados como «cenários» e não como «previsões». De facto, as incertezas existentes em relação à doença e ao seu agente não permitem prever com rigor suficiente os seus impactos sobre a população e sobre os serviços de saúde. Por isso, os cenários agora apresentados servem, sobretudo, para fins de planeamento. Assim, a preparação da resposta à eventual pandemia pode ser apoiada em valores cujas ordens de grandeza correspondem às situações de mais elevada gravidade. Desta forma, a sua utilização para outros fins é inadequada e é vivamente desencorajada pelos autores.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Iowa faces a signifi cant challenge over the next decade. In the words of a recent report, “The state faces the danger of worker and skill gaps that could undermine its businesses, erode the earning power of its workers, and slow its economic growth.” (Iowa Works Campaign, 2006) Iowa’s economic and demographic stability depends on attracting new immigrants and slowing the departure of residents. Eroding housing affordability and quality will make this more difficult. Housing alone cannot solve the problem, but it must be part of the solution. This study examines trends in the state’s major housing markets, analyzes the achievements of housing programs in the recent past, and incorporates input from more than 80 housing experts across the state. The second part of this study (included on the attached CD) analyzes housing’s impact on the economy. We developed three major policy recommendations.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

For predicting future volatility, empirical studies find mixed results regarding two issues: (1) whether model free implied volatility has more information content than Black-Scholes model-based implied volatility; (2) whether implied volatility outperforms historical volatilities. In this thesis, we address these two issues using the Canadian financial data. First, we examine the information content and forecasting power between VIXC - a model free implied volatility, and MVX - a model-based implied volatility. The GARCH in-sample test indicates that VIXC subsumes all information that is reflected in MVX. The out-of-sample examination indicates that VIXC is superior to MVX for predicting the next 1-, 5-, 10-, and 22-trading days' realized volatility. Second, we investigate the predictive power between VIXC and alternative volatility forecasts derived from historical index prices. We find that for time horizons lesser than 10-trading days, VIXC provides more accurate forecasts. However, for longer time horizons, the historical volatilities, particularly the random walk, provide better forecasts. We conclude that VIXC cannot incorporate all information contained in historical index prices for predicting future volatility.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse envisage un ensemble de méthodes permettant aux algorithmes d'apprentissage statistique de mieux traiter la nature séquentielle des problèmes de gestion de portefeuilles financiers. Nous débutons par une considération du problème général de la composition d'algorithmes d'apprentissage devant gérer des tâches séquentielles, en particulier celui de la mise-à-jour efficace des ensembles d'apprentissage dans un cadre de validation séquentielle. Nous énumérons les desiderata que des primitives de composition doivent satisfaire, et faisons ressortir la difficulté de les atteindre de façon rigoureuse et efficace. Nous poursuivons en présentant un ensemble d'algorithmes qui atteignent ces objectifs et présentons une étude de cas d'un système complexe de prise de décision financière utilisant ces techniques. Nous décrivons ensuite une méthode générale permettant de transformer un problème de décision séquentielle non-Markovien en un problème d'apprentissage supervisé en employant un algorithme de recherche basé sur les K meilleurs chemins. Nous traitons d'une application en gestion de portefeuille où nous entraînons un algorithme d'apprentissage à optimiser directement un ratio de Sharpe (ou autre critère non-additif incorporant une aversion au risque). Nous illustrons l'approche par une étude expérimentale approfondie, proposant une architecture de réseaux de neurones spécialisée à la gestion de portefeuille et la comparant à plusieurs alternatives. Finalement, nous introduisons une représentation fonctionnelle de séries chronologiques permettant à des prévisions d'être effectuées sur un horizon variable, tout en utilisant un ensemble informationnel révélé de manière progressive. L'approche est basée sur l'utilisation des processus Gaussiens, lesquels fournissent une matrice de covariance complète entre tous les points pour lesquels une prévision est demandée. Cette information est utilisée à bon escient par un algorithme qui transige activement des écarts de cours (price spreads) entre des contrats à terme sur commodités. L'approche proposée produit, hors échantillon, un rendement ajusté pour le risque significatif, après frais de transactions, sur un portefeuille de 30 actifs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

We study the workings of the factor analysis of high-dimensional data using artificial series generated from a large, multi-sector dynamic stochastic general equilibrium (DSGE) model. The objective is to use the DSGE model as a laboratory that allow us to shed some light on the practical benefits and limitations of using factor analysis techniques on economic data. We explain in what sense the artificial data can be thought of having a factor structure, study the theoretical and finite sample properties of the principal components estimates of the factor space, investigate the substantive reason(s) for the good performance of di¤usion index forecasts, and assess the quality of the factor analysis of highly dissagregated data. In all our exercises, we explain the precise relationship between the factors and the basic macroeconomic shocks postulated by the model.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ma thèse est composée de trois chapitres reliés à l'estimation des modèles espace-état et volatilité stochastique. Dans le première article, nous développons une procédure de lissage de l'état, avec efficacité computationnelle, dans un modèle espace-état linéaire et gaussien. Nous montrons comment exploiter la structure particulière des modèles espace-état pour tirer les états latents efficacement. Nous analysons l'efficacité computationnelle des méthodes basées sur le filtre de Kalman, l'algorithme facteur de Cholesky et notre nouvelle méthode utilisant le compte d'opérations et d'expériences de calcul. Nous montrons que pour de nombreux cas importants, notre méthode est plus efficace. Les gains sont particulièrement grands pour les cas où la dimension des variables observées est grande ou dans les cas où il faut faire des tirages répétés des états pour les mêmes valeurs de paramètres. Comme application, on considère un modèle multivarié de Poisson avec le temps des intensités variables, lequel est utilisé pour analyser le compte de données des transactions sur les marchés financières. Dans le deuxième chapitre, nous proposons une nouvelle technique pour analyser des modèles multivariés à volatilité stochastique. La méthode proposée est basée sur le tirage efficace de la volatilité de son densité conditionnelle sachant les paramètres et les données. Notre méthodologie s'applique aux modèles avec plusieurs types de dépendance dans la coupe transversale. Nous pouvons modeler des matrices de corrélation conditionnelles variant dans le temps en incorporant des facteurs dans l'équation de rendements, où les facteurs sont des processus de volatilité stochastique indépendants. Nous pouvons incorporer des copules pour permettre la dépendance conditionnelle des rendements sachant la volatilité, permettant avoir différent lois marginaux de Student avec des degrés de liberté spécifiques pour capturer l'hétérogénéité des rendements. On tire la volatilité comme un bloc dans la dimension du temps et un à la fois dans la dimension de la coupe transversale. Nous appliquons la méthode introduite par McCausland (2012) pour obtenir une bonne approximation de la distribution conditionnelle à posteriori de la volatilité d'un rendement sachant les volatilités d'autres rendements, les paramètres et les corrélations dynamiques. Le modèle est évalué en utilisant des données réelles pour dix taux de change. Nous rapportons des résultats pour des modèles univariés de volatilité stochastique et deux modèles multivariés. Dans le troisième chapitre, nous évaluons l'information contribuée par des variations de volatilite réalisée à l'évaluation et prévision de la volatilité quand des prix sont mesurés avec et sans erreur. Nous utilisons de modèles de volatilité stochastique. Nous considérons le point de vue d'un investisseur pour qui la volatilité est une variable latent inconnu et la volatilité réalisée est une quantité d'échantillon qui contient des informations sur lui. Nous employons des méthodes bayésiennes de Monte Carlo par chaîne de Markov pour estimer les modèles, qui permettent la formulation, non seulement des densités a posteriori de la volatilité, mais aussi les densités prédictives de la volatilité future. Nous comparons les prévisions de volatilité et les taux de succès des prévisions qui emploient et n'emploient pas l'information contenue dans la volatilité réalisée. Cette approche se distingue de celles existantes dans la littérature empirique en ce sens que ces dernières se limitent le plus souvent à documenter la capacité de la volatilité réalisée à se prévoir à elle-même. Nous présentons des applications empiriques en utilisant les rendements journaliers des indices et de taux de change. Les différents modèles concurrents sont appliqués à la seconde moitié de 2008, une période marquante dans la récente crise financière.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans ce mémoire, nous proposons une méthodologie statistique permettant d’obtenir un estimateur de l’espérance de vie des clients en assurance. Les prédictions effectuées tiennent compte des caractéristiques individuelles des clients, notamment du fait qu’ils peuvent détenir différents types de produits d’assurance (automobile, résidentielle ou les deux). Trois approches sont comparées. La première approche est le modèle de Markov simple, qui suppose à la fois l’homogénéité et la stationnarité des probabilités de transition. L’autre modèle – qui a été implémenté par deux approches, soit une approche directe et une approche par simulations – tient compte de l’hétérogénéité des probabilités de transition, ce qui permet d’effectuer des prédictions qui évoluent avec les caractéristiques des individus dans le temps. Les probabilités de transition de ce modèle sont estimées par des régressions logistiques multinomiales.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nous présentons dans cette thèse notre travail dans le domaine de la visualisation. Nous nous sommes intéressés au problème de la génération des bulletins météorologiques. Étant donné une masse énorme d’information générée par Environnement Canada et un utilisateur, il faut lui générer une visualisation personnalisée qui répond à ses besoins et à ses préférences. Nous avons développé MeteoVis, un générateur de bulletin météorologique. Comme nous avons peu d’information sur le profil de l’utilisateur, nous nous sommes basés sur les utilisateurs similaires pour lui calculer ses besoins et ses préférences. Nous utilisons l'apprentissage non supervisé pour regrouper les utilisateurs similaires. Nous calculons le taux de similarité des profils utilisateurs dans le même cluster pour pondérer les besoins et les préférences. Nous avons mené, avec l’aide d'utilisateurs n’ayant aucun rapport avec le projet, des expériences d'évaluation et de comparaison de notre outil par rapport à celui utilisé actuellement par Environnement Canada. Les résultats de cette évaluation montrent que les visualisation générées par MeteoVis sont de loin meilleures que les bulletins actuels préparés par EC.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The present study helped to understand the trend in rainfall patterns at smaller spatial scales and the large regional differences in the variability of rainfall. The effect of land use and orography on the diurnal variability is also understood. But a better understanding on the long term variation in rainfall is possible by using a longer dataset,which may provide insight into the rainfall variation over country during the past century. The basic mechanism behind the interannual rainfall variability would be possible with numerical studies using coupled Ocean-Atmosphere models. The regional difference in the active-break conditions points to the significance of regional studies than considering India as a single unit. The underlying dynamics of diurnal variability need to be studied by making use of a high resolution model as the present study could not simulate the local onshore circulation. Also the land use modification in this study, selected a region, which is surrounded by crop land. This implies the high possibility for the conversion of the remaining region to agricultural land. Therefore the study is useful than considering idealized conditions, but the adverse effect of irrigated crop is more than non-irrigated crop. Therefore, such studies would help to understand the climate changes occurred in the recent period. The large accumulation of rainfall between 300-600 m height of western Ghats has been found but the reason behind this need to be studied, which is possible by utilizing datasets that would better represent the orography and landuse over the region in high resolution model. Similarly a detailed analysis is needed to clearly identify the causative relations of the predictors identified with the predictant and the physical reasons behind them. New approaches that include nonlinear relationships and dynamical variables from model simulations can be included in the existing statistical models to improve the skill of the models. Also the statistical models for the forecasts of monsoon have to be continually updated.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This thesis Entitled Studies on certain exploited marine Finfish Resources of india.Marine fish catch forecasting is short term or long term basis for purposes of explation and management. Among the short term forecasts, two approaches need serious consideration in India: 1. to improve the methods of understanding the influence of environmental characteristics on the abundance or availability of fish in different areas in different periods and to make the forecasts of the same, 2. to make analysis of time series catch data (ARIMA models) to make forecasts of catch in the next year or in a particular period during next year. There is some evidence of suitability of these approaches to Indian marine fisheries but attempts aiming at comprehensive studies should be made. In the area of long term forecasts, considerable work is done in India on single species assessments but in the context of multi species, multigear nature of Indian marine fisheries, assessments of all species together in a mixed fishery are urgently required for effective managements of fisheries.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Numerische Urteile wie Schätzungen oder Prognosen sind anfällig für Ankereffekte. Ein in eine Entscheidungssituation willkürlich eingeführter numerischer Wert – der Anker – beeinflusst oft das Urteil im Sinne einer Assimilation des Urteils an diesen Wert. Bei Kaufentscheidungen fließt das Ergebnis eines Vergleichs des Produktpreises mit einem Referenzpreis, einem numerischen Wert, in die Kaufentscheidung mit ein. Unter Orientierung an die Prospekttheorie von Kahneman & Tversky kann dieser Referenzpreis in Form eines implementierten Ankers variiert werden. Die vorgelegte interdisziplinäre Arbeit wendet psychologisches Fachwissen in den Wirtschaftswissenschaften an. Sie beschäftigt sich mit den Möglichkeiten bei telefonischen Verkaufsgesprächen, gezielt Anker zu Erhöhung der Verkaufsquote einzusetzen. Der Anker wird in drei unterschiedlichen Experimenten entweder durch den Preis eines zusätzlich angebotenen Produkts, durch das Einbringen eines belanglos scheinenden numerischen Wertes, wie die Anzahl an bereits getätigten Anrufen, oder in Form einer Schätzfrage in das Verkaufsgespräch implementiert. Es wird dabei festgestellt, dass durch einen im Vergleich zum verkaufenden Produkt höheren numerischen Wert, dem Anker, die Verkaufsquote erhöht werden kann. Das Neuartige an der Arbeit liegt vor allem im Aufzeigen der Einfachheit solcher ökonomisch effektiver Ankersetzungen in Verkaufsgesprächen. Willkürlich in eine Kaufsituation eingeführte numerische Werte können - analog zu ihrem Einfluss in Urteilssituationen - auch Kaufentscheidungen in einem realen Markt beeinflussen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In dieser Arbeit wird ein Verfahren zum Einsatz neuronaler Netzwerke vorgestellt, das auf iterative Weise Klassifikation und Prognoseschritte mit dem Ziel kombiniert, bessere Ergebnisse der Prognose im Vergleich zu einer einmaligen hintereinander Ausführung dieser Schritte zu erreichen. Dieses Verfahren wird am Beispiel der Prognose der Windstromerzeugung abhängig von der Wettersituation erörtert. Eine Verbesserung wird in diesem Rahmen mit einzelnen Ausreißern erreicht. Verschiedene Aspekte werden in drei Kapiteln diskutiert: In Kapitel 1 werden die verwendeten Daten und ihre elektronische Verarbeitung vorgestellt. Die Daten bestehen zum einen aus Windleistungshochrechnungen für die Bundesrepublik Deutschland der Jahre 2011 und 2012, welche als Transparenzanforderung des Erneuerbaren Energiegesetzes durch die Übertragungsnetzbetreiber publiziert werden müssen. Zum anderen werden Wetterprognosen, die der Deutsche Wetterdienst im Rahmen der Grundversorgung kostenlos bereitstellt, verwendet. Kapitel 2 erläutert zwei aus der Literatur bekannte Verfahren - Online- und Batchalgorithmus - zum Training einer selbstorganisierenden Karte. Aus den dargelegten Verfahrenseigenschaften begründet sich die Wahl des Batchverfahrens für die in Kapitel 3 erläuterte Methode. Das in Kapitel 3 vorgestellte Verfahren hat im modellierten operativen Einsatz den gleichen Ablauf, wie eine Klassifikation mit anschließender klassenspezifischer Prognose. Bei dem Training des Verfahrens wird allerdings iterativ vorgegangen, indem im Anschluss an das Training der klassenspezifischen Prognose ermittelt wird, zu welcher Klasse der Klassifikation ein Eingabedatum gehören sollte, um mit den vorliegenden klassenspezifischen Prognosemodellen die höchste Prognosegüte zu erzielen. Die so gewonnene Einteilung der Eingaben kann genutzt werden, um wiederum eine neue Klassifikationsstufe zu trainieren, deren Klassen eine verbesserte klassenspezifisch Prognose ermöglichen.