996 resultados para Pricing Strategy
Resumo:
Cette thèse de doctorat consiste en trois chapitres qui traitent des sujets de choix de portefeuilles de grande taille, et de mesure de risque. Le premier chapitre traite du problème d’erreur d’estimation dans les portefeuilles de grande taille, et utilise le cadre d'analyse moyenne-variance. Le second chapitre explore l'importance du risque de devise pour les portefeuilles d'actifs domestiques, et étudie les liens entre la stabilité des poids de portefeuille de grande taille et le risque de devise. Pour finir, sous l'hypothèse que le preneur de décision est pessimiste, le troisième chapitre dérive la prime de risque, une mesure du pessimisme, et propose une méthodologie pour estimer les mesures dérivées. Le premier chapitre améliore le choix optimal de portefeuille dans le cadre du principe moyenne-variance de Markowitz (1952). Ceci est motivé par les résultats très décevants obtenus, lorsque la moyenne et la variance sont remplacées par leurs estimations empiriques. Ce problème est amplifié lorsque le nombre d’actifs est grand et que la matrice de covariance empirique est singulière ou presque singulière. Dans ce chapitre, nous examinons quatre techniques de régularisation pour stabiliser l’inverse de la matrice de covariance: le ridge, spectral cut-off, Landweber-Fridman et LARS Lasso. Ces méthodes font chacune intervenir un paramètre d’ajustement, qui doit être sélectionné. La contribution principale de cette partie, est de dériver une méthode basée uniquement sur les données pour sélectionner le paramètre de régularisation de manière optimale, i.e. pour minimiser la perte espérée d’utilité. Précisément, un critère de validation croisée qui prend une même forme pour les quatre méthodes de régularisation est dérivé. Les règles régularisées obtenues sont alors comparées à la règle utilisant directement les données et à la stratégie naïve 1/N, selon leur perte espérée d’utilité et leur ratio de Sharpe. Ces performances sont mesurée dans l’échantillon (in-sample) et hors-échantillon (out-of-sample) en considérant différentes tailles d’échantillon et nombre d’actifs. Des simulations et de l’illustration empirique menées, il ressort principalement que la régularisation de la matrice de covariance améliore de manière significative la règle de Markowitz basée sur les données, et donne de meilleurs résultats que le portefeuille naïf, surtout dans les cas le problème d’erreur d’estimation est très sévère. Dans le second chapitre, nous investiguons dans quelle mesure, les portefeuilles optimaux et stables d'actifs domestiques, peuvent réduire ou éliminer le risque de devise. Pour cela nous utilisons des rendements mensuelles de 48 industries américaines, au cours de la période 1976-2008. Pour résoudre les problèmes d'instabilité inhérents aux portefeuilles de grandes tailles, nous adoptons la méthode de régularisation spectral cut-off. Ceci aboutit à une famille de portefeuilles optimaux et stables, en permettant aux investisseurs de choisir différents pourcentages des composantes principales (ou dégrées de stabilité). Nos tests empiriques sont basés sur un modèle International d'évaluation d'actifs financiers (IAPM). Dans ce modèle, le risque de devise est décomposé en deux facteurs représentant les devises des pays industrialisés d'une part, et celles des pays émergents d'autres part. Nos résultats indiquent que le risque de devise est primé et varie à travers le temps pour les portefeuilles stables de risque minimum. De plus ces stratégies conduisent à une réduction significative de l'exposition au risque de change, tandis que la contribution de la prime risque de change reste en moyenne inchangée. Les poids de portefeuille optimaux sont une alternative aux poids de capitalisation boursière. Par conséquent ce chapitre complète la littérature selon laquelle la prime de risque est importante au niveau de l'industrie et au niveau national dans la plupart des pays. Dans le dernier chapitre, nous dérivons une mesure de la prime de risque pour des préférences dépendent du rang et proposons une mesure du degré de pessimisme, étant donné une fonction de distorsion. Les mesures introduites généralisent la mesure de prime de risque dérivée dans le cadre de la théorie de l'utilité espérée, qui est fréquemment violée aussi bien dans des situations expérimentales que dans des situations réelles. Dans la grande famille des préférences considérées, une attention particulière est accordée à la CVaR (valeur à risque conditionnelle). Cette dernière mesure de risque est de plus en plus utilisée pour la construction de portefeuilles et est préconisée pour compléter la VaR (valeur à risque) utilisée depuis 1996 par le comité de Bâle. De plus, nous fournissons le cadre statistique nécessaire pour faire de l’inférence sur les mesures proposées. Pour finir, les propriétés des estimateurs proposés sont évaluées à travers une étude Monte-Carlo, et une illustration empirique en utilisant les rendements journaliers du marché boursier américain sur de la période 2000-2011.
Resumo:
We consider general allocation problems with indivisibilities where agents' preferences possibly exhibit externalities. In such contexts many different core notions were proposed. One is the gamma-core whereby blocking is only allowed via allocations where the non-blocking agents receive their endowment. We show that if there exists an allocation rule satisfying ‘individual rationality’, ‘efficiency’, and ‘strategy-proofness’, then for any problem for which the gamma-core is non-empty, the allocation rule must choose a gamma-core allocation and all agents are indifferent between all allocations in the gamma-core. We apply our result to housing markets, coalition formation and networks.
Resumo:
We study the problem of assigning indivisible and heterogenous objects (e.g., houses, jobs, offices, school or university admissions etc.) to agents. Each agent receives at most one object and monetary compensations are not possible. We consider mechanisms satisfying a set of basic properties (unavailable-type-invariance, individual-rationality, weak non-wastefulness, or truncation-invariance). In the house allocation problem, where at most one copy of each object is available, deferred-acceptance (DA)-mechanisms allocate objects based on exogenously fixed objects' priorities over agents and the agent-proposing deferred-acceptance-algorithm. For house allocation we show that DA-mechanisms are characterized by our basic properties and (i) strategy-proofness and population-monotonicity or (ii) strategy-proofness and resource-monotonicity. Once we allow for multiple identical copies of objects, on the one hand the first characterization breaks down and there are unstable mechanisms satisfying our basic properties and (i) strategy-proofness and population-monotonicity. On the other hand, our basic properties and (ii) strategy-proofness and resource-monotonicity characterize (the most general) class of DA-mechanisms based on objects' fixed choice functions that are acceptant, monotonic, substitutable, and consistent. These choice functions are used by objects to reject agents in the agent-proposing deferred-acceptance-algorithm. Therefore, in the general model resource-monotonicity is the «stronger» comparative statics requirement because it characterizes (together with our basic requirements and strategy-proofness) choice-based DA-mechanisms whereas population-monotonicity (together with our basic properties and strategy-proofness) does not.
Resumo:
La réaction de macrocyclisation est une transformation fondamentale en chimie organique de synthèse. Le principal défi associcé à la formation de macrocycles est la compétition inhérente avec la réaction d’oligomérisation qui mène à la formation de sousproduits indésirables. De plus, l’utilisation de conditions de dilutions élevées qui sont nécessaires afin d’obtenir une cyclisation “sélective”, sont souvent décourageantes pour les applications à l’échelle industrielle. Malgré cet intérêt pour les macrocycles, la recherche visant à développer des stratégies environnementalement bénignes, qui permettent d’utiliser des concentrations normales pour leur synthèse, sont encore rares. Cette thèse décrit le développement d’une nouvelle approche générale visant à améliorer l’efficacité des réactions de macrocyclisation en utilisant le contrôle des effets de dilution. Une stratégie de “séparation de phase” qui permet de réaliser des réactions à des concentrations plus élevées a été developpée. Elle se base sur un mélange de solvant aggrégé contrôlé par les propriétés du poly(éthylène glycol) (PEG). Des études de tension de surface, spectroscopie UV et tagging chimique ont été réalisées afin d’élucider le mécanisme de “séparation de phase”. Il est proposé que celui-ci fonctionne par diffusion lente du substrat organique vers la phase ou le catalyseur est actif. La nature du polymère co-solvant joue donc un rôle crutial dans le contrôle de l’aggrégation et de la catalyse La stratégie de “séparation de phase” a initiallement été étudiée en utilisant le couplage oxidatif d’alcynes de type Glaser-Hay co-catalysé par un complexe de cuivre et de nickel puis a été transposée à la chimie en flux continu. Elle fut ensuite appliquée à la cycloaddition d’alcynes et d’azotures catalysée par un complexe de cuivre en “batch” ainsi qu’en flux continu.
Resumo:
According to the deontological conception of epistemic justification, a belief is justified when it is our obligation or duty as rational creatures to believe it. However, this view faces an important objection according to which we cannot have such epistemic obligations since our beliefs are never under our voluntary control. One possible strategy against this argument is to show that we do have voluntary control over some of our beliefs, and that we therefore have epistemic obligations. This is what I call the voluntarist strategy. I examine it and argue that it is not promising. I show how the voluntarist attempts of Carl Ginet and Brian Weatherson fail, and conclude that it would be more fruitful for deontologists to look for a different strategy.
Resumo:
The present study focuses attention on the social phenomenon of environmental protection pressure groups in Kerala. A detailed historical background of environmental protection pressure groups at international and national scenes as background for this study .Emphirical studies of environmental protection pressure groups in Kerala with special reference to industrial pollution is dicussed in detail . The main objective of the study is to identify the factors that make pressure groups succeed or fail in achieving their set objectives.The factors include the structure and strategies of social pressure groups and the support they receive from the environment.
Resumo:
A study focusing on the identification of return generating factors and to the extent of their influence on share prices the outcome will be a tool for investment analysis in the hands of investors portfolio managers and mutual funds who are mostly concerned with changing share prices. Since the study takes into account the influence of macroeconomic variables on variations in share returns by using the outcome the government can frame out suitable policies on long term basis and that will help in nurturing a healthy economy and resultant stock market. As every company management tries to maximize the wealth of the share holders a clear idea about the return generating variables and their influence will help the management to frame various policies to maximize the wealth of the shareholders.
Resumo:
We propose antimicrobial photodynamic therapy (aPDT) as an alternative strategy to reduce the use of antibiotics in shrimp larviculture systems. The growth of a multiple antibiotic resistant Vibrio harveyi strain was effectively controlled by treating the cells with Rose Bengal and photosensitizing for 30 min using a halogen lamp. This resulted in the death of > 50% of the cells within the first 10 min of exposure and the 50% reduction in the cell wall integrity after 30 min could be attributed to the destruction of outer membrane protein of V. harveyi by reactive oxygen intermediates produced during the photosensitization. Further, mesocosm experiments with V. harveyi and Artemia nauplii demonstrated that in 30 min, the aPDT could kill 78.9% and 91.2% of heterotrophic bacterial and Vibrio population respectively. In conclusion, the study demonstrated that aPDT with its rapid action and as yet unreported resistance development possibilities could be a propitious strategy to reduce the use of antibiotics in shrimp larviculture systems and thereby, avoid their hazardous effects on human health and the ecosystem at large.
Resumo:
A simple and facile strategy for the synthesis of highly substituted imidazoles has been developed by multi-component condensation of 1,2-diketone, aldehyde, amine, and ammonium acetate in presence of tetrabutyl ammonium bromide as catalyst
Resumo:
A series of novel naphthyridine derivatives 3 and 4 was prepared from substituted pyridine 2 and ketones using ZnCl2 as catalyst under microwave irradiation conditions. All the compounds were evaluated for AChE inhibitory activity and promising compounds 3d, 3e, 4b, and 4g was identified. Representative compounds 3d and 3e were found to show insignificant THLE-2 liver cell viability/toxicity. The binding mode between X-ray crystal structure of human AChE and compounds was studied using molecular docking method and fitness scores were found to be in good correlation with the activity data.
Resumo:
The Majority Strategy for finding medians of a set of clients on a graph can be relaxed in the following way: if we are at v, then we move to a neighbor w if there are at least as many clients closer to w than to v (thus ignoring the clients at equal distance from v and w). The graphs on which this Plurality Strategy always finds the set of all medians are precisely those for which the set of medians induces always a connected subgraph
Resumo:
This work demonstrates how partial evaluation can be put to practical use in the domain of high-performance numerical computation. I have developed a technique for performing partial evaluation by using placeholders to propagate intermediate results. For an important class of numerical programs, a compiler based on this technique improves performance by an order of magnitude over conventional compilation techniques. I show that by eliminating inherently sequential data-structure references, partial evaluation exposes the low-level parallelism inherent in a computation. I have implemented several parallel scheduling and analysis programs that study the tradeoffs involved in the design of an architecture that can effectively utilize this parallelism. I present these results using the 9- body gravitational attraction problem as an example.
Resumo:
We propose a nonparametric method for estimating derivative financial asset pricing formulae using learning networks. To demonstrate feasibility, we first simulate Black-Scholes option prices and show that learning networks can recover the Black-Scholes formula from a two-year training set of daily options prices, and that the resulting network formula can be used successfully to both price and delta-hedge options out-of-sample. For comparison, we estimate models using four popular methods: ordinary least squares, radial basis functions, multilayer perceptrons, and projection pursuit. To illustrate practical relevance, we also apply our approach to S&P 500 futures options data from 1987 to 1991.