997 resultados para Bounded parameters
Resumo:
In this paper, we characterize the asymmetries of the smile through multiple leverage effects in a stochastic dynamic asset pricing framework. The dependence between price movements and future volatility is introduced through a set of latent state variables. These latent variables can capture not only the volatility risk and the interest rate risk which potentially affect option prices, but also any kind of correlation risk and jump risk. The standard financial leverage effect is produced by a cross-correlation effect between the state variables which enter into the stochastic volatility process of the stock price and the stock price process itself. However, we provide a more general framework where asymmetric implied volatility curves result from any source of instantaneous correlation between the state variables and either the return on the stock or the stochastic discount factor. In order to draw the shapes of the implied volatility curves generated by a model with latent variables, we specify an equilibrium-based stochastic discount factor with time non-separable preferences. When we calibrate this model to empirically reasonable values of the parameters, we are able to reproduce the various types of implied volatility curves inferred from option market data.
Resumo:
We consider the problem of accessing the uncertainty of calibrated parameters in computable general equilibrium (CGE) models through the construction of confidence sets (or intervals) for these parameters. We study two different setups under which this can be done.
Resumo:
The technique of Monte Carlo (MC) tests [Dwass (1957), Barnard (1963)] provides an attractive method of building exact tests from statistics whose finite sample distribution is intractable but can be simulated (provided it does not involve nuisance parameters). We extend this method in two ways: first, by allowing for MC tests based on exchangeable possibly discrete test statistics; second, by generalizing the method to statistics whose null distributions involve nuisance parameters (maximized MC tests, MMC). Simplified asymptotically justified versions of the MMC method are also proposed and it is shown that they provide a simple way of improving standard asymptotics and dealing with nonstandard asymptotics (e.g., unit root asymptotics). Parametric bootstrap tests may be interpreted as a simplified version of the MMC method (without the general validity properties of the latter).
Resumo:
La dernière décennie a connu un intérêt croissant pour les problèmes posés par les variables instrumentales faibles dans la littérature économétrique, c’est-à-dire les situations où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter. En effet, il est bien connu que lorsque les instruments sont faibles, les distributions des statistiques de Student, de Wald, du ratio de vraisemblance et du multiplicateur de Lagrange ne sont plus standard et dépendent souvent de paramètres de nuisance. Plusieurs études empiriques portant notamment sur les modèles de rendements à l’éducation [Angrist et Krueger (1991, 1995), Angrist et al. (1999), Bound et al. (1995), Dufour et Taamouti (2007)] et d’évaluation des actifs financiers (C-CAPM) [Hansen et Singleton (1982,1983), Stock et Wright (2000)], où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter, ont montré que l’utilisation de ces statistiques conduit souvent à des résultats peu fiables. Un remède à ce problème est l’utilisation de tests robustes à l’identification [Anderson et Rubin (1949), Moreira (2002), Kleibergen (2003), Dufour et Taamouti (2007)]. Cependant, il n’existe aucune littérature économétrique sur la qualité des procédures robustes à l’identification lorsque les instruments disponibles sont endogènes ou à la fois endogènes et faibles. Cela soulève la question de savoir ce qui arrive aux procédures d’inférence robustes à l’identification lorsque certaines variables instrumentales supposées exogènes ne le sont pas effectivement. Plus précisément, qu’arrive-t-il si une variable instrumentale invalide est ajoutée à un ensemble d’instruments valides? Ces procédures se comportent-elles différemment? Et si l’endogénéité des variables instrumentales pose des difficultés majeures à l’inférence statistique, peut-on proposer des procédures de tests qui sélectionnent les instruments lorsqu’ils sont à la fois forts et valides? Est-il possible de proposer les proédures de sélection d’instruments qui demeurent valides même en présence d’identification faible? Cette thèse se focalise sur les modèles structurels (modèles à équations simultanées) et apporte des réponses à ces questions à travers quatre essais. Le premier essai est publié dans Journal of Statistical Planning and Inference 138 (2008) 2649 – 2661. Dans cet essai, nous analysons les effets de l’endogénéité des instruments sur deux statistiques de test robustes à l’identification: la statistique d’Anderson et Rubin (AR, 1949) et la statistique de Kleibergen (K, 2003), avec ou sans instruments faibles. D’abord, lorsque le paramètre qui contrôle l’endogénéité des instruments est fixe (ne dépend pas de la taille de l’échantillon), nous montrons que toutes ces procédures sont en général convergentes contre la présence d’instruments invalides (c’est-à-dire détectent la présence d’instruments invalides) indépendamment de leur qualité (forts ou faibles). Nous décrivons aussi des cas où cette convergence peut ne pas tenir, mais la distribution asymptotique est modifiée d’une manière qui pourrait conduire à des distorsions de niveau même pour de grands échantillons. Ceci inclut, en particulier, les cas où l’estimateur des double moindres carrés demeure convergent, mais les tests sont asymptotiquement invalides. Ensuite, lorsque les instruments sont localement exogènes (c’est-à-dire le paramètre d’endogénéité converge vers zéro lorsque la taille de l’échantillon augmente), nous montrons que ces tests convergent vers des distributions chi-carré non centrées, que les instruments soient forts ou faibles. Nous caractérisons aussi les situations où le paramètre de non centralité est nul et la distribution asymptotique des statistiques demeure la même que dans le cas des instruments valides (malgré la présence des instruments invalides). Le deuxième essai étudie l’impact des instruments faibles sur les tests de spécification du type Durbin-Wu-Hausman (DWH) ainsi que le test de Revankar et Hartley (1973). Nous proposons une analyse en petit et grand échantillon de la distribution de ces tests sous l’hypothèse nulle (niveau) et l’alternative (puissance), incluant les cas où l’identification est déficiente ou faible (instruments faibles). Notre analyse en petit échantillon founit plusieurs perspectives ainsi que des extensions des précédentes procédures. En effet, la caractérisation de la distribution de ces statistiques en petit échantillon permet la construction des tests de Monte Carlo exacts pour l’exogénéité même avec les erreurs non Gaussiens. Nous montrons que ces tests sont typiquement robustes aux intruments faibles (le niveau est contrôlé). De plus, nous fournissons une caractérisation de la puissance des tests, qui exhibe clairement les facteurs qui déterminent la puissance. Nous montrons que les tests n’ont pas de puissance lorsque tous les instruments sont faibles [similaire à Guggenberger(2008)]. Cependant, la puissance existe tant qu’au moins un seul instruments est fort. La conclusion de Guggenberger (2008) concerne le cas où tous les instruments sont faibles (un cas d’intérêt mineur en pratique). Notre théorie asymptotique sous les hypothèses affaiblies confirme la théorie en échantillon fini. Par ailleurs, nous présentons une analyse de Monte Carlo indiquant que: (1) l’estimateur des moindres carrés ordinaires est plus efficace que celui des doubles moindres carrés lorsque les instruments sont faibles et l’endogenéité modérée [conclusion similaire à celle de Kiviet and Niemczyk (2007)]; (2) les estimateurs pré-test basés sur les tests d’exogenété ont une excellente performance par rapport aux doubles moindres carrés. Ceci suggère que la méthode des variables instrumentales ne devrait être appliquée que si l’on a la certitude d’avoir des instruments forts. Donc, les conclusions de Guggenberger (2008) sont mitigées et pourraient être trompeuses. Nous illustrons nos résultats théoriques à travers des expériences de simulation et deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le problème bien connu du rendement à l’éducation. Le troisième essai étend le test d’exogénéité du type Wald proposé par Dufour (1987) aux cas où les erreurs de la régression ont une distribution non-normale. Nous proposons une nouvelle version du précédent test qui est valide même en présence d’erreurs non-Gaussiens. Contrairement aux procédures de test d’exogénéité usuelles (tests de Durbin-Wu-Hausman et de Rvankar- Hartley), le test de Wald permet de résoudre un problème courant dans les travaux empiriques qui consiste à tester l’exogénéité partielle d’un sous ensemble de variables. Nous proposons deux nouveaux estimateurs pré-test basés sur le test de Wald qui performent mieux (en terme d’erreur quadratique moyenne) que l’estimateur IV usuel lorsque les variables instrumentales sont faibles et l’endogénéité modérée. Nous montrons également que ce test peut servir de procédure de sélection de variables instrumentales. Nous illustrons les résultats théoriques par deux applications empiriques: le modèle bien connu d’équation du salaire [Angist et Krueger (1991, 1999)] et les rendements d’échelle [Nerlove (1963)]. Nos résultats suggèrent que l’éducation de la mère expliquerait le décrochage de son fils, que l’output est une variable endogène dans l’estimation du coût de la firme et que le prix du fuel en est un instrument valide pour l’output. Le quatrième essai résout deux problèmes très importants dans la littérature économétrique. D’abord, bien que le test de Wald initial ou étendu permette de construire les régions de confiance et de tester les restrictions linéaires sur les covariances, il suppose que les paramètres du modèle sont identifiés. Lorsque l’identification est faible (instruments faiblement corrélés avec la variable à instrumenter), ce test n’est en général plus valide. Cet essai développe une procédure d’inférence robuste à l’identification (instruments faibles) qui permet de construire des régions de confiance pour la matrices de covariances entre les erreurs de la régression et les variables explicatives (possiblement endogènes). Nous fournissons les expressions analytiques des régions de confiance et caractérisons les conditions nécessaires et suffisantes sous lesquelles ils sont bornés. La procédure proposée demeure valide même pour de petits échantillons et elle est aussi asymptotiquement robuste à l’hétéroscédasticité et l’autocorrélation des erreurs. Ensuite, les résultats sont utilisés pour développer les tests d’exogénéité partielle robustes à l’identification. Les simulations Monte Carlo indiquent que ces tests contrôlent le niveau et ont de la puissance même si les instruments sont faibles. Ceci nous permet de proposer une procédure valide de sélection de variables instrumentales même s’il y a un problème d’identification. La procédure de sélection des instruments est basée sur deux nouveaux estimateurs pré-test qui combinent l’estimateur IV usuel et les estimateurs IV partiels. Nos simulations montrent que: (1) tout comme l’estimateur des moindres carrés ordinaires, les estimateurs IV partiels sont plus efficaces que l’estimateur IV usuel lorsque les instruments sont faibles et l’endogénéité modérée; (2) les estimateurs pré-test ont globalement une excellente performance comparés à l’estimateur IV usuel. Nous illustrons nos résultats théoriques par deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le modèle de rendements à l’éducation. Dans la première application, les études antérieures ont conclu que les instruments n’étaient pas trop faibles [Dufour et Taamouti (2007)] alors qu’ils le sont fortement dans la seconde [Bound (1995), Doko et Dufour (2009)]. Conformément à nos résultats théoriques, nous trouvons les régions de confiance non bornées pour la covariance dans le cas où les instruments sont assez faibles.
Resumo:
Ce mémoire étudie l'algorithme d'amplification de l'amplitude et ses applications dans le domaine de test de propriété. On utilise l'amplification de l'amplitude pour proposer le plus efficace algorithme quantique à ce jour qui teste la linéarité de fonctions booléennes et on généralise notre nouvel algorithme pour tester si une fonction entre deux groupes abéliens finis est un homomorphisme. Le meilleur algorithme quantique connu qui teste la symétrie de fonctions booléennes est aussi amélioré et l'on utilise ce nouvel algorithme pour tester la quasi-symétrie de fonctions booléennes. Par la suite, on approfondit l'étude du nombre de requêtes à la boîte noire que fait l'algorithme d'amplification de l'amplitude pour amplitude initiale inconnue. Une description rigoureuse de la variable aléatoire représentant ce nombre est présentée, suivie du résultat précédemment connue de la borne supérieure sur l'espérance. Suivent de nouveaux résultats sur la variance de cette variable. Il est notamment montré que, dans le cas général, la variance est infinie, mais nous montrons aussi que, pour un choix approprié de paramètres, elle devient bornée supérieurement.
Resumo:
La division cellulaire asymétrique (DCA) consiste en une division pendant laquelle des déterminants cellulaires sont distribués préférentiellement dans une des deux cellules filles. Par l’action de ces déterminants, la DCA générera donc deux cellules filles différentes. Ainsi, la DCA est importante pour générer la diversité cellulaire et pour maintenir l’homéostasie de certaines cellules souches. Pour induire une répartition asymétrique des déterminants cellulaires, le positionnement du fuseau mitotique doit être très bien contrôlé. Fréquemment ceci génère deux cellules filles de tailles différentes, car le fuseau mitotique n’est pas centré pendant la mitose, ce qui induit un positionnement asymétrique du sillon de clivage. Bien qu’un complexe impliquant des GTPases hétérotrimériques et des protéines liant les microtubules au cortex ait été impliqué directement dans le positionnement du fuseau mitotique, le mécanisme exact induisant le positionnement asymétrique du fuseau durant la DCA n'est pas encore compris. Des études récentes suggèrent qu’une régulation asymétrique du cytosquelette d’actine pourrait être responsable de ce positionnement asymétrique du faisceau mitotique. Donc, nous émettons l'hypothèse que des contractions asymétriques d’actine pendant la division cellulaire pourraient déplacer le fuseau mitotique et le sillon de clivage pour créer une asymétrie cellulaire. Nos résultats préliminaires ont démontré que le blebbing cortical, qui est une indication de tension corticale et de contraction, se produit préférentiellement dans la moitié antérieure de cellule précurseur d’organes sensoriels (SOP) pendant le stage de télophase. Nos données soutiennent l'idée que les petites GTPases de la famille Rho pourraient être impliqués dans la régulation du fuseau mitotique et ainsi contrôler la DCA des SOP. Les paramètres expérimentaux développés pour cette thèse, pour étudier la régulation de l’orientation et le positionnement du fuseau mitotique, ouvrirons de nouvelles avenues pour contrôler ce processus, ce qui pourrait être utile pour freiner la progression de cellules cancéreuses. Les résultats préliminaires de ce projet proposeront une manière dont les petites GTPases de la famille Rho peuvent être impliqués dans le contrôle de la division cellulaire asymétrique in vivo dans les SOP. Les modèles théoriques qui sont expliqués dans cette étude pourront servir à améliorer les méthodes quantitatives de biologie cellulaire de la DCA.
Resumo:
The study revealed stress and localized impact of industrial waste on the biota, predominance of stress tolerant species and low diversity in the vicinity of the effluent discharge point. These studies on impact of environmental parameters on the distribution of macrobenthos thus indicate the quantum of endurance warranted by the infauna to tide over the wide range of environmental stress. Low diversity and lower number of benthic fauna near discharge site can be attributed to the stress caused by cumulative toxic effects of effluents. The results of the physico-chemical parameters highlight the effects of pollution. The results of the study indicated the changes due to the large-scale movements of the estuarine water under the influence of tide, monsoon and land runoff coupled with its heterogenous nature owing to the effluent discharge from the industries
Resumo:
The role of thyroid hormones in DNA synthesis and in the activity of Thymidille kinase (TK), a key regulatory enzyme of DNA synthesis was studied in proliferating hepatocytes in vivo. Liver regeneration after partial hepatectomy was used as a model for controlled cell division in rats having different thyroid status - euthyroid, hypothyroid and 3,3',5'-triiodo-L-thyronine (T))-heated hypothyroid. Partial hepatectomy caused a significant elevation of DNA synthesis (p<0.01) in all the three groups compared to their sham-operated counterparts. Hypothyroid liepatectomised animals showed significantly lower (p<0.01) level of DNA synthesis than euthyroid hepatectomised animals. A single subcutaneous close of 1'3 to hypothyroid shamoperated animals resulted in a significant increase (p<0.01) of DNA synthesis in the intact liver. 17tis was comparable to the level of DNA synthesis occurring in regenerating liver of euthyroid animals. In hypothyroid hepatectomised animals, "1'3 showed an additive effect on l)NA synthesis and this group exhibited maximum level of DNA synthesis (p<0.0I ). Studies of the kinetic parameters of TK show that the Michelis-Menten constant, (K111) of TK for thymidine was altered by the thyroid status. K11 increased significantly (p<0.01) in untreated hypothyroid animals when compared to the euthyroid rats. '13 treatment of hypothyroid animals reversed this effect and this group showed the lowest value for K111 (p<0.01). Thus our results indicate that thyroid hormones can influence DNA synthesis during liver regeneration and they may regulate the activity of enzymes such as 17rymidine kinase which are important for DNA synthesis and hence cell division.
Effect Insulin on DNA Synthesis and Kinetic Parameters of Thymidine Kinase During Liver Regenaration
Resumo:
The effect of insulin on cell proliferation in vivo has been studied in hepatectomised streptozotocin- diabetic rats. The extent of cell proliferation in sham and hepatectomized- control, diabetic and insulin treated rats were monitored by determining DNA content and [3H]thymidine incorporation into DNA. The kinetic parameters of thymidine kinase a regulatory enzyme for DNA synthesis was also studied in these groups. The rate of DNA synthesis in liver of streptozotocin -diabetic rats was significantly higher 24 hrs post-hepatectomy compared to control and insulin treated diabetic groups. Kinetic studies of thymidine kinase revealed that there was no change in the Michaelis -Menten constant (Km) whereas maximum velocity (Vmax) was elevated in the diabetic hepatectomized groups compared to control and insulin treated hepatectomized groups. Thus our study elucidates the role of insulin in thymidine kinase activity and DNA synthesis.
Resumo:
In this paper, we study the domination number, the global dom ination number, the cographic domination number, the global co graphic domination number and the independent domination number of all the graph products which are non-complete extended p-sums (NEPS) of two graphs.
Resumo:
The objective of the present study is to understand the spatial and temporal variability of sea surface temperature(SST), precipitable water, zonal and meridional components of wind stress over the tropical Indian Ocean to understand the different scales of variability of these features of Indian Ocean. Empirical Orthogonal Function (EOF) and wavelet analysis techniques are utilized to understand the standing oscillations and multi scale oscillations respectively. The study has been carried out over Indian Ocean and South Indian Ocean. For the present study, NCEP/NCAR(National Center for Environmental Prediction National Center for Atmospheric Research) reanalyzed daily fields of sea surface temperature, zonal and meridional surface wind components and precipitable water amount during 1960-1998 are used. The principle of EOF analysis and the methodology used for the analysis of spatial and temporal variance modes.
Resumo:
The main objective of the study was primarily to determine the effect of hydrographical parameters especially nutrients which were supplied externally to the seawater while culturing the diatom Chaetoceros calcitrans, under laboratory conditions, and to determine its optimum concentration for ideal growth of the culture, in such a condition of increased rate of pollution due to the industrialization and effluents. Also an attempt was made to study the possible correlation of diatom abundance in the South west Coast of India with the landings of the pelagic fishery resources, especially sardine, mackerel and anchovy, since these fishes are largely diatom feeders. Positive correlation was found between the diatoms and pelagic fish landings of Thalassery and Vizhinjam area while at Cochin there was less significant correlation between the two variables
Resumo:
The effect of various processing parameters, such as nip gap, friction ratio and roll temperature, on the tensile properties of short Kevlar aramid fibre-thermoplastic polyurethane composite has been investigated and the tensile and tear fracture surfaces have been characterised using a scanning electron microscope. A nip gap of 0.45 mm, a friction ratio of 1.15 and a roll temperature of 62°C was found to give optimum mechanical properties. Scanning electron microscopy study revealed a higher extent of fibre orientation in the milling direction in the above condition.
Resumo:
The present work is an attempt to probe the elastic properties in some dielectric ceramics, by using ultrasonic pulse echo overlap technique. The base Ba6-xSm8+2xTi18O54 and Ca5Nb2TiO12 are very important dielectrics ceramics used for microwave communication as well as for substrate materials. Ultrasonic is one of the most widely used and powerful techniques to measure elastic properties of solids. The ultrasonic technique is nondestructive in nature and the measurements are relatively straightforward to perform. One unique advantantage of the ultrasonic technique is that both static and dynamic properties can be measured simultaneously. The velocity and attenuation coefficients of the ultrasonic waves propagating through a medium are related to the microscopic structure of the material and they provide valuable information about the structural changes in the system. Among the various ultrasonic techniques, the pulse echo overlap method is the most accurate and precise one. In the present case the decreased elastic properties of Cas-XMg,Nb2TiO12 and Cas-,ZnNb2TiO12 ceramics can be attributed to their mixture phases beyond x = 1. Moreover, the abrupt change in elastic properties observed for x >1 can also be correlated to the structural transformation of the materials from their phase pure form to mixture phases for higher extent of substitution of the concerned material . Ca4(ANb2Ti)012 (A = Mg, Zn) is the strongest compound with the maximum values for elastic properties . This could be due to the possible substitution of Mg/Zn ions with lesser radius [25] than Ca2+ in perovskite B-site of Ca(Cali4Nb2i4Tili4) O3 material to contribute more ordering and symmetry to the system [20]. All other compositions (x > 1) contain mixed-phases and for such mixed-phase samples, the mechanical properties are difficult to explain.