911 resultados para Null Hypothesis
Resumo:
La dernière décennie a connu un intérêt croissant pour les problèmes posés par les variables instrumentales faibles dans la littérature économétrique, c’est-à-dire les situations où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter. En effet, il est bien connu que lorsque les instruments sont faibles, les distributions des statistiques de Student, de Wald, du ratio de vraisemblance et du multiplicateur de Lagrange ne sont plus standard et dépendent souvent de paramètres de nuisance. Plusieurs études empiriques portant notamment sur les modèles de rendements à l’éducation [Angrist et Krueger (1991, 1995), Angrist et al. (1999), Bound et al. (1995), Dufour et Taamouti (2007)] et d’évaluation des actifs financiers (C-CAPM) [Hansen et Singleton (1982,1983), Stock et Wright (2000)], où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter, ont montré que l’utilisation de ces statistiques conduit souvent à des résultats peu fiables. Un remède à ce problème est l’utilisation de tests robustes à l’identification [Anderson et Rubin (1949), Moreira (2002), Kleibergen (2003), Dufour et Taamouti (2007)]. Cependant, il n’existe aucune littérature économétrique sur la qualité des procédures robustes à l’identification lorsque les instruments disponibles sont endogènes ou à la fois endogènes et faibles. Cela soulève la question de savoir ce qui arrive aux procédures d’inférence robustes à l’identification lorsque certaines variables instrumentales supposées exogènes ne le sont pas effectivement. Plus précisément, qu’arrive-t-il si une variable instrumentale invalide est ajoutée à un ensemble d’instruments valides? Ces procédures se comportent-elles différemment? Et si l’endogénéité des variables instrumentales pose des difficultés majeures à l’inférence statistique, peut-on proposer des procédures de tests qui sélectionnent les instruments lorsqu’ils sont à la fois forts et valides? Est-il possible de proposer les proédures de sélection d’instruments qui demeurent valides même en présence d’identification faible? Cette thèse se focalise sur les modèles structurels (modèles à équations simultanées) et apporte des réponses à ces questions à travers quatre essais. Le premier essai est publié dans Journal of Statistical Planning and Inference 138 (2008) 2649 – 2661. Dans cet essai, nous analysons les effets de l’endogénéité des instruments sur deux statistiques de test robustes à l’identification: la statistique d’Anderson et Rubin (AR, 1949) et la statistique de Kleibergen (K, 2003), avec ou sans instruments faibles. D’abord, lorsque le paramètre qui contrôle l’endogénéité des instruments est fixe (ne dépend pas de la taille de l’échantillon), nous montrons que toutes ces procédures sont en général convergentes contre la présence d’instruments invalides (c’est-à-dire détectent la présence d’instruments invalides) indépendamment de leur qualité (forts ou faibles). Nous décrivons aussi des cas où cette convergence peut ne pas tenir, mais la distribution asymptotique est modifiée d’une manière qui pourrait conduire à des distorsions de niveau même pour de grands échantillons. Ceci inclut, en particulier, les cas où l’estimateur des double moindres carrés demeure convergent, mais les tests sont asymptotiquement invalides. Ensuite, lorsque les instruments sont localement exogènes (c’est-à-dire le paramètre d’endogénéité converge vers zéro lorsque la taille de l’échantillon augmente), nous montrons que ces tests convergent vers des distributions chi-carré non centrées, que les instruments soient forts ou faibles. Nous caractérisons aussi les situations où le paramètre de non centralité est nul et la distribution asymptotique des statistiques demeure la même que dans le cas des instruments valides (malgré la présence des instruments invalides). Le deuxième essai étudie l’impact des instruments faibles sur les tests de spécification du type Durbin-Wu-Hausman (DWH) ainsi que le test de Revankar et Hartley (1973). Nous proposons une analyse en petit et grand échantillon de la distribution de ces tests sous l’hypothèse nulle (niveau) et l’alternative (puissance), incluant les cas où l’identification est déficiente ou faible (instruments faibles). Notre analyse en petit échantillon founit plusieurs perspectives ainsi que des extensions des précédentes procédures. En effet, la caractérisation de la distribution de ces statistiques en petit échantillon permet la construction des tests de Monte Carlo exacts pour l’exogénéité même avec les erreurs non Gaussiens. Nous montrons que ces tests sont typiquement robustes aux intruments faibles (le niveau est contrôlé). De plus, nous fournissons une caractérisation de la puissance des tests, qui exhibe clairement les facteurs qui déterminent la puissance. Nous montrons que les tests n’ont pas de puissance lorsque tous les instruments sont faibles [similaire à Guggenberger(2008)]. Cependant, la puissance existe tant qu’au moins un seul instruments est fort. La conclusion de Guggenberger (2008) concerne le cas où tous les instruments sont faibles (un cas d’intérêt mineur en pratique). Notre théorie asymptotique sous les hypothèses affaiblies confirme la théorie en échantillon fini. Par ailleurs, nous présentons une analyse de Monte Carlo indiquant que: (1) l’estimateur des moindres carrés ordinaires est plus efficace que celui des doubles moindres carrés lorsque les instruments sont faibles et l’endogenéité modérée [conclusion similaire à celle de Kiviet and Niemczyk (2007)]; (2) les estimateurs pré-test basés sur les tests d’exogenété ont une excellente performance par rapport aux doubles moindres carrés. Ceci suggère que la méthode des variables instrumentales ne devrait être appliquée que si l’on a la certitude d’avoir des instruments forts. Donc, les conclusions de Guggenberger (2008) sont mitigées et pourraient être trompeuses. Nous illustrons nos résultats théoriques à travers des expériences de simulation et deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le problème bien connu du rendement à l’éducation. Le troisième essai étend le test d’exogénéité du type Wald proposé par Dufour (1987) aux cas où les erreurs de la régression ont une distribution non-normale. Nous proposons une nouvelle version du précédent test qui est valide même en présence d’erreurs non-Gaussiens. Contrairement aux procédures de test d’exogénéité usuelles (tests de Durbin-Wu-Hausman et de Rvankar- Hartley), le test de Wald permet de résoudre un problème courant dans les travaux empiriques qui consiste à tester l’exogénéité partielle d’un sous ensemble de variables. Nous proposons deux nouveaux estimateurs pré-test basés sur le test de Wald qui performent mieux (en terme d’erreur quadratique moyenne) que l’estimateur IV usuel lorsque les variables instrumentales sont faibles et l’endogénéité modérée. Nous montrons également que ce test peut servir de procédure de sélection de variables instrumentales. Nous illustrons les résultats théoriques par deux applications empiriques: le modèle bien connu d’équation du salaire [Angist et Krueger (1991, 1999)] et les rendements d’échelle [Nerlove (1963)]. Nos résultats suggèrent que l’éducation de la mère expliquerait le décrochage de son fils, que l’output est une variable endogène dans l’estimation du coût de la firme et que le prix du fuel en est un instrument valide pour l’output. Le quatrième essai résout deux problèmes très importants dans la littérature économétrique. D’abord, bien que le test de Wald initial ou étendu permette de construire les régions de confiance et de tester les restrictions linéaires sur les covariances, il suppose que les paramètres du modèle sont identifiés. Lorsque l’identification est faible (instruments faiblement corrélés avec la variable à instrumenter), ce test n’est en général plus valide. Cet essai développe une procédure d’inférence robuste à l’identification (instruments faibles) qui permet de construire des régions de confiance pour la matrices de covariances entre les erreurs de la régression et les variables explicatives (possiblement endogènes). Nous fournissons les expressions analytiques des régions de confiance et caractérisons les conditions nécessaires et suffisantes sous lesquelles ils sont bornés. La procédure proposée demeure valide même pour de petits échantillons et elle est aussi asymptotiquement robuste à l’hétéroscédasticité et l’autocorrélation des erreurs. Ensuite, les résultats sont utilisés pour développer les tests d’exogénéité partielle robustes à l’identification. Les simulations Monte Carlo indiquent que ces tests contrôlent le niveau et ont de la puissance même si les instruments sont faibles. Ceci nous permet de proposer une procédure valide de sélection de variables instrumentales même s’il y a un problème d’identification. La procédure de sélection des instruments est basée sur deux nouveaux estimateurs pré-test qui combinent l’estimateur IV usuel et les estimateurs IV partiels. Nos simulations montrent que: (1) tout comme l’estimateur des moindres carrés ordinaires, les estimateurs IV partiels sont plus efficaces que l’estimateur IV usuel lorsque les instruments sont faibles et l’endogénéité modérée; (2) les estimateurs pré-test ont globalement une excellente performance comparés à l’estimateur IV usuel. Nous illustrons nos résultats théoriques par deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le modèle de rendements à l’éducation. Dans la première application, les études antérieures ont conclu que les instruments n’étaient pas trop faibles [Dufour et Taamouti (2007)] alors qu’ils le sont fortement dans la seconde [Bound (1995), Doko et Dufour (2009)]. Conformément à nos résultats théoriques, nous trouvons les régions de confiance non bornées pour la covariance dans le cas où les instruments sont assez faibles.
Resumo:
Most panel unit root tests are designed to test the joint null hypothesis of a unit root for each individual series in a panel. After a rejection, it will often be of interest to identify which series can be deemed to be stationary and which series can be deemed nonstationary. Researchers will sometimes carry out this classification on the basis of n individual (univariate) unit root tests based on some ad hoc significance level. In this paper, we demonstrate how to use the false discovery rate (FDR) in evaluating I(1)=I(0) classifications based on individual unit root tests when the size of the cross section (n) and time series (T) dimensions are large. We report results from a simulation experiment and illustrate the methods on two data sets.
Resumo:
Les modèles de séries chronologiques avec variances conditionnellement hétéroscédastiques sont devenus quasi incontournables afin de modéliser les séries chronologiques dans le contexte des données financières. Dans beaucoup d'applications, vérifier l'existence d'une relation entre deux séries chronologiques représente un enjeu important. Dans ce mémoire, nous généralisons dans plusieurs directions et dans un cadre multivarié, la procédure dévéloppée par Cheung et Ng (1996) conçue pour examiner la causalité en variance dans le cas de deux séries univariées. Reposant sur le travail de El Himdi et Roy (1997) et Duchesne (2004), nous proposons un test basé sur les matrices de corrélation croisée des résidus standardisés carrés et des produits croisés de ces résidus. Sous l'hypothèse nulle de l'absence de causalité en variance, nous établissons que les statistiques de test convergent en distribution vers des variables aléatoires khi-carrées. Dans une deuxième approche, nous définissons comme dans Ling et Li (1997) une transformation des résidus pour chaque série résiduelle vectorielle. Les statistiques de test sont construites à partir des corrélations croisées de ces résidus transformés. Dans les deux approches, des statistiques de test pour les délais individuels sont proposées ainsi que des tests de type portemanteau. Cette méthodologie est également utilisée pour déterminer la direction de la causalité en variance. Les résultats de simulation montrent que les tests proposés offrent des propriétés empiriques satisfaisantes. Une application avec des données réelles est également présentée afin d'illustrer les méthodes
Resumo:
The central hypothesis to be tested is the relevance of gold in the determination of the value of the US dollar as an international reserve currency after 1971. In the first section the market value of the US dollar is analysed by looking at new forms of value (financial derivative products), the dollar as a safe haven, the choice of a standard of value and the role of SDRs in reforming the international monetary system. Based on dimensional analysis, the second section analyses the definition and meaning of a numéraire for international currency and the justification for a variable standard of value based on a commodity (gold). The second section is the theoretical foundation for the empirical and econometric analysis in the third and fourth sections. The third section is devoted to the specification of an econometric model and a graphical analysis of the data. It is clear that an inverse relation exists between the value of the US dollar and the price of gold. The fourth section shows the estimations of the different specifications of the model including linear regression and cointegration analysis. The most important econometric result is that the null hypothesis is rejected in favour of a significant link between the price of gold and the value of the US dollar. There is also a positive relationship between gold price and inflation. An inverse statistically significant relation between gold price and monetary policy is shown by applying a dynamic model of cointegration with lags.
Resumo:
Le but de cette thèse est d étendre la théorie du bootstrap aux modèles de données de panel. Les données de panel s obtiennent en observant plusieurs unités statistiques sur plusieurs périodes de temps. Leur double dimension individuelle et temporelle permet de contrôler l 'hétérogénéité non observable entre individus et entre les périodes de temps et donc de faire des études plus riches que les séries chronologiques ou les données en coupe instantanée. L 'avantage du bootstrap est de permettre d obtenir une inférence plus précise que celle avec la théorie asymptotique classique ou une inférence impossible en cas de paramètre de nuisance. La méthode consiste à tirer des échantillons aléatoires qui ressemblent le plus possible à l échantillon d analyse. L 'objet statitstique d intérêt est estimé sur chacun de ses échantillons aléatoires et on utilise l ensemble des valeurs estimées pour faire de l inférence. Il existe dans la littérature certaines application du bootstrap aux données de panels sans justi cation théorique rigoureuse ou sous de fortes hypothèses. Cette thèse propose une méthode de bootstrap plus appropriée aux données de panels. Les trois chapitres analysent sa validité et son application. Le premier chapitre postule un modèle simple avec un seul paramètre et s 'attaque aux propriétés théoriques de l estimateur de la moyenne. Nous montrons que le double rééchantillonnage que nous proposons et qui tient compte à la fois de la dimension individuelle et la dimension temporelle est valide avec ces modèles. Le rééchantillonnage seulement dans la dimension individuelle n est pas valide en présence d hétérogénéité temporelle. Le ré-échantillonnage dans la dimension temporelle n est pas valide en présence d'hétérogénéité individuelle. Le deuxième chapitre étend le précédent au modèle panel de régression. linéaire. Trois types de régresseurs sont considérés : les caractéristiques individuelles, les caractéristiques temporelles et les régresseurs qui évoluent dans le temps et par individu. En utilisant un modèle à erreurs composées doubles, l'estimateur des moindres carrés ordinaires et la méthode de bootstrap des résidus, on montre que le rééchantillonnage dans la seule dimension individuelle est valide pour l'inférence sur les coe¢ cients associés aux régresseurs qui changent uniquement par individu. Le rééchantillonnage dans la dimen- sion temporelle est valide seulement pour le sous vecteur des paramètres associés aux régresseurs qui évoluent uniquement dans le temps. Le double rééchantillonnage est quand à lui est valide pour faire de l inférence pour tout le vecteur des paramètres. Le troisième chapitre re-examine l exercice de l estimateur de différence en di¤érence de Bertrand, Duflo et Mullainathan (2004). Cet estimateur est couramment utilisé dans la littérature pour évaluer l impact de certaines poli- tiques publiques. L exercice empirique utilise des données de panel provenant du Current Population Survey sur le salaire des femmes dans les 50 états des Etats-Unis d Amérique de 1979 à 1999. Des variables de pseudo-interventions publiques au niveau des états sont générées et on s attend à ce que les tests arrivent à la conclusion qu il n y a pas d e¤et de ces politiques placebos sur le salaire des femmes. Bertrand, Du o et Mullainathan (2004) montre que la non-prise en compte de l hétérogénéité et de la dépendance temporelle entraîne d importantes distorsions de niveau de test lorsqu'on évalue l'impact de politiques publiques en utilisant des données de panel. Une des solutions préconisées est d utiliser la méthode de bootstrap. La méthode de double ré-échantillonnage développée dans cette thèse permet de corriger le problème de niveau de test et donc d'évaluer correctement l'impact des politiques publiques.
Resumo:
Les données provenant de l'échantillonnage fin d'un processus continu (champ aléatoire) peuvent être représentées sous forme d'images. Un test statistique permettant de détecter une différence entre deux images peut être vu comme un ensemble de tests où chaque pixel est comparé au pixel correspondant de l'autre image. On utilise alors une méthode de contrôle de l'erreur de type I au niveau de l'ensemble de tests, comme la correction de Bonferroni ou le contrôle du taux de faux-positifs (FDR). Des méthodes d'analyse de données ont été développées en imagerie médicale, principalement par Keith Worsley, utilisant la géométrie des champs aléatoires afin de construire un test statistique global sur une image entière. Il s'agit d'utiliser l'espérance de la caractéristique d'Euler de l'ensemble d'excursion du champ aléatoire sous-jacent à l'échantillon au-delà d'un seuil donné, pour déterminer la probabilité que le champ aléatoire dépasse ce même seuil sous l'hypothèse nulle (inférence topologique). Nous exposons quelques notions portant sur les champs aléatoires, en particulier l'isotropie (la fonction de covariance entre deux points du champ dépend seulement de la distance qui les sépare). Nous discutons de deux méthodes pour l'analyse des champs anisotropes. La première consiste à déformer le champ puis à utiliser les volumes intrinsèques et les compacités de la caractéristique d'Euler. La seconde utilise plutôt les courbures de Lipschitz-Killing. Nous faisons ensuite une étude de niveau et de puissance de l'inférence topologique en comparaison avec la correction de Bonferroni. Finalement, nous utilisons l'inférence topologique pour décrire l'évolution du changement climatique sur le territoire du Québec entre 1991 et 2100, en utilisant des données de température simulées et publiées par l'Équipe Simulations climatiques d'Ouranos selon le modèle régional canadien du climat.
Resumo:
Introducción: El objetivo principal de la selección del donante es disminuir la posibilidad de transmisión de enfermedades infecciosas o neoplásicas en el receptor. De forma cruda se calcula que aproximadamente el 50% de los potenciales donantes son contraindicados, la mayoría por infección. La alta demanda de órganos obliga a revalorar las contraindicaciones que hasta hace poco eran absolutas, el reto es diferenciar el SIRS del donante por Muerte Encefálica con el SIRS por infecciones. Método: Estudio de cohorte retrospectivo; que busca evaluar la respuesta inflamatoria sistémica (SIRS) como predictor de infección en pacientes con trasplante renal en el primer mes pos trasplante. Resultados: El contraste de hipótesis proporciono una significancia bilateral (P= 0,071). La pruebas de hipótesis aceptaron la hipótesis nula (P= 0,071), que no existe asociación entre la presencia de SIRS en el donante con la incidencia de infección en el primer mes del pos trasplante renal. La estimación del riesgo de no reingreso por infección al primer mes pos trasplante renal es de 0.881 veces para los donantes con SIRS (IC 0.757 – 1.025). Conclusión: A pesar de no encontrar significancia estadística: el SIRS en el donante no se asocia con un aumento en la incidencia de infección en el primer mes postrasplante. Para encontrar la significancia se propone un estudio con un tamaño de muestra mayor.
Resumo:
Introducción: La OMS revela que en 2010 alrededor de 43 millones de niños menores de 5 años presentan sobrepeso. En Colombia según la Encuesta Nacional de Situación Nutricional en Colombia en su versión 2005, mostraba una prevalencia general de sobrepeso de 3.1% niños de 0 a 4 años. Es una condición de salud de origen multifactorial en la que interviene factores genéticos, ambientales, maternos y perinatales. Objetivo: Establecer la asociación de riesgo entre el bajo peso al nacer y el desarrollo de sobrepeso y obesidad en niños de 4 a 5 años. Metodología: Se realizó un estudio observacional descriptivo retrospectivo de corte transversal con los datos nutricionales, maternos y perinatales de la Encuesta Nacional de Demografía en Salud del año 2010 en Colombia. Se analizó la asociación entre la variable independiente bajo peso al nacer con el desenlace sobrepeso y obesidad en menores de 4 a 5 años, usando como medida el IMC según la edad. Se realizaron análisis univariados, bivariados y de regresión logística con un modelo de riesgo según las variables que inciden en el desenlace y la variable independiente. Resultados: La muestra obtenida para el estudio fue de 2166 niños de 4 a 5 años de edad quienes cumplían los criterios de inclusión. La prevalencia de sobrepeso u obesidad en la primera infancia fue de 21.8% (472) y el bajo peso al nacer. Los resultados sugieren la asociación de bajo peso y sobrepeso u obesidad es de ORajustado= 0.560 (0.356 – 0.881). Conclusiones: Los resultados sugieren que existe una asociación como factor protector entre el bajo peso y el sobrepeso u obesidad en la primera infancia. Sin embargo, debido al comportamiento de las variables consideradas en la muestra no hay suficiente información para rechazar completamente la hipótesis nula.
Resumo:
Whereas the predominance of El Niño Southern Oscillation (ENSO) mode in the tropical Pacific sea surface temperature (SST) variability is well established, no such consensus seems to have been reached by climate scientists regarding the Indian Ocean. While a number of researchers think that the Indian Ocean SST variability is dominated by an active dipolar-type mode of variability, similar to ENSO, others suggest that the variability is mostly passive and behaves like an autocorrelated noise. For example, it is suggested recently that the Indian Ocean SST variability is consistent with the null hypothesis of a homogeneous diffusion process. However, the existence of the basin-wide warming trend represents a deviation from a homogeneous diffusion process, which needs to be considered. An efficient way of detrending, based on differencing, is introduced and applied to the Hadley Centre ice and SST. The filtered SST anomalies over the basin (23.5N-29.5S, 30.5E-119.5E) are then analysed and found to be inconsistent with the null hypothesis on intraseasonal and interannual timescales. The same differencing method is then applied to the smaller tropical Indian Ocean domain. This smaller domain is also inconsistent with the null hypothesis on intraseasonal and interannual timescales. In particular, it is found that the leading mode of variability yields the Indian Ocean dipole, and departs significantly from the null hypothesis only in the autumn season.
Resumo:
The Cape Floristic Region is exceptionally species-rich both for its area and latitude, and this diversity is highly unevenly distributed among genera. The modern flora is hypothesized to result largely from recent (post-Oligocene) speciation, and it has long been speculated that particular species-poor lineages pre-date this burst of speciation. Here, we employ molecular phylogenetic data in combination with fossil calibrations to estimate the minimum duration of Cape occupation by 14 unrelated putative relicts. Estimates vary widely between lineages (7-101 Myr ago), and when compared with the estimated timing of onset of the modern flora's radiation, it is clear that many, but possibly not all, of these lineages pre-date its establishment. Statistical comparisons of diversities with lineage age show that low species diversity of many of the putative relicts results from a lower rate of diversification than in dated Cape radiations. In other putative relicts, however, we cannot reject the possibility that they diversify at the same underlying rate as the radiations, but have been present in the Cape for insufficient time to accumulate higher diversity. Although the extremes in diversity of currently dated Cape lineages fall outside expectations under a underlying diversification rate, sampling of all Cape lineages would be required to reject this null hypothesis.
Resumo:
Background: This study was carried out as part of a European Union funded project (PharmDIS-e+), to develop and evaluate software aimed at assisting physicians with drug dosing. A drug that causes particular problems with drug dosing in primary care is digoxin because of its narrow therapeutic range and low therapeutic index. Objectives: To determine (i) accuracy of the PharmDIS-e+ software for predicting serum digoxin levels in patients who are taking this drug regularly; (ii) whether there are statistically significant differences between predicted digoxin levels and those measured by a laboratory and (iii) whether there are differences between doses prescribed by general practitioners and those suggested by the program. Methods: We needed 45 patients to have 95% Power to reject the null hypothesis that the mean serum digoxin concentration was within 10% of the mean predicted digoxin concentration. Patients were recruited from two general practices and had been taking digoxin for at least 4 months. Exclusion criteria were dementia, low adherence to digoxin and use of other medications known to interact to a clinically important extent with digoxin. Results: Forty-five patients were recruited. There was a correlation of 0·65 between measured and predicted digoxin concentrations (P < 0·001). The mean difference was 0·12 μg/L (SD 0·26; 95% CI 0·04, 0·19, P = 0·005). Forty-seven per cent of the patients were prescribed the same dose as recommended by the software, 44% were prescribed a higher dose and 9% a lower dose than recommended. Conclusion: PharmDIS-e+ software was able to predict serum digoxin levels with acceptable accuracy in most patients.
Resumo:
Fluctuations in the solar wind plasma and magnetic field are well described by the sum of two power law distributions. It has been postulated that these distributions are the result of two independent processes: turbulence, which contributes mainly to the smaller fluctuations, and crossing the boundaries of flux tubes of coronal origin, which dominates the larger variations. In this study we explore the correspondence between changes in the magnetic field with changes in other solar wind properties. Changes in density and temperature may result from either turbulence or coronal structures, whereas changes in composition, such as the alpha-to-proton ratio are unlikely to arise from in-transit effects. Observations spanning the entire ACE dataset are compared with a null hypothesis of no correlation between magnetic field discontinuities and changes in other solar wind parameters. Evidence for coronal structuring is weaker than for in-transit turbulence, with only ∼ 25% of large magnetic field discontinuities associated with a significant change in the alpha-to-proton ratio, compared to ∼ 40% for significant density and temperature changes. However, note that a lack of detectable alpha-to-proton signature is not sufficient to discount a structure as having a solar origin.
Resumo:
This paper investigates the relationship between lease maturity and rent in commercial property. Over the last decade market-led changes to lease structures, the threat of government intervention and the associated emergence of the Codes of Practice for commercial leases have stimulated growing interest in pricing of commercial property leases. Seminal work by Grenadier (1995) derived a set of hypotheses about the pricing of different lease lengths in different market conditions. Whilst there is a compelling theoretical case for and a strong intuitive expectation of differential pricing of different lease maturities, to date the empirical evidence is inconclusive. Two Swedish studies have found mixed results (Gunnelin and Soderbergh 2003 and Englund et al 2003). In only half the cases is the null hypothesis that lease length has no effect rejected. In the UK, Crosby et al (2003) report counterintuitive results. In some markets, they find that short lease terms are associated with low rents, whilst in others they are associated with high rents. Drawing upon a substantial database of commercial lettings in central London (West End and City of London) over the last decade, we investigate the relationship between rent and lease maturity. In particular, we test whether a building quality variable omitted in previous studies provides empirical results that are more consistent with the theoretical and intuitive a priori expectations. It is found that initial leases rates are upward sloping with the lease term and that this relationship is constant over time.
Resumo:
This paper considers the effect of GARCH errors on the tests proposed byPerron (1997) for a unit root in the presence of a structural break. We assessthe impact of degeneracy and integratedness of the conditional varianceindividually and find that, apart from in the limit, the testing procedure isinsensitive to the degree of degeneracy but does exhibit an increasingover-sizing as the process becomes more integrated. When we consider the GARCHspecifications that we are likely to encounter in empirical research, we findthat the Perron tests are reasonably robust to the presence of GARCH and donot suffer from severe over-or under-rejection of a correct null hypothesis.
Resumo:
Many key economic and financial series are bounded either by construction or through policy controls. Conventional unit root tests are potentially unreliable in the presence of bounds, since they tend to over-reject the null hypothesis of a unit root, even asymptotically. So far, very little work has been undertaken to develop unit root tests which can be applied to bounded time series. In this paper we address this gap in the literature by proposing unit root tests which are valid in the presence of bounds. We present new augmented Dickey–Fuller type tests as well as new versions of the modified ‘M’ tests developed by Ng and Perron [Ng, S., Perron, P., 2001. LAG length selection and the construction of unit root tests with good size and power. Econometrica 69, 1519–1554] and demonstrate how these tests, combined with a simulation-based method to retrieve the relevant critical values, make it possible to control size asymptotically. A Monte Carlo study suggests that the proposed tests perform well in finite samples. Moreover, the tests outperform the Phillips–Perron type tests originally proposed in Cavaliere [Cavaliere, G., 2005. Limited time series with a unit root. Econometric Theory 21, 907–945]. An illustrative application to U.S. interest rate data is provided