804 resultados para Null hypothesis


Relevância:

60.00% 60.00%

Publicador:

Resumo:

In the literature, introduced taxa are assumed to be present, more abundant, and occupy greater physical space in portions of ecosystems disturbed by human activity. This study tested this principle in two sites, Short Hills provincial Park ("SHU) and Backus Woods ("B~l"). spatial distribution of introduced taxa of vegetation, isopods, and earthworms was determined with the runs test along 300m transects encompassing gradients of anthropogenic disturbance severity. The hypothesis was that introduced taxa would be aggregated along these transects; the null hypothesis was that they would not be aggregated. The null hypothesis was rejected for the introduced taxa as a unit, and vegetation and earthworms individually. Introduced taxa were aggregated along 53.33% (N~30) and 57.14% (N~21) of the transects in SH and BW (respectively). Introduced vegetation (90.00%, N~10 and 100.00%, N~7) and earthworms (50.00%, N~10 and 50.00%, N~8) were also significantly aggregated within the sites. Introduced isopods, however, were not significantly aggregated at either place (20. 00%, N-=10 and 16. 67%, ~J~6). This study demonstrated that introduced taxa are aggregated within ecosystems disturbed by human activity. However, since introduced isopods were not significantly aggregated it was also shown that taxa respond differently.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

A wide range of tests for heteroskedasticity have been proposed in the econometric and statistics literature. Although a few exact homoskedasticity tests are available, the commonly employed procedures are quite generally based on asymptotic approximations which may not provide good size control in finite samples. There has been a number of recent studies that seek to improve the reliability of common heteroskedasticity tests using Edgeworth, Bartlett, jackknife and bootstrap methods. Yet the latter remain approximate. In this paper, we describe a solution to the problem of controlling the size of homoskedasticity tests in linear regression contexts. We study procedures based on the standard test statistics [e.g., the Goldfeld-Quandt, Glejser, Bartlett, Cochran, Hartley, Breusch-Pagan-Godfrey, White and Szroeter criteria] as well as tests for autoregressive conditional heteroskedasticity (ARCH-type models). We also suggest several extensions of the existing procedures (sup-type of combined test statistics) to allow for unknown breakpoints in the error variance. We exploit the technique of Monte Carlo tests to obtain provably exact p-values, for both the standard and the new tests suggested. We show that the MC test procedure conveniently solves the intractable null distribution problem, in particular those raised by the sup-type and combined test statistics as well as (when relevant) unidentified nuisance parameter problems under the null hypothesis. The method proposed works in exactly the same way with both Gaussian and non-Gaussian disturbance distributions [such as heavy-tailed or stable distributions]. The performance of the procedures is examined by simulation. The Monte Carlo experiments conducted focus on : (1) ARCH, GARCH, and ARCH-in-mean alternatives; (2) the case where the variance increases monotonically with : (i) one exogenous variable, and (ii) the mean of the dependent variable; (3) grouped heteroskedasticity; (4) breaks in variance at unknown points. We find that the proposed tests achieve perfect size control and have good power.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

This paper studies testing for a unit root for large n and T panels in which the cross-sectional units are correlated. To model this cross-sectional correlation, we assume that the data is generated by an unknown number of unobservable common factors. We propose unit root tests in this environment and derive their (Gaussian) asymptotic distribution under the null hypothesis of a unit root and local alternatives. We show that these tests have significant asymptotic power when the model has no incidental trends. However, when there are incidental trends in the model and it is necessary to remove heterogeneous deterministic components, we show that these tests have no power against the same local alternatives. Through Monte Carlo simulations, we provide evidence on the finite sample properties of these new tests.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Ce texte propose des méthodes d’inférence exactes (tests et régions de confiance) sur des modèles de régression linéaires avec erreurs autocorrélées suivant un processus autorégressif d’ordre deux [AR(2)], qui peut être non stationnaire. L’approche proposée est une généralisation de celle décrite dans Dufour (1990) pour un modèle de régression avec erreurs AR(1) et comporte trois étapes. Premièrement, on construit une région de confiance exacte pour le vecteur des coefficients du processus autorégressif (φ). Cette région est obtenue par inversion de tests d’indépendance des erreurs sur une forme transformée du modèle contre des alternatives de dépendance aux délais un et deux. Deuxièmement, en exploitant la dualité entre tests et régions de confiance (inversion de tests), on détermine une région de confiance conjointe pour le vecteur φ et un vecteur d’intérêt M de combinaisons linéaires des coefficients de régression du modèle. Troisièmement, par une méthode de projection, on obtient des intervalles de confiance «marginaux» ainsi que des tests à bornes exacts pour les composantes de M. Ces méthodes sont appliquées à des modèles du stock de monnaie (M2) et du niveau des prix (indice implicite du PNB) américains

Relevância:

60.00% 60.00%

Publicador:

Resumo:

This paper employs the one-sector Real Business Cycle model as a testing ground for four different procedures to estimate Dynamic Stochastic General Equilibrium (DSGE) models. The procedures are: 1 ) Maximum Likelihood, with and without measurement errors and incorporating Bayesian priors, 2) Generalized Method of Moments, 3) Simulated Method of Moments, and 4) Indirect Inference. Monte Carlo analysis indicates that all procedures deliver reasonably good estimates under the null hypothesis. However, there are substantial differences in statistical and computational efficiency in the small samples currently available to estimate DSGE models. GMM and SMM appear to be more robust to misspecification than the alternative procedures. The implications of the stochastic singularity of DSGE models for each estimation method are fully discussed.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

L’augmentation de la population âgée dans la société indique que les systèmes de soins de la santé font face à de nouveaux défis. Les hauts niveaux d’incapacité qui en résultent peuvent être réduits par les nouvelles technologies, la promotion de la santé ainsi que des stratégies de prévention. Les écrits scientifiques récents soulignent la supériorité des prothèses dentaires implanto-portées par rapport aux prothèses conventionnelles en termes de satisfaction et de qualité de la vie des patients. Cependant, il n'est toujours pas clair si ces avantages ont des effets positifs à long terme sur la santé orale et générale ainsi que sur la qualité de vie des populations âgées. Objectifs, Hypothèses : Notre but était de mesurer l’impact des prothèses mandibulaires retenues par 2 implants sur la qualité de vie associée à la santé bucco-dentaire et générale ainsi que sur la santé orale et la qualité du sommeil des aînés édentés. Nous avons évalué les hypothèses nulles suivantes : il n'y a aucune différence entre les individus portants des prothèses mandibulaires retenues par 2 implants (IODs) et ceux qui portent des prothèses conventionnelles (CDs), par rapport à la qualité de vie reliée à la santé bucco-dentaire et générale, la santé orale et la qualité du sommeil, un an après avoir reçu leurs nouvelles prothèses. Méthodes : Dans cette étude randomisée contrôlée, 255 aînés ont reçu au hasard IODs ou les CDs, les deux types de prothèses étant opposés à des prothèses maxillaires conventionnelles. La qualité de la vie reliée à la santé bucco-dentaire (OHRQoL) et la santé générale subjective ont été mesurées avec les questionnaires Oral Health Impact Profile (OHIP-20) et Short Form-36 (SF-36) en condition pré-traitement et après un an. La qualité du sommeil et la somnolence diurne ont été mesurées à l’aide du questionnaire Qualité de Sommeil de Pittsburg et de l'Échelle de Somnolence Epworth. La santé orale a été évaluée par un examen clinique. Les variables indépendantes étaient le sens de cohérence et le type de prosthèse, ainsi que des variables socio-démographiques. En utilisant des analyses statistiques bi et multi-factorielles, des comparaisons à l’intérieur d’un même groupe et entre deux groupes ont été effectuées. Résultats : Les différences pré et post traitement pour les cotes OHIP étaient significativement plus grandes pour le groupe IOD que le groupe CD (p<0.05). Le type de traitement et la cote pré-traitement étaient des facteurs significatifs à OHRQoL (p < 0.0001). Dans le groupe CD, il y avait une diminution significative par rapport aux cotes de «Physical Component Scores (PCS)», le fonctionnement physique, le rôle physique et la douleur physique entre les données pré-traitement et un an après le traitement, ce qui indique une diminution au niveau de la santé générale subjective. Dans le groupe IOD, une diminution statistiquement non significative a été remarquée par rapport à toutes les cotes des sous-échelles de SF-36, sauf pour la douleur physique. Le modèle final de régression a démontré qu’après ajustement pour les variables âge, sexe, statut marital et type de traitement, la cote totale finale d’OHIP et les données de bases de PCS prédisaient la cote finale de PCS (p < 0.0001). Aucune corrélation significative entre sens de cohérence et OHRQoL n'a été détectée (r =-0.1; p > 0.05). Les aînés porteurs des prothèses conventionnelles avaient presque 5 fois plus de chance d’avoir une stomatite prothétique que ceux portant des prothèses mandibulaires hybrides retenues par 2 implants (p < 0.0001). Les aînés ayant subjectivement une mauvaise santé générale avaient une qualité de sommeil moins bonne que ceux avec une meilleure santé générale subjective (p < 0.05). Les personnes qui avaient une OHRQoL moins bonne étaient presque 4 fois plus somnolentes pendant le jour que celles avec une meilleure OHRQoL (p=0.003, χ2; OR =3.8 CI 1.5 to 9.8). L'analyse de régression a montré que la santé générale subjective et OHRQoL prévoient la qualité du sommeil (p=0.022 et p=0.001, respectivement) et la somnolence diurne (p=0.017 et p=0.005, respectivement). Conclusions: Les résultats de cette étude suggèrent que, chez les aînés édentés, des prothèses mandibulaires hybrides retenues par deux implants amènent une amélioration significative de la qualité de vie reliée à la santé bucco-dentaire et maintiennent la sensation d’une meilleure santé physique. Des prothèses hybrides implanto-portées peuvent contribuer à la santé orale en réduisant les traumatismes infligés à la muqueuse orale et en contrôlant la stomatite prothétique. Les aînés édentés dont le niveau de qualité de vie reliée à la santé bucco-dentaire est bas, peuvent aussi avoir des troubles de qualité du sommeil.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

La dernière décennie a connu un intérêt croissant pour les problèmes posés par les variables instrumentales faibles dans la littérature économétrique, c’est-à-dire les situations où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter. En effet, il est bien connu que lorsque les instruments sont faibles, les distributions des statistiques de Student, de Wald, du ratio de vraisemblance et du multiplicateur de Lagrange ne sont plus standard et dépendent souvent de paramètres de nuisance. Plusieurs études empiriques portant notamment sur les modèles de rendements à l’éducation [Angrist et Krueger (1991, 1995), Angrist et al. (1999), Bound et al. (1995), Dufour et Taamouti (2007)] et d’évaluation des actifs financiers (C-CAPM) [Hansen et Singleton (1982,1983), Stock et Wright (2000)], où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter, ont montré que l’utilisation de ces statistiques conduit souvent à des résultats peu fiables. Un remède à ce problème est l’utilisation de tests robustes à l’identification [Anderson et Rubin (1949), Moreira (2002), Kleibergen (2003), Dufour et Taamouti (2007)]. Cependant, il n’existe aucune littérature économétrique sur la qualité des procédures robustes à l’identification lorsque les instruments disponibles sont endogènes ou à la fois endogènes et faibles. Cela soulève la question de savoir ce qui arrive aux procédures d’inférence robustes à l’identification lorsque certaines variables instrumentales supposées exogènes ne le sont pas effectivement. Plus précisément, qu’arrive-t-il si une variable instrumentale invalide est ajoutée à un ensemble d’instruments valides? Ces procédures se comportent-elles différemment? Et si l’endogénéité des variables instrumentales pose des difficultés majeures à l’inférence statistique, peut-on proposer des procédures de tests qui sélectionnent les instruments lorsqu’ils sont à la fois forts et valides? Est-il possible de proposer les proédures de sélection d’instruments qui demeurent valides même en présence d’identification faible? Cette thèse se focalise sur les modèles structurels (modèles à équations simultanées) et apporte des réponses à ces questions à travers quatre essais. Le premier essai est publié dans Journal of Statistical Planning and Inference 138 (2008) 2649 – 2661. Dans cet essai, nous analysons les effets de l’endogénéité des instruments sur deux statistiques de test robustes à l’identification: la statistique d’Anderson et Rubin (AR, 1949) et la statistique de Kleibergen (K, 2003), avec ou sans instruments faibles. D’abord, lorsque le paramètre qui contrôle l’endogénéité des instruments est fixe (ne dépend pas de la taille de l’échantillon), nous montrons que toutes ces procédures sont en général convergentes contre la présence d’instruments invalides (c’est-à-dire détectent la présence d’instruments invalides) indépendamment de leur qualité (forts ou faibles). Nous décrivons aussi des cas où cette convergence peut ne pas tenir, mais la distribution asymptotique est modifiée d’une manière qui pourrait conduire à des distorsions de niveau même pour de grands échantillons. Ceci inclut, en particulier, les cas où l’estimateur des double moindres carrés demeure convergent, mais les tests sont asymptotiquement invalides. Ensuite, lorsque les instruments sont localement exogènes (c’est-à-dire le paramètre d’endogénéité converge vers zéro lorsque la taille de l’échantillon augmente), nous montrons que ces tests convergent vers des distributions chi-carré non centrées, que les instruments soient forts ou faibles. Nous caractérisons aussi les situations où le paramètre de non centralité est nul et la distribution asymptotique des statistiques demeure la même que dans le cas des instruments valides (malgré la présence des instruments invalides). Le deuxième essai étudie l’impact des instruments faibles sur les tests de spécification du type Durbin-Wu-Hausman (DWH) ainsi que le test de Revankar et Hartley (1973). Nous proposons une analyse en petit et grand échantillon de la distribution de ces tests sous l’hypothèse nulle (niveau) et l’alternative (puissance), incluant les cas où l’identification est déficiente ou faible (instruments faibles). Notre analyse en petit échantillon founit plusieurs perspectives ainsi que des extensions des précédentes procédures. En effet, la caractérisation de la distribution de ces statistiques en petit échantillon permet la construction des tests de Monte Carlo exacts pour l’exogénéité même avec les erreurs non Gaussiens. Nous montrons que ces tests sont typiquement robustes aux intruments faibles (le niveau est contrôlé). De plus, nous fournissons une caractérisation de la puissance des tests, qui exhibe clairement les facteurs qui déterminent la puissance. Nous montrons que les tests n’ont pas de puissance lorsque tous les instruments sont faibles [similaire à Guggenberger(2008)]. Cependant, la puissance existe tant qu’au moins un seul instruments est fort. La conclusion de Guggenberger (2008) concerne le cas où tous les instruments sont faibles (un cas d’intérêt mineur en pratique). Notre théorie asymptotique sous les hypothèses affaiblies confirme la théorie en échantillon fini. Par ailleurs, nous présentons une analyse de Monte Carlo indiquant que: (1) l’estimateur des moindres carrés ordinaires est plus efficace que celui des doubles moindres carrés lorsque les instruments sont faibles et l’endogenéité modérée [conclusion similaire à celle de Kiviet and Niemczyk (2007)]; (2) les estimateurs pré-test basés sur les tests d’exogenété ont une excellente performance par rapport aux doubles moindres carrés. Ceci suggère que la méthode des variables instrumentales ne devrait être appliquée que si l’on a la certitude d’avoir des instruments forts. Donc, les conclusions de Guggenberger (2008) sont mitigées et pourraient être trompeuses. Nous illustrons nos résultats théoriques à travers des expériences de simulation et deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le problème bien connu du rendement à l’éducation. Le troisième essai étend le test d’exogénéité du type Wald proposé par Dufour (1987) aux cas où les erreurs de la régression ont une distribution non-normale. Nous proposons une nouvelle version du précédent test qui est valide même en présence d’erreurs non-Gaussiens. Contrairement aux procédures de test d’exogénéité usuelles (tests de Durbin-Wu-Hausman et de Rvankar- Hartley), le test de Wald permet de résoudre un problème courant dans les travaux empiriques qui consiste à tester l’exogénéité partielle d’un sous ensemble de variables. Nous proposons deux nouveaux estimateurs pré-test basés sur le test de Wald qui performent mieux (en terme d’erreur quadratique moyenne) que l’estimateur IV usuel lorsque les variables instrumentales sont faibles et l’endogénéité modérée. Nous montrons également que ce test peut servir de procédure de sélection de variables instrumentales. Nous illustrons les résultats théoriques par deux applications empiriques: le modèle bien connu d’équation du salaire [Angist et Krueger (1991, 1999)] et les rendements d’échelle [Nerlove (1963)]. Nos résultats suggèrent que l’éducation de la mère expliquerait le décrochage de son fils, que l’output est une variable endogène dans l’estimation du coût de la firme et que le prix du fuel en est un instrument valide pour l’output. Le quatrième essai résout deux problèmes très importants dans la littérature économétrique. D’abord, bien que le test de Wald initial ou étendu permette de construire les régions de confiance et de tester les restrictions linéaires sur les covariances, il suppose que les paramètres du modèle sont identifiés. Lorsque l’identification est faible (instruments faiblement corrélés avec la variable à instrumenter), ce test n’est en général plus valide. Cet essai développe une procédure d’inférence robuste à l’identification (instruments faibles) qui permet de construire des régions de confiance pour la matrices de covariances entre les erreurs de la régression et les variables explicatives (possiblement endogènes). Nous fournissons les expressions analytiques des régions de confiance et caractérisons les conditions nécessaires et suffisantes sous lesquelles ils sont bornés. La procédure proposée demeure valide même pour de petits échantillons et elle est aussi asymptotiquement robuste à l’hétéroscédasticité et l’autocorrélation des erreurs. Ensuite, les résultats sont utilisés pour développer les tests d’exogénéité partielle robustes à l’identification. Les simulations Monte Carlo indiquent que ces tests contrôlent le niveau et ont de la puissance même si les instruments sont faibles. Ceci nous permet de proposer une procédure valide de sélection de variables instrumentales même s’il y a un problème d’identification. La procédure de sélection des instruments est basée sur deux nouveaux estimateurs pré-test qui combinent l’estimateur IV usuel et les estimateurs IV partiels. Nos simulations montrent que: (1) tout comme l’estimateur des moindres carrés ordinaires, les estimateurs IV partiels sont plus efficaces que l’estimateur IV usuel lorsque les instruments sont faibles et l’endogénéité modérée; (2) les estimateurs pré-test ont globalement une excellente performance comparés à l’estimateur IV usuel. Nous illustrons nos résultats théoriques par deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le modèle de rendements à l’éducation. Dans la première application, les études antérieures ont conclu que les instruments n’étaient pas trop faibles [Dufour et Taamouti (2007)] alors qu’ils le sont fortement dans la seconde [Bound (1995), Doko et Dufour (2009)]. Conformément à nos résultats théoriques, nous trouvons les régions de confiance non bornées pour la covariance dans le cas où les instruments sont assez faibles.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Most panel unit root tests are designed to test the joint null hypothesis of a unit root for each individual series in a panel. After a rejection, it will often be of interest to identify which series can be deemed to be stationary and which series can be deemed nonstationary. Researchers will sometimes carry out this classification on the basis of n individual (univariate) unit root tests based on some ad hoc significance level. In this paper, we demonstrate how to use the false discovery rate (FDR) in evaluating I(1)=I(0) classifications based on individual unit root tests when the size of the cross section (n) and time series (T) dimensions are large. We report results from a simulation experiment and illustrate the methods on two data sets.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Les modèles de séries chronologiques avec variances conditionnellement hétéroscédastiques sont devenus quasi incontournables afin de modéliser les séries chronologiques dans le contexte des données financières. Dans beaucoup d'applications, vérifier l'existence d'une relation entre deux séries chronologiques représente un enjeu important. Dans ce mémoire, nous généralisons dans plusieurs directions et dans un cadre multivarié, la procédure dévéloppée par Cheung et Ng (1996) conçue pour examiner la causalité en variance dans le cas de deux séries univariées. Reposant sur le travail de El Himdi et Roy (1997) et Duchesne (2004), nous proposons un test basé sur les matrices de corrélation croisée des résidus standardisés carrés et des produits croisés de ces résidus. Sous l'hypothèse nulle de l'absence de causalité en variance, nous établissons que les statistiques de test convergent en distribution vers des variables aléatoires khi-carrées. Dans une deuxième approche, nous définissons comme dans Ling et Li (1997) une transformation des résidus pour chaque série résiduelle vectorielle. Les statistiques de test sont construites à partir des corrélations croisées de ces résidus transformés. Dans les deux approches, des statistiques de test pour les délais individuels sont proposées ainsi que des tests de type portemanteau. Cette méthodologie est également utilisée pour déterminer la direction de la causalité en variance. Les résultats de simulation montrent que les tests proposés offrent des propriétés empiriques satisfaisantes. Une application avec des données réelles est également présentée afin d'illustrer les méthodes

Relevância:

60.00% 60.00%

Publicador:

Resumo:

The central hypothesis to be tested is the relevance of gold in the determination of the value of the US dollar as an international reserve currency after 1971. In the first section the market value of the US dollar is analysed by looking at new forms of value (financial derivative products), the dollar as a safe haven, the choice of a standard of value and the role of SDRs in reforming the international monetary system. Based on dimensional analysis, the second section analyses the definition and meaning of a numéraire for international currency and the justification for a variable standard of value based on a commodity (gold). The second section is the theoretical foundation for the empirical and econometric analysis in the third and fourth sections. The third section is devoted to the specification of an econometric model and a graphical analysis of the data. It is clear that an inverse relation exists between the value of the US dollar and the price of gold. The fourth section shows the estimations of the different specifications of the model including linear regression and cointegration analysis. The most important econometric result is that the null hypothesis is rejected in favour of a significant link between the price of gold and the value of the US dollar. There is also a positive relationship between gold price and inflation. An inverse statistically significant relation between gold price and monetary policy is shown by applying a dynamic model of cointegration with lags.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Le but de cette thèse est d étendre la théorie du bootstrap aux modèles de données de panel. Les données de panel s obtiennent en observant plusieurs unités statistiques sur plusieurs périodes de temps. Leur double dimension individuelle et temporelle permet de contrôler l 'hétérogénéité non observable entre individus et entre les périodes de temps et donc de faire des études plus riches que les séries chronologiques ou les données en coupe instantanée. L 'avantage du bootstrap est de permettre d obtenir une inférence plus précise que celle avec la théorie asymptotique classique ou une inférence impossible en cas de paramètre de nuisance. La méthode consiste à tirer des échantillons aléatoires qui ressemblent le plus possible à l échantillon d analyse. L 'objet statitstique d intérêt est estimé sur chacun de ses échantillons aléatoires et on utilise l ensemble des valeurs estimées pour faire de l inférence. Il existe dans la littérature certaines application du bootstrap aux données de panels sans justi cation théorique rigoureuse ou sous de fortes hypothèses. Cette thèse propose une méthode de bootstrap plus appropriée aux données de panels. Les trois chapitres analysent sa validité et son application. Le premier chapitre postule un modèle simple avec un seul paramètre et s 'attaque aux propriétés théoriques de l estimateur de la moyenne. Nous montrons que le double rééchantillonnage que nous proposons et qui tient compte à la fois de la dimension individuelle et la dimension temporelle est valide avec ces modèles. Le rééchantillonnage seulement dans la dimension individuelle n est pas valide en présence d hétérogénéité temporelle. Le ré-échantillonnage dans la dimension temporelle n est pas valide en présence d'hétérogénéité individuelle. Le deuxième chapitre étend le précédent au modèle panel de régression. linéaire. Trois types de régresseurs sont considérés : les caractéristiques individuelles, les caractéristiques temporelles et les régresseurs qui évoluent dans le temps et par individu. En utilisant un modèle à erreurs composées doubles, l'estimateur des moindres carrés ordinaires et la méthode de bootstrap des résidus, on montre que le rééchantillonnage dans la seule dimension individuelle est valide pour l'inférence sur les coe¢ cients associés aux régresseurs qui changent uniquement par individu. Le rééchantillonnage dans la dimen- sion temporelle est valide seulement pour le sous vecteur des paramètres associés aux régresseurs qui évoluent uniquement dans le temps. Le double rééchantillonnage est quand à lui est valide pour faire de l inférence pour tout le vecteur des paramètres. Le troisième chapitre re-examine l exercice de l estimateur de différence en di¤érence de Bertrand, Duflo et Mullainathan (2004). Cet estimateur est couramment utilisé dans la littérature pour évaluer l impact de certaines poli- tiques publiques. L exercice empirique utilise des données de panel provenant du Current Population Survey sur le salaire des femmes dans les 50 états des Etats-Unis d Amérique de 1979 à 1999. Des variables de pseudo-interventions publiques au niveau des états sont générées et on s attend à ce que les tests arrivent à la conclusion qu il n y a pas d e¤et de ces politiques placebos sur le salaire des femmes. Bertrand, Du o et Mullainathan (2004) montre que la non-prise en compte de l hétérogénéité et de la dépendance temporelle entraîne d importantes distorsions de niveau de test lorsqu'on évalue l'impact de politiques publiques en utilisant des données de panel. Une des solutions préconisées est d utiliser la méthode de bootstrap. La méthode de double ré-échantillonnage développée dans cette thèse permet de corriger le problème de niveau de test et donc d'évaluer correctement l'impact des politiques publiques.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Les données provenant de l'échantillonnage fin d'un processus continu (champ aléatoire) peuvent être représentées sous forme d'images. Un test statistique permettant de détecter une différence entre deux images peut être vu comme un ensemble de tests où chaque pixel est comparé au pixel correspondant de l'autre image. On utilise alors une méthode de contrôle de l'erreur de type I au niveau de l'ensemble de tests, comme la correction de Bonferroni ou le contrôle du taux de faux-positifs (FDR). Des méthodes d'analyse de données ont été développées en imagerie médicale, principalement par Keith Worsley, utilisant la géométrie des champs aléatoires afin de construire un test statistique global sur une image entière. Il s'agit d'utiliser l'espérance de la caractéristique d'Euler de l'ensemble d'excursion du champ aléatoire sous-jacent à l'échantillon au-delà d'un seuil donné, pour déterminer la probabilité que le champ aléatoire dépasse ce même seuil sous l'hypothèse nulle (inférence topologique). Nous exposons quelques notions portant sur les champs aléatoires, en particulier l'isotropie (la fonction de covariance entre deux points du champ dépend seulement de la distance qui les sépare). Nous discutons de deux méthodes pour l'analyse des champs anisotropes. La première consiste à déformer le champ puis à utiliser les volumes intrinsèques et les compacités de la caractéristique d'Euler. La seconde utilise plutôt les courbures de Lipschitz-Killing. Nous faisons ensuite une étude de niveau et de puissance de l'inférence topologique en comparaison avec la correction de Bonferroni. Finalement, nous utilisons l'inférence topologique pour décrire l'évolution du changement climatique sur le territoire du Québec entre 1991 et 2100, en utilisant des données de température simulées et publiées par l'Équipe Simulations climatiques d'Ouranos selon le modèle régional canadien du climat.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Introducción: El objetivo principal de la selección del donante es disminuir la posibilidad de transmisión de enfermedades infecciosas o neoplásicas en el receptor. De forma cruda se calcula que aproximadamente el 50% de los potenciales donantes son contraindicados, la mayoría por infección. La alta demanda de órganos obliga a revalorar las contraindicaciones que hasta hace poco eran absolutas, el reto es diferenciar el SIRS del donante por Muerte Encefálica con el SIRS por infecciones. Método: Estudio de cohorte retrospectivo; que busca evaluar la respuesta inflamatoria sistémica (SIRS) como predictor de infección en pacientes con trasplante renal en el primer mes pos trasplante. Resultados: El contraste de hipótesis proporciono una significancia bilateral (P= 0,071). La pruebas de hipótesis aceptaron la hipótesis nula (P= 0,071), que no existe asociación entre la presencia de SIRS en el donante con la incidencia de infección en el primer mes del pos trasplante renal. La estimación del riesgo de no reingreso por infección al primer mes pos trasplante renal es de 0.881 veces para los donantes con SIRS (IC 0.757 – 1.025). Conclusión: A pesar de no encontrar significancia estadística: el SIRS en el donante no se asocia con un aumento en la incidencia de infección en el primer mes postrasplante. Para encontrar la significancia se propone un estudio con un tamaño de muestra mayor.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Introducción: La OMS revela que en 2010 alrededor de 43 millones de niños menores de 5 años presentan sobrepeso. En Colombia según la Encuesta Nacional de Situación Nutricional en Colombia en su versión 2005, mostraba una prevalencia general de sobrepeso de 3.1% niños de 0 a 4 años. Es una condición de salud de origen multifactorial en la que interviene factores genéticos, ambientales, maternos y perinatales. Objetivo: Establecer la asociación de riesgo entre el bajo peso al nacer y el desarrollo de sobrepeso y obesidad en niños de 4 a 5 años. Metodología: Se realizó un estudio observacional descriptivo retrospectivo de corte transversal con los datos nutricionales, maternos y perinatales de la Encuesta Nacional de Demografía en Salud del año 2010 en Colombia. Se analizó la asociación entre la variable independiente bajo peso al nacer con el desenlace sobrepeso y obesidad en menores de 4 a 5 años, usando como medida el IMC según la edad. Se realizaron análisis univariados, bivariados y de regresión logística con un modelo de riesgo según las variables que inciden en el desenlace y la variable independiente. Resultados: La muestra obtenida para el estudio fue de 2166 niños de 4 a 5 años de edad quienes cumplían los criterios de inclusión. La prevalencia de sobrepeso u obesidad en la primera infancia fue de 21.8% (472) y el bajo peso al nacer. Los resultados sugieren la asociación de bajo peso y sobrepeso u obesidad es de ORajustado= 0.560 (0.356 – 0.881). Conclusiones: Los resultados sugieren que existe una asociación como factor protector entre el bajo peso y el sobrepeso u obesidad en la primera infancia. Sin embargo, debido al comportamiento de las variables consideradas en la muestra no hay suficiente información para rechazar completamente la hipótesis nula.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Whereas the predominance of El Niño Southern Oscillation (ENSO) mode in the tropical Pacific sea surface temperature (SST) variability is well established, no such consensus seems to have been reached by climate scientists regarding the Indian Ocean. While a number of researchers think that the Indian Ocean SST variability is dominated by an active dipolar-type mode of variability, similar to ENSO, others suggest that the variability is mostly passive and behaves like an autocorrelated noise. For example, it is suggested recently that the Indian Ocean SST variability is consistent with the null hypothesis of a homogeneous diffusion process. However, the existence of the basin-wide warming trend represents a deviation from a homogeneous diffusion process, which needs to be considered. An efficient way of detrending, based on differencing, is introduced and applied to the Hadley Centre ice and SST. The filtered SST anomalies over the basin (23.5N-29.5S, 30.5E-119.5E) are then analysed and found to be inconsistent with the null hypothesis on intraseasonal and interannual timescales. The same differencing method is then applied to the smaller tropical Indian Ocean domain. This smaller domain is also inconsistent with the null hypothesis on intraseasonal and interannual timescales. In particular, it is found that the leading mode of variability yields the Indian Ocean dipole, and departs significantly from the null hypothesis only in the autumn season.