893 resultados para Variable sample size


Relevância:

90.00% 90.00%

Publicador:

Resumo:

La dernière décennie a connu un intérêt croissant pour les problèmes posés par les variables instrumentales faibles dans la littérature économétrique, c’est-à-dire les situations où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter. En effet, il est bien connu que lorsque les instruments sont faibles, les distributions des statistiques de Student, de Wald, du ratio de vraisemblance et du multiplicateur de Lagrange ne sont plus standard et dépendent souvent de paramètres de nuisance. Plusieurs études empiriques portant notamment sur les modèles de rendements à l’éducation [Angrist et Krueger (1991, 1995), Angrist et al. (1999), Bound et al. (1995), Dufour et Taamouti (2007)] et d’évaluation des actifs financiers (C-CAPM) [Hansen et Singleton (1982,1983), Stock et Wright (2000)], où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter, ont montré que l’utilisation de ces statistiques conduit souvent à des résultats peu fiables. Un remède à ce problème est l’utilisation de tests robustes à l’identification [Anderson et Rubin (1949), Moreira (2002), Kleibergen (2003), Dufour et Taamouti (2007)]. Cependant, il n’existe aucune littérature économétrique sur la qualité des procédures robustes à l’identification lorsque les instruments disponibles sont endogènes ou à la fois endogènes et faibles. Cela soulève la question de savoir ce qui arrive aux procédures d’inférence robustes à l’identification lorsque certaines variables instrumentales supposées exogènes ne le sont pas effectivement. Plus précisément, qu’arrive-t-il si une variable instrumentale invalide est ajoutée à un ensemble d’instruments valides? Ces procédures se comportent-elles différemment? Et si l’endogénéité des variables instrumentales pose des difficultés majeures à l’inférence statistique, peut-on proposer des procédures de tests qui sélectionnent les instruments lorsqu’ils sont à la fois forts et valides? Est-il possible de proposer les proédures de sélection d’instruments qui demeurent valides même en présence d’identification faible? Cette thèse se focalise sur les modèles structurels (modèles à équations simultanées) et apporte des réponses à ces questions à travers quatre essais. Le premier essai est publié dans Journal of Statistical Planning and Inference 138 (2008) 2649 – 2661. Dans cet essai, nous analysons les effets de l’endogénéité des instruments sur deux statistiques de test robustes à l’identification: la statistique d’Anderson et Rubin (AR, 1949) et la statistique de Kleibergen (K, 2003), avec ou sans instruments faibles. D’abord, lorsque le paramètre qui contrôle l’endogénéité des instruments est fixe (ne dépend pas de la taille de l’échantillon), nous montrons que toutes ces procédures sont en général convergentes contre la présence d’instruments invalides (c’est-à-dire détectent la présence d’instruments invalides) indépendamment de leur qualité (forts ou faibles). Nous décrivons aussi des cas où cette convergence peut ne pas tenir, mais la distribution asymptotique est modifiée d’une manière qui pourrait conduire à des distorsions de niveau même pour de grands échantillons. Ceci inclut, en particulier, les cas où l’estimateur des double moindres carrés demeure convergent, mais les tests sont asymptotiquement invalides. Ensuite, lorsque les instruments sont localement exogènes (c’est-à-dire le paramètre d’endogénéité converge vers zéro lorsque la taille de l’échantillon augmente), nous montrons que ces tests convergent vers des distributions chi-carré non centrées, que les instruments soient forts ou faibles. Nous caractérisons aussi les situations où le paramètre de non centralité est nul et la distribution asymptotique des statistiques demeure la même que dans le cas des instruments valides (malgré la présence des instruments invalides). Le deuxième essai étudie l’impact des instruments faibles sur les tests de spécification du type Durbin-Wu-Hausman (DWH) ainsi que le test de Revankar et Hartley (1973). Nous proposons une analyse en petit et grand échantillon de la distribution de ces tests sous l’hypothèse nulle (niveau) et l’alternative (puissance), incluant les cas où l’identification est déficiente ou faible (instruments faibles). Notre analyse en petit échantillon founit plusieurs perspectives ainsi que des extensions des précédentes procédures. En effet, la caractérisation de la distribution de ces statistiques en petit échantillon permet la construction des tests de Monte Carlo exacts pour l’exogénéité même avec les erreurs non Gaussiens. Nous montrons que ces tests sont typiquement robustes aux intruments faibles (le niveau est contrôlé). De plus, nous fournissons une caractérisation de la puissance des tests, qui exhibe clairement les facteurs qui déterminent la puissance. Nous montrons que les tests n’ont pas de puissance lorsque tous les instruments sont faibles [similaire à Guggenberger(2008)]. Cependant, la puissance existe tant qu’au moins un seul instruments est fort. La conclusion de Guggenberger (2008) concerne le cas où tous les instruments sont faibles (un cas d’intérêt mineur en pratique). Notre théorie asymptotique sous les hypothèses affaiblies confirme la théorie en échantillon fini. Par ailleurs, nous présentons une analyse de Monte Carlo indiquant que: (1) l’estimateur des moindres carrés ordinaires est plus efficace que celui des doubles moindres carrés lorsque les instruments sont faibles et l’endogenéité modérée [conclusion similaire à celle de Kiviet and Niemczyk (2007)]; (2) les estimateurs pré-test basés sur les tests d’exogenété ont une excellente performance par rapport aux doubles moindres carrés. Ceci suggère que la méthode des variables instrumentales ne devrait être appliquée que si l’on a la certitude d’avoir des instruments forts. Donc, les conclusions de Guggenberger (2008) sont mitigées et pourraient être trompeuses. Nous illustrons nos résultats théoriques à travers des expériences de simulation et deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le problème bien connu du rendement à l’éducation. Le troisième essai étend le test d’exogénéité du type Wald proposé par Dufour (1987) aux cas où les erreurs de la régression ont une distribution non-normale. Nous proposons une nouvelle version du précédent test qui est valide même en présence d’erreurs non-Gaussiens. Contrairement aux procédures de test d’exogénéité usuelles (tests de Durbin-Wu-Hausman et de Rvankar- Hartley), le test de Wald permet de résoudre un problème courant dans les travaux empiriques qui consiste à tester l’exogénéité partielle d’un sous ensemble de variables. Nous proposons deux nouveaux estimateurs pré-test basés sur le test de Wald qui performent mieux (en terme d’erreur quadratique moyenne) que l’estimateur IV usuel lorsque les variables instrumentales sont faibles et l’endogénéité modérée. Nous montrons également que ce test peut servir de procédure de sélection de variables instrumentales. Nous illustrons les résultats théoriques par deux applications empiriques: le modèle bien connu d’équation du salaire [Angist et Krueger (1991, 1999)] et les rendements d’échelle [Nerlove (1963)]. Nos résultats suggèrent que l’éducation de la mère expliquerait le décrochage de son fils, que l’output est une variable endogène dans l’estimation du coût de la firme et que le prix du fuel en est un instrument valide pour l’output. Le quatrième essai résout deux problèmes très importants dans la littérature économétrique. D’abord, bien que le test de Wald initial ou étendu permette de construire les régions de confiance et de tester les restrictions linéaires sur les covariances, il suppose que les paramètres du modèle sont identifiés. Lorsque l’identification est faible (instruments faiblement corrélés avec la variable à instrumenter), ce test n’est en général plus valide. Cet essai développe une procédure d’inférence robuste à l’identification (instruments faibles) qui permet de construire des régions de confiance pour la matrices de covariances entre les erreurs de la régression et les variables explicatives (possiblement endogènes). Nous fournissons les expressions analytiques des régions de confiance et caractérisons les conditions nécessaires et suffisantes sous lesquelles ils sont bornés. La procédure proposée demeure valide même pour de petits échantillons et elle est aussi asymptotiquement robuste à l’hétéroscédasticité et l’autocorrélation des erreurs. Ensuite, les résultats sont utilisés pour développer les tests d’exogénéité partielle robustes à l’identification. Les simulations Monte Carlo indiquent que ces tests contrôlent le niveau et ont de la puissance même si les instruments sont faibles. Ceci nous permet de proposer une procédure valide de sélection de variables instrumentales même s’il y a un problème d’identification. La procédure de sélection des instruments est basée sur deux nouveaux estimateurs pré-test qui combinent l’estimateur IV usuel et les estimateurs IV partiels. Nos simulations montrent que: (1) tout comme l’estimateur des moindres carrés ordinaires, les estimateurs IV partiels sont plus efficaces que l’estimateur IV usuel lorsque les instruments sont faibles et l’endogénéité modérée; (2) les estimateurs pré-test ont globalement une excellente performance comparés à l’estimateur IV usuel. Nous illustrons nos résultats théoriques par deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le modèle de rendements à l’éducation. Dans la première application, les études antérieures ont conclu que les instruments n’étaient pas trop faibles [Dufour et Taamouti (2007)] alors qu’ils le sont fortement dans la seconde [Bound (1995), Doko et Dufour (2009)]. Conformément à nos résultats théoriques, nous trouvons les régions de confiance non bornées pour la covariance dans le cas où les instruments sont assez faibles.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Nous développons dans cette thèse, des méthodes de bootstrap pour les données financières de hautes fréquences. Les deux premiers essais focalisent sur les méthodes de bootstrap appliquées à l’approche de "pré-moyennement" et robustes à la présence d’erreurs de microstructure. Le "pré-moyennement" permet de réduire l’influence de l’effet de microstructure avant d’appliquer la volatilité réalisée. En se basant sur cette ap- proche d’estimation de la volatilité intégrée en présence d’erreurs de microstructure, nous développons plusieurs méthodes de bootstrap qui préservent la structure de dépendance et l’hétérogénéité dans la moyenne des données originelles. Le troisième essai développe une méthode de bootstrap sous l’hypothèse de Gaussianité locale des données financières de hautes fréquences. Le premier chapitre est intitulé: "Bootstrap inference for pre-averaged realized volatility based on non-overlapping returns". Nous proposons dans ce chapitre, des méthodes de bootstrap robustes à la présence d’erreurs de microstructure. Particulièrement nous nous sommes focalisés sur la volatilité réalisée utilisant des rendements "pré-moyennés" proposés par Podolskij et Vetter (2009), où les rendements "pré-moyennés" sont construits sur des blocs de rendements à hautes fréquences consécutifs qui ne se chevauchent pas. Le "pré-moyennement" permet de réduire l’influence de l’effet de microstructure avant d’appliquer la volatilité réalisée. Le non-chevauchement des blocs fait que les rendements "pré-moyennés" sont asymptotiquement indépendants, mais possiblement hétéroscédastiques. Ce qui motive l’application du wild bootstrap dans ce contexte. Nous montrons la validité théorique du bootstrap pour construire des intervalles de type percentile et percentile-t. Les simulations Monte Carlo montrent que le bootstrap peut améliorer les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques, pourvu que le choix de la variable externe soit fait de façon appropriée. Nous illustrons ces méthodes en utilisant des données financières réelles. Le deuxième chapitre est intitulé : "Bootstrapping pre-averaged realized volatility under market microstructure noise". Nous développons dans ce chapitre une méthode de bootstrap par bloc basée sur l’approche "pré-moyennement" de Jacod et al. (2009), où les rendements "pré-moyennés" sont construits sur des blocs de rendements à haute fréquences consécutifs qui se chevauchent. Le chevauchement des blocs induit une forte dépendance dans la structure des rendements "pré-moyennés". En effet les rendements "pré-moyennés" sont m-dépendant avec m qui croît à une vitesse plus faible que la taille d’échantillon n. Ceci motive l’application d’un bootstrap par bloc spécifique. Nous montrons que le bloc bootstrap suggéré par Bühlmann et Künsch (1995) n’est valide que lorsque la volatilité est constante. Ceci est dû à l’hétérogénéité dans la moyenne des rendements "pré-moyennés" au carré lorsque la volatilité est stochastique. Nous proposons donc une nouvelle procédure de bootstrap qui combine le wild bootstrap et le bootstrap par bloc, de telle sorte que la dépendance sérielle des rendements "pré-moyennés" est préservée à l’intérieur des blocs et la condition d’homogénéité nécessaire pour la validité du bootstrap est respectée. Sous des conditions de taille de bloc, nous montrons que cette méthode est convergente. Les simulations Monte Carlo montrent que le bootstrap améliore les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques. Nous illustrons cette méthode en utilisant des données financières réelles. Le troisième chapitre est intitulé: "Bootstrapping realized covolatility measures under local Gaussianity assumption". Dans ce chapitre nous montrons, comment et dans quelle mesure on peut approximer les distributions des estimateurs de mesures de co-volatilité sous l’hypothèse de Gaussianité locale des rendements. En particulier nous proposons une nouvelle méthode de bootstrap sous ces hypothèses. Nous nous sommes focalisés sur la volatilité réalisée et sur le beta réalisé. Nous montrons que la nouvelle méthode de bootstrap appliquée au beta réalisé était capable de répliquer les cummulants au deuxième ordre, tandis qu’il procurait une amélioration au troisième degré lorsqu’elle est appliquée à la volatilité réalisée. Ces résultats améliorent donc les résultats existants dans cette littérature, notamment ceux de Gonçalves et Meddahi (2009) et de Dovonon, Gonçalves et Meddahi (2013). Les simulations Monte Carlo montrent que le bootstrap améliore les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques et les résultats de bootstrap existants. Nous illustrons cette méthode en utilisant des données financières réelles.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

L’utilisation des mesures subjectives en épidémiologie s’est intensifiée récemment, notamment avec la volonté de plus en plus affirmée d’intégrer la perception qu’ont les sujets de leur santé dans l’étude des maladies et l’évaluation des interventions. La psychométrie regroupe les méthodes statistiques utilisées pour la construction des questionnaires et l’analyse des données qui en sont issues. Ce travail de thèse avait pour but d’explorer différents problèmes méthodologiques soulevés par l’utilisation des techniques psychométriques en épidémiologie. Trois études empiriques sont présentées et concernent 1/ la phase de validation de l’instrument : l’objectif était de développer, à l’aide de données simulées, un outil de calcul de la taille d’échantillon pour la validation d’échelle en psychiatrie ; 2/ les propriétés mathématiques de la mesure obtenue : l’objectif était de comparer les performances de la différence minimale cliniquement pertinente d’un questionnaire calculée sur des données de cohorte, soit dans le cadre de la théorie classique des tests (CTT), soit dans celui de la théorie de réponse à l’item (IRT) ; 3/ son utilisation dans un schéma longitudinal : l’objectif était de comparer, à l’aide de données simulées, les performances d’une méthode statistique d’analyse de l’évolution longitudinale d’un phénomène subjectif mesuré à l’aide de la CTT ou de l’IRT, en particulier lorsque certains items disponibles pour la mesure différaient à chaque temps. Enfin, l’utilisation de graphes orientés acycliques a permis de discuter, à l’aide des résultats de ces trois études, la notion de biais d’information lors de l’utilisation des mesures subjectives en épidémiologie.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

L’annonce d’un diagnostic de cancer provoque souvent une forte réaction émotionnelle et un stress important tant chez les adultes que chez les adolescents et leurs parents. Certains d’entre eux cherchant à soulager cette détresse se tournent vers des méthodes alternatives positives de gestion de stress, dans le but d’atténuer les effets psychologiques indésirables du cancer. Les thérapies ciblant à la fois le corps et l’esprit gagnent en popularité dans ces populations. Une avenue prometteuse est la méditation de pleine conscience (MPC), inspirée de la philosophie bouddhiste et adaptée dans le cadre d’interventions thérapeutiques pour améliorer la qualité de vie des patients souffrant de maladies chroniques. À ce jour, des études dans le domaine de la santé ont suggéré que la MPC pouvait avoir des effets bénéfiques sur les symptômes et la gestion de plusieurs maladies chroniques dont le cancer, faisant d’elle une avenue thérapeutique intéressante dans le traitement des effets psychologiques indésirables liés à ces maladies. La recherche émergente en pédiatrie suggère des effets comparables chez les enfants et adolescents. L’objectif de la présente thèse a été de développer un essai clinique randomisé visant à évaluer les effets de la MPC sur la qualité de vie, le sommeil et l’humeur chez des adolescents atteints de cancer, en documentant les étapes d’implantation du projet, les embuches qui ont été rencontrées durant son implantation et les résultats obtenus. La thèse est présentée sous la forme de deux articles scientifiques. Le premier article présente la méthodologie qui avait été planifiée pour ce projet mais qui n’a pu être réalisée en raison d’embuches rencontrées dans la complétion de ce pilote. Ainsi, les étapes préliminaires du développement de ce projet de recherche, en accordant une place prépondérante au manuel d’intervention rédigé à cette fin. La mise en place et la structure de ce projet, nommément le devis méthodologique employé, la taille d’échantillon visée, les méthodes de recrutement mises en place et les stratégies de randomisation prévues, sont décrites en détail dans cet article. Pour les fins de ce projet, un manuel d’intervention de MPC a été rédigé. L’intervention en MPC, menée par deux instructeurs formés en MPC, s’est échelonnée sur une durée de huit semaines, à raison d’une séance d’une heure trente par semaine. Une description détaillée de chaque séance est incluse dans cet article, dans un but de dissémination du protocole de recherche. Des analyses intragroupe serviront à évaluer l’impact de l’intervention en méditation de pleine conscience sur la qualité de vie, le sommeil et l’humeur pré-à-post intervention et au suivi à six mois. Des analyses intergroupes prévues sont décrites afin de comparer les effets de l’intervention entre les participants du groupe contrôle et du groupe expérimental. Les limites potentielles de ce projet, notamment la participation volontaire, le risque d’attrition et la petite taille d’échantillon sont décrites en détail dans cet article. Le deuxième article présente, dans un premier temps, le déroulement du projet de recherche, en mettant en lumière les embuches rencontrées dans son implantation. Ainsi, les leçons à tirer de l’implantation d’un tel essai clinique en milieu hospitalier au Québec sont décrites selon trois axes : 1) les défis liés au recrutement et à la rétention des participants; 2) l’acceptabilité et la compréhensibilité de l’intervention en pleine conscience; et 3) le moment où l’intervention s’est déroulée (timing) et l’impact sur l’engagement requis des participants dans le projet. Durant une période de recrutement de neuf mois, 481 participants potentiels ont été filtrés. 418 (86,9 %) d’entre eux ont été exclus. 63 participants potentiels, vivant à moins d’une heure de Montréal, ont été approchés pour prendre part à ce projet. De ce nombre, seulement 7 participants (1,4%) ont accepté de participer aux rencontres de MPC et de compléter les mesures pré-post intervention. Un bassin d’éligibilité réduit, ainsi que des taux de refus élevés et des conflits d’horaire avec les activités scolaires ont eu un impact considérable sur la taille d’échantillon de ce projet et sur l’absentéisme des participants. Malgré l’intérêt manifeste des équipes médicales pour la recherche psychosociale, les ressources requises pour mener à terme de tels essais cliniques sont trop souvent sous- estimées. Les stratégies de recrutement et de rétention des participants méritent une attention spéciale des chercheurs dans ce domaine. Dans un deuxième temps, le deuxième article de cette thèse a pour objectif de présenter les résultats de l’intervention en MPC chez des jeunes ayant le cancer, en examinant spécifiquement l’impact de l’intervention sur la qualité de vie, le sommeil et l’humeur des jeunes pré-post intervention et lors du suivi à six mois. Faisant écho aux embuches décrites préalablement décrites, les analyses statistiques n’ont permis de déceler aucun effet statistiquement significatif de notre intervention. Aucune différence significative n’est notée entre les participants du groupe expérimental et les participants du groupe contrôle. Les difficultés rencontrées dans de la complétion des devoirs et de la pratique de techniques de méditation entre les séances, décrites en détail cet article, expliquent en partie ces résultats. Globalement, le contexte développemental spécifique à l’adolescence, ayant possiblement eu un impact sur l’adhérence des participants à la thérapie proposée et à leur motivation à prendre part aux rencontres, les scores sous-cliniques lors du premier temps de mesure, l’impact du soutien social inhérent au contexte de thérapie de groupe, ainsi que les caractéristiques personnelles des thérapeutes, pourraient avoir influencé les résultats de ce pilote. Les résultats de ce projet pilote nous laissent croire que la prudence est de mise dans la généralisation des bienfaits et de l’efficacité de la pleine conscience observés chez les adultes atteints de cancer dans son application aux adolescents en oncologie. En conclusion, la présente thèse contribue à enrichir la recherche dans le domaine de la MPC chez les jeunes en questionnant néanmoins la pertinence d’une telle intervention auprès d’une population d’adolescents souffrant de cancer. Ainsi, il convient d’analyser les résultats obtenus en tenant compte des limites méthodologiques de ce projet et de poser un regard critique sur la faisabilité et la reproductibilité d’un projet d’une telle envergure auprès d’une même population. Les leçons tirées de l’implantation d’un tel projet en milieu hospitalier pédiatrique se sont avérées d’une importance centrale dans sa complétion et feront partie intégrante de toute tentative de réplication. D’autres essais cliniques de cette nature seront inévitablement requis afin de statuer sur l’efficacité de la MPC chez des adolescents atteints cancer et sur la faisabilité de l’implantation de cette méthode d’intervention auprès d’une population pédiatrique hospitalière.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Introducción: Las fracturas intertrocantéricas han llegado a nuestros días con una mayor incidencia dado el envejecimiento de la población, con fracturas más complejas, menos estables y asociadas a osteoporosis, se estima que representan aproximadamente 1,75 millones de años de vida perdidos ajustados a discapacidad es decir 0,1% de la carga de morbilidad a nivel mundial. Existe consenso en el tratamiento quirúrgico de este tipo de fracturas, presentando una incidencia variable de fallos, principalmente cuando son inestables, entre estos el denominado “cuto ut”. La utilización de un método de fijación con placa y tornillo helicoidal (DHHS) aparentemente disminuye la incidencia de dichos fallos con respecto a otras técnicas. Metodología: Por medio de una muestra calculada en 128 de pacientes con fracturas intertrocantéricas operados con DHS y DHHS entre el 2007 y el 2012 en La Clínica San Rafael de la ciudad de Bogotá, Colombia, se realizó un análisis multivariado para determinar si existe o no diferencias significativas en los índices de fallo entre estas dos técnicas. Resultados: Los pacientes incluidos en el estudio 54 (42,1%) fueron hombres y 74 (57,8%) fueron mujeres. 75 fueron operados con DHHS y 53 con DHS; en cuanto a las comorbilidades las principales fueron Hipertensión con 40 pacientes para DHS y 30 para DHHS, para el caso de Diabetes Mellitus fueron 13 y 9 para DHS y DHHS, respectivamente; en cuanto al tipo de fractura más común la principal fue la clasificación Tronzo II con 9 pacientes para DHS y 13 para DHHS. Conclusión. Para el estudios se evidencia que para los 3 desenlaces principales evaluados, 1. El porcentaje de re intervención (p=0,282), 2. La supervivencia en el primer año (p=0,499) y 3. El desempeño funcional con la escala de Oxford (p=0,06); no hubo diferencias estadísticamente significativas entre los grupos.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

This note considers the variance estimation for population size estimators based on capture–recapture experiments. Whereas a diversity of estimators of the population size has been suggested, the question of estimating the associated variances is less frequently addressed. This note points out that the technique of conditioning can be applied here successfully which also allows us to identify sources of variation: the variance due to estimation of the model parameters and the binomial variance due to sampling n units from a population of size N. It is applied to estimators typically used in capture–recapture experiments in continuous time including the estimators of Zelterman and Chao and improves upon previously used variance estimators. In addition, knowledge of the variances associated with the estimators by Zelterman and Chao allows the suggestion of a new estimator as the weighted sum of the two. The decomposition of the variance into the two sources allows also a new understanding of how resampling techniques like the Bootstrap could be used appropriately. Finally, the sample size question for capture–recapture experiments is addressed. Since the variance of population size estimators increases with the sample size, it is suggested to use relative measures such as the observed-to-hidden ratio or the completeness of identification proportion for approaching the question of sample size choice.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

This note considers the variance estimation for population size estimators based on capture–recapture experiments. Whereas a diversity of estimators of the population size has been suggested, the question of estimating the associated variances is less frequently addressed. This note points out that the technique of conditioning can be applied here successfully which also allows us to identify sources of variation: the variance due to estimation of the model parameters and the binomial variance due to sampling n units from a population of size N. It is applied to estimators typically used in capture–recapture experiments in continuous time including the estimators of Zelterman and Chao and improves upon previously used variance estimators. In addition, knowledge of the variances associated with the estimators by Zelterman and Chao allows the suggestion of a new estimator as the weighted sum of the two. The decomposition of the variance into the two sources allows also a new understanding of how resampling techniques like the Bootstrap could be used appropriately. Finally, the sample size question for capture–recapture experiments is addressed. Since the variance of population size estimators increases with the sample size, it is suggested to use relative measures such as the observed-to-hidden ratio or the completeness of identification proportion for approaching the question of sample size choice.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Natural exposure to prion disease is likely to occur throughout successive challenges, yet most experiments focus on single large doses of infectious material. We analyze the results from an experiment in which rodents were exposed to multiple doses of feed contaminated with the scrapie agent. We formally define hypotheses for how the doses combine in terms of statistical models. The competing hypotheses are that only the total dose of infectivity is important (cumulative model), doses act independently, or a general alternative that interaction between successive doses occurs (to raise or lower the risk of infection). We provide sample size calculations to distinguish these hypotheses. In the experiment, a fixed total dose has a significantly reduced probability of causing infection if the material is presented as multiple challenges, and as the time between challenges lengthens. Incubation periods are shorter and less variable if all material is consumed on one occasion. We show that the probability of infection is inconsistent with the hypothesis that each dose acts as a cumulative or independent challenge. The incubation periods are inconsistent with the independence hypothesis. Thus, although a trend exists for the risk of infection with prion disease to increase with repeated doses, it does so to a lesser degree than is expected if challenges combine independently or in a cumulative manner.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

The convergence speed of the standard Least Mean Square adaptive array may be degraded in mobile communication environments. Different conventional variable step size LMS algorithms were proposed to enhance the convergence speed while maintaining low steady state error. In this paper, a new variable step LMS algorithm, using the accumulated instantaneous error concept is proposed. In the proposed algorithm, the accumulated instantaneous error is used to update the step size parameter of standard LMS is varied. Simulation results show that the proposed algorithm is simpler and yields better performance than conventional variable step LMS.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

The detection of long-range dependence in time series analysis is an important task to which this paper contributes by showing that whilst the theoretical definition of a long-memory (or long-range dependent) process is based on the autocorrelation function, it is not possible for long memory to be identified using the sum of the sample autocorrelations, as usually defined. The reason for this is that the sample sum is a predetermined constant for any stationary time series; a result that is independent of the sample size. Diagnostic or estimation procedures, such as those in the frequency domain, that embed this sum are equally open to this criticism. We develop this result in the context of long memory, extending it to the implications for the spectral density function and the variance of partial sums of a stationary stochastic process. The results are further extended to higher order sample autocorrelations and the bispectral density. The corresponding result is that the sum of the third order sample (auto) bicorrelations at lags h,k≥1, is also a predetermined constant, different from that in the second order case, for any stationary time series of arbitrary length.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Expressions for the viscosity correction function, and hence bulk complex impedance, density, compressibility, and propagation constant, are obtained for a rigid frame porous medium whose pores are prismatic with fixed cross-sectional shape, but of variable pore size distribution. The lowand high-frequency behavior of the viscosity correction function is derived for the particular case of a log-normal pore size distribution, in terms of coefficients which can, in general, be computed numerically, and are given here explicitly for the particular cases of pores of equilateral triangular, circular, and slitlike cross-section. Simple approximate formulae, based on two-point Pade´ approximants for the viscosity correction function are obtained, which avoid a requirement for numerical integration or evaluation of special functions, and their accuracy is illustrated and investigated for the three pore shapes already mentioned

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Personalized communication is when the marketing message is adapted to each individual by using information from a databaseand utilizing it in the various, different media channels available today. That gives the marketer the possibility to create a campaign that cuts through today’s clutter of marketing messages and gets the recipients attention. PODi is a non-profit organization that was started with the aim of contributing knowledge in the field of digital printingtechnologies. They have created a database of case studies showing companies that have successfully implemented personalizedcommunication in their marketing campaigns. The purpose of the project was therefore to analyze PODi case studies with the main objective of finding out if/how successfully the PODi-cases have been and what made them so successful. To collect the data found in the PODi cases the authors did a content analysis with a sample size of 140 PODi cases from the year 2008 to 2010. The study was carried out by analyzing the cases' measurable ways of success: response rate, conversion rate, visited PURL (personalized URL:s) and ROI (Return On Investment). In order to find out if there were any relationships to be found between the measurable result and what type of industry, campaign objective and media vehicle that was used in the campaign, the authors put up different research uestions to explore that. After clustering and merging the collected data the results were found to be quite spread but shows that the averages of response rates, visited PURL and conversion rates were consistently very high. In the study the authors also collected and summarized what the companies themselves claim to be the reasons for success with their marketing campaigns. The resultshows that the creation of a personalized campaign is complex and dependent on many different variables. It is for instance ofgreat importance to have a well thought-out plan with the campaign and to have good data and insights about the customer in order to perform creative personalization. It is also important to make it easy for the recipient to reply, to use several media vehicles for multiple touch points and to have an attractive and clever design.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

This paper considers two-sided tests for the parameter of an endogenous variable in an instrumental variable (IV) model with heteroskedastic and autocorrelated errors. We develop the nite-sample theory of weighted-average power (WAP) tests with normal errors and a known long-run variance. We introduce two weights which are invariant to orthogonal transformations of the instruments; e.g., changing the order in which the instruments appear. While tests using the MM1 weight can be severely biased, optimal tests based on the MM2 weight are naturally two-sided when errors are homoskedastic. We propose two boundary conditions that yield two-sided tests whether errors are homoskedastic or not. The locally unbiased (LU) condition is related to the power around the null hypothesis and is a weaker requirement than unbiasedness. The strongly unbiased (SU) condition is more restrictive than LU, but the associated WAP tests are easier to implement. Several tests are SU in nite samples or asymptotically, including tests robust to weak IV (such as the Anderson-Rubin, score, conditional quasi-likelihood ratio, and I. Andrews' (2015) PI-CLC tests) and two-sided tests which are optimal when the sample size is large and instruments are strong. We refer to the WAP-SU tests based on our weights as MM1-SU and MM2-SU tests. Dropping the restrictive assumptions of normality and known variance, the theory is shown to remain valid at the cost of asymptotic approximations. The MM2-SU test is optimal under the strong IV asymptotics, and outperforms other existing tests under the weak IV asymptotics.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

O teste de condutividade elétrica (CE) tem potencial para ser empregado no controle de qualidade pelas empresas produtoras de sementes, no entanto há fatores que podem afetar os resultados obtidos. Neste sentido, o trabalho teve como objetivo estudar os efeitos do tamanho da semente, do número de sementes da amostra e do período e temperatura de embebição que podem influenciar a interpretação dos resultados do teste de CE, em sementes de amendoim. Utilizou-se o delineamento experimental inteiramente casualizado em esquema fatorial 3 x 3: três lotes de semente, classificados em três tamanhos (peneiras 18, 20 e 22). Avaliou-se a CE em dez tempos de embebição (3, 6, 9, 12, 15, 18, 21, 24, 27 e 30 horas). O trabalho foi composto de quatro ensaios, onde se combinou número de sementes e temperatura de exposição das mesmas à embebição: a) quatro repetições de 25 sementes a 20ºC; b) quatro repetições de 50 sementes a 20ºC; c) quatro repetições de 25 sementes a 25ºC; d) quatro repetições de 50 sementes a 25ºC. A leitura da CE foi realizada por condutivímetro e os resultados expressos em µS.cm-1.g-1. O tamanho da semente afetou os resultados da CE; o tempo de embebição pode ser reduzido para até 3 horas; a temperatura de embebição de 25ºC mostrou-se mais promissora do que 20ºC, assim como a utilização de 50 sementes puras.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

The study of superconducting samples in mesoscopic scale presented a remarkable improvement during the last years. Certainly, such interest is based on the fact that when the size of the samples is close to the order of the temperature dependent coherence length xi(T), and/or the size of the penetration depth lambda(T), there are some significant modifications on the physical properties of the superconducting state. This contribution tests the square cross-section size limit for the occurrence (or not) of vortices in mesoscopic samples of area L-2, where L varies discretely from 1 xi(0) to 8 xi(0).The time dependent Ginzburg-Landau (TDGL) equations approach is used upon taking the order parameter and the local magnetic field invariant along the z-direction. The vortex configurations at the equilibrium can be obtained from the TDGL equations for superconductivity as the system relaxes to the stationary state.The obtained results show that the limit of vortex penetration is for the square sample of size 3 xi(0) x 3 xi(0) in which only a single vortex are allowed into the sample. For smaller specimens, no vortex can be formed and the field entrance into the sample is continuous and the total flux penetration occurs at higher values of H/H-c2(0), where H-c2(T) is the upper critical field. Otherwise, for larger samples different vortices patterns can be observed depending on the sample size. (c) 2007 Elsevier B.V. All rights reserved.