997 resultados para Statistiques non paramétriques


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Recent work shows that a low correlation between the instruments and the included variables leads to serious inference problems. We extend the local-to-zero analysis of models with weak instruments to models with estimated instruments and regressors and with higher-order dependence between instruments and disturbances. This makes this framework applicable to linear models with expectation variables that are estimated non-parametrically. Two examples of such models are the risk-return trade-off in finance and the impact of inflation uncertainty on real economic activity. Results show that inference based on Lagrange Multiplier (LM) tests is more robust to weak instruments than Wald-based inference. Using LM confidence intervals leads us to conclude that no statistically significant risk premium is present in returns on the S&P 500 index, excess holding yields between 6-month and 3-month Treasury bills, or in yen-dollar spot returns.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In this paper we propose exact likelihood-based mean-variance efficiency tests of the market portfolio in the context of Capital Asset Pricing Model (CAPM), allowing for a wide class of error distributions which include normality as a special case. These tests are developed in the frame-work of multivariate linear regressions (MLR). It is well known however that despite their simple statistical structure, standard asymptotically justified MLR-based tests are unreliable. In financial econometrics, exact tests have been proposed for a few specific hypotheses [Jobson and Korkie (Journal of Financial Economics, 1982), MacKinlay (Journal of Financial Economics, 1987), Gib-bons, Ross and Shanken (Econometrica, 1989), Zhou (Journal of Finance 1993)], most of which depend on normality. For the gaussian model, our tests correspond to Gibbons, Ross and Shanken’s mean-variance efficiency tests. In non-gaussian contexts, we reconsider mean-variance efficiency tests allowing for multivariate Student-t and gaussian mixture errors. Our framework allows to cast more evidence on whether the normality assumption is too restrictive when testing the CAPM. We also propose exact multivariate diagnostic checks (including tests for multivariate GARCH and mul-tivariate generalization of the well known variance ratio tests) and goodness of fit tests as well as a set estimate for the intervening nuisance parameters. Our results [over five-year subperiods] show the following: (i) multivariate normality is rejected in most subperiods, (ii) residual checks reveal no significant departures from the multivariate i.i.d. assumption, and (iii) mean-variance efficiency tests of the market portfolio is not rejected as frequently once it is allowed for the possibility of non-normal errors.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Tous mes travaux ont été réalisés à l'aide du logiciel stata 11.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’intérêt principal de cette recherche porte sur la validation d’une méthode statistique en pharmaco-épidémiologie. Plus précisément, nous allons comparer les résultats d’une étude précédente réalisée avec un devis cas-témoins niché dans la cohorte utilisé pour tenir compte de l’exposition moyenne au traitement : – aux résultats obtenus dans un devis cohorte, en utilisant la variable exposition variant dans le temps, sans faire d’ajustement pour le temps passé depuis l’exposition ; – aux résultats obtenus en utilisant l’exposition cumulative pondérée par le passé récent ; – aux résultats obtenus selon la méthode bayésienne. Les covariables seront estimées par l’approche classique ainsi qu’en utilisant l’approche non paramétrique bayésienne. Pour la deuxième le moyennage bayésien des modèles sera utilisé pour modéliser l’incertitude face au choix des modèles. La technique utilisée dans l’approche bayésienne a été proposée en 1997 mais selon notre connaissance elle n’a pas été utilisée avec une variable dépendante du temps. Afin de modéliser l’effet cumulatif de l’exposition variant dans le temps, dans l’approche classique la fonction assignant les poids selon le passé récent sera estimée en utilisant des splines de régression. Afin de pouvoir comparer les résultats avec une étude précédemment réalisée, une cohorte de personnes ayant un diagnostique d’hypertension sera construite en utilisant les bases des données de la RAMQ et de Med-Echo. Le modèle de Cox incluant deux variables qui varient dans le temps sera utilisé. Les variables qui varient dans le temps considérées dans ce mémoire sont iv la variable dépendante (premier évènement cérébrovasculaire) et une des variables indépendantes, notamment l’exposition

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les dyskinésies tardives (DT) sont des troubles moteurs associés à l’utilisation chronique des antagonistes des récepteurs dopaminergiques D2 tels que les antipsychotiques et le métoclopramide. Ces dyskinésies correspondent à une incoordination motrice portant préférentiellement sur la musculature oro-faciale. La gestion des DT s'est imposée comme défi de santé publique surtout en l’absence d’une alternative thérapeutique efficace et abordable. L’hypothèse classiquement avancée pour expliquer la physiopathologie des DT inhérente au traitement par les antipsychotiques s’articule autour de l’hypersensibilité des récepteurs dopaminergiques D2, cibles principales de ces molécules. Néanmoins, plusieurs données remettent la véracité de cette hypothèse en question. Hypothèse: nous proposons que le blocage chronique des récepteurs dopaminergiques soit effectivement responsable d’un phénomène d’hypersensibilisation mais contrairement à l’hypothèse classique, cette hypersensibilisation porterait sur des paramètres de la transmission dopaminergique autres que les récepteurs D2. De même nous postulons que cette hypersensibilisation se traduirait par des altérations des cascades signalétiques au niveau des cellules du striatum. Ces altérations aboutissent à des changements portant sur le récepteur nucléaire (Nur77), qui est hautement associé au système dopaminergique; l’induction de ces récepteurs déclencherait des cascades associées à la compensation ou à la genèse des DT. Matériels et méthodes: 23 femelles Cebus apella, réparties en 3 groupes: groupe halopéridol, groupe clozapine, et groupe contrôle, ont été exposées aux traitements respectifs pendant 6-36 mois. Après l’analyse comportementale, les animaux ont été décapités et leurs cerveaux isolés pour fin d’analyse. Hybridation in situ: nous avons fait appel à cette technique pour mesurer l’expression de l’ARNm de Nur77 et du neuropeptide enképhaline. Hybridation in situ double: nous avons exploités cette technique pour identifier les populations neuronales exprimant les récepteurs dopaminergiques D3 et localiser leur éventuelle induction. Autoradiographies des récepteurs dopaminergiques D1, D2 et D3 et autoradiographies des récepteurs i glutamatergiques mGluR5. Ces autoradiographies avaient pour objectif d’évaluer l’expression de ces différents récepteurs. Mutagenèse dirigée et transfection cellulaire: nous faisons appel à ces techniques pour reproduire le polymorphisme identifié au niveau de la région 3’UTR de l’ARNm Nur77 et évaluer l’impact que pourrait avoir ce polymorphisme sur la stabilité de l’ARNm Nur77 sinon sur l’expression de la protèine Nur77. Western Blot des kinases ERK 1 et 2: cette technique nous a servi comme moyen pour quantifier l’expression globale de ces kinases. Analyses statistiques: l’expression de l’ARNm Nur77 a été évaluée en utilisant l’analyse de la variance à un seul facteur (One way ANOVA). Nous avons procédé de la même façon pour mesurer l’expression des récepteurs D2, D3 et mGluR5. Résultats: le groupe des animaux traités par l’halopéridol montre une plus forte expression des récepteurs D3 par rapport aux sujets des autres groupes. Cette expression se produit au niveau des neurones de la voie directe. De plus, cette augmentation corrèle positivement avec la sévérité des DT. L’expression des récepteurs D2 et mGluR5 reste relativement inchangée entre les différents groupes, alors qu’un gradient d’expression a été observé pour le récepteur D1. Par ailleurs, Nur77 est induit par l’halopéridol, alors que son expression semble baisser chez les animaux traités par la clozapine. L’induction de l’expression de Nur77 par l’halopéridol est plus accrue chez les animaux non dyskinétiques. Les animaux traités par la clozapine démontrent une expression amoindrie de l’ARNm de Nur77 qui tend à être plus faible que l’expression de base. D’autre part, la présence du polymorphisme au niveau de la région 3’UTR semble affecter l’expression cellulaire de Nur77. Conclusion: ces résultats confortent notre hypothèse concernant l’existence d’un phénomène d’hypersensibilisation prenant place suite un traitement chronique par les antipsychotiques. Ce phénomène s’est traduit par une augmentation de l’expression des récepteurs D3 sans porter sur les récepteurs D2 tel que prôné classiquement. Cette hypersensibilisation des récepteurs D3 implique également l’existence d’un débalancement des voies striatales pouvant ainsi sous tendre l’apparition des DT. Ces résultats dévoilent ainsi un nouveau mécanisme qui pourrait contribuer à l’apparition des DT et pourraient permettre une meilleure gestion, nous l’espérons, des DT à l’échelle clinique.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La tomographie d’émission par positrons (TEP) est une modalité d’imagerie moléculaire utilisant des radiotraceurs marqués par des isotopes émetteurs de positrons permettant de quantifier et de sonder des processus biologiques et physiologiques. Cette modalité est surtout utilisée actuellement en oncologie, mais elle est aussi utilisée de plus en plus en cardiologie, en neurologie et en pharmacologie. En fait, c’est une modalité qui est intrinsèquement capable d’offrir avec une meilleure sensibilité des informations fonctionnelles sur le métabolisme cellulaire. Les limites de cette modalité sont surtout la faible résolution spatiale et le manque d’exactitude de la quantification. Par ailleurs, afin de dépasser ces limites qui constituent un obstacle pour élargir le champ des applications cliniques de la TEP, les nouveaux systèmes d’acquisition sont équipés d’un grand nombre de petits détecteurs ayant des meilleures performances de détection. La reconstruction de l’image se fait en utilisant les algorithmes stochastiques itératifs mieux adaptés aux acquisitions à faibles statistiques. De ce fait, le temps de reconstruction est devenu trop long pour une utilisation en milieu clinique. Ainsi, pour réduire ce temps, on les données d’acquisition sont compressées et des versions accélérées d’algorithmes stochastiques itératifs qui sont généralement moins exactes sont utilisées. Les performances améliorées par l’augmentation de nombre des détecteurs sont donc limitées par les contraintes de temps de calcul. Afin de sortir de cette boucle et permettre l’utilisation des algorithmes de reconstruction robustes, de nombreux travaux ont été effectués pour accélérer ces algorithmes sur les dispositifs GPU (Graphics Processing Units) de calcul haute performance. Dans ce travail, nous avons rejoint cet effort de la communauté scientifique pour développer et introduire en clinique l’utilisation des algorithmes de reconstruction puissants qui améliorent la résolution spatiale et l’exactitude de la quantification en TEP. Nous avons d’abord travaillé sur le développement des stratégies pour accélérer sur les dispositifs GPU la reconstruction des images TEP à partir des données d’acquisition en mode liste. En fait, le mode liste offre de nombreux avantages par rapport à la reconstruction à partir des sinogrammes, entre autres : il permet d’implanter facilement et avec précision la correction du mouvement et le temps de vol (TOF : Time-Of Flight) pour améliorer l’exactitude de la quantification. Il permet aussi d’utiliser les fonctions de bases spatio-temporelles pour effectuer la reconstruction 4D afin d’estimer les paramètres cinétiques des métabolismes avec exactitude. Cependant, d’une part, l’utilisation de ce mode est très limitée en clinique, et d’autre part, il est surtout utilisé pour estimer la valeur normalisée de captation SUV qui est une grandeur semi-quantitative limitant le caractère fonctionnel de la TEP. Nos contributions sont les suivantes : - Le développement d’une nouvelle stratégie visant à accélérer sur les dispositifs GPU l’algorithme 3D LM-OSEM (List Mode Ordered-Subset Expectation-Maximization), y compris le calcul de la matrice de sensibilité intégrant les facteurs d’atténuation du patient et les coefficients de normalisation des détecteurs. Le temps de calcul obtenu est non seulement compatible avec une utilisation clinique des algorithmes 3D LM-OSEM, mais il permet également d’envisager des reconstructions rapides pour les applications TEP avancées telles que les études dynamiques en temps réel et des reconstructions d’images paramétriques à partir des données d’acquisitions directement. - Le développement et l’implantation sur GPU de l’approche Multigrilles/Multitrames pour accélérer l’algorithme LMEM (List-Mode Expectation-Maximization). L’objectif est de développer une nouvelle stratégie pour accélérer l’algorithme de référence LMEM qui est un algorithme convergent et puissant, mais qui a l’inconvénient de converger très lentement. Les résultats obtenus permettent d’entrevoir des reconstructions en temps quasi-réel que ce soit pour les examens utilisant un grand nombre de données d’acquisition aussi bien que pour les acquisitions dynamiques synchronisées. Par ailleurs, en clinique, la quantification est souvent faite à partir de données d’acquisition en sinogrammes généralement compressés. Mais des travaux antérieurs ont montré que cette approche pour accélérer la reconstruction diminue l’exactitude de la quantification et dégrade la résolution spatiale. Pour cette raison, nous avons parallélisé et implémenté sur GPU l’algorithme AW-LOR-OSEM (Attenuation-Weighted Line-of-Response-OSEM) ; une version de l’algorithme 3D OSEM qui effectue la reconstruction à partir de sinogrammes sans compression de données en intégrant les corrections de l’atténuation et de la normalisation dans les matrices de sensibilité. Nous avons comparé deux approches d’implantation : dans la première, la matrice système (MS) est calculée en temps réel au cours de la reconstruction, tandis que la seconde implantation utilise une MS pré- calculée avec une meilleure exactitude. Les résultats montrent que la première implantation offre une efficacité de calcul environ deux fois meilleure que celle obtenue dans la deuxième implantation. Les temps de reconstruction rapportés sont compatibles avec une utilisation clinique de ces deux stratégies.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Hospital acquired infections (HAI) are costly but many are avoidable. Evaluating prevention programmes requires data on their costs and benefits. Estimating the actual costs of HAI (a measure of the cost savings due to prevention) is difficult as HAI changes cost by extending patient length of stay, yet, length of stay is a major risk factor for HAI. This endogeneity bias can confound attempts to measure accurately the cost of HAI. We propose a two-stage instrumental variables estimation strategy that explicitly controls for the endogeneity between risk of HAI and length of stay. We find that a 10% reduction in ex ante risk of HAI results in an expected savings of £693 ($US 984).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In this paper, a singularly perturbed ordinary differential equation with non-smooth data is considered. The numerical method is generated by means of a Petrov-Galerkin finite element method with the piecewise-exponential test function and the piecewise-linear trial function. At the discontinuous point of the coefficient, a special technique is used. The method is shown to be first-order accurate and singular perturbation parameter uniform convergence. Finally, numerical results are presented, which are in agreement with theoretical results.