971 resultados para Diagnostic tests and procedures


Relevância:

100.00% 100.00%

Publicador:

Resumo:

We discuss statistical inference problems associated with identification and testability in econometrics, and we emphasize the common nature of the two issues. After reviewing the relevant statistical notions, we consider in turn inference in nonparametric models and recent developments on weakly identified models (or weak instruments). We point out that many hypotheses, for which test procedures are commonly proposed, are not testable at all, while some frequently used econometric methods are fundamentally inappropriate for the models considered. Such situations lead to ill-defined statistical problems and are often associated with a misguided use of asymptotic distributional results. Concerning nonparametric hypotheses, we discuss three basic problems for which such difficulties occur: (1) testing a mean (or a moment) under (too) weak distributional assumptions; (2) inference under heteroskedasticity of unknown form; (3) inference in dynamic models with an unlimited number of parameters. Concerning weakly identified models, we stress that valid inference should be based on proper pivotal functions —a condition not satisfied by standard Wald-type methods based on standard errors — and we discuss recent developments in this field, mainly from the viewpoint of building valid tests and confidence sets. The techniques discussed include alternative proposed statistics, bounds, projection, split-sampling, conditioning, Monte Carlo tests. The possibility of deriving a finite-sample distributional theory, robustness to the presence of weak instruments, and robustness to the specification of a model for endogenous explanatory variables are stressed as important criteria assessing alternative procedures.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La dernière décennie a connu un intérêt croissant pour les problèmes posés par les variables instrumentales faibles dans la littérature économétrique, c’est-à-dire les situations où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter. En effet, il est bien connu que lorsque les instruments sont faibles, les distributions des statistiques de Student, de Wald, du ratio de vraisemblance et du multiplicateur de Lagrange ne sont plus standard et dépendent souvent de paramètres de nuisance. Plusieurs études empiriques portant notamment sur les modèles de rendements à l’éducation [Angrist et Krueger (1991, 1995), Angrist et al. (1999), Bound et al. (1995), Dufour et Taamouti (2007)] et d’évaluation des actifs financiers (C-CAPM) [Hansen et Singleton (1982,1983), Stock et Wright (2000)], où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter, ont montré que l’utilisation de ces statistiques conduit souvent à des résultats peu fiables. Un remède à ce problème est l’utilisation de tests robustes à l’identification [Anderson et Rubin (1949), Moreira (2002), Kleibergen (2003), Dufour et Taamouti (2007)]. Cependant, il n’existe aucune littérature économétrique sur la qualité des procédures robustes à l’identification lorsque les instruments disponibles sont endogènes ou à la fois endogènes et faibles. Cela soulève la question de savoir ce qui arrive aux procédures d’inférence robustes à l’identification lorsque certaines variables instrumentales supposées exogènes ne le sont pas effectivement. Plus précisément, qu’arrive-t-il si une variable instrumentale invalide est ajoutée à un ensemble d’instruments valides? Ces procédures se comportent-elles différemment? Et si l’endogénéité des variables instrumentales pose des difficultés majeures à l’inférence statistique, peut-on proposer des procédures de tests qui sélectionnent les instruments lorsqu’ils sont à la fois forts et valides? Est-il possible de proposer les proédures de sélection d’instruments qui demeurent valides même en présence d’identification faible? Cette thèse se focalise sur les modèles structurels (modèles à équations simultanées) et apporte des réponses à ces questions à travers quatre essais. Le premier essai est publié dans Journal of Statistical Planning and Inference 138 (2008) 2649 – 2661. Dans cet essai, nous analysons les effets de l’endogénéité des instruments sur deux statistiques de test robustes à l’identification: la statistique d’Anderson et Rubin (AR, 1949) et la statistique de Kleibergen (K, 2003), avec ou sans instruments faibles. D’abord, lorsque le paramètre qui contrôle l’endogénéité des instruments est fixe (ne dépend pas de la taille de l’échantillon), nous montrons que toutes ces procédures sont en général convergentes contre la présence d’instruments invalides (c’est-à-dire détectent la présence d’instruments invalides) indépendamment de leur qualité (forts ou faibles). Nous décrivons aussi des cas où cette convergence peut ne pas tenir, mais la distribution asymptotique est modifiée d’une manière qui pourrait conduire à des distorsions de niveau même pour de grands échantillons. Ceci inclut, en particulier, les cas où l’estimateur des double moindres carrés demeure convergent, mais les tests sont asymptotiquement invalides. Ensuite, lorsque les instruments sont localement exogènes (c’est-à-dire le paramètre d’endogénéité converge vers zéro lorsque la taille de l’échantillon augmente), nous montrons que ces tests convergent vers des distributions chi-carré non centrées, que les instruments soient forts ou faibles. Nous caractérisons aussi les situations où le paramètre de non centralité est nul et la distribution asymptotique des statistiques demeure la même que dans le cas des instruments valides (malgré la présence des instruments invalides). Le deuxième essai étudie l’impact des instruments faibles sur les tests de spécification du type Durbin-Wu-Hausman (DWH) ainsi que le test de Revankar et Hartley (1973). Nous proposons une analyse en petit et grand échantillon de la distribution de ces tests sous l’hypothèse nulle (niveau) et l’alternative (puissance), incluant les cas où l’identification est déficiente ou faible (instruments faibles). Notre analyse en petit échantillon founit plusieurs perspectives ainsi que des extensions des précédentes procédures. En effet, la caractérisation de la distribution de ces statistiques en petit échantillon permet la construction des tests de Monte Carlo exacts pour l’exogénéité même avec les erreurs non Gaussiens. Nous montrons que ces tests sont typiquement robustes aux intruments faibles (le niveau est contrôlé). De plus, nous fournissons une caractérisation de la puissance des tests, qui exhibe clairement les facteurs qui déterminent la puissance. Nous montrons que les tests n’ont pas de puissance lorsque tous les instruments sont faibles [similaire à Guggenberger(2008)]. Cependant, la puissance existe tant qu’au moins un seul instruments est fort. La conclusion de Guggenberger (2008) concerne le cas où tous les instruments sont faibles (un cas d’intérêt mineur en pratique). Notre théorie asymptotique sous les hypothèses affaiblies confirme la théorie en échantillon fini. Par ailleurs, nous présentons une analyse de Monte Carlo indiquant que: (1) l’estimateur des moindres carrés ordinaires est plus efficace que celui des doubles moindres carrés lorsque les instruments sont faibles et l’endogenéité modérée [conclusion similaire à celle de Kiviet and Niemczyk (2007)]; (2) les estimateurs pré-test basés sur les tests d’exogenété ont une excellente performance par rapport aux doubles moindres carrés. Ceci suggère que la méthode des variables instrumentales ne devrait être appliquée que si l’on a la certitude d’avoir des instruments forts. Donc, les conclusions de Guggenberger (2008) sont mitigées et pourraient être trompeuses. Nous illustrons nos résultats théoriques à travers des expériences de simulation et deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le problème bien connu du rendement à l’éducation. Le troisième essai étend le test d’exogénéité du type Wald proposé par Dufour (1987) aux cas où les erreurs de la régression ont une distribution non-normale. Nous proposons une nouvelle version du précédent test qui est valide même en présence d’erreurs non-Gaussiens. Contrairement aux procédures de test d’exogénéité usuelles (tests de Durbin-Wu-Hausman et de Rvankar- Hartley), le test de Wald permet de résoudre un problème courant dans les travaux empiriques qui consiste à tester l’exogénéité partielle d’un sous ensemble de variables. Nous proposons deux nouveaux estimateurs pré-test basés sur le test de Wald qui performent mieux (en terme d’erreur quadratique moyenne) que l’estimateur IV usuel lorsque les variables instrumentales sont faibles et l’endogénéité modérée. Nous montrons également que ce test peut servir de procédure de sélection de variables instrumentales. Nous illustrons les résultats théoriques par deux applications empiriques: le modèle bien connu d’équation du salaire [Angist et Krueger (1991, 1999)] et les rendements d’échelle [Nerlove (1963)]. Nos résultats suggèrent que l’éducation de la mère expliquerait le décrochage de son fils, que l’output est une variable endogène dans l’estimation du coût de la firme et que le prix du fuel en est un instrument valide pour l’output. Le quatrième essai résout deux problèmes très importants dans la littérature économétrique. D’abord, bien que le test de Wald initial ou étendu permette de construire les régions de confiance et de tester les restrictions linéaires sur les covariances, il suppose que les paramètres du modèle sont identifiés. Lorsque l’identification est faible (instruments faiblement corrélés avec la variable à instrumenter), ce test n’est en général plus valide. Cet essai développe une procédure d’inférence robuste à l’identification (instruments faibles) qui permet de construire des régions de confiance pour la matrices de covariances entre les erreurs de la régression et les variables explicatives (possiblement endogènes). Nous fournissons les expressions analytiques des régions de confiance et caractérisons les conditions nécessaires et suffisantes sous lesquelles ils sont bornés. La procédure proposée demeure valide même pour de petits échantillons et elle est aussi asymptotiquement robuste à l’hétéroscédasticité et l’autocorrélation des erreurs. Ensuite, les résultats sont utilisés pour développer les tests d’exogénéité partielle robustes à l’identification. Les simulations Monte Carlo indiquent que ces tests contrôlent le niveau et ont de la puissance même si les instruments sont faibles. Ceci nous permet de proposer une procédure valide de sélection de variables instrumentales même s’il y a un problème d’identification. La procédure de sélection des instruments est basée sur deux nouveaux estimateurs pré-test qui combinent l’estimateur IV usuel et les estimateurs IV partiels. Nos simulations montrent que: (1) tout comme l’estimateur des moindres carrés ordinaires, les estimateurs IV partiels sont plus efficaces que l’estimateur IV usuel lorsque les instruments sont faibles et l’endogénéité modérée; (2) les estimateurs pré-test ont globalement une excellente performance comparés à l’estimateur IV usuel. Nous illustrons nos résultats théoriques par deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le modèle de rendements à l’éducation. Dans la première application, les études antérieures ont conclu que les instruments n’étaient pas trop faibles [Dufour et Taamouti (2007)] alors qu’ils le sont fortement dans la seconde [Bound (1995), Doko et Dufour (2009)]. Conformément à nos résultats théoriques, nous trouvons les régions de confiance non bornées pour la covariance dans le cas où les instruments sont assez faibles.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Mycobacterium avium ssp. paratuberculosis (MAP) est l'agent causal de la paratuberculose, maladie entérique, chronique et incurable des ruminants, avec un impact économique important. Une meilleure compréhension des facteurs de risque associés à l'introduction de la maladie dans un troupeau est essentielle pour sa prévention. L’amélioration des tests diagnostiques est aussi importante pour son contrôle. L’introduction des nouveaux animaux dans le troupeau et la présence et contact des différentes espèces sauvages et domestiques avec les vaches, semblent être des facteurs de risques d’introduction de la maladie. Nous avons réalisé une revue systématique dont l`objective était de recueillir l’information pertinente pour répondre à la question sur l’importance de ces facteurs et leur impact sur l’introduction de la maladie dans un troupeau. D`un autre côté, la détection de MAP dans les fèces par culture bactérienne demeure la méthode diagnostique de choix malgré les facteurs qui l`affectent. Une série de 3 étapes est requise afin de confirmer la présence du MAP : (1) culture (2) coloration, et (3) confirmation du MAP par PCR (si détecté à l´étape 2). Certains échantillons fécaux présentent une particularité en raison de leur forte charge de micro-organismes. Ces contaminants peuvent interférer avec la croissance et la détection de MAP. Une étude visant à : a) estimer l'impact des certain covariables sur les résultats de la culture de MAP parmi l`analyse rétrospective d`un banque des données et b) évaluer la possibilité d'optimiser le processus de diagnostic du MAP en effectuant l'analyse PCR sur les cultures déclarées comme contaminées a été réalisée.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’annonce d’un diagnostic de cancer devrait être considérée par les professionnels de la santé, comme un processus constitué de plusieurs étapes que doit traverser la personne atteinte, plutôt que comme un évènement en soi (Tobin & Begley, 2008). Lors de la période entourant l’annonce du diagnostic, la personne peut être confrontée à des difficultés reliées à la navigation dans un système de santé complexe, en plus des sentiments négatifs engendrés par la crainte de la maladie. Pour soutenir les personnes atteintes de cancer, le programme québécois de lutte contre le cancer (PQLCC), a instauré le rôle de l’infirmière pivot en oncologie (IPO) en 2000. À l’heure actuelle, peu d’études, à notre connaissance, se sont attardées au soutien de l’IPO dans cette période. La présente étude avait pour but, d’explorer les perceptions de personnes atteintes de cancer quant au soutien offert par l’IPO, dans la période entourant l’annonce du diagnostic. L’étudiante-chercheuse s’est inspirée du Cadre de soins de soutien de Fitch (1994) pour entreprendre cette étude qualitative descriptive. Des entrevues individuelles auprès de sept personnes atteintes de différents cancers ont été réalisées. L’analyse de données a été effectuée à l’aide de la méthode de Miles et Huberman (2003), par la transcription intégrale des entrevues. Elle a permis d’identifier trois thèmes soit : le soutien formel requis pour faire face au chaos, le soutien informationnel et émotionnel à parfaire et le soutien disponible apportant sécurité et assurance. Les résultats ont mis en évidence les perceptions de personnes atteintes de cancer quant au soutien offert par l’IPO soit la nécessité de rendre accessible les soins et services de l’IPO plus tôt dans la période entourant l’annonce du diagnostic. Les personnes atteintes de cancer ont besoin d’être aidées à faire face aux difficultés rencontrées lors de cette période, notamment à l’incertitude reliée aux résultats d’examens diagnostics, à l’incompréhension des informations reçues et aux sentiments négatifs engendrés par la menace de la maladie. Les résultats évoquent le souhait des participants, à l’effet que, l’offre de soutien de l’IPO, soit axée sur leurs besoins essentiellement dans les domaines informationnel et émotionnel. Ils auraient souhaité pouvoir, partager leur expérience avec l’IPO, mieux comprendre le diagnostic de cancer et savoir davantage à quoi s’attendre lors du début des traitements. Par ailleurs, savoir que le soutien de l’IPO est disponible apporte aux personnes atteintes de cancer une assurance et une confiance en leur capacité à faire face aux traitements et leur apporte un sentiment de sécurité.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Introduction : Faute de tests diagnostiques précis, une étude histologique est souvent nécessaire pour diagnostiquer les tuméfactions latérales solides cervicales (TLSC) chez l’enfant. Nous étudierons les modalités diagnostiques pour les TLSC afin de créer une approche diagnostique standardisée intégrant de nouveaux outils diagnostics à ceux actuellement offerts. Méthodologie : Après révision des étiologies et des modalités diagnostiques, une revue de la littérature a été effectuée. Une étude rétrospective entre 2002 à 2012 est présentée suivie d’une étude de faisabilité de la cytoponction. Puis, un arbre décisionnel est créé basé sur nos résultats et sur l’avis d’un groupe d’experts de différentes disciplines médicales. Résultats : Le diagnostic différentiel des TLSC est varié, la littérature scientifique est désuète et la comparaison reste difficile. Pour nos 42 enfants avec un âge médian de sept ans, les tuméfactions inflammatoires représentent 59% (26/44 biopsies) des TLSC, surtout des lymphadénites à mycobactérie atypique (13/26) qui ont un dépistage ardu et multimodal. La biopsie fut peu contributive à la prise en charge dans 39% (17/44) des cas. La cytoponction sous échoguidance est une technique diagnostique faisable et moins invasive que la biopsie. L’arbre décisionnel offre aux cliniciens une approche diagnostique standardisée des TLSC appuyée sur des faits scientifiques que nous souhaitons valider par une étude prospective. Conclusion : Les TLSC chez l’enfant représentent un défi diagnostic et notre arbre décisionnel répond au manque de standardisation dans l’approche diagnostique. Une étude prospective sur notre arbre décisionnel est en voie d’acceptation au CHU Sainte-Justine.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les illustrations accompagnant le texte ont été dessinées par monsieur Mathieu Gagnon.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’infertilité affecte jusqu’à 15-20% des couples en âge de se reproduire. C’est pourquoi, mieux comprendre les mécanismes à la base de la fécondation est essentiel pour l’identification de nouvelles causes d’infertilité et l’optimisation des techniques de reproduction assistée. La capacitation est une étape de la maturation des spermatozoïdes qui se déroule dans le tractus génital femelle. Elle est requise pour la fécondation d’un ovocyte. Notre laboratoire a démontré que des protéines du plasma séminal bovin, appelées protéines Binder of SPerm (BSP), se lient aux phospholipides portant des groupements choline à la surface de la membrane des spermatozoïdes lors de l’éjaculation et promeuvent la capacitation. Ces protéines exprimées par les vésicules séminales sont ubiquitaires chez les mammifères et ont été étudiées chez plusieurs espèces dont l’étalon, le porc, le bouc et le bélier. Récemment, l’expression de gènes homologues aux BSP a été découverte dans les épididymes d’humains (BSPH1) et de souris (Bsph1 et Bsph2). Notre hypothèse est que les BSP chez ces deux espèces sont ajoutées aux spermatozoïdes lors de la maturation épididymaire et ont des rôles dans les fonctions spermatiques, similaires à ceux des protéines BSP bovines. Les protéines BSP humaines et murines représentent une faible fraction des protéines totales du plasma séminal. Pour cette raison, afin d’étudier leurs caractéristiques biochimiques et fonctionnelles, des protéines recombinantes ont été produites. Les protéines recombinantes ont été exprimées dans des cellules Escherichia coli origami B(DE3)pLysS en utilisant un vecteur d’expression pET32a. Suivant la lyse cellulaire, les protéines ont été dénaturées avec de l’urée et purifiées par chromatographie d’affinité sur ions métalliques immobilisés. Une fois liées à la colonne, les protéines ont été repliées à l’aide d’un gradient d’urée décroissant avant d’être éluées. Cette méthode a mené à la production de trois protéines recombinantes (rec-BSPH1 humaine, rec-BSPH1 murine et rec-BSPH2 murine) pures et fonctionnelles. Des expériences de chromatographie d’affinité et de co-sédimentation nous ont permis de démontrer que les trois protéines peuvent se lier à des ligands connus des protéines BSP comme la gélatine et l’héparine en plus de pouvoir se lier aux spermatozoïdes. Nos études ont également révélées que les deux protéines rec-BSPH1 peuvent se lier aux liposomes de phosphatidylcholine (PC) et sont capable de promouvoir la capacitation des spermatozoïdes. À l’opposé, rec-BSPH2 ne peut ni se lier aux liposomes de PC, ni stimuler la capacitation. Finalement, les protéines recombinantes n’ont aucun effet sur la réaction acrosomique ou sur la motilité des spermatozoïdes. Chez les bovins, les protéines BSP induisent la capacitation grâce des interactions avec les lipoprotéines de haute densité (HDL) et les glycosaminoglycanes. Puisque le HDL est également un joueur important de la capacitation chez la souris, le rôle de la protéine native BSPH1 murine au niveau de la capacitation induite par le HDL a été étudié. Les résultats obtenus suggèrent que, in vivo, la protéine BSPH1 de souris serait impliquée dans la capacitation via une interaction directe avec le HDL. Comme les protéines BSPH1 humaines et murines sont orthologues, ces résultats pourraient aussi s’appliquer à la fertilité humaine. Les résultats présentés dans cette thèse pourraient mener à une meilleure compréhension de la fertilité masculine et aider à améliorer les techniques de reproduction assistée. Ils pourraient également mener au développement de nouveaux tests diagnostiques ou de contraceptifs masculins.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La coledocolitiasis es una patología que requiere una aproximación adecuada para determinar su manejo dadas las posibles complicaciones por omisión en su diagnostico o la realización de procedimientos terapéuticos. La colangiopancreatografía retrógrada endoscópica (CPRE) es una opción en su manejo, pero es un procedimiento invasivo con riesgos de morbilidad y mortalidad considerables. El objetivo del estudio es determinar la correlación existente entre los resultados de pruebas serológicas, el diámetro hallado de la vía biliar por ecografía, así como el diagnostico radiológico de coledocolitiasis y las CPRE realizadas en el Hospital Universitario de la Samaritana (HUS) entre el 01/05/2009 y 31/08/2010. Materiales y Método: Estudio de concordancia de pruebas diagnósticas. Donde a través de la recolección de la información a través de un cuestionario sobre identificación de pacientes con diagnóstico presuntivo de coledocolitiasis, resultados serológicos, hallazgos ecográficos de la vía biliar y el reporte de CPRE se realizo un análisis descriptivo de la población, se calcularon los valores de sensibilidad, especificidad y cocientes de probabilidades, además de determinar el grado de concordancia entre las pruebas utilizando los paquetes estadísticos Stata v. 11 (StataCorp; Tx, USA) y SPSS v. 18 (SPSS Inc.; Ill, USA) Dada la evidencia actual ningún indicador utilizado de forma única (historia clínica, ecografía, marcadores serológicos) es capaz de determinar el diagnostico de coledocolitiasis con suficiente precisión, sin embargo en pacientes mayores cuya clínica sugiere patología biliar obstructiva, existen algunos puntos de corte que hacen parte de algoritmos en la literatura, los cuales son una guía para determinar la necesidad de CPRE y se pueden utilizar en nuestra institución

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Introducción. El cateterismo cardiaco derecho representa el estándar de referencia para el diagnóstico de hipertensión pulmonar, sin embargo el rendimiento de la ecocardiografía como estudio inicial ha mostrado buena correlación con las variables medidas por cateterismo. El presente estudio pretende describir el grado de correlación y concordancia entre la ecocardiografía y el cateterismo cardiaco derecho para la medición de la presión sistólica de la arteria pulmonar. Materiales y métodos. Se realizó un estudio observacional retrospectivo de los pacientes sometidos a cateterismo cardiaco derecho entre los años 2009 a 2014 y se compararon con los datos de ecocardiograma más cercano a este cateterismo, teniendo en cuenta la presión sistólica de la arteria pulmonar (PSAP) en las dos modalidades diagnósticas mediante correlación y concordancia estadística según los coeficientes de Pearson y el índice de Lin respectivamente. Resultados. Se recolectaron un total de 169 pacientes con un índice de correlación (r) obtenido para la medición de PSAP del total de la muestra de 0.73 p < 0.0001 mostrando un grado de correlación alto para toda la muestra evaluada. El análisis de concordancia obtenido para toda la población a partir del índice de Lin fue de 0.71 lo que determinó una pobre concordancia. Discusión. Se encontró buena correlación entre ecocardiografía y cateterismo cardiaco derecho para la medición de la PSAP, sin embargo la concordancia entre los métodos diagnósticos es pobre, por tanto el ecocardiograma no reemplaza al cateterismo cardiaco derecho como estudio de elección para diagnóstico y seguimiento de pacientes con hipertensión pulmonar.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This paper compares the use of two diagnostic tests, Gaze Stabilization Test (GST) and the Dynamic Visual Acuity Test (DVAT) to detect unilateral vestibular dysfunction.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Presented herein is an experimental design that allows the effects of several radiative forcing factors on climate to be estimated as precisely as possible from a limited suite of atmosphere-only general circulation model (GCM) integrations. The forcings include the combined effect of observed changes in sea surface temperatures, sea ice extent, stratospheric (volcanic) aerosols, and solar output, plus the individual effects of several anthropogenic forcings. A single linear statistical model is used to estimate the forcing effects, each of which is represented by its global mean radiative forcing. The strong colinearity in time between the various anthropogenic forcings provides a technical problem that is overcome through the design of the experiment. This design uses every combination of anthropogenic forcing rather than having a few highly replicated ensembles, which is more commonly used in climate studies. Not only is this design highly efficient for a given number of integrations, but it also allows the estimation of (nonadditive) interactions between pairs of anthropogenic forcings. The simulated land surface air temperature changes since 1871 have been analyzed. The changes in natural and oceanic forcing, which itself contains some forcing from anthropogenic and natural influences, have the most influence. For the global mean, increasing greenhouse gases and the indirect aerosol effect had the largest anthropogenic effects. It was also found that an interaction between these two anthropogenic effects in the atmosphere-only GCM exists. This interaction is similar in magnitude to the individual effects of changing tropospheric and stratospheric ozone concentrations or to the direct (sulfate) aerosol effect. Various diagnostics are used to evaluate the fit of the statistical model. For the global mean, this shows that the land temperature response is proportional to the global mean radiative forcing, reinforcing the use of radiative forcing as a measure of climate change. The diagnostic tests also show that the linear model was suitable for analyses of land surface air temperature at each GCM grid point. Therefore, the linear model provides precise estimates of the space time signals for all forcing factors under consideration. For simulated 50-hPa temperatures, results show that tropospheric ozone increases have contributed to stratospheric cooling over the twentieth century almost as much as changes in well-mixed greenhouse gases.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The purpose of this study was to apply and compare two time-domain analysis procedures in the determination of oxygen uptake (VO2) kinetics in response to a pseudorandom binary sequence (PRBS) exercise test. PRBS exercise tests have typically been analysed in the frequency domain. However, the complex interpretation of frequency responses may have limited the application of this procedure in both sporting and clinical contexts, where a single time measurement would facilitate subject comparison. The relative potential of both a mean response time (MRT) and a peak cross-correlation time (PCCT) was investigated. This study was divided into two parts: a test-retest reliability study (part A), in which 10 healthy male subjects completed two identical PRBS exercise tests, and a comparison of the VO2 kinetics of 12 elite endurance runners (ER) and 12 elite sprinters (SR; part B). In part A, 95% limits of agreement were calculated for comparison between MRT and PCCT. The results of part A showed no significant difference between test and retest as assessed by MRT [mean (SD) 42.2 (4.2) s and 43.8 (6.9) s] or by PCCT [21.8 (3.7) s and 22.7 (4.5) s]. Measurement error (%) was lower for MRT in comparison with PCCT (16% and 25%, respectively). In part B of the study, the VO2 kinetics of ER were significantly faster than those of SR, as assessed by MRT [33.4 (3.4) s and 39.9 (7.1) s, respectively; P<0.01] and PCCT [20.9 (3.8) s and 24.8 (4.5) s; P < 0.05]. It is possible that either analysis procedure could provide a single test measurement Of VO2 kinetics; however, the greater reliability of the MRT data suggests that this method has more potential for development in the assessment Of VO2 kinetics by PRBS exercise testing.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Background: Jargon aphasia with neologisms (i.e., novel nonword utterances) is a challenging language disorder that lacks a definitive theoretical description as well as clear treatment recommendations (Marshall, 2006). Aim: The aims of this two part investigation were to determine the source of neologisms in an individual with jargon aphasia (FF), to identify potential facilitatory semantic and/or phonological cuing effects in picture naming, and to determine whether the timing of the cues relative to the target picture mediated the cuing advantage. Methods and Procedures: FF’s underlying linguistic deficits were determined using several cognitive and linguistic tests. A series of computerized naming experiments using a modified version of the 175 item-Philadelphia Naming Test (Roach, Schwartz, Martin, Grewal, & Brecher, 1996) manipulated the cue type (semantic versus phonological) and relatedness (related versus unrelated). In a follow-up experiment, the relative timing of phonological cues was manipulated to test the effect of timing on the cuing advantage. The accuracy of naming responses and error patterns were analyzed. Outcome and Results: FF’s performance on the linguistic and cognitive test battery revealed a severe naming impairment with relatively spared word and nonword repetition, auditory comprehension of words and monitoring, and fairly well preserved semantic abilities. This performance profile was used to evaluate various explanations for neologisms including a loss of phonological codes, monitoring failure, and impairments in semantic system. The primary locus of his deficit appears to involve the connection between semantics to phonology, specifically, when word production involves accessing the phonological forms following semantic access. FF showed a significant cuing advantage only for phonological cues in picture naming, particularly when the cue preceded or coincided with the onset of the target picture. Conclusions: When integrated with previous findings, the results from this study suggest that the core deficit of this and at least some other jargon aphasics is in the connection from semantics to phonology. The facilitative advantage of phonological cues could potentially be exploited in future clinical and research studies to test the effectiveness of these cues for enhancing naming performance in individuals like FF.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Blood clotting response (BCR) resistance tests are available for a number of anticoagulant rodenticides. However, during the development of these tests many of the test parameters have been changed, making meaningful comparisons between results difficult. It was recognised that a standard methodology was urgently required for future BCR resistance tests and, accordingly, this document presents a reappraisal of published tests, and proposes a standard protocol for future use (see Appendix). The protocol can be used to provide information on the incidence and degree of resistance in a particular rodent population; to provide a simple comparison of resistance factors between active ingredients, thus giving clear information about cross-resistance for any given strain; and to provide comparisons of susceptibility or resistance between different populations. The methodology has a sound statistical basis in being based on the ED50 response, and requires many fewer animals than the resistance tests in current use. Most importantly, tests can be used to give a clear indication of the likely practical impact of the resistance on field efficacy. The present study was commissioned and funded by the Rodenticide Resistance Action Committee (RRAC) of CropLife International.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The detection of long-range dependence in time series analysis is an important task to which this paper contributes by showing that whilst the theoretical definition of a long-memory (or long-range dependent) process is based on the autocorrelation function, it is not possible for long memory to be identified using the sum of the sample autocorrelations, as usually defined. The reason for this is that the sample sum is a predetermined constant for any stationary time series; a result that is independent of the sample size. Diagnostic or estimation procedures, such as those in the frequency domain, that embed this sum are equally open to this criticism. We develop this result in the context of long memory, extending it to the implications for the spectral density function and the variance of partial sums of a stationary stochastic process. The results are further extended to higher order sample autocorrelations and the bispectral density. The corresponding result is that the sum of the third order sample (auto) bicorrelations at lags h,k≥1, is also a predetermined constant, different from that in the second order case, for any stationary time series of arbitrary length.