937 resultados para Process control -- Statistical methods
Resumo:
This paper employs the one-sector Real Business Cycle model as a testing ground for four different procedures to estimate Dynamic Stochastic General Equilibrium (DSGE) models. The procedures are: 1 ) Maximum Likelihood, with and without measurement errors and incorporating Bayesian priors, 2) Generalized Method of Moments, 3) Simulated Method of Moments, and 4) Indirect Inference. Monte Carlo analysis indicates that all procedures deliver reasonably good estimates under the null hypothesis. However, there are substantial differences in statistical and computational efficiency in the small samples currently available to estimate DSGE models. GMM and SMM appear to be more robust to misspecification than the alternative procedures. The implications of the stochastic singularity of DSGE models for each estimation method are fully discussed.
Resumo:
Statistical tests in vector autoregressive (VAR) models are typically based on large-sample approximations, involving the use of asymptotic distributions or bootstrap techniques. After documenting that such methods can be very misleading even with fairly large samples, especially when the number of lags or the number of equations is not small, we propose a general simulation-based technique that allows one to control completely the level of tests in parametric VAR models. In particular, we show that maximized Monte Carlo tests [Dufour (2002)] can provide provably exact tests for such models, whether they are stationary or integrated. Applications to order selection and causality testing are considered as special cases. The technique developed is applied to quarterly and monthly VAR models of the U.S. economy, comprising income, money, interest rates and prices, over the period 1965-1996.
Resumo:
Many unit root and cointegration tests require an estimate of the spectral density function at frequency zero at some process. Kernel estimators based on weighted sums of autocovariances constructed using estimated residuals from an AR(1) regression are commonly used. However, it is known that with substantially correlated errors, the OLS estimate of the AR(1) parameter is severely biased. in this paper, we first show that this least squares bias induces a significant increase in the bias and mean-squared error of kernel-based estimators.
Resumo:
La consolidation est le processus qui transforme une nouvelle trace mnésique labile en une autre plus stable et plus solide. Une des tâches utilisées en laboratoire pour l’exploration de la consolidation motrice dans ses dimensions comportementale et cérébrale est la tâche d’apprentissage de séquences motrices. Celle-ci consiste à reproduire une même série de mouvements des doigts, apprise de manière implicite ou explicite, tout en mesurant l’amélioration dans l’exécution. Les études récentes ont montré que, dans le cas de l’apprentissage explicite de cette tâche, la consolidation de la trace mnésique associée à cette nouvelle habileté dépendrait du sommeil, et plus particulièrement des fuseaux en sommeil lent. Et bien que deux types de fuseaux aient été décrits (lents et rapides), le rôle de chacun d’eux dans la consolidation d’une séquence motrice est encore mal exploré. En effet, seule une étude s’est intéressée à ce rôle, montrant alors une implication des fuseaux rapides dans ce processus mnésique suite à une nuit artificiellement altérée. D’autre part, les études utilisant l’imagerie fonctionnelle (IRMf et PET scan) menées par différentes équipes dont la notre, ont montré des changements au niveau de l’activité du système cortico-striatal suite à la consolidation motrice. Cependant, aucune corrélation n’a été faite à ce jour entre ces changements et les caractéristiques des fuseaux du sommeil survenant au cours de la nuit suivant un apprentissage moteur. Les objectifs de cette thèse étaient donc: 1) de déterminer, à travers des enregistrements polysomnographiques et des analyses corrélationnelles, les caractéristiques des deux types de fuseaux (i.e. lents et rapides) associées à la consolidation d’une séquence motrice suite à une nuit de sommeil non altérée, et 2) d’explorer, à travers des analyses corrélationnelles entre les données polysomnographiques et le signal BOLD (« Blood Oxygenated Level Dependent »), acquis à l’aide de l’imagerie par résonance magnétique fonctionnelle (IRMf), l’association entre les fuseaux du sommeil et les activations cérébrales suite à la consolidation de la séquence motrice. Les résultats de notre première étude ont montré une implication des fuseaux rapides, et non des fuseaux lents, dans la consolidation d’une séquence motrice apprise de manière explicite après une nuit de sommeil non altérée, corroborant ainsi les résultats des études antérieures utilisant des nuits de sommeil altérées. En effet, les analyses statistiques ont mis en évidence une augmentation significative de la densité des fuseaux rapides durant la nuit suivant l’apprentissage moteur par comparaison à la nuit contrôle. De plus, cette augmentation corrélait avec les gains spontanés de performance suivant la nuit. Par ailleurs, les résultats de notre seconde étude ont mis en évidence des corrélations significatives entre l’amplitude des fuseaux de la nuit expérimentale d’une part et les gains spontanés de performance ainsi que les changements du signal BOLD au niveau du système cortico-striatal d’autre part. Nos résultats suggèrent donc un lien fonctionnel entre les fuseaux du sommeil, les gains de performance ainsi que les changements neuronaux au niveau du système cortico-striatal liés à la consolidation d’une séquence motrice explicite. Par ailleurs, ils supportent l’implication des fuseaux rapides dans ce type de consolidation ; ceux-ci aideraient à l’activation des circuits neuronaux impliqués dans ce processus mnésique et amélioreraient par la même occasion la consolidation motrice liée au sommeil.
Resumo:
Objectif: Définir l’effet des lipides et du traitement de la dyslipidémie sur les cancers de la prostate et de la vessie en utilisant différents devis d’étude et en tenant compte de la présence de plusieurs biais, particulièrement le biais du temps immortel. Devis: Le premier volet utilise un devis rétrospectif de type cas témoins. Un questionnaire semi-quantitatif de fréquence de consommation alimentaire validé a été utilisé. Le génotype COX2 de neuf polymorphisme nucléotidique unique (SNP) a été mesuré avec une plateforme Taqman. Des modèles de régression logistique non conditionnelle ont été utilisés pour comparer le risque de diagnostic d’un cancer de la prostate et l’interaction. Le deuxième volet utilise un devis rétrospectif de type cohorte basée sur les données administratives de la Régie de l’assurance-maladie du Québec (RAMQ). Des modèles de régression de Cox ont été employés pour mesurer l’association entre les statines et l’évolution du cancer de la vessie. Le troisième volet, porte un regard méthodologique sur le biais du temps immortel en examinant sa présence dans la littérature oncologique. Son importance est illustrée avec les données de la cohorte du deuxième volet, et les méthodes de correction possibles son appliquées. Résultats: L’étude du premier volet démontre qu’une diète riche en acides gras oméga-3 d’origine marine était fortement associée à un risque diminué de cancer de la prostate agressif (p<0.0001 pour la tendance). Le ratio de cote pour le cancer de la prostate du quartile supérieur d’oméga-3 était de 0.37 (IC 95% = 0.25 à 0.54). L’effet diététique était modifié par le génotype COX-2 SNP rs4648310 (p=0.002 pour l’interaction). En particulier, les hommes avec faible apport en oméga-3 et la variante rs4648310 avait un risque accru de cancer de la prostate (ratio de cote = 5.49, IC 95%=1.80 à 16.7), effet renversé par un apport en oméga-3 plus grand. L’étude du deuxième volet a observé que l’utilisation de statines est associée à une diminution du risque de progression du cancer de la vessie (risque relatif = 0.44, IC 95% = 0.20 à 0.96, p=0.039). Cette association était encore plus forte pour le décès de toute cause (HR = 0.57, 95% CI = 0.43 to 0.76, p=0.0001). L’effet des statines semble être dose-dépendant. L’étude du troisième volet démontre que le biais du temps immortel est fréquent et important dans les études épidémiologiques oncologiques. Il comporte plusieurs aspects dont certains sont mieux prévenus au stade du choix du devis d’étude et différentes méthodes statistiques permettent un contrôle de ce biais. Conclusion: 1) Une diète riche en oméga-3 aurait un effet protecteur pour le cancer de la prostate. 2) L’utilisation de statines aurait un effet protecteur sur la progression du cancer non invasif de la vessie. Les lipides semblent avoir un effet sur les cancers urologiques.
Resumo:
The standard models for statistical signal extraction assume that the signal and noise are generated by linear Gaussian processes. The optimum filter weights for those models are derived using the method of minimum mean square error. In the present work we study the properties of signal extraction models under the assumption that signal/noise are generated by symmetric stable processes. The optimum filter is obtained by the method of minimum dispersion. The performance of the new filter is compared with their Gaussian counterparts by simulation.
Resumo:
The characterization and grading of glioma tumors, via image derived features, for diagnosis, prognosis, and treatment response has been an active research area in medical image computing. This paper presents a novel method for automatic detection and classification of glioma from conventional T2 weighted MR images. Automatic detection of the tumor was established using newly developed method called Adaptive Gray level Algebraic set Segmentation Algorithm (AGASA).Statistical Features were extracted from the detected tumor texture using first order statistics and gray level co-occurrence matrix (GLCM) based second order statistical methods. Statistical significance of the features was determined by t-test and its corresponding p-value. A decision system was developed for the grade detection of glioma using these selected features and its p-value. The detection performance of the decision system was validated using the receiver operating characteristic (ROC) curve. The diagnosis and grading of glioma using this non-invasive method can contribute promising results in medical image computing
Resumo:
In an earlier investigation (Burger et al., 2000) five sediment cores near the Rodrigues Triple Junction in the Indian Ocean were studied applying classical statistical methods (fuzzy c-means clustering, linear mixing model, principal component analysis) for the extraction of endmembers and evaluating the spatial and temporal variation of geochemical signals. Three main factors of sedimentation were expected by the marine geologists: a volcano-genetic, a hydro-hydrothermal and an ultra-basic factor. The display of fuzzy membership values and/or factor scores versus depth provided consistent results for two factors only; the ultra-basic component could not be identified. The reason for this may be that only traditional statistical methods were applied, i.e. the untransformed components were used and the cosine-theta coefficient as similarity measure. During the last decade considerable progress in compositional data analysis was made and many case studies were published using new tools for exploratory analysis of these data. Therefore it makes sense to check if the application of suitable data transformations, reduction of the D-part simplex to two or three factors and visual interpretation of the factor scores would lead to a revision of earlier results and to answers to open questions . In this paper we follow the lines of a paper of R. Tolosana- Delgado et al. (2005) starting with a problem-oriented interpretation of the biplot scattergram, extracting compositional factors, ilr-transformation of the components and visualization of the factor scores in a spatial context: The compositional factors will be plotted versus depth (time) of the core samples in order to facilitate the identification of the expected sources of the sedimentary process. Kew words: compositional data analysis, biplot, deep sea sediments
Resumo:
Supervisory systems evolution makes the obtaining of significant information from processes more important in the way that the supervision systems' particular tasks are simplified. So, having signal treatment tools capable of obtaining elaborate information from the process data is important. In this paper, a tool that obtains qualitative data about the trends and oscillation of signals is presented. An application of this tool is presented as well. In this case, the tool, implemented in a computer-aided control systems design (CACSD) environment, is used in order to give to an expert system for fault detection in a laboratory plant
Resumo:
Objetivos: La mediastinitis se presenta hasta en el 4% de los pacientes sometidos a revascularización miocárdica, con un mortalidad hospitalaria reportada del 14 al 47%, generando aumento en los costos de atención, deterioro de la calidad de vida y la sobrevida a largo plazo del enfermo; su etiología es multifactorial. El objetivo de este estudio fue determinar cuáles antecedentes clínicos del paciente y factores relacionados con el procedimiento quirúrgico se asocian con la aparición mediastinitis. Métodos: Diseño de casos y controles anidado en una cohorte histórica de pacientes sometidos a revascularización miocárdica en el periodo de enero de 2005 a julio de 2011. Los pacientes con mediastinitis se compararon con un grupo control sin mediastinitis tomados del mismo grupo de riesgo en una relación 1:4, y pareados por fecha de cirugía. El diagnóstico de mediastinitis se hizo con criterios clínicos, de laboratorio y hallazgos quirúrgicos. Resultados: Se identificaron 30 casos en ese periodo. Los factores asociados a la aparición del evento fueron: Diabetes Mellitus OR 2,3 (1.1- 4,9), uso de circulación extracorpórea OR 2,4 (1,1 -5.5), tiempo de perfusión OR 1,1 (1,1 – 1.3) y pacientes mayores de 70 años OR 1.1 (1,2-1-4). Conclusiones: La mediastinitis sigue siendo una complicación de baja prevalencia con consecuencias devastadoras. El impacto clínico y económico de esta complicación debe obligar a los grupos quirúrgicos a crear estrategias de prevención con base en el conocimiento de los factores de riesgo de su población.
Resumo:
Introducción: La disminución de flujo en los vasos coronarios sin presencia de oclusión, es conocido como fenómeno de no reflujo, se observa después de la reperfusión, su presentación oscila entre el 5% y el 50% dependiendo de la población y de los criterios diagnósticos, dicho suceso es de mal pronóstico, aumenta el riesgo de morir en los primeros 30 días posterior a la angioplastia (RR 2,1 p 0,038), y se relaciona con falla cardiaca y arritmias, por eso al identificar los factores a los cuales se asocia, se podrán implementar terapias preventivas. Metodología: Estudio de casos y controles pareado por médico que valoró el evento, para garantizar que no existieron variaciones inter observador, con una razón 1:4 (18:72), realizado para identificar factores asociados a la presencia de no reflujo en pacientes llevados a angioplastia, entre noviembre de 2010 y mayo de 2014, en la Clínica San Rafael de Bogotá, D.C. Resultados: La frecuencia del no reflujo fue del 2.89%. El Infarto Agudo de Miocardio con elevación del ST (IAMCEST) fue la única variable que mostró una asociación estadísticamente significativa con este suceso, valor de p 0,002, OR 8,7, IC 95% (2,0 – 36,7). Discusión: El fenómeno de no reflujo en esta población se comportó de manera similar a lo descrito en la literatura, siendo el IAMCEST un factor fuertemente asociado.
Resumo:
Las organizaciones en la actualidad deben encontrar diferentes maneras de sobrevivir en un tiempo de rápida transformación. Uno de los mecanismos usados por las empresas para adaptarse a los cambios organizacionales son los sistemas de control de gestión, que a su vez permiten a las organizaciones hacer un seguimiento a sus procesos, para que la adaptabilidad sea efectiva. Otra variable importante para la adaptación es el aprendizaje organizacional siendo el proceso mediante el cual las organizaciones se adaptan a los cambios del entorno, tanto interno como externo de la compañía. Dado lo anterior, este proyecto se basa en la extracción de documentación soporte valido, que permita explorar las interacciones entre estos dos campos, los sistemas de control de gestión y el aprendizaje organizacional, además, analizar el impacto de estas interacciones en la perdurabilidad organizacional.
Resumo:
La idea básica de detección de defectos basada en vibraciones en Monitorización de la Salud Estructural (SHM), es que el defecto altera las propiedades de rigidez, masa o disipación de energía de un sistema, el cual, altera la respuesta dinámica del mismo. Dentro del contexto de reconocimiento de patrones, esta tesis presenta una metodología híbrida de razonamiento para evaluar los defectos en las estructuras, combinando el uso de un modelo de la estructura y/o experimentos previos con el esquema de razonamiento basado en el conocimiento para evaluar si el defecto está presente, su gravedad y su localización. La metodología involucra algunos elementos relacionados con análisis de vibraciones, matemáticas (wavelets, control de procesos estadístico), análisis y procesamiento de señales y/o patrones (razonamiento basado en casos, redes auto-organizativas), estructuras inteligentes y detección de defectos. Las técnicas son validadas numérica y experimentalmente considerando corrosión, pérdida de masa, acumulación de masa e impactos. Las estructuras usadas durante este trabajo son: una estructura tipo cercha voladiza, una viga de aluminio, dos secciones de tubería y una parte del ala de un avión comercial.
Resumo:
Most statistical methodology for phase III clinical trials focuses on the comparison of a single experimental treatment with a control. An increasing desire to reduce the time before regulatory approval of a new drug is sought has led to development of two-stage or sequential designs for trials that combine the definitive analysis associated with phase III with the treatment selection element of a phase II study. In this paper we consider a trial in which the most promising of a number of experimental treatments is selected at the first interim analysis. This considerably reduces the computational load associated with the construction of stopping boundaries compared to the approach proposed by Follman, Proschan and Geller (Biometrics 1994; 50: 325-336). The computational requirement does not exceed that for the sequential comparison of a single experimental treatment with a control. Existing methods are extended in two ways. First, the use of the efficient score as a test statistic makes the analysis of binary, normal or failure-time data, as well as adjustment for covariates or stratification straightforward. Second, the question of trial power is also considered, enabling the determination of sample size required to give specified power. Copyright © 2003 John Wiley & Sons, Ltd.