821 resultados para exponentially weighted moving average
Resumo:
In this paper we propose a new identification method based on the residual white noise autoregressive criterion (Pukkila et al. , 1990) to select the order of VARMA structures. Results from extensive simulation experiments based on different model structures with varying number of observations and number of component series are used to demonstrate the performance of this new procedure. We also use economic and business data to compare the model structures selected by this order selection method with those identified in other published studies.
Resumo:
Dissertação para obtenção do Grau de Mestre em Engenharia e Gestão Industrial
Resumo:
La fibrillation auriculaire (FA) est une arythmie touchant les oreillettes. En FA, la contraction auriculaire est rapide et irrégulière. Le remplissage des ventricules devient incomplet, ce qui réduit le débit cardiaque. La FA peut entraîner des palpitations, des évanouissements, des douleurs thoraciques ou l’insuffisance cardiaque. Elle augmente aussi le risque d'accident vasculaire. Le pontage coronarien est une intervention chirurgicale réalisée pour restaurer le flux sanguin dans les cas de maladie coronarienne sévère. 10% à 65% des patients qui n'ont jamais subi de FA, en sont victime le plus souvent lors du deuxième ou troisième jour postopératoire. La FA est particulièrement fréquente après une chirurgie de la valve mitrale, survenant alors dans environ 64% des patients. L'apparition de la FA postopératoire est associée à une augmentation de la morbidité, de la durée et des coûts d'hospitalisation. Les mécanismes responsables de la FA postopératoire ne sont pas bien compris. L'identification des patients à haut risque de FA après un pontage coronarien serait utile pour sa prévention. Le présent projet est basé sur l'analyse d’électrogrammes cardiaques enregistrées chez les patients après pontage un aorte-coronaire. Le premier objectif de la recherche est d'étudier si les enregistrements affichent des changements typiques avant l'apparition de la FA. Le deuxième objectif est d'identifier des facteurs prédictifs permettant d’identifier les patients qui vont développer une FA. Les enregistrements ont été réalisés par l'équipe du Dr Pierre Pagé sur 137 patients traités par pontage coronarien. Trois électrodes unipolaires ont été suturées sur l'épicarde des oreillettes pour enregistrer en continu pendant les 4 premiers jours postopératoires. La première tâche était de développer un algorithme pour détecter et distinguer les activations auriculaires et ventriculaires sur chaque canal, et pour combiner les activations des trois canaux appartenant à un même événement cardiaque. L'algorithme a été développé et optimisé sur un premier ensemble de marqueurs, et sa performance évaluée sur un second ensemble. Un logiciel de validation a été développé pour préparer ces deux ensembles et pour corriger les détections sur tous les enregistrements qui ont été utilisés plus tard dans les analyses. Il a été complété par des outils pour former, étiqueter et valider les battements sinusaux normaux, les activations auriculaires et ventriculaires prématurées (PAA, PVA), ainsi que les épisodes d'arythmie. Les données cliniques préopératoires ont ensuite été analysées pour établir le risque préopératoire de FA. L’âge, le niveau de créatinine sérique et un diagnostic d'infarctus du myocarde se sont révélés être les plus importants facteurs de prédiction. Bien que le niveau du risque préopératoire puisse dans une certaine mesure prédire qui développera la FA, il n'était pas corrélé avec le temps de l'apparition de la FA postopératoire. Pour l'ensemble des patients ayant eu au moins un épisode de FA d’une durée de 10 minutes ou plus, les deux heures précédant la première FA prolongée ont été analysées. Cette première FA prolongée était toujours déclenchée par un PAA dont l’origine était le plus souvent sur l'oreillette gauche. Cependant, au cours des deux heures pré-FA, la distribution des PAA et de la fraction de ceux-ci provenant de l'oreillette gauche était large et inhomogène parmi les patients. Le nombre de PAA, la durée des arythmies transitoires, le rythme cardiaque sinusal, la portion basse fréquence de la variabilité du rythme cardiaque (LF portion) montraient des changements significatifs dans la dernière heure avant le début de la FA. La dernière étape consistait à comparer les patients avec et sans FA prolongée pour trouver des facteurs permettant de discriminer les deux groupes. Cinq types de modèles de régression logistique ont été comparés. Ils avaient une sensibilité, une spécificité et une courbe opérateur-receveur similaires, et tous avaient un niveau de prédiction des patients sans FA très faible. Une méthode de moyenne glissante a été proposée pour améliorer la discrimination, surtout pour les patients sans FA. Deux modèles ont été retenus, sélectionnés sur les critères de robustesse, de précision, et d’applicabilité. Autour 70% patients sans FA et 75% de patients avec FA ont été correctement identifiés dans la dernière heure avant la FA. Le taux de PAA, la fraction des PAA initiés dans l'oreillette gauche, le pNN50, le temps de conduction auriculo-ventriculaire, et la corrélation entre ce dernier et le rythme cardiaque étaient les variables de prédiction communes à ces deux modèles.
Resumo:
El presente trabajo desarrollado en el Hospital Méderi es una asesoría sobre modelos de pronósticos la cual consiste en analizar una base de datos de mercancía almacenada en la bodega general, suministrada por la entidad, mediante cuatro tipos de pronósticos diferentes, Promedio Móvil Ponderado, Promedio Móvil simple, Regresión Lineal y Suavizamiento Exponencial. Teniendo en cuenta el resultado arrojado por cada uno de los pronósticos, se hace una recomendación al hospital diciendo cual pronóstico debería utilizar para predecir la demanda con mayor precisión.
Resumo:
In this article, we present a new control chart for monitoring the covariance matrix in a bivariate process. In this method, n observations of the two variables were considered as if they came from a single variable (as a sample of 2n observations), and a sample variance was calculated. This statistic was used to build a new control chart specifically as a VMIX chart. The performance of the new control chart was compared with its main competitors: the generalized sampled variance chart, the likelihood ratio test, Nagao's test, probability integral transformation (v(t)), and the recently proposed VMAX chart. Among these statistics, only the VMAX chart was competitive with the VMIX chart. For shifts in both variances, the VMIX chart outperformed VMAX; however, VMAX showed better performance for large shifts (higher than 10%) in one variance.
Resumo:
Identifiability of the so-called ω-slice algorithm is proven for ARMA linear systems. Although proofs were developed in the past for the simpler cases of MA and AR models, they were not extendible to general exponential linear systems. The results presented in this paper demonstrate a unique feature of the ω-slice method, which is unbiasedness and consistency when order is overdetermined, regardless of the IIR or FIR nature of the underlying system, and numerical robustness.
Resumo:
This research explores Bayesian updating as a tool for estimating parameters probabilistically by dynamic analysis of data sequences. Two distinct Bayesian updating methodologies are assessed. The first approach focuses on Bayesian updating of failure rates for primary events in fault trees. A Poisson Exponentially Moving Average (PEWMA) model is implemnented to carry out Bayesian updating of failure rates for individual primary events in the fault tree. To provide a basis for testing of the PEWMA model, a fault tree is developed based on the Texas City Refinery incident which occurred in 2005. A qualitative fault tree analysis is then carried out to obtain a logical expression for the top event. A dynamic Fault Tree analysis is carried out by evaluating the top event probability at each Bayesian updating step by Monte Carlo sampling from posterior failure rate distributions. It is demonstrated that PEWMA modeling is advantageous over conventional conjugate Poisson-Gamma updating techniques when failure data is collected over long time spans. The second approach focuses on Bayesian updating of parameters in non-linear forward models. Specifically, the technique is applied to the hydrocarbon material balance equation. In order to test the accuracy of the implemented Bayesian updating models, a synthetic data set is developed using the Eclipse reservoir simulator. Both structured grid and MCMC sampling based solution techniques are implemented and are shown to model the synthetic data set with good accuracy. Furthermore, a graphical analysis shows that the implemented MCMC model displays good convergence properties. A case study demonstrates that Likelihood variance affects the rate at which the posterior assimilates information from the measured data sequence. Error in the measured data significantly affects the accuracy of the posterior parameter distributions. Increasing the likelihood variance mitigates random measurement errors, but casuses the overall variance of the posterior to increase. Bayesian updating is shown to be advantageous over deterministic regression techniques as it allows for incorporation of prior belief and full modeling uncertainty over the parameter ranges. As such, the Bayesian approach to estimation of parameters in the material balance equation shows utility for incorporation into reservoir engineering workflows.
Resumo:
Este artigo discute um modelo de previsão combinada para a realização de prognósticos climáticos na escala sazonal. Nele, previsões pontuais de modelos estocásticos são agregadas para obter as melhores projeções no tempo. Utilizam-se modelos estocásticos autoregressivos integrados a médias móveis, de suavização exponencial e previsões por análise de correlações canônicas. O controle de qualidade das previsões é feito através da análise dos resíduos e da avaliação do percentual de redução da variância não-explicada da modelagem combinada em relação às previsões dos modelos individuais. Exemplos da aplicação desses conceitos em modelos desenvolvidos no Instituto Nacional de Meteorologia (INMET) mostram bons resultados e ilustram que as previsões do modelo combinado, superam na maior parte dos casos a de cada modelo componente, quando comparadas aos dados observados.
Resumo:
Background This study aimed to evaluate the association between the total suspended particles (TSP) generated from burning sugar cane plantations and the incidence of hospital admissions from hypertension in the city of Araraquara. Methods The study was an ecological time-series study. Total daily records of hypertension (ICD 10th I10-15) were obtained from admitted patients of all ages in a hospital in Araraquara, Sao Paulo State, Brazil, from 23 March 2003 to 27 July 2004. The daily concentration of TSP (mu g/m(3)) was obtained using a Handi-Vol sampler placed in downtown Araraquara. The local airport provided daily measures of temperature and humidity. In generalised linear Poisson regression models, the daily number of hospital admissions for hypertension was considered to be the dependent variable and the daily TSP concentration the independent variable. Results TSP presented a lagged effect on hypertension admissions, which was first observed 1 day after a TSP increase and remained almost unchanged for the following 2 days. A 10 mu g/m(3) increase in the TSP 3 day moving average lagged in 1 day led to an increase in hypertension-related hospital admissions during the harvest period (12.5%, 95% CI 5.6% to 19.9%) that was almost 30% higher than during non-harvest periods (9.0%, 95% CI 4.0% to 14.3%). Conclusions Increases in TSP concentrations were associated with hypertension-related hospital admissions. Despite the benefits of reduced air pollution in urban cities achieved by using ethanol produced from sugar cane to power automobiles, areas where the sugar cane is produced and harvested were found to have increased public health risk.
Resumo:
We present a novel array RLS algorithm with forgetting factor that circumvents the problem of fading regularization, inherent to the standard exponentially-weighted RLS, by allowing for time-varying regularization matrices with generic structure. Simulations in finite precision show the algorithm`s superiority as compared to alternative algorithms in the context of adaptive beamforming.
Resumo:
OBJETIVO: Analisar a tendência temporal da mortalidade infantil no Brasil em um período recente (1980 a 1998) de crise econômica. MÉTODOS: Estudo de série temporal tendo o Sistema de Informações de Mortalidade do Ministério da Saúde, Fundação IBGE e Fundação Nacional de Saúde como fontes de dados. Pela modelagem Autoregressive integrated moving average (ARIMA) descreveram-se parâmetros da série e, com coeficientes de correlação de Spearman, avaliou-se a associação entre coeficiente de mortalidade infantil e alguns determinantes. RESULTADOS A mortalidade infantil apresentou tendência decrescente (-59,3%) e forte correlação com a maioria dos indicadores analisados. Todavia, apenas as correlações entre coeficiente de mortalidade infantil e taxa de fecundidade total (e taxa de natalidade) diferiram significantemente de uma década para outra. CONCLUSÕES: A variação da fecundidade foi a principal responsável pela persistência do declínio da mortalidade infantil nos anos oitenta. No período seguinte, aqueles relacionados às condições de vida, principalmente, à atenção à saúde, talvez tenham sido mais importantes.
Resumo:
Na sociedade actual, é cada vez mais difícil desassociar o ambiente financeiro do ambiente social, tendo o primeiro influência directa ou indirecta em praticamente todos os aspectos da sociedade. A esta influência está associada a vasta quantidade de informação e serviços financeiros que possibilitam uma melhor compreensão do ambiente socioeconómico actual, permitindo também o estudo das evoluções e das dinâmicas dos mercados financeiros. Este trabalho refere-se ao estudo e comparação de algumas ferramentas disponíveis para a análise dinâmica e tentativa de previsão de alguns índices de bolsa escolhidos. Tais métodos a estudar são modelos clássicos como o Autoregressivo, Média Móvel e o Modelo Misto apresentado por Box e Jenkins. São também propostos dois métodos que tentam distanciar-se dos métodos tradicionais por apenas considerarem para a sua previsão os momentos semelhantes ao momento actual que se tenta prever, ao invés de considerar todo o espectro dos dados disponíveis, tal como os métodos clássicos referidos anteriormente.
Resumo:
Mestrado em Controlo e Gestão e dos Negócios