906 resultados para Autoregressive-Moving Average model
Resumo:
La computación evolutiva y muy especialmente los algoritmos genéticos son cada vez más empleados en las organizaciones para resolver sus problemas de gestión y toma de decisiones (Apoteker & Barthelemy, 2000). La literatura al respecto es creciente y algunos estados del arte han sido publicados. A pesar de esto, no hay un trabajo explícito que evalúe de forma sistemática el uso de los algoritmos genéticos en problemas específicos de los negocios internacionales (ejemplos de ello son la logística internacional, el comercio internacional, el mercadeo internacional, las finanzas internacionales o estrategia internacional). El propósito de este trabajo de grado es, por lo tanto, realizar un estado situacional de las aplicaciones de los algoritmos genéticos en los negocios internacionales.
Resumo:
This paper investigates the relationship between capital flows, turnover and returns for the UK private real estate market. We examine a number of possible implication of capital flows and turnover on capital returns testing for evidence of a price pressure effect, ‘return chasing’ behaviour and information revelation. The main tool of analysis is a panel vector autoregressive (VAR) regression model in which institutional capital flows, turnover and returns are specified as endogenous variables in a two equation system in which we also control for macro-economic variables. Data on flows, turnover and returns are obtained for the 10 market segments covering the main UK commercial real estate sectors. Our results do not support the widely-held belief among practitioners that capital flows have a ‘price pressure’ effect. Although there is some evidence of return chasing behaviour, the short timescales involved suggest this finding may be due to delayed recording of flows relative to returns given the difficulties of market entry. We find a significant positive relationship between lagged turnover and contemporaneous capital returns, suggesting that asset turnover provides pricing information.
High resolution Northern Hemisphere wintertime mid-latitude dynamics during the Last Glacial Maximum
Resumo:
Hourly winter weather of the Last Glacial Maximum (LGM) is simulated using the Community Climate Model version 3 (CCM3) on a globally resolved T170 (75 km) grid. Results are compared to a longer LGM climatological run with the same boundary conditions and monthly saves. Hourly-scale animations are used to enhance interpretations. The purpose of the study is to explore whether additional insights into ice age conditions can be gleaned by going beyond the standard employment of monthly average model statistics to infer ice age weather and climate. Results for both LGM runs indicate a decrease in North Atlantic and increase in North Pacific cyclogenesis. Storm trajectories react to the mechanical forcing of the Laurentide Ice Sheet, with Pacific storms tracking over middle Alaska and northern Canada, terminating in the Labrador Sea. This result is coincident with other model results in also showing a significant reduction in Greenland wintertime precipitation – a response supported by ice core evidence. Higher-temporal resolution puts in sharper focus the close tracking of Pacific storms along the west coast of North America. This response is consistent with increased poleward heat transport in the LGM climatological run and could help explain “early” glacial warming inferred in this region from proxy climate records. Additional analyses shows a large increase in central Asian surface gustiness that support observational inferences that upper-level winds associated with Asian- Pacific storms transported Asian dust to Greenland during the LGM.
Resumo:
We present an intercomparison and verification analysis of 20 GCMs (Global Circulation Models) included in the 4th IPCC assessment report regarding their representation of the hydrological cycle on the Danube river basin for 1961–2000 and for the 2161–2200 SRESA1B scenario runs. The basin-scale properties of the hydrological cycle are computed by spatially integrating the precipitation, evaporation, and runoff fields using the Voronoi-Thiessen tessellation formalism. The span of the model- simulated mean annual water balances is of the same order of magnitude of the observed Danube discharge of the Delta; the true value is within the range simulated by the models. Some land components seem to have deficiencies since there are cases of violation of water conservation when annual means are considered. The overall performance and the degree of agreement of the GCMs are comparable to those of the RCMs (Regional Climate Models) analyzed in a previous work, in spite of the much higher resolution and common nesting of the RCMs. The reanalyses are shown to feature several inconsistencies and cannot be used as a verification benchmark for the hydrological cycle in the Danubian region. In the scenario runs, for basically all models the water balance decreases, whereas its interannual variability increases. Changes in the strength of the hydrological cycle are not consistent among models: it is confirmed that capturing the impact of climate change on the hydrological cycle is not an easy task over land areas. Moreover, in several cases we find that qualitatively different behaviors emerge among the models: the ensemble mean does not represent any sort of average model, and often it falls between the models’ clusters.
Resumo:
We present a new version of the hglm package for fittinghierarchical generalized linear models (HGLM) with spatially correlated random effects. A CAR family for conditional autoregressive random effects was implemented. Eigen decomposition of the matrix describing the spatial structure (e.g. the neighborhood matrix) was used to transform the CAR random effectsinto an independent, but heteroscedastic, gaussian random effect. A linear predictor is fitted for the random effect variance to estimate the parameters in the CAR model.This gives a computationally efficient algorithm for moderately sized problems (e.g. n<5000).
Resumo:
Com o objetivo de analisar o impacto na Estrutura a Termos de Volatilidade (ETV) das taxas de juros utilizando dois diferentes modelos na estimação da Estrutura a Termo das Taxas de Juros (ETTJ) e a suposição em relação a estrutura heterocedástica dos erros (MQO e MQG ponderado pela duration), a técnica procede em estimar a ETV utilizando-se da volatilidade histórica por desvio padrão e pelo modelo auto-regressivo Exponentially Weighted Moving Average (EWMA). Por meio do teste de backtesting proposto por Kupiec para o VaR paramétrico obtido com as volatilidades das ETV´s estimadas, concluí-se que há uma grande diferença na aderência que dependem da combinação dos modelos utilizados para as ETV´s. Além disso, há diferenças estatisticamente significantes entre as ETV´s estimadas em todo os pontos da curva, particularmente maiores no curto prazo (até 1 ano) e nos prazos mais longos (acima de 10 anos).
Resumo:
Este trabalho apresenta um estudo do impacto das negociações algorítmicas no processo de descoberta de preços no mercado de câmbio. Foram utilizados dados de negociação de alta frequência para contratos futuros de reais por dólar (DOL), negociados na Bolsa de Valores de São Paulo no período de janeiro a junho de 2013. No intuito de verificar se as estratégias algorítmicas de negociação são mais dependentes do que as negociações não algorítmicas, foi examinada a frequência em que algoritmos negociam entre si e comparou-se a um modelo benchmark que produz probabilidades teóricas para diferentes tipos de negociadores. Os resultados obtidos para as negociações minuto a minuto apresentam evidências de que as ações e estratégias de negociadores algorítmicos parecem ser menos diversas e mais dependentes do que aquelas realizadas por negociadores não algorítmicos. E para modelar a interação entre a autocorrelação serial dos retornos e negociações algorítmicas, foi estimado um vetor autorregressivo de alta frequência (VAR) em sua forma reduzida. As estimações mostram que as atividades dos algoritmos de negociação causam um aumento na autocorrelação dos retornos, indicando que eles podem contribuir para o aumento da volatilidade.
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
The general assumption under which the (X) over bar chart is designed is that the process mean has a constant in-control value. However, there are situations in which the process mean wanders. When it wanders according to a first-order autoregressive (AR (1)) model, a complex approach involving Markov chains and integral equation methods is used to evaluate the properties of the (X) over bar chart. In this paper, we propose the use of a pure Markov chain approach to study the performance of the (X) over bar chart. The performance of the chat (X) over bar with variable parameters and the (X) over bar with double sampling are compared. (C) 2011 Elsevier B.V. All rights reserved.
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
We propose a new statistic to control the covariance matrix of bivariate processes. This new statistic is based on the sample variances of the two quality characteristics, in short VMAX statistic. The points plotted on the chart correspond to the maximum of the values of these two variances. The reasons to consider the VMAX statistic instead of the generalized variance vertical bar S vertical bar is its faster detection of process changes and its better diagnostic feature; that is, with the VMAX statistic it is easier to identify the out-of-control variable. We study the double sampling (DS) and the exponentially weighted moving average (EWMA) charts based on the VMAX statistic. (C) 2008 Elsevier B.V. All rights reserved.
Resumo:
Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)
Resumo:
Traditionally, an (X) over bar -chart is used to control the process mean and an R-chart to control the process variance. However, these charts are not sensitive to small changes in process parameters. A good alternative to these charts is the exponentially weighted moving average (EWMA) control chart for controlling the process mean and variability, which is very effective in detecting small process disturbances. In this paper, we propose a single chart that is based on the non-central chi-square statistic, which is more effective than the joint (X) over bar and R charts in detecting assignable cause(s) that change the process mean and/or increase variability. It is also shown that the EWMA control chart based on a non-central chi-square statistic is more effective in detecting both increases and decreases in mean and/or variability.
Resumo:
O objetivo desse estudo foi analisar a relação entre descargas elétricas, associadas à precipitação dentro de áreas selecionadas no leste da Amazônia no período de setembro de 2008 a dezembro de 2010. Os estudos foram realizados dentro de um raio de 100 km centralizados em pluviômetros instalados das localidades de Belém, Caxiuanã e Santarém. Essas áreas foram escolhidas por encontrarem-se aproximadamente na mesma latitude, e vão se distanciando do Oceano Atlântico, buscando observar a sazonalidade dos sistemas precipitantes causadores de raios e sua penetração no continente, observando as características climatológica distintas de cada área. Os dados de chuvas foram obtidos através do banco de dados da ANA, RPCH, INMET e através do Projeto LBA. Os sistemas meteorológicos de grande escala acompanhados de sistemas de escala menores, parecem atuar primeiramente em Belém e vão adentrando o continente atingindo as outras áreas de estudo. Em Belém, também foram observadas as maiores ocorrências de raios comparados com Caxiuanã e Santarém, sendo que nessas localidades, os raios antecedem as chuvas em quase todas as observações. Foram observadas as defasagens dos máximos de ocorrências de raios e chuvas de aproximadamente dois meses acompanhando principalmente o sentido norte sul de deslocamento da ZCIT e seu acoplamento com outros sistemas de escala local ou de meso escala. Foi feito um estudo de caso em Belém e Santarém onde observou-se que a ZCIT não segue o mesmo padrão de deslocamento para as duas localidades , ou seja, ela atinge primeiramente Belém e aproximadamente três dias depois o sistema atingiu a cidade de Santarém. Mesmo com essa defasagem de tempo foi visto que nas duas localidades as ocorrências de raios antecederam as chuvas. Também foi realizado um estudo pioneiro dentro das bacias do Tocantins e Xingu sobre a relação entre raios e chuva, na tentativa de se desenvolver uma alternativa de método auxiliar para prognostico dos períodos de cheias e secas dentro dessas bacias através das ocorrências de raios sobre essas áreas. Os estudos mais detalhados foram realizados nas áreas a montante das barragens de Tocantins onde se encontra a usina hidroelétrica de Tucuruí, e dentro da área da bacia do Xingu onde está sendo construída a barragem de Belo Monte. Foram utilizados dados de precipitação pluviométrica das bacias do Tocantins e Xingu obtidos através da HIDROWEB-ANA operados pela CPRM dentro de cada área de estudo. Usando filtros de médias móveis foram observados que as melhores correlações entre raios e chuvas, se encontravam dentro da bacia do Tocantins, provavelmente pela influencia da presença da barragem na bacia do Tocantins onde possibilitou respostas positivas entre a relação da cota do rio com os raios. Considerando o fato de que o período de dois anos de dados não possuem peso estatístico suficiente para estabelecer relações definitivas entre raios e precipitação, os resultados apresentados devem ser considerados como preliminares. No entanto essa metodologia pode ser aplicada para subsidiar modelos de estimativas de precipitação em localidades selecionadas e aplicações no modelamento hidrológico de bacias hidrográficas, onde dados pluviométricos ainda são escassos no leste da Amazônia.
Resumo:
Pós-graduação em Engenharia Civil - FEIS