872 resultados para Análise de séries temporais - Métodos de simulação


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabalho compara modelos de séries temporais para a projeção de curto prazo da inflação brasileira, medida pelo Índice de Preços ao Consumidor Amplo (IPCA). Foram considerados modelos SARIMA de Box e Jenkins e modelos estruturais em espaço de estados, estimados pelo filtro de Kalman. Para a estimação dos modelos, foi utilizada a série do IPCA na base mensal, de março de 2003 a março de 2012. Os modelos SARIMA foram estimados no EVIEWS e os modelos estruturais no STAMP. Para a validação dos modelos para fora da amostra, foram consideradas as previsões 1 passo à frente para o período de abril de 2012 a março de 2013, tomando como base os principais critérios de avaliação de capacidade preditiva propostos na literatura. A conclusão do trabalho é que, embora o modelo estrutural permita, decompor a série em componentes com interpretação direta e estudá-las separadamente, além de incorporar variáveis explicativas de forma simples, o desempenho do modelo SARIMA para prever a inflação brasileira foi superior, no período e horizonte considerados. Outro importante aspecto positivo é que a implementação de um modelo SARIMA é imediata, e previsões a partir dele são obtidas de forma simples e direta.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Mandelbrot (1971) demonstrou a importância de considerar dependências de longo prazo na precificação de ativos - o método tradicional para mensurá-las, encontrado em Hurst (1951), faz uso da estatística R/S. Paralelamente a isso, Box e Jenkins (1976; edição original de 1970) apresentaram sua famosa metodologia para determinação da ordem dos parâmetros de modelos desenvolvidos no contexto de processos com memória de curto prazo, conhecidos por ARIMA (acrônimo do inglês Autoregressive Integrated Moving Average). Estimulados pela percepção de que um modelo que pretenda representar fielmente o processo gerador de dados deva explicar tanto a dinâmica de curto prazo quanto a de longo prazo, Granger e Joyeux (1980) e Hosking (1981) introduziram os modelos ARFIMA (de onde o F adicionado vem de Fractionally), uma generalização da classe ARIMA, nos quais a dependência de longo prazo estimada é relacionada ao valor do parâmetro de integração. Pode-se dizer que a partir de então processos com alto grau de persistência passaram a atrair cada vez mais o interesse de pesquisadores, o que resultou no desenvolvimento de outros métodos para estimá-la, porém sem que algum tenha se sobressaído claramente – e é neste ponto que o presente trabalho se insere. Por meio de simulações, buscou-se: (1) classificar diversos estimadores quanto a sua precisão, o que nos obrigou a; (2) determinar parametrizações razoáveis desses, entendidas aqui como aquelas que minimizam o viés, o erro quadrático médio e o desvio-padrão. Após rever a literatura sobre o tema, abordar estes pontos se mostrou necessário para o objetivo principal: elaborar estratégias de negociação baseadas em projeções feitas a partir da caracterização de dependências em dados intradiários, minuto a minuto, de ações e índices de ações. Foram analisadas as séries de retornos da ação Petrobras PN e do Índice Bovespa, com dados de 01/04/2013 a 31/03/2014. Os softwares usados foram o S-Plus e o R.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O setor automotivo é bastante representativo na economia nacional, o que motivou a realização deste estudo sobre a demanda por veículos novos no Brasil. No presente trabalho, é abordado um modelo econométrico que permite calcular as elasticidades do preço, da renda e do crédito em relação à demanda por veículos, sob a luz da teoria da cointegração. Analisando-se o período de junho de 2000 a janeiro de 2014, verifica-se a ocorrência de três quebras estruturais. Estas quebras dividem o intervalo de tempo analisado em quatro subperíodos, cada um com uma dinâmica própria. A constatação deste fato, muitas vezes negligenciado na literatura científica prévia, é um dos principais resultados deste trabalho: afinal, conclusões bastante distintas seriam obtidas ao se considerar o período todo sem quebras. Vale também destacar que o crédito se mostrou relevante para a demanda em todos os subperíodos: acredita-se, portanto, ser efetiva a implementação de uma política de estímulo ao setor, por meio do incentivo ao crédito. Por último, comenta-se que, no passado recente, a cada 1% de redução no preço do automóvel, a demanda aumentou numa proporção 30% maior. Este resultado corrobora com a percepção de que a redução de impostos pode alavancar a venda de veículos.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The opening of the Brazilian market of electricity and competitiveness between companies in the energy sector make the search for useful information and tools that will assist in decision making activities, increase by the concessionaires. An important source of knowledge for these utilities is the time series of energy demand. The identification of behavior patterns and description of events become important for the planning execution, seeking improvements in service quality and financial benefits. This dissertation presents a methodology based on mining and representation tools of time series, in order to extract knowledge that relate series of electricity demand in various substations connected of a electric utility. The method exploits the relationship of duration, coincidence and partial order of events in multi-dimensionals time series. To represent the knowledge is used the language proposed by Mörchen (2005) called Time Series Knowledge Representation (TSKR). We conducted a case study using time series of energy demand of 8 substations interconnected by a ring system, which feeds the metropolitan area of Goiânia-GO, provided by CELG (Companhia Energética de Goiás), responsible for the service of power distribution in the state of Goiás (Brazil). Using the proposed methodology were extracted three levels of knowledge that describe the behavior of the system studied, representing clearly the system dynamics, becoming a tool to assist planning activities

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Aborda a classificação automática de faltas do tipo curto-circuito em linhas de transmissão. A maioria dos sistemas de transmissão possuem três fases (A, B e C). Por exemplo, um curto-circuito entre as fases A e B pode ser identicado como uma falta\AB". Considerando a possibilidade de um curto-circuito com a fase terra (T), a tarefa ao longo desse trabalho de classificar uma série temporal em uma das 11 faltas possíveis: AT, BT, CT, AB, AC, BC, ABC, ABT, ACT, BCT, ABCT. Estas faltas são responsáveis pela maioria dos distúrbios no sistema elétrico. Cada curto-circuito é representado por uma seqüência (série temporal) e ambos os tipos de classificação, on-line (para cada curto segmento extraído do sinal) e off-line (leva em consideração toda a seqüência), são investigados. Para evitar a atual falta de dados rotulados, o simulador Alternative Transient Program (ATP) é usado para criar uma base de dados rotulada e disponibilizada em domínio público. Alguns trabalhos na literatura não fazem distinção entre as faltas ABC e ABCT. Assim, resultados distinguindo esse dois tipos de faltas adotando técnicas de pré-processamento, diferentes front ends (por exemplo wavelets) e algoritmos de aprendizado (árvores de decisão e redes neurais) são apresentados. O custo computacional estimado durante o estágio de teste de alguns classificadores é investigado e a escolha dos parâmetros dos classificadores é feita a partir de uma seleção automática de modelo. Os resultados obtidos indicam que as árvores de decisão e as redes neurais apresentam melhores resultados quando comparados aos outros classificadores.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabalho apresenta uma metodologia para o estudo da ambiguidade na interpretação de dados geofísicos. Várias soluções alternativas, representativas da região de maior ambiguidade no espaço de parâmetros são obtidas, sendo posteriormente grupadas e ordenadas pela análise fatorial modo Q. Esta metodologia foi aplicada a dados sintéticos de campo potencial simulando-se causas de ambiguidade como discretização e truncamento da anomalia e a presença de ruídos aleatório e geológico. Um único prisma foi usado como modelo interpretativo, sendo a espessura a principal causa de ambiguidade tanto na gravimetria como na magnetometria. Segue-se a profundidade do topo sempre associada à espessura, quando o sinal da anomalia é alto. Quando a anomalia tem sinal baixo, a largura torna-se o segundo parâmetro mais importante, também associada à espessura. Ao contrário da presença de interferências geológicas, a presença de ruído aleatório nos campos, não é fator importante na ambiguidade. A aplicação da metodologia a dados reais ilustra o papel desta análise na caracterização de soluções alternativas e a importância da informação a priori na caracterização das causas de ambiguidade. A metodologia apresentada pode ser empregada em diversos estágios de um programa de prospecção fornecendo em cada estágio uma análise dos principais fatores causadores da ambiguidade, que poderá ser util no planejamento dos estágios seguintes. Comparada a outros métodos de análise de ambiguidade, como por exemplo regiões de confiança, a metodologia estudada destaca-se por não precisar satisfazer premissas estatísticas sobre a distribuição dos erros.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Tradicionalmente, o método dos mínimos quadrados tem sido empregado na inversão não linear de dados de campo potencial. No caso em que as observações dos campos gravimétrico ou magnético contém apenas ruído Gaussiano. O método dos mínimos quadrados não apresenta problemas. Entretanto, quando as observações são perturbadas por ruído não Gaussiano, ou mesmo por ruído não aleatório, como é o caso de muitos ruídos geológicos, o método dos mínimos quadrados torna-se bastante ineficiente, e métodos alternativos devem ser empregados a fim de produzir interpretações realísticas. Neste trabalho, uma comparação é feita entre os métodos dos mínimos quadrados, dos mínimos absolutos e do ajuste-M, aplicados à inversão não linear de dados de campo potencial. A comparação é efetuada usando-se dados teóricos, onde diversas situações geológicas são simuladas. Os resultados mostram que na presença de ruído geológico, caracterizado por pequeno corpo raso acima do corpo principal, ou por corpo grande, adjacente ao corpo principal, o ajuste-M apresenta desempenho muito superior ao dos mínimos quadrados e dos mínimos absolutos. Na presença de ruído Gaussiano, entretanto, o ajuste-M tem um desempenho inferior aos outros dois métodos. Como o ruído Gaussiano é um ruído branco, parte dele pode ser removido por um filtro passa baixa adequado, sem muita perda do sinal, o que não ocorre com o ruído geológico que contém componentes importantes de baixo número de onda. Desse modo o ajuste-M se torna uma ferramenta importante na interpretação de áreas geologicamente complexas, onde é comum a contaminação das anomalias por ruído geológico. Os três métodos em estudo são aplicados a uma anomalia magnética real causada por uma intrusão de diabásio em forma de dique, em sedimentos arenosos da formação Piauí na Bacia do Parnaíba. Os três métodos apresentaram resultados semelhantes indicando que tanto o nível de ruído Gaussiano como geológico são baixos nesta anomalia.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq)

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Pós-graduação em Ciências Cartográficas - FCT

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O presente estudo tem como objetivo principal realizar um levantamento temporal das áreas de vegetação no Centro Experimental de Campinas (CEC), uma fazenda de propriedade do Instituto Agronômico (IAC), a partir de técnicas de geoprocessamento e fotointerpretação. O local de estudo situa-se no município de Campinas - SP, e a área em questão foi escolhida por estar situada dentro de uma propriedade do estado e por apresentar uma grande mudança histórica no que diz respeito à vegetação. Também por que, apesar de ser um centro de experimentação agrícola, esse estudo demonstrara como num intervalo de quarenta anos a consciência ecológica muda radicalmente dentro do Centro. Para a realização deste trabalho, foram utilizadas fotografias aéreas digitais da fazenda dos vôos referentes aos anos de 1964, 1972 e 2002, todas de propriedade do acervo do Laboratório de Geoprocessamento do Centro de Conservação dos Solos do IAC. Alem da foto de satélite da fazenda obtida no software Google Earth, com data de 2006. Analisando imagens e mapas, observou-se como a área vegetada aumentou no Centro Experimental de Campinas nesse intervalo de quarenta e dois anos, passando de 7,55% (52.383 ha) em 1964 para 34,13% (236,497 ha) da área total do centro em 2006. Também pode-se ver que hoje há uma preocupação muito grande com a manutenção e conservação dessas matas.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Pós-graduação em Engenharia de Produção - FEG

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabalho aborda o problema de previsão para séries de vazões médias mensais, no qual denomina-se de horizonte de previsão (h), o intervalo de tempo que separa a última observação usada no ajuste do modelo de previsão e o valor futuro a ser previsto. A análise do erro de previsão é feita em função deste horizonte de previsão. Estas séries possuem um comportamento periódico na média, na variância e na função de autocorrelação. Portanto, considera-se a abordagem amplamente usada para a modelagem destas séries que consiste inicialmente em remover a periodicidade na média e na variância das séries de vazões e em seguida calcular uma série padronizada para a qual são ajustados modelos estocásticos. Neste estudo considera-se para a série padronizada os modelos autorregressivos periódicos PAR (p m). As ordens p m dos modelos ajustados para cada mês são determinadas usando os seguintes critérios: a análise clássica da função de autocorrelação parcial periódica (FACPPe); usando-se o Bayesian Information Criterion (BIC) proposto em (MecLeod, 1994); e com a análise da FACPPe proposta em (Stedinger, 2001). Os erros de previsão são calculados, na escala original da série de vazão, em função dos parâmetros dos modelos ajustados e avaliados para horizontes de previsão h variando de 1 a 12 meses. Estes erros são comparados com as estimativas das variâncias das vazões para o mês que está sendo previsto. Como resultado tem-se uma avaliação da capacidade de previsão, em meses, dos modelos ajustados para cada mês.