208 resultados para Séries chronologiques
Resumo:
None
Resumo:
É fato comum na teoria econômica que os indivíduos reagem a valores correntes de variáveis e a seus valores esperados no futuro. Como as expectativas se formam ainda é matéria de debates. É improvável que exista um único mecanismo explicativo. Propomos como uma importante aplicação do estudo de séries de tempo, a geração de modelos de formação de expectativas através de tais técnicas. Neste trabalho descrevemos e discutimos os modelos de formação de expectativas mais usuais empregados em estudos econômicos passados.
Resumo:
O propósito deste estudo é analisar a capacidade dos modelos econométricos ARMA, ADL, VAR e VECM de prever inflação, a fim de verificar qual modelagem é capaz de realizar as melhores previsões num período de até 12 meses, além de estudar os efeitos da combinação de previsões. Dentre as categorias de modelos analisados, o ARMA (univariado) e o ADL (bivariado e multivariado), foram testados com várias combinações de defasagens. Foram realizadas previsões fora-da-amostra utilizando 3 períodos distintos da economia brasileira e os valores foram comparados ao IPCA realizado, a fim de verificar os desvios medidos através do EQM (erro quadrático médio). Combinações das previsões usando média aritmética, um método de média ponderada proposto por Bates e Granger (1969) e média ponderada através de regressão linear múltipla foram realizadas. As previsões também foram combinadas com a previsão do boletim FOCUS do Banco Central. O método de Bates e Granger minimiza a variância do erro da combinação e encontra uma previsão com variância do erro menor ou igual à menor variância dos erros das previsões individuais, se as previsões individuais forem não viesadas. A conclusão é que, com as técnicas de séries temporais utilizadas, alguns modelos individuais fornecem previsões com EQM relativamente baixos. Destacando-se, dentre eles, os modelos VAR e VECM. Porém, com a combinação de previsões os EQM obtidos são menores do que os das previsões individuais usadas para combinação. Na maioria dos casos, a combinação de previsões com o boletim FOCUS também melhorou significativamente os resultados e forneceu previsões com EQM menores do que os das previsões individuais, destacando-se, dentre os métodos de combinações utilizados, a combinação via regressão linear múltipla.
Resumo:
Analisa-se o acordo setorial automobilístico mostrando que o mesmo introduziu uma mudança estrutural no comportamento da produção de automóveis. Considera-se que a evidência estatística pode ser interpretada como argumento em favor da tese de que o tal acordo foi importante para suportar a indústria nacional em uma conjuntura de maior exposição aos mercados externos.
Resumo:
A dissertação tem como principal objetivo a busca de evidências da existência de um componente determinístico no comportamento dos preços de certas ações negociadas na Bolsa de Valores de São Paulo (BOVESPA) e em índices amplos do mercado, tais como o Ibovespa e IBX e, como conseqüência, determinar se a Hipótese de Mercado Eficiente é válida para o mercado financeiro brasileiro. Um objetivo secundário é mostrar a aplicabilidade de técnicas interdisciplinares ao estudo de Finanças empíricas, técnicas essas que, desde sua incepção, já levam em consideração o fato de que os dados estudados não atendem ao requisito de normalidade e que as observações não são independentes entre si. Essa aplicabilidade já é largamente demonstrada em inúmeros estudos internacionais e diversas publicações no Brasil. Porém, o presente trabalho tentará aplicar uma estrutura analítica mais flexível e computacionalmente mais eficiente, utilizando ferramentas trazidas do campo da Teoria da Informação e avanços relativamente recentes da área.
Resumo:
Este trabalho busca avaliar a existência de cointegração das ações do mercado brasileiro e a forma de utilização da estratégia de arbitragem estatística pelos gestores. Para isso, utilizou-se preços de ações brasileiras em diferentes frequências e janelas e aplicou-se a metodologia de Johansen e Cavaliere, cuja hipótese nula refere-se a não cointegração dos pares. Os resultados mostram que há poucas relações de cointegração entre as séries analisadas, o que ratifica a necessidade de cautela na forma de implantação da técnica na construção de carteiras.
Resumo:
A dissertação tem como objetivo analisar e discutir o conceito de saúde presente nos livros didáticos de 13 a 43 séries componentes das três coleções mais compradas pela Fundação de Assistência ao Estudante doMinistério da Educação e do Desporto (MEC), dentro do Programa Nacional do Livro Didático - 1991, para o Estado do Rio de Janeiro.
Resumo:
A formação de professores para as quatro primeiras séries do 1o Grau, realizada em cursos a nível de 2o grau, apresenta graves distorções, não atingindo os objetivos propostos pela política educacional do País. Os princípios da ciência contemporânea podem e devem ser mobilizados para a solução desse problema. O estudo das estruturas cognitivas de senvolvido por Jean Piaget e seus colaboradores nos mostra que elas são conquistadas num processo operatório de açao sobre os objetos, sendo as operações formais somente possíveis de serem conquistadas a partir da adolescência, após o domínio das operações concretas. Paralelamente, a clientela das escolas estaduais vem apresentando graves limitações no desenvolvimento da linguagem falada e escrita, o que reverte progressivamente em novas dificuldades à medida que os alunos não conseguem decodificar a linguagem do professor. Procurando minorar tais dificuldades propõe-se a reformulação do currículo de For mação de Professores da la. a 4a. séries do 1o grau para as escolas de 2o grau da rede oficial do Estado do Rio de Janeiro . A metodologia que fundamenta a nova proposta curricular é desenvolvida experimentalmente numa das escolas da rede, no município do Rio de Janeiro. Analisam-se as relações teoria-prática a partir dos resultados do primeiro ano do experimento.
Resumo:
As variáveis econômicas são frequentemente governadas por processos dinâmicos e não-lineares que podem gerar relações de dependência de longo prazo e padrões cíclicos não-periódicos com mudanças abruptas de tendências. Para o caso dos preços agrícolas este comportamento não é diferente e as peculiaridades destes mercados podem gerar séries temporais fracionalmente integradas, cujas singularidades não seriam adequadamente capturadas pelos tradicionais modelos analíticos fundamentados na hipótese dos mercados eficientes e de passeio aleatório. Sendo assim, o presente estudo buscou investigar a presença de estruturas fractais no mercado à vista de algumas das principais commodities agrícolas brasileiras: café, boi gordo, açúcar, milho, soja e bezerro. Foram empregadas técnicas tradicionais e específicas para a análise de séries temporais fractais como a análise de R/S e a aplicação de modelos das famílias ARFIMA e FIGARCH. Os resultados indicaram que, com exceção do bezerro, o componente de drift destas séries não apresentou comportamento fractal, ao contrário do observado para o componente da volatilidade, que apresentou aspecto de estrutura fractal para todas as commodities analisadas.
Resumo:
Este trabalho compara modelos de séries temporais para a projeção de curto prazo da inflação brasileira, medida pelo Índice de Preços ao Consumidor Amplo (IPCA). Foram considerados modelos SARIMA de Box e Jenkins e modelos estruturais em espaço de estados, estimados pelo filtro de Kalman. Para a estimação dos modelos, foi utilizada a série do IPCA na base mensal, de março de 2003 a março de 2012. Os modelos SARIMA foram estimados no EVIEWS e os modelos estruturais no STAMP. Para a validação dos modelos para fora da amostra, foram consideradas as previsões 1 passo à frente para o período de abril de 2012 a março de 2013, tomando como base os principais critérios de avaliação de capacidade preditiva propostos na literatura. A conclusão do trabalho é que, embora o modelo estrutural permita, decompor a série em componentes com interpretação direta e estudá-las separadamente, além de incorporar variáveis explicativas de forma simples, o desempenho do modelo SARIMA para prever a inflação brasileira foi superior, no período e horizonte considerados. Outro importante aspecto positivo é que a implementação de um modelo SARIMA é imediata, e previsões a partir dele são obtidas de forma simples e direta.
Resumo:
Outliers são observações que parecem ser inconsistentes com as demais. Também chamadas de valores atípicos, extremos ou aberrantes, estas inconsistências podem ser causadas por mudanças de política ou crises econômicas, ondas inesperadas de frio ou calor, erros de medida ou digitação, entre outras. Outliers não são necessariamente valores incorretos, mas, quando provenientes de erros de medida ou digitação, podem distorcer os resultados de uma análise e levar o pesquisador à conclusões equivocadas. O objetivo deste trabalho é estudar e comparar diferentes métodos para detecção de anormalidades em séries de preços do Índice de Preços ao Consumidor (IPC), calculado pelo Instituto Brasileiro de Economia (IBRE) da Fundação Getulio Vargas (FGV). O IPC mede a variação dos preços de um conjunto fixo de bens e serviços componentes de despesas habituais das famílias com nível de renda situado entre 1 e 33 salários mínimos mensais e é usado principalmente como um índice de referência para avaliação do poder de compra do consumidor. Além do método utilizado atualmente no IBRE pelos analistas de preços, os métodos considerados neste estudo são: variações do Método do IBRE, Método do Boxplot, Método do Boxplot SIQR, Método do Boxplot Ajustado, Método de Cercas Resistentes, Método do Quartil, do Quartil Modificado, Método do Desvio Mediano Absoluto e Algoritmo de Tukey. Tais métodos foram aplicados em dados pertencentes aos municípios Rio de Janeiro e São Paulo. Para que se possa analisar o desempenho de cada método, é necessário conhecer os verdadeiros valores extremos antecipadamente. Portanto, neste trabalho, tal análise foi feita assumindo que os preços descartados ou alterados pelos analistas no processo de crítica são os verdadeiros outliers. O Método do IBRE é bastante correlacionado com os preços alterados ou descartados pelos analistas. Sendo assim, a suposição de que os preços alterados ou descartados pelos analistas são os verdadeiros valores extremos pode influenciar os resultados, fazendo com que o mesmo seja favorecido em comparação com os demais métodos. No entanto, desta forma, é possível computar duas medidas através das quais os métodos são avaliados. A primeira é a porcentagem de acerto do método, que informa a proporção de verdadeiros outliers detectados. A segunda é o número de falsos positivos produzidos pelo método, que informa quantos valores precisaram ser sinalizados para um verdadeiro outlier ser detectado. Quanto maior for a proporção de acerto gerada pelo método e menor for a quantidade de falsos positivos produzidos pelo mesmo, melhor é o desempenho do método. Sendo assim, foi possível construir um ranking referente ao desempenho dos métodos, identificando o melhor dentre os analisados. Para o município do Rio de Janeiro, algumas das variações do Método do IBRE apresentaram desempenhos iguais ou superiores ao do método original. Já para o município de São Paulo, o Método do IBRE apresentou o melhor desempenho. Em trabalhos futuros, espera-se testar os métodos em dados obtidos por simulação ou que constituam bases largamente utilizadas na literatura, de forma que a suposição de que os preços descartados ou alterados pelos analistas no processo de crítica são os verdadeiros outliers não interfira nos resultados.
Resumo:
Este Trabalho se Dedica ao exercício empírico de gerar mais restrições ao modelo de apreçamento de ativos com séries temporais desenvolvido por Hansen e Singleton JPE 1983. As restrições vão, desde um simples aumento qualitativo nos ativos estudados até uma extensão teórica proposta a partir de um estimador consistente do fator estocástico de desconto. As estimativas encontradas para a aversão relativa ao risco do agente representativo estão dentro do esperado, na maioria dos casos, já que atingem valores já encontrados na literatura além do fato destes valores serem economicamente plausíveis. A extensão teórica proposta não atingiu resultados esperados, parecendo melhorar a estimação do sistema marginalmente.
Resumo:
This paper examines the real convergence hypothesis across Brazilian states. In order to test for the existence of income convergence the or- der of integration of real Gross State Product (GSP) per capita series is examined as well as their di¤erences with respect to the São Paulo state which is used as a benchmark state. Both parametric and semiparametric methods are used and the results show that convergence is achieved in the cases of Alagoas, Amazonas, Bahia, Goiás, Mato Grosso, Minas Gerais, Pernambuco, Piauí, Rio Grande do Sul, Rio de Janeiro and Santa Cata- rina and convergence is weakly achieved in the cases of Ceará, Maranhao, Pará, Paraná and Sergipe .The states of Espírito Santo, Paraíba and Rio Grande do Norte show no convergence. O artigo examina a hipótese de convergência real entre os estados brasileiros. Para testar a existência ou não da convergência da renda a ordem da integração da série do produto real bruto do estado per capita é examinada assim como suas diferenças com respeito ao estado de São Paulo que é usado como base. Foram utilizados métodos paramétricos e semiparametric e os resultados mostram que ocorre convergência nos estados: Alagoas, Amazonas, Baía, Goiás, Mato Grosso, Minas Gerais, Pernambuco, Piauí, Rio Grande do Sul, Rio de Janeiro e Santa Catarina e ocorre convergência fraca nos estados: Ceará, de Maranhão, Pará, Paraná e Sergipe. Nos estado
Resumo:
The presence of deterministic or stochastic trend in U.S. GDP has been a continuing debate in the literature of macroeconomics. Ben-David and Papell (1995) found evindence in favor of trend stationarity using the secular sample of Maddison (1995). More recently, Murray and Nelson (2000) correctly criticized this nding arguing that the Maddison data are plagued with additive outliers (AO), which bias inference towards stationarity. Hence, they propose to set the secular sample aside and conduct inference using a more homogeneous but shorter time-span post-WWII sample. In this paper we re-visit the Maddison data by employing a test that is robust against AO s. Our results suggest the U.S. GDP can be modeled as a trend stationary process.
Resumo:
Utilizando dados financeiros brasileiros da BM&F, testa-se a validade do modelo de valor pre- sente (MVP) na estrutura a termo de juros, também conhecido na literatura como Hipótese das Expectativas. Estes modelos relacionam a taxa de juros de longo prazo à uma média das taxas de juros de curto-prazo mais um prêmio de risco, invariante no tempo. Associada a estes modelos está a questão da previsibilidade dos retornos de ativos financeiros ou, mais especificamente, a previsibilidade na evolução das taxas de juros. Neste artigo é realizada uma análise multivariada em um arcabouço de séries temporais utilizando a técnica de Au- torregressões Vetoriais. Os resultados empíricos aceitam apenas parcialmente a Hipótese das Expectativas para a estrutura a termo de juros brasileira.