7 resultados para PMAC IPC

em Repositório digital da Fundação Getúlio Vargas - FGV


Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho apresenta uma medida de Core Inflation para a economia brasileira obtida através dos dados desagregados do IPC-DI/FGV. A revisão do conceito, a justificativa para seu uso na política monetária e as diversas formas metodológicas para seu cálculo são apresentadas na primeira parte do trabalho. O método utilizado para o cálculo do Core foi o de Médias Aparadas (Trimmed Means) com o tratamento para setores selecionados com custos de ajustamento. O indicador escolhido, após submetido a diversos testes, foi o de 20% de aparamento com distribuição de variações pontuais de preços dos setores selecionados por 12 meses.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho tem por objetivo avaliar a evolução do setor bancário antes e logo após o Plano Real Iniciamos avaliando a queda das transferências inflação Diárias decorrente da passagem de uma inflação da ordem de 40% ao mês, relativa ao período pré-Plano Real, para uma média de 3,65% (IGP-DI) ou 2,61 % (IPC-r) ao mês, de julho de 1994 a maio de 1995. Em seguida, usando dados de balanço de um conjunto de 90 bancos, tentamos estimar os refluxos destas perdas sobre a rentabilidade e outros parâmetros da indústria bancária. Os cálculos do efetuados separadamente para os bancos privados, estaduais e federais. Uma análise posterior de desempenho utilizando informações fornecidas à CVM pelos seis maiores bancos privados do país é também apresentada.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese investiga as estratégias de precificação em ambientes macroeconômicos distintos, utilizando uma base de dados única para o IPC da Fundação Getulio Vargas. A base de dados primária consiste em um painel de dados individuais para bens e serviços representando 100% do IPC para o período de 1996 a 2008. Durante este período, diversos eventos produziram uma variabilidade macroeconômica substancial no Brasil: duas crises em países emergentes, uma mudança de regime cambial e monetário, racionamento de energia, uma crise de expectativas eleitorais e um processo de desinflação. Como consequência, a inflação, a incerteza macroeconômica, a taxa de câmbio e o produto exibiram uma variação considerável no período. No primeiro capítulo, nós descrevemos a base de dados e apresentamos as principais estatísticas de price-setting para o Brasil. Em seguida, nos capítulos 2 e 3, nos construímos as séries de tempo destas estatísticas e das estatísticas de promoções, e as relacionamos com as variáveis macroeconômicas utilizando análises de regressões. Os resultados indicam que há uma relação substancial entre as estatísticas de price-setting e o ambiente macroeconômico para a economia brasileira.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Durante a década de 80, o Brasil se deparou com a estagnação econômica e teve uma aceleração permanente nas suas taxas de inflação. Chegando, em fevereiro de 1990, ao nível de 73% a.m. (medido pelo IPC). O objetivo desta dissertação é analisar as causas dessa crise econômica, que levou o país rumo à hiperinflação. A causa fundamental, da crise, é o desequilíbrio financeiro e estrutural do setor público, provocado principalmente pelo seu elevado nível de endividamento. O maior sintoma do desequilíbrio é a dificuldade de financiamento do déficit público, que só é feito de forma traumática: com a elevação da taxa de juros interna, com criação de “moeda indexada” e gerando tensões inflacionárias.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo deste trabalho foi avaliar a hipótese da paridade de poder de compra em sua forma absoluta no Brasil entre 1980 e 2006. Para testar a paridade de poder de compra (PPC) em sua forma absoluta foram realizados, inicialmente, os tradicionais testes de raiz unitária. As alterações nas condições macroeconômicas das séries brasileiras podem ter alterado as propriedades estocásticas das séries de câmbio e de nível de preços, o que pode ter viesado os resultados dos testes ADF do segundo capítulo. Os testes de raiz unitária com quebra estrutural foram realizados para reavaliar os resultados dos testes sem quebra estrutural e as conclusões acerca da validade da PPC absoluta no Brasil. Os resultados dos testes de raiz unitária sobre a taxa de câmbio real indicaram a presença de uma raiz unitária quando o câmbio real foi calculado através de índices de preços ao atacado, IPA –DI para o Brasil e PPI para os EUA. Quando foram utilizados índices de preços ao consumidor, IPC – FIPE para o Brasil e CPI para os EUA, a taxa de câmbio real tornou-se estacionária. Esse é um resultado contra-intuitivo pois a paridade de poder de compra absoluta deveria ser válida justamente quando no cálculo da taxa de câmbio real são utilizados índices de preços ao atacado dado que a maioria dos bens que compõe a cesta desses índices tem seus preços determinados pelo comércio internacional. Em seguida, no mesmo capítulo, foi realizada análise de cointegração conforme o procedimento de Johansen e Juselius (1988) para determinar se existe uma relação de longo prazo entre taxa de câmbio nominal, índice de preço externo e interno. Os resultados para a amostra completa (1980:2006) foram desfavoráveis à aceitação da paridade de poder de compra absoluta e também na sub-amostra de 1994 a 2006. Nesse sub-período foi possível notar que a taxa de câmbio estava desalinhada em relação ao comportamento do diferencial de preços externo e interno. No capítulo três foram realizados testes sobre a PPC utilizando procedimentos que levam em conta a presença de quebras estruturais. Primeiramente, foram realizados testes de raízes unitárias utilizando-se o teste de Perron e Vogelsang (1998). O ano de 1998 foi o que apresentou com maior freqüência a menor estatística t, mas para nenhum dos modelos desenvolvidos por Perron e Vogelsang (1998) foi possível encontrar indícios da validade da PPC absoluta. Finalmente, foram realizados testes de cointegração com quebra estrutural utilizandose a metodologia de Gregory e Hansen (1996). O teste desenvolvido por esses autores utiliza como base o teste de cointegração de Engle e Granger (1987) para determinar a menor estatística t para uma determinada amostra. Os anos de 1983 e 2003 foram os que apresentaram com maior freqüência a menor estatística t para os modelos desenvolvidos por Gregory e Hansen (1996), mas em nenhum dos casos foi possível aceitar a hipótese de validade da PPC absoluta. A paridade de poder de compra absoluta foi testada de diversas formas ao longo do trabalho, mas na maioria dos casos, como foi dito acima, não foi possível aceitar sua validade.

Relevância:

10.00% 10.00%

Publicador:

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Outliers são observações que parecem ser inconsistentes com as demais. Também chamadas de valores atípicos, extremos ou aberrantes, estas inconsistências podem ser causadas por mudanças de política ou crises econômicas, ondas inesperadas de frio ou calor, erros de medida ou digitação, entre outras. Outliers não são necessariamente valores incorretos, mas, quando provenientes de erros de medida ou digitação, podem distorcer os resultados de uma análise e levar o pesquisador à conclusões equivocadas. O objetivo deste trabalho é estudar e comparar diferentes métodos para detecção de anormalidades em séries de preços do Índice de Preços ao Consumidor (IPC), calculado pelo Instituto Brasileiro de Economia (IBRE) da Fundação Getulio Vargas (FGV). O IPC mede a variação dos preços de um conjunto fixo de bens e serviços componentes de despesas habituais das famílias com nível de renda situado entre 1 e 33 salários mínimos mensais e é usado principalmente como um índice de referência para avaliação do poder de compra do consumidor. Além do método utilizado atualmente no IBRE pelos analistas de preços, os métodos considerados neste estudo são: variações do Método do IBRE, Método do Boxplot, Método do Boxplot SIQR, Método do Boxplot Ajustado, Método de Cercas Resistentes, Método do Quartil, do Quartil Modificado, Método do Desvio Mediano Absoluto e Algoritmo de Tukey. Tais métodos foram aplicados em dados pertencentes aos municípios Rio de Janeiro e São Paulo. Para que se possa analisar o desempenho de cada método, é necessário conhecer os verdadeiros valores extremos antecipadamente. Portanto, neste trabalho, tal análise foi feita assumindo que os preços descartados ou alterados pelos analistas no processo de crítica são os verdadeiros outliers. O Método do IBRE é bastante correlacionado com os preços alterados ou descartados pelos analistas. Sendo assim, a suposição de que os preços alterados ou descartados pelos analistas são os verdadeiros valores extremos pode influenciar os resultados, fazendo com que o mesmo seja favorecido em comparação com os demais métodos. No entanto, desta forma, é possível computar duas medidas através das quais os métodos são avaliados. A primeira é a porcentagem de acerto do método, que informa a proporção de verdadeiros outliers detectados. A segunda é o número de falsos positivos produzidos pelo método, que informa quantos valores precisaram ser sinalizados para um verdadeiro outlier ser detectado. Quanto maior for a proporção de acerto gerada pelo método e menor for a quantidade de falsos positivos produzidos pelo mesmo, melhor é o desempenho do método. Sendo assim, foi possível construir um ranking referente ao desempenho dos métodos, identificando o melhor dentre os analisados. Para o município do Rio de Janeiro, algumas das variações do Método do IBRE apresentaram desempenhos iguais ou superiores ao do método original. Já para o município de São Paulo, o Método do IBRE apresentou o melhor desempenho. Em trabalhos futuros, espera-se testar os métodos em dados obtidos por simulação ou que constituam bases largamente utilizadas na literatura, de forma que a suposição de que os preços descartados ou alterados pelos analistas no processo de crítica são os verdadeiros outliers não interfira nos resultados.