12 resultados para Outliers

em Repositório digital da Fundação Getúlio Vargas - FGV


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho tem como objetivo propor um exame sistemático do chamado prêmio do risco soberano dos títulos emitidos pelo governo brasileiro que permita a categorização dos fatores que possam ser entendidos como geradores do conceito de risco soberano.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Outliers são observações que parecem ser inconsistentes com as demais. Também chamadas de valores atípicos, extremos ou aberrantes, estas inconsistências podem ser causadas por mudanças de política ou crises econômicas, ondas inesperadas de frio ou calor, erros de medida ou digitação, entre outras. Outliers não são necessariamente valores incorretos, mas, quando provenientes de erros de medida ou digitação, podem distorcer os resultados de uma análise e levar o pesquisador à conclusões equivocadas. O objetivo deste trabalho é estudar e comparar diferentes métodos para detecção de anormalidades em séries de preços do Índice de Preços ao Consumidor (IPC), calculado pelo Instituto Brasileiro de Economia (IBRE) da Fundação Getulio Vargas (FGV). O IPC mede a variação dos preços de um conjunto fixo de bens e serviços componentes de despesas habituais das famílias com nível de renda situado entre 1 e 33 salários mínimos mensais e é usado principalmente como um índice de referência para avaliação do poder de compra do consumidor. Além do método utilizado atualmente no IBRE pelos analistas de preços, os métodos considerados neste estudo são: variações do Método do IBRE, Método do Boxplot, Método do Boxplot SIQR, Método do Boxplot Ajustado, Método de Cercas Resistentes, Método do Quartil, do Quartil Modificado, Método do Desvio Mediano Absoluto e Algoritmo de Tukey. Tais métodos foram aplicados em dados pertencentes aos municípios Rio de Janeiro e São Paulo. Para que se possa analisar o desempenho de cada método, é necessário conhecer os verdadeiros valores extremos antecipadamente. Portanto, neste trabalho, tal análise foi feita assumindo que os preços descartados ou alterados pelos analistas no processo de crítica são os verdadeiros outliers. O Método do IBRE é bastante correlacionado com os preços alterados ou descartados pelos analistas. Sendo assim, a suposição de que os preços alterados ou descartados pelos analistas são os verdadeiros valores extremos pode influenciar os resultados, fazendo com que o mesmo seja favorecido em comparação com os demais métodos. No entanto, desta forma, é possível computar duas medidas através das quais os métodos são avaliados. A primeira é a porcentagem de acerto do método, que informa a proporção de verdadeiros outliers detectados. A segunda é o número de falsos positivos produzidos pelo método, que informa quantos valores precisaram ser sinalizados para um verdadeiro outlier ser detectado. Quanto maior for a proporção de acerto gerada pelo método e menor for a quantidade de falsos positivos produzidos pelo mesmo, melhor é o desempenho do método. Sendo assim, foi possível construir um ranking referente ao desempenho dos métodos, identificando o melhor dentre os analisados. Para o município do Rio de Janeiro, algumas das variações do Método do IBRE apresentaram desempenhos iguais ou superiores ao do método original. Já para o município de São Paulo, o Método do IBRE apresentou o melhor desempenho. Em trabalhos futuros, espera-se testar os métodos em dados obtidos por simulação ou que constituam bases largamente utilizadas na literatura, de forma que a suposição de que os preços descartados ou alterados pelos analistas no processo de crítica são os verdadeiros outliers não interfira nos resultados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The presence of deterministic or stochastic trend in U.S. GDP has been a continuing debate in the literature of macroeconomics. Ben-David and Papell (1995) found evindence in favor of trend stationarity using the secular sample of Maddison (1995). More recently, Murray and Nelson (2000) correctly criticized this nding arguing that the Maddison data are plagued with additive outliers (AO), which bias inference towards stationarity. Hence, they propose to set the secular sample aside and conduct inference using a more homogeneous but shorter time-span post-WWII sample. In this paper we re-visit the Maddison data by employing a test that is robust against AO s. Our results suggest the U.S. GDP can be modeled as a trend stationary process.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Empirical evidence suggests that real exchange rate is characterized by the presence of near-unity and additive outliers. Recent studeis have found evidence on favor PPP reversion by using the quasi-differencing (Elliott et al., 1996) unit root tests (ERS), which is more efficient against local alternatives but is still based on least squares estimation. Unit root tests basead on least saquares method usually tend to bias inference towards stationarity when additive out liers are present. In this paper, we incorporate quasi-differencing into M-estimation to construct a unit root test that is robust not only against near-unity root but also against nonGaussian behavior provoked by assitive outliers. We re-visit the PPP hypothesis and found less evidemce in favor PPP reversion when non-Gaussian behavior in real exchange rates is taken into account.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper proposes unit tests based on partially adaptive estimation. The proposed tests provide an intermediate class of inference procedures that are more efficient than the traditional OLS-based methods and simpler than unit root tests based on fully adptive estimation using nonparametric methods. The limiting distribution of the proposed test is a combination of standard normal and the traditional Dickey-Fuller (DF) distribution, including the traditional ADF test as a special case when using Gaussian density. Taking into a account the well documented characteristic of heavy-tail behavior in economic and financial data, we consider unit root tests coupled with a class of partially adaptive M-estimators based on the student-t distributions, wich includes te normal distribution as a limiting case. Monte Carlo Experiments indicate that, in the presence of heavy tail distributions or innovations that are contaminated by outliers, the proposed test is more powerful than the traditional ADF test. We apply the proposed test to several macroeconomic time series that have heavy-tailed distributions. The unit root hypothesis is rejected in U.S. real GNP, supporting the literature of transitory shocks in output. However, evidence against unit roots is not found in real exchange rate and nominal interest rate even haevy-tail is taken into a account.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho examinou as características de carteiras compostas por ações e otimizadas segundo o critério de média-variância e formadas através de estimativas robustas de risco e retorno. A motivação para isto é a distribuição típica de ativos financeiros (que apresenta outliers e mais curtose que a distribuição normal). Para comparação entre as carteiras, foram consideradas suas propriedades: estabilidade, variabilidade e os índices de Sharpe obtidos pelas mesmas. O resultado geral mostra que estas carteiras obtidas através de estimativas robustas de risco e retorno apresentam melhoras em sua estabilidade e variabilidade, no entanto, esta melhora é insuficiente para diferenciar os índices de Sharpe alcançados pelas mesmas das carteiras obtidas através de método de máxima verossimilhança para estimativas de risco e retorno.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Examinamos a relação entre anomalias de temperatura e séries de sinistros diretos do mercado segurador brasileiro, bem como seu efeito sobre um modelo de precificação de ativos de consumo. Nossa metodologia consistiu na análise da correlação das anomalias de temperatura com a série de sinistros e no efeito dessas séries nas oportunidades futuras de investimento. Testamos um modelo de precificação de ativos de consumo (CCAPM) condicional com as séries temporais brasileiras. Duas séries de consumo, duas séries de sinistros diretos e quatro séries de anomalias de temperatura foram utilizadas na realização dos testes. Todas as séries pertenceram ao período de setembro de 1996 a dezembro de 2007, com freqüência trimestral, dois anos posteriores ao início do plano Real e um ano antes da crise de crédito de 2008. Em alguns casos utilizamos séries mensais. Observamos a existência de correlação positiva e significativa entre as séries de sinistro direto e as anomalias de temperatura. Dois modelos se apresentaram melhores que o CCAPM clássico. O primeiro com a taxa de crescimento da série de sinistros, com pontos que poderíamos considerar como outliers, e o segundo com a série de anomalias de temperatura do hemisfério sul elaborada pelo Goddard Institute of Space Sciences (GISS/NASA). Como resultado observamos que a série de anomalias de temperatura elaborada pelo GISS é capaz de afetar as oportunidades futuras de investimento no mercado de capitais brasileiro.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Seguros de carteiras proporcionam aos gestores limitar o risco de downside sem renunciar a movimentos de upside. Nesta dissertação, propomos um arcabouço de otimização de seguro de carteira a partir de um modelo híbrido frequentista-Bayesiano com uso de derivativos. Obtemos a distribuição conjunta de retornos regulares através de uma abordagem estatística frequentista, uma vez removidos os outliers da amostra. A distribuição conjunta dos retornos extremos, por sua vez, é modelada através de Redes Bayesianas, cuja topologia contempla os eventos que o gestor considera crítico ao desempenho da carteira. Unindo as distribuições de retornos regulares e extremos, simulamos cenários futuros para a carteira. O seguro é, então, otimizado através do algoritmo Evolução Diferencial. Mostramos uma aplicação passo a passo para uma carteira comprada em ações do Ibovespa, utilizando dados de mercado entre 2008 e 2012.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho utiliza os dados disponibilizados pela BM&FBovespa para analisar as ações da Petrobrás para os meses compreendidos entre julho e agosto de 2010 e outubro de 2008. Primeiramente, apresentamos uma discussão detalhada sobre a manipulação desses dados, na qual explicitamos a impossibilidade de se usar o mid-price quote devido ao número elevado de ofertas de compra/venda com preços muito elevados/baixos. Verificamos alguns dos fatos estilizados empíricos apontados por Cont (2001), entre outros consagrados na literatura de microestrutura. Em geral, os dados replicaram os fatos estilizados. Aplicamos o filtro proposto por Brownlees e Gallo (2006) às ações da Petrobrás e analisamos a sensibilidade do número de possíveis outliers encontrados pelo filtro a variação dos parâmetros desse filtro. Propomos utilizar o critério de Akaike para ordenar e selecionar modelos de duração condicional cujas amostras de duração possuem tamanhos distintos. Os modelos selecionados, nem sempre são aqueles em que os dados foram filtrados. Para o ajuste ACD (1,1), quando considerados apenas os modelos bem ajustados (resíduos não autocorrelacionados), o critério de Akaike indica como melhor modelo aquele em que os dados não foram filtrados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper constructs a unit root test baseei on partially adaptive estimation, which is shown to be robust against non-Gaussian innovations. We show that the limiting distribution of the t-statistic is a convex combination of standard normal and DF distribution. Convergence to the DF distribution is obtaineel when the innovations are Gaussian, implying that the traditional ADF test is a special case of the proposed testo Monte Carlo Experiments indicate that, if innovation has heavy tail distribution or are contaminated by outliers, then the proposed test is more powerful than the traditional ADF testo Nominal interest rates (different maturities) are shown to be stationary according to the robust test but not stationary according to the nonrobust ADF testo This result seems to suggest that the failure of rejecting the null of unit root in nominal interest rate may be due to the use of estimation and hypothesis testing procedures that do not consider the absence of Gaussianity in the data.Our results validate practical restrictions on the behavior of the nominal interest rate imposed by CCAPM, optimal monetary policy and option pricing models.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo deste trabalho é aplicar e avaliar o desempenho do conceito de técnicas de nowcasting para previsão de uma importante variável macroeconômica do Produto Interno Bruto (PIB) brasileiro. Nos últimos anos, novas técnicas vêm sendo propostas e aprimoradas. Comparam-se diferentes modelos de nowcasting frente a um benchmarking, avaliando a relevância das variáveis a partir do Autometrics, que foi desenvolvido por Doornik (2011). A proposta é reunir diversos indicadores econômicos da economia brasileira que possam em maior ou menor grau antecipar a variação do PIB. Será utilizada a técnica de variáveis dummies com saturação (proposta por Johansen et. al.) para controlar possíveis quebras e outliers. Esta abordagem é adequada para um ambiente econômico instável, com constantes mudanças ao longo do tempo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper examines the current global scene of distributional disparities within-nations. There are six main conclusions. First, about 80 per cent of the world’s population now live in regions whose median country has a Gini not far from 40. Second, as outliers are now only located among middle-income and rich countries, the ‘upwards’ side of the ‘Inverted-U’ between inequality and income per capita has evaporated (and with it the statistical support there was for the hypothesis that posits that, for whatever reason, ‘things have to get worse before they can get better’). Third, among middle-income countries Latin America and mineral-rich Southern Africa are uniquely unequal, while Eastern Europe follows a distributional path similar to the Nordic countries. Fourth, among rich countries there is a large (and growing) distributional diversity. Fifth, within a global trend of rising inequality, there are two opposite forces at work. One is ‘centrifugal’, and leads to an increased diversity in the shares appropriated by the top 10 and bottom 40 per cent. The other is ‘centripetal’, and leads to a growing uniformity in the income-share appropriated by deciles 5 to 9. Therefore, half of the world’s population (the middle and upper-middle classes) have acquired strong ‘property rights’ over half of their respective national incomes; the other half, however, is increasingly up for grabs between the very rich and the poor. And sixth, Globalisation is thus creating a distributional scenario in which what really matters is the income-share of the rich — because the rest ‘follows’ (middle classes able to defend their shares, and workers with ever more precarious jobs in ever more ‘flexible’ labour markets). Therefore, anybody attempting to understand the within-nations disparity of inequality should always be reminded of this basic distributional fact following the example of Clinton’s campaign strategist: by sticking a note on their notice-boards saying “It’s the share of the rich, stupid”.