999 resultados para Economia - Modelos estatísticos
Resumo:
O trabalho aborda a relação entre a distribuição de riqueza (renda) e o crescimentoeconômico gerado por modelos teóricos consolidados. Atenção especial é dada a mecanismos endógenos de escolha consumo-poupança e a formalização explícita da evolução da distribuição de riqueza
Resumo:
O presente documento procura analisar e desenvolver um modelo de previsão de demanda de crédito imobiliário residencial para o mercado brasileiro. Serão examinados: a relação do crédito e os fatores macroeconômicos, a evolução do crédito no Brasil, o crédito imobiliário no contexto do crédito brasileiro e o déficit habitacional no mercado. Em seguida identificaremos os indicadores macroeconômicos que melhor explicam a demanda de crédito imobiliário através de modelos estatísticos de regressão. Finalmente testaremos modelos e definiremos o que melhor se aplica à estimativa de previsão de demanda de crédito imobiliário para o mercado brasileiro.
Resumo:
O trabalho busca analisar e entender se a aplicação de técnicas de Data mining em processos de aquisição de clientes de cartão de crédito, especificamente os que não possuem uma conta corrente em banco, podem trazer resultados positivos para as empresas que contam com processos ativos de conquista de clientes. Serão exploradas três técnicas de amplo reconhecimento na comunidade acadêmica : Regressão logística, Árvores de decisão, e Redes neurais. Será utilizado como objeto de estudo uma empresa do setor financeiro, especificamente nos seus processos de aquisição de clientes não correntistas para o produto cartão de crédito. Serão mostrados resultados da aplicação dos modelos para algumas campanhas passadas de venda de cartão de crédito não correntistas, para que seja possível verificar se o emprego de modelos estatísticos que discriminem os clientes potenciais mais propensos dos menos propensos à contratação podem se traduzir na obtenção de ganhos financeiros. Esses ganhos podem vir mediante redução dos custos de marketing abordando-se somente os clientes com maiores probabilidades de responderem positivamente à campanha. A fundamentação teórica se dará a partir da introdução dos conceitos do mercado de cartões de crédito, do canal telemarketing, de CRM, e das técnicas de data mining. O trabalho apresentará exemplos práticos de aplicação das técnicas mencionadas verificando os potenciais ganhos financeiros. Os resultados indicam que há grandes oportunidades para o emprego das técnicas de data mining nos processos de aquisição de clientes, possibilitando a racionalização da operação do ponto de vista de custos de aquisição.
Resumo:
O objetivo desse trabalho é avaliar a capacidade de previsão do mercado sobre a volatilidade futura a partir das informações obtidas nas opções de Petrobras e Vale, além de fazer uma comparação com modelos do tipo GARCH e EWMA. Estudos semelhantes foram realizados no mercado de ações americano: Seja com uma cesta de ações selecionadas ou com relação ao índice S&P 100, as conclusões foram diversas. Se Canina e Figlewski (1993) a “volatilidade implícita tem virtualmente nenhuma correlação com a volatilidade futura”, Christensen e Prabhala (1998) concluem que a volatilidade implícita é um bom preditor da volatilidade futura. No mercado brasileiro, Andrade e Tabak (2001) utilizam opções de dólar para estudar o conteúdo da informação no mercado de opções. Além disso, comparam o poder de previsão da volatilidade implícita com modelos de média móvel e do tipo GARCH. Os autores concluem que a volatilidade implícita é um estimador viesado da volatilidade futura mas de desempenho superior se comparada com modelos estatísticos. Gabe e Portugal (2003) comparam a volatilidade implícita das opções de Telemar (TNLP4) com modelos estatísticos do tipo GARCH. Nesse caso, volatilidade implícita tambem é um estimador viesado, mas os modelos estatísticos além de serem bons preditores, não apresentaram viés. Os dados desse trabalho foram obtidos ao longo de 2008 e início de 2009, optando-se por observações intradiárias das volatilidades implícitas das opções “no dinheiro” de Petrobrás e Vale dos dois primeiros vencimentos. A volatidade implícita observada no mercado para ambos os ativos contém informação relevante sobre a volatilidade futura, mas da mesma forma que em estudos anteriores, mostou-se viesada. No caso específico de Petrobrás, o modelo GARCH se mostrou um previsor eficiente da volatilidade futura
Resumo:
A presente dissertação analisa o erro de projeção dos analistas de investimentos do sell side, definido como a diferença entre o consenso das projeções dos analistas e o resultado reportado pela empresa. O tamanho do erro de projeção é uma medida da qualidade das projeções dos analistas de um determinado mercado de capitais. Uma vasta literatura acadêmica mostra que uma melhora na qualidade das projeções dos analistas, medida através de uma diminuição do tamanho do erro de projeção, está relacionada com a redução da assimetria de informação e com um aumento do valor de mercado das empresas. São testadas duas regressões, nas quais características das empresas, como setor, tamanho, endividamento e variabilidade do lucro, e características do ambiente de informação da empresa, como listagem de ADR, número de analistas que acompanham a empresa e convergência das projeções, são testadas contra duas métricas do erro de projeção, acurácia e viés. Nossas hipóteses são que existem fatores que influenciam de maneira significativa o tamanho do erro de projeção (acurácia) e o viés das projeções (viés). Estas hipóteses foram confirmadas, isto é, nossas regressões apresentaram pelo menos um fator que se mostrou significativo estatisticamente para influenciar o tamanho do erro de projeção (hipóteses H1 e H2) ou o seu viés (hipótese H3). Entretanto, os resultados mostram que vários fatores que se mostram significativos em testes conduzidos em mercados desenvolvidos – tais como tamanho, endividamento e variabilidade do lucro – não se mostraram significativos no mercado brasileiro. Por outro lado, os fatores relacionados com o resultado do ano projetado ou do ano anterior se mostraram fortemente significativos. Acreditamos que os resultados podem ser explicados de três maneiras: 1) ou a capacidade de adicionar valor dos analistas em relação a modelos estatísticos de projeção é muito pequena, devido à sua falta de habilidade; ou 2) a instabilidade macroeconômica é tão grande domina todos os outros fatores que poderiam influenciar o tamanho do erro de projeção; ou 3) os resultados das empresas nos mercados desenvolvidos são tão administrados, isto é, tão estáveis, que permitem que fatores mais sutis como o tamanho, o nível de endividamento e a variabilidade do lucro se tornem significativos. Esta dissertação não permite distinguir qual das explicações é a correta. Uma de suas limitações é não incluir variáveis referentes à habilidade e experiência dos analistas e, também, variáveis relacionadas a fatores como governança corporativa e disclosure de informações. Em uma linha de pesquisa muito extensa nos países desenvolvidos, mas praticamente inexistente no Brasil, esperamos que estudos futuros supram estas lacunas e nos permitam entender melhor a questão da qualidade das projeções de resultados no contexto brasileiro.
Resumo:
Este estudo examina as elasticidades-renda, preço e preço cruzada da demanda de alimentos e energia elétrica, a partir de dados da POF e das Contas Nacionais. O sistema de demanda utilizado é formulado em dois estágio de decisão orçamentária, de acordo com os preceitos estabelecidos na teoria da maximização da utilidade, sujeita às restrições de aditividade e homogeneidade e simetria.
Resumo:
Este trabalho aplica a teoria de cópulas à mensuração do risco de mercado, através do cálculo do Value at Risk (VaR). A função de cópula oferece uma maior flexibilidade para a agregação de riscos quando comparada com abordagens tradicionais de mensuração de risco. A teoria de cópulas permite a utilização de distribuições de probabilidade diferentes da normal para a modelagem individual dos fatores de risco. Além disso, diferentes estruturas de associação entre eles podem ser aplicadas sem que restrições sejam impostas às suas distribuições. Dessa forma, premissas como a normalidade conjunta dos retornos e a linearidade na dependência entre fatores de risco podem ser dispensadas, possibilitando a correta modelagem de eventos conjuntos extremos e de assimetria na relação de dependência. Após a apresentação dos principais conceitos associados ao tema, um modelo de cópula foi desenvolvido para o cálculo do VaR de três carteiras, expostas aos mercados brasileiros cambial e acionário. Em seguida, a sua precisão foi comparada com a das metodologias tradicionais delta-normal e de simulação histórica. Os resultados mostraram que o modelo baseado na teoria de cópulas foi superior aos tradicionais na previsão de eventos extremos, representados pelo VaR 99%. No caso do VaR 95%, o modelo delta-normal apresentou o melhor desempenho. Finalmente, foi possível concluir que o estudo da teoria de cópulas é de grande relevância para a gestão de riscos financeiros. Fica a sugestão de que variações do modelo de VaR desenvolvido neste trabalho sejam testadas, e que esta teoria seja também aplicada à gestão de outros riscos, como o de crédito, operacional, e até mesmo o risco integrado.
Resumo:
Esta dissertação tem por objetivo criar um modelo econometrico que seja capaz de determinar a função hedônica de preços de imóveis residenciais verticais na cidade de São Paulo, considerando além dos atributos estruturais do próprio imóvel, a região de sua localização. Adicionalmente, procura-se identificar e caracterizar espacialmente os imóveis quanto ao valor por metro quadrado e seus demais atributos.
Resumo:
O objetivo desse trabalho é avaliar a capacidade de previsão do mercado sobre a volatilidade futura a partir das informações obtidas nas opções de Petrobras e Vale, além de fazer uma comparação com modelos do tipo GARCH e EWMA. Estudos semelhantes foram realizados no mercado de ações americano: Seja com uma cesta de ações selecionadas ou com relação ao índice S&P 100, as conclusões foram diversas. Se Canina e Figlewski (1993) a “volatilidade implícita tem virtualmente nenhuma correlação com a volatilidade futura”, Christensen e Prabhala (1998) concluem que a volatilidade implícita é um bom preditor da volatilidade futura. No mercado brasileiro, Andrade e Tabak (2001) utilizam opções de dólar para estudar o conteúdo da informação no mercado de opções. Além disso, comparam o poder de previsão da volatilidade implícita com modelos de média móvel e do tipo GARCH. Os autores concluem que a volatilidade implícita é um estimador viesado da volatilidade futura mas de desempenho superior se comparada com modelos estatísticos. Gabe e Portugal (2003) comparam a volatilidade implícita das opções de Telemar (TNLP4) com modelos estatísticos do tipo GARCH. Nesse caso, volatilidade implícita tambem é um estimador viesado, mas os modelos estatísticos além de serem bons preditores, não apresentaram viés. Os dados desse trabalho foram obtidos ao longo de 2008 e início de 2009, optando-se por observações intradiárias das volatilidades implícitas das opções “no dinheiro” de Petrobrás e Vale dos dois primeiros vencimentos. A volatidade implícita observada no mercado para ambos os ativos contém informação relevante sobre a volatilidade futura, mas da mesma forma que em estudos anteriores, mostou-se viesada. No caso específico de Petrobrás, o modelo GARCH se mostrou um previsor eficiente da volatilidade futura
Resumo:
Multi-factor models constitute a useful tool to explain cross-sectional covariance in equities returns. We propose in this paper the use of irregularly spaced returns in the multi-factor model estimation and provide an empirical example with the 389 most liquid equities in the Brazilian Market. The market index shows itself significant to explain equity returns while the US$/Brazilian Real exchange rate and the Brazilian standard interest rate does not. This example shows the usefulness of the estimation method in further using the model to fill in missing values and to provide interval forecasts.
Resumo:
Eu demonstro que preferências convexas com curvas de indiferença afins não tem representação côncava se existirem duas curvas de indiferença não-paralelas
Resumo:
We show how to include in the CAPM moments of any order, extending the mean-variance or mean-variance-skewness versions available until now. Then, we present a simple way to modify the formulae, in order to avoid the appearance of utility parameters. The results can be easily applied to practical portfolio design, with econometric inference and testing based on generalised method of moments procedures. An empirical application to the Brazilian stock market is discussed.
Resumo:
Este trabalho estima, usando o método generalizado dos momentos e dados brasileiros, os parâmetros estruturais do modelo CCAPM (consumption capital asset pricing model) a partir de três classes de funções utilidade distintas: função utilidade potência (CES/CRRA), utilidade com hábito externo, e aversão ao desapontamento (Kreps-Porteus). Estes parâmetros estruturais estão associados à aversão ao risco, à elasticidade de substituição intertemporal no consumo e a taxa de desconto intertemporal da utilidade futura, o foco central desse artigo. Os resultados aqui obtidos são analisados e comparados com resultados anteriores para dados brasileiros e americanos.
Resumo:
Consumption is an important macroeconomic aggregate, being about 70% of GNP. Finding sub-optimal behavior in consumption decisions casts a serious doubt on whether optimizing behavior is applicable on an economy-wide scale, which, in turn, challenge whether it is applicable at all. This paper has several contributions to the literature on consumption optimality. First, we provide a new result on the basic rule-of-thumb regression, showing that it is observational equivalent to the one obtained in a well known optimizing real-business-cycle model. Second, for rule-of-thumb tests based on the Asset-Pricing Equation, we show that the omission of the higher-order term in the log-linear approximation yields inconsistent estimates when lagged observables are used as instruments. However, these are exactly the instruments that have been traditionally used in this literature. Third, we show that nonlinear estimation of a system of N Asset-Pricing Equations can be done efficiently even if the number of asset returns (N) is high vis-a-vis the number of time-series observations (T). We argue that efficiency can be restored by aggregating returns into a single measure that fully captures intertemporal substitution. Indeed, we show that there is no reason why return aggregation cannot be performed in the nonlinear setting of the Pricing Equation, since the latter is a linear function of individual returns. This forms the basis of a new test of rule-of-thumb behavior, which can be viewed as testing for the importance of rule-of-thumb consumers when the optimizing agent holds an equally-weighted portfolio or a weighted portfolio of traded assets. Using our setup, we find no signs of either rule-of-thumb behavior for U.S. consumers or of habit-formation in consumption decisions in econometric tests. Indeed, we show that the simple representative agent model with a CRRA utility is able to explain the time series data on consumption and aggregate returns. There, the intertemporal discount factor is significant and ranges from 0.956 to 0.969 while the relative risk-aversion coefficient is precisely estimated ranging from 0.829 to 1.126. There is no evidence of rejection in over-identifying-restriction tests.