9 resultados para Modelos de ajuste parcial

em Repositório digital da Fundação Getúlio Vargas - FGV


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Desenvolvemos modelos de ajuste parcial e de duration para testar a relevância de fatores específicos de países na determinação da estrutura de capital de empresas listadas nas bolsas de valores brasileira, chilena e mexicana. Utilizamos dados em painel, em um período que se estende do quarto trimestre de 1996 ao segundo trimestre de 2010, abrangendo 4403 observações relacionadas a 139 empresas diferentes. Os resultados obtidos sugerem que a dinâmica da estrutura de capital varia por país e que idiossincrasias locais são determinantes-chave dos níveis de alavancagem das empresas. Não detectamos comportamento explicado pela Teoria de Trade Off entre as empresas brasileiras, chilenas e mexicanas, o que indica que teorias alternativas possam comandar os processos de decisão de financiamento dos gestores latino americanos.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

O presente estudo - até onde se sabe inédito no Brasil – possui como principal objetivo avaliar alguns determinantes das necessidades de capital de giro comumente estudados na literatura e analisar de que forma as empresas se movimentam em direção a uma meta (target) de Net Trade Cycle (similar ao Ciclo de Caixa - CCC). Sabemos que o tema capital de giro ainda carece de teorias mais robustas dentro da área de finanças, e poucos estudos ainda são encontrados na literatura. Aqueles que decidem estudá-lo, observam que dado o seu atual estágio, ele tem sido pesquisado com o suporte de bases teóricas mais consolidadas, como por exemplo estrutura de capitais. Esses estudos têm se utilizado muito do conceito de meta para determinar a estrutura ótima de capitais, e com qual velocidade de ajuste procura-se adequar essa estrutura como forma de otimizar seus recursos. O fato de ainda não existir definições e/ou teorias mais definidas sobre o tema foi o grande motivador para a realização desse estudo, que emprega a velocidade de ajuste em direção a uma meta de capital de giro, utilizando como técnica para suporte a esse objetivo o Modelo de Ajustamento Parcial (MAP) e o Generalized Method of Moments (GMM). Com essa combinação inédita no mercado brasileiro quando o assunto é capital de giro, esperamos trazer novas contribuições para as comunidades acadêmicas e empresariais. Para a obtenção dos dados que compõem esse estudo de caráter quantitativo, utilizamos informações existentes na Economatica® e BCB – Banco Central do Brasil. Nessas bases de dados utilizamos os demonstrativos financeiros trimestrais entre os períodos de 31/Dez./2007 a 30/Jun./2014 (ajustados por inflação – IPCA) das empresas listadas na BM&FBovespa que possuíssem pelos menos 15 períodos (trimestres) consecutivos de dados, com isso chegamos a um total de um pouco mais de 2 mil observações e 105 empresas. Quanto ao método, utilizamos Painel de Dados Dinâmico (desbalanceado) e as seguintes técnicas foram empregadas como forma de atender ao principal objetivo do estudo (“Qual é a velocidade de ajuste das Necessidades de Capital de Giro?”): Modelo de Ajustamento Parcial para a análise dos determinantes das necessidades de capital de giro e movimentação em direção a uma meta e; Generalized Method of Moments (GMM) como técnica de controle aos possíveis efeitos de endogeneidade (BLUNDELL e BOND, 1998) e solução para o problema de autocorrelação residual (PIRES, ZANI e NAKAMURA, 2013, p. 19).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A sustentabilidade da dívida pública brasileira no período entre dezembro de 1997 e junho de 2004 é testada nesse trabalho. Além disso, estima- se como o governo a justa em valor presente os impostos e gastos futuros diante de um choque nestas variáveis. Para testar a sustentabilidade, dois tipos de testes são aplicados: o primeiro segue a metodologia de coin- tegração presente nos modelos desenvolvidos por Hakkio e Rush (1991) e Bohn (1991); e o segundo baseia-se na reação do superávit primário a mudanças na razão dívida-PIB, como demonstrado por Bohn (1998). Para estes testes, utiliza-se séries como proporção do PIB, pois são as variáveis de relevância para o governo na condução da política fiscal. Os resultados dos três modelos indicam sustentabilidade da dívida pública brasileira. Sob a confirmação empírica de que a dívida é sustentável, o modelo desenvolvido por Bohn (1991) foi aplicado para avaliar como o governo reage a inovações nos gastos ou nos impostos de modo a manter a relação de equilíbrio de longo prazo do seu orçamento. Os resultados indicam que o governo reage com aumento de impostos quando a economia sofre choques nas variáveis fiscais. Isto resulta da exogeneidade fraca dos gastos no modelo de correção-de-erro estimado.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Pesquisas de opinião freqüentemente utilizam questionários com muitos itens para avaliar um serviço ou produto. Nestas pesquisas, cada respondente, além de avaliar os itens segundo seu grau de satisfação ou concordância, deve também atribuir um grau de importância ao item. Com estas duas informações disponíveis para cada item, é possível criar uma medida resumo, na forma de um escore total composto pela avaliação dos itens ponderada pela sua importância. O objetivo desta tese é modelar a importância dos itens por meio de um modelo de Desdobramento Graduado Generalizado, pertencente à família de modelos da Teoria de Resposta ao Item. Resultados de uma pesquisa sobre academia de ginástica mostram que o modelo tem bom ajuste neste caso, e simulações mostram que é possível, com a utilização do modelo, montar desenhos experimentais para diminuir o número de itens ou categorias de resposta a serem perguntados aos respondentes sem perda de informação.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Apresento aqui uma abordagem que unifica a literatura sobre os vários modelos de apreçamento de derivativos que consiste em obter por argumentos intuitivos de não arbitragem uma Equação Diferencial Parcial(EDP) e através do método de Feynman-Kac uma solução que é representada por uma esperança condicional de um processo markoviano do preço do derivativo descontado pela taxa livre de risco. Por este resultado, temos que a esperança deve ser tomada com relação a processos que crescem à taxa livre de risco e por este motivo dizemos que a esperança é tomada em um mundo neutro ao risco(ou medida neutra ao risco). Apresento ainda como realizar uma mudança de medida pertinente que conecta o mundo real ao mundo neutro ao risco e que o elemento chave para essa mudança de medida é o preço de mercado dos fatores de risco. No caso de mercado completo o preço de mercado do fator de risco é único e no caso de mercados incompletos existe uma variedade de preços aceitáveis para os fatores de risco pelo argumento de não arbitragem. Neste último caso, os preços de mercado são geralmente escolhidos de forma a calibrar o modelo com os dados de mercado.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O mercado de crédito vem ganhando constantemente mais espaço na economia brasileira nos últimos anos. Haja vista isto, o risco de crédito, que tenta medir a perda com operações de crédito, tem fundamental importância e, neste contexto, a perda esperada é, sem dúvida, tema chave. Usualmente, a perda esperada relativa, EL (%), é modelada como o produto dos parâmetros de risco PD (probabilidade de default) e LGD (perda dado o default) pressupondo a independência dos mesmos. Trabalhos recentes mostram que pode haver oportunidade em melhorar o ajuste com a modelagem conjunta da perda, além da retirada da forte premissa de independência dos fatores. O presente trabalho utiliza a distribuição beta inflacionada, modelo BEINF da classe GAMLSS, para o ajuste da perda esperada relativa através de uma base de dados reais disponibilizada pela empresa Serasa Experian. Os resultados mostram que o modelo traz um bom ajuste e que há oportunidade de ganhos em sua utilização na modelagem da EL(%).O mercado de crédito vem ganhando constantemente mais espaço na economia brasileira nos últimos anos. Haja vista isto, o risco de crédito, que tenta medir a perda com operações de crédito, tem fundamental importância e, neste contexto, a perda esperada é, sem dúvida, tema chave. Usualmente, a perda esperada relativa, EL (%), é modelada como o produto dos parâmetros de risco PD (probabilidade de default) e LGD (perda dado o default) pressupondo a independência dos mesmos. Trabalhos recentes mostram que pode haver oportunidade em melhorar o ajuste com a modelagem conjunta da perda, além da retirada da forte premissa de independência dos fatores. O presente trabalho utiliza a distribuição beta inflacionada, modelo BEINF da classe GAMLSS, para o ajuste da perda esperada relativa através de uma base de dados reais disponibilizada pela empresa Serasa Experian. Os resultados mostram que o modelo traz um bom ajuste e que há oportunidade de ganhos em sua utilização na modelagem da EL(%).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho analisa as propriedades de uma nova medida de má especificação de modelos de apreçamento, que está relacionada com o tamanho do ajuste multiplicativo necessário para que o modelo seja corretamente especificado. A partir disso, caracterizamos o parâmetro que minimiza a medida a partir de um programa dual, de solução mais simples. Os estimadores naturais para esse parâmetro pertencem à classe de Generalized Empirical Likelihood. Derivamos as propriedades assintóticas deste estimador sob a hipótese de má especificação. A metodologia é empregada para estudar como se comportam em amostras finitas as estimativas de aversão relativa ao risco em uma economia de desastres quando os estimadores estão associados a nossa medida de má especificação. Nas simulações vemos que em média a aversão ao risco é superestimada, mesmo quando ocorre um número significativo de desastres.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O presente trabalho tem como objetivo avaliar a capacidade preditiva de modelos econométricos de séries de tempo baseados em indicadores macroeconômicos na previsão da inflação brasileira (IPCA). Os modelos serão ajustados utilizando dados dentro da amostra e suas projeções ex-post serão acumuladas de um a doze meses à frente. As previsões serão comparadas a de modelos univariados como autoregressivo de primeira ordem - AR(1) - que nesse estudo será o benchmark escolhido. O período da amostra vai de janeiro de 2000 até agosto de 2015 para ajuste dos modelos e posterior avaliação. Ao todo foram avaliadas 1170 diferentes variáveis econômicas a cada período a ser projetado, procurando o melhor conjunto preditores para cada ponto no tempo. Utilizou-se o algoritmo Autometrics para a seleção de modelos. A comparação dos modelos foi feita através do Model Confidence Set desenvolvido por Hansen, Lunde e Nason (2010). Os resultados obtidos nesse ensaio apontam evidências de ganhos de desempenho dos modelos multivariados para períodos posteriores a 1 passo à frente.