301 resultados para Oferta e procura – Previsão - Modelos econométricos


Relevância:

40.00% 40.00%

Publicador:

Resumo:

I use Search models to study decentralized markets of durable goods. I explore the concept of market liquidity of Lippman and McCall (1986) and show that the theory of optimal search is useful to address the following issues: What governs the time required to make a transaction on these markets? What is the relationship between the price of goods and the time required to make transactions? Why is optimal to wait to make a transaction in markets where individuals discount future utility? What is the socially optima search level? Two specifications are used, the traditional model of job search and a version of Krainer and LeRoy (2001) model.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

O trabalho testa o poder de previsão da volatilidade futura, de cinco modelos : um modelo ingênuo, do tipo martingale, o modelo sugerido pelo JPMorgan em seu RiskMetrics™, o modelo GARCH-Generalized Autoregressive Conditional Heteroscedasticity, o modelo da volatilidade implícita e combinações de Risk:MetricsTM com volatilidade implícita e de GARCH com volatilidade implícita. A série estudada é a volatilidade para vinte e cinco dias, dos retornos diários do contrato futuro de Ibovespa, negociado na BM&F - Bolsa de Mercadorias e Futuros. Particularidades brasileiras são introduzidas na. estimação dos parâmetros do modelo GARCH. O poder de previsão é testado com medidas estatísticas, envolvendo equações de perdas (loss functions) simétricas e assimétricas, e com uma medida econômica, dada pelo lucro obtido a partir da simulação da realização de operações hedgeadas, sugeridas pelas previsões de volatilidade. Tanto com base nas medidas estatísticas como na medida econômica, o modelo GARCH emerge como o de melhor desempenho. Com base nas medidas estatísticas, esse modelo é particularmente melhor em período de mais alta volatilidade. Com base na medida econômica, contudo, o lucro obtido não é estatisticamente diferente de zero, indicando eficiência do mercado de opções de compra do contrato futuro de Ibovespa, negociado na mesmaBM&F.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Este trabalho compara modelos de séries temporais para a projeção de curto prazo da inflação brasileira, medida pelo Índice de Preços ao Consumidor Amplo (IPCA). Foram considerados modelos SARIMA de Box e Jenkins e modelos estruturais em espaço de estados, estimados pelo filtro de Kalman. Para a estimação dos modelos, foi utilizada a série do IPCA na base mensal, de março de 2003 a março de 2012. Os modelos SARIMA foram estimados no EVIEWS e os modelos estruturais no STAMP. Para a validação dos modelos para fora da amostra, foram consideradas as previsões 1 passo à frente para o período de abril de 2012 a março de 2013, tomando como base os principais critérios de avaliação de capacidade preditiva propostos na literatura. A conclusão do trabalho é que, embora o modelo estrutural permita, decompor a série em componentes com interpretação direta e estudá-las separadamente, além de incorporar variáveis explicativas de forma simples, o desempenho do modelo SARIMA para prever a inflação brasileira foi superior, no período e horizonte considerados. Outro importante aspecto positivo é que a implementação de um modelo SARIMA é imediata, e previsões a partir dele são obtidas de forma simples e direta.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

O presente trabalho visa comparar o poder preditivo das previsões feitas a partir de diferentes metodologias aplicadas para a série de expedição brasileira de papelão ondulado. Os dados de expedição de papelão ondulado serão decompostos pelas categorias industriais de destino das caixas e serão feitos modelos do tipo SARIMA univariados para cada setor. As previsões das séries desagregadas serão então agregadas, para compor a previsão da série total de expedição. A previsão feita a partir da somatória das categorias industriais será comparada com um SARIMA univariado da série agregada, a fim de verificar qual dos dois métodos resulta em um modelo com melhor acurácia. Essa comparação será feita a partir da metodologia desenvolvida por Diebold e Mariano (1995).

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Este trabalho procura identificar quais variáveis são as mais relevantes para previsão da taxa de câmbio real do Brasil e analisar a robustez dessas previsões. Para isso foram realizados testes de cointegração de Johansen em 13 variáveis macroeconômicas. O banco de dados utilizado são séries trimestrais e compreende o período de 1970 a 2014 e os testes foram realizados sobre as séries combinadas dois a dois, três a três e quatro a quatro. Por meio desse método, encontramos nove grupos que cointegram entre si. Utilizando esses grupos, são feitas previsões fora da amostra com a partir das últimas 60 observações. A qualidade das previsões foi avaliada por meio dos testes de Erro Quadrático Médio, teste de Diebold-Mariano e, além disso, foi utilizado um modelo de passeio aleatório do câmbio real como benchmark para o procedimento de Hansen. Todos os testes mostram que, à medida que se aumenta o horizonte de projeção, o passeio aleatório perde poder preditivo e a maioria dos modelos são mais informativos sobre o futuro da o câmbio real efetivo. O horizonte é de três a quatro anos à frente. No caso do teste de Hansen, o passeio aleatório é completamente eliminado do grupo final de modelos, mostrando que é possível fazer previsões superiores ao passeio aleatório.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Este trabalho procura identificar quais variáveis são as mais relevantes para previsão da taxa de câmbio real do Brasil e analisar a robustez dessas previsões. Para isso foram realizados testes de cointegração de Johansen em 13 variáveis macroeconômicas. O banco de dados utilizado são séries trimestrais e compreende o período de 1970 a 2014 e os testes foram realizados sobre as séries combinadas dois a dois, três a três e quatro a quatro. Por meio desse método, encontramos nove grupos que cointegram entre si. Utilizando esses grupos, são feitas previsões fora da amostra com a partir das últimas 60 observações. A qualidade das previsões foi avaliada por meio dos testes de Erro Quadrático Médio, teste de Diebold-Mariano e, além disso, foi utilizado um modelo de passeio aleatório do câmbio real como benchmark para o procedimento de Hansen. Todos os testes mostram que, à medida que se aumenta o horizonte de projeção, o passeio aleatório perde poder preditivo e a maioria dos modelos são mais informativos sobre o futuro da o câmbio real efetivo. O horizonte é de três a quatro anos à frente. No caso do teste de Hansen, o passeio aleatório é completamente eliminado do grupo final de modelos, mostrando que é possível fazer previsões superiores ao passeio aleatório.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho desenvolve e calibra um modelo de equilíbrio dinâmico de crime. O objetivo É estudar e quantificar os determinantes do comportamento criminal: aparato de polícia, condições do mercado de trabalho, perfil etário da população, composição do capital humano, crescimento econônomico e desigualdade de renda. Diferentemente dos trabalhos anteriores, o modelo considerado aqui leva em conta a decisão individual sobre lazer. Isso permite capturar as diferenças no padrão da oferta de trabalho que há entre criminosos e não criminosos. Uma implicação é que a sensibilidade da taxa de crime aos fatores que afetam comportamento criminal é modificada. Adicionalmente, investiga-se a viabilidade de uma política de redistribuição de renda enquanto alternativa a política de segurança pública.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O presente trabalho procura investigar, na recente onda de IPOs no mercado brasileiro iniciada em 2002/2004, quais os principais fatores que conseguem explicar o desempenho destas ações no prazo de 1 a 2 anos após a oferta. Para tal, as mais relevantes teorias já propostas no Brasil e nos EUA sobre o tema são levantadas e postas à prova através de modelos estatísticos na amostra em questão. Como resultado, foi verificado que as empresas que apresentam um melhor desempenho de médio prazo são aquelas oferecendo um maior percentual do capital na oferta, maiores volumes de capital, com mais tempo de operação anterior à oferta, com ofertas coordenadas por instituições líderes de mercado, com os riscos bem explicados no prospecto e com retornos iniciais menores. Foi verificado também que as empresas dos setores de construção e transporte e consumo não-cíclico possuem desempenho superior às demais.

Relevância:

30.00% 30.00%

Publicador:

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho apresenta os modelos clássicos e neoclássicos desenvolvido por Jorgenson. Procura suprir alguns detalhes que foram omitidos e resumir o argumento principal que é exposto com riqueza de informações. Visa, desta forma, facilitar a leitura dos trabalhos do celebrado autor sobre economia dual.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Neste trabalho é proposta uma classe de modelos paramétricos para estrutura a termo de taxa de juros (ETTJ) em que diferentes segmentos possam ter características próprias, porém não independentes, o que é condizente com a teoria de preferências por Habitat. O modelo baseia-se em Bowsher & Meeks (2006) onde a curva é determinada por um spline cúbico nas yields latentes, mas difere no sentido de permitir diferentes funções de classe C2 entre os segmentos, ao invés de polinômios cúbicos. Em particular usa-se a especi cação de Nelson & Siegel, o que permite recuperar o modelo de Diebold & Li (2006) quando não há diferenciação entre os segmentos da curva. O modelo é testado na previsão da ETTJ americana, para diferentes maturidades da curva e horizontes de previsão, e os resultados fora da amostra são comparados aos modelos de referência nesta literatura. Adicionalmente é proposto um método para avaliar a robustez da capacidade preditiva do modelos. Ao considerar a métrica de erros quadráticos médios , os resultados são superiores à previsão dos modelos Random Walk e Diebold & Li, na maior parte das maturidades, para horizontes de 3, 6 , 9 e 12 meses.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este estudo apresenta uma análise comparativa dos modelos de regulação dos setores nucleares da Argentina - a cargo da Autoridad Regulatoria Nuclear (ARN), e do Brasil- sob a responsabilidade da Comissão Nacional de Energia Nuclear (CNEN), que procura identificar, por meio de critérios de análise selecionados a partir do referencial teórico, qual modelo é o mais adequado objetivando o uso seguro da energia nuclear. O Capítulo I apresenta uma breve descrição dos modelos de regulação dos setores nucleares do Brasil e da Argentina, bem como os objetivos, a delimitação do estudo e a relevância da pesquisa. O referencial teórico, Capítulo 2, contém tópicos sobre a reforma do Estado, os tipos de regulação, a regulação no Brasil e as características do setor nuclear internacional e brasileiro. A seguir, foram selecionados critérios de análise que correspondem às características das agências reguladoras brasileiras criadas para outros setores da economia, no bojo da reforma de Estado implementada no Brasil a partir de meados dos anos 90. Posteriormente, estes critérios de análise foram utilizados como parâmetros de comparação entre os modelos de regulação dos setores nucleares da Argentina e do Brasil. A metodologia de pesquisa é descrita no Capítulo 3, definindo-se o tipo de pesquisa, o universo e a amostra, a forma de coleta e tratamento dos dados e as limitações do método empregado. No Capítulo 4 é descrito o modelo de regulação do setor nuclear argentino, apresentando-se também um breve histórico sobre a criação da ARN. O Capítulo 5 apresenta a descrição do modelo de regulação do setor nuclear brasileiro, os estudos e recomendações existentes sobre a regulação do setor e os resultados da pesquisa empírica realizada junto aos servidores da CNEN. Com base na análise comparativa, Capítulo 6, pode-se concluir, Capítulo 7, que a estrutura regulatória e fiscalizadora do setor nuclear argentino, sob responsabilidade da ARN, mostra-se mais adequada no que tange ao uso seguro da energia nuclear, do que o modelo adotado no Brasil pela CNEN, pois incorpora os critérios de independência funcional, institucional e financeira, definição de competências, excelência técnica e transparência, necessários ao desempenho de suas funções de forma autônoma, ética, isenta e ágil.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho compara procedimentos de previsão de preços de commodities, utilizados de maneira impírica pelos analistas de mercado, com os procedimentos fornecidos pela Análise de Séries Temporais. Aplicamos os métodos de previsão utilizando as Médias Móveis, os métodos baseados em Alisamentos exponenciais e principalmente os modelos ARIMA de Box-Jenkins. Estes últimos são, em geral, generalizações dos primeiros, com a vantagem de utilizar os instrumentos estatísticos de medidas das incertezas, como o desvio-padrão e os intervalos de confiança para as previsões

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Os modelos hazard, também conhecidos por modelos de tempo até a falência ou duração, são empregados para determinar quais variáveis independentes têm maior poder explicativo na previsão de falência de empresas. Consistem em uma abordagem alternativa aos modelos binários logit e probit, e à análise discriminante. Os modelos de duração deveriam ser mais eficientes que modelos de alternativas discretas, pois levam em consideração o tempo de sobrevivência para estimar a probabilidade instantânea de falência de um conjunto de observações sobre uma variável independente. Os modelos de alternativa discreta tipicamente ignoram a informação de tempo até a falência, e fornecem apenas a estimativa de falhar em um dado intervalo de tempo. A questão discutida neste trabalho é como utilizar modelos hazard para projetar taxas de inadimplência e construir matrizes de migração condicionadas ao estado da economia. Conceitualmente, o modelo é bastante análogo às taxas históricas de inadimplência e mortalidade utilizadas na literatura de crédito. O Modelo Semiparamétrico Proporcional de Cox é testado em empresas brasileiras não pertencentes ao setor financeiro, e observa-se que a probabilidade de inadimplência diminui sensivelmente após o terceiro ano da emissão do empréstimo. Observa-se também que a média e o desvio-padrão das probabilidades de inadimplência são afetados pelos ciclos econômicos. É discutido como o Modelo Proporcional de Cox pode ser incorporado aos quatro modelos mais famosos de gestão de risco .de crédito da atualidade: CreditRisk +, KMV, CreditPortfolio View e CreditMetrics, e as melhorias resultantes dessa incorporação