197 resultados para Previsão,
Resumo:
Industrial companies in developing countries are facing rapid growths, and this requires having in place the best organizational processes to cope with the market demand. Sales forecasting, as a tool aligned with the general strategy of the company, needs to be as much accurate as possible, in order to achieve the sales targets by making available the right information for purchasing, planning and control of production areas, and finally attending in time and form the demand generated. The present dissertation uses a single case study from the subsidiary of an international explosives company based in Brazil, Maxam, experiencing high growth in sales, and therefore facing the challenge to adequate its structure and processes properly for the rapid growth expected. Diverse sales forecast techniques have been analyzed to compare the actual monthly sales forecast, based on the sales force representatives’ market knowledge, with forecasts based on the analysis of historical sales data. The dissertation findings show how the combination of both qualitative and quantitative forecasts, by the creation of a combined forecast that considers both client´s demand knowledge from the sales workforce with time series analysis, leads to the improvement on the accuracy of the company´s sales forecast.
Resumo:
Este estudo investiga o poder preditivo fora da amostra, um mês à frente, de um modelo baseado na regra de Taylor para previsão de taxas de câmbio. Revisamos trabalhos relevantes que concluem que modelos macroeconômicos podem explicar a taxa de câmbio de curto prazo. Também apresentamos estudos que são céticos em relação à capacidade de variáveis macroeconômicas preverem as variações cambiais. Para contribuir com o tema, este trabalho apresenta sua própria evidência através da implementação do modelo que demonstrou o melhor resultado preditivo descrito por Molodtsova e Papell (2009), o “symmetric Taylor rule model with heterogeneous coefficients, smoothing, and a constant”. Para isso, utilizamos uma amostra de 14 moedas em relação ao dólar norte-americano que permitiu a geração de previsões mensais fora da amostra de janeiro de 2000 até março de 2014. Assim como o critério adotado por Galimberti e Moura (2012), focamos em países que adotaram o regime de câmbio flutuante e metas de inflação, porém escolhemos moedas de países desenvolvidos e em desenvolvimento. Os resultados da nossa pesquisa corroboram o estudo de Rogoff e Stavrakeva (2008), ao constatar que a conclusão da previsibilidade da taxa de câmbio depende do teste estatístico adotado, sendo necessária a adoção de testes robustos e rigorosos para adequada avaliação do modelo. Após constatar não ser possível afirmar que o modelo implementado provém previsões mais precisas do que as de um passeio aleatório, avaliamos se, pelo menos, o modelo é capaz de gerar previsões “racionais”, ou “consistentes”. Para isso, usamos o arcabouço teórico e instrumental definido e implementado por Cheung e Chinn (1998) e concluímos que as previsões oriundas do modelo de regra de Taylor são “inconsistentes”. Finalmente, realizamos testes de causalidade de Granger com o intuito de verificar se os valores defasados dos retornos previstos pelo modelo estrutural explicam os valores contemporâneos observados. Apuramos que o modelo fundamental é incapaz de antecipar os retornos realizados.
Resumo:
Um dos principais fatores de estudo do mercado de capitais é a discussão a respeito da teoria de eficiência de mercado, que no caso diverge em relação ao comportamento do preço da maioria dos ativos. Este trabalho tem o intuito de analisar o comportamento do principal índice de preços do mercado de bitcoins (BPI) durante o período de julho de 2010 a setembro de 2014. Inicialmente será testada a hipótese do passeio aleatório para o BPI. Em seguida serão verificadas as correlações de longa data nas séries financeiras temporais utilizando como instrumento de análise o expoente de Hurst (H), que inicialmente foi usado para calcular correlações em fenômenos naturais e posteriormente sua abrangência alcançou a área financeira. O estudo avalia o expoente H através de métodos distintos destacando-se a análise R/S e a DFA. Para o cálculo do expoente ao longo do tempo, utiliza-se uma janela móvel de 90 dias deslocando-se de 10 em 10 dias. Já para o cálculo em diferentes escalas verifica-se, para cada dia, o valor do expoente H nos últimos 360, 180 e 90 dias respectivamente. Os resultados evidenciaram que o índice BPI apresenta memória longa persistente em praticamente todo o período analisado. Além disso, a análise em diferentes escalas indica a possibilidade de previsão de eventos turbulentos no índice neste mesmo período. Finalmente foi possível comprovar a hipótese de mercados fractais para a série histórica de retornos do BPI.
Resumo:
This study aims to contribute on the forecasting literature in stock return for emerging markets. We use Autometrics to select relevant predictors among macroeconomic, microeconomic and technical variables. We develop predictive models for the Brazilian market premium, measured as the excess return over Selic interest rate, Itaú SA, Itaú-Unibanco and Bradesco stock returns. We nd that for the market premium, an ADL with error correction is able to outperform the benchmarks in terms of economic performance. For individual stock returns, there is a trade o between statistical properties and out-of-sample performance of the model.
Resumo:
O presente Estudo de Caso trata da realização de obra no mercado de uma Prefeitura e a liberação do processo administrativo para realização de procedimento licitatório. Apresenta o conflito existente entre o Secretário de Obras e o Subsecretário de Planejamento e Orçamento na condução das determinações do chefe do poder executivo. O Prefeito Municipal recém-eleito decidiu iniciar reforma com expansão do mercado popular no município de Três Barras. Com esta finalidade, solicitou ao Secretário de Obras o projeto arquitetônico com previsão inicial de custos para que se iniciasse o processo licitatório de imediato, de modo a não atrasar a inauguração do novo mercado prevista para o primeiro ano de mandato. O subsecretário de planejamento e orçamento precisa tomar a decisão de liberar ou não o processo já que há a necessidade de atendimento dos requisitos técnicos e legais que considerava necessários. O presente caso pode ser trabalho dentro do seguinte tema: Gestão do Planejamento e Orçamentária.
Resumo:
Este trabalho avalia as previsões de três métodos não lineares — Markov Switching Autoregressive Model, Logistic Smooth Transition Autoregressive Model e Autometrics com Dummy Saturation — para a produção industrial mensal brasileira e testa se elas são mais precisas que aquelas de preditores naive, como o modelo autorregressivo de ordem p e o mecanismo de double differencing. Os resultados mostram que a saturação com dummies de degrau e o Logistic Smooth Transition Autoregressive Model podem ser superiores ao mecanismo de double differencing, mas o modelo linear autoregressivo é mais preciso que todos os outros métodos analisados.
Resumo:
A Lei 11.284/2006 é um importante marco legal da atividade de gestão florestal do Brasil. O manejo florestal sustentável de florestas públicas, até então exercido exclusivamente pelo Estado, passou a ser passível de concessão com o advento dessa Lei. A chamada “concessão florestal” se insere, portanto, na nova orientação político-econômica brasileira de “desestatização”, privilegiando o princípio da eficiência. Como resultado, a atividade de exploração sustentável de produtos florestais passa a ser transferida pelo Estado, por intermédio do Serviço Florestal Brasileiro, à iniciativa privada. Para o sucesso de uma concessão florestal, os licitantes interessados precisam de uma estimativa da capacidade produtiva da “Unidade de Manejo Florestal”. O estudo disponibilizado pelo Serviço Florestal Brasileiro para fazer essa estimativa é o inventário florestal que, resumidamente, tem a importante missão de antecipar às características vegetais de área que será objeto da concessão. E os resultados desse estudo são a principal fonte de informação para que o licitante calcule o valor que irá ofertar ao Poder Concedente. Ocorre que, por questões técnico-metodológicas que fogem ao conhecimento jurídico, os estudos de inventário florestal estão sujeitos a erros de grande escala, retratando, de maneira ilusória, a realidade da vegetação que compõe área que será concedida. Isto é um risco intrínseco à atividade de exploração sustentável de produtos florestais. Diante desse contexto, caberia ao Serviço Florestal Brasileiro administrar o risco do inventário florestal da maneira mais eficiente possível. Entretanto, não é isso que vem ocorrendo nos contratos de concessão florestal. Sobre a distribuição de riscos em contratos de concessão, a doutrina especializada no tema oferece critérios que, quando seguidos, possibilitam uma alocação dos riscos peculiares a cada atividade à parte que melhor tem condições de geri-los. Esses critérios aumentam a eficiência da concessão. Contudo, os contratos de concessão florestal até hoje celebrados não vêm considerando esses importantes critérios para uma eficiente distribuição de riscos. Como consequência, o risco do inventário florestal é, igualmente a outros inúmeros riscos, negligenciado por esses contratos, aumentando-se a ineficiência dos contratos de concessão. Diante desse panorama, os licitantes interessados na concessão adotam duas posturas distintas, ambas igualmente rejeitáveis: a postura do Licitante Conservador e a postura do Licitante Irresponsável. Esses perfis de licitantes geram, respectivamente, ineficiência à concessão e, caso o erro do inventário florestal efetivamente ocorra, a possibilidade de inviabilidade da concessão. Como resposta a isso – que é exatamente o “problema” que pretendo resolver –, proponho uma solução para melhor administrar o risco do inventário florestal. Essa solução, inspirada em uma ideia utilizada na minuta do contrato de concessão da Linha 4 do Metrô de São Paulo, e baseando-se nos critérios oferecidos pela doutrina para uma distribuição eficiente dos riscos, propõe algo novo: a fim de tornar a os contratos de concessão florestal mais eficientes, sugere-se que o risco do inventário florestal deve ser alocado na Administração Pública, e, caso o evento indesejável efetivamente ocorra (erro do inventário florestal), deve-se, por meio do reequilíbrio econômico-financeiro do contrato, ajustar o valor a ser pago pelo concessionário ao Poder Concedente. Como consequência dessa previsão contratual, as propostas dos licitantes serão mais eficientes, permitindo-se alcançar o objetivo primordial da Lei 11.284/2006: aumento da eficiência da exploração florestal sustentável e preservação do meio ambiente e dos recursos florestais.
Resumo:
A Lei de Acesso à Informação completou neste sábado (16) três anos em vigor, garantindo importantes avanços para a transparência do Estado brasileiro, mas ainda aquém do seu potencial. A preocupação com o tema tem crescido, revelando a maior demanda da sociedade por acesso a informações oficiais. Um caso de uso bem-sucedido de dados públicos é o Mosaico Orçamentário, ferramenta interativa de visualização do Orçamento Federal desenvolvida pela FGV DAPP. Lançado em novembro do ano passado, o Mosaico disponibiliza interface gráfica com informações de fácil compreensão sobre o destino dos recursos públicos. A versão com os dados do Orçamento de 2015 permite uma visualização da previsão de gastos durante período de ajuste fiscal, garantindo o melhor entendimento das opções de políticas públicas.
Resumo:
This paper investigates the expectations formation process of economic agents about inflation rate. Using the Market Expectations System of Central Bank of Brazil, we perceive that agents do not update their forecasts every period and that even agents who update disagree in their predictions. We then focus on the two most popular types of inattention models that have been discussed in the recent literature: sticky-information and noisy-information models. Estimating a hybrid model we find that, although formally fitting the Brazilian data, it happens at the cost of a much higher degree of information rigidity than observed.
Resumo:
No período da gestão do Partido dos Trabalhadores (PT) no governo federal, configurou-se uma dupla agenda para a política habitacional brasileira: a primeira ligada à plataforma de reforma urbana, com previsão de descentralização entre os entes federativos e gestão participativa, e a segunda consubstanciada a partir das premissas de reestruturação do setor imobiliário e da construção civil, estruturada em uma política exclusiva de provisão habitacional com promoção privada e financiamento a partir de fundings públicos. No presente trabalho analisou-se a trajetória desta política nos anos 2000, tendo como foco principal o processo decisório que estruturou o arranjo permitindo a convivência destas duas agendas paralelas. Apesar das contradições e conflitos entre elas, também houve um tipo especial de imbricamento que produziu um jogo não só de coexistência, mas com ganhos para ambas. Combinando a análise institucional com abordagens teóricas focadas no papel dos atores e suas coalizões na transformação das políticas públicas, a tese teve como principal hipótese a existência de uma coordenação de interesses desenvolvida como marca característica do governo Lula e que sustentou a combinação destas duas agendas. Este modelo lulista de governança explicou e garantiu, em boa medida, a distribuição de benefícios a ambas as coalizões, além de ter legitimado a política habitacional dentro da agenda pública.
Resumo:
A presente dissertação tem como objetivo apresentar dois importantes modelos usados na análise de risco. Essa análise culmina em uma aplicação empírica para cada um deles. Apresenta-se primeiro o modelo Nelson-Siegel dinâmico, que estima a curva de juros usando um modelo paramétrico exponencial parcimonioso. É citada a referência criadora dessa abordagem, que é Nelson & Siegel (1987), passa-se pela apresentação da mais importante abordagem moderna que é a de Diebold & Li (2006), que é quem cria a abordagem dinâmica do modelo Nelson-Siegel, e que é inspiradora de diversas extensões. Muitas dessas extensões também são apresentadas aqui. Na parte empírica, usando dados da taxa a termo americana de Janeiro de 2004 a Março de 2015, estimam-se os modelos Nelson-Siegel dinâmico e de Svensson e comparam-se os resultados numa janela móvel de 12 meses e comparamos seus desempenhos com aqueles de um passeio aleatório. Em seguida, são apresentados os modelos ARCH e GARCH, citando as obras originais de Engle (1982) e Bolleslev (1986) respectivamente, discutem-se características destes modelos e apresentam-se algumas extensões ao modelo GARCH, incluindo aí alguns modelos GARCH multivariados. Passa-se então por uma rápida apresentação do conceito de VaR (Value at Risk), que será o objetivo da parte empírica. Nesta, usando dados de 02 de Janeiro de 2004 até 25 de Fevereiro de 2015, são feitas uma estimação da variância de um portfólio usando os modelos GARCH, GJR-GARCH e EGARCH e uma previsão do VaR do portfólio a partir da estimação feita anteriormente. Por fim, são apresentados alguns trabalhos que usam os dois modelos conjuntamente, ou seja, que consideram que as taxas ou os fatores que as podem explicam possuem variância variante no tempo.
Resumo:
Disagreement between economists is a well know fact. However, it took a long time for this concept to be incorporated in economic models. In this survey, we review the consequences and insights provided by recent models. Since disagreement between market agents can be generated through different hypotheses, the main differences between them are highlighted. Finally, this work concludes with a short review of nowcasting using google trends, emphasizing advances connecting both literatures.
Resumo:
This work assesses the forecasts of three nonlinear methods | Markov Switching Autoregressive Model, Logistic Smooth Transition Auto-regressive Model, and Auto-metrics with Dummy Saturation | for the Brazilian monthly industrial production and tests if they are more accurate than those of naive predictors such as the autoregressive model of order p and the double di erencing device. The results show that the step dummy saturation and the logistic smooth transition autoregressive can be superior to the double di erencing device, but the linear autoregressive model is more accurate than all the other methods analyzed.
Resumo:
This study aims to contribute on the forecasting literature in stock return for emerging markets. We use Autometrics to select relevant predictors among macroeconomic, microeconomic and technical variables. We develop predictive models for the Brazilian market premium, measured as the excess return over Selic interest rate, Itaú SA, Itaú-Unibanco and Bradesco stock returns. We find that for the market premium, an ADL with error correction is able to outperform the benchmarks in terms of economic performance. For individual stock returns, there is a trade o between statistical properties and out-of-sample performance of the model.