940 resultados para Previsão com Metodologia de Box-Jenkins
Resumo:
Trata de uma metodologia de avaliação de eficiência de empresas de transporte rodoviário de cargas, incluindo estudos de casos com empresas de diferentes portes. O transporte rodoviário de cargas, ao contrário do transporte de passageiros, mereceu, até agora, poucos estudos existindo poucas informações a respeito de seu desempenho. Este assunto somente tornou-se relevante recentemente em função da política de racionalização do uso de combustíveis derivados de petróleo, preconizada pelo Governo, que abordou principalmente o transporte rodoviário de carga, responsável por cerca de 55% do óleo diesel consumido no país.
Resumo:
Este trabalho tem por objetivo avaliar para o caso brasileiro uma das mais importantes propriedades esperadas de um núcleo: ser um bom previsor da inflação plena futura. Para tanto, foram utilizados como referência para comparação dois modelos construídos a partir das informações mensais do IPCA e seis modelos VAR referentes a cada uma das medidas de núcleo calculadas pelo Banco Central do Brasil. O desempenho das previsões foi avaliado pela comparação dos resultados do erro quadrático médio e pela aplicação da metodologia de Diebold-Mariano (1995) de comparação de modelos. Os resultados encontrados indicam que o atual conjunto de medidas de núcleos calculado pelo Banco Central não atende pelos critérios utilizados neste trabalho a essa característica desejada.
Resumo:
O objetivo deste trabalho foi verificar se o BNDES, no período entre 2000 e 2011 gerou lucro econômico para o seu principal acionista, o Governo Federal. Foram analisados demonstrativos financeiros e notas explicativas publicadas neste período para obtenção de dados para o cálculo do Valor Econômico Adicionado ou Economic Value added (EVA®). Esta metodologia deduz o custo de todo o capital empregado na empresa do lucro operacional após os impostos. Além disso, utiliza o custo médio ponderado de capital (CMPC) ou Weighted Average Cost of Capital (WACC) como taxa de remuneração do capital investido para cálculo do custo do capital. O WACC pondera o custo de capital de terceiros, após a dedução da alíquota dos impostos incidentes sobre o lucro e o custo de capital próprio. A utilização de algumas premissas e a elaboração de alguns cenários foram necessários para a estimativa do custo do capital próprio do acionista. Além disso, alguns ajustes, como a inclusão de dividendos e juros sobre capital próprio pagos pelo BNDES ao acionista foram realizados para o cálculo do EVA®, além de outros ajustes contábeis necessários. Ao final do estudo, observamos que, em todos os cenários utilizados, a geração de lucro econômico foi negativa.
Resumo:
O trabalho testa o poder de previsão da volatilidade futura, de cinco modelos : um modelo ingênuo, do tipo martingale, o modelo sugerido pelo JPMorgan em seu RiskMetrics™, o modelo GARCH-Generalized Autoregressive Conditional Heteroscedasticity, o modelo da volatilidade implícita e combinações de Risk:MetricsTM com volatilidade implícita e de GARCH com volatilidade implícita. A série estudada é a volatilidade para vinte e cinco dias, dos retornos diários do contrato futuro de Ibovespa, negociado na BM&F - Bolsa de Mercadorias e Futuros. Particularidades brasileiras são introduzidas na. estimação dos parâmetros do modelo GARCH. O poder de previsão é testado com medidas estatísticas, envolvendo equações de perdas (loss functions) simétricas e assimétricas, e com uma medida econômica, dada pelo lucro obtido a partir da simulação da realização de operações hedgeadas, sugeridas pelas previsões de volatilidade. Tanto com base nas medidas estatísticas como na medida econômica, o modelo GARCH emerge como o de melhor desempenho. Com base nas medidas estatísticas, esse modelo é particularmente melhor em período de mais alta volatilidade. Com base na medida econômica, contudo, o lucro obtido não é estatisticamente diferente de zero, indicando eficiência do mercado de opções de compra do contrato futuro de Ibovespa, negociado na mesmaBM&F.
Resumo:
Para a pesquisa, utilizou-se um concreto asfáltico com ligante modificado com borracha ensaiado nas dependências do LAPAV-UFRGS, sob compressão diametral de cargas cíclicas, cujo procedimento é brevemente descrito, associando-se os seus procedimentos com as hipóteses assumidas na modelagem, o que é importante na concepção do modelo empregado. Apresenta-se e discute-se o manuseio dos dados experimentais para o modelo, bem como a escolha do modelo constitutivo adotado, no qual se optou por um modelo viscoelástico linear anisotrópico simplificado, cujas equações base e métodos para calibração são apresentados, discutidos e comparados, bem como os resultados das calibrações dos três primeiros ciclos de carga-descanso, no qual se obteve uma excelente descrição do comportamento do material, o que foi comprovado nas previsões dos dois ciclos seguintes. As previsões de resultados a ensaios sob diferentes condições aos das calibrações mostraram resultados qualitativamente bons às freqüências de ciclo de 1 Hz, comprovados na comparação das curvas de deslocamentos normalizadas. Para a pesquisa, utilizou-se um concreto asfáltico com ligante modificado com borracha ensaiado nas dependências do LAPAV-UFRGS, sob compressão diametral de cargas cíclicas, cujo procedimento é brevemente descrito, associando-se os seus procedimentos com as hipóteses assumidas na modelagem, o que é importante na concepção do modelo empregado. Apresenta-se e discute-se o manuseio dos dados experimentais para o modelo, bem como a escolha do modelo constitutivo adotado, no qual se optou por um modelo viscoelástico linear anisotrópico simplificado, cujas equações base e métodos para calibração são apresentados, discutidos e comparados, bem como os resultados das calibrações dos três primeiros ciclos de carga-descanso, no qual se obteve uma excelente descrição do comportamento do material, o que foi comprovado nas previsões dos dois ciclos seguintes. Para a pesquisa, utilizou-se um concreto asfáltico com ligante modificado com borracha ensaiado nas dependências do LAPAV-UFRGS, sob compressão diametral de cargas cíclicas, cujo procedimento é brevemente descrito, associando-se os seus procedimentos com as hipóteses assumidas na modelagem, o que é importante na concepção do modelo empregado. Apresenta-se e discute-se o manuseio dos dados experimentais para o modelo, bem como a escolha do modelo constitutivo adotado, no qual se optou por um modelo viscoelástico linear anisotrópico simplificado, cujas equações base e métodos para calibração são apresentados, discutidos e comparados, bem como os resultados das calibrações dos três primeiros ciclos de carga-descanso, no qual se obteve uma excelente descrição do comportamento do material, o que foi comprovado nas previsões dos dois ciclos seguintes.
Resumo:
Este artigo estuda a previsão da estrutura a termo da taxa de juros brasileira utilizando de fatores comuns extraídos de uma vasta base de séries macroeconômicas. Os períodos para estimação e previsão compreendem o intervalo de Janeiro de 2000 a Maio de 2012. Foram empregas 171 séries mensais para a construção da base. Primeiramente foi implementado o modelo proposto por Moench (2008), no qual a dinâmica da taxa de juros de curto prazo é modelada através de um FAVAR e a estrutura a termo é derivada utilizando-se de restrições implicadas por não arbitragem. A escolha pela adoção deste modelo se deve aos resultados obtidos no estudo original, nos quais tal modelagem apresentou melhor desempenho preditivo para horizontes intermediários e longos quando comparado com benchmarks usuais. Contudo, tais resultados também apresentaram uma deterioração progressiva à medida que as maturidades aumentam, evidenciando uma possível inadequação do modelo para as partes intermediária e longa da curva. A implementação deste modelo para a estrutura a termo brasileira levou a resultados muito similares ao do estudo original. Visando contornar a deterioração mencionada, foi proposta uma modelagem alternativa na qual a dinâmica de cada taxa é modelada conjuntamente com os fatores macroeconômicos, eliminando-se as restrições implicadas por não arbitragem. Tal modelagem proporcionou resultados de previsão amplamente superiores e através dela foi possível confirmar a inadequação descrita. Por fim, também foi realizada a inserção dos fatores macro na dinâmica dos fatores beta do modelo de Diebold e Li (2006), levando a um grande ganho de capacidade preditiva, principalmente para horizontes maiores de previsão.
Resumo:
A presente Dissertação aborda a questão da localização varejista. Trata da temática da localização varejista em zonas urbanas, apresentando uma metodologia e o correspondente algoritmo que possibilitam ter uma visão global das áreas de uma zona urbana que representam possíveis oportunidades de negócio para estabelecimentos de auto-serviço alimentício, por apresentarem a demanda pior atendida pelas lojas instaladas, relativamente às demais áreas dessa zona urbana. Apresenta, ainda, a título de ilustração da aplicação do algoritmo, a situação existente na cidade de Uberlândia, MG.
Resumo:
Com base em uma metodologia desenvolvida por Frankel e Lown (1994), que surge para aperfeiçoar o arcabouço utilizado por Mishkin (1990a,1990b) ao permitir, em contraposição a este, a variação ao longo do tempo da taxa de juros real de longo prazo de uma economia, o presente trabalho se propõe a verificar o existência, para dados brasileiros, de evidências empíricas que suportem a aceitação da hipótese de que a estrutura a termo da curva de juros possui informações que auxiliam na previsão da trajetória futura da inflação, característica já encontrada em dados de algumas economias desenvolvidas, como Estados Unidos e Alemanha. A modificação marginal implementada por Frankel e Lown é importante porque permite que os resultados finais sejam interpretados dentro de um contexto teórico mais próximo da realidade, isto é, onde as decisões de política monetária são capazes de influenciar a variável acima mencionada. Analisa-se, para o período de janeiro de 2003 a janeiro de 2013, o poder explicativo que diversas medidas de inclinação da curva de juros local têm sobre a variação futura do índice de preços ao consumidor ampliado (IPCA), o mais importante da economia brasileira. Em linhas gerais, encontramos que, em consonância com a experiência internacional, independente de tratarmos os dados na forma com ou sem ajustes sazonais, ou de tratar as variáveis relativas à taxa de juros como logaritmo de um fator mais suas taxas ou de apresentá-las em seu próprio nível, existem evidências empíricas que indicam a existência de poder preditivo desta variável explicativa sobre a referida variável dependente, ou ao menos tornam difícil rejeitar, em um primeiro momento, esta hipótese inicial.
Resumo:
Cryptococcus neoformans é uma levedura oportunista que pode se alojar no sistema nervoso central causando meningite, meningoencefalite e encefalite principalmente em indivíduos com algum comprometimento do sistema imune. É responsável por 4,5% das infecções oportunistas que acometem pacientes portadores do Vírus da Imunodeficiência Humana (HIV-positivos). Cryptococcus gattii é um patógeno primário responsável por uma alta incidência de criptococomas no pulmão e no cérebro e que apresenta uma alta morbidez neurológica e uma resposta retardada à terapia antifúngica. O diagnóstico da criptococose é, atualmente, baseado na detecção da levedura em amostras clínicas, no cultivo com posterior identificação bioquímica e na pesquisa de antígenos circulantes. A diferenciação entre as espécies C. neoformans e C. gattii, na maioria dos laboratórios, é realizada utilizando o meio de cultura ágar canavanina-glicina-azul de bromotimol (CGB) e demora em torno de sete dias. Neste trabalho foi padronizada uma metodologia de PCR multiplex que pode vir a substituir as provas bioquímicas utilizadas atualmente para a identificação das espécies de Cryptococcus, reduzindo em 6 dias o tempo necessário para a identificação das espécies. A metodologia também se mostrou mais específica na identificação das espécies, concordando com os resultados das sorotipagens em todos os 132 isolados de Cryptococcus testados, enquanto o resultado obtido com o cultivo em ágar CGB foi discordante em 6 dos 132 isolados, sendo 5 falso-positivos e 1 falso negativo. Foi também realizado o primeiro estudo epidemiológico do perfil de pacientes com meningite criptocócica no estado do Rio Grande de Sul notificados no Laboratório Central de Saúde Pública IPB-LACEN/RS no período de 2000 a 2005. A maioria dos pacientes é do sexo masculino (77,12%), branco (83,5%), na faixa etária entre 30 a 39 anos (46,24%) e infectados pelo HIV (95%).
Resumo:
A exploração do paralelismo no nível de instrução (ILP) em arquiteturas superescalares é limitada fortemente pelas dependências de controle, as quais são ocasionadas pelas instruções de desvio, e pelas dependências de dados. As arquiteturas SMT (Simultaneous MultiThreaded) buscam explorar um novo nível de paralelismo, denominado paralelismo no nível de tarefa (TLP), para buscar e executar instruções de diversas tarefas ao mesmo tempo. Com isso, enquanto uma tarefa está bloqueada por dependências de controle e de dados, outras tarefas podem continuar executando, mascarando assim as latências de previsões incorretas e de acessos à memória, usando mais eficientemente as unidades funcionais e demais recursos disponíveis. Contudo, o projeto dessas arquiteturas continua a esbarrar nos mesmos problemas associados ao uso de técnicas utilizadas para a exploração de ILP, como a previsão de devios. Além disso, essas arquiteturas trazem novos desafios, como a determinação da maneira mais eficiente de distribuição/compartilhamento de recursos entre as tarefas. Nesse trabalho será apresentada uma topologia para as tabelas de previsão de desvios em arquiteturas multitarefas simultâneas. Além disso, serão desenvolvidas duas análises complementares acerca de previsão de desvios: o impacto da taxa de acertos da previsão de desvios em arquiteturas com pipelines profundos e o impacto da taxa de acerto na previsão do alvo de um desvio. Entre as principais contribuições do trabalho pode-se citar a definição de uma estrutura particionada para as tabelas de previsão em arquiteturas SMT, aliando desempenho a um menor custo de implementação em uma arquitetura real. Além disso, é mostrado que a taxa de acerto da previsão de desvios tem um grande impacto no desempenho das arquiteturas SMT com pipelines profundos, bem como nas causas de bloqueio do estágio de busca quando utiliza-se cache de instruções bloqueantes.
Resumo:
As técnicas qualitativas disponiveis para a modelagem de cenários têm sido reconhecidas pela extrema limitação, evidenciada no principio das atividades do processo, como a fase inicial de concepção. As principais restrições têm sido: • inexistência de uma ferramenta que teste a consistência estrutural interna do modelo, ou pela utilização de relações econômicas com fundamentação teórica mas sem interface perfeita com o ambiente, ou pela adoção de variações binárias para testes de validação; • fixação "a priori" dos possíveis cenários, geralmente classificados sob três adjetivos - otimista, mais provável e pessimista - enviesados exatamente pelos atributos das pessoas que fornecem esta informação. o trabalho trata da utilização de uma ferramenta para a interação entre uma técnica que auxilia a geração de modelos, suportada pela lógica relacional com variações a quatro valores e expectativas fundamentadas no conhecimento do decisor acerca do mundo real. Tem em vista a construção de um sistema qualitativo de previsão exploratória, no qual os cenários são obtidos por procedimento essencialmente intuitivo e descritivos, para a demanda regional por eletricidade. Este tipo de abordagem - apresentada por J. Gershuny - visa principalmente ao fornecimento de suporte metodológico para a consistência dos cenários gerados qualitativamente. Desenvolvimento e estruturação do modelo são realizados em etapas, partindo-se de uma relação simples e prosseguindo com a inclusão de variáveis e efeitos que melhoram a explicação do modelo. o trabalho apresenta um conjunto de relações para a demanda regional de eletricidade nos principais setores de consumo residencial, comercial e industrial bem como os cenários resultantes das variações mais prováveis das suas componentes exógenas. Ao final conclui-se que esta técnica é útil em modelos que: • incluem variáveis sociais relevantes e de dificil mensuração; • acreditam na importância da consistência externa entre os resultados gerados pelo modelo e aqueles esperados para a tomada de decisões; • atribuem ao decisor a responsabilidade de compreender a fundamentação da estrutura conceitual do modelo. Adotado este procedimento, o autor aqui recomenda que o modelo seja validado através de um procedimento iterativo de ajustes com a participação do decisor. As técnicas quantitativas poderão ser adotadas em seguida, tendo o modelo como elemento de consistência.
Resumo:
O compromisso com a estabilidade macroeconômica e com a manutenção do equilíbrio fiscal do Estado, condicionado pela Lei de Responsabilidade Fiscal, vem exigindo esforço permanente dos agentes públicos, especialistas e estudiosos das finanças públicas, no sentido do aprimoramento das práticas de planejamento e orçamento públicos, diante das limitações da capacidade do Estado de financiar indefinidamente o crescimento do gasto. Tais limitações tornam complexa a tarefa, a cargo dos formuladores de políticas públicas, de estabelecer prioridades na aplicação dos recursos orçamentários para atender às múltiplas demandas da sociedade. O equilíbrio das contas ajudou no processo de incremento de investimentos em projetos prioritários para a transformação da realidade social contemporânea. Garantir a plena consecução desses projetos, torna-se crucial para os governantes, na medida em que as gestões são cada vez mais cobradas pela sociedade. Os técnicos da Secretaria de Planejamento e Desenvolvimento Regional de São Paulo, que respondem pelas ações de planejamento e orçamento do Estado, buscam o aperfeiçoamento dos instrumentos de planejamento, a fim de elaborar orçamentos que reflitam melhor às necessidades dos órgãos da administração estadual. Demonstram especial interesse na concepção de uma metodologia que, baseada em boas práticas, lhes permita medir e analisar a relação entre o aumento dos investimentos e seu impacto nas despesas de custeio, como forma de aprimorar a eficácia e a efetividade do orçamento do Estado. As tendências descritas e o método de análise desenvolvido pelo grupo vão ao encontro das expectativas estabelecidas pelo Termo de Referência proposto. A consolidação de uma metodologia acurada, dependerá da qualidade dos dados consolidados pelo governo e será plenamente satisfatória somente quando houver ferramentas para a medição do custeio dos programas e equipamentos públicos.
Resumo:
O campo de investigação dos Estudos do Futuro é uma área de estudos ativa, promovida por organismos internacionais e universidades de vanguarda mundial. Dentre os diversos métodos e técnicas, até então desenvolvidos para estudar o futuro, destaca-se o método de construção de cenários prospectivos. Neste trabalho, se procura testar estes métodos ao estudo do futuro de uma cadeia produtiva agronegocial. A consideração desta, como objeto de aplicação de uma análise prospectiva, apresenta desafios peculiares, requerendo uma abordagem metodológica apropriada, que pode ser adaptada das ferramentas conhecidas. O exemplo considerado trata da cadeia da vitivinicultura riograndense. A análise documental e dos relatos de personalidades permitiu a elaboração de um panorama atual e retrospectivo, representativo dessa cadeia, útil para a construção de cenários prospectivos. Este estudo foi seguido de consultas a expertos, representantes de cada um dos elos da cadeia, para a identificação dos fatos do futuro, relativos às condicionantes do ambiente em que se insere o objeto. Foram arrolados cerca de setenta fatos do futuro, os quais foram submetidos à ponderação dos expertos. Nessa ponderação aplicaram-se critérios de seleção de incertezas críticas, previamente usados em cenarizações de futuro de objetos de outra natureza, distintos das cadeias produtivas. A utilização desses critérios indica a pertinência do emprego das ferramentas selecionadas para o estudo proposto. As incertezas críticas, assim arroladas, devem permitir a execução de um exercício completo de cenarização do futuro de uma cadeia produtiva agronegocial.
Resumo:
O presente trabalho investigou o valor de uma floresta nativa no bioma Mata Atlântica. Para isso, utilizou-se da metodologia de custo de reposição. Além disso, buscou-se explicitar os principais fatores determinantes desse valor, bem como seus impactos. Foram formuladas quatro hipóteses de pesquisa, a saber, i) o nível de degradação da área não influencia o custo total de reposição da floresta nativa; ii) relevos mais acidentados das áreas a serem restauradas não influenciam o custo total de reposição da floresta nativa; iii) a distância da área a ser restaurada em relação ao centro urbano mais próximo não influencia o custo total de reposição da floresta nativa; e iv) a distância da área a ser restaurada em relação ao viveiro produtor de mudas não influencia o custo total de reposição da floresta nativa. Para chegar aos resultados foram realizados testes simples de diferença de médias para as variáveis qualitativas. Os resultados encontrados foram de que pode-se rejeitar a hipótese de que relevos mais acidentados das áreas a serem restauradas não influenciam o custo total de reposição da floresta nativa. No entanto, não se rejeitam as hipóteses de que a distância da área a ser restaurada em relação ao centro urbano mais próximo não influencia o custo total de reposição da floresta nativa e de que a distância da área a ser restaurada em relação ao viveiro produtor de mudas não influencia o custo total de reposição da floresta nativa. Após essa primeira aproximação, é realizada uma série de regressões, utilizando o modelo clássico de mínimos quadrados ordinários (MQO). Fez-se uma análise de sensibilidade dos resultados obtidos. O levantamento de dados foi obtido por meio da realização de uma pesquisa (questionário) a uma série de entidades do setor. Foram testadas as quatro hipóteses. De acordo com os testes realizados, pode-se dizer que a hipótese 2 sobre o impacto de um relevo mais acidentado das áreas a serem restauradas no custo total de reposição da floresta nativa se mostrou não significativa em todos os modelos. No entanto, a hipótese 1 do impacto do nível de degradação sobre o valor do projeto foi rejeitada em todos os modelos. A hipótese 3 do impacto da localização da área em relação ao centro urbano sobre o valor do projeto foi rejeitada em dois modelos e a hipótese 4 de que a distância da área a ser restaurada em relação ao viveiro produtor de mudas não influencia o custo total de reposição da floresta nativa foi rejeitada em um modelo. Chegou-se ao resultado de R$22 mil/hectare para o custo de reposição de uma floresta nativa do bioma Mata Atlântica. Esse tipo de estudo foi contextualizado no desenvolvimento feito pela economia ambiental ao longo do tempo, ressaltando suas principais características. Nas conclusões destaca-se os principais pontos do trabalho e são discutidas uma série de implicações teóricas e gerenciais do presente estudo, bem como apresentadas sugestões para novos estudos nessa área.
Resumo:
Este trabalho tem por objetivo a construção de uma rede neural para previsão do movimento dos contratos de dólar futuro e a construção de estratégias de negociação, para prover uma ferramenta para estimar o movimento do câmbio e para a negociação desses ativos. Essa ferramenta pode auxiliar empresas que necessitam fazer hedge de ativos e passivos e players do mercado que necessitam rentabilizar carteiras. Neste trabalho utilizamos como input dados de ativos do mercado financeiro, de janeiro de 2001 até setembro de 2013, disponíveis via terminal Bloomberg. Para o cálculo dos resultados financeiros das estratégias utilizamos dados de preços referenciais disponibilizados pela BM&F.