1000 resultados para Oferta e procura - Previsão
Resumo:
Usando dados intradiários dos ativos mais negociados do BOVESPA, este trabalho considerou dois modelos recentemente desenvolvidos na literatura de estimação e previsão de volatilidade realizada. São eles; Heterogeneous Autorregressive Model of Realized Volatility (HAR-RV), desenvolvido por Corsi (2009) e o Mixed Data Sampling (MIDAS-RV), desenvolvido por Ghysels et al. (2004). Através de medidas de comparação de previsão dentro e fora da amostra, constatou-se resultados superiores do modelo MIDAS-RV apenas para previsões dentro da amostra. Para previsões fora da amostra, no entanto, não houve diferença estatisticamente significativa entre os modelos. Também encontram-se evidências que a utilização da volatilidade realizada induz distribuições dos retornos padronizados mais próximas da normal
Resumo:
Trata do processo de autonomização dos profissionais de recursos humanos como um grupo profissional legítimo no mundo das empresas. Estuda a produção e circulação de bens simbólicos a partir do estudo de um grupo informal fechado de profissionais de RH. Estuda a gênese, objetivos e rituais do grupo, assim como a estratégia de ascensão profissional e social de seus integrantes e os valores professados pelo grupo.
Resumo:
Motivados pelo debate envolvendo modelos estruturais e na forma reduzida, propomos nesse artigo uma abordagem empírica com o objetivo de ver se a imposição de restrições estruturais melhoram o poder de previsibilade vis-a-vis modelos irrestritos ou parcialmente restritos. Para respondermos nossa pergunta, realizamos previsões utilizando dados agregados de preços e dividendos de ações dos EUA. Nesse intuito, exploramos as restrições de cointegração, de ciclo comum em sua forma fraca e sobre os parâmetros do VECM impostas pelo modelo de Valor Presente. Utilizamos o teste de igualdade condicional de habilidade de previsão de Giacomini e White (2006) para comparar as previsões feitas por esse modelo com outros menos restritos. No geral, encontramos que os modelos com restrições parciais apresentaram os melhores resultados, enquanto o modelo totalmente restrito de VP não obteve o mesmo sucesso.
Resumo:
O objetivo do presente trabalho é utilizar modelos econométricos de séries de tempo para previsão do comportamento da inadimplência agregada utilizando um conjunto amplo de informação, através dos métodos FAVAR (Factor-Augmented Vector Autoregressive) de Bernanke, Boivin e Eliasz (2005) e FAVECM (Factor-augmented Error Correction Models) de Baneerjee e Marcellino (2008). A partir disso, foram construídas previsões fora da amostra de modo a comparar a eficácia de projeção dos modelos contra modelos univariados mais simples - ARIMA - modelo auto-regressivo integrado de média móvel e SARIMA - modelo sazonal auto-regressivo integrado de média móvel. Para avaliação da eficácia preditiva foi utilizada a metodologia MCS (Model Confidence Set) de Hansen, Lunde e James (2011) Essa metodologia permite comparar a superioridade de modelos temporais vis-à-vis a outros modelos.
Resumo:
O trabalho testa o poder de previsão da volatilidade futura, de cinco modelos : um modelo ingênuo, do tipo martingale, o modelo sugerido pelo JPMorgan em seu RiskMetrics™, o modelo GARCH-Generalized Autoregressive Conditional Heteroscedasticity, o modelo da volatilidade implícita e combinações de Risk:MetricsTM com volatilidade implícita e de GARCH com volatilidade implícita. A série estudada é a volatilidade para vinte e cinco dias, dos retornos diários do contrato futuro de Ibovespa, negociado na BM&F - Bolsa de Mercadorias e Futuros. Particularidades brasileiras são introduzidas na. estimação dos parâmetros do modelo GARCH. O poder de previsão é testado com medidas estatísticas, envolvendo equações de perdas (loss functions) simétricas e assimétricas, e com uma medida econômica, dada pelo lucro obtido a partir da simulação da realização de operações hedgeadas, sugeridas pelas previsões de volatilidade. Tanto com base nas medidas estatísticas como na medida econômica, o modelo GARCH emerge como o de melhor desempenho. Com base nas medidas estatísticas, esse modelo é particularmente melhor em período de mais alta volatilidade. Com base na medida econômica, contudo, o lucro obtido não é estatisticamente diferente de zero, indicando eficiência do mercado de opções de compra do contrato futuro de Ibovespa, negociado na mesmaBM&F.
Resumo:
Para a pesquisa, utilizou-se um concreto asfáltico com ligante modificado com borracha ensaiado nas dependências do LAPAV-UFRGS, sob compressão diametral de cargas cíclicas, cujo procedimento é brevemente descrito, associando-se os seus procedimentos com as hipóteses assumidas na modelagem, o que é importante na concepção do modelo empregado. Apresenta-se e discute-se o manuseio dos dados experimentais para o modelo, bem como a escolha do modelo constitutivo adotado, no qual se optou por um modelo viscoelástico linear anisotrópico simplificado, cujas equações base e métodos para calibração são apresentados, discutidos e comparados, bem como os resultados das calibrações dos três primeiros ciclos de carga-descanso, no qual se obteve uma excelente descrição do comportamento do material, o que foi comprovado nas previsões dos dois ciclos seguintes. As previsões de resultados a ensaios sob diferentes condições aos das calibrações mostraram resultados qualitativamente bons às freqüências de ciclo de 1 Hz, comprovados na comparação das curvas de deslocamentos normalizadas. Para a pesquisa, utilizou-se um concreto asfáltico com ligante modificado com borracha ensaiado nas dependências do LAPAV-UFRGS, sob compressão diametral de cargas cíclicas, cujo procedimento é brevemente descrito, associando-se os seus procedimentos com as hipóteses assumidas na modelagem, o que é importante na concepção do modelo empregado. Apresenta-se e discute-se o manuseio dos dados experimentais para o modelo, bem como a escolha do modelo constitutivo adotado, no qual se optou por um modelo viscoelástico linear anisotrópico simplificado, cujas equações base e métodos para calibração são apresentados, discutidos e comparados, bem como os resultados das calibrações dos três primeiros ciclos de carga-descanso, no qual se obteve uma excelente descrição do comportamento do material, o que foi comprovado nas previsões dos dois ciclos seguintes. Para a pesquisa, utilizou-se um concreto asfáltico com ligante modificado com borracha ensaiado nas dependências do LAPAV-UFRGS, sob compressão diametral de cargas cíclicas, cujo procedimento é brevemente descrito, associando-se os seus procedimentos com as hipóteses assumidas na modelagem, o que é importante na concepção do modelo empregado. Apresenta-se e discute-se o manuseio dos dados experimentais para o modelo, bem como a escolha do modelo constitutivo adotado, no qual se optou por um modelo viscoelástico linear anisotrópico simplificado, cujas equações base e métodos para calibração são apresentados, discutidos e comparados, bem como os resultados das calibrações dos três primeiros ciclos de carga-descanso, no qual se obteve uma excelente descrição do comportamento do material, o que foi comprovado nas previsões dos dois ciclos seguintes.
Resumo:
Este artigo estuda a previsão da estrutura a termo da taxa de juros brasileira utilizando de fatores comuns extraídos de uma vasta base de séries macroeconômicas. Os períodos para estimação e previsão compreendem o intervalo de Janeiro de 2000 a Maio de 2012. Foram empregas 171 séries mensais para a construção da base. Primeiramente foi implementado o modelo proposto por Moench (2008), no qual a dinâmica da taxa de juros de curto prazo é modelada através de um FAVAR e a estrutura a termo é derivada utilizando-se de restrições implicadas por não arbitragem. A escolha pela adoção deste modelo se deve aos resultados obtidos no estudo original, nos quais tal modelagem apresentou melhor desempenho preditivo para horizontes intermediários e longos quando comparado com benchmarks usuais. Contudo, tais resultados também apresentaram uma deterioração progressiva à medida que as maturidades aumentam, evidenciando uma possível inadequação do modelo para as partes intermediária e longa da curva. A implementação deste modelo para a estrutura a termo brasileira levou a resultados muito similares ao do estudo original. Visando contornar a deterioração mencionada, foi proposta uma modelagem alternativa na qual a dinâmica de cada taxa é modelada conjuntamente com os fatores macroeconômicos, eliminando-se as restrições implicadas por não arbitragem. Tal modelagem proporcionou resultados de previsão amplamente superiores e através dela foi possível confirmar a inadequação descrita. Por fim, também foi realizada a inserção dos fatores macro na dinâmica dos fatores beta do modelo de Diebold e Li (2006), levando a um grande ganho de capacidade preditiva, principalmente para horizontes maiores de previsão.
Resumo:
A previsão da capacidade de carga de estacas constitui-se um dos desafios da engenharia de fundações por requerer, na teoria, a estimativa de propriedades do solo, suas alterações pela execução da fundação e o conhecimento do mecanismo de interação solo-estaca. Devido à dificuldade de reproduzir analítica e numericamente o mecanismo de interação solo-estaca, a prática brasileira faz uso correlações empíricas, relacionando diretamente os resultados do ensaio SPT com o desempenho do elemento de fundação. Apesar da grande contribuição dos métodos tradicionalmente utilizados, a sua validade está limitada à prática construtiva regional e às condições específicas dos casos históricos utilizados em seu estabelecimento. Com o objetivo de incorporar à engenharia de fundações brasileira um novo método de previsão de capacidade de carga de estacas, obtido diretamente a partir de ensaios SPT, desenvolveu-se nesta pesquisa uma metodologia baseada na interpretação do ensaio SPT sugerida por Odebrecht (2003). À luz desta nova interpretação, utiliza-se a força dinâmica de reação do solo à cravação do amostrador SPT para estimar a capacidade de carga de estacas, relacionando os mecanismos de mobilização de resistência do amostrador (modelo) com os da estaca (protótipo). No intuito de validar a metodologia proposta, organizou-se neste trabalho, um expressivo banco de dados compostos por 325 provas de carga à compressão e 43 provas de carga à tração, executadas em diferentes regiões do país. Das provas de carga à compressão, 132 casos são de estacas cravadas pré-moldadas de concreto, 28 de estacas metálicas, 95 de estacas hélice contínua e 70 casos de estacas escavadas. Já nas provas de carga à tração, 3 casos são de estacas cravadas pré-moldadas, 31 de estacas hélice contínua e 9 casos de estacas escavadas. Conclui-se a partir de análises comparativas entre cargas previstas e medidas que o método proposto é capaz de prever de forma satisfatória a capacidade de carga de estacas. Uma análise estatística dos dados possibilitou atribuir à estimativa de capacidade de carga, um intervalo de confiança das previsões, baseado na confiabilidade requerida para o projeto.
Resumo:
A exploração do paralelismo no nível de instrução (ILP) em arquiteturas superescalares é limitada fortemente pelas dependências de controle, as quais são ocasionadas pelas instruções de desvio, e pelas dependências de dados. As arquiteturas SMT (Simultaneous MultiThreaded) buscam explorar um novo nível de paralelismo, denominado paralelismo no nível de tarefa (TLP), para buscar e executar instruções de diversas tarefas ao mesmo tempo. Com isso, enquanto uma tarefa está bloqueada por dependências de controle e de dados, outras tarefas podem continuar executando, mascarando assim as latências de previsões incorretas e de acessos à memória, usando mais eficientemente as unidades funcionais e demais recursos disponíveis. Contudo, o projeto dessas arquiteturas continua a esbarrar nos mesmos problemas associados ao uso de técnicas utilizadas para a exploração de ILP, como a previsão de devios. Além disso, essas arquiteturas trazem novos desafios, como a determinação da maneira mais eficiente de distribuição/compartilhamento de recursos entre as tarefas. Nesse trabalho será apresentada uma topologia para as tabelas de previsão de desvios em arquiteturas multitarefas simultâneas. Além disso, serão desenvolvidas duas análises complementares acerca de previsão de desvios: o impacto da taxa de acertos da previsão de desvios em arquiteturas com pipelines profundos e o impacto da taxa de acerto na previsão do alvo de um desvio. Entre as principais contribuições do trabalho pode-se citar a definição de uma estrutura particionada para as tabelas de previsão em arquiteturas SMT, aliando desempenho a um menor custo de implementação em uma arquitetura real. Além disso, é mostrado que a taxa de acerto da previsão de desvios tem um grande impacto no desempenho das arquiteturas SMT com pipelines profundos, bem como nas causas de bloqueio do estágio de busca quando utiliza-se cache de instruções bloqueantes.
Resumo:
As técnicas qualitativas disponiveis para a modelagem de cenários têm sido reconhecidas pela extrema limitação, evidenciada no principio das atividades do processo, como a fase inicial de concepção. As principais restrições têm sido: • inexistência de uma ferramenta que teste a consistência estrutural interna do modelo, ou pela utilização de relações econômicas com fundamentação teórica mas sem interface perfeita com o ambiente, ou pela adoção de variações binárias para testes de validação; • fixação "a priori" dos possíveis cenários, geralmente classificados sob três adjetivos - otimista, mais provável e pessimista - enviesados exatamente pelos atributos das pessoas que fornecem esta informação. o trabalho trata da utilização de uma ferramenta para a interação entre uma técnica que auxilia a geração de modelos, suportada pela lógica relacional com variações a quatro valores e expectativas fundamentadas no conhecimento do decisor acerca do mundo real. Tem em vista a construção de um sistema qualitativo de previsão exploratória, no qual os cenários são obtidos por procedimento essencialmente intuitivo e descritivos, para a demanda regional por eletricidade. Este tipo de abordagem - apresentada por J. Gershuny - visa principalmente ao fornecimento de suporte metodológico para a consistência dos cenários gerados qualitativamente. Desenvolvimento e estruturação do modelo são realizados em etapas, partindo-se de uma relação simples e prosseguindo com a inclusão de variáveis e efeitos que melhoram a explicação do modelo. o trabalho apresenta um conjunto de relações para a demanda regional de eletricidade nos principais setores de consumo residencial, comercial e industrial bem como os cenários resultantes das variações mais prováveis das suas componentes exógenas. Ao final conclui-se que esta técnica é útil em modelos que: • incluem variáveis sociais relevantes e de dificil mensuração; • acreditam na importância da consistência externa entre os resultados gerados pelo modelo e aqueles esperados para a tomada de decisões; • atribuem ao decisor a responsabilidade de compreender a fundamentação da estrutura conceitual do modelo. Adotado este procedimento, o autor aqui recomenda que o modelo seja validado através de um procedimento iterativo de ajustes com a participação do decisor. As técnicas quantitativas poderão ser adotadas em seguida, tendo o modelo como elemento de consistência.
Resumo:
Estudos sobre os determinantes da estrutura a termo de taxa de juros brasileira são recentes. Um melhor entendimento sobre os determinantes da mesma é importante, entre outras razões, para política econômica. Existem duas visões extremas sobre estrutura a termo. A primeira argumenta que as taxas de longo é igual a uma média ponderada das taxas de curto mais um prêmio por maturidade devido a agentes que arbitrassem tal diferença. A segunda visão argumenta que os agentes não teriam incentivos para arbitrar a curva de juros pois teria preferência por maturidades específicas e logo a curva de longo e curto estariam desconectadas. O presente trabalho testa as proposições Greenwood e Vayanos (2008) obtidas a partir de um modelo em que as duas visões acima são reconciliadas. No modelo de Greenwood e Vayanos (2008) a alteração da maturidade da dívida do governo afeta toda a estrutura a termo e tal efeito é mais intenso para títulos mais longos. Com esse intuito, testou-se se, para dados brasileiros, o prazo médio dos títulos afetava tanto o excesso de retorno como os spreads na curva. Os resultados indicaram que o prazo médio afeta o spread e o excesso de retorno, com efeito mais intenso no segundo.
Resumo:
Este trabalho compara modelos de séries temporais para a projeção de curto prazo da inflação brasileira, medida pelo Índice de Preços ao Consumidor Amplo (IPCA). Foram considerados modelos SARIMA de Box e Jenkins e modelos estruturais em espaço de estados, estimados pelo filtro de Kalman. Para a estimação dos modelos, foi utilizada a série do IPCA na base mensal, de março de 2003 a março de 2012. Os modelos SARIMA foram estimados no EVIEWS e os modelos estruturais no STAMP. Para a validação dos modelos para fora da amostra, foram consideradas as previsões 1 passo à frente para o período de abril de 2012 a março de 2013, tomando como base os principais critérios de avaliação de capacidade preditiva propostos na literatura. A conclusão do trabalho é que, embora o modelo estrutural permita, decompor a série em componentes com interpretação direta e estudá-las separadamente, além de incorporar variáveis explicativas de forma simples, o desempenho do modelo SARIMA para prever a inflação brasileira foi superior, no período e horizonte considerados. Outro importante aspecto positivo é que a implementação de um modelo SARIMA é imediata, e previsões a partir dele são obtidas de forma simples e direta.
Resumo:
Este trabalho tem por objetivo a construção de uma rede neural para previsão do movimento dos contratos de dólar futuro e a construção de estratégias de negociação, para prover uma ferramenta para estimar o movimento do câmbio e para a negociação desses ativos. Essa ferramenta pode auxiliar empresas que necessitam fazer hedge de ativos e passivos e players do mercado que necessitam rentabilizar carteiras. Neste trabalho utilizamos como input dados de ativos do mercado financeiro, de janeiro de 2001 até setembro de 2013, disponíveis via terminal Bloomberg. Para o cálculo dos resultados financeiros das estratégias utilizamos dados de preços referenciais disponibilizados pela BM&F.
Resumo:
Em ofertas públicas de ações, sejam elas ofertas públicas iniciais (IPO) ou ofertas públicas subseqüentes (SEO), cuja venda ocorre via garantia firme de subscrição e liquidação é comum a inclusão de uma clausula de estabilização, que permite aos underwriters recomprar ações no mercado após o início das negociações com o objetivo de postergar ou evitar a queda do valor. As ações recompradas são aquelas provenientes da opção dada pelo emissor ao underwriter para a venda em excesso de até 15% das ações inicialmente ofertadas, além disso, no caso de forte demanda uma venda complementar pode ocorrer até o limite de 20% da oferta inicial, chamada de hot-issue, porém essas ações não são passíveis de recompra. A opção de greenshoe permite ao underwriter comprar parte ou todas as ações vendidas em excesso, aumentando a oferta permanentemente. Essa tese avalia, nesta ordem, os principais determinantes da estabilização e efeitos no retorno de curto prazo de SEOs, os efeitos sobre o custo da emissão e depois o efeito sobre o retorno de longo prazo de SEOs e IPOs, cada assunto é tratado em um capítulo diferente e independente, após um capítulo introdutório que descreve a estrutura da tese. No primeiro, os resultados indicam que em SEOs o risco, a liquidez e a demanda de investidores institucionais nacionais e estrangeiros são importantes na determinação da sobrealocação e ocorrência da estabilização, e que além desses fatores a demanda dos investidores de varejo também influencia a intensidade da estabilização. Quanto aos efeitos no retorno imediatamente após o fim da estabilização, SEOs não estabilizados apresentam retorno de curto prazo maior que os estabilizados não há, em média, queda do preço das ações após o fim da estabilização, no entanto, foi constatado que SEOs intensamente estabilizados apresentam retorno pós-estabilização menores. No segundo, foi constatada que os underwriters prevêem a intensidade da estabilização e/ou do exercício do greenshoe e hot-issue, e uma vez que são remunerados pela venda dessas ações suplementares, ajustam ex-ante a remuneração cobrada dos emissores, não se apropriando um eventual lucro nem suportando o custo de recompra e devolução das ações. Esses resultados foram observados tanto nos IPOs quanto nos SEOs e o mesmo efeito foi observado nos custos totais. 7 No último foi mostrado que o nível de estabilização e/ou exercício do greenshoe e hot-issue não afetam o retorno de longo prazo dos IPOs, no entanto exercício do greenshoe e hot-issue afetou negativamente o retorno acumulado ajustado dos SEOs até o 3º ano após a emissão, inclusive quando controlado pelo volume da emissão e market-to-book. Algumas contribuições importantes desta tese são: 1) apesar da diferença no nível de risco, os resultados da ocorrência e intensidade da estabilização são em geral semelhantes àqueles observados para IPOs; 2) este é o primeiro trabalho a analisar as conseqüências da estabilização no retorno de curto prazo dos SEOs, bem como a constatar que o retorno de mercado influencia intensidade da estabilização; 3) pela primeira vez mostra que as dimensões do processo de estabilização são antecipadas pelos underwriters e no contexto de um mercado competitivo, são incorporadas ao custo da emissão de IPOs e SEO; 4) constata que o processo de estabilização possui efeito sobre retorno de longo prazo dos SEOs. Todos esses resultados lançam dúvida quanto aos estudos sobre retorno e remuneração em ofertas públicas que excluem essas informações de seus modelos.
Resumo:
Trata-se de uma pesquisa avaliativa, que tem como objetivo a análise do Registro Nacional de Preços - RNP, para compras de medicamentos e insumos médicohospitalares do Ministério da Saúde. Esse sistema permite a utilização via eletrônica pelos gestores estaduais e municipais. O período avaliado compreende os anos de 2001 e 2002. Como fonte, foi utilizado um modelo lógico para avaliação de programas de saúde do Center for Disease Control and Prevention – dos Estados Unidos da América. Uma base de dados foi especialmente elaborada a partir dos processos de licitação do RNP e dos registros de aquisição medicamentos disponíveis no Departamento de Programas Estratégicos do Ministério da Saúde. Os eixos principais da avaliação foram os tempos dos trâmites burocráticos dos processos; as aquisições realizadas pelos gestores municipais, estaduais e federais através do sistema; os recursos financeiros envolvidos nas compras e disponibilizados pelo estado para a atenção básica e a viabilidade econômica dos preços obtidos nos medicamentos registrados em comparação com as fontes disponíveis no mercado. Os resultados evidenciaram morosidade no processo administrativo com prejuízo à disponibilidade dos produtos no sistema em tempo ideal e baixa adesão na utilização do RNP para aquisição de medicamentos, evidenciando-se a desarticulação do gestor federal, estadual e municipal. A movimentação financeira de estados e municípios foi baixa se comparada com os recursos circulantes no período provenientes do Incentivo à Assistência Farmacêutica – IAFB e outros. Os preços unitários de um grupo de medicamentos obtidos através do RNP comparados com: os preços dos laboratórios estatais; outras licitações dos gestores estaduais e municipais; fornecedores privados e valores da prestação de contas municipais dos recursos do IAFB, mostraram-se muito competitivos reforçando a viabilidade financeira do programa. Contraditoriamente, o RNP apresenta deficiências e algumas falhas de base como lentidão, burocracia, baixa adesão, pouca publicidade, associada a excelências como a tecnologia, pois todo o sistema é informatizado e possui recursos financeiros disponíveis na área estatal com preços competitivos em todos os segmentos do mercado.