36 resultados para Erro de medida
Resumo:
O VIX Volatility Index surgiu como uma alternativa no cálculo da volatilidade implícita, visando mitigar alguns problemas encontrados em modelos da família Black-Scholes. Este tipo de volatilidade é tida como a melhor previsora da volatilidade futura, dado que as expectativas dos operadores de opções se encontram embutidas em seus valores. O objetivo deste trabalho é testar se o VIX apresenta maior poder preditivo e informações relevantes não presentes em modelos de séries temporais para variáveis não-negativas, tratadas através do modelo de erro multiplicativo. Os resultados indicam que o VIX apresenta maior poder preditivo em períodos de estabilidade econômica, mas não contém informação relevante frente à real volatilidade. Em períodos de crise econômica o resultado se altera, com o VIX apresentando o mesmo poder explicativo, mas contém informações relevantes no curto prazo.
Resumo:
Este trabalho se propõe a analisar a posse dos bens públicos, sob a perspectiva do neoconstitucionalismo, com destaque para o princípio da função social da propriedade. A tese deste estudo se pautou na afirmativa de que a partir do surgimento da concessão de uso especial para fins de moradia, instituída pela Medida Provisória 2.220 para regulamentar o artigo 183, § 1º da Constituição Federal de 1988, a função social da propriedade, antes sobrelevada nos litígios envolvendo a posse dos bens públicos, passou a ser discutida no âmbito dos tribunais. Para a comprovação da referida tese, analisou-se a jurisprudência do Superior Tribunal de Justiça, dos Tribunais Regionais Federais das cinco regiões do país e dos Tribunais de Justiça do Estado do Rio de Janeiro e do Rio Grande do Sul. Feita esta análise, foi possível comprovar a tese defendida. Com o intuito de garantir a máxima eficácia ao princípio da função social da propriedade, defendeu-se a não delimitação temporal imposta pela MP 2.220, tendo por base quatro argumentos de índole constitucional, sendo eles, a observância da força normativa da Constituição, a aplicação dos tratados internacionais de Direitos Humanos, o respeito ao princípio da igualdade e, por fim, o princípio da supremacia da Constituição.
Resumo:
Esta dissertação propõe um modelo para calcular o custo de curto prazo das rupturas de estoques para uma rede varejista de medicamentos do Brasil. O modelo proposto usa variáveis de influência que podem ser estimadas pelos gestores da empresa para prever as reações dos consumidores às rupturas e relaciona os custos para o varejista, associados a elas. Técnicas estatísticas multivariadas foram usadas para analisar as reações de consumidores em situações reais de rupturas de estoque, capturadas em diversas lojas da rede e relacioná-las com as variáveis de influência. A dissertação tem uma concepção pragmática e gera conhecimento para melhorar a forma como é dimensionado o estoque no varejo farmacêutico. O modelo proposto viabiliza a definição do nível de atendimento e de estoque que maximizam o resultado econômico para o varejista.
Resumo:
Este trabalho buscou analisar o efeito da confiança tanto na criação de valor nas relações comprador-fornecedor quanto na sua captura. Partiu-se da perspectiva teórica da Visão Relacional, em que as relações colaborativas são capazes de criar um valor único, que não seria criado por nenhum dos membros da parceria de forma independente, nem mesmo em uma simples troca de mercado. A confiança tem papel central em relações colaborativas, pois atua como um efetivo mecanismo de governança relacional, que minimiza os custos de transação, como aqueles relacionados a monitoramento e controle, e promove o engajamento das firmas em atividades de criação de valor. Contudo, enquanto que a criação de valor é um cenário ganha-ganha, a captura de valor indica que, se uma fatia maior do bolo fica com uma firma, resta uma fatia menor para o outro parceiro. Se a presença da confiança é importante para o bom andamento de relacionamentos colaborativos, seu excesso pode fazer com que a firma se abstenha do uso do poder, o que significa deixar para o parceiro uma parte dos ganhos que seriam apropriáveis por ela. O estudo foi desenvolvido em 117 díades da indústria química brasileira, a partir dos relacionamentos das firmas desta indústria com compradores de outras indústrias. A modelagem de equações estruturais e a regressão múltipla compuseram as técnicas multivariadas de análise dos dados coletados. Os resultados do trabalho demonstraram a existência tanto do ‘lado brilhante’ quanto do ‘lado obscuro’ da confiança. Embora tenha ficado evidente a sua importância na criação das rendas relacionais para a díade, foi encontrado um limite para os benefícios crescentes do nível de confiança, pois seu excesso afetava negativamente a parcela de valor capturada pelo fornecedor. Os resultados do trabalho indicam ainda que o potencial de captura das rendas relacionais pelo fornecedor é prejudicado pelo aumento da sua dependência em relação ao comprador. Estes achados oferecem importantes contribuições teóricas e sugerem oportunidades para estudos futuros sobre o tema.
Resumo:
Modelos de predição baseados em estimações não-paramétricas continuam em desenvolvimento e têm permeado a comunidade quantitativa. Sua principal característica é que não consideram a priori distribuições de probabilidade conhecidas, mas permitem que os dados passados sirvam de base para a construção das próprias distribuições. Implementamos para o mercado brasileiro os estimadores agrupados não-paramétricos de Sam e Jiang (2009) para as funções de drift e de difusão do processo estocástico da taxa de juros instantânea, por meio do uso de séries de taxas de juros de diferentes maturidades fornecidas pelos contratos futuros de depósitos interfinanceiros de um dia (DI1). Os estimadores foram construídos sob a perspectiva da estimação por núcleos (kernels), que requer para a sua otimização um formato específico da função-núcleo. Neste trabalho, foi usado o núcleo de Epanechnikov, e um parâmetro de suavizamento (largura de banda), o qual é fundamental para encontrar a função de densidade de probabilidade ótima que forneça a estimação mais eficiente em termos do MISE (Mean Integrated Squared Error - Erro Quadrado Integrado Médio) no momento de testar o modelo com o tradicional método de validação cruzada de k-dobras. Ressalvas são feitas quando as séries não possuem os tamanhos adequados, mas a quebra estrutural do processo de difusão da taxa de juros brasileira, a partir do ano 2006, obriga à redução do tamanho das séries ao custo de reduzir o poder preditivo do modelo. A quebra estrutural representa um processo de amadurecimento do mercado brasileiro que provoca em grande medida o desempenho insatisfatório do estimador proposto.
Resumo:
Neste trabalho busca-se investigar empiricamente, no caso brasileiro, o comportamento da medida de risco de Foster e Hart, sua capacidade de estimação de retornos e se ela pode ser usada como indicador do momento do mercado. Esta medida é de fácil assimilação e cálculo, respeita axiomas de coerência, sendo indiferente a aversão ao risco dos agentes e mensurada na mesma unidade dos retornos. Encontram-se evidências de que o risco reage a momentos de estresse do mercado e da existência de um relacionamento positivo com retornos futuros.
Resumo:
A presente dissertação está dividida em 6 (seis) capítulos, um dos quais é esta própria introdução, com a qual se pretendeu, além de mostrar a importância do problema que será analisado, também realçar o seu papel no panorama de Processamento de Dados brasileiro de hoje. O capítulo seguinte apresenta o trabalho alvo deste estudo, ou seja, programação de computadores, situando-o em relação ao todo da função de processamento de dados na em presa e caracterizando-se também os aspectos organizacionais dessa função além de realçar-se os aspectos básicos do ciclo de vida dos sistemas automatizados. Em seguida, no terceiro capítulo, são enumerados e analisados os vários fatores que atuam sobre a tarefa de programação de computadores os quais encontram-se separados em três categorias; Fatores ambientais, Variáveis Inerentes a Cada Programa e Experiência do Programador. No quarto capítulo são consideradas vá- rias técnicas de Medida do Trabalho, examinando-se cada uma sob a ótica de uma possível aplicação com programadores de computador. A metodologia proposta para se estabelecer padrões de tempo e produtividade para esses profissionais está apresentada no quinto capítulo. Resumidamente ela consiste em se escolher e observar um grupo de programas de computador, quantificando simultaneamente suas variáveis peculiares conforme conceituadas no terceiro capítulo e o esforço dispendido em cada um. Através do uso da análise de regressão múltipla são então obtidas as equações que darão os tempos normais necessários para se produzir cada tipo de programa em função das variáveis relevantes em cada tipo. Finalmente no último capítulo são mostrados os principais benefícios obtidos com a aplicação da metodologia sugerindo-se possibilidades para se expandir o estudo
Resumo:
Instituto Brasileiro de Economia
Resumo:
O objetivo desse trabalho é estimar a medida dinâmica VNET de profundidade de mercado para ações brasileiras a partir de dados de transação. VNET mede a diferença no número de ações compradas e vendidas no intervalo de tempo necessário para que o preço se movesse além de um determinado incremento. É uma medida de liquidez realizada para uma deterioração específica de preço que pode ser calculada seguidamente ao longo do dia, capturando assim a dinâmica de curto prazo da liquidez. Em particular, assume-se que essa duração de preços segue um modelo autorregressivo de duração condicional (ACD). A natureza pré-determinada do processo ACD é conveniente porque nos permite prever mudanças futuras na liquidez de uma ação. Assim, ao identificar os melhores momentos para realizar uma operação de compra ou venda, o VNET é um excelente ponto de partida para qualquer estratégia de execução ótima. Os resultados empíricos deste trabalho indicam que a profundidade de mercado medida pelo VNET varia com ágio de compra e venda, com o volume negociado, com o número de negócios, com a duração de preços condicional, e com o seu erro de previsão. Para estimar a curva de reação do mercado, variamos os intervalos de preço usados na definição das durações de preços.
Resumo:
Na literatura empírica, várias estimativas de taxas de retorno para educação têm sido reportadas, baseadas no modelo de Mincer (1958, 1974). No entanto, para que o coeficiente dos anos de estudo, em uma regressão do logaritmo da renda contra educação e experiência, seja entendido como taxa de retorno diversas hipóteses devem ser válidas. Baseado em Heckman, Lochner e Todd (2006) e Heckman, Ichimura, Smith e Todd (1998), testamos algumas de tais hipóteses como: linearidade nos anos estudo e separabilidade entre educação e experiência (paralelismo). Para isso, utilizamos dados da PNAD (1992-2004) e do Censo (1970-2000) e lançamos mão de regressões paramétricas e não-paramétricas (regressão linear local); e acabamos rejeitando tanto linearidade como paralelismo. Adicionalmente, relaxamos tais hipóteses e estimamos as taxas internas de retorno (T1Rs), baseado em Becker (1993), para se medir a ordem do viés em relação ao coeficiente escolar do modelo original de Mincer. Esta medida permite mensurar o tamanho do erro em diversos estudos quando os mesmos utilizam o modelo de Mincer. Obtemos vieses que chegaram a ordem de mais de 200%, como por exemplo a TIR em 2000 passando de 17.2% para todos níveis educacionais (retorno "minceriano") para 5.61% para mestrado/doutorado em relação ao nível superior, quando estimada não parametricamente, relaxando linearidade e paralelismo. Assim, diversos estudos no Brasil não consideram tais hipóteses e, conseqüentemente suas estimativas estão erradas e mais ainda, a magnitude deste erro é grande, podendo levar à conclusões distorcidas ou mal interpretadas. Assim, provemos também novas estimativas das TIRs, as quais devem ser tomadas como referência para a análise do comportamento dos agentes nos movimentos de demanda por educação e oferta de mão-de-obra. Por fim, corroboramos a evidência da literatura que os retornos educacionais estão decaindo ao longo das décadas, com exceção do nível superior que aponta para um crescimento nesta última década, mas em magnitude menor das obtidas em diversos estudos recentes, que se baseiam no modelo de Mincer.
Resumo:
O objetivo desse trabalho é encontrar uma medida dinâmica de liquidez de ações brasileiras, chamada VNET. Foram utilizados dados de alta frequência para criar um modelo capaz de medir o excesso de compras e vendas associadas a um movimento de preços. Ao variar no tempo, o VNET pode ser entendido como a variação da proporção de agentes informados em um modelo de informação assimétrica. Uma vez estimado, ele pode ser utilizado para prever mudanças na liquidez de uma ação. O VNET tem implicações práticas importantes, podendo ser utilizado por operadores como uma medida estocástica para identificar quais seriam os melhores momentos para operar. Gerentes de risco também podem estimar a deterioração de preço esperada ao se liquidar uma posição, sendo possível analisar suas diversas opções, servindo de base para otimização da execução. Na construção do trabalho encontramos as durações de preço de cada ação e as diversas medidas associadas a elas. Com base nos dados observa-se que a profundidade varia com ágio de compra e venda, com o volume negociado, com o numero de negócios, com a duração de preços condicional e com o seu erro de previsão. Os resíduos da regressão de VNET se mostraram bem comportados o que corrobora a hipótese de que o modelo foi bem especificado. Para estimar a curva de reação do mercado, variamos os intervalos de preço usados na definição das durações.
Resumo:
O uso de opções no mercado financeiro tem ganhado relevância devido ao seu payoff não-linear e a possibilidade de alterar o perfil da distribuição de retornos de um portfolio. Existem diversas estratégias que são adequadas para cada cenário que o investidor acredita estar exposto, mas como o conjunto de cenários forma uma distribuição de retornos, devemos utilizar uma medida adequada para trabalhar com este tipo de informação. Assim, foi utilizada a medida Omega, que é uma medida capaz de capturar todos os momentos de uma distribuição, dado um limiar de retornos. Este trabalho se propõe a desenvolver uma metodologia que possibilite otimizar a medida Omega de um portfolio, através do uso de opções sobre o IBOVESPA. Para a geração das distribuições de retornos foi utilizada simulação de Monte Carlo, com jumps e volatilidade estocástica. Finalmente, foram feitas diversas análises sobre os resultados obtidos, afim de comparar a estratégia otimizada com diversas estratégias aleatórias, e também, realizado um backtest para avaliar a eficácia da implementação da estratégia otimizada.
Resumo:
Este trabalho procura identificar quais variáveis são as mais relevantes para previsão da taxa de câmbio real do Brasil e analisar a robustez dessas previsões. Para isso foram realizados testes de cointegração de Johansen em 13 variáveis macroeconômicas. O banco de dados utilizado são séries trimestrais e compreende o período de 1970 a 2014 e os testes foram realizados sobre as séries combinadas dois a dois, três a três e quatro a quatro. Por meio desse método, encontramos nove grupos que cointegram entre si. Utilizando esses grupos, são feitas previsões fora da amostra com a partir das últimas 60 observações. A qualidade das previsões foi avaliada por meio dos testes de Erro Quadrático Médio, teste de Diebold-Mariano e, além disso, foi utilizado um modelo de passeio aleatório do câmbio real como benchmark para o procedimento de Hansen. Todos os testes mostram que, à medida que se aumenta o horizonte de projeção, o passeio aleatório perde poder preditivo e a maioria dos modelos são mais informativos sobre o futuro da o câmbio real efetivo. O horizonte é de três a quatro anos à frente. No caso do teste de Hansen, o passeio aleatório é completamente eliminado do grupo final de modelos, mostrando que é possível fazer previsões superiores ao passeio aleatório.
Resumo:
Este trabalho procura identificar quais variáveis são as mais relevantes para previsão da taxa de câmbio real do Brasil e analisar a robustez dessas previsões. Para isso foram realizados testes de cointegração de Johansen em 13 variáveis macroeconômicas. O banco de dados utilizado são séries trimestrais e compreende o período de 1970 a 2014 e os testes foram realizados sobre as séries combinadas dois a dois, três a três e quatro a quatro. Por meio desse método, encontramos nove grupos que cointegram entre si. Utilizando esses grupos, são feitas previsões fora da amostra com a partir das últimas 60 observações. A qualidade das previsões foi avaliada por meio dos testes de Erro Quadrático Médio, teste de Diebold-Mariano e, além disso, foi utilizado um modelo de passeio aleatório do câmbio real como benchmark para o procedimento de Hansen. Todos os testes mostram que, à medida que se aumenta o horizonte de projeção, o passeio aleatório perde poder preditivo e a maioria dos modelos são mais informativos sobre o futuro da o câmbio real efetivo. O horizonte é de três a quatro anos à frente. No caso do teste de Hansen, o passeio aleatório é completamente eliminado do grupo final de modelos, mostrando que é possível fazer previsões superiores ao passeio aleatório.