970 resultados para Hipótese de Eficiência do Mercado (HEM)
Resumo:
A globalização impõe às empresas a necessidade de flexibilizar, ter competência e inovar para continuarem no mercado, devido à transição de uma economia industrial para uma economia baseada no conhecimento. Esta economia exige das empresas rapidez nas decisões e vantagem competitiva sustentável, que só conseguem alcançar quando desenvolvem a capacidade de inovar de forma contínua. Este trabalho aborda os fatores organizacionais determinantes para uma empresa inovar de forma contínua, identificando como as estratégias de exploitation (eficiência operacional) e exploration (inovação radical) podem coexistir, visto que, por algum tempo, foram consideradas incompatíveis de serem adotadas simultaneamente. Devido à grande experiência profissional do autor deste trabalho, decidiu-se enfocar esses estudos na Motorola, empresa notadamente focada em inovação radical, como no advento do telefone celular, e também na melhoria da eficiência operacional, como no desenvolvimento do processo de melhoria Six-Sigma. Por meio de levantamento bibliográfico, estudo das fases de vida da empresa e aplicação de questionário aos funcionários da Motorola, chegou-se às seguintes conclusões: ratificou-se a importância da coexistência das duas estratégias, para que a empresa sustente a vantagem competitiva; esclareceu-se que tanto eficiência operacional quanto inovação radical são efeitos de uma organização inovadora. A causa primordial de uma empresa, como a Motorola, ser uma organização inovadora reside na condição de existir uma cultura de inovação que valoriza os funcionários, com um intento estratégico declarado de inovar, propiciando a geração de novas idéias, possuindo recursos e processos de modo que sejam gerados resultados econômicos dessas novas idéias, acompanha e melhora seus processos de negócio a fim de manter os parâmetros de qualidade e custos; e a atenção com o consumidor, fornecedores e outras empresas, estas formando parcerias que proporcionem novas fontes de idéias e oportunidades. Dessa forma, uma empresa como a Motorola mantem vantagem competitiva, inovando continuamente.
Resumo:
Este trabalho está dividido em dois ensaios. O primeiro ensaio examina aspectos da liquidez do mercado secundário de títulos públicos no Brasil no período 2003 a 2006 e os determinantes do spread de compra e venda no mercado secundário de LTN - Letra do Tesouro Nacional no período 2005 a 2006. Os spreads foram calculados com base em dados diários de alta freqüência, para períodos de 30 minutos e de um dia. Em linhas gerais, a liquidez é um determinante importante no cálculo do spread. Especificamente os spreads diminuem quando os volumes ofertados aumentam. No caso dos prazos de vencimento, os spreads aumentam quando os prazos se ampliam. LTNs com prazos de vencimentos até 30 dias apresentaram spreads de 1 centavo de reais (1.89 bp) enquanto que LTNs com prazos acima de dois anos apresentaram spreads médios em torno de 54 centavos de reais (3.84 bp) para intervalos de 30 minutos e 81 centavos de reais (5.72 bp) para intervalos de um dia. Os testes econométricos foram realizados com base em um modelo apresentado por Chakravarty e Sarkar (1999) e aplicado ao mercado americano de bonds no período de 1995 e 1997. Os testes foram feitos utilizando-se a técnica do Método dos Momentos Generalizados (GMM). Os resultados confirmam o spread de compra e venda como medida importante no acompanhamento da liquidez. O segundo ensaio compara aspectos da liquidez e da microestrutura do mercado de títulos públicos em alguns paises como Brasil, Chile, México, Coréia, Singapura, Polônia e Estados Unidos. A análise utiliza algumas dimensões da microestrutura como a liquidez do mercado secundário (spread de compra e venda, giro do estoque de títulos e vencimentos mais negociados), os custos de eficiência, a estrutura e transparência do mercado primário e secundário e, por último, a segurança do mercado. O objetivo é comparar as características e o funcionamento dos mercados secundários desses paises e, confrontar com a realidade do mercado brasileiro face ao desenvolvimento da microestrutura. Apesar da falta de alongamento dos prazos dos títulos públicos, o mercado secundário no Brasil apresenta aspectos da microestrutura semelhantes aos paises em consideração o que sugere a existência de outros fatores fora a microestrutura que limitam o aumento dos prazos. Os resultados do primeiro ensaio ajudam nas comparações dos demais paises. Como resultado, encontramos que embora a liquidez do mercado secundário de títulos públicos no Brasil concentra-se em papéis de prazo menor, este fato provavelmente não se deve a questões de microestrutura do mercado.
Resumo:
Esta tese analisou a cadeia da carne bovina no Brasil com o objetivo de identificar a existência de assimetrias nas relações comerciais entre seus agentes (pecuaristas, frigoríficos e supermercados). Foram investigadas duas formas de assimetria: a diferença de conteúdo informacional entre os agentes econômicos, no mercado futuro de boi gordo da BM&F e a possibilidade de exercício de poderes de mercado e de barganha nas relações comerciais dentro dessa cadeia. A análise de poder de mercado baseou-se na estrutura analítica de Crespi, Gao e Peterson (2005), e permitiu inferir que existe poder de mercado na aquisição de bois pelos frigoríficos, o que vai ao encontro dos resultados observados em outros oligopólios de estrutura caracterizada por um mercado pulverizado na ponta fornecedora e por um processo local, isto é, na própria região, de escoamento da produção. Implementou-se uma análise complementar sobre a estrutura de formação do preço do boi, na qual identificou-se que São Paulo é a região formadora dos preços. A relação entre frigoríficos e supermercados foi analisada através do modelo momentum threshold autoregression (M-TAR) e observou-se que os supermercados apropriam-se das reduções observada no preço do atacado e repassam ao varejo eventuais aumentos de preços no atacado. Portanto, é possível concluir que os supermercados têm poder de barganha junto aos frigoríficos, o que era esperado, pelo fato de esses estabelecimentos adquirirem volumes significativos e se posicionarem como principais canais de distribuição da carne. E, por fim, verificou-se a existência de assimetrias informacionais entre os participantes do mercado futuro de boi gordo da BM&F, mensurada por meio de uma análise sobre a relação entre a volatilidade dos preços futuros e as posições por tipo de participante. Os resultados encontrados corroboraram a hipótese de que os frigoríficos têm mais informação, no mercado futuro, que os demais agentes.
Resumo:
A relação entre estrutura de mercado e inovação tecnológica é um tema amplamente discutido, mas não existe concordância entre os autores que a estudam. Um dos aspectos que tornam o entendimento desta relação importante é seu possível impacto na praxis da política antitruste, já que esta assume que a concorrência perfeita é a estrutura de mercado que maximiza o bem-estar. Esta dissertação investiga o impacto da concentração de mercado (HHI) nos gastos em atividades inovativas para o caso dos setores industriais brasileiros através de uma análise de dados em painel. A partir de informações sobre os gastos em diferentes atividades inovativas e de características da indústria testa-se a hipótese de que a concorrência influencia os gastos em P&D internos às firmas na forma de um U invertido, como prevêem Scherer e Ross (1989) e Aghion et al. (2002). Os principais resultados encontrados indicam que essa relação em U invertido realmente existe e que o índice de concentração que maximiza os gastos em P&D interno é, em torno de, 0,30 de HHI. Apesar disso, quando efeitos específicos da indústria são controlados, o poder de explicação do HHI decai. Um segundo resultado importante é que quando se examina as atividades inovativas com menor risco associado, como capacitação tecnológica, a relação entre concentração e gastos inovativos é negativa.
Resumo:
Esse trabalho comparou, para condições macroeconômicas usuais, a eficiência do modelo de Redes Neurais Artificiais (RNAs) otimizadas por Algoritmos Genéticos (AGs) na precificação de opções de Dólar à Vista aos seguintes modelos de precificação convencionais: Black-Scholes, Garman-Kohlhagen, Árvores Trinomiais e Simulações de Monte Carlo. As informações utilizadas nesta análise, compreendidas entre janeiro de 1999 e novembro de 2006, foram disponibilizadas pela Bolsa de Mercadorias e Futuros (BM&F) e pelo Federal Reserve americano. As comparações e avaliações foram realizadas com o software MATLAB, versão 7.0, e suas respectivas caixas de ferramentas que ofereceram o ambiente e as ferramentas necessárias à implementação e customização dos modelos mencionados acima. As análises do custo do delta-hedging para cada modelo indicaram que, apesar de mais complexa, a utilização dos Algoritmos Genéticos exclusivamente para otimização direta (binária) dos pesos sinápticos das Redes Neurais não produziu resultados significativamente superiores aos modelos convencionais.
Resumo:
O objetivo deste trabalho é analisar o desempenho de estimadores de volatilidade que utilizam valores extremos (máximo, mínimo, abertura e fechamento) para ativos no mercado brasileiro. Discute-se o viés dos estimadores usando como referências o estimador clássico, a volatilidade realizada e a volatilidade implícita de 1 mês da série de opções no dinheiro (ATM - at the money); discute-se a eficiência quanto à previsibilidade da volatilidade futura usando o estimador clássico e a volatilidade implícita defasados um período para frente como variáveis dependentes e a eficiência em si, isto é, quanto ao tamanho da variância do estima-dor. Como representantes de ativos brasileiros, foram escolhidos a paridade BRL/USD spot e o Índice Bovespa. Além de bastante líquidos, esses dois ativos têm bastante importância no mercado brasileiro, seja como benchmark para investimentos, bem como ativos-base para muitos derivativos operados na Bolsa de Mercadorias e Futuros (BM&F) e na Bolsa de Va-lores de São Paulo (Bovespa). A volatilidade do ativo-base é uma das variáveis para o apre-çamento de derivativos como opções; muitas estratégias são montadas, no mercado financei-ro, utilizando-a como referência. A volatilidade também é bastante usada no gerenciamento de riscos, em modelos como o Value at Risk (VaR), por exemplo.
Resumo:
Várias metodologias de mensuração de risco de mercado foram desenvolvidas e aprimoradas ao longo das últimas décadas. Enquanto algumas metodologias usam abordagens não-paramétricas, outras usam paramétricas. Algumas metodologias são mais teóricas, enquanto outras são mais práticas, usando recursos computacionais através de simulações. Enquanto algumas metodologias preservam sua originalidade, outras metodologias têm abordagens híbridas, juntando características de 2 ou mais metodologias. Neste trabalho, fizemos uma comparação de metodologias de mensuração de risco de mercado para o mercado financeiro brasileiro. Avaliamos os resultados das metodologias não-paramétricas e paramétricas de mensuração de VaR aplicados em uma carteira de renda fixa, renda variável e renda mista durante o período de 2000 a 2006. As metodologias não-paramétricas avaliadas foram: Simulação Histórica pesos fixos, Simulação Histórica Antitética pesos fixos, Simulação Histórica exponencial e Análise de Cenário. E as metodologias paramétricas avaliadas foram: VaR Delta-Normal pesos fixos, VaR Delta-Normal exponencial (EWMA), Simulação de Monte Carlo pesos fixos e Simulação de Monte Carlo exponencial. A comparação destas metodologias foi feita com base em medidas estatísticas de conservadorismo, precisão e eficiência.
Resumo:
Esta dissertação analisa o desempenho e as características de uma parte dos atuais fundos de fundos brasileiros, os denominados multigestores, bem como o desempenho de fundos de fundos resultantes da simulação de carteiras de fundos brasileiros que utilizam várias estratégias de investimentos, conhecidos como multimercados. A diversificação através de uma carteira de fundos multimercados envolve outras variáveis além da tradicional abordagem de média-variância. A primeira parte do estudo apresenta as principais características dos fundos de fundos selecionados e descreve, além da média e variância, o terceiro e quarto momentos das distribuições dos retornos. A segunda parte utiliza a ferramenta chamada Análise de Estilo (Sharpe, 1988), para determinar a exposição dos retornos de cada um dos fundos de fundos da amostra a determinadas classes de ativos. Neste trabalho foram escolhidas as seguintes classes de ativos: Ibovespa, CDI, Dólar e IRF-M. Através da abordagem de média-variância, a terceira parte do estudo utiliza a ferramenta conhecida na Teoria da Carteira (Markowitz, 1952) como fronteira de mínima variância, para avaliar o desempenho de cada um dos fundos de fundos da amostra. O desempenho é avaliado com base na comparação da fronteira de mínima variância construída a partir de uma carteira de referência (composta por dois dos principais ativos financeiros brasileiros de baixo e alto risco: CDI e Ibovespa, respectivamente) com outra fronteira de mínima variância construída a partir do acréscimo de um fundo de fundos à carteira de referência. A última parte refere-se a simulações de carteiras de fundos multimercados que permitem a alocação de renda variável na carteira e também permitem o uso de alavancagem. Seu objetivo é verificar, através dos valores de retorno médio, variância, assimetria e curtose, a eficiência desses fundos como instrumentos de diversificação. Os resultados mostram que os 32 fundos de fundos multigestores analisados não tem distribuição normal de retornos e 29 apresentam assimetria negativa. A Análise de Estilo indica grande sensibilidade ao CDI e ao IRF-M, e pouca sensibilidade ao Ibovespa e Dólar, importantes índices do mercado financeiro. A maioria dos fundos de fundos multigestores melhorou a Fronteira Eficiente quando adicionados a uma carteira de referência (CDI + Ibovespa), ou seja, houve uma redução na relação risco-retorno. A simulação das carteiras indica que nos últimos três anos os fundos multimercados classificados como Com Renda Variável Com Alavancagem tem sido mais agressivos nas estratégias, devido ao comportamento da assimetria, porém o comportamento da curtose indica também uma posição nem tão agressiva. Logo, a construção de carteiras com fundos que utilizam diversas estratégias de investimentos não deve se restringir à abordagem de média-variância. Deve também envolver também assimetria, curtose e preferências do investidor.
Resumo:
O objetivo desse trabalho é analisar e precificar o prêmio de liquidez exigido pelos investidores nas negociações de debêntures do mercado secundário brasileiro, com base no yield to maturity diário desses papéis. Os testes econométricos foram realizados com base no modelo apresentado por Houweling, Mentink e Vorst (2005) e aplicado ao mercado de eurobonds nos períodos de 1999 a 2001. Foi implementado um modelo de 5 variáveis para controlar, através de betas e características, os outros tipos de risco determinantes do spread das debêntures que não a liquidez. O conhecido modelo de títulos de renda fixa de dois fatores Fama-French (1993) foi utilizado para controlar os riscos de crédito e de taxas de juros, foram incorporados efeitos marginais, através das características individuais (rating e duration) das debêntures e uma adaptação para as particularidades do mercado brasileiro foi realizada, com a inclusão de um fator baseado na taxa PréxDI da duration dos portfólios. Para esse estudo, foram consideradas 4 proxies de liquidez largamente utilizadas na literatura: Volume de Emissão, Idade da Emissão, Número de Transações no dia e Spread de Compra e Venda, sendo o modelo estimado uma vez para cada proxy analisada. Para realizar os testes de regressão e precificar o prêmio de liquidez no mercado secundário de debêntures do Brasil, todas as variáveis do modelo foram calculadas para cada uma das amostras de dados. Posteriormente, para cada proxy de liquidez foram construídos diariamente portfólios mutuamente excludentes, com as debêntures segregadas em portfólios de acordo com a proxy de liquidez em questão, conforme a metodologia proposta por Brennan e Subrahmanyam (1996). A base de dados, que somou 16.083 amostras, se fundamentou nas cotações de mercado fornecidas diariamente pelo Sistema Nacional de Debêntures no período de Maio de 2004 a Novembro de 2006. A hipótese nula de que não existe prêmio de liquidez embutido nos spreads das debêntures negociadas no mercado secundário brasileiro é rejeitada para todas as proxies analisadas. De acordo com a proxy de liquidez utilizada, o prêmio de liquidez no mercado secundário de debêntures varia de 8 a 30 basis points.
Resumo:
Este trabalho estuda a lucratividade dos modelos de Análise Técnica no mercado de câmbio brasileiro. Utilizando a metodologia de White (2000) para testar 1712 regras geradas a partir de quatro modelos de Análise Técnica verifica-se que a melhor regra não possui poder de previsibilidade significante ao se considerar os efeitos de data-snooping. Os resultados indicam que o mercado de câmbio brasileiro está de acordo com a hipótese de mercado eficiente sugerida pela literatura.
Resumo:
A FGV Projetos foi convidada pelo Ministério do Desenvolvimento, Indústria e Comércio Exterior do Brasil para criar um modelo de mercado que aumentasse a oferta de projetos baseados no Mecanismo de Desenvolvimento Limpo do Protocolo de Quioto e que melhorasse a transparência e eficiência na formação de preços no mercado de carbono.
Resumo:
Este trabalho teve como objetivo identificar o impacto do risco de liquidez nos retornos excedentes esperados das debêntures no mercado secundário brasileiro. Foram realizadas análises de regressão em painel desbalanceado com dados semestrais de 101 debêntures ao longo de oito semestres (primeiro semestre de 2006 ao segundo semestre de 2009), totalizando 382 observações. Sete proxies (Spread de Compra e Venda, %Zero Returns, Idade, Volume de Emissão, Valor Nominal de Emissão, Quantidade Emitida e %Tempo) foram utilizadas para testar o impacto do risco de liquidez nos yield spreads das debêntures. O yield spread foi controlado por até dez outras variáveis determinantes que não a liquidez (Fator Juros, Fator Crédito, Taxa Livre de Risco, Rating, Duration, quatro variáveis contábeis e Volatilidade de equity). A hipótese nula de que não há prêmio de liquidez para o mercado secundário de debêntures no Brasil foi rejeitada apenas para três das sete proxies (Spread de Compra e Venda, Valor Nominal de Emissão e Quantidade Emitida). Os prêmios encontrados são bastante baixos (1,9 basis point para cada 100 basis point de incremento no Spread de Compra e Venda, 0,5 basis point para um aumento de 1% no valor do Valor Nominal de Emissão e 0,17 basis point para cada menos 1000 debêntures emitidas), o que vai ao encontro dos resultados encontrados por Gonçalves e Sheng (2010). De qualquer forma houve perda da eficiência das proxies de liquidez após correção das autocorrelaçôes e potenciais endogeneidades, seja através da inclusão de efeitos fixos, da análise em primeiras diferenças ou da utilização de um sistema de três equações.
Resumo:
Este trabalho analisa as propriedades de alguns índices em busca da melhor aproximação (proxy) para a carteira de mercado brasileira. Além dos usuais Ibovespa, IBrX, FGV-100, são considerados dois índices construídos segundo as diretrizes da Moderna Teoria de Carteiras, a saber, uma carteira ponderada pelo valor de mercado (PV) e uma carteira igualmente ponderada (PI). Em um primeiro teste é analisada a eficiência em média e variância e em um segundo avalia-se o potencial dos índices como fatores de risco sistemático. O estudo cobre o período de 1996 a 2009 e todas as ações negociadas na BOVESPA. Os resultados evidenciam a semelhança nas qualidades dos índices, não sendo possível destacar uma melhor aproximação. Ibovespa, IBrX e FGV-100 são aproximações razoáveis e podem ser utilizadas.
Resumo:
O racional teórico das finanças comportamentais se sustenta em dois grandes pilares: limites de arbitragem e irracionalidade dos investidores. Dentre os desvios de racionalidade conhecidos, um foi de particular interesse para este estudo: o viés da disponibilidade. Este viés acontece nas situações em que as pessoas estimam a frequência de uma classe ou a probabilidade de um evento pela facilidade com que instâncias ou ocorrências podem ser lembradas. O advento da internet permitiu a verificação do viés de disponibilidade em larga escala por meio da análise dos dados de buscas realizadas. I.e., se uma determinada ação é mais procurada que outras, podemos inferir que ela está mais disponível na memória coletiva dos investidores. Por outro lado, a literatura das finanças comportamentais tem um braço mais pragmático, que estuda estratégias capazes de fornecer retornos anormais, acima do esperado pela hipótese do mercado eficiente. Para os fins deste estudo, destaca-se o efeito momento, no qual o grupo de ações de melhor resultado nos últimos J meses tende a fornecer melhores resultados pelos próximos K meses. O propósito deste estudo foi verificar a possibilidade de se obter retornos acima dos identificados pelo efeito momento segmentando-se as carteiras de maior e menor viés de disponibilidade. Os resultados obtidos foram positivos e estatisticamente significativos na amostra selecionada. A estratégia cruzada entre efeito momento e disponibilidade produziu, para J=6 e K=6, retornos médios mensais de 2,82% com estatística t de 3,14. Já a estratégia só de efeito momento, para o mesmo período de formação e prazo de manutenção, gerou retornos médios mensais de apenas 1,40% com estatística t de 1,22.
Resumo:
Este estudo investiga a eficiência de precificação do Ibovespa à vista e futuro. Usando o modelo de custo de carregamento, compara-se o futuro observado com o justo no período de 04/01/2010 a 18/08/2010. Em um mercado eficiente, esses dois preços não podem divergir, pois eventuais diferenças geram oportunidades de arbitragem. O propósito desta dissertação é investigar duas questões: a primeira, se o modelo de custo de carregamento explica a dinâmica de preços observada; a segunda, se existem possibilidades de arbitragem entre os mercados à vista e futuro. A base de dados é composta de dados intradiários de compra e venda do Ibovespa à vista e futuro, calculados em intervalos de um minuto. Verifica-se que o modelo de custo de carregamento não explica o comportamento do mercado e que maiores discrepâncias de preços ocorrem longe do vencimento. Considerando-se custos de transação e prêmio de risco, existem inúmeras possibilidades de arbitragem no mercado, principalmente na operação que o mercado denomina como “reversão”.