99 resultados para Hipótese de Eficiência do Mercado (HEM)
Resumo:
A presente tese busca analisar as relações entre as estruturas de produto e custo e a verticalização mediante a aplicação da teoria microeconômica básica. Verificamos que os pacotes de canais ofertados ao consumidor podem ser explicados através de 3 efeitos: Discriminação de Preço, Complementariedade entre grupos de canais e Dispersão da propensão a pagar entre grupos de canais. Dentro das hipóteses indicadas acima, identificamos que a renda do consumidor, o estímulo ao consumo de um canal avançado mediante o consumo de um canal básico e/ou a dispersão da propensão a pagar justificam a estratégia de oferta mediante pacotes de canais de televisão. Constatamos que o mercado de TV por Assinatura é caracterizado pelo elevado poder de mercado associado à infra-estrutura de distribuição (custo fixo alto), e que a verticalização entre as empresas da cadeia produtiva do mercado audiovisual é um fenômeno comum desse mercado. Identificamos, ainda, que é possível existir práticas discriminatórias mediante imposição de limites ao uso de redes de distribuidora por programadoras rivais. Entretanto, a Integração Vertical pode ser motivada por questões de economias tecnológicas ou ganhos de integração de monopólios sucessivos que levam a ganhos de eficiência econômica no mercado e não configuram, portanto, práticas discriminatórias. Ao analisarmos os principais modelos para análise da estrutura de mercado, identificamos que o papel do custo fixo é determinante para a estrutura do mesmo e o número de firmas no mercado não determina a eficiência.
Resumo:
Neste trabalho são apresentadas evidências da relevância dos números contábeis dentro da estrutura de Ohlson. Meus resultados sugerem que os valores de patrimônio são superiores aos do lucro em termos de relevância. Também são demonstrados que o resultado contábil não incorpora o resultado econômico de forma conservadora (assimetricamente). Esses resultados são consistentes com a hipótese de que em uma estrutura de mercado de capitais na qual a concentração da propriedade é alta os lucros são menos eficientes como redutores da assimetria informacional do que os valores de patrimônio que permanecem relevantes devido a implicações legais.
Resumo:
A pesquisa testa a existência, no mercado futuro brasileiro, do fenômeno que Keynes denominou de normal backwardation, isto é, a hipótese de que os preços futuros não são estimadores não viesados (unbiased estimators) do preço à vista esperado para o futuro. Quatro contratos futuros negociados na BM&F Bolsa de Mercadorias e Futuros foram estudados, a saber, futuro de Ibovespa, futuro de dólar comercial, futuro de boi gordo e futuro de café arábica, cobrindo o período de julho de 1994 a setembro de 1997. Cada contrato futuro citado foi submetido a quatro testes, sugeridos pelas implicações da hipótese de Keynes. Nossos resultados indicam que normal backwardation não é normal no mercado futuro brasileiro, repetindo as conclusões de vários estudos internacionais.
Resumo:
A pesquisa teve como objetivo testar se preços no mercado futuro brasileiro seguem um passeio aleatório - uma das versões da chamada Hipótese do Mercado Eficiente. Foram estudados os preços dos contratos futuros de Ibovespa e de dólar comercial, de 30 de junho de 1994 a 31 de dezembro de 1998. Aplicação de testes paramétricos e não-paramétricos envolvendo a Relação de Variâncias (Variance Ratio) de Lo-MacKinlay levam à conclusão de que a hipótese testada não pode ser rejeitada, apontando, portanto, para eficiência em tais mercados.
Resumo:
O trabalho é composto de cinco capítulos além da introdução. O capítulo 2 concentra os aspectos teóricos e metodológicos do trabalho. Nele são definidos os conceitos e a técnica a serem utilizados para medir a eficiência e a produtividade dos bancos no Brasil. O capítulo 3 analisa a reestruturação do sistema financeiro brasileiro entre o segundo semestre de 1994 e o final de 1999, destacando as mudanças institucionais, regulatórias e de estrutura de mercado que possam ter influenciado a eficiência e a produtividade dos bancos nesse período. O objetivo desse capítulo étraçar o pano de fundo para a análise das medidas de eficiência e de produtividade. No capítulo 4 são definidas as variáveis, insumos e produtos, utilizadas no estudo. Houve a I preocupação de captar da melhor forma possível as especificidades da indústria bancária brasileira. Além disso, é definida a amostra de bancos e realizada análise exploratória dos dados, a partir das estatísticas descritivas das variáveis. No capítulo 5 são analisados os resultados obtidos a partir da utilização da técnica Análise de Envoltória de Dados (Data Envelopment Analysis - DEA) para estimar. a fronteira eficiente e seu deslocamento, com base nos dados da amostra de bancos privados brasileiros definida no capítulo 3. Finalmente, no capítulo 6 são apresentadas as conclusões e destacados os principais resultados obtidos neste estudo.
Resumo:
Utiliza a técnica de simulação para estimar a "eficiência" de se testar o modelo Capital Asset Pricing Model (CAPM) num mercado com características do mercado acionário paulista, marcado por elevado retorno e alta volatilidade.
Resumo:
O presente trabalho, além de pretender apresentar uma contribuição para o debate em torno do papel do Estado na economia, analisa algumas alternativas de organização e de eficiência econômica para o setor petróleo no Brasil, na hipótese de flexibilização do monopólio estatal.
Resumo:
A presente dissertação analisa o erro de projeção dos analistas de investimentos do sell side, definido como a diferença entre o consenso das projeções dos analistas e o resultado reportado pela empresa. O tamanho do erro de projeção é uma medida da qualidade das projeções dos analistas de um determinado mercado de capitais. Uma vasta literatura acadêmica mostra que uma melhora na qualidade das projeções dos analistas, medida através de uma diminuição do tamanho do erro de projeção, está relacionada com a redução da assimetria de informação e com um aumento do valor de mercado das empresas. São testadas duas regressões, nas quais características das empresas, como setor, tamanho, endividamento e variabilidade do lucro, e características do ambiente de informação da empresa, como listagem de ADR, número de analistas que acompanham a empresa e convergência das projeções, são testadas contra duas métricas do erro de projeção, acurácia e viés. Nossas hipóteses são que existem fatores que influenciam de maneira significativa o tamanho do erro de projeção (acurácia) e o viés das projeções (viés). Estas hipóteses foram confirmadas, isto é, nossas regressões apresentaram pelo menos um fator que se mostrou significativo estatisticamente para influenciar o tamanho do erro de projeção (hipóteses H1 e H2) ou o seu viés (hipótese H3). Entretanto, os resultados mostram que vários fatores que se mostram significativos em testes conduzidos em mercados desenvolvidos – tais como tamanho, endividamento e variabilidade do lucro – não se mostraram significativos no mercado brasileiro. Por outro lado, os fatores relacionados com o resultado do ano projetado ou do ano anterior se mostraram fortemente significativos. Acreditamos que os resultados podem ser explicados de três maneiras: 1) ou a capacidade de adicionar valor dos analistas em relação a modelos estatísticos de projeção é muito pequena, devido à sua falta de habilidade; ou 2) a instabilidade macroeconômica é tão grande domina todos os outros fatores que poderiam influenciar o tamanho do erro de projeção; ou 3) os resultados das empresas nos mercados desenvolvidos são tão administrados, isto é, tão estáveis, que permitem que fatores mais sutis como o tamanho, o nível de endividamento e a variabilidade do lucro se tornem significativos. Esta dissertação não permite distinguir qual das explicações é a correta. Uma de suas limitações é não incluir variáveis referentes à habilidade e experiência dos analistas e, também, variáveis relacionadas a fatores como governança corporativa e disclosure de informações. Em uma linha de pesquisa muito extensa nos países desenvolvidos, mas praticamente inexistente no Brasil, esperamos que estudos futuros supram estas lacunas e nos permitam entender melhor a questão da qualidade das projeções de resultados no contexto brasileiro.
Resumo:
A globalização impõe às empresas a necessidade de flexibilizar, ter competência e inovar para continuarem no mercado, devido à transição de uma economia industrial para uma economia baseada no conhecimento. Esta economia exige das empresas rapidez nas decisões e vantagem competitiva sustentável, que só conseguem alcançar quando desenvolvem a capacidade de inovar de forma contínua. Este trabalho aborda os fatores organizacionais determinantes para uma empresa inovar de forma contínua, identificando como as estratégias de exploitation (eficiência operacional) e exploration (inovação radical) podem coexistir, visto que, por algum tempo, foram consideradas incompatíveis de serem adotadas simultaneamente. Devido à grande experiência profissional do autor deste trabalho, decidiu-se enfocar esses estudos na Motorola, empresa notadamente focada em inovação radical, como no advento do telefone celular, e também na melhoria da eficiência operacional, como no desenvolvimento do processo de melhoria Six-Sigma. Por meio de levantamento bibliográfico, estudo das fases de vida da empresa e aplicação de questionário aos funcionários da Motorola, chegou-se às seguintes conclusões: ratificou-se a importância da coexistência das duas estratégias, para que a empresa sustente a vantagem competitiva; esclareceu-se que tanto eficiência operacional quanto inovação radical são efeitos de uma organização inovadora. A causa primordial de uma empresa, como a Motorola, ser uma organização inovadora reside na condição de existir uma cultura de inovação que valoriza os funcionários, com um intento estratégico declarado de inovar, propiciando a geração de novas idéias, possuindo recursos e processos de modo que sejam gerados resultados econômicos dessas novas idéias, acompanha e melhora seus processos de negócio a fim de manter os parâmetros de qualidade e custos; e a atenção com o consumidor, fornecedores e outras empresas, estas formando parcerias que proporcionem novas fontes de idéias e oportunidades. Dessa forma, uma empresa como a Motorola mantem vantagem competitiva, inovando continuamente.
Resumo:
Este trabalho está dividido em dois ensaios. O primeiro ensaio examina aspectos da liquidez do mercado secundário de títulos públicos no Brasil no período 2003 a 2006 e os determinantes do spread de compra e venda no mercado secundário de LTN - Letra do Tesouro Nacional no período 2005 a 2006. Os spreads foram calculados com base em dados diários de alta freqüência, para períodos de 30 minutos e de um dia. Em linhas gerais, a liquidez é um determinante importante no cálculo do spread. Especificamente os spreads diminuem quando os volumes ofertados aumentam. No caso dos prazos de vencimento, os spreads aumentam quando os prazos se ampliam. LTNs com prazos de vencimentos até 30 dias apresentaram spreads de 1 centavo de reais (1.89 bp) enquanto que LTNs com prazos acima de dois anos apresentaram spreads médios em torno de 54 centavos de reais (3.84 bp) para intervalos de 30 minutos e 81 centavos de reais (5.72 bp) para intervalos de um dia. Os testes econométricos foram realizados com base em um modelo apresentado por Chakravarty e Sarkar (1999) e aplicado ao mercado americano de bonds no período de 1995 e 1997. Os testes foram feitos utilizando-se a técnica do Método dos Momentos Generalizados (GMM). Os resultados confirmam o spread de compra e venda como medida importante no acompanhamento da liquidez. O segundo ensaio compara aspectos da liquidez e da microestrutura do mercado de títulos públicos em alguns paises como Brasil, Chile, México, Coréia, Singapura, Polônia e Estados Unidos. A análise utiliza algumas dimensões da microestrutura como a liquidez do mercado secundário (spread de compra e venda, giro do estoque de títulos e vencimentos mais negociados), os custos de eficiência, a estrutura e transparência do mercado primário e secundário e, por último, a segurança do mercado. O objetivo é comparar as características e o funcionamento dos mercados secundários desses paises e, confrontar com a realidade do mercado brasileiro face ao desenvolvimento da microestrutura. Apesar da falta de alongamento dos prazos dos títulos públicos, o mercado secundário no Brasil apresenta aspectos da microestrutura semelhantes aos paises em consideração o que sugere a existência de outros fatores fora a microestrutura que limitam o aumento dos prazos. Os resultados do primeiro ensaio ajudam nas comparações dos demais paises. Como resultado, encontramos que embora a liquidez do mercado secundário de títulos públicos no Brasil concentra-se em papéis de prazo menor, este fato provavelmente não se deve a questões de microestrutura do mercado.
Resumo:
Esta tese analisou a cadeia da carne bovina no Brasil com o objetivo de identificar a existência de assimetrias nas relações comerciais entre seus agentes (pecuaristas, frigoríficos e supermercados). Foram investigadas duas formas de assimetria: a diferença de conteúdo informacional entre os agentes econômicos, no mercado futuro de boi gordo da BM&F e a possibilidade de exercício de poderes de mercado e de barganha nas relações comerciais dentro dessa cadeia. A análise de poder de mercado baseou-se na estrutura analítica de Crespi, Gao e Peterson (2005), e permitiu inferir que existe poder de mercado na aquisição de bois pelos frigoríficos, o que vai ao encontro dos resultados observados em outros oligopólios de estrutura caracterizada por um mercado pulverizado na ponta fornecedora e por um processo local, isto é, na própria região, de escoamento da produção. Implementou-se uma análise complementar sobre a estrutura de formação do preço do boi, na qual identificou-se que São Paulo é a região formadora dos preços. A relação entre frigoríficos e supermercados foi analisada através do modelo momentum threshold autoregression (M-TAR) e observou-se que os supermercados apropriam-se das reduções observada no preço do atacado e repassam ao varejo eventuais aumentos de preços no atacado. Portanto, é possível concluir que os supermercados têm poder de barganha junto aos frigoríficos, o que era esperado, pelo fato de esses estabelecimentos adquirirem volumes significativos e se posicionarem como principais canais de distribuição da carne. E, por fim, verificou-se a existência de assimetrias informacionais entre os participantes do mercado futuro de boi gordo da BM&F, mensurada por meio de uma análise sobre a relação entre a volatilidade dos preços futuros e as posições por tipo de participante. Os resultados encontrados corroboraram a hipótese de que os frigoríficos têm mais informação, no mercado futuro, que os demais agentes.
Resumo:
A relação entre estrutura de mercado e inovação tecnológica é um tema amplamente discutido, mas não existe concordância entre os autores que a estudam. Um dos aspectos que tornam o entendimento desta relação importante é seu possível impacto na praxis da política antitruste, já que esta assume que a concorrência perfeita é a estrutura de mercado que maximiza o bem-estar. Esta dissertação investiga o impacto da concentração de mercado (HHI) nos gastos em atividades inovativas para o caso dos setores industriais brasileiros através de uma análise de dados em painel. A partir de informações sobre os gastos em diferentes atividades inovativas e de características da indústria testa-se a hipótese de que a concorrência influencia os gastos em P&D internos às firmas na forma de um U invertido, como prevêem Scherer e Ross (1989) e Aghion et al. (2002). Os principais resultados encontrados indicam que essa relação em U invertido realmente existe e que o índice de concentração que maximiza os gastos em P&D interno é, em torno de, 0,30 de HHI. Apesar disso, quando efeitos específicos da indústria são controlados, o poder de explicação do HHI decai. Um segundo resultado importante é que quando se examina as atividades inovativas com menor risco associado, como capacitação tecnológica, a relação entre concentração e gastos inovativos é negativa.
Resumo:
Esse trabalho comparou, para condições macroeconômicas usuais, a eficiência do modelo de Redes Neurais Artificiais (RNAs) otimizadas por Algoritmos Genéticos (AGs) na precificação de opções de Dólar à Vista aos seguintes modelos de precificação convencionais: Black-Scholes, Garman-Kohlhagen, Árvores Trinomiais e Simulações de Monte Carlo. As informações utilizadas nesta análise, compreendidas entre janeiro de 1999 e novembro de 2006, foram disponibilizadas pela Bolsa de Mercadorias e Futuros (BM&F) e pelo Federal Reserve americano. As comparações e avaliações foram realizadas com o software MATLAB, versão 7.0, e suas respectivas caixas de ferramentas que ofereceram o ambiente e as ferramentas necessárias à implementação e customização dos modelos mencionados acima. As análises do custo do delta-hedging para cada modelo indicaram que, apesar de mais complexa, a utilização dos Algoritmos Genéticos exclusivamente para otimização direta (binária) dos pesos sinápticos das Redes Neurais não produziu resultados significativamente superiores aos modelos convencionais.
Resumo:
O objetivo deste trabalho é analisar o desempenho de estimadores de volatilidade que utilizam valores extremos (máximo, mínimo, abertura e fechamento) para ativos no mercado brasileiro. Discute-se o viés dos estimadores usando como referências o estimador clássico, a volatilidade realizada e a volatilidade implícita de 1 mês da série de opções no dinheiro (ATM - at the money); discute-se a eficiência quanto à previsibilidade da volatilidade futura usando o estimador clássico e a volatilidade implícita defasados um período para frente como variáveis dependentes e a eficiência em si, isto é, quanto ao tamanho da variância do estima-dor. Como representantes de ativos brasileiros, foram escolhidos a paridade BRL/USD spot e o Índice Bovespa. Além de bastante líquidos, esses dois ativos têm bastante importância no mercado brasileiro, seja como benchmark para investimentos, bem como ativos-base para muitos derivativos operados na Bolsa de Mercadorias e Futuros (BM&F) e na Bolsa de Va-lores de São Paulo (Bovespa). A volatilidade do ativo-base é uma das variáveis para o apre-çamento de derivativos como opções; muitas estratégias são montadas, no mercado financei-ro, utilizando-a como referência. A volatilidade também é bastante usada no gerenciamento de riscos, em modelos como o Value at Risk (VaR), por exemplo.
Resumo:
Várias metodologias de mensuração de risco de mercado foram desenvolvidas e aprimoradas ao longo das últimas décadas. Enquanto algumas metodologias usam abordagens não-paramétricas, outras usam paramétricas. Algumas metodologias são mais teóricas, enquanto outras são mais práticas, usando recursos computacionais através de simulações. Enquanto algumas metodologias preservam sua originalidade, outras metodologias têm abordagens híbridas, juntando características de 2 ou mais metodologias. Neste trabalho, fizemos uma comparação de metodologias de mensuração de risco de mercado para o mercado financeiro brasileiro. Avaliamos os resultados das metodologias não-paramétricas e paramétricas de mensuração de VaR aplicados em uma carteira de renda fixa, renda variável e renda mista durante o período de 2000 a 2006. As metodologias não-paramétricas avaliadas foram: Simulação Histórica pesos fixos, Simulação Histórica Antitética pesos fixos, Simulação Histórica exponencial e Análise de Cenário. E as metodologias paramétricas avaliadas foram: VaR Delta-Normal pesos fixos, VaR Delta-Normal exponencial (EWMA), Simulação de Monte Carlo pesos fixos e Simulação de Monte Carlo exponencial. A comparação destas metodologias foi feita com base em medidas estatísticas de conservadorismo, precisão e eficiência.