970 resultados para Hipótese de Eficiência do Mercado (HEM)
Resumo:
O presente trabalho apresenta evidências empíricas para o canal de crédito no Brasil, utilizando como base o trabalho de Nelson Sobrinho (2003). O trabalho consisti-se de uma análise descritiva e de diversos testes econométricos baseados em diferentes indicadores do mercado de crédito, monetário e de produção real. A análise descritiva mostrou que embora a proporção crédito/ PIB no Brasil seja pequena quando comprada a outras economias, a mesma tem crescido nos últimos anos. Da mesma forma, por mais que o custo do crédito (medido pelo spread bancário) seja elevado, há uma tendência declinante, o que já sugere alguma evolução positiva para o canal do crédito no país. De fato, calculamos que a medida de alavancagem das empresas brasileiras vem aumentando, e esse aumento pode indicar dependência das firmas aos bancos, uma das condições necessárias para a operação do canal de crédito. Por outro lado, vimos que a maturidade das operações de crédito no Brasil tem se expandido fortemente, e esse crescimento pode gerar alguma perda de eficiência no canal de crédito como transmissor da política monetária. Os testes de causalidade de Granger mostram que crédito Granger causa o produto com defasagem inferior ao encontrado em trabalhos terminados em períodos anteriores há 10 anos, o que sugere que o canal de crédito da política monetária ficou mais rápido quando comparado ao período encerrado em 2001, ao passo que a oferta monetária (M1) não sugere efeitos de causalidades no produto. Nesse sentido, o produto real reage rapidamente a choques de política monetária, porém a análise mostra que o setor varejista reage mais rapidamente do que o setor industrial. Por fim, importante considerar a velocidade do crédito e da moeda para calcular a eficiência do canal de crédito na política monetária no Brasil. Os testes baseados em equações OLS evidenciam que a política monetária consegue afetar a economia real através da velocidade do crédito a partir de dois meses. Dessa forma, as evidências dos testes sugerem que o canal de crédito no Brasil é importante na transmissão da política monetária, conforme o previsto pela teoria do canal de crédito encontrada na literatura econômica; e gera maior valor a avanços nas alterações no produto e, por conseqüência, na inflação, quando utilizada em conjunto com a política monetária via taxa de juros.
Resumo:
A tese tem como objetivo discutir a liquidez do mercado secundário de títulos da dívida pública no Brasil. Em três ensaios, defende que problemas de organização do mercado prejudicam a ampliação da liquidez e que a formação de preços nesse mercado acompanha as taxas do mercado futuro de depósitos interfinanceiros – DI futuro, e não o contrário, como esperado, já que a presença de títulos de elevada liquidez no mercado à vista é que deveria desenvolver o mercado futuro. O primeiro ensaio mede e estima os determinantes do bid-ask spread cotado (indicador de liquidez) para cada vértice de taxa de juros, tendo como referência os vencimentos dos títulos pré-fixados em cabeça de semestre: LTNs (LTN-13 e LTN-11) e NTNFs- (NTNF-17, NTNF-14). Mercados com menores spreads são mais líquidos, mercados com spreads maiores são menos líquidos. Os modelos empíricos foram estimados por meio de análises de séries de tempo. O trabalho utiliza o cálculo do bid-ask cotado para medir a liquidez dos títulos em análise, medido pela diferença entre o ask price e o bid price de fechamento do mercado. A estimação dos determinantes da liquidez de mercado foi realizada com base no método dos mínimos quadrados ordinários (MQO). O modelo testa se maturidade e volume de negócio determinam o bid-ask spread dos títulos. Mercados com menores spreads são mais líquidos do que mercados com maiores spreads. Os resultados mostram que a mediana e a média do bid-ask spread cotado crescem com a maturidade dos títulos. Os sinais dos parâmetros das regressões confirmam para a maioria dos vértices dos vértices analisados neste trabalho a hipótese inicial de que o bid-ask spread aumenta com a elevação maturidade e diminui com maior volume negociado, confirmando a hipótese de baixa liquidez dos títulos públicos no mercado secundário brasileiro. O segundo ensaio analisa uma singularidade relevante do mercado brasileiro: a dependência da formação dos preços e da taxa de juros no mercado secundário de títulos públicos (LTN e NTNF) em relação ao DI futuro. As variáveis utilizadas foram o bid-ask spread cotado e o volume negociado no mercado de títulos públicos e de DI futuro. O ensaio utiliza tanto o método de Granger (1969), que tem como suposto que as informações relevantes para a previsão das variáveis estão contidas exclusivamente nos dados das séries temporais destas mesmas variáveis, quanto o modelo de Geweke (1982) para testar a causalidade, simultaneidade e dependência linear entre as duas séries no tempo. Os resultados confirmam a hipótese inicial de que bid-ask spread e volume de títulos públicos possuem forte dependência do bid-ask spread e do volume para contratos de DI futuro de mesmo vencimento, dependência devida à causalidade do mercado de DI futuro para o mercado de títulos públicos para a maioria dos vértices analisados nesse trabalho, indicando que a taxa CDI é benchmark para a precificação dos títulos públicos. Uma possível explicação está nos fatores de microestrutura, que fazem com que esse mercado seja o mais conveniente para negociar risco de liquidez e de mercado. O terceiro ensaio discute as implicações do desenho institucional sobre a liquidez do mercado secundário de títulos públicos - mecanismos e regras de negociação, desenho dos títulos e base de investidores. Essas regras afetam a formação dos preços no mercado, definem as trocas, a dimensão da assimetria de informação e os custos de transação e do processo de negociação. Pela sua relevância, a organização do mercado de títulos públicos tem sido objeto de reformas em diversos países. O terceiro ensaio é finalizado com a análise das medidas adotadas no Brasil e de seus resultados.
Resumo:
Partindo de uma avaliação sobre o contexto mundial de descentralização fiscal e de democratização em que o Brasil se encontrava no final do século XX, essa tese apresenta na primeira parte uma análise empírica para países em desenvolvimento evidenciando o condicionamento do tipo de regime de governo na relação entre descentralização fiscal e tamanho de governo. Estimações por system-GMM para países em desenvolvimento mostram que existe um nível de descentralização fiscal, entre 20% e 30%, que uma vez superado, resulta em democracias com tamanhos de governos menores do que as ditaduras. Esses resultado, que chama a atenção tanto para os governos locais, como para a influência da democracia no gasto público, estimulou a continuação da pesquisa na avaliação da eficiência dos gastos municipais no Brasil e sua relação com o voto. Assim, no segundo ensaio, são calculados indicadores de evolução da eficiência e da produtividade do gasto municipal (fatores de Malmquist) entre 2004 e 2008, para as áreas da saúde e educação. Os resultados da análise por fronteira estocástica mostram que tanto na educação, como na saúde, houve avanços na fronteira de produção (TFPC, em média, de 18.7%, na educação e de 14.2% na saúde) por avanços de mudança técnica (Technical Change - TC), ao invés de elevação da eficiência (Technical Efficiency Change – TEC). No último ensaio, os indicadores de eficiência e de produtividade são usados para testar a hipótese de que o eleitor municipal premia com o voto os prefeitos que melhoraram a eficiência do gasto da educação e/ou saúde em sua gestão. Os resultados não rejeitam a hipótese para a educação, mas rejeitam para a saúde. A fim de tratar prováveis erros de medida das variáveis de produtividade, as estimações são instrumentalizadas em regressões por dois estágios.
Resumo:
A manutenção de um sistema bancário hígido e com níveis de concorrência que estimulem a oferta de produtos financeiros que atendam à sociedade é um objetivo desejável, porém difícil de ser atingido. A dificuldade resine no trade-off, ainda não consensual, entre questões ligadas à estabilidade sistêmica e questões concorrenciais. Claramente, os sistemas bancários são indispensáveis no processamento de fluxo de capitais e na administração da intermediação entre poupadores e tomadores de crédito (Freixas e Roche, 2007). Essa atividade tem a característica marcante de risco de solvência (Diammond e Dybvig, 1983), mas, ainda assim, não há conformidade de motivo e forma de regulá-la (Dewatripont e Tirole, 1994). Sobre estas questões desenvolvemos uma análise histórico-institucional com o objetivo de contextualizar o estado atual no Brasil. Vale notar que, no setor bancário, também não há consenso sobre as formas de mensurar variáveis importantes para a literatura de Organização Industrial, como Poder de Mercado e Nível de Concorrência. Para contribuir com a discussão metodológica quanto às bases de dados e aos modelos de competição, foram realizados testes com os modelos Bresnahan e Lau (1982), Panzar e Rosse (1987) e Boone (2008), além das medidas usuais de concentração Cn e HHI, avaliando o setor bancário pelas unidades bancárias (CNPJ) e pelos Conglomerados Financeiros. Os testes apontam diferença estatística no uso destas bases a partir de 2004. Outra lacuna existente na literatura é a ausência de modelos para a simulação das variações da oferta de crédito provenientes de variações na estrutura ou modo de competição. Este trabalho também traz contribuições no entendimento das relações de Poder de Mercado e Nível de Competição no Mercado de Empréstimos Bancário brasileiro. Para tanto, são realizados testes, sobre uma estrutura de função de produção, onde os resultados confirmam as hipóteses clássicas quanto ao uso de poder de mercado de forma unilateral e à eficiência de escala, no nível do conglomerado bancário.
Resumo:
Este trabalho busca avaliar a existência de cointegração das ações do mercado brasileiro e a forma de utilização da estratégia de arbitragem estatística pelos gestores. Para isso, utilizou-se preços de ações brasileiras em diferentes frequências e janelas e aplicou-se a metodologia de Johansen e Cavaliere, cuja hipótese nula refere-se a não cointegração dos pares. Os resultados mostram que há poucas relações de cointegração entre as séries analisadas, o que ratifica a necessidade de cautela na forma de implantação da técnica na construção de carteiras.
Resumo:
Este trabalho traz interessantes descobertas acerca do comportamento dos preços das ações no mercado acionário brasileiro. Utilizando a metodologia de Haugen e Baker (1996) e seu Modelo de Fator de Retorno Esperado, o estudo mostra que são cinco os fatores determinantes dos preços das ações no mercado brasileiro, considerando o período de janeiro de 1995 a julho de 2003. Dentre os fatores, dois foram obtidos a partir do comportamento dos preços passados das ações, o que evidencia que o mercado não é eficiente nem em sua forma fraca, conforme os conceitos apresentados por Fama (1970). Além disso, fatores como o beta do CAPM e os betas da APT, os principais modelos de precificação de ativos, não foram incluídos entre os fatores determinantes. A aplicação dos fatores determinantes em duas simulações de investimento, uma sem custos de transação e outra com custos de transação, mostrou que o Modelo de Fator de Retorno Esperado possui boa eficiência na previsão dos retornos das ações, sendo capaz de construir, entre 10 carteiras, aquela com maior retorno em relação às demais e, inclusive, em relação ao principal índice de mercado brasileiro, o Ibovespa. A Carteira 1, com melhor retorno esperado, apresentou retorno médio mensal de 1,78% na simulação sem custos de transação e de 0,46% na simulação com custos de transação, ambos superiores ao retorno médio mensal do Ibovespa, de -0,45%. Além da melhor performance, a análise do perfil dos portfolios apontou resultados também relevantes, especialmente no que concerne ao risco das carteiras. A Carteira 1 apresentou a menor volatilidade dos retornos mensais, o menor beta de mercado, bem como mostrou ser formada por ações de empresas com o menor grau de endividamento do patrimônio líquido.
Resumo:
O esgotamento das reservas de energia fóssil e o processo de mudanças climáticas causadas pelas emissões de GEEs posicionaram os biocombustíveis como a principal fonte alternativa de energia renovável disponível para uso em transportes no curto e médio prazos. Contudo, a presença de externalidades e assimetrias de informação dificultam a verificação da sustentabilidade neste setor. Assim, a emergência do mercado internacional de biocombustíveis mostra-se condicionada pela construção de instituições que garantam a sustentabilidade da produção e consumo desses produtos. O processo de construção das instituições de governança socioambiental é afetado por fatores de ordem técnica, política e institucional. Apoiado em aportes teóricos do institucionalismo econômico e sociológico, o presente estudo buscou analisar que elementos afetam este processo considerando a trajetória de mercados já estabelecidos que apresentam caraterísticas análogas ao setor de biocombustíveis (alimentos orgânicos e produtos florestais). A forma como legislações nacionais, acordos internacionais e sistemas de certificação privada se desenvolveram e interagiram nesses setores apresenta aderência com o processo de construção do mercado de biocombustíveis observado até o momento. Dentre os resultados encontrados, observa-se tendência à convergência entre padrões de sustentabilidade em diferentes legislações nacionais e sistemas de certificação privados devido às externalidades de rede que conferem maior valor a padrões adotados por uma gama mais ampla de usuários. A União Europeia desponta como o principal formador de padrões de sustentabilidade, dado seu perfil importador e o estabelecimento de critérios mais amplos nas legislações dos Estados Membros, geralmente implementada via integração de mecanismos de governança públicos e privados (meta-standards). Apesar do expressivo potencial de consumo, os EUA apresentam menor influência nesse processo devido a considerável capacidade de produção doméstica e a priorização de elementos estratégicos (segurança energética e desenvolvimento rural) no desenho de suas políticas de sustentabilidade para combustíveis de biomassa. Na esfera privada, o desenvolvimento de sistemas de certificação apresenta-se condicionado por elementos técnicos, como a eficiência em cobrir critérios relevantes e os custos incorridos neste processo; e políticos, relacionados à capacidade de legitimição dos atores envolvidos em cada um destes programas de certificação. Também se observa que caraterísticas tecnológicas e organizacionais das cadeias de produção de biocombustíveis afetam a expansão de sistemas de certificação, condicionando tanto os custos para o estabelecimento da cadeia de custódia como a capacidade de coordenação de ações setoriais visando a adoção de práticas sustentáveis que facilitem a obtenção da certificação. Essa relação fica evidente em novas nações que buscam estabelecer um setor bioenergético e enfrentam dificuldades em integrar a agricultura familiar à modelos de produção que respeitem critérios socioambientais vigentes no mercado internacional. A pesquisa revelou a necessidade de um entendimento mais aprofundado da interconexão de novas rotas tecnológicas e atores adentrando no mercado internacional de biocombustíveis. A compreensão dos riscos e potencialidades de novas formas de interação pública e privada na governança socioambiental apresenta-se como um campo prolífico para futuros estudos neste setor e em outros em que atributos ambientais se mostrem relevantes.
Resumo:
O presente trabalho descreve o estudo comparativo entre dois métodos de ensino aplicados à disciplina de Fisiologia Cárdio-respiratória do curso de Graduação em Medicina, no Centro de Ciências Médicas da Universidade Federal do Rio de Janeiro. Os métodos comparados foram: a auto-instrução e o método tradicional. A formulação do problema, o seu contexto e fundamentação teórica são descritos no início do trabalho, que prossegue' presentando o planejamento do curso com o emprego de ambos os métodos. Em seguida, descreve-se a metodologia utilizada no estudo experimental. Foi adotado o esquema de grupos equivalentes com pós-teste, sendo que o grupo experimental e os grupos de controle' foram escolhidos aleatoriamente. A hipótese experimental visava comprovar que a nota ' final', correspondente à verificação da aprendizagem na disciplina, apresenta diferença significativa entre os alunos que foram submetidos ao método de auto-instrução, comparativamente à nota dos alunos que foram submetidos ao método tradicional. O tratamento estatístico utilizado foi a análise da covariância com o nível de significância de 0,05. O resultado da análise da covariância não foi significativo, considerando a média final do aluno no teste-critério, assim como as notas parciais nas cinco semanas do curso. Uma análise de regressão por passos foi feita, visando controlar algumas variáveis pudessem intervir na diferença entre os grupos experimental e de controle. Entre as variáveis escolhidas, pode-se afirmar que é preditora da nota do aluno na disciplina Fisiologia Cárdio-respiratória, a nota anterior do aluno na disciplina Biofísica. Concluindo, sugere-se novas pesquisas no campo, principalmente relativas a tempo efetivamente gasto pelo professor e pelo aluno, utilizando o método de auto-instrução, assim como' medidas de retenção da aprendizagem.
Resumo:
Inúmeros estudos têm sido realizados em outros países, particularmente os Estados Unidos e Reino Unido, sobre as relações entre características estruturais e comportamentais de setores industriais e seu desempenho econômico. O objetivo destes estudos tem sido o de testar uma hipótese teórica referente ao poder de mercado de empresas oligopolísticas.
Resumo:
Abordagem Crítica sobre a premissa predominante na doutrina, em relação ao processo licitatório, como o único meio capaz de atingi r a eficiência administrativa. Busca da verdade real. Melhor proposta no mercado, e não somente a presente nos autos do certame. Análise crítica elaborada a luz da fraude ao Exame Nacional do Ensino Médio de 2009. Dispensa de licitação como meio para se atingir a proposta mai s vantajosa para a Administração em face da obrigatoriedade de licitação exigida pelo Tribunal de Contas da União.
Resumo:
Muito se fala sobre o “apagão de talentos” no mercado de trabalho brasileiro. Os meios de comunicação, inclusive as principais revistas de negócios, têm declarado frequentemente que faltam profissionais qualificados, ora afirmando que esse é um problema generalizado, ora se referindo a uma carência específica de determinado setor da economia. Existem ainda outras afirmações contraditórias, dizendo que o “apagão” não é verdadeiro e que, se há tal carência, ela é reflexo da deficiência das áreas de recursos humanos das organizações. E poucos estudos acadêmicos foram realizados até o momento com o propósito de investigar o assunto de maneira mais aprofundada. Nesse sentido, este estudo contribui para o entendimento das situações enfrentadas pelos gestores que precisam recrutar um executivo de média gerência no mercado de trabalho paulistano. Dentro desse contexto, surge o estudo do conceito de qualificação e o de competências. Muitos autores propõem definições diversas, dificultando a conceitualização, por isso é importante discutir a ideia de “competências” enquanto fundamento da prática de gestão de pessoas. No presente estudo foram utilizadas duas técnicas de investigação: uma quantitativa, com aplicação de questionário em 497 alunos que cursam pós-graduação da Fundação Getulio Vargas na cidade de São Paulo e ocupam posições de gestão em suas organizações, e outra qualitativa, realizada por meio de entrevistas com três profissionais da área de recursos humanos com sólida reputação e forte atuação no mercado de trabalho brasileiro. Com base na análise dos resultados da pesquisa, identificou-se que 77,1% dos gestores avaliam que é um pouco ou muito difícil preencher uma vaga de média gerência; que os modelos de contratação mais adotados nas empresas privilegiam o recrutamento interno, mas que quando questionados sobre as soluções mais comumente empregadas para contornar o problema os dados indicam haver um gap, já que quase a metade das organizações declara recorrer ao recrutamento externo; e 88,3% dos gestores avaliam que há um impacto médio ou alto, para o negócio da empresa, no insucesso na busca pelo profissional mais adequado. Os resultados revelam que a percepção de que faltam profissionais no mercado de trabalho para atender a demanda está de acordo com as notícias veiculadas pelas revistas de negócios e que as sugestões apontadas pelos gestores para solucionar ou minimizar essas questões indicam tratar-se de um tema fundamentalmente relacionado à administração de recursos humanos das organizações.
Resumo:
Apesar de seu uso amplo no mercado financeiro para modelagem dos preços de ações, o modelo de Black Scholes, assim como os demais modelos de difusão, possui por hipótese limitações que não permitem a ele capturar alguns comportamentos típicos desse mercado. Visto isso, diversos autores propuseram que os preços das ações seguem modelos de saltos puros sendo sua modelagem estruturada por um processo de Lévy. Nesse contexto, este trabalho visa apresentar um estudo sobre a precificação de opções do utilizando um modelo desenvolvido por Madan e Seneta (1990) que se baseia no processo de saltos puros conhecido como variância gama (VG). Utilizando como base dados as cotações históricas diárias de ações e opções do mercado brasileiro, além do comportamento da clássica curva ‘smile’ de volatilidade, o trabalho apresenta as curvas de tendência e taxa de variância presentes no modelo de variância gama. Juntos essas três curvas podem ser utilizadas como ferramentas para explicar melhor o comportamento dos preços dos ativos.
Resumo:
Value at Risk (VaR) e Expected Shortfall (ES) são modelos quantitativos para mensuração do risco de mercado em carteiras de ativos financeiros. O propósito deste trabalho é avaliar os resultados de tais modelos para ativos negociados no mercado brasileiro através de quatro metodologias de backtesting - Basel Traffic Light Test, Teste de Kupiec, Teste de Christoffersen e Teste de McNeil e Frey – abrangendo períodos de crise financeira doméstica (2002) e internacional (2008). O modelo de VaR aqui apresentado utilizou duas abordagens – Paramétrica Normal, onde se assume que a distribuição dos retornos dos ativos segue uma Normal, e Simulação Histórica, onde não há hipótese a respeito da distribuição dos retornos dos ativos, porém assume-se que os mesmos são independentes e identicamente distribuídos. Também foram avaliados os resultados do VaR com a expansão de Cornish-Fisher, a qual visa aproximar a distribuição empírica a uma distribuição Normal utilizando os valores de curtose e assimetria para tal. Outra característica observada foi a propriedade de coerência, a qual avalia se a medida de risco obedece a quatro axiomas básicos – monotonicidade, invariância sob translações, homogeneidade e subaditividade. O VaR não é considerado uma medida de risco coerente, pois não apresenta a característica de subaditividade em todos os casos. Por outro lado o ES obedece aos quatro axiomas, considerado assim uma medida coerente. O modelo de ES foi avaliado segundo a abordagem Paramétrica Normal. Neste trabalho também se verificou através dos backtests, o quanto a propriedade de coerência de uma medida de risco melhora sua precisão.
Resumo:
Muitas teorias de finanças implicam em relações monotônicas nos retornos esperados em função de variáveis financeiras, tais como a hipótese de preferência por liquidez e o Capital Asset Pricing Model (CAPM). No entanto, estudos empíricos que testam este tipo de relação não são muitos explorados, principalmente no mercado brasileiro. A contribuição científica neste trabalho é utilizar ativos domésticos e verificar se no mercado nacional estas implicações monotônicas das teorias de finanças são sustentadas empiricamente. Fizemos uma revisão dos testes presentes na literatura para verificar a monotonicidade: os testes t, Bonferroni utilizado por Fama (1984), Wolak (1989) e o teste MR, de Patton e Timmermann (2010). Utilizamos a técnica de bootstrap e incluímos na análise dos resultados os testes “Up” e “Down”. No teste para verificar a hipótese de preferência por liquidez foram utilizadas as séries da taxa referencial de swaps DI pré-fixada para vencimentos de até 1 ano. Os testes convergem e encontram evidências estatísticas de relação monotônica entre os retornos e os prazos de vencimento. No caso do teste no CAPM, foram utilizadas as séries históricas do preço das ações que compuseram o índice IBrX. Contrário ao esperado, para os dados amostrados, os testes não sustentaram a implicação teórica de monotonicidade entre os retornos médios dos portfólios e os betas de mercado ordenados crescentemente. Este resultado é de grande relevância para o mercado brasileiro.
Resumo:
Este trabalho se propõe a avaliar a existência de ciclos de margem de subscrição no mercado segurador brasileiro para os grupos de ramos de automóvel, patrimonial, responsabilidade civil e transportes a partir de dados da SUSEP. É feita uma introdução em seguros, uma revisão dos artigos que foram realizados no mundo sobre o assunto assim como os estudos discorrendo sobre as possíveis causas para a existência destes ciclos. Em seguida são apresentadas as técnicas econométricas de séries de tempo estruturais e o teste HEGY utilizadas para a verificação dessa hipótese. Foram encontrados ciclos nos grupos de ramos de automóveis, patrimoniais e transportes e não encontramos evidências de ciclos para responsabilidade civil e nem para o agregado de ramos. Os resultados desse estudo sobre a existência, ou não dos ciclos, assim como sua duração considerando as particularidades de cada tipo de ramo, periodicidade das séries e utilização ou não da despesa de comercialização foram analisados para cada grupo de ramos, considerando suas particularidades. Finalmente se fez um comparativo dos resultados obtidos nesse estudo com o que está na literatura para diversos outros mercados de seguros de outros países.