99 resultados para Fama-MacBeth regressions
Resumo:
Partindo de uma avaliação sobre o contexto mundial de descentralização fiscal e de democratização em que o Brasil se encontrava no final do século XX, essa tese apresenta na primeira parte uma análise empírica para países em desenvolvimento evidenciando o condicionamento do tipo de regime de governo na relação entre descentralização fiscal e tamanho de governo. Estimações por system-GMM para países em desenvolvimento mostram que existe um nível de descentralização fiscal, entre 20% e 30%, que uma vez superado, resulta em democracias com tamanhos de governos menores do que as ditaduras. Esses resultado, que chama a atenção tanto para os governos locais, como para a influência da democracia no gasto público, estimulou a continuação da pesquisa na avaliação da eficiência dos gastos municipais no Brasil e sua relação com o voto. Assim, no segundo ensaio, são calculados indicadores de evolução da eficiência e da produtividade do gasto municipal (fatores de Malmquist) entre 2004 e 2008, para as áreas da saúde e educação. Os resultados da análise por fronteira estocástica mostram que tanto na educação, como na saúde, houve avanços na fronteira de produção (TFPC, em média, de 18.7%, na educação e de 14.2% na saúde) por avanços de mudança técnica (Technical Change - TC), ao invés de elevação da eficiência (Technical Efficiency Change – TEC). No último ensaio, os indicadores de eficiência e de produtividade são usados para testar a hipótese de que o eleitor municipal premia com o voto os prefeitos que melhoraram a eficiência do gasto da educação e/ou saúde em sua gestão. Os resultados não rejeitam a hipótese para a educação, mas rejeitam para a saúde. A fim de tratar prováveis erros de medida das variáveis de produtividade, as estimações são instrumentalizadas em regressões por dois estágios.
Resumo:
Foram comparados os resultados de quatro estratégias de investimento associadas ao efeito momentum que utilizam a cotação máxima dos ativos nas últimas 52 semanas como critério de escolha das ações. Os resultados das estratégias foram comparados entre si e também em relação ao IBOVESPA no período de 03/01/2000 e 01/07/2010. Em todas elas é encontrado um índice resultante da divisão do preço do ativo na data de composição do portfólio pela sua cotação máxima nas últimas 52 semanas, de acordo com este índice são escolhidos os portfólios comprados, neutros e vendidos. Primeiramente, foram reproduzidas uma estratégia ativa (I52- ATIVA) e outra neutra (I52-NEUTRA) de acordo com a proposta de George e Hwang (2004). As outras duas estratégias (I52-PESOATIVA e I52-PESONEUTRA) apresentam uma extensão da proposta inicial de George e Hwang (2004), em que é adicionado um fator de peso que pondera o tempo decorrido entre a data de ocorrência da cotação máxima observada nas últimas 52 semanas e a data de composição dos portfólios; o objetivo desta extensão é verificar se a data de ocorrência da cotação máxima é um diferencial para a estratégia momentum. Houve destaque, sob os diversos critérios analisados, das estratégias que utilizaram o fator de ponderação do tempo decorrido entre a data de ocorrência da cotação máxima observada nas últimas 52 semanas e a data de composição dos portfólios, mostrando que este critério pode contribuir positivamente para a composição da estratégia original proposta por George e Hwang (2004). O trabalho corrobora os resultados apresentados nos trabalhos de Jegadeesh e Titman (1993) e de George e Hwang (2004) e denota um desafio à visão de que os mercados são eficientes na forma semi-forte, conforme proposto por Fama (1970), afinal foram construídos a partir de informações públicas e de ampla divulgação e mesmo assim apresentam algum fator preditivo nos retornos futuros.
Resumo:
O modelo de três fatores de Fama & French (1993) é uma extensão do modelo de precificação de ativos de Sharpe (1963), Lintner (1965) e Black (1972), o CAPM. Em Fama & French (1993), o valor de mercado e o valor contábil das empresas são adicionados como variáveis explicativas ao fator de risco de mercado β do CAPM. O objetivo deste trabalho é testar o poder explicativo do modelo de três fatores para o mercado acionário brasileiro. A inovação deste trabalho foi a utilização de um universo de ações móvel, no qual os títulos que são lançados na Bovespa no período de análise vão sendo incorporadas à base de dados conforme atingem os requisitos do modelo. Trata-se de uma abordagem inovadora, já que tradicionalmente o universo de ações que compõe a amostra é rígido do início ao fim do período de análise. Esta abordagem foi desenvolvida com o intuito de mitigar o problema de falta de dados do mercado acionário brasileiro. O período de análise foi de 2000 à 2011, e as ações utilizadas foram todas aquelas que possuíam um histórico confiável e apresentaram pelo menos um negócio à cada dois meses. A análise do Modelo de Três Fatores foi realizada utilizando a metodologia de séries temporais de Black, Jensen e Scholes (1972), da mesma forma que Fama & French (1993). Como variável dependente foram utilizadas 16 carteiras, oriundas do cruzamento das ações dividas em 4 percentis iguais pelos seus valores de mercado (ME), e 4 percentis iguais pela razão valor de mercado pelo valor contábil (ME/BE). Como variáveis independentes foram construídas duas séries de retorno que replicam os fatores de risco valor de mercado, SMB, e a razão valor de mercado pelo valor contábil, HML. Estas foram construídas pela diferença dos retornos das ações de maior ME e menor ME; e pela diferença do retorno das de maior ME/BE, pelas de menor ME/BE. O método de estimação dos coeficientes das regressões utilizado foi o dos mínimos quadrados ordinários. Os resultados do Modelo encontrados para a bolsa brasileira foram similares àqueles encontrados por Fama & French (1993). O Modelo apresentou maior poder explicativo para os retornos dos portfolios analisados que o CAPM, e mostrou-se estatisticamente significante para 15 das 16 carteiras. Os coeficientes das regressões relativos aos fatores de risco SMB e HML apresentaram, em sua maioria, os mesmo sinais que os encontrados por Fama & French (1993). Foi encontrada uma discrepância relativa ao sinal do fator HML para as carteiras de maior ME/BE, cuja explicação está atrelada ao momento da economia e mercados no período. Por fim, o Modelo e a discrepância foram reavaliados dividindo-se o período de análise em pré e pós-crise de 2008. O modelo mostrou maior poder explicativo para o período pós-crise que para o pré-crise. A mesma discrepância do sinal de HML foi encontrada no pré-crise, entretanto não foi verificada no pós-crise.
Resumo:
O contexto do funcionalismo público como fonte empregadora tem chamado crescente atenção, uma vez que as práticas de remuneração acima da média de mercado adotadas neste contexto vêm atraindo cada vez mais indivíduos altamente qualificados (Bender & Fernandes, 2006). Entretanto, trata-se de um setor que adota práticas de remuneração que também são caracterizadas pela desigualdade, uma vez que carreiras bem remuneradas co-existem com outras mal remuneradas, por vezes, dentro do mesmo espaço organizacional e executando tarefas similares. Estudos demonstram que, a priori, um ambiente de trabalho que favorece uma situação de desigualdade afeta negativamente diversos aspectos comportamentais dos funcionários que nele exercem atividades (e.g. De Cremer & Van Kleef, 2009; Peters & Van den Bos, 2008; Peters, Van den Bos & Bobocel, 2004). Desta forma, o presente estudo buscou entender como uma situação de desigualdade remuneratória – em que alguns membros se encontram em uma situação de overpayment, enquanto que outros na situação de underpayment – pode influenciar fatores como a autoestima e o comprometimento afetivo dos funcionários públicos com relação aos seus trabalhos. Um órgão público do Poder Executivo Federal, foi escolhido como lócus de pesquisa para analisar estes impactos. A metodologia utilizada na pesquisa teve uma natureza quantitativa e qualitativa. Numa primeira etapa, aplicaram-se 105 questionários a dois grupos distintos de servidores desse órgão público (um grupo tido como overpaid e outro tido como underpaid), tendo sido analisadas, por meio de regressões hierárquicas, os impactos da percepção de justiça salarial na auto-estima e no comprometimento dos funcionários. Posteriormente, realizaram-se 20 entrevistas com funcionários dos dois grupos com o intuito de aprofundar e discutir aspectos mais sensíveis relacionados com os resultados. Dessas análises foi possível confirmar a influência direta do senso de justiça remuneratória que o indivíduo possui na sua auto-estima e no seu comprometimento afetivo. Os resultados da pesquisa demonstram que representantes das carreiras bemremuneradas tendem a comparar-se com outras carreiras melhor remuneradas, evitando a comparação com os colegas do trabalho pertencentes a carreiras menos favorecidas. Entretanto, a influência que o sentimento de justiça tem em ambos os resultados comportamentais analisados é potencializada quanto maior for a percepção do indivíduo acerca da satisfação dos seus pares com o trabalho e com a sua remuneração. Observou-se ainda o efeito moderador da motivação epistêmica nesta relação. Esta pesquisa espera ter contribuído para melhor entender os impactos que políticas salariais podem ter nos funcionários públicos.
Resumo:
Este trabalho consiste na análise sociológica do romance "Terras do Sem Fim", de Jorge Amado. Partimos da idéia de que a obra de arte não é apenas um reflexo da realidade mas que ela é capaz de reproduzir um determinado momento desta realidade, apreendendo-o em toda sua complexidade, embora através de sua própria especificidade. Procuramos portanto ao analisar esta obra captar o princípio estrutural que ordena o mundo ficcional e mostrar de que forma se faz a transposição do plano real ao plano romanesco. Em "Terras do Sem Fim" nos parece que as relações entre as personagens assim como sua trajetória são de terminadas pelo princípio do autoritarismo e da "malandragem”. Nesta sociedade cacaueira do princípio do século transposta para o romance, os coronéis, fazendeiros de cacau, dominam por meio da violência e da fraude, mas para dar livre curso à sua ambição ou para se realizarem no pleno individual, necessitam do concurso dos representantes dos grupos médios (advogados, médicos, funcionários públicos, jornalistas, etc.). Estes de melhor nível educacional, de origem urbana, detentores do "saber" utilizam-se desses trunfos para obterem dinheiro, prestígio social ou fama que os compensem pela sua submissão e lealdade aos coronéis. Em plano secundário, como na vida real, estão os trabalhadores e pessoas humildes que vivem sob a bota dos coronéis, não tendo maior peso político ou influência os acontecimentos. Para compreender essa estrutura social baseada na realidade baiana, partimos da análise da sociedade brasileira no, período estudado (Primeira República), analisando-a do ponto de vista econômico, político e social. Procuramos também mostrar como a formação e a vivência do escritor contribuem para a apreensão dessa realidade mas não seriam por si sós garantia dessa fidelidade que e, em última instância, determinada pela sensibilidade e pelo trabalho criador do artista.
Resumo:
Esta investigação visa o melhor entendimento do fenômeno do crowding em lojas, dentro do contexto do mercado brasileiro, procurando identificar como as respostas dos consumidores variam entre os de renda baixa e renda alta, e buscando fatores que possam melhor explicar essas diferenças. Para atender esses objetivos, adotou-se uma metodologia experimental para testar como o aumento da densidade humana afeta diferentemente as respostas dos consumidores de alta e baixa renda. Como moderadoras da relação entre densidade humana e as respostas de consumidores, utilizaram-se as variáveis renda (alta e baixa) e familiaridade (alta e baixa). Três experimentos de desenhos fatoriais permitiram o teste das hipóteses propostas, por meio de análises multivariadas: ANOVAs, ANCOVAs e regressões lineares. Os estudos demonstraram que renda efetivamente modera as respostas dos consumidores, pois existe substancial diferença entre os consumidores de alta e baixa renda para situações de alta densidade humana em lojas. Foram verificadas as seguintes respostas dos consumidores com menor renda em situações de alta densidade humana: atitude mais positiva e maior nível de satisfação do que os de alta renda; percepção de maior valor hedônico em lojas mais cheias de gente versus os de maior renda. Os resultados contrariam a maioria dos achados de estudos realizados nos Estados Unidos nas últimas décadas. Enquanto a maioria desses estudos indica uma resposta negativa à densidade humana, os resultados desta pesquisa evidenciaram que existem respostas mais positivas para o segmento econômico de consumidores de baixa renda. Constatou-se também o efeito moderador do controle informacional (familiaridade) na relação entre densidade humana e as respostas dos consumidores, e o efeito mediador da percepção de valor hedônico na relação entre densidade e satisfação. Os achados oferecem uma contribuição teórica para enriquecer o entendimento do fenômeno de crowding e ressaltam a importância de se considerar a diversidade do contexto socioeconômico para se garantir o desenvolvimento de generalizações que corretamente reflitam as várias realidades do mercado. Do ponto de vista gerencial, o estudo reforça a necessidade de o varejo desenvolver uma maior distinção em ambientes de loja para melhor satisfazer as diferentes preferências dos diversos segmentos de mercado.
Resumo:
Diversos estudos evidenciam as vantagens da presença de líderes autênticos nas organizações. O presente estudo visa identificar as prioridades, em termos de valores, que impactam na autenticidade de um líder, ou seja, investigar quais as prioridades, em termos de valores, de uma pessoa, que podem influenciar no seu desempenho como líder autêntico. Mais propriamente, quais os Valores – considerando a estrutura de valores propostas por Schwartz (2005) – estão relacionados à expressão das dimensões que compõem as características descritas, na literatura, como sendo o perfil do líder autêntico. Para tanto, foi realizada uma pesquisa quantitativa, com questionário aplicado a 295 indivíduos de organizações com natureza e atuação diversas. Os dados foram analisados a partir de técnicas estatíticas multivariadas, utilizando análise fatorial e regressões lineares múltiplas e hierárquicas. Os resultados apontam que, de todos os valores propostos por Schwartz, apenas a Auto Transcendência relaciona-se positiva e significantemente com a Liderança Autêntica. Não foram identificados quaisquer efeitos de moderação ou interação, na expressão de Liderança, em relação aos pares de variáveis que representam os quadrantes da estrutura de valores. Assim, o estudo aponta para a Auto transcendência, traduzidos nos tipos motivacionais da benevolência e do universalismo, como principal fator preditor da autenticidade de um líder, esta sendo potencializada na medida em que o mesmo amplia suas experiências de coordenação e avança em idade ou tempo de vida.
Resumo:
O conceito de paridade coberta de juros sugere que, na ausência de barreiras para arbitragem entre mercados, o diferencial de juros entre dois ativos, idênticos em todos os pontos relevantes, com exceção da moeda de denominação, na ausência de risco de variação cambial deve ser igual a zero. Porém, uma vez que existam riscos não diversificáveis, representados pelo risco país, inerentes a economias emergentes, os investidores exigirão uma taxa de juros maior que a simples diferença entre as taxas de juros doméstica e externa. Este estudo tem por objetivo avaliar se o ajustamento das condições de paridade coberta de juros por prêmios de risco é suficiente para a validação da relação de não-arbitragem para o mercado brasileiro, durante o período de 2007 a 2010. O risco país contamina todos os ativos financeiros emitidos em uma determinada economia e pode ser descrito como a somatória do risco de default (ou risco soberano) e do risco de conversibilidade percebidos pelo mercado. Para a estimação da equação de não arbitragem foram utilizadas regressões por Mínimos Quadrados Ordinários, parâmetros variantes no tempo (TVP) e Mínimos Quadrados Recursivos, e os resultados obtidos não são conclusivos sobre a validação da relação de paridade coberta de juros, mesmo ajustando para prêmio de risco. Erros de medidas de dados, custo de transação e intervenções e políticas restritivas no mercado de câmbio podem ter contribuído para este resultado.
Resumo:
O presente trabalho tem como objetivo estudar se as cooperativas de crédito influenciam as taxas de juros praticadas pelos bancos comerciais e múltiplos com carteira comercial em suas operações de crédito e de depósitos a prazo. A pesquisa baseou-se no modelo de oligopólio de Monti-Klein (para os bancos), no modelo de Smith (para as cooperativas de crédito) e na teoria de Fama e Jensen sobre problemas de agência para criar uma estrutura teórica que permite entender a interação entre bancos e cooperativas de crédito nos mercados de crédito e de depósitos a prazo. A validade desta estrutura teórica foi testada empiricamente e os resultados evidenciaram que as cooperativas de crédito brasileiras influenciam as taxas de juros de crédito praticadas pelos bancos por meio de sua participação de mercado (market share). Uma maior participação de mercado das cooperativas de crédito está associada a maiores taxas de juros cobradas pelos bancos nas operações de crédito. Os resultados empíricos também evidenciaram que a participação de mercado das cooperativas de crédito não impacta as taxas de juros dos bancos para os depósitos a prazo.
Resumo:
Esse trabalho mostra que o retorno das ações de empresas que possuem como CEO ou Chairman o próprio fundador da empresa supera o retorno do S&P 500 no período de 1995 a 2011. É realizada também uma análise utilizando-se o Modelo de 4 Fatores de Fama-French e o resultado obtido indica que a carteira possui um retorno anualizado em excesso ajustado pelo risco de 5,79% com alta significância estatística e econômica. O trabalho também propõe mais duas análises: uma decomposição setorial da carteira, onde se verifica que o setor de tecnologia é o que mais contribui com o resultado acumulado da carteira; e um estudo sobre o múltiplo P/E (preço sobre lucro) da carteira, que surpreende ao mostrar que o P/E da carteira é sistematicamente superior ao P/E do S&P 500 no período analisado.
Resumo:
This paper argues that changes in the returns to occupational tasks have contributed to changes in the wage distribution over the last three decades. Using Current Population Survey (CPS) data, we first show that the 1990s polarization of wages is explained by changes in wage setting between and within occupations, which are well captured by tasks measures linked to technological change and offshorability. Using a decomposition based on Firpo, Fortin, and Lemieux (2009), we find that technological change and deunionization played a central role in the 1980s and 1990s, while offshorability became an important factor from the 1990s onwards.
Resumo:
In this paper, we analyze the impact of hosting the Summer Olympics on macroeconomic aggregates such as GDP, consumption, government consumption and investments per capita. The data is in panel structure and includes the period of ten years before and ten years after the event containing the Olympic Summer Games between 1960 and 1996. The sample countries comprise only candidates to host the games. This sampling strategy allows us to estimate the average treatment effect consistently, because it is assumed that these countries are comparable to each other, including those that ultimately hosted the games. The impact of hosting the Olympic games is measured by Fixed Effect and First Difference regressions. Moreover, we do a structural break test developed by Andrews (1993) to identify if hosting the Olympic Games creates anticipation effects for demand changes that stimulate current GDP, consumption, government consumption and investments. The results indicate a positive effect of the Summer Olympics in all variables of interest. However, the distribution in time and anticipation of these effects is unclear in the tests, changing significantly depending on the model and the significance level used.
Resumo:
O mercado brasileiro de ofertas públicas iniciais a partir de 2004 passou por um reaquecimento. O período até 2008, segundo a Agência Brasileira de Desenvolvimento Industrial – ABDI (2009) foi marcado pela aceleração das saídas de investidores em Private Equity e Venture Capital (PE/VC) via mercado de ações. Esses fundos são bem ativos nas empresas investidas e buscam ter acesso e influenciar as decisões dos administradores, exigem um volume grande de informações gerenciais, se preocupam com a profissionalização da gestão da empresa além de impor práticas de governança e transparência. Por serem investidores ativos espera-se que as empresas que tiveram participação desses veículos de investimento no momento anterior a abertura do capital apresentem retornos melhores do que outras sem essa participação. Assim objetivo desse estudo é verificar se há evidencias de que a presença de fundos de private equitiy ou venture capital no capital social da empresa antes de seu lançamento afeta o desempenho de longo prazo de suas ações, no presente estudo estabelecido como até 3 anos. Foi utilizada a metodologia de estudo de eventos para a investigação dos retornos de uma amostra de 126 IPOs ocorridos entre 2004 e 2011 no Brasil. A metodologia empregada tem como base o trabalho de Ritter (1991) com as recomendações de Khotari e Warner (2006), Ahern (2009) e Mackinlay (1997). Para o cálculo dos retronos anormais acumulados, ou cummulative abnormal returns – CAR utilizou-se o retorno ajustado pelo mercado, ou Market Adjusted Returns Equaly Wheighted, MAREW, utilizando como benchmark o Ibovespa e tendo como base um portifólio com pesos iguais. Verificou-se que há um retorno anormal médio de 3,47% no dia do lançamento que com o passar do tempo o retorno se torna negativo, sendo -15,27% no final do primeiro ano, -37,32% no final do segundo ano e chegando a -36,20% no final do terceiro ano. Para verificar o que influencia o CAR no longo prazo, foram relizadas regressões para os períodos de 1, 6, 12, 24 e 36 com as variáveis de controle Tamanho da Empresa, Tamanho da Oferta, Proporção da Oferta Primária, Idade, Quantidade de Investidores e Underprice para medir qual a influência de um fundo de Private Equity no retorno excedente acumulado das ações. A presença de um fundo de Private Equity ou Venture Capital se mostrou significativa apenas depois de seis meses do lançamento.
Resumo:
Esse trabalho tem como objetivo investigar a existência de um prêmio de liquidez nas ações brasileiras. Através da construção de portfólios classificados por diferentes medidas de liquidez é possível testar o diferencial esperado de retorno e o risco incorrido. O retorno esperado do portfólio construído com ações menos líquidas é significantemente superior ao retorno do portfólio construído com as mais líquidas e as medidas convencionais de risco (mercado e fatores Fama-French) não explicam este excesso de retorno. Foram testadas diferentes medidas de liquidez sendo a metodologia proposta por Hwang e Lu (2007) aquela onde o efeito é mais considerável. Em conjunto, as evidências mostram a existência de um prêmio de liquidez no Brasil.
Resumo:
Este estudo compara previsões de volatilidade de sete ações negociadas na Bovespa usando 02 diferentes modelos de volatilidade realizada e 03 de volatilidade condicional. A intenção é encontrar evidências empíricas quanto à diferença de resultados que são alcançados quando se usa modelos de volatilidade realizada e de volatilidade condicional para prever a volatilidade de ações no Brasil. O período analisado vai de 01 de Novembro de 2007 a 30 de Março de 2011. A amostra inclui dados intradiários de 5 minutos. Os estimadores de volatilidade realizada que serão considerados neste estudo são o Bi-Power Variation (BPVar), desenvolvido por Barndorff-Nielsen e Shephard (2004b), e o Realized Outlyingness Weighted Variation (ROWVar), proposto por Boudt, Croux e Laurent (2008a). Ambos são estimadores não paramétricos, e são robustos a jumps. As previsões de volatilidade realizada foram feitas através de modelos autoregressivos estimados para cada ação sobre as séries de volatilidade estimadas. Os modelos de variância condicional considerados aqui serão o GARCH(1,1), o GJR (1,1), que tem assimetrias em sua construção, e o FIGARCH-CHUNG (1,d,1), que tem memória longa. A amostra foi divida em duas; uma para o período de estimação de 01 de Novembro de 2007 a 30 de Dezembro de 2010 (779 dias de negociação) e uma para o período de validação de 03 de Janeiro de 2011 a 31 de Março de 2011 (61 dias de negociação). As previsões fora da amostra foram feitas para 1 dia a frente, e os modelos foram reestimados a cada passo, incluindo uma variável a mais na amostra depois de cada previsão. As previsões serão comparadas através do teste Diebold-Mariano e através de regressões da variância ex-post contra uma constante e a previsão. Além disto, o estudo também apresentará algumas estatísticas descritivas sobre as séries de volatilidade estimadas e sobre os erros de previsão.