967 resultados para Avaliação de ativos


Relevância:

60.00% 60.00%

Publicador:

Resumo:

A globalização e o desenvolvimento da tecnologia da informação ajudaram a intensificar a rivalidade entre empresas, tanto na busca de mercado para seus produtos quanto de recursos para sua produção. Paralelamente, houve uma mudança nas atividades econômicas: da produção de bens para a prestação de serviços. Como conseqüência, o PIB das principais economias passou a ser dominado por serviços e o capital intangível das empresas superou o capital tangível, tanto em valor quanto em importância estratégica. O sucesso empresarial passou, então, a depender menos da alocação estratégica de recursos físicos e financeiros e mais da gestão estratégica do Capital Intelectual. O problema é que enquanto os gestores dependem cada vez mais de indicadores não financeiros, para alocar os recursos de maneira consistente com sua estratégia, a contabilidade financeira não fornece informações suficientes e nem adequadas para a gestão eficiente do Capital Intelectual. Em empresas de prestação de serviços este problema é ainda mais relevante. O objetivo desta Dissertação é explorar o Capital Intelectual em empresas de serviço de auto-atendimento bancário, identificando seus principais direcionadores intangíveis de valor e avaliando-os sob dois aspectos: a sua importância relativa na geração de valor, ou seja, seus pesos; e o seu potencial individual como fonte de vantagem competitiva sustentável. A análise destas informações permite identificar direcionadores que estejam sub ou sobreutilizados, o que pode indicar oportunidades de melhoria no uso do Capital Intelectual da organização. Para atingir esses objetivos será realizado um estudo de caso em uma empresa de auto-atendimento bancário. Espera-se que o resultado possa contribuir para melhorar a gestão em empresas deste segmento.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Trata da avaliação do desempenho de modelos alternativos de precificação de ações no mercado de capitais brasileiro. Testamos modelos de risco uni e multifatorial e um modelo comportamental baseado em características.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Em 1985, Mehra e Prescott levantaram uma questão que até hoje não foi respondida de forma satisfatória: o prêmio de risco das ações americanas é muito maior do que poderia ser explicado pelo “paradigma neoclássico de finanças econômicas” (financial economics) representado pelo modelo C-CAPM. E, a partir de então, este problema não resolvido ficou conhecido como o “Equity Premium Puzzle” (EPP) ou o “Enigma do Prêmio (de risco) das Ações”. Este enigma estimulou a produção de uma série de artigos, dissertações e teses que tentaram ajustar os modelos intertemporais de utilidade esperada aos dados dos mercados financeiros. Dentro deste contexto, esta tese busca (i) revisar a evolução histórica da teoria dos modelos de maximização da utilidade intertemporal dos agentes, (ii) analisar os pressupostos e conceitos chaves desses modelos, (iii) propor um novo modelo que seja capaz de solucionar o EPP, (iv) aplicar este modelo proposto aos dados históricos anuais entre 1929 e 2004 e (v) validar a lógica deste modelo através das metodologias Mehra-Prescott e Hansen-Jagannathan. Esta tese faz uma crítica de que os estudos até aqui desenvolvidos tentaram explicar a dinâmica de um mercado financeiro altamente sofisticado, através de um modelo de economia não-monetária e de subsistência. Assim, a sua contribuição consiste na alteração desse pressuposto de uma economia de subsistência, considerando que a renda disponível do setor privado não seja integralmente consumida, mas que também possa ser poupada. Assumindo que as pessoas obtêm satisfação (utilidade) tanto pelo consumo atual como pela poupança atual (que será o consumo futuro), será deduzido que a utilidade marginal de consumir é igual à de poupar, em todo e qualquer período. Com base nisso, a utilidade marginal a consumir é substituída pela utilidade marginal de poupar dentro do modelo básico do C-CAPM. Para reforçar a idéia de que o modelo desta tese usa dados de poupança em vez de consumo, ao longo do trabalho ele será chamado de Sanving-CAPM, ou S-CAPM. Este novo modelo mostrou-se capaz de solucionar o EPP quando submetidas às abordagens Mehra-Prescott e Hansen-Jagannathan.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

This paper confronts the Capital Asset Pricing Model - CAPM - and the 3-Factor Fama-French - FF - model using both Brazilian and US stock market data for the same Sample period (1999-2007). The US data will serve only as a benchmark for comparative purposes. We use two competing econometric methods, the Generalized Method of Moments (GMM) by (Hansen, 1982) and the Iterative Nonlinear Seemingly Unrelated Regression Estimation (ITNLSUR) by Burmeister and McElroy (1988). Both methods nest other options based on the procedure by Fama-MacBeth (1973). The estimations show that the FF model fits the Brazilian data better than CAPM, however it is imprecise compared with the US analog. We argue that this is a consequence of an absence of clear-cut anomalies in Brazilian data, specially those related to firm size. The tests on the efficiency of the models - nullity of intercepts and fitting of the cross-sectional regressions - presented mixed conclusions. The tests on intercept failed to rejected the CAPM when Brazilian value-premium-wise portfolios were used, contrasting with US data, a very well documented conclusion. The ITNLSUR has estimated an economically reasonable and statistically significant market risk premium for Brazil around 6.5% per year without resorting to any particular data set aggregation. However, we could not find the same for the US data during identical period or even using a larger data set. Este estudo procura contribuir com a literatura empírica brasileira de modelos de apreçamento de ativos. Dois dos principais modelos de apreçamento são Infrontados, os modelos Capital Asset Pricing Model (CAPM)e de 3 fatores de Fama-French. São aplicadas ferramentas econométricas pouco exploradas na literatura nacional na estimação de equações de apreçamento: os métodos de GMM e ITNLSUR. Comparam-se as estimativas com as obtidas de dados americanos para o mesmo período e conclui-se que no Brasil o sucesso do modelo de Fama e French é limitado. Como subproduto da análise, (i) testa-se a presença das chamadas anomalias nos retornos, e (ii) calcula-se o prêmio de risco implícito nos retornos das ações. Os dados revelam a presença de um prêmio de valor, porém não de um prêmio de tamanho. Utilizando o método de ITNLSUR, o prêmio de risco de mercado é positivo e significativo, ao redor de 6,5% ao ano.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

O objetivo deste trabalho é analisar o desempenho de estimadores de volatilidade que utilizam valores extremos (máximo, mínimo, abertura e fechamento) para ativos no mercado brasileiro. Discute-se o viés dos estimadores usando como referências o estimador clássico, a volatilidade realizada e a volatilidade implícita de 1 mês da série de opções no dinheiro (ATM - at the money); discute-se a eficiência quanto à previsibilidade da volatilidade futura usando o estimador clássico e a volatilidade implícita defasados um período para frente como variáveis dependentes e a eficiência em si, isto é, quanto ao tamanho da variância do estima-dor. Como representantes de ativos brasileiros, foram escolhidos a paridade BRL/USD spot e o Índice Bovespa. Além de bastante líquidos, esses dois ativos têm bastante importância no mercado brasileiro, seja como benchmark para investimentos, bem como ativos-base para muitos derivativos operados na Bolsa de Mercadorias e Futuros (BM&F) e na Bolsa de Va-lores de São Paulo (Bovespa). A volatilidade do ativo-base é uma das variáveis para o apre-çamento de derivativos como opções; muitas estratégias são montadas, no mercado financei-ro, utilizando-a como referência. A volatilidade também é bastante usada no gerenciamento de riscos, em modelos como o Value at Risk (VaR), por exemplo.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

O comportamento do retorno excedente de investimentos em moeda estrangeira tem desafiado a ciência econômica. Dois aspectos têm sido particularmente intrigantes: (i) o retorno excedente é significativamente diferente de zero e, (ii) a variância desse retorno é bastante elevada. O objetivo esse trabalho é verificar se modelos baseados no CAPM (capital asset pricing model) internacional são capazes de prever os dois fatos mencionados acima. Para tanto, o trabalho começa descrevendo o comportamento do retorno excedente de investimentos em 13 importantes moedas globais sob a ótica de um investidor norte-americano. Em seguida, três diferentes versões do CAPM internacional são desenvolvidas e estimadas. A conclusão geral é que essa classe de modelos não é plenamente capaz de prever o comportamento do retorno excedente realizado. Porém, ressalva-se que diversos aspectos discutidos neste trabalho como custo de transação, impostos, sample problem e learning, podem ter mascarado os resultados obtidos.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Recent papers in finance presented models in which the idiosyncratic skewness is a priced component of security returns. More specifically, stocks with high expected idiosyncratic skewness should have low expected returns. Boyer, Mitton and Vorkink (2009) showed that it actually happens in the American stock market. The goal of this thesis is to verify if this actually happens in the Brazilian stock market. The result, however, was different than expected: stocks with high expected idiosyncratic skewness have high expected returns. Among the possible explanations for this behavior are the difficult to predict idiosyncratic skewness and even failures in the construction of estimates of idiosyncratic skewness, which are calculated from the residuals of the Fama-French three-factor model.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

The concept of stochastic discount factor pervades the Modern Theory of Asset Pricing. Initially, such object allows unattached pricing models to be discussed under the same terms. However, Hansen and Jagannathan have shown there is worthy information to be brought forth from such powerful concept which undelies asset pricing models. From security market data sets, one is able to explore the behavior of such random variable, determining a useful variance bound. Furthermore, through that instrument, they explore one pitfall on modern asset pricing: model misspecification. Those major contributions, alongside with some of its extensions, are thoroughly investigated in this exposition.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

In this thesis, we investigate some aspects of the interplay between economic regulation and the risk of the regulated firm. In the first chapter, the main goal is to understand the implications a mainstream regulatory model (Laffont and Tirole, 1993) have on the systematic risk of the firm. We generalize the model in order to incorporate aggregate risk, and find that the optimal regulatory contract must be severely constrained in order to reproduce real-world systematic risk levels. We also consider the optimal profit-sharing mechanism, with an endogenous sharing rate, to explore the relationship between contract power and beta. We find results compatible with the available evidence that high-powered regimes impose more risk to the firm. In the second chapter, a joint work with Daniel Lima from the University of California, San Diego (UCSD), we start from the observation that regulated firms are subject to some regulatory practices that potentially affect the symmetry of the distribution of their future profits. If these practices are anticipated by investors in the stock market, the pattern of asymmetry in the empirical distribution of stock returns may differ among regulated and non-regulated companies. We review some recently proposed asymmetry measures that are robust to the empirical regularities of return data and use them to investigate whether there are meaningful differences in the distribution of asymmetry between these two groups of companies. In the third and last chapter, three different approaches to the capital asset pricing model of Kraus and Litzenberger (1976) are tested with recent Brazilian data and estimated using the generalized method of moments (GMM) as a unifying procedure. We find that ex-post stock returns generally exhibit statistically significant coskewness with the market portfolio, and hence are sensitive to squared market returns. However, while the theoretical ground for the preference for skewness is well established and fairly intuitive, we did not find supporting evidence that investors require a premium for supporting this risk factor in Brazil.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Most studies around that try to verify the existence of regulatory risk look mainly at developed countries. Looking at regulatory risk in emerging market regulated sectors is no less important to improving and increasing investment in those markets. This thesis comprises three papers comprising regulatory risk issues. In the first Paper I check whether CAPM betas capture information on regulatory risk by using a two-step procedure. In the first step I run Kalman Filter estimates and then use these estimated betas as inputs in a Random-Effect panel data model. I find evidence of regulatory risk in electricity, telecommunications and all regulated sectors in Brazil. I find further evidence that regulatory changes in the country either do not reduce or even increase the betas of the regulated sectors, going in the opposite direction to the buffering hypothesis as proposed by Peltzman (1976). In the second Paper I check whether CAPM alphas say something about regulatory risk. I investigate a methodology similar to those used by some regulatory agencies around the world like the Brazilian Electricity Regulatory Agency (ANEEL) that incorporates a specific component of regulatory risk in setting tariffs for regulated sectors. I find using SUR estimates negative and significant alphas for all regulated sectors especially the electricity and telecommunications sectors. This runs in the face of theory that predicts alphas that are not statistically different from zero. I suspect that the significant alphas are related to misspecifications in the traditional CAPM that fail to capture true regulatory risk factors. On of the reasons is that CAPM does not consider factors that are proven to have significant effects on asset pricing, such as Fama and French size (ME) and price-to-book value (ME/BE). In the third Paper, I use two additional factors as controls in the estimation of alphas, and the results are similar. Nevertheless, I find evidence that the negative alphas may be the result of the regulated sectors premiums associated with the three Fama and French factors, particularly the market risk premium. When taken together, ME and ME/BE regulated sectors diminish the statistical significance of market factors premiums, especially for the electricity sector. This show how important is the inclusion of these factors, which unfortunately is scarce in emerging markets like Brazil.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Este trabalho analisa as propriedades de alguns índices em busca da melhor aproximação (proxy) para a carteira de mercado brasileira. Além dos usuais Ibovespa, IBrX, FGV-100, são considerados dois índices construídos segundo as diretrizes da Moderna Teoria de Carteiras, a saber, uma carteira ponderada pelo valor de mercado (PV) e uma carteira igualmente ponderada (PI). Em um primeiro teste é analisada a eficiência em média e variância e em um segundo avalia-se o potencial dos índices como fatores de risco sistemático. O estudo cobre o período de 1996 a 2009 e todas as ações negociadas na BOVESPA. Os resultados evidenciam a semelhança nas qualidades dos índices, não sendo possível destacar uma melhor aproximação. Ibovespa, IBrX e FGV-100 são aproximações razoáveis e podem ser utilizadas.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Muitos bancos e fundos de investimento mantêm opções de ações com pouca liquidez em suas carteiras que precisam ser apreçadas diariamente, e esta falta de liquidez gera dificuldades para o processo de apreçamento. A proposta deste trabalho para resolver este problema é utilizar um modelo derivado do CAPM para estimar a superfície de volatilidades implícitas destas opções sem liquidez através da superfície de volatilidades implícitas de opções do Índice BOVESPA, ou de outras opções com maior liquidez. O modelo testado é conhecido como modelo de um fator e é utilizado para o cálculo da variância, e conseqüentemente do risco, de uma ação, ou de uma carteira de ações. Porém, neste trabalho, testaremos a validade da aplicação deste modelo para a obtenção das volatilidades implícitas de opções ilíquidas, mas com liquidez nos ativos objeto, através dos betas obtidos pelo CAPM e de volatilidades implícitas de opções líquidas e com ativos objeto também líquidos. Para o teste, foram utilizadas séries históricas de volatilidades implícitas de opções de compra líquidas de algumas ações negociadas na BM&FBOVESPA no período de 2005 a 2010, e estas foram comparadas com as volatilidades implícitas obtidas através do modelo proposto. Com os resultados, pode-se observar que as volatilidades implícitas obtidas pelo modelo são boas estimativas para apreçarmos opções com deltas próximos de 50% e para vencimentos de até 2 meses.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

O objetivo central desta pesquisa foi o de explorar, descrever e discutir de que forma e em que extensão as empresas se utilizam das informações contábeis tratadas por mecanismos que considerem os reflexos das variações no poder aquisitivo da moeda (Inflação) e das flutuações específicas de preços sobre os resultado e patrimônio empresarial, nos seus sistemas de controles internos e, consequentemente, em seus processos de tomada de decisão, avaliação de desempenho e fixação de tendências para o empreendimento. Em função dos objetivos propostos, a operacionalização desta pesquisa foi desenvolvida em duas etapas. A primeira fase, de caráter qualitativo, constituiu-se no levantamento dos dados básicos necessários ao atingimento dos objetivos desejados, através da aplicação de questionários em 12 (doze) empresas. Através dos dados levantados, foi possível inferir-se que o sistema contábil configura-se na base primária dos relatórios gerenciais das empresas pesquisadas. o modelo da Correção Integral teve sua validade conceitual confirmada, não obstante algumas simpliflcações metodológicas adotadas e o problema da lnadequacidade do padrão monetário utilizado principalmente em 1990. Em que pese ter havido consenso na indicação das distorções provocadas pelo problema do indexador, apenas duas empresas adotaram mecanismos tendentes a anular seus efeitos. Uma importante constatação também, foi o fato de que nas empresas em que se utilizavam sistemas contábeis baseados na metodologia da Lei Societária, como fonte primária, para geração de relatórios gerenciais, as suas adminlstrações não utilizavam tais relatórios como suporte aos seus processos de tomada de decisão, como por exemplo, no processo de estabelecimento de preços. Ressalte-se, também, que o pouco conhecimento da filosofia conceitual e vantagens informativas do modelo da Contabilidade a Custo Corrente Corrigido, tem impedido a sua implantação de forma mais ampla. Saliente-se que 60% das empresas da amostra já se utilizam de mecanismos de avaliação de ativos não monetários, com base em valores correntes (captaçao dos efeitos das flutuações especificas de preços), só que restritos aos itens circulantes (estoques) . Este é, certamente, o caminho para a aplicação plena do modelo, principalmente no âmbito gerencial. A segunda fase, cujo enfoque direcionou-se aos aspectos quantitativos, através do cálculo de indicadores econômicos-financeiros extraídos das demonstrações contábeis das empresas pesquisadas, relativos ao exercício de 1990, e elaborados em consonân ia com as metodologias da Correção Integral e da Lei Societária, buscou-se , mediante análise comparativa, avaliar as pricipais distorções encolvidas, que corroboram, de certa forma, os comentários feitos no parágrafo anterior. A natureza exploratória deste assunto, com deslocamento da ênfase da análise quantitativa, e com enfoque estritamente gerencial, é que o diferencia dos demais desenvolvidos em tempos recentes. Além disso, apresenta como caraterística acessória a busca por informações sugestivas para o desenvolvimento de pesquisas futuras.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

O objetivo deste trabalho é estimar e analisar o grau de transmissão de volatilidade de ativos como ações e moedas entre países utilizando a metodologia de decomposição de variância dos erros de previsão dos modelos de vetores autorregressivos (VAR). Especificamente para este trabalho, o foco foi a transmissão de volatilidade de outros países, como Estados Unidos e os países da Europa, para o Brasil. Podemos, dessa maneira, testar a hipótese de interdependência do Brasil em relação aos outros países em termos de volatilidade para os índices de ações e moedas. Ao final, encontraram-se evidências de que há transmissão de volatilidade de outros países para o Brasil, e que o grau de transmissão entre eles varia com o tempo, sem tendência e com saltos em períodos de incertezas. As evidências encontradas permitem um melhor balanceamento de carteiras entre diferentes países, facilitando o desenvolvimento de estratégias mais eficientes de hedge contra choques propagados entre mercados, além de servir como um sistema de alerta para eventuais distúrbios nos níveis de volatilidade dos mercados brasileiros.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

A presente dissertação trata-se de uma pesquisa bibliográfica sobre o "status of the art" da teoria financeira sobre a análise e mensuração do risco. Ela foi dividida em sete seções, as quais abrangem os seguintes aspectos do tema, apresentada uma breve evolução dos conceitos de risco e seu relacionamento com o lucro. Para tanto é realizado um pequeno levantamento histórico da teoria econômica e financeira neste sentido.