999 resultados para Papiro brasileiro
Resumo:
O presente trabalho procura identificar e mensurar as distorções causadas por diferentes tipos de impostos, mas de uma perspectiva analítica em uma pequena economia aberta habitada por consumidores com horizonte de vida infinito. O referencial teórico neoclássico permite apontar as distorções intratemporais e intertemporais no consumo e lazer e suas conseqüências sobre a balança comercial, a conta corrente e o nível de endividamento da economia. Será considerado como dado o nível de gasto público e serão analisadas as alternativas possíveis de impostos em relação ao caso lump-sum. Serão trabalhados os seguintes tipos de impostos: imposto sobre consumo, imposto sobre ativos financeiros, imposto sobre a renda do trabalho e do capital e imposto sobre a produção que, em linhas gerais, representam os principais impostos adotados no Brasil.
Resumo:
Apesar dos aparelhos celulares terem se tornado parte fundamental da comunicação pessoal durante os últimos dez anos, há escassez de pesquisas de ordem acadêmica dedicadas à valoração das diferentes características dos planos e aparelhos celulares. Vários fatores precisam ser levados em conta para se conhecer a percepção de valor dos atributos dos planos e aparelhos celulares, desde as condições microeconômicas que afetam a evolução do mercado de aparelhos celulares em geral, até as decisões e motivações pessoais do processo de decisão de compra de um consumidor. Este estudo procura responder quais atributos são mais valorizados pelo consumidor brasileiro em um aparelho celular pós-pago, bem como o preço destes atributos no mercado. Para isto aplicou-se o método de preços hedônicos a uma base de dados de 48 modelos de celulares diferentes, de seis marcas presentes no mercado brasileiro, de três operadoras, em nove diferentes planos de assinatura, com observações de preços semanais ao longo do ano de 2008, totalizando 27 atributos diferentes e 292.410 observações. Por fim, também é apresentada nesta dissertação uma interpretação do mercado brasileiro pela ótica da Economia das Telecomunicações, e é realizado o cálculo da deflação ocorrida no mercado brasileiro de aparelhos celulares pós-pagos no ano de 2008 levando-se em consideração as mudanças de qualidade, funcionalidades e características destes aparelhos ocorridas ao longo do ano mencionado.
Resumo:
Este trabalho tem como objetivo analisar a relação entre a competição e a estabilidade financeira de quatro dos maiores bancos brasileiros, investigando a hipótese de que a existência de poder de mercado pode representar menos risco para as instituições bancárias atuantes no país. Aplicando as metodologias de Panzar e Rosse (1987) para o grau de competição e o modelo BSM de Black e Scholes (1973) e Merton (1974) para a estabilidade financeira, concluímos que no Brasil, três dos quatro casos analisados apresentaram uma relação inversa entre a competição e a estabilidade financeira, isto é, concluímos nesses casos, que a maior competição implica menor estabilidade das instituições. O estudo utilizou as informações disponíveis pelo Plano Contábil das Instituições do Sistema Financeiro Nacional (COSIF) do Banco Central do Brasil e pela Bolsa de Valores de São Paulo (BM&FBOVESPA), para o período entre o quarto trimestre de 1995 ao quarto trimestre de 2008.
Resumo:
Este trabalho tem por objetivo avaliar a eficiência do mercado acionário brasileiro a partir de testes estatísticos, para posterior modelagem das séries de retorno das ações, utilizando os modelos ARMA, ARCH, GARCH, Modelo de Decomposição e, por final, VAR. Para este trabalho foram coletados dados intradiários, que são considerados dados de alta freqüência e menos suscetíveis a possíveis alterações na estrutura de mercado, tanto micro como macroeconômicos. Optou-se por trabalhar com dados coletados a cada cinco minutos, devido à baixa liquidez dos ativos no mercado financeiro (que poderia acarretar em dados ausentes para intervalos de tempo inferiores). As séries escolhidas foram: Petrobrás PN, Gerdau PN, Bradesco PN, Vale do Rio Doce PN e o índice Ibovespa, que apresentam grande representatividade do mercado acionário brasileiro para o período analisado. Com base no teste de Dickey-Fuller, verificou-se indícios que o mercado acionário brasileiro possa ser eficiente e, assim foi proposto modelos para as séries de retorno das ações anteriormente citadas.
Resumo:
Esse trabalho comparou, para condições macroeconômicas usuais, a eficiência do modelo de Redes Neurais Artificiais (RNAs) otimizadas por Algoritmos Genéticos (AGs) na precificação de opções de Dólar à Vista aos seguintes modelos de precificação convencionais: Black-Scholes, Garman-Kohlhagen, Árvores Trinomiais e Simulações de Monte Carlo. As informações utilizadas nesta análise, compreendidas entre janeiro de 1999 e novembro de 2006, foram disponibilizadas pela Bolsa de Mercadorias e Futuros (BM&F) e pelo Federal Reserve americano. As comparações e avaliações foram realizadas com o software MATLAB, versão 7.0, e suas respectivas caixas de ferramentas que ofereceram o ambiente e as ferramentas necessárias à implementação e customização dos modelos mencionados acima. As análises do custo do delta-hedging para cada modelo indicaram que, apesar de mais complexa, a utilização dos Algoritmos Genéticos exclusivamente para otimização direta (binária) dos pesos sinápticos das Redes Neurais não produziu resultados significativamente superiores aos modelos convencionais.
Resumo:
O Brasil possui um dos maiores mercados de telefonia celular do mundo, resultado de um crescimento impulsionado, sobretudo, pela expansão agressiva do modelo de serviço pré-pago. Este crescimento se deu por meio de grandes investimentos em subsidio como forma de aumentar a atratividade dos aparelhos celulares comercializados nos pontos de venda. Estes investimentos ao mesmo tempo em que aceleraram a captação de novos clientes comprometeram a rentabilidade deste segmento e da margem EBITDA (Earnings Before Interest, Taxes, Depreciation and Amortization) consolidada do setor no Brasil quando comparada a outros países. Portanto, um entendimento apropriado dos atributos mais valorizados pelos consumidores no processo decisório de compra de um aparelho celular é de fundamental importância para melhorar a alocação dos recursos e maximizar o retorno, sem perda de mercado. Este trabalho aplica a Metodologia de Preços Hedônicos como ferramenta para auxiliar na identificação dos atributos relevantes dos aparelhos celulares comercializados no mercado de massa brasileiro e seus respectivos preços implícitos. São 96 aparelhos celulares monitorados semanalmente ao longo do ano de 2007, constituindo mais de 37.000 registros. Como resultado, no estágio de maturidade do mercado na época, foram identificados intensos prêmios de preço associados às características físicas (design) e à presença de atributos relacionados à itens de multimídia (câmeras digitais, vídeos e MP3 player). Por fim, utilizamos o modelo econométrico desenvolvido para simular e identificar o preço sugerido ou potencial de novos celulares, não presentes na amostra utilizada para a regressão, mas constituídos por novas combinações de atributos com preços implícitos já identificados.
Resumo:
Este trabalho explora com cuidado o lado específico da implementação de um modelo de alocação de ativos em que o risco é tratado de maneira integrada, não somente através do desvio padrão do portfólio, mas também considerando outras métricas de risco como, por exemplo, o Expected Shortfall. Além disso, utilizamos algumas técnicas de como trabalhar com as variáveis de modo a extrair do mercado os chamados “invariantes de mercado”, fenômenos que se repetem e podem ser modelados como variáveis aleatórias independentes e identicamente distribuídas. Utilizamos as distribuições empíricas dos invariantes, juntamente com o método de Cópulas para gerar um conjunto de cenários multivariados simulados de preços. Esses cenários são independentes de distribuição, portanto são não paramétricos. Através dos mesmos, avaliamos a distribuição de retornos simulados de um portfólio através de um índice de satisfação que é baseado em uma função de utilidade quadrática e utiliza o Expected Shortfall como métrica de risco. O índice de satisfação incorpora o trade-off do investidor entre risco e retorno. Finalmente, escolhemos como alocação ótima aquela que maximiza o índice de satisfação ajustado a um parâmetro de aversão ao risco. Perseguindo esses passos, é possível obter um portfólio no qual a alocação em cada ativo, ou classe de ativos, reflete o prêmio esperado ao risco incorrido.
Resumo:
O presente trabalho analisa o comportamento da volatilidade do crescimento do produto brasileiro entre 1980 e 2008, cuja trajetória apresenta um declínio de 70% desde 1991. Através da análise do comportamento do PIB, de seus componentes e de seus determinantes, objetiva-se apontar as razões pela qual a volatilidade do crescimento caiu de forma significativa no período considerado. A baixa volatilidade do crescimento do produto traz conseqüências positivas para o bem-estar da sociedade, para a distribuição de renda e para o crescimento econômico de longo prazo. Diferentes estudos foram realizados para apontar as causas do declínio desta volatilidade em diversos países nas últimas três décadas, fenômeno que nos Estados Unidos passou a ser conhecido como The Great Moderation. Dados os benefícios deste processo, entender as suas razões é imprescindível para a formulação de políticas econômicas que garantam a sustentabilidade da moderação dos ciclos econômicos. Este trabalho concentra-se nos fatores nominais (choques de demanda) para explicar o processo de redução da volatilidade do crescimento brasileiro. De um lado, a ausência de restrições externas ao crescimento econômico e o ciclo de prosperidade mundial dos últimos cinco anos garantiram a contribuição da parcela externa. Por outro lado, a condução de políticas macroeconômicas mais sólidas, refletindo em uma maior estabilidade de variáveis como o nível de preços, respondem pelos fatores internos.
Resumo:
O objetivo deste trabalho é analisar o desempenho de estimadores de volatilidade que utilizam valores extremos (máximo, mínimo, abertura e fechamento) para ativos no mercado brasileiro. Discute-se o viés dos estimadores usando como referências o estimador clássico, a volatilidade realizada e a volatilidade implícita de 1 mês da série de opções no dinheiro (ATM - at the money); discute-se a eficiência quanto à previsibilidade da volatilidade futura usando o estimador clássico e a volatilidade implícita defasados um período para frente como variáveis dependentes e a eficiência em si, isto é, quanto ao tamanho da variância do estima-dor. Como representantes de ativos brasileiros, foram escolhidos a paridade BRL/USD spot e o Índice Bovespa. Além de bastante líquidos, esses dois ativos têm bastante importância no mercado brasileiro, seja como benchmark para investimentos, bem como ativos-base para muitos derivativos operados na Bolsa de Mercadorias e Futuros (BM&F) e na Bolsa de Va-lores de São Paulo (Bovespa). A volatilidade do ativo-base é uma das variáveis para o apre-çamento de derivativos como opções; muitas estratégias são montadas, no mercado financei-ro, utilizando-a como referência. A volatilidade também é bastante usada no gerenciamento de riscos, em modelos como o Value at Risk (VaR), por exemplo.
Resumo:
Várias metodologias de mensuração de risco de mercado foram desenvolvidas e aprimoradas ao longo das últimas décadas. Enquanto algumas metodologias usam abordagens não-paramétricas, outras usam paramétricas. Algumas metodologias são mais teóricas, enquanto outras são mais práticas, usando recursos computacionais através de simulações. Enquanto algumas metodologias preservam sua originalidade, outras metodologias têm abordagens híbridas, juntando características de 2 ou mais metodologias. Neste trabalho, fizemos uma comparação de metodologias de mensuração de risco de mercado para o mercado financeiro brasileiro. Avaliamos os resultados das metodologias não-paramétricas e paramétricas de mensuração de VaR aplicados em uma carteira de renda fixa, renda variável e renda mista durante o período de 2000 a 2006. As metodologias não-paramétricas avaliadas foram: Simulação Histórica pesos fixos, Simulação Histórica Antitética pesos fixos, Simulação Histórica exponencial e Análise de Cenário. E as metodologias paramétricas avaliadas foram: VaR Delta-Normal pesos fixos, VaR Delta-Normal exponencial (EWMA), Simulação de Monte Carlo pesos fixos e Simulação de Monte Carlo exponencial. A comparação destas metodologias foi feita com base em medidas estatísticas de conservadorismo, precisão e eficiência.
Resumo:
Esta dissertação estuda a aplicação da estratégia Pairs Trading no mercado acionário brasileiro. Envolve basicamente a identificação de pares de ações que tenham movimentos de preço semelhantes e posteriormente a operação do diferencial entre seus preços. É possível observar no mercado a existência de um valor de equilíbrio de longo prazo para alguns pares de ações e quando o diferencial divergir de certa quantidade pré-definida opera-se o diferencial no intuito de que o mesmo retorne ao seu valor de equilíbrio de longo prazo, ou seja, espera-se que ocorra uma reversão à média do diferencial. A metodologia para a identificação desses pares de ações que descrevem movimentos semelhantes vem do conceito de cointegração. Essa metodologia é aplicada sobre as ações do índice Bovespa de 04-Jan-1993 a 30-Jun-2005. Inicialmente é feita uma pré-seleção dos pares de ações via correlação, ou medida de distância. Para a seleção final é feito o teste de cointegração, onde é utilizado o método de Dickey-Fuller aumentado (Augmented Dickey-Fuller test – ADF) para verificar a existência de raiz unitária da série de resíduo da combinação linear do logaritmo dos preços. Após a seleção, os pares são simulados historicamente (backtesting) para se analisar a performance dos retornos dos pares de ações, incluindo também os custos operacionais.
Resumo:
O objetivo deste trabalho é analisar a alocação de investimentos no mercado acionário brasileiro, utilizando a teoria do prospecto de Tversky e Kahneman (1979) e o conceito de Aversão a Perdas Míope (Myopic Loss Aversion) proposto por Benartzi e Thaler (1995). Foram levantados através de experimento de laboratório os parâmetros da função de valor e da função de ponderação de probabilidades da teoria do prospecto e foi verificada a alocação de investimentos entre ações e renda fixa que maximizam a utilidade. Chegamos à conclusão que o total de recursos atualmente direcionados ao mercado de ações no Brasil, que é de aproximadamente 2,7% para pessoas físicas e de 6,0% para pessoas jurídicas, é compatível com a teoria do prospecto.
Resumo:
O objetivo deste trabalho é examinar a hipótese de que a estrutura a termo das taxas de juros é um bom indicador antecedente das trajetórias futuras da inflação e da atividade econômica, especificamente para o caso brasileiro, no período de 1999 a 2006. As evidências empíricas, examinadas através de regressões da inclinação da curva de juros realizadas contra a variação futura da produção industrial (IBGE) apresentaram resultados pouco robustos, porém coeficientes significativos a 5% (para prazos de projeção de 3 a 18 meses). Quando controlada para outras variáveis explicativas, manteve seu poder de previsão, sugerindo que há conteúdo informacional relevante na inclinação da curva de juros para previsão da produção industrial futura. As regressões realizadas contra a variação futura do PIB a preços constantes (IBGE) apresentaram resultados bastante fracos e coeficientes pouco significativos. Por outro lado, os resultados empíricos das regressões do spread da curva de juros contra a variação futura da inflação (IPCA) mostraram-se robustos, para todas as especificações de diferencial de curva de juros. Novamente, quando controlada para outras variáveis explicativas, manteve seu poder de previsão. As conclusões deste trabalho permitem sugerir aos bancos centrais estar atentos à informação contida na estrutura a termo de juros, utilizando-a como mais um input de informação nos modelos utilizados pela autoridade monetária para suas decisões de política monetária.
Resumo:
A abordagem do Value at Risk (VAR) neste trabalho será feita a partir da análise da curva de juros por componentes principais (Principal Component Analysis – PCA). Com essa técnica, os movimentos da curva de juros são decompostos em um pequeno número de fatores básicos independentes um do outro. Entre eles, um fator de deslocamento (shift), que faz com que as taxas da curva se movam na mesma direção, todas para cima ou para baixo; de inclinação (twist) que rotaciona a curva fazendo com que as taxas curtas se movam em uma direção e as longas em outra; e finalmente movimento de torção, que afeta vencimentos curtos e longos no mesmo sentido e vencimentos intermediários em sentido oposto. A combinação destes fatores produz cenários hipotéticos de curva de juros que podem ser utilizados para estimar lucros e perdas de portfolios. A maior perda entre os cenários gerados é uma maneira intuitiva e rápida de estimar o VAR. Este, tende a ser, conforme verificaremos, uma estimativa conservadora do respectivo percentual de perda utilizado. Existem artigos sobre aplicações de PCA para a curva de juros brasileira, mas desconhecemos algum que utilize PCA para construção de cenários e cálculo de VAR, como é feito no presente trabalho.Nesse trabalho, verificaremos que a primeira componente principal produz na curva um movimento de inclinação conjugado com uma ligeira inclinação, ao contrário dos resultados obtidos em curvas de juros de outros países, que apresentam deslocamentos praticamente paralelos.
Resumo:
As observações relatadas por Myers e Thompson, em seu artigo “Generalized Optimal Hedge Ratio Estimation” de 1989, foram analisadas neste estudo utilizando o boi gordo como a commodity de interesse. Myers e Thompson, demonstraram teórica e empiricamente, ser inapropriado o uso do coeficiente angular da regressão simples, dos preços à vista sobre os preços futuros como forma de estimar a razão ótima de hedge. Porém, sob condições especiais, a regressão simples com a mudança dos preços resultou em valores plausíveis, próximos àqueles determinados por um modelo geral. Este modelo geral, foi desenvolvido com o intuito de estabelecer os parâmetros para comparar as diferentes abordagens na estimativa da razão ótima de hedge. O coeficiente angular da reta da regressão simples e a razão ótima de hedge tem definições similares, pois ambos são o resultado da divisão entre a matriz de covariância dos preços, à vista e futuros e a variância dos preços futuros. No entanto, na razão ótima de hedge estes valores refletem o momento condicional, enquanto que na regressão simples são valores não condicionais. O problema portanto, está em poder estimar a matriz condicional de covariância, entre os preços à vista e futuros e a variância condicional dos preços futuros, com as informações relevantes no momento da tomada de decisão do hedge. Neste estudo utilizou-se o modelo de cointegração com o termo de correção de erros, para simular o modelo geral. O Indicador ESALQ/BM&F foi utilizado como a série representativa dos preços à vista, enquanto que para os preços futuros, foram utilizados os valores do ajuste diário dos contratos de boi gordo, referentes ao primeiro e quarto vencimentos, negociados na Bolsa Mercantil e de Futuros - BM&F. Os objetivos do presente estudo foram: investigar se as observações feitas por Myers e Thompson eram válidas para o caso do boi gordo brasileiro, observar o efeito do horizonte de hedge sobre a razão ótima de hedge e o efeito da utilização das séries diárias e das séries semanais sobre a estimativa da razão ótima de hedge. Trabalhos anteriores realizados com as séries históricas dos preços do boi gordo, consideraram apenas os contratos referentes ao primeiro vencimento. Ampliar o horizonte de hedge é importante, uma vez que as atividades realizadas pelos agentes tomam mais do que 30 dias. Exemplo disto é a atividade de engorda do boi, que pode levar até 120 dias entre a compra do boi magro e a venda do boi gordo. Demonstrou-se neste estudo, que o uso das séries semanais, é o mais apropriado, dado a diminuição substancial da autocorrelação serial. Demonstrou-se também, que as regressões com as mudanças dos preços, resultaram em estimativas da razão de hedge próximas daquelas obtidas com o modelo geral e que estas diminuem com o aumento do horizonte de hedge.