351 resultados para Mercado de luxo
Resumo:
Apesar dos aparelhos celulares terem se tornado parte fundamental da comunicação pessoal durante os últimos dez anos, há escassez de pesquisas de ordem acadêmica dedicadas à valoração das diferentes características dos planos e aparelhos celulares. Vários fatores precisam ser levados em conta para se conhecer a percepção de valor dos atributos dos planos e aparelhos celulares, desde as condições microeconômicas que afetam a evolução do mercado de aparelhos celulares em geral, até as decisões e motivações pessoais do processo de decisão de compra de um consumidor. Este estudo procura responder quais atributos são mais valorizados pelo consumidor brasileiro em um aparelho celular pós-pago, bem como o preço destes atributos no mercado. Para isto aplicou-se o método de preços hedônicos a uma base de dados de 48 modelos de celulares diferentes, de seis marcas presentes no mercado brasileiro, de três operadoras, em nove diferentes planos de assinatura, com observações de preços semanais ao longo do ano de 2008, totalizando 27 atributos diferentes e 292.410 observações. Por fim, também é apresentada nesta dissertação uma interpretação do mercado brasileiro pela ótica da Economia das Telecomunicações, e é realizado o cálculo da deflação ocorrida no mercado brasileiro de aparelhos celulares pós-pagos no ano de 2008 levando-se em consideração as mudanças de qualidade, funcionalidades e características destes aparelhos ocorridas ao longo do ano mencionado.
Resumo:
Este trabalho tem por objetivo avaliar a eficiência do mercado acionário brasileiro a partir de testes estatísticos, para posterior modelagem das séries de retorno das ações, utilizando os modelos ARMA, ARCH, GARCH, Modelo de Decomposição e, por final, VAR. Para este trabalho foram coletados dados intradiários, que são considerados dados de alta freqüência e menos suscetíveis a possíveis alterações na estrutura de mercado, tanto micro como macroeconômicos. Optou-se por trabalhar com dados coletados a cada cinco minutos, devido à baixa liquidez dos ativos no mercado financeiro (que poderia acarretar em dados ausentes para intervalos de tempo inferiores). As séries escolhidas foram: Petrobrás PN, Gerdau PN, Bradesco PN, Vale do Rio Doce PN e o índice Ibovespa, que apresentam grande representatividade do mercado acionário brasileiro para o período analisado. Com base no teste de Dickey-Fuller, verificou-se indícios que o mercado acionário brasileiro possa ser eficiente e, assim foi proposto modelos para as séries de retorno das ações anteriormente citadas.
Resumo:
A presente dissertação tem como objeto de estudo a superfície de volatilidade implícita de opções européias da paridade Real / Dólar no mercado brasileiro. Este trabalho não tenta explicar as deformações ou os desvios da volatilidade implícita com relação à hipótese de volatilidade constante do modelo de Black & Scholes (1973), mas trata a volatilidade implícita como uma variável financeira interessante por si só, procurando analisar a dinâmica de sua superfície. Para a análise desta superfície, o presente estudo propõe a utilização de uma ferramenta empregada em estudos empíricos de diversos ramos da ciência: a Análise de Componentes Principais – ACP (Principal Component Analysis). As mudanças na superfície de volatilidade alteram o apreçamento das opções de uma carteira. Desta forma, constituem um fator de risco que precisa ser estudado e entendido para o desenvolvimento de estratégias de imunização e de técnicas de gerenciamento de risco, dentre elas o cálculo de Valor em Risco (V@R – Value at Risk). De posse dos resultados obtidos com a análise de componentes principais da superfície de volatilidade implícita, o presente estudo tem por objetivo obter valores limite de variação desta volatilidade implícita, como forma de estimar as conseqüentes variações extremas nos valores de uma carteira de opções. Para tanto, baseia-se em estudos sobre a aplicação da análise de componentes principais da superfície de volatilidade implícita desenvolvidos por Alexander (2001). Estes estudos, por sua vez, são derivados de estudo sobre a dinâmica de curvas de volatilidade proposto por Derman (1999). Para se verificar a eficiência da metodologia proposta, os valores extremos obtidos são testados de acordo com os critérios de teste retroativo propostos pela emenda ao comitê da Basiléia de 1996.
Resumo:
O objetivo deste trabalho é caracterizar o padrão de concorrência no mercado de leite fluido (longa vida e pasteurizado) na cidade de São Paulo a partir de evidências sobre os movimentos de preços no varejo e do comportamento das margens de mercado. Utilizou-se o modelo originalmente proposto por Houck (1977) acrescido das observações feitas por Carman e Sexton (2005). Essa abordagem separa as variáveis explicativas entre aumentos e diminuições de preços pagos ao produtor. Além de maior clareza na sua estrutura, essa construção permite comparar a defasagem entre esses dois movimentos e estudar a estratégia de preços dos agentes a partir das margens dos intermediários. O período analisado foi de dezembro de 1999 à dezembro de 2005, com dados de preços ao consumidor da FIPE e dados de preços ao produtor da CEPEA/ USP. Identificou-se que o padrão de concorrência do leite longa vida é bastante diverso do encontrado para o leite pasteurizado. Enquanto para o longa vida o padrão de concorrência é mais próximo do modelo competitivo, para o leite pasteurizado o padrão encontrado foi de pouca concorrência. Para compreender essas diferenças, foi discutido o aspecto locacional do varejo e a importância do mercado relevante geográfico. Os resultados permitem algumas inferências para análises setoriais e de políticas públicas voltadas à produção leiteira. O vertiginoso crescimento das vendas de leite longa vida, absorvendo grande parte do mercado antes abastecido pelo leite pasteurizado, trouxe maior concorrência nos segmentos de indústria e distribuição, assim como maior velocidade de transmissão de preços ao longo da cadeia produtiva. Entretanto, a precificação com markups com percentual fixo, observada no leite longa vida, indica que indústria e distribuição gozam de algum poder de mercado e que variações de custo da matéria-prima são repassadas mais que proporcionalmente, em termos absolutos, ao consumidor final.
Resumo:
Esse trabalho comparou, para condições macroeconômicas usuais, a eficiência do modelo de Redes Neurais Artificiais (RNAs) otimizadas por Algoritmos Genéticos (AGs) na precificação de opções de Dólar à Vista aos seguintes modelos de precificação convencionais: Black-Scholes, Garman-Kohlhagen, Árvores Trinomiais e Simulações de Monte Carlo. As informações utilizadas nesta análise, compreendidas entre janeiro de 1999 e novembro de 2006, foram disponibilizadas pela Bolsa de Mercadorias e Futuros (BM&F) e pelo Federal Reserve americano. As comparações e avaliações foram realizadas com o software MATLAB, versão 7.0, e suas respectivas caixas de ferramentas que ofereceram o ambiente e as ferramentas necessárias à implementação e customização dos modelos mencionados acima. As análises do custo do delta-hedging para cada modelo indicaram que, apesar de mais complexa, a utilização dos Algoritmos Genéticos exclusivamente para otimização direta (binária) dos pesos sinápticos das Redes Neurais não produziu resultados significativamente superiores aos modelos convencionais.
Resumo:
O Brasil possui um dos maiores mercados de telefonia celular do mundo, resultado de um crescimento impulsionado, sobretudo, pela expansão agressiva do modelo de serviço pré-pago. Este crescimento se deu por meio de grandes investimentos em subsidio como forma de aumentar a atratividade dos aparelhos celulares comercializados nos pontos de venda. Estes investimentos ao mesmo tempo em que aceleraram a captação de novos clientes comprometeram a rentabilidade deste segmento e da margem EBITDA (Earnings Before Interest, Taxes, Depreciation and Amortization) consolidada do setor no Brasil quando comparada a outros países. Portanto, um entendimento apropriado dos atributos mais valorizados pelos consumidores no processo decisório de compra de um aparelho celular é de fundamental importância para melhorar a alocação dos recursos e maximizar o retorno, sem perda de mercado. Este trabalho aplica a Metodologia de Preços Hedônicos como ferramenta para auxiliar na identificação dos atributos relevantes dos aparelhos celulares comercializados no mercado de massa brasileiro e seus respectivos preços implícitos. São 96 aparelhos celulares monitorados semanalmente ao longo do ano de 2007, constituindo mais de 37.000 registros. Como resultado, no estágio de maturidade do mercado na época, foram identificados intensos prêmios de preço associados às características físicas (design) e à presença de atributos relacionados à itens de multimídia (câmeras digitais, vídeos e MP3 player). Por fim, utilizamos o modelo econométrico desenvolvido para simular e identificar o preço sugerido ou potencial de novos celulares, não presentes na amostra utilizada para a regressão, mas constituídos por novas combinações de atributos com preços implícitos já identificados.
Resumo:
O presente estudo demonstra que o mercado brasileiro cambial de forward reflete adequadamente a visão dos economistas – obtida junto a pesquisas de mercado realizadas periodicamente pelo Banco Central do Brasil – quando se modela o prêmio pelo risco cambial através de modelos auto-regressivos condicionais generalizados de heteroscedasticidade na Média (GARCH-M).
Resumo:
Nos fundos de fundos multimercado brasileiros, os contratos incentivados são realizados por meio da taxa de desempenho que é diretamente proporcional à rentabilidade do fundo quando esta atinge determinado patamar. A taxa de desempenho nos fundos é reconhecida por funções como o alinhamento de interesses, que minimiza o risco moral e a sinalização ao mercado. O sinal emitido pela empresa gestora que decide cobrar a taxa mostra ao mercado que esta última, está disposta a alinhar seus interesses com os do investidor, ou seja, aumentar o patrimônio do fundo com o menor risco possível. O objetivo deste trabalho é avaliar se a taxa de desempenho é um sinal crível, no qual o investidor pode basear-se para tomar sua decisão. Para realizar esta análise é demonstrada uma revisão da literatura sobre contratos de incentivo e sinalização. Em uma segunda etapa, são feitas duas análises quantitativas. A primeira é um teste para verificação da efetividade do sinal emitido pela empresa gestora que cobra taxa de desempenho. Para tanto são comparadas as taxas de crescimento dos fundos que cobram e dos fundos que não cobram a taxa. A segunda análise é um teste da credibilidade do sinal. Para ser crível o sinal emitido pelos fundos que cobram taxa de desempenho, deve existir alguma diferença entre investir em um tipo de fundo ou no outro. Para fazer esta comparação foram utilizados índices de rentabilidade e de relação risco retorno. Por fim é feita uma análise conjunta dos resultados obtidos como tentativa de explicar o comportamento do investidor. O intuito é tentar explicar como o investidor se comporta perante o sinal emitido pela empresa gestora, e se este comportamento está de acordo com o esperado.
Resumo:
O objetivo desse trabalho é avaliar o comportamento da variável preço para os medicamentos líderes de mercado no Brasil após a entrada de concorrentes similares e posteriormente a instituição dos medicamentos genéricos no Brasil. Segundo estudos realizados no mercado norte-americano, os medicamentos originais reagiriam à entrada de concorrentes genéricos de forma positiva no que se refere à variação de seu preço de comercialização. Dessa forma, os medicamentos originais se concentrariam nos segmentos de mercado mais inelásticos e com menor sensibilidade a possíveis alterações no seu preço de venda. Tal comportamento contradiz a intuição econômica comum de que a entrada de novos concorrentes em um mercado levaria a redução de preços por parte da empresa dominante. Os resultados desse trabalho, sobre o mercado farmacêutico brasileiro, indicam que as marcas líderes respondem positivamente em relação a aumento de seus preços quando da perda de participação de mercado para marcas seguidoras como genéricos e similares. Por outro lado, quando da presença de um aumento de competição entre as marcas seguidoras, se verifica uma diminuição de preços dessas marcas e um aumento da dispersão relativa dos preços das marcas seguidoras em relação à marca líder.
Resumo:
Este trabalho tem como objetivo analisar a queda de taxa de juros e o mecanismo de canal de crédito como propulsor do mercado secundário de hipotecas no Brasil. A estabilidade macroeconômica aliada ao movimento de queda da taxa de juros e as novas regras institucionais aprovadas em 2004, especialmente para alavancar o setor de construção civil, serviram como pontapé inicial para a expansão rápida de crédito, com atenção ao imobiliário. Formou-se assim a condição inicial necessária, mas não suficiente, para a criação de um mercado secundário de hipotecas no Brasil. Utiliza-se neste trabalho um modelo VAR desenvolvido por Lehnert, Passmore e Sherlund para estudar os impactos da queda da taxa de juros na emissão de títulos securitizados de crédito imobiliário e aumento do número de transações destes títulos.
O impacto das políticas de direcionamento de crédito e de depósitos compulsórios no mercado bancário
Resumo:
Esta dissertação tem por objetivo demonstrar que a adoção, pelo Governo Brasileiro, de políticas de direcionamento de crédito para setores considerados prioritários e de depósitos compulsórios sobre o volume de depósitos, ambos com taxas de remuneração subsidiadas em relação às taxas de juros interbancários, gera impactos para uma ampla parcela da sociedade, tanto através das taxas de juros dos empréstimos concedidos a setores não prioritários quanto através das taxas pagas pelos bancos comerciais no mercado de depósitos. Esses efeitos ajudam a explicar por que os spreads bancários no Brasil são maiores do que os da maioria dos países. No primeiro capitulo são discutidos os principais argumentos a favor e contra a adoção dessas políticas. No segundo capítulo é efetuada a modelagem teórica do comportamento dos bancos, através de uma adaptação do modelo Monti-Klein, para se chegar aos impactos da adoção dessas políticas no comportamento dos bancos comerciais. A seguir, são realizadas regressões para encontrar evidências empíricas que comprovem os resultados obtidos na modelagem teórica. Por fim, foram consolidados os resultados obtidos, indicando alternativas de política para a redução dos impactos nocivos na sociedade e indica-se linhas de pesquisa a serem desenvolvidas para aprofundar o entendimento desses impactos.
Resumo:
O objetivo deste trabalho é analisar o desempenho de estimadores de volatilidade que utilizam valores extremos (máximo, mínimo, abertura e fechamento) para ativos no mercado brasileiro. Discute-se o viés dos estimadores usando como referências o estimador clássico, a volatilidade realizada e a volatilidade implícita de 1 mês da série de opções no dinheiro (ATM - at the money); discute-se a eficiência quanto à previsibilidade da volatilidade futura usando o estimador clássico e a volatilidade implícita defasados um período para frente como variáveis dependentes e a eficiência em si, isto é, quanto ao tamanho da variância do estima-dor. Como representantes de ativos brasileiros, foram escolhidos a paridade BRL/USD spot e o Índice Bovespa. Além de bastante líquidos, esses dois ativos têm bastante importância no mercado brasileiro, seja como benchmark para investimentos, bem como ativos-base para muitos derivativos operados na Bolsa de Mercadorias e Futuros (BM&F) e na Bolsa de Va-lores de São Paulo (Bovespa). A volatilidade do ativo-base é uma das variáveis para o apre-çamento de derivativos como opções; muitas estratégias são montadas, no mercado financei-ro, utilizando-a como referência. A volatilidade também é bastante usada no gerenciamento de riscos, em modelos como o Value at Risk (VaR), por exemplo.
Resumo:
Várias metodologias de mensuração de risco de mercado foram desenvolvidas e aprimoradas ao longo das últimas décadas. Enquanto algumas metodologias usam abordagens não-paramétricas, outras usam paramétricas. Algumas metodologias são mais teóricas, enquanto outras são mais práticas, usando recursos computacionais através de simulações. Enquanto algumas metodologias preservam sua originalidade, outras metodologias têm abordagens híbridas, juntando características de 2 ou mais metodologias. Neste trabalho, fizemos uma comparação de metodologias de mensuração de risco de mercado para o mercado financeiro brasileiro. Avaliamos os resultados das metodologias não-paramétricas e paramétricas de mensuração de VaR aplicados em uma carteira de renda fixa, renda variável e renda mista durante o período de 2000 a 2006. As metodologias não-paramétricas avaliadas foram: Simulação Histórica pesos fixos, Simulação Histórica Antitética pesos fixos, Simulação Histórica exponencial e Análise de Cenário. E as metodologias paramétricas avaliadas foram: VaR Delta-Normal pesos fixos, VaR Delta-Normal exponencial (EWMA), Simulação de Monte Carlo pesos fixos e Simulação de Monte Carlo exponencial. A comparação destas metodologias foi feita com base em medidas estatísticas de conservadorismo, precisão e eficiência.
Resumo:
Esta dissertação estuda a aplicação da estratégia Pairs Trading no mercado acionário brasileiro. Envolve basicamente a identificação de pares de ações que tenham movimentos de preço semelhantes e posteriormente a operação do diferencial entre seus preços. É possível observar no mercado a existência de um valor de equilíbrio de longo prazo para alguns pares de ações e quando o diferencial divergir de certa quantidade pré-definida opera-se o diferencial no intuito de que o mesmo retorne ao seu valor de equilíbrio de longo prazo, ou seja, espera-se que ocorra uma reversão à média do diferencial. A metodologia para a identificação desses pares de ações que descrevem movimentos semelhantes vem do conceito de cointegração. Essa metodologia é aplicada sobre as ações do índice Bovespa de 04-Jan-1993 a 30-Jun-2005. Inicialmente é feita uma pré-seleção dos pares de ações via correlação, ou medida de distância. Para a seleção final é feito o teste de cointegração, onde é utilizado o método de Dickey-Fuller aumentado (Augmented Dickey-Fuller test – ADF) para verificar a existência de raiz unitária da série de resíduo da combinação linear do logaritmo dos preços. Após a seleção, os pares são simulados historicamente (backtesting) para se analisar a performance dos retornos dos pares de ações, incluindo também os custos operacionais.
Resumo:
A abordagem do Value at Risk (VAR) neste trabalho será feita a partir da análise da curva de juros por componentes principais (Principal Component Analysis – PCA). Com essa técnica, os movimentos da curva de juros são decompostos em um pequeno número de fatores básicos independentes um do outro. Entre eles, um fator de deslocamento (shift), que faz com que as taxas da curva se movam na mesma direção, todas para cima ou para baixo; de inclinação (twist) que rotaciona a curva fazendo com que as taxas curtas se movam em uma direção e as longas em outra; e finalmente movimento de torção, que afeta vencimentos curtos e longos no mesmo sentido e vencimentos intermediários em sentido oposto. A combinação destes fatores produz cenários hipotéticos de curva de juros que podem ser utilizados para estimar lucros e perdas de portfolios. A maior perda entre os cenários gerados é uma maneira intuitiva e rápida de estimar o VAR. Este, tende a ser, conforme verificaremos, uma estimativa conservadora do respectivo percentual de perda utilizado. Existem artigos sobre aplicações de PCA para a curva de juros brasileira, mas desconhecemos algum que utilize PCA para construção de cenários e cálculo de VAR, como é feito no presente trabalho.Nesse trabalho, verificaremos que a primeira componente principal produz na curva um movimento de inclinação conjugado com uma ligeira inclinação, ao contrário dos resultados obtidos em curvas de juros de outros países, que apresentam deslocamentos praticamente paralelos.