414 resultados para Mercado imobiliário - Modelos econométricos
Resumo:
Esta dissertação aborda o uso de modelos estratégicos de competitividade na economia da informação
Resumo:
Foram selecionados três modelos de apreçamento dos warrtants implícitos nas debêntures conversíveis que foram usados nos estudos de quatro casos selecionados de emissão de debêntures conversíveis neste período. Os modelos de apreçamento usados para a verificação do valor justo de lançamento das debêntures selecionadas foram: Modelo de projeção de resultados futuros, Modelo de Black-Scholes e Modelo de Avaliação Binomial
Resumo:
A presente dissertação tem como objetivo analisar a aplicabilidade da Internet como um canal de Marketing para empresas fabricantes de eletroeletrônicos. A partir de um levantamento feito a respeito do crescimento da importância da Internet como uma ferramenta de Marketing e Vendas no Brasil e no Mundo, são colocadas três possíveis posturas estratégicas a serem adotadas pelos fabricantes com relação à adoção da Internet para o seu negócio: Não fazer comércio eletrônico, adotar integralmente o comércio eletrônico (desintermediação) ou fazer comércio eletrônico incluindo os parceiros. Casos práticos e considerações teóricas são utilizados para fundamentar o argumento de que a desintermediação não parece ser uma estratégia adequada às condições do mercado e do setor abordados no trabalho. Ficar parado e não perceber o papel importante que a Internet pode representar junto aos clientes e consumidores também certamente não é uma estratégia viável para estes fabricantes. Adotar um modelo estratégico através do qual seja possível aproveitar os benefícios da Internet como canal de marketing contando com os revendedores como viabilizadores, parece ser o melhor caminho para aplicar o uso da Internet para a geração de vantagem competitiva no mercado de eletroeletrônicos. Finalmente, analisamos o caso da unidade brasileira da Philips Consumer Electronics, que conseguiu criar um modelo inédito para sua atuação na Internet e hoje é referência para empresa mundialmente em práticas de e-business. Com a Implementação do projeto Philips e-com Você, a empresa conseguiu aumentar suas vendas, estreitando seu relacionamento com revendedores e consumidores finais, melhorando sua imagem de marca e consolidando sua liderança no setor
Resumo:
O objetivo desse trabalho é avaliar a capacidade de previsão do mercado sobre a volatilidade futura a partir das informações obtidas nas opções de Petrobras e Vale, além de fazer uma comparação com modelos do tipo GARCH e EWMA. Estudos semelhantes foram realizados no mercado de ações americano: Seja com uma cesta de ações selecionadas ou com relação ao índice S&P 100, as conclusões foram diversas. Se Canina e Figlewski (1993) a “volatilidade implícita tem virtualmente nenhuma correlação com a volatilidade futura”, Christensen e Prabhala (1998) concluem que a volatilidade implícita é um bom preditor da volatilidade futura. No mercado brasileiro, Andrade e Tabak (2001) utilizam opções de dólar para estudar o conteúdo da informação no mercado de opções. Além disso, comparam o poder de previsão da volatilidade implícita com modelos de média móvel e do tipo GARCH. Os autores concluem que a volatilidade implícita é um estimador viesado da volatilidade futura mas de desempenho superior se comparada com modelos estatísticos. Gabe e Portugal (2003) comparam a volatilidade implícita das opções de Telemar (TNLP4) com modelos estatísticos do tipo GARCH. Nesse caso, volatilidade implícita tambem é um estimador viesado, mas os modelos estatísticos além de serem bons preditores, não apresentaram viés. Os dados desse trabalho foram obtidos ao longo de 2008 e início de 2009, optando-se por observações intradiárias das volatilidades implícitas das opções “no dinheiro” de Petrobrás e Vale dos dois primeiros vencimentos. A volatidade implícita observada no mercado para ambos os ativos contém informação relevante sobre a volatilidade futura, mas da mesma forma que em estudos anteriores, mostou-se viesada. No caso específico de Petrobrás, o modelo GARCH se mostrou um previsor eficiente da volatilidade futura
Resumo:
A pesquisa que se segue representa um estudo sobre o potencial de mercado de empresas atacadistas através do varejo de materiais de construção nos municípios paulistas. O período de análise da pesquisa compreende os anos entre 1997 e 2002, focando a demanda por materiais elétricos. O trabalho contempla a revisão da literatura pertinente ao assunto; a realização de uma pesquisa de campo com os varejistas de materiais de construção; a utilização de dados secundários diversos; e a estimação do potencial de mercado através da utilização de modelos hierárquicos lineares. O modelo proposto compõe-se de quatro partes. A primeira estima o volume de emprego no varejo de materiais de construção em cada município, com base na massa salarial dos municípios e no dinamismo populacional das microrregiões e mesorregiões paulistas. Para tanto, utiliza-se de modelo hierárquico em três níveis. A segunda parte estima a receita do varejo de materiais de construção com base no emprego gerado por estes estabelecimentos, utilizando-se de modelo hierárquico em dois níveis. A terceira parte, com base na pesquisa de campo, relaciona a receita do varejo ao potencial de mercado para o atacado. Por fim, na última parte se valida a estimativa, comparando-a ao faturamento de um atacadista de referência. Os resultados encontrados confirmam a adequação do modelo proposto. Ainda, as pesquisas realizadas, sejam elas através da coleta de dados diretos ou indiretos, apontam para a importância do atacado, principalmente como fornecedor do pequeno varejo, fortalecido este último pela estabilização econômica. Assim, mesmo em vista do acirramento do ambiente competitivo, fruto do fortalecimento do varejo e do desejo da ampliação das vendas diretas por parte dos fabricantes, o atacado preserva sua importância na economia. Por fim, observou-se que a distribuição espacial do potencial de mercado relativo não divergia significativamente da distribuição da densidade do emprego estimado e da distribuição da densidade da receita líquida de revenda do varejista estimada, sugerindo que estas variáveis possam ser utilizadas como variáveis proxies.
Resumo:
Este trabalho apresenta uma revisão dos principais modelos de ciclo de vida para posteriormente discutir a necessidade de um modelo específico para o ambiente brasileiro. Apesar de toda discussão sobre a crise na instituição família em função das amplas mudanças ocorridas na sociedade contemporânea, tais como o aumento dos domicílios unipessoais, das famílias chefiadas por mulheres, da média de idade ao se casar, de casais que convivem no mesmo domicílio sem necessariamente estarem casados, da participação da mulher no mercado de trabalho e do crescente poder de compra dos domicílios, o conceito "família" vem se flexibilizando para refletir as transições da rígida estrutura familiar nuclear para novos modelos familiares e os estilos de vida associados a eles. O desafio passa a ser um olhar minucioso para as necessidades específicas desta diversidade de arranjos familiares para uma melhor compreensão dos seus desejos e motivações, bem como as mudanças no decorrer dos vários estágios do ciclo de vida. O presente estudo procurou explorar o construto ciclo de vida familiar como uma importante ferramenta de segmentação, a partir da definição de padrões de consumo de acordo com os principais eventos da vida do individuo e da família. Para verificar a utilidade do modelo desenvolvido, será apresentado um teste feito a partir dos micro dados de uma pesquisa feita pelo Instituto Brasileiro de Geografia e Estatística em 2002 e 2003. Uma das grandes contribuições deste trabalho é o esforço em desenvolver uma teoria de Marketing, na área de segmentação de mercados, ancorada na realidade brasileira, ao invés de simplesmente copiar modelos desenvolvidos em outros países.
Resumo:
A presente dissertação analisa o erro de projeção dos analistas de investimentos do sell side, definido como a diferença entre o consenso das projeções dos analistas e o resultado reportado pela empresa. O tamanho do erro de projeção é uma medida da qualidade das projeções dos analistas de um determinado mercado de capitais. Uma vasta literatura acadêmica mostra que uma melhora na qualidade das projeções dos analistas, medida através de uma diminuição do tamanho do erro de projeção, está relacionada com a redução da assimetria de informação e com um aumento do valor de mercado das empresas. São testadas duas regressões, nas quais características das empresas, como setor, tamanho, endividamento e variabilidade do lucro, e características do ambiente de informação da empresa, como listagem de ADR, número de analistas que acompanham a empresa e convergência das projeções, são testadas contra duas métricas do erro de projeção, acurácia e viés. Nossas hipóteses são que existem fatores que influenciam de maneira significativa o tamanho do erro de projeção (acurácia) e o viés das projeções (viés). Estas hipóteses foram confirmadas, isto é, nossas regressões apresentaram pelo menos um fator que se mostrou significativo estatisticamente para influenciar o tamanho do erro de projeção (hipóteses H1 e H2) ou o seu viés (hipótese H3). Entretanto, os resultados mostram que vários fatores que se mostram significativos em testes conduzidos em mercados desenvolvidos – tais como tamanho, endividamento e variabilidade do lucro – não se mostraram significativos no mercado brasileiro. Por outro lado, os fatores relacionados com o resultado do ano projetado ou do ano anterior se mostraram fortemente significativos. Acreditamos que os resultados podem ser explicados de três maneiras: 1) ou a capacidade de adicionar valor dos analistas em relação a modelos estatísticos de projeção é muito pequena, devido à sua falta de habilidade; ou 2) a instabilidade macroeconômica é tão grande domina todos os outros fatores que poderiam influenciar o tamanho do erro de projeção; ou 3) os resultados das empresas nos mercados desenvolvidos são tão administrados, isto é, tão estáveis, que permitem que fatores mais sutis como o tamanho, o nível de endividamento e a variabilidade do lucro se tornem significativos. Esta dissertação não permite distinguir qual das explicações é a correta. Uma de suas limitações é não incluir variáveis referentes à habilidade e experiência dos analistas e, também, variáveis relacionadas a fatores como governança corporativa e disclosure de informações. Em uma linha de pesquisa muito extensa nos países desenvolvidos, mas praticamente inexistente no Brasil, esperamos que estudos futuros supram estas lacunas e nos permitam entender melhor a questão da qualidade das projeções de resultados no contexto brasileiro.
Resumo:
O objetivo deste trabalho é testar a aplicação de um modelo gráfico probabilístico, denominado genericamente de Redes Bayesianas, para desenvolver modelos computacionais que possam ser utilizados para auxiliar a compreensão de problemas e/ou na previsão de variáveis de natureza econômica. Com este propósito, escolheu-se um problema amplamente abordado na literatura e comparou-se os resultados teóricos e experimentais já consolidados com os obtidos utilizando a técnica proposta. Para tanto,foi construído um modelo para a classificação da tendência do "risco país" para o Brasil a partir de uma base de dados composta por variáveis macroeconômicas e financeiras. Como medida do risco adotou-se o EMBI+ (Emerging Markets Bond Index Plus), por ser um indicador amplamente utilizado pelo mercado.
Resumo:
Este trabalho está dividido em dois ensaios. O primeiro ensaio examina aspectos da liquidez do mercado secundário de títulos públicos no Brasil no período 2003 a 2006 e os determinantes do spread de compra e venda no mercado secundário de LTN - Letra do Tesouro Nacional no período 2005 a 2006. Os spreads foram calculados com base em dados diários de alta freqüência, para períodos de 30 minutos e de um dia. Em linhas gerais, a liquidez é um determinante importante no cálculo do spread. Especificamente os spreads diminuem quando os volumes ofertados aumentam. No caso dos prazos de vencimento, os spreads aumentam quando os prazos se ampliam. LTNs com prazos de vencimentos até 30 dias apresentaram spreads de 1 centavo de reais (1.89 bp) enquanto que LTNs com prazos acima de dois anos apresentaram spreads médios em torno de 54 centavos de reais (3.84 bp) para intervalos de 30 minutos e 81 centavos de reais (5.72 bp) para intervalos de um dia. Os testes econométricos foram realizados com base em um modelo apresentado por Chakravarty e Sarkar (1999) e aplicado ao mercado americano de bonds no período de 1995 e 1997. Os testes foram feitos utilizando-se a técnica do Método dos Momentos Generalizados (GMM). Os resultados confirmam o spread de compra e venda como medida importante no acompanhamento da liquidez. O segundo ensaio compara aspectos da liquidez e da microestrutura do mercado de títulos públicos em alguns paises como Brasil, Chile, México, Coréia, Singapura, Polônia e Estados Unidos. A análise utiliza algumas dimensões da microestrutura como a liquidez do mercado secundário (spread de compra e venda, giro do estoque de títulos e vencimentos mais negociados), os custos de eficiência, a estrutura e transparência do mercado primário e secundário e, por último, a segurança do mercado. O objetivo é comparar as características e o funcionamento dos mercados secundários desses paises e, confrontar com a realidade do mercado brasileiro face ao desenvolvimento da microestrutura. Apesar da falta de alongamento dos prazos dos títulos públicos, o mercado secundário no Brasil apresenta aspectos da microestrutura semelhantes aos paises em consideração o que sugere a existência de outros fatores fora a microestrutura que limitam o aumento dos prazos. Os resultados do primeiro ensaio ajudam nas comparações dos demais paises. Como resultado, encontramos que embora a liquidez do mercado secundário de títulos públicos no Brasil concentra-se em papéis de prazo menor, este fato provavelmente não se deve a questões de microestrutura do mercado.
Resumo:
Apesar dos aparelhos celulares terem se tornado parte fundamental da comunicação pessoal durante os últimos dez anos, há escassez de pesquisas de ordem acadêmica dedicadas à valoração das diferentes características dos planos e aparelhos celulares. Vários fatores precisam ser levados em conta para se conhecer a percepção de valor dos atributos dos planos e aparelhos celulares, desde as condições microeconômicas que afetam a evolução do mercado de aparelhos celulares em geral, até as decisões e motivações pessoais do processo de decisão de compra de um consumidor. Este estudo procura responder quais atributos são mais valorizados pelo consumidor brasileiro em um aparelho celular pós-pago, bem como o preço destes atributos no mercado. Para isto aplicou-se o método de preços hedônicos a uma base de dados de 48 modelos de celulares diferentes, de seis marcas presentes no mercado brasileiro, de três operadoras, em nove diferentes planos de assinatura, com observações de preços semanais ao longo do ano de 2008, totalizando 27 atributos diferentes e 292.410 observações. Por fim, também é apresentada nesta dissertação uma interpretação do mercado brasileiro pela ótica da Economia das Telecomunicações, e é realizado o cálculo da deflação ocorrida no mercado brasileiro de aparelhos celulares pós-pagos no ano de 2008 levando-se em consideração as mudanças de qualidade, funcionalidades e características destes aparelhos ocorridas ao longo do ano mencionado.
Resumo:
Este trabalho tem por objetivo avaliar a eficiência do mercado acionário brasileiro a partir de testes estatísticos, para posterior modelagem das séries de retorno das ações, utilizando os modelos ARMA, ARCH, GARCH, Modelo de Decomposição e, por final, VAR. Para este trabalho foram coletados dados intradiários, que são considerados dados de alta freqüência e menos suscetíveis a possíveis alterações na estrutura de mercado, tanto micro como macroeconômicos. Optou-se por trabalhar com dados coletados a cada cinco minutos, devido à baixa liquidez dos ativos no mercado financeiro (que poderia acarretar em dados ausentes para intervalos de tempo inferiores). As séries escolhidas foram: Petrobrás PN, Gerdau PN, Bradesco PN, Vale do Rio Doce PN e o índice Ibovespa, que apresentam grande representatividade do mercado acionário brasileiro para o período analisado. Com base no teste de Dickey-Fuller, verificou-se indícios que o mercado acionário brasileiro possa ser eficiente e, assim foi proposto modelos para as séries de retorno das ações anteriormente citadas.
Resumo:
Esse trabalho comparou, para condições macroeconômicas usuais, a eficiência do modelo de Redes Neurais Artificiais (RNAs) otimizadas por Algoritmos Genéticos (AGs) na precificação de opções de Dólar à Vista aos seguintes modelos de precificação convencionais: Black-Scholes, Garman-Kohlhagen, Árvores Trinomiais e Simulações de Monte Carlo. As informações utilizadas nesta análise, compreendidas entre janeiro de 1999 e novembro de 2006, foram disponibilizadas pela Bolsa de Mercadorias e Futuros (BM&F) e pelo Federal Reserve americano. As comparações e avaliações foram realizadas com o software MATLAB, versão 7.0, e suas respectivas caixas de ferramentas que ofereceram o ambiente e as ferramentas necessárias à implementação e customização dos modelos mencionados acima. As análises do custo do delta-hedging para cada modelo indicaram que, apesar de mais complexa, a utilização dos Algoritmos Genéticos exclusivamente para otimização direta (binária) dos pesos sinápticos das Redes Neurais não produziu resultados significativamente superiores aos modelos convencionais.
Resumo:
O objetivo deste trabalho é analisar o desempenho de estimadores de volatilidade que utilizam valores extremos (máximo, mínimo, abertura e fechamento) para ativos no mercado brasileiro. Discute-se o viés dos estimadores usando como referências o estimador clássico, a volatilidade realizada e a volatilidade implícita de 1 mês da série de opções no dinheiro (ATM - at the money); discute-se a eficiência quanto à previsibilidade da volatilidade futura usando o estimador clássico e a volatilidade implícita defasados um período para frente como variáveis dependentes e a eficiência em si, isto é, quanto ao tamanho da variância do estima-dor. Como representantes de ativos brasileiros, foram escolhidos a paridade BRL/USD spot e o Índice Bovespa. Além de bastante líquidos, esses dois ativos têm bastante importância no mercado brasileiro, seja como benchmark para investimentos, bem como ativos-base para muitos derivativos operados na Bolsa de Mercadorias e Futuros (BM&F) e na Bolsa de Va-lores de São Paulo (Bovespa). A volatilidade do ativo-base é uma das variáveis para o apre-çamento de derivativos como opções; muitas estratégias são montadas, no mercado financei-ro, utilizando-a como referência. A volatilidade também é bastante usada no gerenciamento de riscos, em modelos como o Value at Risk (VaR), por exemplo.
Resumo:
Há forte evidência que os retornos das séries financeiras apresentam caudas mais pesadas que as da distribuição normal, principalmente em mercados emergentes. No entanto, muitos modelos de risco utilizados pelas instituições financeiras baseiam-se em normalidade condicional ou não condicional, reduzindo a acurácia das estimativas. Os recentes avanços na Teoria de Valores Extremos permitem sua aplicação na modelagem de risco, como por exemplo, na estimação do Valor em Risco e do requerimento de capital. Este trabalho verifica a adequação de um procedimento proposto por McNeil e Frey [1999] para estimação do Valor em Risco e conseqüente requerimento de capital às principais séries financeiras de retornos do Brasil. Tal procedimento semi-paramétrico combina um modelo GARCH ajustado por pseudo máxima verossimilhança para estimação da volatilidade corrente com a Teoria de Valores Extremos para estimação das caudas da distribuição das inovações do modelo GARCH. O procedimento foi comparado através de backtestings com outros métodos mais comuns de estimação de VaR que desconsideram caudas pesadas das inovações ou a natureza estocástica da volatilidade. Concluiu-se que o procedimento proposto por McNeil e Frey [1999] mostrou melhores resultados, principalmente para eventos relacionados a movimentos negativos nos mercados . Futuros trabalhos consistirão no estudo de uma abordagem multivariada de grandes dimensões para estimação de VaR e requerimento de capital para carteiras de investimentos.
Resumo:
O objetivo desse trabalho é verificar evidências empíricas do canal de crédito como transmissor da política monetária no Brasil no período de janeiro de 2000 a março de 2007. A metodologia utilizada baseou-se na relação entre as séries temporais agregadas de variáveis de política monetária, mercado de crédito, mercado monetário e inflação. Os testes econométricos foram realizados com os dados agregados utilizando-se os modelos VAR (vetor autoregressivo) e VEC (vetor de correção de erros) para analisar as séries temporais. Foi observado o comportamento do mercado de emissão de dívida como fonte alternativa de financiamento externo das empresas, além do crédito bancário, de modo a se avaliar se há um deslocamento para outras fontes de financiamento externo pelo efeito de um choque monetário. A conclusão que emerge dos testes econométricos indica a importância do crédito bancário na transmissão da política monetária, identificada através dos efeitos de causalidade e as reações de impulso-resposta encontradas. A observação do aumento nas emissões privadas das empresas para atender suas necessidades de financiamento externo dá indicação de que a redução do crédito, após contração monetária, ocorre pelo lado da oferta de crédito pelos bancos.