998 resultados para Mercado financeiro - modelos econométricos
Resumo:
Foram selecionados três modelos de apreçamento dos warrtants implícitos nas debêntures conversíveis que foram usados nos estudos de quatro casos selecionados de emissão de debêntures conversíveis neste período. Os modelos de apreçamento usados para a verificação do valor justo de lançamento das debêntures selecionadas foram: Modelo de projeção de resultados futuros, Modelo de Black-Scholes e Modelo de Avaliação Binomial
Resumo:
A presente dissertação tem como objetivo analisar a aplicabilidade da Internet como um canal de Marketing para empresas fabricantes de eletroeletrônicos. A partir de um levantamento feito a respeito do crescimento da importância da Internet como uma ferramenta de Marketing e Vendas no Brasil e no Mundo, são colocadas três possíveis posturas estratégicas a serem adotadas pelos fabricantes com relação à adoção da Internet para o seu negócio: Não fazer comércio eletrônico, adotar integralmente o comércio eletrônico (desintermediação) ou fazer comércio eletrônico incluindo os parceiros. Casos práticos e considerações teóricas são utilizados para fundamentar o argumento de que a desintermediação não parece ser uma estratégia adequada às condições do mercado e do setor abordados no trabalho. Ficar parado e não perceber o papel importante que a Internet pode representar junto aos clientes e consumidores também certamente não é uma estratégia viável para estes fabricantes. Adotar um modelo estratégico através do qual seja possível aproveitar os benefícios da Internet como canal de marketing contando com os revendedores como viabilizadores, parece ser o melhor caminho para aplicar o uso da Internet para a geração de vantagem competitiva no mercado de eletroeletrônicos. Finalmente, analisamos o caso da unidade brasileira da Philips Consumer Electronics, que conseguiu criar um modelo inédito para sua atuação na Internet e hoje é referência para empresa mundialmente em práticas de e-business. Com a Implementação do projeto Philips e-com Você, a empresa conseguiu aumentar suas vendas, estreitando seu relacionamento com revendedores e consumidores finais, melhorando sua imagem de marca e consolidando sua liderança no setor
Resumo:
O objetivo desse trabalho é avaliar a capacidade de previsão do mercado sobre a volatilidade futura a partir das informações obtidas nas opções de Petrobras e Vale, além de fazer uma comparação com modelos do tipo GARCH e EWMA. Estudos semelhantes foram realizados no mercado de ações americano: Seja com uma cesta de ações selecionadas ou com relação ao índice S&P 100, as conclusões foram diversas. Se Canina e Figlewski (1993) a “volatilidade implícita tem virtualmente nenhuma correlação com a volatilidade futura”, Christensen e Prabhala (1998) concluem que a volatilidade implícita é um bom preditor da volatilidade futura. No mercado brasileiro, Andrade e Tabak (2001) utilizam opções de dólar para estudar o conteúdo da informação no mercado de opções. Além disso, comparam o poder de previsão da volatilidade implícita com modelos de média móvel e do tipo GARCH. Os autores concluem que a volatilidade implícita é um estimador viesado da volatilidade futura mas de desempenho superior se comparada com modelos estatísticos. Gabe e Portugal (2003) comparam a volatilidade implícita das opções de Telemar (TNLP4) com modelos estatísticos do tipo GARCH. Nesse caso, volatilidade implícita tambem é um estimador viesado, mas os modelos estatísticos além de serem bons preditores, não apresentaram viés. Os dados desse trabalho foram obtidos ao longo de 2008 e início de 2009, optando-se por observações intradiárias das volatilidades implícitas das opções “no dinheiro” de Petrobrás e Vale dos dois primeiros vencimentos. A volatidade implícita observada no mercado para ambos os ativos contém informação relevante sobre a volatilidade futura, mas da mesma forma que em estudos anteriores, mostou-se viesada. No caso específico de Petrobrás, o modelo GARCH se mostrou um previsor eficiente da volatilidade futura
Resumo:
A pesquisa que se segue representa um estudo sobre o potencial de mercado de empresas atacadistas através do varejo de materiais de construção nos municípios paulistas. O período de análise da pesquisa compreende os anos entre 1997 e 2002, focando a demanda por materiais elétricos. O trabalho contempla a revisão da literatura pertinente ao assunto; a realização de uma pesquisa de campo com os varejistas de materiais de construção; a utilização de dados secundários diversos; e a estimação do potencial de mercado através da utilização de modelos hierárquicos lineares. O modelo proposto compõe-se de quatro partes. A primeira estima o volume de emprego no varejo de materiais de construção em cada município, com base na massa salarial dos municípios e no dinamismo populacional das microrregiões e mesorregiões paulistas. Para tanto, utiliza-se de modelo hierárquico em três níveis. A segunda parte estima a receita do varejo de materiais de construção com base no emprego gerado por estes estabelecimentos, utilizando-se de modelo hierárquico em dois níveis. A terceira parte, com base na pesquisa de campo, relaciona a receita do varejo ao potencial de mercado para o atacado. Por fim, na última parte se valida a estimativa, comparando-a ao faturamento de um atacadista de referência. Os resultados encontrados confirmam a adequação do modelo proposto. Ainda, as pesquisas realizadas, sejam elas através da coleta de dados diretos ou indiretos, apontam para a importância do atacado, principalmente como fornecedor do pequeno varejo, fortalecido este último pela estabilização econômica. Assim, mesmo em vista do acirramento do ambiente competitivo, fruto do fortalecimento do varejo e do desejo da ampliação das vendas diretas por parte dos fabricantes, o atacado preserva sua importância na economia. Por fim, observou-se que a distribuição espacial do potencial de mercado relativo não divergia significativamente da distribuição da densidade do emprego estimado e da distribuição da densidade da receita líquida de revenda do varejista estimada, sugerindo que estas variáveis possam ser utilizadas como variáveis proxies.
Resumo:
Este trabalho tem como objetivo avaliar quais os fatores que determinaram o desempenho financeiro dos municípios paulistas entre os anos de 1997 e 2004, por meio de dados em painel e de modelos de variável dependente binária (logit). Os critérios a serem considerados para a classificação dos estados e municípios de acordo com seu desempenho fiscal/financeiro obedecem a Lei complementar nº 089/97 do Ministério da Fazenda. Após a divisão dos municípios em categorias de desempenho são analisados os fatores que afetam a inclusão de um município em uma ou outra categoria de desempenho financeiro. As variáveis testadas são aquelas utilizadas preferencialmente pelas agências de classificação de risco, que são consideradas as instituições que melhor avaliam o desempenho financeiro dos municípios. Como a classificação de risco dos governos subnacionais não existe no Brasil, e como as agências não divulgam abertamente seus critérios de classificação, recorremos à literatura que tenta reproduzir a classificação dessas agências, e a partir desta literatura selecionamos nossas variáveis. As agências consideram fatores econômicos, fiscais, de endividamento e administrativos para determinar o desempenho financeiro de um município. Com o intuito de aprofundar a análise dos resultados, foram utilizados dados agregados (contendo o total da amostra) e dados desagregados por população. Os resultados sugerem que o desempenho financeiro dos municípios paulistas, considerando-se a amostra agregada, é influenciado positivamente pelo aumento da receita per capita e por uma população maior de idosos (acima de 60 anos) e negativamente pelo aumento da dívida per capita, e pelo aumento da receita
Resumo:
O cerne da Sustentabilidade como conceito contemporâneo é a inclusão de uma lógica diferente da tradicional dentro do sistema social: o cuidado com os aspectos econômicos, humanos e ambientais como orientadores de decisões para toda e qualquer atividade produtiva em exercício (produtos, serviços, bem estar humano). Responder ao constructo da sustentabilidade exige das organizações um sistema complexo de gestão sobre suas trocas com o meio. Nas Organizações Não Governamentais (ONGs) o funcionamento organizacional tem também buscado um estado duradouro de produção de resultados de utilidade pública, adotando formas de gestão que variam entre o tradicionalismo e a inovação, numa tentativa de equilibrar-se com fatores emergentes como a responsabilidade social interna, a capacidade de aprendizagem e a responsabilidade ambiental. Esta pesquisa propõe um composto de Critérios aplicativo dos princípios orientadores da sustentabilidade ajustados às ONGs: substitui os tradicionais elementos que só se aplicam às empresas, como “lucro” e “produção limpa”, por elementos equivalentes nas ONGs, como “produção de resultados” e “inovação metodológica”. Esses ajustes foram feitos a partir da literatura analisada e são sustentados durante toda a dissertação. Diversos estudos e modelos científicos sobre a eficiência, efetividade e sustentabilidade de organizações foram fontes elementares desta pesquisa, para propor um instrumento operacional de medição sobre o quanto uma ONG reflete o constructo da sustentabilidade em sua gestão. A pesquisa é não experimental de caráter exploratório e se utiliza de métodos quantitativos e qualitativos, quando os dados resultantes foram discutidos com um Grupo Foco. A proposição, descrição e validação teórica deu origem ao modelo teórico global de 26 indicadores agrupados em seis Critérios: Governança, Inovação, Produção de Resultados, Gestão e Impacto Econômico-Financeiro, Gestão Social, Gestão, Educação e Impacto Ambiental. Foi aplicado um Questionário com noventa questões para um Universo de 161 ONGs em três áreas de atuação- Educação não formal, Meio Ambiente e Desenvolvimento Comunitário, cadastradas no Mapa do Terceiro Setor (FGV-EAESP / Centro de Estudos do Terceiro Setor), e o índice de respostas foi de 54%. A partir dessa coleta os dados foram analisados de modo quantitativo (estatísticas descritivas, análises e escores fatoriais) e qualitativo (grupo focal), donde surgiram hipóteses emergentes e conclusões para uma inferência descritiva do Universo da pesquisa. As Hipóteses Emergentes resultantes versam sobre a dissociação entre gestão organizacional da economia interna e do meio, a participação da ONG na economia de mercado e a ocorrência de um isomorfismo mimético e normativo nas ONGs. Tece ainda conclusões e provocações para novas investigações.
Resumo:
Este trabalho apresenta uma revisão dos principais modelos de ciclo de vida para posteriormente discutir a necessidade de um modelo específico para o ambiente brasileiro. Apesar de toda discussão sobre a crise na instituição família em função das amplas mudanças ocorridas na sociedade contemporânea, tais como o aumento dos domicílios unipessoais, das famílias chefiadas por mulheres, da média de idade ao se casar, de casais que convivem no mesmo domicílio sem necessariamente estarem casados, da participação da mulher no mercado de trabalho e do crescente poder de compra dos domicílios, o conceito "família" vem se flexibilizando para refletir as transições da rígida estrutura familiar nuclear para novos modelos familiares e os estilos de vida associados a eles. O desafio passa a ser um olhar minucioso para as necessidades específicas desta diversidade de arranjos familiares para uma melhor compreensão dos seus desejos e motivações, bem como as mudanças no decorrer dos vários estágios do ciclo de vida. O presente estudo procurou explorar o construto ciclo de vida familiar como uma importante ferramenta de segmentação, a partir da definição de padrões de consumo de acordo com os principais eventos da vida do individuo e da família. Para verificar a utilidade do modelo desenvolvido, será apresentado um teste feito a partir dos micro dados de uma pesquisa feita pelo Instituto Brasileiro de Geografia e Estatística em 2002 e 2003. Uma das grandes contribuições deste trabalho é o esforço em desenvolver uma teoria de Marketing, na área de segmentação de mercados, ancorada na realidade brasileira, ao invés de simplesmente copiar modelos desenvolvidos em outros países.
Resumo:
A presente dissertação analisa o erro de projeção dos analistas de investimentos do sell side, definido como a diferença entre o consenso das projeções dos analistas e o resultado reportado pela empresa. O tamanho do erro de projeção é uma medida da qualidade das projeções dos analistas de um determinado mercado de capitais. Uma vasta literatura acadêmica mostra que uma melhora na qualidade das projeções dos analistas, medida através de uma diminuição do tamanho do erro de projeção, está relacionada com a redução da assimetria de informação e com um aumento do valor de mercado das empresas. São testadas duas regressões, nas quais características das empresas, como setor, tamanho, endividamento e variabilidade do lucro, e características do ambiente de informação da empresa, como listagem de ADR, número de analistas que acompanham a empresa e convergência das projeções, são testadas contra duas métricas do erro de projeção, acurácia e viés. Nossas hipóteses são que existem fatores que influenciam de maneira significativa o tamanho do erro de projeção (acurácia) e o viés das projeções (viés). Estas hipóteses foram confirmadas, isto é, nossas regressões apresentaram pelo menos um fator que se mostrou significativo estatisticamente para influenciar o tamanho do erro de projeção (hipóteses H1 e H2) ou o seu viés (hipótese H3). Entretanto, os resultados mostram que vários fatores que se mostram significativos em testes conduzidos em mercados desenvolvidos – tais como tamanho, endividamento e variabilidade do lucro – não se mostraram significativos no mercado brasileiro. Por outro lado, os fatores relacionados com o resultado do ano projetado ou do ano anterior se mostraram fortemente significativos. Acreditamos que os resultados podem ser explicados de três maneiras: 1) ou a capacidade de adicionar valor dos analistas em relação a modelos estatísticos de projeção é muito pequena, devido à sua falta de habilidade; ou 2) a instabilidade macroeconômica é tão grande domina todos os outros fatores que poderiam influenciar o tamanho do erro de projeção; ou 3) os resultados das empresas nos mercados desenvolvidos são tão administrados, isto é, tão estáveis, que permitem que fatores mais sutis como o tamanho, o nível de endividamento e a variabilidade do lucro se tornem significativos. Esta dissertação não permite distinguir qual das explicações é a correta. Uma de suas limitações é não incluir variáveis referentes à habilidade e experiência dos analistas e, também, variáveis relacionadas a fatores como governança corporativa e disclosure de informações. Em uma linha de pesquisa muito extensa nos países desenvolvidos, mas praticamente inexistente no Brasil, esperamos que estudos futuros supram estas lacunas e nos permitam entender melhor a questão da qualidade das projeções de resultados no contexto brasileiro.
Resumo:
Esta tese aborda o tema estratégia de marketing, enfocando sua formulação e implementação. Seus objetivos estão centrados no desenvolvimento de um modelo teórico de formação da estratégia de marketing, apresentando e definindo os elementos e as inter-relações necessárias para as empresas construírem e desenvolverem estratégias de marketing, bem como os antecedentes e resultados do processo da estratégia. A fim de atingir tais objetivos, elaborou-se um método que cumpre duas etapas: uma pesquisa exploratória e qualitativa e outra pesquisa descritiva e quantitativa. A etapa exploratória contempla a construção de um Modelo Conceitual Teórico preliminar, a partir de revisão bibliográfica, baseando-se especialmente em dois modelos de formação da estratégia de marketing, o de Menon et al. (1999) e o de Noble e Mokwa (1999), e de entrevistas em profundidade com executivos. A etapa descritiva, por sua vez, constitui-se de pesquisa em 200 empresas brasileiras, aplicando questionário construído e testado na etapa anterior, com a finalidade de validar o construto inicialmente construído, através da Modelagem de Equações Estruturais. A análise dos resultados da pesquisa demonstrou as variáveis significativas, bem como as suas relações para a construção do modelo de formação da estratégia de marketing. Neste modelo, verificou-se que os antecedentes da estratégia são formados por cultura organizacional inovadora e importância da estratégia. O processo de formulação e implementação é composto por comprometimento, comunicação e integração dos grupos de trabalho, alternativas estratégicas e ativos e competências organizacionais. Os resultados deste processo correspondem ao desenvolvimento de aprendizagem organizacional e de criatividade, como também, ao desempenho financeiro e de mercado. A inter-relação dessas variáveis resulta no modelo de formação da estratégia de marketing. Ainda, constatou-se que este modelo sofre influência de um ambiente externo turbulento, bem como do poder dos intermediários. Por fim, esta pesquisa colabora para o desenvolvimento da área de marketing no país, ao construir um modelo teórico para a formulação e implementação de estratégias, a partir da realidade empresarial brasileira.
Resumo:
O trabalho procurou analisar os conceitos de planejamento estratégico, planejamento financeiro e gerenciamento com base no valor como ferramentas importantes no processo de gestão corporativa atual. Ao considerar que, nos dias atuais, cabe às empresas serem eficientes em suas operações para se manterem competitivas no mercado em que atuam, essas ferramentas mostram-se importantes para que esse objetivo de eficiência seja alcançado. O objetivo da dissertação realizada foi realizar uma avaliação desses conceitos e sua evolução, bem como procurar, através de uma pesquisa de campo qualitativa, identificar sua efetiva adoção no gerenciamento de empresas multinacionais.
Resumo:
O objetivo deste trabalho é testar a aplicação de um modelo gráfico probabilístico, denominado genericamente de Redes Bayesianas, para desenvolver modelos computacionais que possam ser utilizados para auxiliar a compreensão de problemas e/ou na previsão de variáveis de natureza econômica. Com este propósito, escolheu-se um problema amplamente abordado na literatura e comparou-se os resultados teóricos e experimentais já consolidados com os obtidos utilizando a técnica proposta. Para tanto,foi construído um modelo para a classificação da tendência do "risco país" para o Brasil a partir de uma base de dados composta por variáveis macroeconômicas e financeiras. Como medida do risco adotou-se o EMBI+ (Emerging Markets Bond Index Plus), por ser um indicador amplamente utilizado pelo mercado.
Resumo:
Este trabalho está dividido em dois ensaios. O primeiro ensaio examina aspectos da liquidez do mercado secundário de títulos públicos no Brasil no período 2003 a 2006 e os determinantes do spread de compra e venda no mercado secundário de LTN - Letra do Tesouro Nacional no período 2005 a 2006. Os spreads foram calculados com base em dados diários de alta freqüência, para períodos de 30 minutos e de um dia. Em linhas gerais, a liquidez é um determinante importante no cálculo do spread. Especificamente os spreads diminuem quando os volumes ofertados aumentam. No caso dos prazos de vencimento, os spreads aumentam quando os prazos se ampliam. LTNs com prazos de vencimentos até 30 dias apresentaram spreads de 1 centavo de reais (1.89 bp) enquanto que LTNs com prazos acima de dois anos apresentaram spreads médios em torno de 54 centavos de reais (3.84 bp) para intervalos de 30 minutos e 81 centavos de reais (5.72 bp) para intervalos de um dia. Os testes econométricos foram realizados com base em um modelo apresentado por Chakravarty e Sarkar (1999) e aplicado ao mercado americano de bonds no período de 1995 e 1997. Os testes foram feitos utilizando-se a técnica do Método dos Momentos Generalizados (GMM). Os resultados confirmam o spread de compra e venda como medida importante no acompanhamento da liquidez. O segundo ensaio compara aspectos da liquidez e da microestrutura do mercado de títulos públicos em alguns paises como Brasil, Chile, México, Coréia, Singapura, Polônia e Estados Unidos. A análise utiliza algumas dimensões da microestrutura como a liquidez do mercado secundário (spread de compra e venda, giro do estoque de títulos e vencimentos mais negociados), os custos de eficiência, a estrutura e transparência do mercado primário e secundário e, por último, a segurança do mercado. O objetivo é comparar as características e o funcionamento dos mercados secundários desses paises e, confrontar com a realidade do mercado brasileiro face ao desenvolvimento da microestrutura. Apesar da falta de alongamento dos prazos dos títulos públicos, o mercado secundário no Brasil apresenta aspectos da microestrutura semelhantes aos paises em consideração o que sugere a existência de outros fatores fora a microestrutura que limitam o aumento dos prazos. Os resultados do primeiro ensaio ajudam nas comparações dos demais paises. Como resultado, encontramos que embora a liquidez do mercado secundário de títulos públicos no Brasil concentra-se em papéis de prazo menor, este fato provavelmente não se deve a questões de microestrutura do mercado.
Resumo:
O objetivo deste trabalho é investigar se a relação entre a taxa de câmbio spot e o fluxo de ordens deriva do fato do fluxo agregar informações a respeito dos fundamentos econômicos dispersos na economia. Para efetuar este teste foi utilizada uma base de dados que engloba todas as transações dos segmentos comercial e financeiro no mercado cambial primário brasileiro entre janeiro de 1999 e maio de 2008. Mostramos que o fluxo de ordens foi razoavelmente capaz de explicar variações nas expectativas de inflação, relação que não se manteve robusta para escolha de outros fundamentos, como PIB e Produção Industrial.
Resumo:
Apesar dos aparelhos celulares terem se tornado parte fundamental da comunicação pessoal durante os últimos dez anos, há escassez de pesquisas de ordem acadêmica dedicadas à valoração das diferentes características dos planos e aparelhos celulares. Vários fatores precisam ser levados em conta para se conhecer a percepção de valor dos atributos dos planos e aparelhos celulares, desde as condições microeconômicas que afetam a evolução do mercado de aparelhos celulares em geral, até as decisões e motivações pessoais do processo de decisão de compra de um consumidor. Este estudo procura responder quais atributos são mais valorizados pelo consumidor brasileiro em um aparelho celular pós-pago, bem como o preço destes atributos no mercado. Para isto aplicou-se o método de preços hedônicos a uma base de dados de 48 modelos de celulares diferentes, de seis marcas presentes no mercado brasileiro, de três operadoras, em nove diferentes planos de assinatura, com observações de preços semanais ao longo do ano de 2008, totalizando 27 atributos diferentes e 292.410 observações. Por fim, também é apresentada nesta dissertação uma interpretação do mercado brasileiro pela ótica da Economia das Telecomunicações, e é realizado o cálculo da deflação ocorrida no mercado brasileiro de aparelhos celulares pós-pagos no ano de 2008 levando-se em consideração as mudanças de qualidade, funcionalidades e características destes aparelhos ocorridas ao longo do ano mencionado.
Resumo:
Esse trabalho comparou, para condições macroeconômicas usuais, a eficiência do modelo de Redes Neurais Artificiais (RNAs) otimizadas por Algoritmos Genéticos (AGs) na precificação de opções de Dólar à Vista aos seguintes modelos de precificação convencionais: Black-Scholes, Garman-Kohlhagen, Árvores Trinomiais e Simulações de Monte Carlo. As informações utilizadas nesta análise, compreendidas entre janeiro de 1999 e novembro de 2006, foram disponibilizadas pela Bolsa de Mercadorias e Futuros (BM&F) e pelo Federal Reserve americano. As comparações e avaliações foram realizadas com o software MATLAB, versão 7.0, e suas respectivas caixas de ferramentas que ofereceram o ambiente e as ferramentas necessárias à implementação e customização dos modelos mencionados acima. As análises do custo do delta-hedging para cada modelo indicaram que, apesar de mais complexa, a utilização dos Algoritmos Genéticos exclusivamente para otimização direta (binária) dos pesos sinápticos das Redes Neurais não produziu resultados significativamente superiores aos modelos convencionais.