92 resultados para detecção de estrutura de modelo
em Repositório digital da Fundação Getúlio Vargas - FGV
Resumo:
Este estudo pretendia identificar o entendimento do cliente da área de business-to-business sobre a qualidade, o sacrifício e o valor percebidos, no processo para a tomada de decisão pela compra de produtos que estão passando pela transição de tecnologia analógica para a tecnologia digital. A pesquisa foi realizada por meio de um censo com as lojas de fotografia localizadas na cidade de São Paulo, consumidoras do produto Minilab Digital. Foi constatado que esse consumidor, por meio da utilização da tecnologia digital, reconhece o valor como vantagem (ganho), e que a estrutura do modelo de Zeithaml (1988) é adequada para esse mercado. Foram observados ainda a qualidade, o sacrifício e o risco percebidos por esse consumidor.
Resumo:
A incerteza é o principal elemento do futuro. Desde os primórdios, o homem busca métodos para estruturar essas incertezas futuras e assim poder guiar suas ações. Apenas a partir da segunda metade do século XX, porém, quando os métodos projetivos e preditivos já não eram mais capazes de explicar o futuro em um ambiente mundial cada vez mais interligado e turbulento, é que nasceram os primeiros métodos estruturados de construção de cenários. Esses métodos prospectivos visam lançar a luz sobre o futuro não para projetar um futuro único e certo, mas para visualizar uma gama de futuros possíveis e coerentes. Esse trabalho tem como objetivo propor uma nova abordagem à construção de cenários, integrando o Método de Impactos Cruzados à Análise Morfológica, utilizando o conceito de Rede Bayesianas, de fonna a reduzir a complexidade da análise sem perda de robustez. Este trabalho fará uma breve introdução histórica dos estudos do futuro, abordará os conceitos e definições de cenários e apresentará os métodos mais utilizados. Como a abordagem proposta pretende-se racionalista, será dado foco no Método de Cenários de Michel Godet e suas ferramentas mais utilizadas. Em seguida, serão apresentados os conceitos de Teoria dos Grafos, Causalidade e Redes Bayesianas. A proposta é apresentada em três etapas: 1) construção da estrutura do modelo através da Análise Estrutural, propondo a redução de um modelo inicialmente cíclico para um modelo acíclico direto; 2) utilização da Matriz de Impactos Cruzados como ferramenta de alimentação, preparação e organização dos dados de probabilidades; 3) utilização da Rede Bayesiana resultante da primeira etapa como subespaço de análise de uma Matriz Morfológica. Por último, um teste empírico é realizado para comprovar a proposta de redução do modelo cíclico em um modelo acíclico.
Resumo:
Este trabalho analisa as transações entre empresa fabricante de software e empresa usuária de software sob a ótica da empresa fabricante. A abordagem da transação leva em consideração os seguintes fatores: estrutura de governança transacional, recursos humanos necessários à empresa fabricante e qualidade na transação buscada pela empresa fabricante. O modelo ajuda a explicar a dinâmica da transação e se propõe a auxiliar agentes a decidir e negociar temas polêmicos como tipos de software envolvidos e respectivas licenças, intensidade de participação da empresa usuária no processo de elaboração e parametrização do software, titularidade e grau de especificidade dos investimentos.
Resumo:
O presente tabalho apresenta um modelo destinado à análise do mercado doméstico de transporte aéreo de passageiros. O modelo analisado permite acompanhar as escolhas ótimas das companhias aéreas quanto ao número de vôos ofertados e passageiros transportados diante das alterações no valor das tarifas promovidas pelo reguldor, tanto em equilibrio competitvo quanto monopolista e, alternativamente, caso a indústria atue como um oligopólio. Neste último caso, o modelo analisado permite que o equilíbrio da indústria seja mensurado em conjunto com parâmetros conjecturais de comportamento das firmas.
Resumo:
Com o objetivo de precificar derivativos de taxas de juros no mercado brasileiro, este trabalho foca na implementação do modelo de Heath, Jarrow e Morton (1992) em sua forma discreta e multifatorial através de uma abordagem numérica, e, que possibilita uma grande flexibilidade na estimativa da taxa forward sob uma estrutura de volatilidade baseada em fatores ortogonais, facilitando assim a simulação de sua evolução por Monte Carlo, como conseqüência da independência destes fatores. A estrutura de volatilidade foi construída de maneira a ser totalmente não paramétrica baseada em vértices sintéticos que foram obtidos por interpolação dos dados históricos de cotações do DI Futuro negociado na BM&FBOVESPA, sendo o período analisado entre 02/01/2003 a 28/12/2012. Para possibilitar esta abordagem foi introduzida uma modificação no modelo HJM desenvolvida por Brace e Musiela (1994).
Resumo:
Este trabalho tem o objetivo de testar a qualidade preditiva do Modelo Vasicek de dois fatores acoplado ao Filtro de Kalman. Aplicado a uma estratégia de investimento, incluímos um critério de Stop Loss nos períodos que o modelo não responde de forma satisfatória ao movimento das taxas de juros. Utilizando contratos futuros de DI disponíveis na BMFBovespa entre 01 de março de 2007 a 30 de maio de 2014, as simulações foram realizadas em diferentes momentos de mercado, verificando qual a melhor janela para obtenção dos parâmetros dos modelos, e por quanto tempo esses parâmetros estimam de maneira ótima o comportamento das taxas de juros. Os resultados foram comparados com os obtidos pelo Modelo Vetor-auto regressivo de ordem 1, e constatou-se que o Filtro de Kalman aplicado ao Modelo Vasicek de dois fatores não é o mais indicado para estudos relacionados a previsão das taxas de juros. As limitações desse modelo o restringe em conseguir estimar toda a curva de juros de uma só vez denegrindo seus resultados.
Resumo:
A tradicional representação da estrutura a termo das taxas de juros em três fatores latentes (nível, inclinação e curvatura) teve sua formulação original desenvolvida por Charles R. Nelson e Andrew F. Siegel em 1987. Desde então, diversas aplicações vêm sendo desenvolvidas por acadêmicos e profissionais de mercado tendo como base esta classe de modelos, sobretudo com a intenção de antecipar movimentos nas curvas de juros. Ao mesmo tempo, estudos recentes como os de Diebold, Piazzesi e Rudebusch (2010), Diebold, Rudebusch e Aruoba (2006), Pooter, Ravazallo e van Dijk (2010) e Li, Niu e Zeng (2012) sugerem que a incorporação de informação macroeconômica aos modelos da ETTJ pode proporcionar um maior poder preditivo. Neste trabalho, a versão dinâmica do modelo Nelson-Siegel, conforme proposta por Diebold e Li (2006), foi comparada a um modelo análogo, em que são incluídas variáveis exógenas macroeconômicas. Em paralelo, foram testados dois métodos diferentes para a estimação dos parâmetros: a tradicional abordagem em dois passos (Two-Step DNS), e a estimação com o Filtro de Kalman Estendido, que permite que os parâmetros sejam estimados recursivamente, a cada vez que uma nova informação é adicionada ao sistema. Em relação aos modelos testados, os resultados encontrados mostram-se pouco conclusivos, apontando uma melhora apenas marginal nas estimativas dentro e fora da amostra quando as variáveis exógenas são incluídas. Já a utilização do Filtro de Kalman Estendido mostrou resultados mais consistentes quando comparados ao método em dois passos para praticamente todos os horizontes de tempo estudados.
Resumo:
Este trabalho visa sistematizar um modelo para previsão e explicação dos movimentos de curto prazo da estrutura a termo de taxas de juros pré-fixada em reais do Brasil, baseado na relação dos movimentos em questão com os níveis e alterações que se processam nas variáveis macroeconômicas relevantes. A metodologia usada foi dividir o procedimento em duas etapas: Na primeira etapa, o modelo de Svensson (1994) é usado para ajustar a Estrutura a Termo de Taxas de Juros de cada data específica para obter os parâmetros daquela data. Isso é conseguido através da maximização da estatística R2 na regressão de mínimos quadrados, como sugerido no artigo original de Nelson e Siegel (1987). Então, as medianas dos dois parâmetros de decaimento utilizados são calculadas e mantidas arbitrariamente constantes para facilitar os cálculos da segunda etapa. Na segunda etapa, uma vez que os estimadores que melhor se ajustam às curvas de juros foram obtidos, outra regressão de MQO é realizada considerando os betas de Svensson dependentes de variáveis macroeconômicas de estado.
Resumo:
Utilizando dados financeiros brasileiros da BM&F, testa-se a validade do modelo de valor pre- sente (MVP) na estrutura a termo de juros, também conhecido na literatura como Hipótese das Expectativas. Estes modelos relacionam a taxa de juros de longo prazo à uma média das taxas de juros de curto-prazo mais um prêmio de risco, invariante no tempo. Associada a estes modelos está a questão da previsibilidade dos retornos de ativos financeiros ou, mais especificamente, a previsibilidade na evolução das taxas de juros. Neste artigo é realizada uma análise multivariada em um arcabouço de séries temporais utilizando a técnica de Au- torregressões Vetoriais. Os resultados empíricos aceitam apenas parcialmente a Hipótese das Expectativas para a estrutura a termo de juros brasileira.
Resumo:
o presente trabalho versa, fundamentalmente, sobre o entendimento da volatilidade, sua modelagem e estimação. Como objeto mais específico, tem-se a comparação de dois métodos de estimação da razão de hedge para uma carteira com dois ativos: dólar spot e dólar futuro. Usando dados para dois períodos - abril de 1995 a março de 2004 e janeiro de 1999 a 30 de março de 2004 -, a análise pelo método MGARCH-BEKK-Diagonal se mostrou superior ao MQO, no sentido de que, com o primeiro, conseguiu-se uma variação percentual negativa da variância da carteira em relação à carteira sem hedge - resultado oposto ao obtido, usando-se a outra abordagem. Sugere-se aqui que a explicação do sucesso de um modelo multivariado - extensão do modelo ARCH inicialmente proposto por Engle (1982) - deve-se a sua melhor adequação a um fato estilizado em Finanças: a concentração de volatilidade durante certos períodos, bem como ao uso de uma covariância em cuja estrutura se consideram seu caráter autoregressivo e o efeito de choques passados. A redução percentual da variância obtida indica ainda a importância do mercado futuro de dólar para a atividade de hedge e para a diminuição da incerteza.
Resumo:
Este trabalho compara diferentes metodologias de previsão de volatilidade para vértices da estrutura a termo de juros em reais e propõe um novo modelo, batizado como COPOM-GARCH, para estimação desta. O modelo COPOM-GARCH se utiliza de duas variáveis dummy, uma no dia de divulgação do resultado da Reunião do COPOM e outra no dia seguinte, para fazer uma melhor previsão da volatilidade tanto nestes dois dias quanto nos dias subseqüentes.
Resumo:
Rio de Janeiro
Resumo:
Litterman e Scheinkman (1991) mostram que mesmo uma carteira de renda xa duration imunizada (neutra) pode sofrer grandes perdas e, portanto, propõem fazer hedge de carteiras utilizando a análise de componentes principais. O problema é que tal abordagem só é possível quando as taxas de juros são observáveis. Assim, quando as taxas de juros não são observáveis, como é o caso da maior parte dos mercados de dívida externa e interna de diversos países emergentes, o método não é diretamente aplicável. O presente trabalho propõe uma abordagem alternativa: hedge baseado nos fatores de um modelo paramétrico de estrutura a termo. A imunização feita utilizando esta abordagem não só se mostra simples e e ciente, mas também, equivalente ao procedimento de imunização proposto por Litterman e Scheinkman quando as taxas são observáveis. Exemplos do método para operações de hedge e alavancagem no mercado de títulos da dívida pública brasileira indexada a in ação são apresentados. O trabalho ainda discute como montar e apreçar carteiras que replicam fatores de risco, o que permite extrair alguma informação sobre a expectativa dos agentes acerca do comportamento futuro da curva de juros. Por m, faz uma comparação da expectativa de in ação futura implícita nos preços dos títulos públicos da dívida interna brasileira (LTN/NTN-F e NT
Resumo:
A estrutura da maioria das modernas empresas está baseada na separação entre propriedade e controle. Os processos de decisão dessas empresas baseiam-se no desenho subjacente a essa estrutura, e todo este conjunto (desenho e processos) constitui o modelo de Governança Corporativa da empresa. Tal modelo implica uma série de conflitos e de assimetrias de informação, devidamente identificados na literatura de Teoria de Agencia e alargado na moderna pesquisa em Governança Corporativa. Este trabalho visa contribuir para a compreensão da relação entre os modelos de Governança Corporativa e o valor das empresas Brasileiras, medido pelo seu desempenho na Bolsa de Valores de São Paulo entre os anos de 2002 e 2006. Em particular pretende-se verificar se existe uma relação significante entre a separação propriedade / controle e o valor das empresas Brasileiras, além de se testar a linearidade desta relação.