7 resultados para elaboration likelihood model
em Repositório digital da Fundação Getúlio Vargas - FGV
Resumo:
O objetivo principal do trabalho é entender melhor como ocorre a persuasão dos consumidores de produtos e de serviços. Nesse intuito. foi desenvolvido um estudo comparativo entre anúncios impressos de equipamentos de informática e de serviços de bancos, para constatar se, nessas categorias de produtos e de serviços , são utilizadas formas de argumentação diferentes com base nas rotas de persuasão do consumidor. Para investigar a formação de atitudes dos consumidores relativas a produtos versus serviços , este trabalho utilizou o modelo de probabilidade de elaboração - Elaboration Likelihood Model (ELM) - proposto por Petty e Cacioppo, e a teoria do envolvimento. A metodologia utilizada foi a análise de conteúdo. A coleta de dados concentrou-se nos textos e imagens dos anúncios de equipamentos de informática e de serviços de bancos publicados na Revista Exame em 2001 . Os dados foram coletados, examinados e classificados de acordo com as formas de argumentação central ou periférica, por meio de quatro variáveis: visual central, visual periférica, textual central e textual periférica. Os resultados obtidos sinalizaram para a existência de diferentes formas de argumentação nos anúncios dos produtos tangíveis e produtos intangíveis da amostra pesquisada. Nos anúncios de equipamentos de informática predominou a argumentação central e nos anúncios de serviços de bancos, a argumentação periférica.
Resumo:
We study the joint determination of the lag length, the dimension of the cointegrating space and the rank of the matrix of short-run parameters of a vector autoregressive (VAR) model using model selection criteria. We consider model selection criteria which have data-dependent penalties for a lack of parsimony, as well as the traditional ones. We suggest a new procedure which is a hybrid of traditional criteria and criteria with data-dependant penalties. In order to compute the fit of each model, we propose an iterative procedure to compute the maximum likelihood estimates of parameters of a VAR model with short-run and long-run restrictions. Our Monte Carlo simulations measure the improvements in forecasting accuracy that can arise from the joint determination of lag-length and rank, relative to the commonly used procedure of selecting the lag-length only and then testing for cointegration.
Resumo:
In this paper, we propose a class of ACD-type models that accommodates overdispersion, intermittent dynamics, multiple regimes, and sign and size asymmetries in financial durations. In particular, our functional coefficient autoregressive conditional duration (FC-ACD) model relies on a smooth-transition autoregressive specification. The motivation lies on the fact that the latter yields a universal approximation if one lets the number of regimes grows without bound. After establishing that the sufficient conditions for strict stationarity do not exclude explosive regimes, we address model identifiability as well as the existence, consistency, and asymptotic normality of the quasi-maximum likelihood (QML) estimator for the FC-ACD model with a fixed number of regimes. In addition, we also discuss how to consistently estimate using a sieve approach a semiparametric variant of the FC-ACD model that takes the number of regimes to infinity. An empirical illustration indicates that our functional coefficient model is flexible enough to model IBM price durations.
Resumo:
The paper provides an alternative model for insurance market with three types of agents: households, providers of a service and insurance companies. Households have uncertainty about future leveIs of income. Providers, if hired by a household, perform a diagnoses and privately learn a signal. For each signal there is a procedure that maximizes the likelihood of the household obtaining the good state of nature. The paper assumes that providers care about their income and also about the likelihood households will obtain the good state of nature (sympathy assumption). This assumption is satisfied if, for example, they care about their reputation or if there are possible litigation costs in case they do not use the appropriate procedure. Finally, insurance companies offer contracts to both providers and households. The paper provides sufficient conditions for the existence of equilibrium and shows that the sympathy assumption 1eads to a 10ss of welfare for the households due to the need to incentive providers to choose the least expensive treatment.
Resumo:
This paper develops a general method for constructing similar tests based on the conditional distribution of nonpivotal statistics in a simultaneous equations model with normal errors and known reducedform covariance matrix. The test based on the likelihood ratio statistic is particularly simple and has good power properties. When identification is strong, the power curve of this conditional likelihood ratio test is essentially equal to the power envelope for similar tests. Monte Carlo simulations also suggest that this test dominates the Anderson- Rubin test and the score test. Dropping the restrictive assumption of disturbances normally distributed with known covariance matrix, approximate conditional tests are found that behave well in small samples even when identification is weak.
Resumo:
O objetivo deste estudo é propor a implementação de um modelo estatístico para cálculo da volatilidade, não difundido na literatura brasileira, o modelo de escala local (LSM), apresentando suas vantagens e desvantagens em relação aos modelos habitualmente utilizados para mensuração de risco. Para estimação dos parâmetros serão usadas as cotações diárias do Ibovespa, no período de janeiro de 2009 a dezembro de 2014, e para a aferição da acurácia empírica dos modelos serão realizados testes fora da amostra, comparando os VaR obtidos para o período de janeiro a dezembro de 2014. Foram introduzidas variáveis explicativas na tentativa de aprimorar os modelos e optou-se pelo correspondente americano do Ibovespa, o índice Dow Jones, por ter apresentado propriedades como: alta correlação, causalidade no sentido de Granger, e razão de log-verossimilhança significativa. Uma das inovações do modelo de escala local é não utilizar diretamente a variância, mas sim a sua recíproca, chamada de “precisão” da série, que segue uma espécie de passeio aleatório multiplicativo. O LSM captou todos os fatos estilizados das séries financeiras, e os resultados foram favoráveis a sua utilização, logo, o modelo torna-se uma alternativa de especificação eficiente e parcimoniosa para estimar e prever volatilidade, na medida em que possui apenas um parâmetro a ser estimado, o que representa uma mudança de paradigma em relação aos modelos de heterocedasticidade condicional.
Resumo:
Esta dissertação se propõe ao estudo de inferência usando estimação por método generalizado dos momentos (GMM) baseado no uso de instrumentos. A motivação para o estudo está no fato de que sob identificação fraca dos parâmetros, a inferência tradicional pode levar a resultados enganosos. Dessa forma, é feita uma revisão dos mais usuais testes para superar tal problema e uma apresentação dos arcabouços propostos por Moreira (2002) e Moreira & Moreira (2013), e Kleibergen (2005). Com isso, o trabalho concilia as estatísticas utilizadas por eles para realizar inferência e reescreve o teste score proposto em Kleibergen (2005) utilizando as estatísticas de Moreira & Moreira (2013), e é obtido usando a teoria assintótica em Newey & McFadden (1984) a estatística do teste score ótimo. Além disso, mostra-se a equivalência entre a abordagem por GMM e a que usa sistema de equações e verossimilhança para abordar o problema de identificação fraca.