12 resultados para rule-based algorithms
em Repositório digital da Fundação Getúlio Vargas - FGV
Resumo:
The most widely used updating rule for non-additive probalities is the Dempster-Schafer rule. Schmeidles and Gilboa have developed a model of decision making under uncertainty based on non-additive probabilities, and in their paper “Updating Ambiguos Beliefs” they justify the Dempster-Schafer rule based on a maximum likelihood procedure. This note shows in the context of Schmeidler-Gilboa preferences under uncertainty, that the Dempster-Schafer rule is in general not ex-ante optimal. This contrasts with Brown’s result that Bayes’ rule is ex-ante optimal for standard Savage preferences with additive probabilities.
Resumo:
Este estudo investiga o poder preditivo fora da amostra, um mês à frente, de um modelo baseado na regra de Taylor para previsão de taxas de câmbio. Revisamos trabalhos relevantes que concluem que modelos macroeconômicos podem explicar a taxa de câmbio de curto prazo. Também apresentamos estudos que são céticos em relação à capacidade de variáveis macroeconômicas preverem as variações cambiais. Para contribuir com o tema, este trabalho apresenta sua própria evidência através da implementação do modelo que demonstrou o melhor resultado preditivo descrito por Molodtsova e Papell (2009), o “symmetric Taylor rule model with heterogeneous coefficients, smoothing, and a constant”. Para isso, utilizamos uma amostra de 14 moedas em relação ao dólar norte-americano que permitiu a geração de previsões mensais fora da amostra de janeiro de 2000 até março de 2014. Assim como o critério adotado por Galimberti e Moura (2012), focamos em países que adotaram o regime de câmbio flutuante e metas de inflação, porém escolhemos moedas de países desenvolvidos e em desenvolvimento. Os resultados da nossa pesquisa corroboram o estudo de Rogoff e Stavrakeva (2008), ao constatar que a conclusão da previsibilidade da taxa de câmbio depende do teste estatístico adotado, sendo necessária a adoção de testes robustos e rigorosos para adequada avaliação do modelo. Após constatar não ser possível afirmar que o modelo implementado provém previsões mais precisas do que as de um passeio aleatório, avaliamos se, pelo menos, o modelo é capaz de gerar previsões “racionais”, ou “consistentes”. Para isso, usamos o arcabouço teórico e instrumental definido e implementado por Cheung e Chinn (1998) e concluímos que as previsões oriundas do modelo de regra de Taylor são “inconsistentes”. Finalmente, realizamos testes de causalidade de Granger com o intuito de verificar se os valores defasados dos retornos previstos pelo modelo estrutural explicam os valores contemporâneos observados. Apuramos que o modelo fundamental é incapaz de antecipar os retornos realizados.
Resumo:
Neste artigo estimamos e simulamos um modelo macroeconômico aberto de expectativas racionais (Batini e Haldane [4]) para a economia brasileira, com o objetivo de identificar as características das regras monetárias ótimas e a dinâmica de curto prazo gerada por elas. Trabalhamos com uma versão forward-Iooking e uma versão backward-Iooking a fim de comparar o desempenho de três parametrizações de regras monetárias, que diferem em relação à variável de inflação: a tradicional regra de Taylor, que se baseia na inflação passada; uma regra que combina inflação e taxa de câmbio real (ver Ball [5]) e uma regra que utiliza previsões de inflação (ver Bank af England [3]). Resolvemos o modelo numericamente e contruímos fronteiras eficientes em relação às variâncias do produto e da infiação por simulações estocásticas, para choques i.i.d. ou correlacionados. Os conjuntos de regras ótimas para as duas versões são qualitativamente distintos. Devido à incerteza quanto ao grau de forward-Iookingness sugerimos a escolha das regras pela soma das funções objetivos nas duas versões. Concluímos que as regras escolhidas com base neste critério têm perdas moderadas em relação às regras ótimas, mas previnem perdas maiores que resultariam da escolha da regra com base na versão errada. Finalmente calculamos funções de resposta a impulso dos dois modelos para algumas regras selecionadas, a fim de avaliar como diferentes regras monetárias alteram a dinâmica de curto prazo dos dois modelos.
Resumo:
Vague words and expressions are present throughout the standards that comprise the accounting and auditing professions. Vagueness is considered to be a significant source of inexactness in many accounting decision problems and many authors have argued that the neglect of this issue may cause accounting information to be less useful. On the other hand, we can assume that the use of vague terms in accounting standards is inherent to principle based standards (different from rule based standards) and that to avoid vague terms, standard setters would have to incur excessive transaction costs. Auditors are required to exercise their own professional judgment throughout the audit process and it has been argued that the inherent vagueness in accounting standards may influence their decision making processes. The main objective of this paper is to analyze the decision making process of auditors and to investigate whether vague accounting standards create a problem for the decision making process of auditors, or lead to a better outcome. This paper makes the argument that vague standards prompt the use of System 2 type processing by auditors, allowing more comprehensive analytical thinking; therefore, reducing the biases associated with System 1 heuristic processing. If our argument is valid, the repercussions of vague accounting standards are not as negative as presented in previous literature, instead they are positive.
Resumo:
In this paper we construct sunspot equilibria that arrise from chaotic deterministic dynamics. These equilibria are robust and therefore observables. We prove that they may be learned by a sim pie rule based on the histograms or past state variables. This work gives the theoretical justification or deterministic models that might compete with stochastic models to explain real data.
Resumo:
De todo ICMS arrecadado pelos estados brasileiros, 25% é distribuído aos municípios. Os estados são responsáveis por definir as regras de distribuição de 25% destes 25% do ICMS que é transferido aos municípios, os outros 75% seguem o critério do Valor Adicionado Fiscal. Alguns estados alteraram suas leis para que a distribuição seja realizada em função do desempenho dos municípios em algumas áreas com o intuito de incentiva-lo a melhorarem sua performance em busca de uma maior fatia do ICMS. Seguindo esta lógica está o estado do Ceará onde 100% do ICMS distribuído segundo regras estaduais é calculado a partir do desempenho dos municípios em indicadores de resultado nas áreas da educação (72%), saúde (20%) e meio ambiente (8%). Este estudo tem como objetivo estimar o efeito que a mudança da Lei de distribuição do ICMS do Ceará teve em indicadores de resultado da área da educação: IDEB e Prova Brasil. Para tanto, foi utilizado o método da Dupla Diferença por meio da construção de grupos de controle e tratamento. Assim, comparou-se a evolução do desempenho, anteriormente e posteriormente à mudança, de municípios cearenses com municípios parecidos de estados vizinhos, porém, não submetidos a mesma regra de distribuição de ICMS. De forma complementar, foram feitas outras duas analises separando os municípios do estado do Ceará entre ganhadores e perdedores de recursos de ICMS com a mudança na Lei e entre os detentores dos melhores e piores desempenhos de PIB per capita. Os resultados apontam impactos positivos no desempenho dos municípios cearenses tanto no IDEB quanto na Prova Brasil. Mesmo os municípios que perderam recursos com mudança das regras de distribuição de ICMS, melhoraram sua performance na educação. Os municípios mais pobres do estado, que apresentam desempenho pior do que os municípios mais ricos, aumentaram o desempenho reduzindo a diferença de proficiência se comparada aos municípios mais ricos. Neste sentido, há indícios de que a mudança na Lei do ICMS implementada pelo estado do Ceará gerou impactos positivos no desempenho dos municípios no IDEB e na Prova Brasil.
Resumo:
Market risk exposure plays a key role for nancial institutions risk management. A possible measure for this exposure is to evaluate losses likely to incurwhen the price of the portfolio's assets declines using Value-at-Risk (VaR) estimates, one of the most prominent measure of nancial downside market risk. This paper suggests an evolving possibilistic fuzzy modeling approach for VaR estimation. The approach is based on an extension of the possibilistic fuzzy c-means clustering and functional fuzzy rule-based modeling, which employs memberships and typicalities to update clusters and creates new clusters based on a statistical control distance-based criteria. ePFM also uses an utility measure to evaluate the quality of the current cluster structure. Computational experiments consider data of the main global equity market indexes of United States, London, Germany, Spain and Brazil from January 2000 to December 2012 for VaR estimation using ePFM, traditional VaR benchmarks such as Historical Simulation, GARCH, EWMA, and Extreme Value Theory and state of the art evolving approaches. The results show that ePFM is a potential candidate for VaR modeling, with better performance than alternative approaches.
Resumo:
A determinação da taxa de juros estrutura a termo é um dos temas principais da gestão de ativos financeiros. Considerando a grande importância dos ativos financeiros para a condução das políticas econômicas, é fundamental para compreender a estrutura que é determinado. O principal objetivo deste estudo é estimar a estrutura a termo das taxas de juros brasileiras, juntamente com taxa de juros de curto prazo. A estrutura a termo será modelado com base em um modelo com uma estrutura afim. A estimativa foi feita considerando a inclusão de três fatores latentes e duas variáveis macroeconômicas, através da técnica Bayesiana da Cadeia de Monte Carlo Markov (MCMC).
Resumo:
Consumption is an important macroeconomic aggregate, being about 70% of GNP. Finding sub-optimal behavior in consumption decisions casts a serious doubt on whether optimizing behavior is applicable on an economy-wide scale, which, in turn, challenge whether it is applicable at all. This paper has several contributions to the literature on consumption optimality. First, we provide a new result on the basic rule-of-thumb regression, showing that it is observational equivalent to the one obtained in a well known optimizing real-business-cycle model. Second, for rule-of-thumb tests based on the Asset-Pricing Equation, we show that the omission of the higher-order term in the log-linear approximation yields inconsistent estimates when lagged observables are used as instruments. However, these are exactly the instruments that have been traditionally used in this literature. Third, we show that nonlinear estimation of a system of N Asset-Pricing Equations can be done efficiently even if the number of asset returns (N) is high vis-a-vis the number of time-series observations (T). We argue that efficiency can be restored by aggregating returns into a single measure that fully captures intertemporal substitution. Indeed, we show that there is no reason why return aggregation cannot be performed in the nonlinear setting of the Pricing Equation, since the latter is a linear function of individual returns. This forms the basis of a new test of rule-of-thumb behavior, which can be viewed as testing for the importance of rule-of-thumb consumers when the optimizing agent holds an equally-weighted portfolio or a weighted portfolio of traded assets. Using our setup, we find no signs of either rule-of-thumb behavior for U.S. consumers or of habit-formation in consumption decisions in econometric tests. Indeed, we show that the simple representative agent model with a CRRA utility is able to explain the time series data on consumption and aggregate returns. There, the intertemporal discount factor is significant and ranges from 0.956 to 0.969 while the relative risk-aversion coefficient is precisely estimated ranging from 0.829 to 1.126. There is no evidence of rejection in over-identifying-restriction tests.
Resumo:
The goal of this paper is to debate the degree of effectiveness of the rule of law in Brazil, through a survey measuring perceptions, attitudes and habits of Brazilians in regard to compliance to law. The survey conducted in Brazil is based on the study conducted by Tom R. Tyler in the United States, entitled Why People Obey the Law? (New Haven, CT: Yale University Press, 1990). The main argument of Tyler´s study is that people obey the law when they believe it’s legitimate, and not because they fear punishment. We test the same argument in Brazil, relying on five indicators: (i) behavior, which depicts the frequency with which respondents declared to have engaged in conducts in disobedience to the law; (ii) instrumentality, measuring perception of losses associated with the violation of the law, specially fear of punishment; (iii) morality, measuring perception of how much is right or wrong to engage in certain conducts in violation of the law; (iv) social control, which measures perception of social disapproval of certain types of behavior in violation of the law, and (v) legitimacy, which measures the perception of respect to the law and to some authorities. Results indicate that fear of sanctions is not the strongest drive in compliance to law, but more than legitimacy, indicators of morality and social control are the strongest in explaining why people obey the law in Brazil.
Resumo:
We consider a class of sampling-based decomposition methods to solve risk-averse multistage stochastic convex programs. We prove a formula for the computation of the cuts necessary to build the outer linearizations of the recourse functions. This formula can be used to obtain an efficient implementation of Stochastic Dual Dynamic Programming applied to convex nonlinear problems. We prove the almost sure convergence of these decomposition methods when the relatively complete recourse assumption holds. We also prove the almost sure convergence of these algorithms when applied to risk-averse multistage stochastic linear programs that do not satisfy the relatively complete recourse assumption. The analysis is first done assuming the underlying stochastic process is interstage independent and discrete, with a finite set of possible realizations at each stage. We then indicate two ways of extending the methods and convergence analysis to the case when the process is interstage dependent.
Resumo:
We consider risk-averse convex stochastic programs expressed in terms of extended polyhedral risk measures. We derive computable con dence intervals on the optimal value of such stochastic programs using the Robust Stochastic Approximation and the Stochastic Mirror Descent (SMD) algorithms. When the objective functions are uniformly convex, we also propose a multistep extension of the Stochastic Mirror Descent algorithm and obtain con dence intervals on both the optimal values and optimal solutions. Numerical simulations show that our con dence intervals are much less conservative and are quicker to compute than previously obtained con dence intervals for SMD and that the multistep Stochastic Mirror Descent algorithm can obtain a good approximate solution much quicker than its nonmultistep counterpart. Our con dence intervals are also more reliable than asymptotic con dence intervals when the sample size is not much larger than the problem size.