19 resultados para Teorema de Bayes

em Repositório digital da Fundação Getúlio Vargas - FGV


Relevância:

60.00% 60.00%

Publicador:

Resumo:

Este trabalho tem com objetivo abordar o problema de alocação de ativos (análise de portfólio) sob uma ótica Bayesiana. Para isto foi necessário revisar toda a análise teórica do modelo clássico de média-variância e na sequencia identificar suas deficiências que comprometem sua eficácia em casos reais. Curiosamente, sua maior deficiência não esta relacionado com o próprio modelo e sim pelos seus dados de entrada em especial ao retorno esperado calculado com dados históricos. Para superar esta deficiência a abordagem Bayesiana (modelo de Black-Litterman) trata o retorno esperado como uma variável aleatória e na sequência constrói uma distribuição a priori (baseado no modelo de CAPM) e uma distribuição de verossimilhança (baseado na visão de mercado sob a ótica do investidor) para finalmente aplicar o teorema de Bayes tendo como resultado a distribuição a posteriori. O novo valor esperado do retorno, que emerge da distribuição a posteriori, é que substituirá a estimativa anterior do retorno esperado calculado com dados históricos. Os resultados obtidos mostraram que o modelo Bayesiano apresenta resultados conservadores e intuitivos em relação ao modelo clássico de média-variância.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho, fazendo uso da teoria das equações, iremos cotejar a aplicação de dois métodos clássicos de separação de raízes. Tais métodos, especializados para a "separação" das taxas internas de retorno de um projeto, são superiores às condições de suficiência pois que permitem a determinação do número exato de taxas internas de retorno associadas a um projeto, no intervalo de taxas de juros considerado.

Relevância:

20.00% 20.00%

Publicador:

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Muitos problemas de Dinâmica em Economia se encaixam dentro de uma estrutura de modelos de decisão seqüencial, sendo resolvidos recursivamente. Programação Dinâmica uma técnica de otimização condicionada que se encarrega de solucionar problemas desse tipo. Esse trabalho tem como objetivo apresentar uma resenha dos principais resultados teóricos em Programação Dinâmica. Os métodos da Programação Dinâmica são válidos tanto para problemas determinísticos como para os que incorporam variável incerteza. esperada objetividade de uma dissertação de Mestrado, no entanto, nos impediu de extender análise, deixando assim de considerar explicitamente neste trabalho modelos estocásticos, que teria enriquecido bastante parte destinada aplicações Teor ia Econômica. No capítulo desenvolvemos instrumental matemático, introduzindo uma série de conceitos resultados sobre os quais se constrói análise nos capítulos subsequentes. Ilustramos tais conceitos com exemplos que seguem um certo encadeamento. Nas seções 1.1 1.2 apresentamos as idéias propriedades de espaços métricos espaços vetoriais. Na seção 1.3, prosseguimos com tópicos em análise funcional, introduzindo noção de norma de um vetor de espaços de Banach. seção 1.4 entra com idéia de contração, Teor ema do Ponto Fixo de Banach e o teor ema de Blackwell. O Teorema de Hahn-Banach, tanto na sua forma de extensão quanto na sua forma geométrica, preocupação na seção 1.5. Em particular, forma geométrica desse teorema seus corolários são importantes para análise conduzida no terceiro capítulo. Por fim, na seção 6, apresentamos Teorema do Máximo. Ao final deste capítulo, como também dos demais, procuramos sempre citar as fontes consultadas bem como extensões ou tratamentos alternativos ao contido no texto. No capítulo II apresentamos os resultados métodos da Programação Dinâmica em si seção 2.1 cuida da base da teoria, com Princípio da Otimal idade de Eellman e a derivação de um algoritmo de Programação Dinâmica. Na seção 2.2 mostramos que esse algoritmo converge para função valor ótima de um problema de horizonte infinito, sendo que esta última satisfaz chamada Equação de Bellman. seção seguinte se preocupa em fornecer caracterizaçBes para função valor mencionada acima, mostrando-se propriedades acerca de sua monotonicidade concavidade. seção 2.4 trata da questão da diferenciabi idade da função valor, que permite se obter alguns resultados de estática Cou dinâmica} comparativa partir da Equação de Bellman. Finalmente, na seção 2.5 apresentamos uma primeira aplicação Teoria Econômica, através de um modelo de crescimento econômico ótimo. No capítulo III introduzimos uma outra técnica de otimização Programação Convexa- mostramos dificuldade em se tentar estabelecer alguma relação de dominância entre Programação Dinâmica Programação Convexa. Na seção 3.2 "apresentamos os Teoremas de Separação, dos quais nos utilizamos na seção seguinte para demonstrar existência de Multiplicadores de Lagrange no problema geral da Programação Convexa. No final desta seção dizemos porque não podemos inferir que em espaços de dimensão infinita Programação Convexa não pode ser aplicada, ao contrário da Programação Dinâmica, que evidenciaria uma dominancia dessa última técnica nesses espaços. Finalmente, capítulo IV destinado uma aplicação imediata das técnicas desenvolvidas principalmente no segundo capítulo. Com auxílio dessas técnicas resolve-se um problema de maximização intertemporal, faz-se uma comparação dos resultados obtidos através de uma solução cooperativa de uma solução não-cooperativa.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A dissertação consiste de quarto partes. A primeira é uma resenha sobre a incorporação formal de preocupações com posição relativa (relative concerns) nos modelos econômicos. Creio que existe espaço para uma resenha desse tipo visto que nenhuma foi feita desde 1992, quando começou a literatura relevante para a presente discussão. O ensaio seguinte consiste da prova de um teorema sobre a distribuição igualitária de riqueza no contexto de preocupação com o status social. A conclusão é bastante cínica em relação a uma das vacas sagradas da maioria dos utopismos. O terceiro ensaio é de novo um teorema, de novo como conclusões cínicas, a respeito da intuição que uma sociedade com os membros suficientemente (mas não perfeitamente) altruístas seria estável e sem conflitos. O último ensaio é uma conjectura baseada num artigo recente de David Friedman. A minha ambição foi tentar explicar o comportamento aparentemente puramente caprichoso e irracional de law enforment nos regimes ditatoriais. O que une os ensaios é uma tentativa de rever algumas discussões típicas até mais das ciências humanas que sociais valendo se do instrumental formal da teoria dos jogos e a intolerância à ambiguidades nutrida pelas últimas gerações dos economistas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The most widely used updating rule for non-additive probalities is the Dempster-Schafer rule. Schmeidles and Gilboa have developed a model of decision making under uncertainty based on non-additive probabilities, and in their paper “Updating Ambiguos Beliefs” they justify the Dempster-Schafer rule based on a maximum likelihood procedure. This note shows in the context of Schmeidler-Gilboa preferences under uncertainty, that the Dempster-Schafer rule is in general not ex-ante optimal. This contrasts with Brown’s result that Bayes’ rule is ex-ante optimal for standard Savage preferences with additive probabilities.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Kalai and Lebrer (93a, b) have recently show that for the case of infinitely repeated games, a coordination assumption on beliefs and optimal strategies ensures convergence to Nash equilibrium. In this paper, we show that for the case of repeated games with long (but finite) horizon, their condition does not imply approximate Nash equilibrium play. Recently Kalai and Lehrer (93a, b) proved that a coordination assumption on beliefs and optimal strategies, ensures that pIayers of an infinitely repeated game eventually pIay 'E-close" to an E-Nash equilibrium. Their coordination assumption requires that if players believes that certain set of outcomes have positive probability then it must be the case that this set of outcomes have, in fact, positive probability. This coordination assumption is called absolute continuity. For the case of finitely repeated games, the absolute continuity assumption is a quite innocuous assumption that just ensures that pIayers' can revise their priors by Bayes' Law. However, for the case of infinitely repeated games, the absolute continuity assumption is a stronger requirement because it also refers to events that can never be observed in finite time.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os autores objetivam, com este trabalho preliminar, bem como com aqueles que lhe darão continuidade, na sequência de composição de um livro de matemática para economistas, registrar as suas experiências ao longo dos últimos anos ministrando cadeiras de matemática nos cursos de pós-graduação em economia da Fundação Getúlio Vargas, da UFF (Universidade Federal Fluminense) e da PUC-RJ. Reveste-se de constante repetição em tais cursos a discussão sobre que pontos abordar, bem como com qual grau de profundidade, e em que ordem. É neste sentido que os autores esperam, com a sequência didática que aqui se inicia, trazer alguma contribuição para o assunto. A parte teórica relativa à demonstração do Teorema de Kuhn Tucker aqui apresentada transcreve, com a aquiescência do autor, textos selecionados de "Análise Convexa do Rn." de Mario Henrique Simonsen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

No presente paper, nós provamos que qualquer função da escolha social satisfaz o princípio da independência das alternativas irrelevantes (IIA) de Arrow se o comportamento individual é menu-dependente. Portanto, o 'Teorema da Possibilidade Geral' de Arrow não é válido quando as preferências individuais são determinadas por valores irredutíveis. Nesse contexto, qualquer instrumento de agregação que satisfaça os princípios não-ditatoriais e paretianos de unanimidade (maioria simples, por exemplo) também faz IIA. Esse poderia ser um resultado importante para a teoria da escolha social, enquanto um comportamento individual determinado por valores irredutíveis (interesse próprio, ideologia, Ética e normas sociais, por exemplo) podendo validar democracia representativa. A importância relativa de tais valores e da possibilidade de reversão da preferência determina a dinâmica da escolha social, de acordo com os princípios democráticos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Redes Bayesianas podem ser ferramentas poderosas para construção de modelos econômico-financeiros utilizados para auxílio à tomada de decisão em situações que envolvam grau elevado de incerteza. Relações não-lineares entre variáveis não são capturadas em modelos econométricos lineares. Especialmente em momentos de crise ou de ruptura, relações lineares, em geral, não mais representam boa aproximação da realidade, contribuindo para aumentar a distância entre os modelos teóricos de previsão e dados reais. Neste trabalho, é apresentada uma metodologia para levantamento de dados e aplicação de Redes Bayesianas na obtenção de modelos de crescimento de fluxos de caixa de empresas brasileiras. Os resultados são comparados a modelos econométricos de regressão múltipla e finalmente comparados aos dados reais observados no período. O trabalho é concluído avaliando-se as vantagens de desvantagens da utilização das Redes de Bayes para esta aplicação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The real effects of an imperfectly credible disinflation depend critically on the extent of price rigidity. Therefore, the study of how policymakers’ credibility affects the outcome of an announced disinflation should not be dissociated from the analysis of the determinants of the frequency of price adjustments. In this paper we examine how credibility affects the outcome of a disinflation in a model with endogenous timedependent pricing rules. Both the initial degree of price ridigity, calculated optimally, and, more notably, the changes in contract length during disinflation play an important role in the explanation of the effects of imperfect credibility. We initially evaluate the costs of disinflation in a setup where credibility is exogenous, and then allow agents to use Bayes rule to update beliefs about the “type” of monetary authority that they face. In both cases, the interaction between the endogeneity of time-dependent rules and imperfect credibility increases the output costs of disinflation, but the pattern of the output path is more realistic in the case with learning.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A integração estocástica é a ferramenta básica para o estudo do apreçamento de ativos derivados1 nos modelos de finanças de tempo contínuo. A fórmula de Black e Scholes é o exemplo mais conhecido. Os movimentos de preços de ações, são frequentemente modelados - tanto teóricamente quanto empÍricamente - como seguindo uma equação diferencial estocástica. O livro texto de D. Duflle, "Dynamic asset pricing theory)) 1 usa livremente conceitos como o teorema de Girsanov e a fórmula de Feynrnan-Kac. U fi conhecimento básico da integração estocástica é cada vez mais necessário para quem quer acompanhar a literatura moderna em finanças. Esta introdução à integração estocástica é dirigida para alunos de doutourado e no final de mestrado. Um conhecimento sólid02 de continuidade, limites e facilidade de operar com a notação de conjuntos é fundamental para a compreensão do texto que se segue. Um conhecimento básico de integral de Lebesgue é recomendável. No entanto incluí no texto as definições básicas e os resultados fundamentais da teoria da integral de Lebesgue usados no texto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Contaminação da confiança é um caso especial de incerteza Knightiana ou ambiguidade na qual o tomador de decisões está diante de não apenas uma única distribuição de probabilidades, mas sim de um conjunto de distribuições de probabilidades. A primeira parte desta tese tem o propósito de fornecer uma caracterização da contaminação da confiança e então apresentar um conjunto de axiomas comportamentais simples sob os quais as preferências de um tomador de decisões é representada pela utilidade esperada de Choquet com contaminação da confiança. A segunda parte desta tese apresenta duas aplicações econômicas de contaminação da confiança: a primeira delas generaliza o teorema de existência de equilíbrio de Nash de Dow e Werlang (o que permite apresentar uma solução explícita para o paradoxo segundo o qual os jogadores de um jogo do dilema dos prisioneiros com um número infinito de repetições não agem de acordo com o esperado pelo procedimento da indução retroativa) e a outra estuda o impacto da contaminação da confiança na escolha de portfolio.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Examina o modelo de seleção de portfólios desenvolvido por Markowitz, principalmente no que concerne: as suas relações com a teoria da utilidade de Von Neumann-Morgenstern; aos algo ritmos de solução do problema de Programação Quadrática paramétrica dele decorrente; a simplificação proporcionada pelo Modelo Diagonal de Sharpe. Mostra que a existência de um título sem risco permite a especificação do Teorema da Separação e a simplificação do problema de seleção de portfólios. Analisa o modelo denominado por CAPM, de equilíbrio no Mercado de Capitais sob condições de incerteza, comparando os processos dedutivos empregados por Lintner e Mossin. Examina as implicações decorrentes do relaxamento dos pressupostos subjacentes ã esse modelo de equilíbrio geral, principalmente a teoria do portfólio Zero-Beta desenvolvida por Black.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A Automação e o processo de Robotização vêm, cada vem mais, se tornando pauta nas discussões de centenas de indústrias brasileiras, onde a tendência clara e identificada é a de investimentos expressivos na melhoria de processos e produtos, por intermédio dessas tecnologias; com foco, sempre que possível, na nacionalização de equipamentos. O presente trabalho tem como objetivo avaliar o modelo proposto por Paul Kennedy (1993) com relação à tendência de Automação e Robotização nas Indústrias Mundiais, analisando o estudo realizado diante de uma economia emergente como a brasileira. Para tanto, foram pesquisadas empresas no Brasil, em diferentes segmentos industriais, o estado da arte em termos de tecnologia de automação e robótica aplicada a processos industriais, e sugerido um modelo diferente do idealizado originalmente por Kennedy. A análise do autor se baseou no teorema que, na matemática discreta, chamamos de “law of the excluded middle”, ou seja, segundo Kennedy, o Brasil estaria vivendo hoje uma migração gradual das indústrias para os países ricos. O Brasil é um exemplo de país industrializado, de economia emergente, que investe intensamente em processos automatizados, mas que não é classificado dentro do grupo desses países ricos. Através da pesquisa realizada será apresentado um novo modelo, no qual países emergentes como o Brasil têm acesso à tecnologia de ponta em automação e robótica, aplicando a mesma em seus processos industriais.