68 resultados para Distribuições de probabilidades

em Repositório digital da Fundação Getúlio Vargas - FGV


Relevância:

60.00% 60.00%

Publicador:

Resumo:

Contaminação da confiança é um caso especial de incerteza Knightiana ou ambiguidade na qual o tomador de decisões está diante de não apenas uma única distribuição de probabilidades, mas sim de um conjunto de distribuições de probabilidades. A primeira parte desta tese tem o propósito de fornecer uma caracterização da contaminação da confiança e então apresentar um conjunto de axiomas comportamentais simples sob os quais as preferências de um tomador de decisões é representada pela utilidade esperada de Choquet com contaminação da confiança. A segunda parte desta tese apresenta duas aplicações econômicas de contaminação da confiança: a primeira delas generaliza o teorema de existência de equilíbrio de Nash de Dow e Werlang (o que permite apresentar uma solução explícita para o paradoxo segundo o qual os jogadores de um jogo do dilema dos prisioneiros com um número infinito de repetições não agem de acordo com o esperado pelo procedimento da indução retroativa) e a outra estuda o impacto da contaminação da confiança na escolha de portfolio.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Apresentamos a distribuição hiperbólica corno alternativa à distribuição normal para a modelagem em finanças. A distribuição hiperbólica possui a vantagem de ter caudas pesadas e de permitir grande concentração das observações em torno da média. Estas características são verificadas empiricamente para os retornos dos ativos financeiros. Além de possuir um bom ajuste aos dados, o processo de Lévy hiperbólico apresenta caminhos puramente descontínuos. Corno os preços dos ativos seguem trajetórias descontínuas. esta característica consiste em mais urna vantagem desta distribuição. As descontinuidades nos levam a um modelo incompleto. )"lesmo assim, é possível definir urna fórmula para o apreçamento de opções. O bom ajuste aos dados da distribuição hiperbólica pode ser mais um indício de trabalharmos em mercados incompletos. Estimamos os parâmetros da hiperbólica para dados brasileiros. Com a fórmula de apreçamento e com os parâmetros estimados, determinamos os pre(;os para urna opção de Telebrás.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente estudo se localiza no espaço destinado a com preensão do papel da política municipal circunscrito ao caso brasileiro. Busca trabalhar o conceito de poder local, o qual atualmente já se encontra um pouco mais difundido nas análises sobre a dinâmica do poder exercido nos municípios. Além de tentar construir uma discussão explicativa sobre poder local e os diversos ternas articulados no seu questionamento, este trabalho pretende também compreender a tentativa de viabilização do poder local através da proposta do exercício participativo ou da gestão participativa do município. Constitui um exercício dialético de base empírica e teórica visando captar as possibilidades e os limites existentes no seio dessa proposta. A característica essencial do presente estudo ~ sua in tenção de compartilhar do campo de reflexão dos projetos e propostas de educação a partir do município tendo em vista a construção de urna escola democrática. Como compreender, planejar e avaliar o processo político-ideológico de ensino-aprendizagem desenvolvido na rede de educação municipal se não houver uma inquietação sobre o papel da escola, assim como a configuração da sua função na esfera municipal? É desejo deste trabalho favorecer esta compreensão, contribuindo com subsídios aos profissionais da área político-educativa. Quanto à abrangência desta pesquisa, integra seu campo analítico as seguintes dimensões: quadro teórico da instância local de poder e dos temas articulados a esta questão, descrição de experiências de gestão municipal com tendência participativa, considerações sobre a proposta de participação da gestão municipal e observações finais sobre as possibilidades e os limites contidos neste tipo de proposta. De maneira mais direta, esta dissertação significa uma tentativa de apresentar um quadro inicial de referências sobre esta ampla problemática em pauta para um posterior amadurecimento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

No trabalho "Equilibrium Valuation of Illiquid Assets" John Krainer e Stephen F. LeRoy desenvolvem um modelo baseado em pesquisa e apropriação e classificam os imóveis como ativos ilíquidos, ou seja, para a efetivação das suas transações é necessário um lapso de tempo e que o comportamento ótimo dos compradores e vendedores é inconsistente com a imediata realização dessas transações. Com intuito de confirmar se a afirmação de Krainer e LeRoy se aplica ao caso brasileiro e quantificar a duração desse lapso, esta dissertação teve por objetivo determinar o tempo médio de venda para os imóveis em lançamento localizados nas cidades de Belo Horizonte, Goiânia, Porto Alegre e Recife, no período de janeiro de 1997 a dezembro de 2001. Inicialmente foram calculadas as probabilidades de venda dos imóveis (Pis) e a partir dessas Pis foram calculados os tempos médios de venda dos imóveis. Para o estabelecimento dessas probabilidades foram desenvolvidos programas usados no aplicativo computacional Matlab (versão 6.0.0.88 release 12). Pôde-se constatar que as transações imobiliárias nos mercados estudados só ocorrem após um lapso de tempo, que variou de oito meses a três anos.

Relevância:

10.00% 10.00%

Publicador:

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nesta dissertação realizou-se um experimento de Monte Carlo para re- velar algumas características das distribuições em amostras finitas dos estimadores Backfitting (B) e de Integração Marginal(MI) para uma regressão aditiva bivariada. Está-se particularmente interessado em fornecer alguma evidência de como os diferentes métodos de seleção da janela hn, tais co- mo os métodos plug-in, impactam as propriedades em pequenas amostras dos estimadores. Está-se interessado, também, em fornecer evidência do comportamento de diferentes estimadores de hn relativamente a seqüência ótima de hn que minimiza uma função perda escolhida. O impacto de ignorar a dependência entre os regressores na estimação da janela é tam- bém investigado. Esta é uma prática comum e deve ter impacto sobre o desempenho dos estimadores. Além disso, não há nenhuma rotina atual- mente disponível nos pacotes estatísticos/econométricos para a estimação de regressões aditivas via os métodos de Backfitting e Integração Marginal. É um dos objetivos a criação de rotinas em Gauss para a implementação prática destes estimadores. Por fim, diferentemente do que ocorre atual- mente, quando a utilização dos estimadores-B e MI é feita de maneira completamente ad-hoc, há o objetivo de fornecer a usuários informação que permita uma escolha mais objetiva de qual estimador usar quando se está trabalhando com uma amostra finita.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Tolerância ao risco é fundamental quando se tomam decisões financeiras. No entanto, a avaliação da tolerância ao risco tem se baseado ao longo dos anos em diferentes metodologias, tais como julgamentos heurísticos e a teoria da utilidade esperada que tem como base a hipótese dos mercados eficientes. Foi dentro desta ótica que este trabalho se desenvolveu. O objetivo é analisar três diferentes questionários de avaliação ao risco que são na prática amplamente utilizados por consultores financeiros. Foi assumido para isso que os investidores são considerados racionais, conhecem e ordenam de forma lógica suas preferências, buscam maximizar a "utilidade" de suas escolhas, e conseguem atribuir com precisão probabilidades aos eventos futuros, quando submetidos a escolhas que envolvam incertezas. No entanto, em uma análise preliminar dos questionários, estes poderiam estar utilizando conceitos de behavioral finance para avaliarem a tolerância ao risco, ao invés de utilizarem somente a metodologia tradicional da teoria da utilidade esperada. Dessa forma tornou-se necessário o estudo dos conceitos de behavioral finance. O primeiro capítulo então trata dos aspectos psicológicos do investidor, procurando entender como este se comporta e como este forma suas preferências. Apesar do estudo assumir racionalidade nas decisões, se a teoria de behavioral estiver correta e os investidores apresentarem desvios a racionalidade, como a teoria prospectiva afirma, o questionário poderia ser o veículo ideal para identificar tais desvios, sendo possível então educar e orientar o indivíduo em suas escolhas financeiras, afim de maximizá-las. O capitulo dois coloca a análise dos questionários inserida no contexto da teoria moderna de finanças, falando das escolhas de portfólio para investidores de longo prazo. O capítulo mostra de forma bem resumida e simplificada como o investidor maximiza a sua utilidade da riqueza. A idéia desse capítulo é entender como alguns julgamentos heurísticos assumidos na prática por consultores financeiros afetam as escolhas de portfólio e em quais condições esses julgamentos heurísticos são verdadeiros. Isso se torna importante pois os questionários mesclam medidas de risco com horizonte de investimentos do investidor. Estes questionários são utilizados para traçar uma política de investimentos completa para o investidor. Para cada perfil de risco encontrado a instituição traça um modelo de alocação de portfólio. O capítulo três trata da avaliação dos questionários em si tendo como base a teoria da utilidade esperada, os conceitos de behaviral finance e as lições tiradas das escolhas de portfólio para investidores de longo prazo.

Relevância:

10.00% 10.00%

Publicador:

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Using the Pricing Equation in a panel-data framework, we construct a novel consistent estimator of the stochastic discount factor (SDF) which relies on the fact that its logarithm is the serial-correlation ìcommon featureîin every asset return of the economy. Our estimator is a simple function of asset returns, does not depend on any parametric function representing preferences, is suitable for testing di§erent preference speciÖcations or investigating intertemporal substitution puzzles, and can be a basis to construct an estimator of the risk-free rate. For post-war data, our estimator is close to unity most of the time, yielding an average annual real discount rate of 2.46%. In formal testing, we cannot reject standard preference speciÖcations used in the literature and estimates of the relative risk-aversion coe¢ cient are between 1 and 2, and statistically equal to unity. Using our SDF estimator, we found little signs of the equity-premium puzzle for the U.S.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

We apply the concept of exchangeable random variables to the case of non-additive robability distributions exhibiting ncertainty aversion, and in the lass generated bya convex core convex non-additive probabilities, ith a convex core). We are able to rove two versions of the law of arge numbers (de Finetti's heorems). By making use of two efinitions. of independence we rove two versions of the strong law f large numbers. It turns out that e cannot assure the convergence of he sample averages to a constant. e then modal the case there is a true" probability distribution ehind the successive realizations of the uncertain random variable. In this case convergence occurs. This result is important because it renders true the intuition that it is possible "to learn" the "true" additive distribution behind an uncertain event if one repeatedly observes it (a sufficiently large number of times). We also provide a conjecture regarding the "Iearning" (or updating) process above, and prove a partia I result for the case of Dempster-Shafer updating rule and binomial trials.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho propõe um modelo de forma reduzida livre de arbitragem para a extração de probabilidades de default a partir de spreads de Swaps de Crédito e aplica-o realizando uma análise da percepção de risco da dívida soberana brasileira confrontando dois momentos com contextos econômicos distintos. É utilizada uma modelagem paramétrica da estrutura temporal das probabilidades condicionais de default para a qual se testa duas formas funcionais distintas: Constante por Partes e Linear por Partes. Os resultados fornecem evidências que corroboram a aplicabilidade do modelo e indicam uma clara vantagem da modelagem Linear por Partes, por se ajustar melhor aos dados e possuir implicações convenientes na estrutura a termo das taxas de juros ajustadas ao risco de default.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este artigo resume os resultados de duas recentes pesquisas desenvolvidas pelos autores no tema da educação e renda. Busca-se (i) estabelecer uma relação entre as distribuições da escolaridade e da renda e (ii) uma explicação para o fato de haver certa tendência à manutenção da desigualdade da renda nos países latino-americanos. O artigo apresenta evidências que sustentam as conclusões teóricas e discute as conseqüências da combinação dos resultados obtidos. Conclui-se que a má distribuição da escolaridade determina a desigualdade da renda, o que cria condições ao favorecimento das classes de maior poder aquisitivo na distribuição de subsídios educacionais. Constitui-se, pois, o que chamamos de “círculo vicioso da desigualdade”, em que a má distribuição de escolaridade de um país gera as condições suficientes à sua perpetuação, implicando a manutenção da desigualdade da renda.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nesse trabalho, estudamos o papel que a percepção de impunidade tem sobre os agentes que escolhem invadir áreas públicas na Amazônia para explorar de forma predatória os recursos florestais e ocupar a terra. Para isso, foi desenvolvido um modelo microeconômico de escolha sob incerteza, em que os fazendeiros comparam os payoffs provenientes da invasão ou de seguir a lei. O payoff da invasão foi calculado do ganho/perda resultante de ser pego ou não no ato ilegal, pesando as probabilidades de cada um desses eventos ocorrer (que é função dos gastos do governo com fiscalização na região). Em seguida, foi calculado a quantidade ótima de gastos do governo em fiscalização, levando em conta um governo interessado em maximizar a produção agropecuária regional, já que, por um lado, o desmatamento resulta em maior disponibilidade de terra para o setor agropecuário, porém, por outro, diminui a produtividade dado seu impacto sobre a qualidade ambiental. Depois, fazemos uma analise sobre desenho de mecanismo e desmatamento, desenvolvendo o melhor mecanismo direto de um Equilíbrio de Nash no jogo de informação perfeita, para em seguida descrever as opções de mecanismos possíveis para o governo brasileiro lidar com o desmatamento na Amazônia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dentre os principais desafios enfrentados no cálculo de medidas de risco de portfólios está em como agregar riscos. Esta agregação deve ser feita de tal sorte que possa de alguma forma identificar o efeito da diversificação do risco existente em uma operação ou em um portfólio. Desta forma, muito tem se feito para identificar a melhor forma para se chegar a esta definição, alguns modelos como o Valor em Risco (VaR) paramétrico assumem que a distribuição marginal de cada variável integrante do portfólio seguem a mesma distribuição , sendo esta uma distribuição normal, se preocupando apenas em modelar corretamente a volatilidade e a matriz de correlação. Modelos como o VaR histórico assume a distribuição real da variável e não se preocupam com o formato da distribuição resultante multivariada. Assim sendo, a teoria de Cópulas mostra-se um grande alternativa, à medida que esta teoria permite a criação de distribuições multivariadas sem a necessidade de se supor qualquer tipo de restrição às distribuições marginais e muito menos as multivariadas. Neste trabalho iremos abordar a utilização desta metodologia em confronto com as demais metodologias de cálculo de Risco, a saber: VaR multivariados paramétricos - VEC, Diagonal,BEKK, EWMA, CCC e DCC- e VaR histórico para um portfólio resultante de posições idênticas em quatro fatores de risco – Pre252, Cupo252, Índice Bovespa e Índice Dow Jones