263 resultados para Condicional contrafáctico
Resumo:
Apresento aqui uma abordagem que unifica a literatura sobre os vários modelos de apreçamento de derivativos que consiste em obter por argumentos intuitivos de não arbitragem uma Equação Diferencial Parcial(EDP) e através do método de Feynman-Kac uma solução que é representada por uma esperança condicional de um processo markoviano do preço do derivativo descontado pela taxa livre de risco. Por este resultado, temos que a esperança deve ser tomada com relação a processos que crescem à taxa livre de risco e por este motivo dizemos que a esperança é tomada em um mundo neutro ao risco(ou medida neutra ao risco). Apresento ainda como realizar uma mudança de medida pertinente que conecta o mundo real ao mundo neutro ao risco e que o elemento chave para essa mudança de medida é o preço de mercado dos fatores de risco. No caso de mercado completo o preço de mercado do fator de risco é único e no caso de mercados incompletos existe uma variedade de preços aceitáveis para os fatores de risco pelo argumento de não arbitragem. Neste último caso, os preços de mercado são geralmente escolhidos de forma a calibrar o modelo com os dados de mercado.
Resumo:
Este estudo compara previsões de volatilidade de sete ações negociadas na Bovespa usando 02 diferentes modelos de volatilidade realizada e 03 de volatilidade condicional. A intenção é encontrar evidências empíricas quanto à diferença de resultados que são alcançados quando se usa modelos de volatilidade realizada e de volatilidade condicional para prever a volatilidade de ações no Brasil. O período analisado vai de 01 de Novembro de 2007 a 30 de Março de 2011. A amostra inclui dados intradiários de 5 minutos. Os estimadores de volatilidade realizada que serão considerados neste estudo são o Bi-Power Variation (BPVar), desenvolvido por Barndorff-Nielsen e Shephard (2004b), e o Realized Outlyingness Weighted Variation (ROWVar), proposto por Boudt, Croux e Laurent (2008a). Ambos são estimadores não paramétricos, e são robustos a jumps. As previsões de volatilidade realizada foram feitas através de modelos autoregressivos estimados para cada ação sobre as séries de volatilidade estimadas. Os modelos de variância condicional considerados aqui serão o GARCH(1,1), o GJR (1,1), que tem assimetrias em sua construção, e o FIGARCH-CHUNG (1,d,1), que tem memória longa. A amostra foi divida em duas; uma para o período de estimação de 01 de Novembro de 2007 a 30 de Dezembro de 2010 (779 dias de negociação) e uma para o período de validação de 03 de Janeiro de 2011 a 31 de Março de 2011 (61 dias de negociação). As previsões fora da amostra foram feitas para 1 dia a frente, e os modelos foram reestimados a cada passo, incluindo uma variável a mais na amostra depois de cada previsão. As previsões serão comparadas através do teste Diebold-Mariano e através de regressões da variância ex-post contra uma constante e a previsão. Além disto, o estudo também apresentará algumas estatísticas descritivas sobre as séries de volatilidade estimadas e sobre os erros de previsão.
Resumo:
Motivados pelo debate envolvendo modelos estruturais e na forma reduzida, propomos nesse artigo uma abordagem empírica com o objetivo de ver se a imposição de restrições estruturais melhoram o poder de previsibilade vis-a-vis modelos irrestritos ou parcialmente restritos. Para respondermos nossa pergunta, realizamos previsões utilizando dados agregados de preços e dividendos de ações dos EUA. Nesse intuito, exploramos as restrições de cointegração, de ciclo comum em sua forma fraca e sobre os parâmetros do VECM impostas pelo modelo de Valor Presente. Utilizamos o teste de igualdade condicional de habilidade de previsão de Giacomini e White (2006) para comparar as previsões feitas por esse modelo com outros menos restritos. No geral, encontramos que os modelos com restrições parciais apresentaram os melhores resultados, enquanto o modelo totalmente restrito de VP não obteve o mesmo sucesso.
Resumo:
As linhas de crédito concedidas pelo FMI em casos de crises de liquidez diferem quanto às condições impostas aos credores. Em alguns casos, os recursos são emprestados sem a imposição de condições a serem cumpridas pelo país devedor. Em outros casos, os recursos são liberados depois que o país cumpriu as chamadas condicionalidades. O trabalho constrói um modelo teórico para estudar os trade-offs envolvidos nas condicionalidades que o FMI impõe ao conceder linhas de crédito. O modelo procura entender em quais momentos é melhor um auxílio imediato do FMI ou um auxílio condicional. Empréstimos condicionais aumentam os incentivos para medidas fiscais que melhoram a capacidade do país pagar a dívida (pois os empréstimos não são concedidos se essas medidas não são tomadas), mas um auxílio imediato tem a vantagem de economizar custos de liquidez. O modelo mostra que o incentivo do país para pagar sua dívida soberana é côncavo na condicionalidade. Isso significa que, em casos extremos, o melhor tipo de condicionalidade é o ex-ante (auxílio imediato mediante condições pre-estabelecidas) ou o ex-post (auxílio contingente ao cumprimento das condicionalidades). No entanto, em casos nos quais tanto uma ajuda de liquidez imediata, quanto o empréstimo condicional às mudanças na política fiscal aumentam o incentivo do país pagar a dívida, as condicionalidades assumem um caráter de complementaridade. O resultado corrobora o desenho das linhas de crédito do FMI, já que há desenhos que contemplam tanto as duas condicionalidades quanto apenas uma delas.
Resumo:
This dissertation deals with the problem of making inference when there is weak identification in models of instrumental variables regression. More specifically we are interested in one-sided hypothesis testing for the coefficient of the endogenous variable when the instruments are weak. The focus is on the conditional tests based on likelihood ratio, score and Wald statistics. Theoretical and numerical work shows that the conditional t-test based on the two-stage least square (2SLS) estimator performs well even when instruments are weakly correlated with the endogenous variable. The conditional approach correct uniformly its size and when the population F-statistic is as small as two, its power is near the power envelopes for similar and non-similar tests. This finding is surprising considering the bad performance of the two-sided conditional t-tests found in Andrews, Moreira and Stock (2007). Given this counter intuitive result, we propose novel two-sided t-tests which are approximately unbiased and can perform as well as the conditional likelihood ratio (CLR) test of Moreira (2003).
Resumo:
O objetivo desse trabalho é estimar a medida dinâmica VNET de profundidade de mercado para ações brasileiras a partir de dados de transação. VNET mede a diferença no número de ações compradas e vendidas no intervalo de tempo necessário para que o preço se movesse além de um determinado incremento. É uma medida de liquidez realizada para uma deterioração específica de preço que pode ser calculada seguidamente ao longo do dia, capturando assim a dinâmica de curto prazo da liquidez. Em particular, assume-se que essa duração de preços segue um modelo autorregressivo de duração condicional (ACD). A natureza pré-determinada do processo ACD é conveniente porque nos permite prever mudanças futuras na liquidez de uma ação. Assim, ao identificar os melhores momentos para realizar uma operação de compra ou venda, o VNET é um excelente ponto de partida para qualquer estratégia de execução ótima. Os resultados empíricos deste trabalho indicam que a profundidade de mercado medida pelo VNET varia com ágio de compra e venda, com o volume negociado, com o número de negócios, com a duração de preços condicional, e com o seu erro de previsão. Para estimar a curva de reação do mercado, variamos os intervalos de preço usados na definição das durações de preços.
Resumo:
A presente tese é composta por três ensaios. O primeiro ensaio estuda os ciclos de negócios brasileiro no período dos anos 1900 até 2012. Uma série trimestral do PIB real é elaborada, utilizando um modelo estrutural de séries de tempo. A partir disso, um modelo com mudança Markoviana é proposto para que seja construída uma cronologia de ciclo de negócios. O modelo selecionado possui dois regimes distintos, cenários de expansão e de recessão, a datação obtida é comparada com outros estudos sobre o tema e são propostas caracterizações das fases de crescimento que podem apoiar estudos sobre a história econômica do Brasil. O segundo ensaio estuda o comportamento da velocidade da moeda no ciclo de negócios brasileiro de 1900 até 2013. Os resultados a partir das estimativas dos modelos de séries temporais, MS e GARCH, são utilizados para suportar esse estudo. Em termos gerais a velocidade da moeda no Brasil apresentou queda até a segunda Guerra Mundial, cresceu até meados dos anos 1990 e a partir disso segue em tendência de queda. A experiência inflacionária brasileira é capítulo importante de nossa história econômica. O objetivo do terceiro ensaio é estudar a volatilidade da inflação brasileira ao longo do tempo no período de 1939 até 2013, buscando descrever sua relação com a taxa de inflação, adotando como referência uma datação de ciclos de negócios. Para realizar essa descrição serão utilizados os resultados obtidos nas estimações de modelos econométricos das classes GARCH, BSM e MS. No caso brasileiro a indicação é que a taxa de inflação impacta positivamente sua volatilidade.
Resumo:
O presente trabalho utiliza os dados disponibilizados pela BM&FBovespa para analisar as ações da Petrobrás para os meses compreendidos entre julho e agosto de 2010 e outubro de 2008. Primeiramente, apresentamos uma discussão detalhada sobre a manipulação desses dados, na qual explicitamos a impossibilidade de se usar o mid-price quote devido ao número elevado de ofertas de compra/venda com preços muito elevados/baixos. Verificamos alguns dos fatos estilizados empíricos apontados por Cont (2001), entre outros consagrados na literatura de microestrutura. Em geral, os dados replicaram os fatos estilizados. Aplicamos o filtro proposto por Brownlees e Gallo (2006) às ações da Petrobrás e analisamos a sensibilidade do número de possíveis outliers encontrados pelo filtro a variação dos parâmetros desse filtro. Propomos utilizar o critério de Akaike para ordenar e selecionar modelos de duração condicional cujas amostras de duração possuem tamanhos distintos. Os modelos selecionados, nem sempre são aqueles em que os dados foram filtrados. Para o ajuste ACD (1,1), quando considerados apenas os modelos bem ajustados (resíduos não autocorrelacionados), o critério de Akaike indica como melhor modelo aquele em que os dados não foram filtrados.
A oferta de bens perecíveis : determinação das curvas e estimativas para o mercado varejista Carioca
Resumo:
Neste artigo desenvolvemos um modelo de otimização que permite determinar curvas de oferta para produtos perecíveis. As informações disponíveis ao produtor(vendedor) sobre a demanda são sumarizadas por uma distribuição de probabilidade, a qual lhe permitirá determinar a oferta que maximiza seu gannho esperado. A função objetivo levará em conta, conjuntamente, as perdas decorrentes de um estoque excedente e parcelas do custo de oportunidade de um estoque insuficiente. Esta formalização inclui a função lucro (contábil) como um caso particular. Aplicações do modelo teórico são feitas para demandas absolutamente contínuas com distribuição admitindo inversa explícita, tais como a exponencial truncada, Pareto, Weibull e uniforme. Estimativas empíricas são obtidas para a oferta de tomates, chuchus e pimentões no mercado varejista Carioca (Julho/94 à Nov/00). Os resultados obtidos confirmam as hipóteses racionais do modelo teórico. As elasticidades-preço da oferta (no varejo) e da demanda (no atacado) são estimadas, assim que o valor da oferta ”contratual ”, nos casos em que parte dos custos dos saldos de estoque são recuperados por vendas em liquidação. A análise gráfica das curvas de oferta e de densidade da demanda sugerem a presença de significativo poder de mercado na comercialização do pimentão. Duas extensões imediatas do modelo formal são desenvolvidas. A primeira delas incorpora a existência de poder de mercado no mercado varejista. A segunda introduz uma estrutura de jogo simultâneo no mercado oligopolista onde cada produtor escolhe a curva que maximiza seu lucro esperado condicional, dado que as ofertas dos concorrentes igualam suas demandas. No equilíbrio de Nash, curvas de oferta ótimas são obtidas. Comparações são feitas com as curvas ótimas obtidas em regime de autarquia.
Resumo:
Esta tese é constituída por três ensaios. O primeiro ensaio analisa a informação pública disponível sobre o risco das carteiras de crédito dos bancos brasileiros, sendo dividido em dois capítulos. O primeiro analisa a limitação da informação pública disponibilizada pelos bancos e pelo Banco Central, quando comparada a informação gerencial disponível internamente pelos bancos. Concluiu-se que existe espaço para o aumento da transparência na divulgação das informações, fato que vem ocorrendo gradativamente no Brasil através de novas normas relacionadas ao Pilar 3 de Basileia II e à divulgação de informações mais detalhas pelo Bacen, como, por exemplo, aquelas do “Top50” . A segunda parte do primeiro ensaio mostra a discrepância entre o índice de inadimplência contábil (NPL) e a probabilidade de inadimplência (PD) e também discute a relação entre provisão e perda esperada. Através da utilização de matrizes de migração e de uma simulação baseada na sobreposição de safras de carteira de crédito de grandes bancos, concluiu-se que o índice de inadimplência subestima a PD e que a provisão constituída pelos bancos é menor que a perda esperada do SFN. O segundo ensaio relaciona a gestão de risco à discriminação de preço. Foi desenvolvido um modelo que consiste em um duopólio de Cournot em um mercado de crédito de varejo, em que os bancos podem realizar discriminação de terceiro grau. Neste modelo, os potenciais tomadores de crédito podem ser de dois tipos, de baixo ou de alto risco, sendo que tomadores de baixo risco possuem demanda mais elástica. Segundo o modelo, se o custo para observar o tipo do cliente for alto, a estratégia dos bancos será não discriminar (pooling equilibrium). Mas, se este custo for suficientemente baixo, será ótimo para os bancos cobrarem taxas diferentes para cada grupo. É argumentado que o Acordo de Basileia II funcionou como um choque exógeno que deslocou o equilíbrio para uma situação com maior discriminação. O terceiro ensaio é divido em dois capítulos. O primeiro discute a aplicação dos conceitos de probabilidade subjetiva e incerteza Knigthiana a modelos de VaR e a importância da avaliação do “risco de modelo”, que compreende os riscos de estimação, especificação e identificação. O ensaio propõe que a metodologia dos “quatro elementos” de risco operacional (dados internos, externos, ambiente de negócios e cenários) seja estendida à mensuração de outros riscos (risco de mercado e risco de crédito). A segunda parte deste último ensaio trata da aplicação do elemento análise de cenários para a mensuração da volatilidade condicional nas datas de divulgação econômica relevante, especificamente nos dias de reuniões do Copom.
Resumo:
We develop an affine jump diffusion (AJD) model with the jump-risk premium being determined by both idiosyncratic and systematic sources of risk. While we maintain the classical affine setting of the model, we add a finite set of new state variables that affect the paths of the primitive, under both the actual and the risk-neutral measure, by being related to the primitive's jump process. Those new variables are assumed to be commom to all the primitives. We present simulations to ensure that the model generates the volatility smile and compute the "discounted conditional characteristic function'' transform that permits the pricing of a wide range of derivatives.
Resumo:
Esta tese é composta por três artigos e uma nota, sendo um em cada capítulo. Todos os capítulos enquadram-se na área de Microeconomia Aplicada e Economia do Trabalho. O primeiro artigo estende o modelo tradicional de decomposição das flutuações na taxa de desemprego de Shimer (2012), separando o emprego formal do informal. Com essa modificação, os principais resultados da metodologia se alteram e conclui-se que os principais fatores para a queda do desemprego na última década foram (i) a queda na taxa de participação, principalmente pela menor entrada na força de trabalho; (ii) o aumento da formalização, atingido tanto pelo aumento da probabilidade de encontrar um trabalho formal quanto pela probabilidade de deixar a condição de empregado formal. O segundo capítulo apresenta estimativas para o retorno à educação no Brasil, utilizando uma nova metodologia que não necessita de variáveis de exclusão. A vantagem do método em relação a abordagens que utilizam variáveis instrumentais é a de permitir avaliar o retorno médio para todos os trabalhadores (e não somente os afetados pelos instrumentos) e em qualquer instante do tempo. Face aos resultados, concluímos as estimativas via MQO subestimam o retorno médio. Discute-se possíveis explicações para esse fenômeno. O terceiro artigo trata da terceirização da mão de obra no Brasil. Mais especificamente, mede-se o diferencial de salários entre os trabalhadores terceirizados e os contratados diretamente. Os resultados de uma comparação não condicional indicam que os terceirizados têm salário médio 17% menor no período 2007 a 2012. Porém, com estimativas que levam em conta o efeito fixo de cada trabalhador, esse diferencial cai para 3,0%. Além disso, o diferencial é bastante heterogêneo entre os tipos de serviços: aqueles que utilizam trabalhadores de baixa qualificação apresentam salário menores, enquanto nas ocupações de maior qualificação os terceirizados têm salários iguais ou maiores do que os diretamente contratados. Mais ainda, as evidencias apontam para a diminuição do diferencial ao longo do tempo no período analisado. Finalmente, a nota que encerra a tese documenta dois aspectos relevantes e pouco conhecidos da Pesquisa Mensal de Emprego do IBGE que podem levar a resultados imprecisos nas pesquisas que utilizam esse painel se não forem tratados adequadamente.
Resumo:
O objetivo desse trabalho é encontrar uma medida dinâmica de liquidez de ações brasileiras, chamada VNET. Foram utilizados dados de alta frequência para criar um modelo capaz de medir o excesso de compras e vendas associadas a um movimento de preços. Ao variar no tempo, o VNET pode ser entendido como a variação da proporção de agentes informados em um modelo de informação assimétrica. Uma vez estimado, ele pode ser utilizado para prever mudanças na liquidez de uma ação. O VNET tem implicações práticas importantes, podendo ser utilizado por operadores como uma medida estocástica para identificar quais seriam os melhores momentos para operar. Gerentes de risco também podem estimar a deterioração de preço esperada ao se liquidar uma posição, sendo possível analisar suas diversas opções, servindo de base para otimização da execução. Na construção do trabalho encontramos as durações de preço de cada ação e as diversas medidas associadas a elas. Com base nos dados observa-se que a profundidade varia com ágio de compra e venda, com o volume negociado, com o numero de negócios, com a duração de preços condicional e com o seu erro de previsão. Os resíduos da regressão de VNET se mostraram bem comportados o que corrobora a hipótese de que o modelo foi bem especificado. Para estimar a curva de reação do mercado, variamos os intervalos de preço usados na definição das durações.
Resumo:
Neste trabalho, estudamos os impactos de transfer^encias condicionais de renda sobre o trabalho e a educa c~ao infantis. Para tanto, desenvolvemos modelo din^amico de equil brio geral com agentes heterog^eneos, onde as fam lias enfrentam tradeo s com rela c~ao a aloca c~ao de tempo das crian cas em atividades de lazer, em escolaridade e em trabalhar. O modelo e calibrado usando dados da Pesquisa Nacional por Amostra em Domic lios, de modo que podemos quanti car os efeitos de uma pol tica de transfer^encia de renda. Finalmente, avaliamos o impacto de um pol tica semelhante ao atual Bolsa Fam lia. Nossos resultados sugerem que o programa, no longo prazo, e capaz de induzir um aumento substancial na escolaridade, al em de ser efetivo na redu c~ao do trabalho infantil e da pobreza. Al em disso, mostramos que um programa progressivo de transfer^encia condicional de renda resulta em benef cios ainda maiores.
Resumo:
Revendo a definição e determinação de bolhas especulativas no contexto de contágio, este estudo analisa a bolha do DotCom nos mercados acionistas americanos e europeus usando o modelo de correlação condicional dinâmica (DCC) proposto por Engle e Sheppard (2001) como uma explicação econométrica e, por outro lado, as finanças comportamentais como uma explicação psicológica. Contágio é definido, neste contexto, como a quebra estatística nos DCC’s estimados, medidos através das alterações das suas médias e medianas. Surpreendentemente, o contágio é menor durante bolhas de preços, sendo que o resultado principal indica a presença de contágio entre os diferentes índices dos dois continentes e demonstra a presença de alterações estruturais durante a crise financeira.