42 resultados para Heterocedasticidade condicional


Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo desse trabalho é estimar a medida dinâmica VNET de profundidade de mercado para ações brasileiras a partir de dados de transação. VNET mede a diferença no número de ações compradas e vendidas no intervalo de tempo necessário para que o preço se movesse além de um determinado incremento. É uma medida de liquidez realizada para uma deterioração específica de preço que pode ser calculada seguidamente ao longo do dia, capturando assim a dinâmica de curto prazo da liquidez. Em particular, assume-se que essa duração de preços segue um modelo autorregressivo de duração condicional (ACD). A natureza pré-determinada do processo ACD é conveniente porque nos permite prever mudanças futuras na liquidez de uma ação. Assim, ao identificar os melhores momentos para realizar uma operação de compra ou venda, o VNET é um excelente ponto de partida para qualquer estratégia de execução ótima. Os resultados empíricos deste trabalho indicam que a profundidade de mercado medida pelo VNET varia com ágio de compra e venda, com o volume negociado, com o número de negócios, com a duração de preços condicional, e com o seu erro de previsão. Para estimar a curva de reação do mercado, variamos os intervalos de preço usados na definição das durações de preços.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A presente tese é composta por três ensaios. O primeiro ensaio estuda os ciclos de negócios brasileiro no período dos anos 1900 até 2012. Uma série trimestral do PIB real é elaborada, utilizando um modelo estrutural de séries de tempo. A partir disso, um modelo com mudança Markoviana é proposto para que seja construída uma cronologia de ciclo de negócios. O modelo selecionado possui dois regimes distintos, cenários de expansão e de recessão, a datação obtida é comparada com outros estudos sobre o tema e são propostas caracterizações das fases de crescimento que podem apoiar estudos sobre a história econômica do Brasil. O segundo ensaio estuda o comportamento da velocidade da moeda no ciclo de negócios brasileiro de 1900 até 2013. Os resultados a partir das estimativas dos modelos de séries temporais, MS e GARCH, são utilizados para suportar esse estudo. Em termos gerais a velocidade da moeda no Brasil apresentou queda até a segunda Guerra Mundial, cresceu até meados dos anos 1990 e a partir disso segue em tendência de queda. A experiência inflacionária brasileira é capítulo importante de nossa história econômica. O objetivo do terceiro ensaio é estudar a volatilidade da inflação brasileira ao longo do tempo no período de 1939 até 2013, buscando descrever sua relação com a taxa de inflação, adotando como referência uma datação de ciclos de negócios. Para realizar essa descrição serão utilizados os resultados obtidos nas estimações de modelos econométricos das classes GARCH, BSM e MS. No caso brasileiro a indicação é que a taxa de inflação impacta positivamente sua volatilidade.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Com o objetivo de mostrar uma aplicação dos modelos da família GARCH a taxas de câmbio, foram utilizadas técnicas estatísticas englobando análise multivariada de componentes principais e análise de séries temporais com modelagem de média e variância (volatilidade), primeiro e segundo momentos respectivamente. A utilização de análise de componentes principais auxilia na redução da dimensão dos dados levando a estimação de um menor número de modelos, sem contudo perder informação do conjunto original desses dados. Já o uso dos modelos GARCH justifica-se pela presença de heterocedasticidade na variância dos retornos das séries de taxas de câmbio. Com base nos modelos estimados foram simuladas novas séries diárias, via método de Monte Carlo (MC), as quais serviram de base para a estimativa de intervalos de confiança para cenários futuros de taxas de câmbio. Para a aplicação proposta foram selecionadas taxas de câmbio com maior market share de acordo com estudo do BIS, divulgado a cada três anos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho utiliza os dados disponibilizados pela BM&FBovespa para analisar as ações da Petrobrás para os meses compreendidos entre julho e agosto de 2010 e outubro de 2008. Primeiramente, apresentamos uma discussão detalhada sobre a manipulação desses dados, na qual explicitamos a impossibilidade de se usar o mid-price quote devido ao número elevado de ofertas de compra/venda com preços muito elevados/baixos. Verificamos alguns dos fatos estilizados empíricos apontados por Cont (2001), entre outros consagrados na literatura de microestrutura. Em geral, os dados replicaram os fatos estilizados. Aplicamos o filtro proposto por Brownlees e Gallo (2006) às ações da Petrobrás e analisamos a sensibilidade do número de possíveis outliers encontrados pelo filtro a variação dos parâmetros desse filtro. Propomos utilizar o critério de Akaike para ordenar e selecionar modelos de duração condicional cujas amostras de duração possuem tamanhos distintos. Os modelos selecionados, nem sempre são aqueles em que os dados foram filtrados. Para o ajuste ACD (1,1), quando considerados apenas os modelos bem ajustados (resíduos não autocorrelacionados), o critério de Akaike indica como melhor modelo aquele em que os dados não foram filtrados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste artigo desenvolvemos um modelo de otimização que permite determinar curvas de oferta para produtos perecíveis. As informações disponíveis ao produtor(vendedor) sobre a demanda são sumarizadas por uma distribuição de probabilidade, a qual lhe permitirá determinar a oferta que maximiza seu gannho esperado. A função objetivo levará em conta, conjuntamente, as perdas decorrentes de um estoque excedente e parcelas do custo de oportunidade de um estoque insuficiente. Esta formalização inclui a função lucro (contábil) como um caso particular. Aplicações do modelo teórico são feitas para demandas absolutamente contínuas com distribuição admitindo inversa explícita, tais como a exponencial truncada, Pareto, Weibull e uniforme. Estimativas empíricas são obtidas para a oferta de tomates, chuchus e pimentões no mercado varejista Carioca (Julho/94 à Nov/00). Os resultados obtidos confirmam as hipóteses racionais do modelo teórico. As elasticidades-preço da oferta (no varejo) e da demanda (no atacado) são estimadas, assim que o valor da oferta ”contratual ”, nos casos em que parte dos custos dos saldos de estoque são recuperados por vendas em liquidação. A análise gráfica das curvas de oferta e de densidade da demanda sugerem a presença de significativo poder de mercado na comercialização do pimentão. Duas extensões imediatas do modelo formal são desenvolvidas. A primeira delas incorpora a existência de poder de mercado no mercado varejista. A segunda introduz uma estrutura de jogo simultâneo no mercado oligopolista onde cada produtor escolhe a curva que maximiza seu lucro esperado condicional, dado que as ofertas dos concorrentes igualam suas demandas. No equilíbrio de Nash, curvas de oferta ótimas são obtidas. Comparações são feitas com as curvas ótimas obtidas em regime de autarquia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese é constituída por três ensaios. O primeiro ensaio analisa a informação pública disponível sobre o risco das carteiras de crédito dos bancos brasileiros, sendo dividido em dois capítulos. O primeiro analisa a limitação da informação pública disponibilizada pelos bancos e pelo Banco Central, quando comparada a informação gerencial disponível internamente pelos bancos. Concluiu-se que existe espaço para o aumento da transparência na divulgação das informações, fato que vem ocorrendo gradativamente no Brasil através de novas normas relacionadas ao Pilar 3 de Basileia II e à divulgação de informações mais detalhas pelo Bacen, como, por exemplo, aquelas do “Top50” . A segunda parte do primeiro ensaio mostra a discrepância entre o índice de inadimplência contábil (NPL) e a probabilidade de inadimplência (PD) e também discute a relação entre provisão e perda esperada. Através da utilização de matrizes de migração e de uma simulação baseada na sobreposição de safras de carteira de crédito de grandes bancos, concluiu-se que o índice de inadimplência subestima a PD e que a provisão constituída pelos bancos é menor que a perda esperada do SFN. O segundo ensaio relaciona a gestão de risco à discriminação de preço. Foi desenvolvido um modelo que consiste em um duopólio de Cournot em um mercado de crédito de varejo, em que os bancos podem realizar discriminação de terceiro grau. Neste modelo, os potenciais tomadores de crédito podem ser de dois tipos, de baixo ou de alto risco, sendo que tomadores de baixo risco possuem demanda mais elástica. Segundo o modelo, se o custo para observar o tipo do cliente for alto, a estratégia dos bancos será não discriminar (pooling equilibrium). Mas, se este custo for suficientemente baixo, será ótimo para os bancos cobrarem taxas diferentes para cada grupo. É argumentado que o Acordo de Basileia II funcionou como um choque exógeno que deslocou o equilíbrio para uma situação com maior discriminação. O terceiro ensaio é divido em dois capítulos. O primeiro discute a aplicação dos conceitos de probabilidade subjetiva e incerteza Knigthiana a modelos de VaR e a importância da avaliação do “risco de modelo”, que compreende os riscos de estimação, especificação e identificação. O ensaio propõe que a metodologia dos “quatro elementos” de risco operacional (dados internos, externos, ambiente de negócios e cenários) seja estendida à mensuração de outros riscos (risco de mercado e risco de crédito). A segunda parte deste último ensaio trata da aplicação do elemento análise de cenários para a mensuração da volatilidade condicional nas datas de divulgação econômica relevante, especificamente nos dias de reuniões do Copom.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

We develop an affine jump diffusion (AJD) model with the jump-risk premium being determined by both idiosyncratic and systematic sources of risk. While we maintain the classical affine setting of the model, we add a finite set of new state variables that affect the paths of the primitive, under both the actual and the risk-neutral measure, by being related to the primitive's jump process. Those new variables are assumed to be commom to all the primitives. We present simulations to ensure that the model generates the volatility smile and compute the "discounted conditional characteristic function'' transform that permits the pricing of a wide range of derivatives.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese é composta por três artigos e uma nota, sendo um em cada capítulo. Todos os capítulos enquadram-se na área de Microeconomia Aplicada e Economia do Trabalho. O primeiro artigo estende o modelo tradicional de decomposição das flutuações na taxa de desemprego de Shimer (2012), separando o emprego formal do informal. Com essa modificação, os principais resultados da metodologia se alteram e conclui-se que os principais fatores para a queda do desemprego na última década foram (i) a queda na taxa de participação, principalmente pela menor entrada na força de trabalho; (ii) o aumento da formalização, atingido tanto pelo aumento da probabilidade de encontrar um trabalho formal quanto pela probabilidade de deixar a condição de empregado formal. O segundo capítulo apresenta estimativas para o retorno à educação no Brasil, utilizando uma nova metodologia que não necessita de variáveis de exclusão. A vantagem do método em relação a abordagens que utilizam variáveis instrumentais é a de permitir avaliar o retorno médio para todos os trabalhadores (e não somente os afetados pelos instrumentos) e em qualquer instante do tempo. Face aos resultados, concluímos as estimativas via MQO subestimam o retorno médio. Discute-se possíveis explicações para esse fenômeno. O terceiro artigo trata da terceirização da mão de obra no Brasil. Mais especificamente, mede-se o diferencial de salários entre os trabalhadores terceirizados e os contratados diretamente. Os resultados de uma comparação não condicional indicam que os terceirizados têm salário médio 17% menor no período 2007 a 2012. Porém, com estimativas que levam em conta o efeito fixo de cada trabalhador, esse diferencial cai para 3,0%. Além disso, o diferencial é bastante heterogêneo entre os tipos de serviços: aqueles que utilizam trabalhadores de baixa qualificação apresentam salário menores, enquanto nas ocupações de maior qualificação os terceirizados têm salários iguais ou maiores do que os diretamente contratados. Mais ainda, as evidencias apontam para a diminuição do diferencial ao longo do tempo no período analisado. Finalmente, a nota que encerra a tese documenta dois aspectos relevantes e pouco conhecidos da Pesquisa Mensal de Emprego do IBGE que podem levar a resultados imprecisos nas pesquisas que utilizam esse painel se não forem tratados adequadamente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo desse trabalho é encontrar uma medida dinâmica de liquidez de ações brasileiras, chamada VNET. Foram utilizados dados de alta frequência para criar um modelo capaz de medir o excesso de compras e vendas associadas a um movimento de preços. Ao variar no tempo, o VNET pode ser entendido como a variação da proporção de agentes informados em um modelo de informação assimétrica. Uma vez estimado, ele pode ser utilizado para prever mudanças na liquidez de uma ação. O VNET tem implicações práticas importantes, podendo ser utilizado por operadores como uma medida estocástica para identificar quais seriam os melhores momentos para operar. Gerentes de risco também podem estimar a deterioração de preço esperada ao se liquidar uma posição, sendo possível analisar suas diversas opções, servindo de base para otimização da execução. Na construção do trabalho encontramos as durações de preço de cada ação e as diversas medidas associadas a elas. Com base nos dados observa-se que a profundidade varia com ágio de compra e venda, com o volume negociado, com o numero de negócios, com a duração de preços condicional e com o seu erro de previsão. Os resíduos da regressão de VNET se mostraram bem comportados o que corrobora a hipótese de que o modelo foi bem especificado. Para estimar a curva de reação do mercado, variamos os intervalos de preço usados na definição das durações.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho, estudamos os impactos de transfer^encias condicionais de renda sobre o trabalho e a educa c~ao infantis. Para tanto, desenvolvemos modelo din^amico de equil brio geral com agentes heterog^eneos, onde as fam lias enfrentam tradeo s com rela c~ao a aloca c~ao de tempo das crian cas em atividades de lazer, em escolaridade e em trabalhar. O modelo e calibrado usando dados da Pesquisa Nacional por Amostra em Domic lios, de modo que podemos quanti car os efeitos de uma pol tica de transfer^encia de renda. Finalmente, avaliamos o impacto de um pol tica semelhante ao atual Bolsa Fam lia. Nossos resultados sugerem que o programa, no longo prazo, e capaz de induzir um aumento substancial na escolaridade, al em de ser efetivo na redu c~ao do trabalho infantil e da pobreza. Al em disso, mostramos que um programa progressivo de transfer^encia condicional de renda resulta em benef cios ainda maiores.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Revendo a definição e determinação de bolhas especulativas no contexto de contágio, este estudo analisa a bolha do DotCom nos mercados acionistas americanos e europeus usando o modelo de correlação condicional dinâmica (DCC) proposto por Engle e Sheppard (2001) como uma explicação econométrica e, por outro lado, as finanças comportamentais como uma explicação psicológica. Contágio é definido, neste contexto, como a quebra estatística nos DCC’s estimados, medidos através das alterações das suas médias e medianas. Surpreendentemente, o contágio é menor durante bolhas de preços, sendo que o resultado principal indica a presença de contágio entre os diferentes índices dos dois continentes e demonstra a presença de alterações estruturais durante a crise financeira.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This Master Thesis consists of one theoretical article and one empirical article on the field of Microeconometrics. The first chapter\footnote{We also thank useful suggestions by Marinho Bertanha, Gabriel Cepaluni, Brigham Frandsen, Dalia Ghanem, Ricardo Masini, Marcela Mello, Áureo de Paula, Cristine Pinto, Edson Severnini and seminar participants at São Paulo School of Economics, the California Econometrics Conference 2015 and the 37\textsuperscript{th} Brazilian Meeting of Econometrics.}, called \emph{Synthetic Control Estimator: A Generalized Inference Procedure and Confidence Sets}, contributes to the literature about inference techniques of the Synthetic Control Method. This methodology was proposed to answer questions involving counterfactuals when only one treated unit and a few control units are observed. Although this method was applied in many empirical works, the formal theory behind its inference procedure is still an open question. In order to fulfill this lacuna, we make clear the sufficient hypotheses that guarantee the adequacy of Fisher's Exact Hypothesis Testing Procedure for panel data, allowing us to test any \emph{sharp null hypothesis} and, consequently, to propose a new way to estimate Confidence Sets for the Synthetic Control Estimator by inverting a test statistic, the first confidence set when we have access only to finite sample, aggregate level data whose cross-sectional dimension may be larger than its time dimension. Moreover, we analyze the size and the power of the proposed test with a Monte Carlo experiment and find that test statistics that use the synthetic control method outperforms test statistics commonly used in the evaluation literature. We also extend our framework for the cases when we observe more than one outcome of interest (simultaneous hypothesis testing) or more than one treated unit (pooled intervention effect) and when heteroskedasticity is present. The second chapter, called \emph{Free Economic Area of Manaus: An Impact Evaluation using the Synthetic Control Method}, is an empirical article. We apply the synthetic control method for Brazilian city-level data during the 20\textsuperscript{th} Century in order to evaluate the economic impact of the Free Economic Area of Manaus (FEAM). We find that this enterprise zone had positive significant effects on Real GDP per capita and Services Total Production per capita, but it also had negative significant effects on Agriculture Total Production per capita. Our results suggest that this subsidy policy achieve its goal of promoting regional economic growth, even though it may have provoked mis-allocation of resources among economic sectors.