13 resultados para Análise estocástica
em Repositório digital da Fundação Getúlio Vargas - FGV
Resumo:
O presente estudo pretende avaliar o desempenho das Delegacias da Receita Federal através do estabelecimento de uma fronteira de eficiência paramétrica baseada nos custos, utilizando para tal um modelo estocástico que divide o ruído em dois componentes, sendo um aleatório e outro proveniente da ineficiência de cada unidade. O trabalho terá por base dados relativos aos anos de 2006 e 2008 em uma análise em corte transversal e visa avaliar a política pública de unificação dos órgãos estatais responsáveis pela arrecadação de tributos em nível Federal, a Secretaria da Receita Federal (SRF) com a Secretaria da Receita Previdenciária (SRP), ocorrida através da lei 11.457 de 16 de março de 2007. O objetivo principal da pesquisa é determinar se as unidades descentralizadas da Receita Federal, notadamente as Delegacias da Receita Federal estão operando com eficiência, na tarefa de arrecadar tributos, em função dos recursos colocados a disposição para execução de suas atividades. Na presente pesquisa o produto da unidade a ser avaliado é a arrecadação, dentre as inúmeras atividades realizadas pelo órgão, no sentido de proporcionar ao Estado recurso para implantação de Políticas Públicas. O resultado encontrado indica que as regiões onde existe um grande número de empresas optantes pelo regime de tributação do SIMPLES, bem como as que possuem em sua jurisdição empresas consideradas DIFERENCIADAS pelo seu porte, provocam um aumento nos custos das Delegacias. As unidades que se encontram nas capitais dos Estados melhoraram o seu desempenho após a unificação. Além disso, uma proporção maior de Auditores Fiscais dentro da Delegacia em relação ao total de servidores reduz a ineficiência. O trabalho espera contribuir na avaliação desse novo modelo de gestão implantado na administração tributária federal no país.
Resumo:
Este trabalho tem com objetivo abordar o problema de alocação de ativos (análise de portfólio) sob uma ótica Bayesiana. Para isto foi necessário revisar toda a análise teórica do modelo clássico de média-variância e na sequencia identificar suas deficiências que comprometem sua eficácia em casos reais. Curiosamente, sua maior deficiência não esta relacionado com o próprio modelo e sim pelos seus dados de entrada em especial ao retorno esperado calculado com dados históricos. Para superar esta deficiência a abordagem Bayesiana (modelo de Black-Litterman) trata o retorno esperado como uma variável aleatória e na sequência constrói uma distribuição a priori (baseado no modelo de CAPM) e uma distribuição de verossimilhança (baseado na visão de mercado sob a ótica do investidor) para finalmente aplicar o teorema de Bayes tendo como resultado a distribuição a posteriori. O novo valor esperado do retorno, que emerge da distribuição a posteriori, é que substituirá a estimativa anterior do retorno esperado calculado com dados históricos. Os resultados obtidos mostraram que o modelo Bayesiano apresenta resultados conservadores e intuitivos em relação ao modelo clássico de média-variância.
Resumo:
Using the Pricing Equation, in a panel-data framework, we construct a novel consistent estimator of the stochastic discount factor (SDF) mimicking portfolio which relies on the fact that its logarithm is the ìcommon featureîin every asset return of the economy. Our estimator is a simple function of asset returns and does not depend on any parametric function representing preferences, making it suitable for testing di§erent preference speciÖcations or investigating intertemporal substitution puzzles.
Resumo:
O estudo apresenta uma abordagem nova e alternativa dentro da literatura empírica que trata do crescimento econômico e da desigualdade da distribuição de renda. Ao se filiar ao arcabouço teórico e prático da Análise de Fronteira Estocástica ¿ AFS, o estudo analisa, inicialmente, os efeitos de evolução da produtividade total de fatores, PTF, e de suas componentes (eficiência técnica, progresso tecnológico, eficiência de escala e eficiência alocativa) sobre o crescimento econômico. Em específico, avalia em que medida as diferenças de padrões de desenvolvimento tecnológico dos países condicionam o crescimento. Após tratar da evolução da desigualdade da distribuição do produto por trabalhador de dois grupos de países, denominados desenvolvidos e em desenvolvimento, relaciona a medida de desigualdade L de Theil com as componentes da PTF e mostra que não há convergência das rendas per capita desses grupos de países porque o hiato tecnológico entre eles aumentou ao longo do tempo. Por fim, identifica o papel do progresso tecnológico na dinâmica da distribuição de renda dentro dos países, recuperando a idéia fundamental de Kuznets de que ele (o progresso tecnológico) é o motor do desenvolvimento, e conclui que avanços tecnológicos têm efeitos mais gerais sobre as economias: além de promover o crescimento econômico, também têm reflexos diretos sobre a produtividade do trabalho, e conseqüentemente sobre os salários, com resultados mais eqüitativos da distribuição da renda.
Resumo:
Using the Pricing Equation in a panel-data framework, we construct a novel consistent estimator of the stochastic discount factor (SDF) which relies on the fact that its logarithm is the "common feature" in every asset return of the economy. Our estimator is a simple function of asset returns and does not depend on any parametric function representing preferences. The techniques discussed in this paper were applied to two relevant issues in macroeconomics and finance: the first asks what type of parametric preference-representation could be validated by asset-return data, and the second asks whether or not our SDF estimator can price returns in an out-of-sample forecasting exercise. In formal testing, we cannot reject standard preference specifications used in the macro/finance literature. Estimates of the relative risk-aversion coefficient are between 1 and 2, and statistically equal to unity. We also show that our SDF proxy can price reasonably well the returns of stocks with a higher capitalization level, whereas it shows some difficulty in pricing stocks with a lower level of capitalization.
Resumo:
Este trabalho apresenta um modelo para determinação da superfície de volatilidades de um par de moedas cujas opções têm baixa liquidez, utilizando superfícies de volatilidade com maior liquidez, de pares de moedas em que as moedas estudadas sejam uma de suas componentes. Esse objetivo é atingido através da utilização de um modelo de volatilidade estocástica. A calibração de seus parâmetros é feita a partir dos valores de mercado de Butterfly Spreads e Risk Reversals dos pares de moedas líquidos. O trabalho contribui em relação à literatura no sentido de ampliar a cobertura de strikes e vencimentos considerados, permitindo que, tanto opções pouco líquidas e fora do dinheiro, como notas estruturadas com opções embutidas possam ser mais adequadamente apreçadas.
Resumo:
Devido à utilização de estratégias distintas de investimento dos hedge funds brasileiros caracterizadas pelo uso de derivativos, operações alavancadas e vendas a descoberto, esses fundos apresentam significante não normalidade dos retornos gerados. Portanto, as medidas usuais de avaliação de performance são incapazes de fornecer resultados consistentes com o verdadeiro desempenho dos portfólios de hedge fund. Este trabalho irá utilizar duas metodologias não tradicionais para analisar a performance dos hedge funds brasileiros e determinar qual estratégia supera o mercado acionário. Serão utilizadas duas medidas não paramétricas, Almost Stochastic Dominância (ASD) e Manipulation-Proof Performance Measure (MPPM). Os resultados demonstram que os hedge funds brasileiros não superam os benckmaks utilizados na dominância de primeira ordem, mas quando analisada a dominância de segunda ordem sete estratégias apresentaram desempenho superior ao Índice Ibovespa.
Resumo:
In this article we use factor models to describe a certain class of covariance structure for financiaI time series models. More specifical1y, we concentrate on situations where the factor variances are modeled by a multivariate stochastic volatility structure. We build on previous work by allowing the factor loadings, in the factor mo deI structure, to have a time-varying structure and to capture changes in asset weights over time motivated by applications with multi pIe time series of daily exchange rates. We explore and discuss potential extensions to the models exposed here in the prediction area. This discussion leads to open issues on real time implementation and natural model comparisons.
Resumo:
The past decade has wítenessed a series of (well accepted and defined) financial crises periods in the world economy. Most of these events aI,"e country specific and eventually spreaded out across neighbor countries, with the concept of vicinity extrapolating the geographic maps and entering the contagion maps. Unfortunately, what contagion represents and how to measure it are still unanswered questions. In this article we measure the transmission of shocks by cross-market correlation\ coefficients following Forbes and Rigobon's (2000) notion of shift-contagion,. Our main contribution relies upon the use of traditional factor model techniques combined with stochastic volatility mo deIs to study the dependence among Latin American stock price indexes and the North American indexo More specifically, we concentrate on situations where the factor variances are modeled by a multivariate stochastic volatility structure. From a theoretical perspective, we improve currently available methodology by allowing the factor loadings, in the factor model structure, to have a time-varying structure and to capture changes in the series' weights over time. By doing this, we believe that changes and interventions experienced by those five countries are well accommodated by our models which learns and adapts reasonably fast to those economic and idiosyncratic shocks. We empirically show that the time varying covariance structure can be modeled by one or two common factors and that some sort of contagion is present in most of the series' covariances during periods of economical instability, or crisis. Open issues on real time implementation and natural model comparisons are thoroughly discussed.
Resumo:
Seguindo a tendência mundial de um melhor gerenciamento de riscos, o regulador do mercado de seguros brasileiro, após a implementação dos demais riscos, está em fase avançada de desenvolvimento de seu modelo para aferir o risco de mercado das seguradoras. Uma vez que as discussões cessem, as empresas serão forçadas a usar um modelo que, hoje, apresenta muitas falhas, gerando uma demanda de capital adicional de seus acionistas que pode levar algumas delas ao estado de insolvência. O principal objetivo deste estudo é analisar a adequação do modelo e subsidiar a discussão a fim de aperfeiçoar o modelo final, com análises comparativas com outros modelos no país e no mundo, estudo de cenários e visões do mercado. De modo geral, as análises feitas revelam problemas sérios no modelo, como necessidade de aporte de capital em empresas extremamente lucrativas e insuficiência de garantia de segurança pelo uso puro dos fatores de choque em detrimento a uma análise estocástica. Finalmente, são sugeridas algumas soluções para minimizar o efeito da inadequação do modelo e ainda algumas sugestões para melhoria do mesmo, de forma que os acionistas não sejam prejudicados, o regulador consiga administrar adequadamente os riscos e a sociedade seja beneficiada pela solidez das companhias em quem confiou seus riscos.
Resumo:
Este estudo utiliza o modelo de fronteira estocástica paramétrica com dados em painel para estimação das funções de produção asso- ciadas aos grupos da indústria de transfomação brasileira no período de 1996-2005. Um ponto importante dessa técnica é a possibilidade de utilização de um conjunto de variáveis explicativas para o com- ponente de ine ciência. Com o objetivo de captar as dinâmicas da fronteira tecnológica e do nível de ine ciência foram introduzidos com- ponentes de tendência linear e quadrática. Veri cou-se para o período a ocorrência de aumento do nível de ine ciência técnica e de progresso tecnológico a taxas constantes. Observou-se ainda que o nível de ine - ciência relaciona-se negativamente com os salários médios do pessoal direta e indiretamente ligado à produção, com o percentual de tributos sobre a receita total ,com o grau de terceirização e com o percentual da receita total originário da atividade principal da indústria.
A evolução da produtividade total de fatores na economia brasileira: uma análise do período pós-real
Resumo:
A presente pesquisa aplica o modelo de fronteira estocástica de produção para as indústrias de transformação e da construção civil, assim como para o comércio e os serviços no Brasil, de forma a identificar as fontes de crescimento dos principais setores de atividade da economia brasileira, quais sejam: acumulação de capital físico, emprego da mão-de-obra, e produtividade total de fatores (PTF). Conforme Kumbhakar (2000), a evolução da PTF é decomposta em progresso técnico, mudanças da eficiência técnica, mudanças da eficiência alocativa e efeitos de escala. O estudo parte de dados de 1996 a 2000 das principais pesquisas anuais do IBGE realizadas com firmas: PAIC, PIA, PAC e PAS.
Resumo:
O objetivo deste estudo é propor a implementação de um modelo estatístico para cálculo da volatilidade, não difundido na literatura brasileira, o modelo de escala local (LSM), apresentando suas vantagens e desvantagens em relação aos modelos habitualmente utilizados para mensuração de risco. Para estimação dos parâmetros serão usadas as cotações diárias do Ibovespa, no período de janeiro de 2009 a dezembro de 2014, e para a aferição da acurácia empírica dos modelos serão realizados testes fora da amostra, comparando os VaR obtidos para o período de janeiro a dezembro de 2014. Foram introduzidas variáveis explicativas na tentativa de aprimorar os modelos e optou-se pelo correspondente americano do Ibovespa, o índice Dow Jones, por ter apresentado propriedades como: alta correlação, causalidade no sentido de Granger, e razão de log-verossimilhança significativa. Uma das inovações do modelo de escala local é não utilizar diretamente a variância, mas sim a sua recíproca, chamada de “precisão” da série, que segue uma espécie de passeio aleatório multiplicativo. O LSM captou todos os fatos estilizados das séries financeiras, e os resultados foram favoráveis a sua utilização, logo, o modelo torna-se uma alternativa de especificação eficiente e parcimoniosa para estimar e prever volatilidade, na medida em que possui apenas um parâmetro a ser estimado, o que representa uma mudança de paradigma em relação aos modelos de heterocedasticidade condicional.