22 resultados para Estimació paramètrica
em Repositório digital da Fundação Getúlio Vargas - FGV
Resumo:
Universidades são organizações sociais complexas. Elas estão sujeitas aos problemas clássicos de controle e coordenação, e ao problema, igualmente clássico, da alocação eficiente de recursos, universidades também se caracterizam por gerarem múltiplos bens e serviços, através da transformação de múltiplos fatores de produção. Este é um estudo sobre o processo produtivo e sobre a alocação de recursos na Universidade Federal do Rio de Janeiro - UFRJ, a maior Instituição Federal de Ensino Superior do Brasil. A metodologia básica, os objetivos, e a forma de apresentação da pesquisa serão detalhadamente descritos nos capítulos que se seguem, mas podem ser brevemente resumidos nesta Apresentação.
Resumo:
Após a crise financeira de 2008, é perceptível a intensificação de esforços globais para aperfeiçoar métodos de avaliação de risco e ajuste de exposição de capital para tornar o sistema financeiro mundial mais sólido e consistente. O objetivo deste trabalho é propor um modelo de estimação de curvas de crédito privado no Brasil, aplicando a modelagem paramétrica de Nelson & Siegel (1987) a uma amostra de preços de debêntures. Os resultados obtidos poderão ser utilizados para auxiliar reguladores e profissionais de mercado com análises de risco, apreçamento de ativos ilíquidos e percepção de expectativas.
Resumo:
Com o objetivo de precificar derivativos de taxas de juros no mercado brasileiro, este trabalho foca na implementação do modelo de Heath, Jarrow e Morton (1992) em sua forma discreta e multifatorial através de uma abordagem numérica, e, que possibilita uma grande flexibilidade na estimativa da taxa forward sob uma estrutura de volatilidade baseada em fatores ortogonais, facilitando assim a simulação de sua evolução por Monte Carlo, como conseqüência da independência destes fatores. A estrutura de volatilidade foi construída de maneira a ser totalmente não paramétrica baseada em vértices sintéticos que foram obtidos por interpolação dos dados históricos de cotações do DI Futuro negociado na BM&FBOVESPA, sendo o período analisado entre 02/01/2003 a 28/12/2012. Para possibilitar esta abordagem foi introduzida uma modificação no modelo HJM desenvolvida por Brace e Musiela (1994).
Resumo:
Modelos de predição baseados em estimações não-paramétricas continuam em desenvolvimento e têm permeado a comunidade quantitativa. Sua principal característica é que não consideram a priori distribuições de probabilidade conhecidas, mas permitem que os dados passados sirvam de base para a construção das próprias distribuições. Implementamos para o mercado brasileiro os estimadores agrupados não-paramétricos de Sam e Jiang (2009) para as funções de drift e de difusão do processo estocástico da taxa de juros instantânea, por meio do uso de séries de taxas de juros de diferentes maturidades fornecidas pelos contratos futuros de depósitos interfinanceiros de um dia (DI1). Os estimadores foram construídos sob a perspectiva da estimação por núcleos (kernels), que requer para a sua otimização um formato específico da função-núcleo. Neste trabalho, foi usado o núcleo de Epanechnikov, e um parâmetro de suavizamento (largura de banda), o qual é fundamental para encontrar a função de densidade de probabilidade ótima que forneça a estimação mais eficiente em termos do MISE (Mean Integrated Squared Error - Erro Quadrado Integrado Médio) no momento de testar o modelo com o tradicional método de validação cruzada de k-dobras. Ressalvas são feitas quando as séries não possuem os tamanhos adequados, mas a quebra estrutural do processo de difusão da taxa de juros brasileira, a partir do ano 2006, obriga à redução do tamanho das séries ao custo de reduzir o poder preditivo do modelo. A quebra estrutural representa um processo de amadurecimento do mercado brasileiro que provoca em grande medida o desempenho insatisfatório do estimador proposto.
Resumo:
Na literatura empírica, várias estimativas de taxas de retorno para educação têm sido reportadas, baseadas no modelo de Mincer (1958, 1974). No entanto, para que o coeficiente dos anos de estudo, em uma regressão do logaritmo da renda contra educação e experiência, seja entendido como taxa de retorno diversas hipóteses devem ser válidas. Baseado em Heckman, Lochner e Todd (2006) e Heckman, Ichimura, Smith e Todd (1998), testamos algumas de tais hipóteses como: linearidade nos anos estudo e separabilidade entre educação e experiência (paralelismo). Para isso, utilizamos dados da PNAD (1992-2004) e do Censo (1970-2000) e lançamos mão de regressões paramétricas e não-paramétricas (regressão linear local); e acabamos rejeitando tanto linearidade como paralelismo. Adicionalmente, relaxamos tais hipóteses e estimamos as taxas internas de retorno (T1Rs), baseado em Becker (1993), para se medir a ordem do viés em relação ao coeficiente escolar do modelo original de Mincer. Esta medida permite mensurar o tamanho do erro em diversos estudos quando os mesmos utilizam o modelo de Mincer. Obtemos vieses que chegaram a ordem de mais de 200%, como por exemplo a TIR em 2000 passando de 17.2% para todos níveis educacionais (retorno "minceriano") para 5.61% para mestrado/doutorado em relação ao nível superior, quando estimada não parametricamente, relaxando linearidade e paralelismo. Assim, diversos estudos no Brasil não consideram tais hipóteses e, conseqüentemente suas estimativas estão erradas e mais ainda, a magnitude deste erro é grande, podendo levar à conclusões distorcidas ou mal interpretadas. Assim, provemos também novas estimativas das TIRs, as quais devem ser tomadas como referência para a análise do comportamento dos agentes nos movimentos de demanda por educação e oferta de mão-de-obra. Por fim, corroboramos a evidência da literatura que os retornos educacionais estão decaindo ao longo das décadas, com exceção do nível superior que aponta para um crescimento nesta última década, mas em magnitude menor das obtidas em diversos estudos recentes, que se baseiam no modelo de Mincer.
Resumo:
Este estudo utiliza o modelo de fronteira estocástica paramétrica com dados em painel para estimação das funções de produção asso- ciadas aos grupos da indústria de transfomação brasileira no período de 1996-2005. Um ponto importante dessa técnica é a possibilidade de utilização de um conjunto de variáveis explicativas para o com- ponente de ine ciência. Com o objetivo de captar as dinâmicas da fronteira tecnológica e do nível de ine ciência foram introduzidos com- ponentes de tendência linear e quadrática. Veri cou-se para o período a ocorrência de aumento do nível de ine ciência técnica e de progresso tecnológico a taxas constantes. Observou-se ainda que o nível de ine - ciência relaciona-se negativamente com os salários médios do pessoal direta e indiretamente ligado à produção, com o percentual de tributos sobre a receita total ,com o grau de terceirização e com o percentual da receita total originário da atividade principal da indústria.
Resumo:
Este trabalho propõe um modelo de forma reduzida livre de arbitragem para a extração de probabilidades de default a partir de spreads de Swaps de Crédito e aplica-o realizando uma análise da percepção de risco da dívida soberana brasileira confrontando dois momentos com contextos econômicos distintos. É utilizada uma modelagem paramétrica da estrutura temporal das probabilidades condicionais de default para a qual se testa duas formas funcionais distintas: Constante por Partes e Linear por Partes. Os resultados fornecem evidências que corroboram a aplicabilidade do modelo e indicam uma clara vantagem da modelagem Linear por Partes, por se ajustar melhor aos dados e possuir implicações convenientes na estrutura a termo das taxas de juros ajustadas ao risco de default.
Resumo:
Diversos estudos de Finanças Corporativas consideram os custos associados aos ajustes da estrutura de capital das empresas irrelevantes tanto na forma quanto em magnitude. Este estudo analisou empiricamente a influência dos custos de ajustamento na dinâmica dos ajustes da estrutura de capital de empresas brasileiras de capital aberto no período de 1999 a 2007. A alavancagem foi abordada sob três diferentes cenários, considerando a presença de custos fixos, custos proporcionais e por uma composição de custos fixos e proporcionais através de simulações utilizando um modelo reduzido da estrutura de capital. Em seguida a análise não paramétrica da amostra revelou que as empresas apresentam um comportamento dinâmico em suas decisões de financiamento para o ajuste da estruturas de capital, mas que não se revelou contínuo. A utilização de um modelo de duration mostrou-se adequado para mensurar o intervalo de tempo entre os ajustes da estrutura de capital das empresas. Os resultados são extremamente relevantes e suportam a teoria de um comportamento de rebalanceamento dinâmico pelas empresas de suas estruturas de capital em torno de um intervalo ótimo. Entretanto os ajustes não ocorrem de forma imediata e a persistência de choques à estrutura de capital deve-se em sua maior parte aos custos associados aos ajustes do que a uma possível indiferença à estrutura de capital. . Este trabalho constitui-se como pioneiro no mercado brasileiro acerca dos custos de ajustamento da estrutura de capital e abre espaço para a discussão do comportamento ótimo em torno da estrutura de capital de empresas nacionais.
Resumo:
Faz revisão teórica dos modelos de value-at-risk (VAR). Revisa principais estudos anteriores sobre VAR no Brasil e no exterior. Testa o desempenho de cinco metodologias de VAR, a saber: metodologia Paramétrica com uso da Volatilidade Histórica, Paramétrica com uso da Volatilidade EWMA, Paramétrica• com uso da Volatilidade GARCH(1,1), Simulação Histórica e uma Metodologia Híbrida proposta por BOUDOUKH e taI (1998). Aplica as metodologias a carteiras teóricas compostas por proporções diversas de ações e títulos de renda fixa de 30 dias no mercado financeiro brasileiro. O trabalho encontra evidências da superioridade da Metodologia Híbrida com fator de caimento de 0,99 e da Simulação Histórica, sendo esta apenas marginalmente inferior, Estes resultados se coadunam com evidências encontradas nas séries em estudo de nãonormalidade, heterocedasticidade e autocorrelação
Resumo:
Este estudo faz uma revisão das origens do VaR, bem como dos conceitos e teorias que o fundamentam, e sua aplicabilidade aos fundos de pensão. Descreve as principais metodologias de cálculo e as situações nas quais o uso de cada uma é mais adequado. Revisa a literatura internacional acerca do uso do VaR como medida de risco pelos fundos de pensão. A seguir faz a previsão do VaR para as carteiras reais de três fundos de pensão brasileiros com três metodologias distintas: paramétrica, simulação histórica e simulação de Monte Carlo, esta última com duas suposições distintas para a distribuição dos retornos dos fatores de risco (normal e histórica). A partir disso, realiza um teste qualitativo, através da comparação do número de perdas efetivas realizadas pelas carteiras dos três fundos de pensão com o número de perdas correspondente admitido para os diferentes níveis de confiança utilizados no cálculo do VaR. O trabalho não encontra evidências de superioridade de nenhuma das metodologias de cálculo, sendo que todas elas superestimaram as perdas verificadas na prática (o VaR foi excedido menos vezes do que o esperado).
Resumo:
Estudos demonstraram a associação entre as empresas classe mundiais, ganhadoras dos Prêmios Nacionais de Qualidade em seus países, e o sucesso financeiro dessas organizações. Falta na literatura acadêmica, um elo demonstrado empiricamente a associação entre os modelos de Excelência e os critérios de performance socioambientais. Nosso estudo buscou entender o alinhamento entre os conceitos de Qualidade e Excelência com os conceitos de Responsabilidade Social e Sustentabilidade, determinando os elementos de interface e buscando inter-relações. A partir da aplicação de um modelo consagrado de mensuração do desempenho Sustentável no país, os Indicadores Ethos, em quatro empresas vencedoras do PNQ - Prêmio Nacional da Qualidade no Brasil. Comparando os resultados obtidos com o banco de dados do Instituto Ethos e suas melhores práticas, o nosso estudo buscou responder a pergunta se existe uma associação entre a busca da Qualidade Total e o desempenho Sustentável, ou seja, aquele distribuído com justeza entre o social, o ambiental e o econômico. Para isso, utilizamos uma ampla revisão bibliográfica e uma pesquisa de campo com quatro empresas ganhadoras do PNQ, com portes, localização e atividades representativas das organizações vencedoras. Os resultados foram comparados utilizando-se elementos da estatística não-paramétrica e apontam para um desempenho superior das empresas classe mundial em relação ao banco de dados do Instituto Ethos e equivalente às melhores práticas registradas no Instituto. Ademais, percebeu-se um alinhamento entre a evolução dos Critérios de Excelência da Fundação Nacional da Qualidade com os modelos mais atuais de Responsabilidade Social
Resumo:
O presente trabalho tem como principal objetivo testar a existência do fenômeno comumente descrito na teoria econômica como curva J que se caracteriza pela piora dos saldos comerciais no curto prazo após um episódio de depreciação real do câmbio. Dada a dificuldade na definição de eventos de depreciação/desvalorização do câmbio, ainda que os testes empíricos sejam efetuados ao longo do período de 1980 a 2005, serão utilizados três períodos específicos na análise descritiva em que a intensa variação positiva do câmbio real forneceu o cenário ideal para que a identificação do comportamento de uma possível deterioração transitória dos saldos comerciais fosse mais facilmente visualizado. Com base em 3(três) abordagens diferentes de testes econométricos, a evidência empírica sugere que o fenômeno da curva J não explica o comportamento da balança comercial após a ocorrência de tais episódios.
Resumo:
In this thesis, we investigate some aspects of the interplay between economic regulation and the risk of the regulated firm. In the first chapter, the main goal is to understand the implications a mainstream regulatory model (Laffont and Tirole, 1993) have on the systematic risk of the firm. We generalize the model in order to incorporate aggregate risk, and find that the optimal regulatory contract must be severely constrained in order to reproduce real-world systematic risk levels. We also consider the optimal profit-sharing mechanism, with an endogenous sharing rate, to explore the relationship between contract power and beta. We find results compatible with the available evidence that high-powered regimes impose more risk to the firm. In the second chapter, a joint work with Daniel Lima from the University of California, San Diego (UCSD), we start from the observation that regulated firms are subject to some regulatory practices that potentially affect the symmetry of the distribution of their future profits. If these practices are anticipated by investors in the stock market, the pattern of asymmetry in the empirical distribution of stock returns may differ among regulated and non-regulated companies. We review some recently proposed asymmetry measures that are robust to the empirical regularities of return data and use them to investigate whether there are meaningful differences in the distribution of asymmetry between these two groups of companies. In the third and last chapter, three different approaches to the capital asset pricing model of Kraus and Litzenberger (1976) are tested with recent Brazilian data and estimated using the generalized method of moments (GMM) as a unifying procedure. We find that ex-post stock returns generally exhibit statistically significant coskewness with the market portfolio, and hence are sensitive to squared market returns. However, while the theoretical ground for the preference for skewness is well established and fairly intuitive, we did not find supporting evidence that investors require a premium for supporting this risk factor in Brazil.
Resumo:
O trabalho pesquisou a importância dos recursos didáticos utilizados na disciplina de Matemática Financeira do Curso de Administração a Distância realizado pela Escola de Administração da Universidade Federal do Rio Grande do Sul, com base na percepção dos estudantes de uma das turmas. Os recursos instrucionais examinados foram: aulas gravadas em vídeo, exercícios, livro texto e comunicação professor/tutor-aluno através de “chats”. As variáveis pesquisadas foram confrontadas entre si e com situações análogas vivenciadas pelos respondentes em aulas presenciais. Examinou-se também a influência dos estilos de aprendizagem nas preferências dos alunos quanto aos recursos instrucionais utilizados. A pesquisa baseou-se em questionários respondidos pelos alunos utilizando-se basicamente da escala de Lickert. Foi adotado o Inventário de Estilos de Aprendizagem baseado no Modelo Experiencial de Aprendizagem de Kolb. Preferencialmente foi utilizada a prova estatística não-paramétrica de Kolmogorov-Smirnov para testar a aderência entre as amostras. O trabalho concluiu identificando preferência dos respondentes quanto a eficácia no aprendizado pelos exercícios práticos seguidos das aulas gravadas em vídeo e do livro texto. Constatou-se a importância da estrutura (planejamento e organização) da disciplina no atingimento dos resultados positivos. Ao final o trabalho recomendou aprofundamento da questão de comunicação entre professor, tutores e alunos especialmente quanto à utilização dos “chats”.
Resumo:
O presente estudo pretende avaliar o desempenho das Delegacias da Receita Federal através do estabelecimento de uma fronteira de eficiência paramétrica baseada nos custos, utilizando para tal um modelo estocástico que divide o ruído em dois componentes, sendo um aleatório e outro proveniente da ineficiência de cada unidade. O trabalho terá por base dados relativos aos anos de 2006 e 2008 em uma análise em corte transversal e visa avaliar a política pública de unificação dos órgãos estatais responsáveis pela arrecadação de tributos em nível Federal, a Secretaria da Receita Federal (SRF) com a Secretaria da Receita Previdenciária (SRP), ocorrida através da lei 11.457 de 16 de março de 2007. O objetivo principal da pesquisa é determinar se as unidades descentralizadas da Receita Federal, notadamente as Delegacias da Receita Federal estão operando com eficiência, na tarefa de arrecadar tributos, em função dos recursos colocados a disposição para execução de suas atividades. Na presente pesquisa o produto da unidade a ser avaliado é a arrecadação, dentre as inúmeras atividades realizadas pelo órgão, no sentido de proporcionar ao Estado recurso para implantação de Políticas Públicas. O resultado encontrado indica que as regiões onde existe um grande número de empresas optantes pelo regime de tributação do SIMPLES, bem como as que possuem em sua jurisdição empresas consideradas DIFERENCIADAS pelo seu porte, provocam um aumento nos custos das Delegacias. As unidades que se encontram nas capitais dos Estados melhoraram o seu desempenho após a unificação. Além disso, uma proporção maior de Auditores Fiscais dentro da Delegacia em relação ao total de servidores reduz a ineficiência. O trabalho espera contribuir na avaliação desse novo modelo de gestão implantado na administração tributária federal no país.