170 resultados para Poupança - Modelos matemáticos


Relevância:

80.00% 80.00%

Publicador:

Resumo:

A teoria do portfólio e um tópico que passou a ser discutido com bastante frequência nos últimos anos sendo objeto de um tratamento mais rigoroso a partir da obra de MARKOWITZ com a qual, as vezes, passa a ser confundida. A seleção de uma "boa carteira" e de alguma forma diferente de estabelecer' uma longa lista de "boas ações " ou de uma maneira mais geral "bons títulos ". O trabalho inicia realmente com uma seleção de títulos à qual é acrescentada a técnica que a teoria de carteira fornece.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Este estudo compara previsões de volatilidade de sete ações negociadas na Bovespa usando 02 diferentes modelos de volatilidade realizada e 03 de volatilidade condicional. A intenção é encontrar evidências empíricas quanto à diferença de resultados que são alcançados quando se usa modelos de volatilidade realizada e de volatilidade condicional para prever a volatilidade de ações no Brasil. O período analisado vai de 01 de Novembro de 2007 a 30 de Março de 2011. A amostra inclui dados intradiários de 5 minutos. Os estimadores de volatilidade realizada que serão considerados neste estudo são o Bi-Power Variation (BPVar), desenvolvido por Barndorff-Nielsen e Shephard (2004b), e o Realized Outlyingness Weighted Variation (ROWVar), proposto por Boudt, Croux e Laurent (2008a). Ambos são estimadores não paramétricos, e são robustos a jumps. As previsões de volatilidade realizada foram feitas através de modelos autoregressivos estimados para cada ação sobre as séries de volatilidade estimadas. Os modelos de variância condicional considerados aqui serão o GARCH(1,1), o GJR (1,1), que tem assimetrias em sua construção, e o FIGARCH-CHUNG (1,d,1), que tem memória longa. A amostra foi divida em duas; uma para o período de estimação de 01 de Novembro de 2007 a 30 de Dezembro de 2010 (779 dias de negociação) e uma para o período de validação de 03 de Janeiro de 2011 a 31 de Março de 2011 (61 dias de negociação). As previsões fora da amostra foram feitas para 1 dia a frente, e os modelos foram reestimados a cada passo, incluindo uma variável a mais na amostra depois de cada previsão. As previsões serão comparadas através do teste Diebold-Mariano e através de regressões da variância ex-post contra uma constante e a previsão. Além disto, o estudo também apresentará algumas estatísticas descritivas sobre as séries de volatilidade estimadas e sobre os erros de previsão.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

O estudo do "Racionamento de Capital", objetivo da presente Dissertação, se ocupa em descrever técnicas quantitativas que nos conduzem a soluções ótimas, maximizadoras do valor de mercado da empresa sob estreiteza orçamentária. Na verdade, as soluções são sub ótimas porque, os próprios tetos orçamentários, a indivisibilidade dos investimentos, a ausência de um "continuum" de soluções tecnológicas, de tamanho e de localização, o tratamento discreto das oportunidades de inversão, o desconhecimento de todas as alternativas presentes e futuras, entre outros fatores, impedem a obtenção do ótimo verdadeiro. Ainda assim, a situação de sub otimização deve ser criteriosamente equacionada e diligentemente perseguida

Relevância:

80.00% 80.00%

Publicador:

Resumo:

O estudo que se segue requer conhecimento de matemática superior o que, infelizmente, pode torná-lo um pouco esotérico. Para contornar esta possível dificuldade de comunicação, inserimos vários exemplos de aplicabilidade o que, certamente trará entendimento do seu conteúdo. Este estudo procurou apenas lançar as bases do sistema de juros, sem qualquer pretensão de esgotá-lo

Relevância:

80.00% 80.00%

Publicador:

Resumo:

A necessidade de maior generalização e aplicação do modelo da curva de progresso da produção às indústrias "mão-de-obra intensivas" vem sendo ressaltada há muitos anos na literatura. Até hoje, entretanto, as contribuições empíricas ao estudo da matéria emanaram, predominantemente, da indústria aeroespacial cabendo às demais umas poucas tentativas de extensão do modelo mencionado. A forma apropriada do modelo tem sido também debatida. A questão do platô na curva - término ou estancamento do progresso constitui um problema sobre o qual existe muita controvérsia e quase nenhuma pesquisa empírica. A estimação dos parâmetros da função de progresso da produção, para diferentes produtos e atividades, tem sido tentada por um escasso número de pesquisadores, desconhecendo o auto a existência de pesquisas sobre a função de progresso da produção no caso de indústrias brasileiras. Finalmente, a matéria toda carece de novas hipóteses e de melhor sistematização teórica. Ao ampliar e aprofundar as questões mencionadas, o trabalho teórico e de pesquisa, ora concluído, contribuirá, possivelmente, para esclarecer determinados aspectos da função de progresso da produção, ainda não abordados na literatura especialização.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Neste trabalho são abordados empiricamente dois temas bastante atuais no âmbito da política monetária: a estimativa de uma Regra de Taylor aumentada com a inclusão de um vetor de preços de ativos financeiros e a hipótese de não-linearidade da Regra de Taylor. Os principais resultados encontrados sugerem que o Banco Central do Brasil não segue uma Regra de Taylor aumentada na condução da política monetária e que há evidências de não-linearidade de sua função de reação. Além disso, encontramos evidência de recuo da taxa de juros real de equilíbrio (ou neutra) da economia brasileira.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Esse estudo foi motivado pela falta de bons fundos de investimento multimercado abertos para captação no Brasil e tem como objetivo analisar a viabilidade de utilizar a análise de estilo baseada em retorno para clonar retornos e comportamento de determinados fundos de investimento multimercado do mercado brasileiro. Modelos já testados no exterior e no Brasil foram pesquisados e optou-se por adaptar o modelo linear proposto por LIMA e VICENTE (2007). Verificou-se que o modelo de espaço de estados é mais adequado para clonar retornos de determinados fundos de investimento do que o modelo de regressão com parâmetros fixos. Resultados animadores foram obtidos para quatro dos cinco fundos analisados nesse estudo.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Este trabalho apresenta um modelo DSGE que comtempla três instâncias de politica monetária, convencional e não convencional, utilizadas pelo governo brasileiro para combater os efeitos da crise mundial iniciada pelo colapso dos créditos subprime americanos. Politica monetária via regra de juros a la Taylor, política de controle dos depósitos compulsórios e política de crédito governamental, na figura do BNDES, são analisados. A conclusão que fica é que a utilização de diversas politicas acaba por deixar as variáveis econômicas mais estáveis e faz a política monetária perder potência.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Levantamento bibliográfico abrangendo os principais trabalhos relativos ao "CAPM - Capital Asset Pricing Model" que se acham esparsos em vasta literatura. Aborda desde a teoria de seleção de carteira, o desenvolvimento e testes do modelo, suas implicações para a teoria financeira. Inclui também considerações sobre o relaxamento dos pressupostos básicos e "sobre a influência do fator inflacionário na forma e validade do modelo.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Trato do problema da assimetria de informação no mercado de crédito e do uso da informação externa como forma de minimizar esse efeito negativo. Descreve os modelos teóricos de troca de informação na presença de Bureaus de crédito e aborda o mercado brasileiro de crédito, conduzindo avaliações qualitativas e quantitativas.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Com o objetivo de precificar derivativos de taxas de juros no mercado brasileiro, este trabalho foca na implementação do modelo de Heath, Jarrow e Morton (1992) em sua forma discreta e multifatorial através de uma abordagem numérica, e, que possibilita uma grande flexibilidade na estimativa da taxa forward sob uma estrutura de volatilidade baseada em fatores ortogonais, facilitando assim a simulação de sua evolução por Monte Carlo, como conseqüência da independência destes fatores. A estrutura de volatilidade foi construída de maneira a ser totalmente não paramétrica baseada em vértices sintéticos que foram obtidos por interpolação dos dados históricos de cotações do DI Futuro negociado na BM&FBOVESPA, sendo o período analisado entre 02/01/2003 a 28/12/2012. Para possibilitar esta abordagem foi introduzida uma modificação no modelo HJM desenvolvida por Brace e Musiela (1994).

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Modelos de predição baseados em estimações não-paramétricas continuam em desenvolvimento e têm permeado a comunidade quantitativa. Sua principal característica é que não consideram a priori distribuições de probabilidade conhecidas, mas permitem que os dados passados sirvam de base para a construção das próprias distribuições. Implementamos para o mercado brasileiro os estimadores agrupados não-paramétricos de Sam e Jiang (2009) para as funções de drift e de difusão do processo estocástico da taxa de juros instantânea, por meio do uso de séries de taxas de juros de diferentes maturidades fornecidas pelos contratos futuros de depósitos interfinanceiros de um dia (DI1). Os estimadores foram construídos sob a perspectiva da estimação por núcleos (kernels), que requer para a sua otimização um formato específico da função-núcleo. Neste trabalho, foi usado o núcleo de Epanechnikov, e um parâmetro de suavizamento (largura de banda), o qual é fundamental para encontrar a função de densidade de probabilidade ótima que forneça a estimação mais eficiente em termos do MISE (Mean Integrated Squared Error - Erro Quadrado Integrado Médio) no momento de testar o modelo com o tradicional método de validação cruzada de k-dobras. Ressalvas são feitas quando as séries não possuem os tamanhos adequados, mas a quebra estrutural do processo de difusão da taxa de juros brasileira, a partir do ano 2006, obriga à redução do tamanho das séries ao custo de reduzir o poder preditivo do modelo. A quebra estrutural representa um processo de amadurecimento do mercado brasileiro que provoca em grande medida o desempenho insatisfatório do estimador proposto.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Esta pesquisa busca testar a eficácia de uma estratégia de arbitragem de taxas de juros no Brasil baseada na utilização do modelo de Nelson-Siegel dinâmico aplicada à curva de contratos futuros de taxa de juros de 1 dia da BM&FBovespa para o período compreendido entre 02 de janeiro de 2008 e 03 de dezembro de 2012. O trabalho adapta para o mercado brasileiro o modelo original proposto por Nelson e Siegel (1987), e algumas de suas extensões e interpretações, chegando a um dos modelos propostos por Diebold, Rudebusch e Aruoba (2006), no qual estimam os parâmetros do modelo de Nelson-Siegel em uma única etapa, colocando-o em formato de espaço de estados e utilizando o Filtro de Kalman para realizar a previsão dos fatores, assumindo que o comportamento dos mesmos é um VAR de ordem 1. Desta maneira, o modelo possui a vantagem de que todos os parâmetros são estimados simultaneamente, e os autores mostraram que este modelo possui bom poder preditivo. Os resultados da estratégia adotada foram animadores quando considerados para negociação apenas os 7 primeiros vencimentos abertos para negociação na BM&FBovespa, que possuem maturidade máxima próxima a 1 ano.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Esta dissertação concentra-se nos processos estocásticos espaciais definidos em um reticulado, os chamados modelos do tipo Cliff & Ord. Minha contribuição nesta tese consiste em utilizar aproximações de Edgeworth e saddlepoint para investigar as propriedades em amostras finitas do teste para detectar a presença de dependência espacial em modelos SAR (autoregressivo espacial), e propor uma nova classe de modelos econométricos espaciais na qual os parâmetros que afetam a estrutura da média são distintos dos parâmetros presentes na estrutura da variância do processo. Isto permite uma interpretação mais clara dos parâmetros do modelo, além de generalizar uma proposta de taxonomia feita por Anselin (2003). Eu proponho um estimador para os parâmetros do modelo e derivo a distribuição assintótica do estimador. O modelo sugerido na dissertação fornece uma interpretação interessante ao modelo SARAR, bastante comum na literatura. A investigação das propriedades em amostras finitas dos testes expande com relação a literatura permitindo que a matriz de vizinhança do processo espacial seja uma função não-linear do parâmetro de dependência espacial. A utilização de aproximações ao invés de simulações (mais comum na literatura), permite uma maneira fácil de comparar as propriedades dos testes com diferentes matrizes de vizinhança e corrigir o tamanho ao comparar a potência dos testes. Eu obtenho teste invariante ótimo que é também localmente uniformemente mais potente (LUMPI). Construo o envelope de potência para o teste LUMPI e mostro que ele é virtualmente UMP, pois a potência do teste está muito próxima ao envelope (considerando as estruturas espaciais definidas na dissertação). Eu sugiro um procedimento prático para construir um teste que tem boa potência em uma gama de situações onde talvez o teste LUMPI não tenha boas propriedades. Eu concluo que a potência do teste aumenta com o tamanho da amostra e com o parâmetro de dependência espacial (o que está de acordo com a literatura). Entretanto, disputo a visão consensual que a potência do teste diminui a medida que a matriz de vizinhança fica mais densa. Isto reflete um erro de medida comum na literatura, pois a distância estatística entre a hipótese nula e a alternativa varia muito com a estrutura da matriz. Fazendo a correção, concluo que a potência do teste aumenta com a distância da alternativa à nula, como esperado.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Com o objetivo de analisar o impacto na Estrutura a Termos de Volatilidade (ETV) das taxas de juros utilizando dois diferentes modelos na estimação da Estrutura a Termo das Taxas de Juros (ETTJ) e a suposição em relação a estrutura heterocedástica dos erros (MQO e MQG ponderado pela duration), a técnica procede em estimar a ETV utilizando-se da volatilidade histórica por desvio padrão e pelo modelo auto-regressivo Exponentially Weighted Moving Average (EWMA). Por meio do teste de backtesting proposto por Kupiec para o VaR paramétrico obtido com as volatilidades das ETV´s estimadas, concluí-se que há uma grande diferença na aderência que dependem da combinação dos modelos utilizados para as ETV´s. Além disso, há diferenças estatisticamente significantes entre as ETV´s estimadas em todo os pontos da curva, particularmente maiores no curto prazo (até 1 ano) e nos prazos mais longos (acima de 10 anos).