163 resultados para Votação - Modelos matemáticos
Resumo:
O estudo que se segue requer conhecimento de matemática superior o que, infelizmente, pode torná-lo um pouco esotérico. Para contornar esta possível dificuldade de comunicação, inserimos vários exemplos de aplicabilidade o que, certamente trará entendimento do seu conteúdo. Este estudo procurou apenas lançar as bases do sistema de juros, sem qualquer pretensão de esgotá-lo
Resumo:
A necessidade de maior generalização e aplicação do modelo da curva de progresso da produção às indústrias "mão-de-obra intensivas" vem sendo ressaltada há muitos anos na literatura. Até hoje, entretanto, as contribuições empíricas ao estudo da matéria emanaram, predominantemente, da indústria aeroespacial cabendo às demais umas poucas tentativas de extensão do modelo mencionado. A forma apropriada do modelo tem sido também debatida. A questão do platô na curva - término ou estancamento do progresso constitui um problema sobre o qual existe muita controvérsia e quase nenhuma pesquisa empírica. A estimação dos parâmetros da função de progresso da produção, para diferentes produtos e atividades, tem sido tentada por um escasso número de pesquisadores, desconhecendo o auto a existência de pesquisas sobre a função de progresso da produção no caso de indústrias brasileiras. Finalmente, a matéria toda carece de novas hipóteses e de melhor sistematização teórica. Ao ampliar e aprofundar as questões mencionadas, o trabalho teórico e de pesquisa, ora concluído, contribuirá, possivelmente, para esclarecer determinados aspectos da função de progresso da produção, ainda não abordados na literatura especialização.
Resumo:
Neste trabalho são abordados empiricamente dois temas bastante atuais no âmbito da política monetária: a estimativa de uma Regra de Taylor aumentada com a inclusão de um vetor de preços de ativos financeiros e a hipótese de não-linearidade da Regra de Taylor. Os principais resultados encontrados sugerem que o Banco Central do Brasil não segue uma Regra de Taylor aumentada na condução da política monetária e que há evidências de não-linearidade de sua função de reação. Além disso, encontramos evidência de recuo da taxa de juros real de equilíbrio (ou neutra) da economia brasileira.
Resumo:
Esse estudo foi motivado pela falta de bons fundos de investimento multimercado abertos para captação no Brasil e tem como objetivo analisar a viabilidade de utilizar a análise de estilo baseada em retorno para clonar retornos e comportamento de determinados fundos de investimento multimercado do mercado brasileiro. Modelos já testados no exterior e no Brasil foram pesquisados e optou-se por adaptar o modelo linear proposto por LIMA e VICENTE (2007). Verificou-se que o modelo de espaço de estados é mais adequado para clonar retornos de determinados fundos de investimento do que o modelo de regressão com parâmetros fixos. Resultados animadores foram obtidos para quatro dos cinco fundos analisados nesse estudo.
Resumo:
Este trabalho apresenta um modelo DSGE que comtempla três instâncias de politica monetária, convencional e não convencional, utilizadas pelo governo brasileiro para combater os efeitos da crise mundial iniciada pelo colapso dos créditos subprime americanos. Politica monetária via regra de juros a la Taylor, política de controle dos depósitos compulsórios e política de crédito governamental, na figura do BNDES, são analisados. A conclusão que fica é que a utilização de diversas politicas acaba por deixar as variáveis econômicas mais estáveis e faz a política monetária perder potência.
Resumo:
Levantamento bibliográfico abrangendo os principais trabalhos relativos ao "CAPM - Capital Asset Pricing Model" que se acham esparsos em vasta literatura. Aborda desde a teoria de seleção de carteira, o desenvolvimento e testes do modelo, suas implicações para a teoria financeira. Inclui também considerações sobre o relaxamento dos pressupostos básicos e "sobre a influência do fator inflacionário na forma e validade do modelo.
Resumo:
Trato do problema da assimetria de informação no mercado de crédito e do uso da informação externa como forma de minimizar esse efeito negativo. Descreve os modelos teóricos de troca de informação na presença de Bureaus de crédito e aborda o mercado brasileiro de crédito, conduzindo avaliações qualitativas e quantitativas.
Resumo:
Com o objetivo de precificar derivativos de taxas de juros no mercado brasileiro, este trabalho foca na implementação do modelo de Heath, Jarrow e Morton (1992) em sua forma discreta e multifatorial através de uma abordagem numérica, e, que possibilita uma grande flexibilidade na estimativa da taxa forward sob uma estrutura de volatilidade baseada em fatores ortogonais, facilitando assim a simulação de sua evolução por Monte Carlo, como conseqüência da independência destes fatores. A estrutura de volatilidade foi construída de maneira a ser totalmente não paramétrica baseada em vértices sintéticos que foram obtidos por interpolação dos dados históricos de cotações do DI Futuro negociado na BM&FBOVESPA, sendo o período analisado entre 02/01/2003 a 28/12/2012. Para possibilitar esta abordagem foi introduzida uma modificação no modelo HJM desenvolvida por Brace e Musiela (1994).
Resumo:
Modelos de predição baseados em estimações não-paramétricas continuam em desenvolvimento e têm permeado a comunidade quantitativa. Sua principal característica é que não consideram a priori distribuições de probabilidade conhecidas, mas permitem que os dados passados sirvam de base para a construção das próprias distribuições. Implementamos para o mercado brasileiro os estimadores agrupados não-paramétricos de Sam e Jiang (2009) para as funções de drift e de difusão do processo estocástico da taxa de juros instantânea, por meio do uso de séries de taxas de juros de diferentes maturidades fornecidas pelos contratos futuros de depósitos interfinanceiros de um dia (DI1). Os estimadores foram construídos sob a perspectiva da estimação por núcleos (kernels), que requer para a sua otimização um formato específico da função-núcleo. Neste trabalho, foi usado o núcleo de Epanechnikov, e um parâmetro de suavizamento (largura de banda), o qual é fundamental para encontrar a função de densidade de probabilidade ótima que forneça a estimação mais eficiente em termos do MISE (Mean Integrated Squared Error - Erro Quadrado Integrado Médio) no momento de testar o modelo com o tradicional método de validação cruzada de k-dobras. Ressalvas são feitas quando as séries não possuem os tamanhos adequados, mas a quebra estrutural do processo de difusão da taxa de juros brasileira, a partir do ano 2006, obriga à redução do tamanho das séries ao custo de reduzir o poder preditivo do modelo. A quebra estrutural representa um processo de amadurecimento do mercado brasileiro que provoca em grande medida o desempenho insatisfatório do estimador proposto.
Resumo:
Esta pesquisa busca testar a eficácia de uma estratégia de arbitragem de taxas de juros no Brasil baseada na utilização do modelo de Nelson-Siegel dinâmico aplicada à curva de contratos futuros de taxa de juros de 1 dia da BM&FBovespa para o período compreendido entre 02 de janeiro de 2008 e 03 de dezembro de 2012. O trabalho adapta para o mercado brasileiro o modelo original proposto por Nelson e Siegel (1987), e algumas de suas extensões e interpretações, chegando a um dos modelos propostos por Diebold, Rudebusch e Aruoba (2006), no qual estimam os parâmetros do modelo de Nelson-Siegel em uma única etapa, colocando-o em formato de espaço de estados e utilizando o Filtro de Kalman para realizar a previsão dos fatores, assumindo que o comportamento dos mesmos é um VAR de ordem 1. Desta maneira, o modelo possui a vantagem de que todos os parâmetros são estimados simultaneamente, e os autores mostraram que este modelo possui bom poder preditivo. Os resultados da estratégia adotada foram animadores quando considerados para negociação apenas os 7 primeiros vencimentos abertos para negociação na BM&FBovespa, que possuem maturidade máxima próxima a 1 ano.
Resumo:
Esta dissertação concentra-se nos processos estocásticos espaciais definidos em um reticulado, os chamados modelos do tipo Cliff & Ord. Minha contribuição nesta tese consiste em utilizar aproximações de Edgeworth e saddlepoint para investigar as propriedades em amostras finitas do teste para detectar a presença de dependência espacial em modelos SAR (autoregressivo espacial), e propor uma nova classe de modelos econométricos espaciais na qual os parâmetros que afetam a estrutura da média são distintos dos parâmetros presentes na estrutura da variância do processo. Isto permite uma interpretação mais clara dos parâmetros do modelo, além de generalizar uma proposta de taxonomia feita por Anselin (2003). Eu proponho um estimador para os parâmetros do modelo e derivo a distribuição assintótica do estimador. O modelo sugerido na dissertação fornece uma interpretação interessante ao modelo SARAR, bastante comum na literatura. A investigação das propriedades em amostras finitas dos testes expande com relação a literatura permitindo que a matriz de vizinhança do processo espacial seja uma função não-linear do parâmetro de dependência espacial. A utilização de aproximações ao invés de simulações (mais comum na literatura), permite uma maneira fácil de comparar as propriedades dos testes com diferentes matrizes de vizinhança e corrigir o tamanho ao comparar a potência dos testes. Eu obtenho teste invariante ótimo que é também localmente uniformemente mais potente (LUMPI). Construo o envelope de potência para o teste LUMPI e mostro que ele é virtualmente UMP, pois a potência do teste está muito próxima ao envelope (considerando as estruturas espaciais definidas na dissertação). Eu sugiro um procedimento prático para construir um teste que tem boa potência em uma gama de situações onde talvez o teste LUMPI não tenha boas propriedades. Eu concluo que a potência do teste aumenta com o tamanho da amostra e com o parâmetro de dependência espacial (o que está de acordo com a literatura). Entretanto, disputo a visão consensual que a potência do teste diminui a medida que a matriz de vizinhança fica mais densa. Isto reflete um erro de medida comum na literatura, pois a distância estatística entre a hipótese nula e a alternativa varia muito com a estrutura da matriz. Fazendo a correção, concluo que a potência do teste aumenta com a distância da alternativa à nula, como esperado.
Resumo:
Com o objetivo de analisar o impacto na Estrutura a Termos de Volatilidade (ETV) das taxas de juros utilizando dois diferentes modelos na estimação da Estrutura a Termo das Taxas de Juros (ETTJ) e a suposição em relação a estrutura heterocedástica dos erros (MQO e MQG ponderado pela duration), a técnica procede em estimar a ETV utilizando-se da volatilidade histórica por desvio padrão e pelo modelo auto-regressivo Exponentially Weighted Moving Average (EWMA). Por meio do teste de backtesting proposto por Kupiec para o VaR paramétrico obtido com as volatilidades das ETV´s estimadas, concluí-se que há uma grande diferença na aderência que dependem da combinação dos modelos utilizados para as ETV´s. Além disso, há diferenças estatisticamente significantes entre as ETV´s estimadas em todo os pontos da curva, particularmente maiores no curto prazo (até 1 ano) e nos prazos mais longos (acima de 10 anos).
Resumo:
Nesta tese estuda-se a Percepção de Adoção de Instrumentos de Mensuração de Resultados de Marketing (PAIMRM) e a sua relação com a Maturidade da Indústria (MI) à qual as empresas pertencem. Seus objetivos gerais são (1) desenvolver e validar uma escala de PAIMRM, e (2) testar um modelo teórico que relacione PAIMRM com MI. Estes objetivos também se desdobram em objetivos secundários: (A) discutir as implicações deste modelo teórico em diferentes estágios de MI e (B) testar um modelo teórico semelhante que relacione PAIMRM e Maturidade da Empresa (ME). Para isto foram utilizados 419 questionários coletados junto a executivos de Marketing de diversas empresas e em diferentes ondas de coleta. Primeiramente uma escala de PAIMRM com 16 itens e 6 dimensões foi desenvolvida e validada utilizando um procedimento que incluiu sete passos: (1) Definição Conceitual do Construto; (2) Geração dos Itens; (3) Validação de Conteúdo; (4) Definição de Dimensões; (5) Análise de Dados; (6) Validade Nomológica; (7) Validade de Grupos Conhecidos. No passo 6, duas hipóteses foram testadas e suportadas por dois modelos de equação estrutural. O primeiro modelo suportou a relação entre PAIMRM e MI (H1), com boa adequação do modelo aos dados, enquanto o segundo suportou a relação entre PAIMRM e ME (H1.b), com razoável adequação do modelo aos dados. No passo 7, três hipóteses foram testadas pela análise de diferenças entre médias e análise de variáveis categorizadas, para três grupos conhecidos: MI baixo, MI médio e MI alto. É comum em indústrias com MI baixo a preocupação pela falta de estrutura, tecnologia e definição de mercado, explicando a expectativa de que a PAIMRM em indústrias não maduras seja baixa. Em estágios intermediários, as empresas que compõem uma indústria passaram por uma “seleção natural” e algumas das questões que definem o modelo de negócios foram respondidas, mas não sistematizada e nem assimilada pelos gestores, fazendo com que o esforço dispendido para avaliar o desempenho empresarial seja maior, o que resultaria em aumento da PAIMRM, explicando a expectativa de que a PAIMRM seja alta em indústrias medianamente maduras. Finalmente, em estágios subsequentes de MI, a consolidação dos modelos de negócios, assimilação de conhecimento advindo de informações anteriormente adquiridas e a relativa diminuição de alterações no ambiente da indústria, reduzem a necessidade de esforço para acompanhar os negócios, supõe-se que PAIMRM seja baixo em indústria maduras. A hipótese de PAIMRM baixo quando MI for baixo (H2.a) foi suportada pelos dois testes, enquanto a hipótese de PAIMRM alto quando MI for médio (H2.b) e PAIMRM baixo quando MI for alto (H2.c) não foram suportadas. Implicações gerenciais incluem específicas decisões de adoção de instrumentos de mensuração de resultados de marketing para cada estágio de MI, uma vez que tais decisões são influenciadas tanto pela maturidade da indústria na qual a empresa está inserida quanto pela própria maturidade da empresa.
Resumo:
The onset of the financial crisis in 2008 and the European sovereign crisis in 2010 renewed the interest of macroeconomists on the role played by credit in business cycle fluctuations. The purpose of the present work is to present empirical evidence on the monetary policy transmission mechanism in Brazil with a special eye on the role played by the credit channel, using different econometric techniques. It is comprised by three articles. The first one presents a review of the literature of financial frictions, with a focus on the overlaps between credit activity and the monetary policy. It highlights how the sharp disruptions in the financial markets spurred central banks in developed and emerging nations to deploy of a broad set of non conventional tools to overcome the damage on financial intermediation. A chapter is dedicated to the challenge face by the policymaking in emerging markets and Brazil in particular in the highly integrated global capital market. This second article investigates the implications of the credit channel of the monetary policy transmission mechanism in the case of Brazil, using a structural FAVAR (SFAVAR) approach. The term “structural” comes from the estimation strategy, which generates factors that have a clear economic interpretation. The results show that unexpected shocks in the proxies for the external finance premium and the credit volume produce large and persistent fluctuations in inflation and economic activity – accounting for more than 30% of the error forecast variance of the latter in a three-year horizon. Counterfactual simulations demonstrate that the credit channel amplified the economic contraction in Brazil during the acute phase of the global financial crisis in the last quarter of 2008, thus gave an important impulse to the recovery period that followed. In the third articles, I make use of Bayesian estimation of a classical neo-Keynesian DSGE model, incorporating the financial accelerator channel developed by Bernanke, Gertler and Gilchrist (1999). The results present evidences in line to those already seen in the previous article: disturbances on the external finance premium – represented here by credit spreads – trigger significant responses on the aggregate demand and inflation and monetary policy shocks are amplified by the financial accelerator mechanism. Keywords: Macroeconomics, Monetary Policy, Credit Channel, Financial Accelerator, FAVAR, DSGE, Bayesian Econometrics
Resumo:
Esta tese é composta de três artigos que analisam a estrutura a termo das taxas de juros usando diferentes bases de dados e modelos. O capítulo 1 propõe um modelo paramétrico de taxas de juros que permite a segmentação e choques locais na estrutura a termo. Adotando dados do tesouro americano, duas versões desse modelo segmentado são implementadas. Baseado em uma sequência de 142 experimentos de previsão, os modelos propostos são comparados à benchmarks e concluí-se que eles performam melhor nos resultados das previsões fora da amostra, especialmente para as maturidades curtas e para o horizonte de previsão de 12 meses. O capítulo 2 acrescenta restrições de não arbitragem ao estimar um modelo polinomial gaussiano dinâmico de estrutura a termo para o mercado de taxas de juros brasileiro. Esse artigo propõe uma importante aproximação para a série temporal dos fatores de risco da estrutura a termo, que permite a extração do prêmio de risco das taxas de juros sem a necessidade de otimização de um modelo dinâmico completo. Essa metodologia tem a vantagem de ser facilmente implementada e obtém uma boa aproximação para o prêmio de risco da estrutura a termo, que pode ser usada em diferentes aplicações. O capítulo 3 modela a dinâmica conjunta das taxas nominais e reais usando um modelo afim de não arbitagem com variáveis macroeconômicas para a estrutura a termo, afim de decompor a diferença entre as taxas nominais e reais em prêmio de risco de inflação e expectativa de inflação no mercado americano. Uma versão sem variáveis macroeconômicas e uma versão com essas variáveis são implementadas e os prêmios de risco de inflação obtidos são pequenos e estáveis no período analisado, porém possuem diferenças na comparação dos dois modelos analisados.