204 resultados para Administração de crédito - Modelos matemáticos
Resumo:
A incipiente alta nas expectativas de inflação futura combinada com a busca do governo por juros nominais mais baixos e o maior intervencionismo via medidas convencionais e não convencionais na gestão da política econômica, pode ter deteriorado a percepção dos agentes de mercado quanto à credibilidade da Autoridade Monetária, mesmo que indicadores tradicionais de credibilidade ainda não mostrem isso. Este trabalho intui que a resposta de ativos à divulgação de dados macroeconômicos apresenta informações sobre a percepção do mercado da credibilidade do Banco Central, utilizando, então, uma base de dados de alta frequência para medir as respostas dos ativos e empregando o teste econométrico quasi-local level (QLL), busca avaliar se houve alguma instabilidade nos coeficientes de respostas que indique uma variação na percepção ao longo do tempo. A série de dados analisada compreende o período de 2006 a 2011 e o trabalho conclui que não houve variação nos coeficientes e, portanto, se houve alguma mudança positiva ou negativa na percepção de credibilidade, esta não pode ser inferida pelo método proposto.
Resumo:
No campo de “Estratégia Empresarial”, diversos estudos dos anos 1990 e 2000 tratam de como as estratégias devem ser formuladas para garantir o sucesso das organizações. Porém, nesse mesmo período, apenas alguns deles se debruçaram sobre o tema modelos e obstáculos na implantação das estratégias. Considerando que os gerentes médios são parte fundamental no sucesso da implantação das estratégias organizacionais, essa dissertação tem como objeto identificar o que motiva e influencia a atuação desses profissionais na condução da equipe e assimilação das diretrizes da empresa. Por meio de entrevistas estruturadas com gerentes médios de um grande banco nacional, esse trabalho apresenta uma investigação empírica e identifica os pontos de convergência e divergência dos entrevistados com a literatura de implantação de estratégia. Retomando as pesquisas de Hornsby (2002), Okumus (2001), Noble (1999), Littler (2000) entre outros autores, verificou-se que a visão dos gerentes médios converge e aprofunda os pontos apresentados na literatura como fundamentais na implantação das estratégias tais como: comunicação transacional, frequente, descentralizada; processos de implantação mais abrangentes, com abordagem qualitativa; alta gestão mais participativa na execução das estratégias, ambiente favorável a mudança, possibilidade de se assumir riscos e definição clara dos papéis e dos ganhos de cada membro no projeto
Resumo:
Pooled procurement has an important role in reducing acquisition prices of goods. A pool of buyers, which aggregates demand for its members, increases bargaining power and allows suppliers to achieve economies of scale and scope in the production. Such aggregation demand e ect lowers prices paid for buyers. However, when a buyer with a good reputation for paying suppliers in a timely manner is joined in the pool by a buyer with bad reputation may have its price paid increased due to the credit risk e ect on prices. This will happen because prices paid in a pooled procurement should refect the (higher) average buyers' credit risk. Using a data set on Brazilian public purchases of pharmaceuticals and medical supplies, we nd evidence supporting both e ects. We show that the prices paid by public bodies in Brazil are lower when they buy through pooled procurement than individually. On the other hand, federal agencies (i.e. good buyers) pay higher prices for products when they are joined by state agencies (i.e. bad buyers) in a pool. Such evidence suggests that pooled procurement should be carefully designed to avoid that prices paid increase for its members.
Resumo:
Com a relevância que o mercado de crédito vem ganhando na economia o presente trabalho se propôs a fazer uma revisão conceitual do risco de crédito. Tendo a perda esperada como o principal componente do risco de crédito, o trabalho se aprofundou nesse tema propondo uma maneira nova para o cálculo da mesma. Da maneira que ela é modelada usualmente pressupoem que os parâmetros de PD e LGD são independentes. Alguns autores questionam essa pressuposição e que, se essa dependência não for levada em conta os cálculos de perda esperada e o capital que deveria ser alocado estarão incorretos. Uma alternativa para tratar a correlação é modelar os dois componentes conjuntamente, ao comparar os resultados do modelo usual com o modelo conjunto conclui-se que o erro da estimativa de perda esperada do modelo conjunto foi menor. Não se pode afirmar que o menor erro na estimativa de perda se deve a correlação entre a PD e LGD, porém ao modelar os parâmetros conjuntamente, retira-se essa forte pressuposição.
Resumo:
A teoria do portfólio e um tópico que passou a ser discutido com bastante frequência nos últimos anos sendo objeto de um tratamento mais rigoroso a partir da obra de MARKOWITZ com a qual, as vezes, passa a ser confundida. A seleção de uma "boa carteira" e de alguma forma diferente de estabelecer' uma longa lista de "boas ações " ou de uma maneira mais geral "bons títulos ". O trabalho inicia realmente com uma seleção de títulos à qual é acrescentada a técnica que a teoria de carteira fornece.
Resumo:
Este estudo compara previsões de volatilidade de sete ações negociadas na Bovespa usando 02 diferentes modelos de volatilidade realizada e 03 de volatilidade condicional. A intenção é encontrar evidências empíricas quanto à diferença de resultados que são alcançados quando se usa modelos de volatilidade realizada e de volatilidade condicional para prever a volatilidade de ações no Brasil. O período analisado vai de 01 de Novembro de 2007 a 30 de Março de 2011. A amostra inclui dados intradiários de 5 minutos. Os estimadores de volatilidade realizada que serão considerados neste estudo são o Bi-Power Variation (BPVar), desenvolvido por Barndorff-Nielsen e Shephard (2004b), e o Realized Outlyingness Weighted Variation (ROWVar), proposto por Boudt, Croux e Laurent (2008a). Ambos são estimadores não paramétricos, e são robustos a jumps. As previsões de volatilidade realizada foram feitas através de modelos autoregressivos estimados para cada ação sobre as séries de volatilidade estimadas. Os modelos de variância condicional considerados aqui serão o GARCH(1,1), o GJR (1,1), que tem assimetrias em sua construção, e o FIGARCH-CHUNG (1,d,1), que tem memória longa. A amostra foi divida em duas; uma para o período de estimação de 01 de Novembro de 2007 a 30 de Dezembro de 2010 (779 dias de negociação) e uma para o período de validação de 03 de Janeiro de 2011 a 31 de Março de 2011 (61 dias de negociação). As previsões fora da amostra foram feitas para 1 dia a frente, e os modelos foram reestimados a cada passo, incluindo uma variável a mais na amostra depois de cada previsão. As previsões serão comparadas através do teste Diebold-Mariano e através de regressões da variância ex-post contra uma constante e a previsão. Além disto, o estudo também apresentará algumas estatísticas descritivas sobre as séries de volatilidade estimadas e sobre os erros de previsão.
Resumo:
O estudo que se segue requer conhecimento de matemática superior o que, infelizmente, pode torná-lo um pouco esotérico. Para contornar esta possível dificuldade de comunicação, inserimos vários exemplos de aplicabilidade o que, certamente trará entendimento do seu conteúdo. Este estudo procurou apenas lançar as bases do sistema de juros, sem qualquer pretensão de esgotá-lo
Resumo:
A necessidade de maior generalização e aplicação do modelo da curva de progresso da produção às indústrias "mão-de-obra intensivas" vem sendo ressaltada há muitos anos na literatura. Até hoje, entretanto, as contribuições empíricas ao estudo da matéria emanaram, predominantemente, da indústria aeroespacial cabendo às demais umas poucas tentativas de extensão do modelo mencionado. A forma apropriada do modelo tem sido também debatida. A questão do platô na curva - término ou estancamento do progresso constitui um problema sobre o qual existe muita controvérsia e quase nenhuma pesquisa empírica. A estimação dos parâmetros da função de progresso da produção, para diferentes produtos e atividades, tem sido tentada por um escasso número de pesquisadores, desconhecendo o auto a existência de pesquisas sobre a função de progresso da produção no caso de indústrias brasileiras. Finalmente, a matéria toda carece de novas hipóteses e de melhor sistematização teórica. Ao ampliar e aprofundar as questões mencionadas, o trabalho teórico e de pesquisa, ora concluído, contribuirá, possivelmente, para esclarecer determinados aspectos da função de progresso da produção, ainda não abordados na literatura especialização.
Resumo:
Neste trabalho são abordados empiricamente dois temas bastante atuais no âmbito da política monetária: a estimativa de uma Regra de Taylor aumentada com a inclusão de um vetor de preços de ativos financeiros e a hipótese de não-linearidade da Regra de Taylor. Os principais resultados encontrados sugerem que o Banco Central do Brasil não segue uma Regra de Taylor aumentada na condução da política monetária e que há evidências de não-linearidade de sua função de reação. Além disso, encontramos evidência de recuo da taxa de juros real de equilíbrio (ou neutra) da economia brasileira.
Resumo:
Levantamento bibliográfico abrangendo os principais trabalhos relativos ao "CAPM - Capital Asset Pricing Model" que se acham esparsos em vasta literatura. Aborda desde a teoria de seleção de carteira, o desenvolvimento e testes do modelo, suas implicações para a teoria financeira. Inclui também considerações sobre o relaxamento dos pressupostos básicos e "sobre a influência do fator inflacionário na forma e validade do modelo.
Resumo:
Com o objetivo de precificar derivativos de taxas de juros no mercado brasileiro, este trabalho foca na implementação do modelo de Heath, Jarrow e Morton (1992) em sua forma discreta e multifatorial através de uma abordagem numérica, e, que possibilita uma grande flexibilidade na estimativa da taxa forward sob uma estrutura de volatilidade baseada em fatores ortogonais, facilitando assim a simulação de sua evolução por Monte Carlo, como conseqüência da independência destes fatores. A estrutura de volatilidade foi construída de maneira a ser totalmente não paramétrica baseada em vértices sintéticos que foram obtidos por interpolação dos dados históricos de cotações do DI Futuro negociado na BM&FBOVESPA, sendo o período analisado entre 02/01/2003 a 28/12/2012. Para possibilitar esta abordagem foi introduzida uma modificação no modelo HJM desenvolvida por Brace e Musiela (1994).
Resumo:
Modelos de predição baseados em estimações não-paramétricas continuam em desenvolvimento e têm permeado a comunidade quantitativa. Sua principal característica é que não consideram a priori distribuições de probabilidade conhecidas, mas permitem que os dados passados sirvam de base para a construção das próprias distribuições. Implementamos para o mercado brasileiro os estimadores agrupados não-paramétricos de Sam e Jiang (2009) para as funções de drift e de difusão do processo estocástico da taxa de juros instantânea, por meio do uso de séries de taxas de juros de diferentes maturidades fornecidas pelos contratos futuros de depósitos interfinanceiros de um dia (DI1). Os estimadores foram construídos sob a perspectiva da estimação por núcleos (kernels), que requer para a sua otimização um formato específico da função-núcleo. Neste trabalho, foi usado o núcleo de Epanechnikov, e um parâmetro de suavizamento (largura de banda), o qual é fundamental para encontrar a função de densidade de probabilidade ótima que forneça a estimação mais eficiente em termos do MISE (Mean Integrated Squared Error - Erro Quadrado Integrado Médio) no momento de testar o modelo com o tradicional método de validação cruzada de k-dobras. Ressalvas são feitas quando as séries não possuem os tamanhos adequados, mas a quebra estrutural do processo de difusão da taxa de juros brasileira, a partir do ano 2006, obriga à redução do tamanho das séries ao custo de reduzir o poder preditivo do modelo. A quebra estrutural representa um processo de amadurecimento do mercado brasileiro que provoca em grande medida o desempenho insatisfatório do estimador proposto.
Resumo:
Esta pesquisa busca testar a eficácia de uma estratégia de arbitragem de taxas de juros no Brasil baseada na utilização do modelo de Nelson-Siegel dinâmico aplicada à curva de contratos futuros de taxa de juros de 1 dia da BM&FBovespa para o período compreendido entre 02 de janeiro de 2008 e 03 de dezembro de 2012. O trabalho adapta para o mercado brasileiro o modelo original proposto por Nelson e Siegel (1987), e algumas de suas extensões e interpretações, chegando a um dos modelos propostos por Diebold, Rudebusch e Aruoba (2006), no qual estimam os parâmetros do modelo de Nelson-Siegel em uma única etapa, colocando-o em formato de espaço de estados e utilizando o Filtro de Kalman para realizar a previsão dos fatores, assumindo que o comportamento dos mesmos é um VAR de ordem 1. Desta maneira, o modelo possui a vantagem de que todos os parâmetros são estimados simultaneamente, e os autores mostraram que este modelo possui bom poder preditivo. Os resultados da estratégia adotada foram animadores quando considerados para negociação apenas os 7 primeiros vencimentos abertos para negociação na BM&FBovespa, que possuem maturidade máxima próxima a 1 ano.
Resumo:
Esta dissertação concentra-se nos processos estocásticos espaciais definidos em um reticulado, os chamados modelos do tipo Cliff & Ord. Minha contribuição nesta tese consiste em utilizar aproximações de Edgeworth e saddlepoint para investigar as propriedades em amostras finitas do teste para detectar a presença de dependência espacial em modelos SAR (autoregressivo espacial), e propor uma nova classe de modelos econométricos espaciais na qual os parâmetros que afetam a estrutura da média são distintos dos parâmetros presentes na estrutura da variância do processo. Isto permite uma interpretação mais clara dos parâmetros do modelo, além de generalizar uma proposta de taxonomia feita por Anselin (2003). Eu proponho um estimador para os parâmetros do modelo e derivo a distribuição assintótica do estimador. O modelo sugerido na dissertação fornece uma interpretação interessante ao modelo SARAR, bastante comum na literatura. A investigação das propriedades em amostras finitas dos testes expande com relação a literatura permitindo que a matriz de vizinhança do processo espacial seja uma função não-linear do parâmetro de dependência espacial. A utilização de aproximações ao invés de simulações (mais comum na literatura), permite uma maneira fácil de comparar as propriedades dos testes com diferentes matrizes de vizinhança e corrigir o tamanho ao comparar a potência dos testes. Eu obtenho teste invariante ótimo que é também localmente uniformemente mais potente (LUMPI). Construo o envelope de potência para o teste LUMPI e mostro que ele é virtualmente UMP, pois a potência do teste está muito próxima ao envelope (considerando as estruturas espaciais definidas na dissertação). Eu sugiro um procedimento prático para construir um teste que tem boa potência em uma gama de situações onde talvez o teste LUMPI não tenha boas propriedades. Eu concluo que a potência do teste aumenta com o tamanho da amostra e com o parâmetro de dependência espacial (o que está de acordo com a literatura). Entretanto, disputo a visão consensual que a potência do teste diminui a medida que a matriz de vizinhança fica mais densa. Isto reflete um erro de medida comum na literatura, pois a distância estatística entre a hipótese nula e a alternativa varia muito com a estrutura da matriz. Fazendo a correção, concluo que a potência do teste aumenta com a distância da alternativa à nula, como esperado.
Resumo:
Com o objetivo de analisar o impacto na Estrutura a Termos de Volatilidade (ETV) das taxas de juros utilizando dois diferentes modelos na estimação da Estrutura a Termo das Taxas de Juros (ETTJ) e a suposição em relação a estrutura heterocedástica dos erros (MQO e MQG ponderado pela duration), a técnica procede em estimar a ETV utilizando-se da volatilidade histórica por desvio padrão e pelo modelo auto-regressivo Exponentially Weighted Moving Average (EWMA). Por meio do teste de backtesting proposto por Kupiec para o VaR paramétrico obtido com as volatilidades das ETV´s estimadas, concluí-se que há uma grande diferença na aderência que dependem da combinação dos modelos utilizados para as ETV´s. Além disso, há diferenças estatisticamente significantes entre as ETV´s estimadas em todo os pontos da curva, particularmente maiores no curto prazo (até 1 ano) e nos prazos mais longos (acima de 10 anos).