992 resultados para taxa de expansão da lesão
Resumo:
Este trabalho tem o objetivo de testar a qualidade preditiva do Modelo Vasicek de dois fatores acoplado ao Filtro de Kalman. Aplicado a uma estratégia de investimento, incluímos um critério de Stop Loss nos períodos que o modelo não responde de forma satisfatória ao movimento das taxas de juros. Utilizando contratos futuros de DI disponíveis na BMFBovespa entre 01 de março de 2007 a 30 de maio de 2014, as simulações foram realizadas em diferentes momentos de mercado, verificando qual a melhor janela para obtenção dos parâmetros dos modelos, e por quanto tempo esses parâmetros estimam de maneira ótima o comportamento das taxas de juros. Os resultados foram comparados com os obtidos pelo Modelo Vetor-auto regressivo de ordem 1, e constatou-se que o Filtro de Kalman aplicado ao Modelo Vasicek de dois fatores não é o mais indicado para estudos relacionados a previsão das taxas de juros. As limitações desse modelo o restringe em conseguir estimar toda a curva de juros de uma só vez denegrindo seus resultados.
Resumo:
A tradicional representação da estrutura a termo das taxas de juros em três fatores latentes (nível, inclinação e curvatura) teve sua formulação original desenvolvida por Charles R. Nelson e Andrew F. Siegel em 1987. Desde então, diversas aplicações vêm sendo desenvolvidas por acadêmicos e profissionais de mercado tendo como base esta classe de modelos, sobretudo com a intenção de antecipar movimentos nas curvas de juros. Ao mesmo tempo, estudos recentes como os de Diebold, Piazzesi e Rudebusch (2010), Diebold, Rudebusch e Aruoba (2006), Pooter, Ravazallo e van Dijk (2010) e Li, Niu e Zeng (2012) sugerem que a incorporação de informação macroeconômica aos modelos da ETTJ pode proporcionar um maior poder preditivo. Neste trabalho, a versão dinâmica do modelo Nelson-Siegel, conforme proposta por Diebold e Li (2006), foi comparada a um modelo análogo, em que são incluídas variáveis exógenas macroeconômicas. Em paralelo, foram testados dois métodos diferentes para a estimação dos parâmetros: a tradicional abordagem em dois passos (Two-Step DNS), e a estimação com o Filtro de Kalman Estendido, que permite que os parâmetros sejam estimados recursivamente, a cada vez que uma nova informação é adicionada ao sistema. Em relação aos modelos testados, os resultados encontrados mostram-se pouco conclusivos, apontando uma melhora apenas marginal nas estimativas dentro e fora da amostra quando as variáveis exógenas são incluídas. Já a utilização do Filtro de Kalman Estendido mostrou resultados mais consistentes quando comparados ao método em dois passos para praticamente todos os horizontes de tempo estudados.
Resumo:
A principal explicação sugerida pela literatura para o viés do preço futuro em relação à taxa de câmbio que prevalecerá no futuro é a existência de um prêmio de risco. Aplicamos aqui os principais modelos teóricos e técnicas econométricas para identificação e mensuração do prêmio de risco aos dados brasileiros do mercado futuro de câmbio posteriores ao Plano Real. Identifica-se um prêmio de risco que varia ao longo do tempo, o qual correlaciona-se com os fundamentos macroeconômicos da economia. A partir de 1999, coerentemente com a introdução da livre flutuação cambial, observou-se uma diminuição da importância do prêmio de risco relativamente aos erros de previsão na composição do forward discount. As técnicas empregadas permitem-nos avaliar importantes questões de política econômica, como o quanto podem cair as taxas de juros reais.
Resumo:
Esta tese contém dois capítulos, cada um lidando com a teoria e a história dos bancos e arranjos financeiros. No capítulo 1, busca-se extender uma economia Diamond-Dybvig com monitoramento imperfeito dos saques antecipados e realizar uma comparação do bem estar social em cada uma das alocações possíveis, como proposto em Presscott and Weinberg(2003). Esse monitoramento imperfeito é implementado a partir da comunicação indireta ( através de um meio de pagamento) entre os agentes e a máquina de depósitos e saques que é um agregado do setor produtivo e financeiro. A extensão consiste em estudar alocações onde uma fração dos agentes pode explorar o monitoramento imperfeito e fraudar a alocação contratada ao consumirem mais cedo além do limite, usando múltiplos meios de pagamento. Com a punição limitada no período de consumo tardio, essa nova alocação pode ser chamada de uma alocação separadora em contraste com as alocações agregadoras onde o agente com habilidade de fraudar é bloqueado por um meio de pagamento imune a fraude, mas custoso, ou por receber consumo futuro suficiente para tornar a fraude desinteressante. A comparação de bem estar na gama de parâmetros escolhida mostra que as alocações separadoras são ótimas para as economias com menor dotação e as agregadoras para as de nível intermediário e as ricas. O capítulo termina com um possível contexto histórico para o modelo, o qual se conecta com a narrativa histórica encontrada no capítulo 2. No capítulo 2 são exploradas as propriedade quantitativas de um sistema de previsão antecedente para crises financeiras, com as váriaveis sendo escolhidas a partir de um arcabouço de ``boom and bust'' descrito mais detalhadamente no apêndice 1. As principais variáveis são: o crescimento real nos preços de imóveis e ações, o diferencial entre os juros dos títulos governamentais de 10 anos e a taxa de 3 meses no mercado inter-bancário e o crescimento nos ativos totais do setor bancário. Essas variáveis produzem uma taxa mais elevada de sinais corretos para as crises bancárias recentes (1984-2008) do que os sistemas de indicadores antecedentes comparáveis. Levar em conta um risco de base crescente ( devido à tendência de acumulação de distorções no sistema de preços relativos em expansões anteriores) também provê informação e eleva o número de sinais corretos em países que não passaram por uma expansão creditícia e nos preços de ativos tão vigorosa.
Resumo:
Com base nos dados históricos do bid-ask spread dos ativos do mercado futuro de taxas de juros no Brasil, este estudo analisa se há evidência de presença de investidores com informação superior no período que antecede o COPOM. A partir de testes do Componente de Assimetria de Informação (CAI) medidos às vésperas de 21 reuniões do COPOM, realizadas entre outubro de 2011 e maio de 2014, encontramos evidências que: o CAI apresenta patamar superior para períodos que antecedem reunião cuja decisão não foi bem antecipada pelo mercado, sugerindo a presença de investidores com informação superior nessas circunstâncias. Contudo, não encontramos evidência de que haja qualquer relação entre o comportamento do CAI com o volume de negócios, nem que haja relação entre o comportamento do CAI com o posicionamento de determinados players, especificamente Pessoas Físicas e Pessoas Jurídicas Não Financeiras. Por outro lado, encontramos evidência de expressiva redução na CAI no dia seguinte ao COPOM, sinalizando a eficácia da comunicação do BC na ancoragem de expectativas e reforçando a reunião como evento propício para atuação de players com informação superior. Os resultados se tornam ainda mais relevantes quando se considera o contexto do período analisado, marcado pela presença de intensa volatilidade na SELIC e por uma investigação da CVM sobre insider trading no mercado de juros.
Resumo:
O presente estudo analisa o modo de expansão das multinacionais no Brasil, país emergente e de dimensões continentais que apresenta enormes desigualdades regionais. Assim, foram analisadas as estratégias de expansão dos dez maiores grupos estadunidenses no Brasil entre 2004 e 2013, sob a ótica das teorias tradicionais de internacionalização e da teoria dos ativos complementares de Hennart. Verificou-se que as diferentes características regionais brasileiras levam as multinacionais a realizarem aquisições quando iniciam atividades em novas regiões. Ademais, foi constatado que outros fatores, como dificuldades intrínsecas aos setores de atuação e a entrada do grupo multinacional em novas atividades que não a sua predominante, afetam o modo de expansão das multinacionais, levando-as a realizar aquisições e joint ventures. Tais aquisições e joint ventures são explicadas pela dificuldade das multinacionais em acessar ativos complementares locais, em conformidade à teoria de Hennart. Por outro lado, e em contrariedade às teorias tradicionais, foi verificado que a experiência das multinacionais no Brasil nem sempre influencia o seu comprometimento nos países hospedeiros, levando ao estabelecimento de subsidiárias integrais.
Resumo:
A crise financeira iniciada em 2007 gerou uma grande recessão nos Estados Unidos e abalou a economia global com consequências nefastas para o crescimento e a taxa de desemprego em vários países. Os principais Bancos Centrais do mundo passaram a dar maior importância para políticas que garantam a estabilidade financeira. É consensual a necessidade de avanços regulatórios e de medidas prudenciais capazes de reduzir os riscos financeiros, mas existem divergências quanto ao uso da taxa básica de juros, não só como um instrumento necessário para garantir a estabilidade de preços, como também para garantir a estabilidade financeira e evitar a formação de bolhas. O Brasil viveu nos últimos vinte anos um período de grande expansão do mercado de crédito, fruto das estabilidades econômica e financeira. O Banco Central do Brasil teve atuação exitosa durante a crise e demonstrou habilidade em utilizar instrumentos de política monetária e medidas macroprudenciais de forma complementar. Nos últimos quatro anos, as condições macroeconômicas se deterioraram e o Brasil atravessou um período de crescimento baixo, inflação próxima ao teto da meta e aumento do endividamento. Enquanto as políticas macroprudenciais foram capazes de evitar a formação de bolhas, as políticas fiscal e monetária foram demasiadamente expansionistas. Neste período houve um enfraquecimento na função-reação do Banco Central, que deixou de respeitar o princípio de Taylor.
Resumo:
A eficácia do estímulo fiscal ou uma política fiscal expansionista, tem sido alvo de análise e debate durante as últimas décadas, sendo estudada através de diferentes metodologias, períodos históricos e grupos de países. O trabalho tem como objetivo estudar o impacto da política fiscal em outras variáveis macroeconômicas relevantes, dentre elas: carga tributária, inflação, desemprego, poupança e taxa de investimento, nos últimos 20 anos, para países desenvolvidos e em desenvolvimento, e em especial o caso Brasileiro nos últimos 60 anos. Alguns trabalhos importantes, evidenciam que os choques fiscais dependem basicamente de algumas características principais dos países, como nível de desenvolvimento, regime cambial, abertura da economia e dívida pública, entre outras. Além disso, a resposta ao estímulo irá depender do estágio do ciclo econômico que determinada economia se encontra, recessão ou expansão. Os resultados encontrados com base no modelo autoregressivo estrutural (SVAR), através das função impulso resposta, demonstra que para ambos os grupos de países, desenvolvidos e em desenvolvimento, e também para o Brasil, à resposta do produto a um estímulo fiscal é negativo, ou seja, há uma queda do produto em função do estímulo fiscal.
Resumo:
Este trabalho demonstra como podemos usar opções sobre o Índice de Taxa Média de Depósitos Interfinanceiros de Um Dia (IDI) para extrair a função densidade de probabilidade (FDP) para os próximos passos do Comitê de Política Monetária (COPOM). Como a decisão do COPOM tem uma natureza discreta, podemos estimar a FDP usando Mínimo Quadrados Ordinários (MQO). Esta técnica permite incluir restrições sobre as probabilidades estimadas. As probabilidades calculadas usando opções sobre IDI são então comparadas com as probabilidades encontradas usando o Futuro de DI e as probabilidades calculadas através de pesquisas.
Resumo:
Esta dissertação baseia-se na criação de uma taxa não inflacionária da capacidade utilizada (NIRCU) para economia brasileira, utilizando microdados da Sondagem da Indústria de Transformação e Índice de Preços ao Produtor Amplo – M (IPA-M), pesquisas desenvolvidas pela FGV/IBRE. Foram criadas três taxas: NIRCU Sondagem, NIRCU Coincidente e NIRCU Antecedente. A primeira utiliza apenas dados da sondagem e a ideia é verificar que não há pressão inflacionária quando as empresas informam para sondagem que não irão variar os seus preços para os próximos três meses e que o número de turnos trabalhado é igual à média do setor. Já as demais, cruzam as informações das empresas que respondem tanto a Sondagem da Indústria de Transformação quanto no IPA-M e verifica se as que informam que não irão alterar os seus preços nos próximos três meses se concretiza quando comparados às variações do índice. A diferença entre as duas últimas abordagens é que a primeira, NIRCU Coincidente, verifica no mesmo período e a outra, NIRCU Antecedente, no trimestre seguinte. A forma encontrada para verificar a eficácia dos indicadores em mensurar a existência de pressão inflacionária foi inserir os diferentes hiatos de produto das NIRCU no modelo de Curva de Phillips, usando a metodologia de Mínimos Quadrados Ordinários (MQO). De acordo com as estimativas, a NIRCU Antecedente foi a única das três que não apresentou um bom desempenho no resultado; as NIRCU Sondagem e Coincidente tiveram uma performance muita boa, principalmente a última. Ou seja, esses dois indicadores tiveram um resultado tão bom quanto as mais tradicionais medidas de hiato de produto.