115 resultados para Taxa de captura
Resumo:
Este trabalho analisa a variação da taxa de aluguel e do custo de moradia nas cidades de São Paulo e Rio de Janeiro para o período de Janeiro de 2008 a Janeiro de 2014 utilizando uma abordagem quantitativa com base na expectativa de longo prazo da taxa de juros reais, na expectativa de inflação e na valorização do preço dos imóveis em uma janela de 1 ano. Os resultados indicam que a expectativa de longo prazo da taxa de juros reais tem um impacto relevante na variação da taxa de aluguel durante o período abordado, bem como a expectativa de inflação, mas em magnitude menor, enquanto a valorização passada de 1 ano não tem poder explicativo sobre a taxa de aluguel.
Resumo:
Este trabalho tem como objetivo investigar o efeito das intervenções cambiais realizadas pelo Banco Central do Brasil sobre o nível intradiário da taxa de câmbio no Brasil. Para isso é utilizada uma abordagem de estudo de eventos, cruzando as cotações tick-by-tick dos contratos de dólar futuro negociados na BM&FBOVESPA com o instante em que ocorreram as intervenções, no período de outubro de 2011 a março de 2014. Foram considerados nas análises não apenas o momento da intervenção como também o momento do anúncio. Os resultados indicaram que o mercado reage de forma distinta a cada tipo de intervenção, sendo a reação acentuada quando a intervenção não é anunciada previamente ao mercado. As intervenções via swap cambial ou dólar pronto geraram efeitos significativos e relevantes no nível da taxa de câmbio. Por outro lado, as intervenções através de leilão de linha não afetaram significativamente a taxa de câmbio.
Resumo:
Este trabalho tem o objetivo de testar a qualidade preditiva do Modelo Vasicek de dois fatores acoplado ao Filtro de Kalman. Aplicado a uma estratégia de investimento, incluímos um critério de Stop Loss nos períodos que o modelo não responde de forma satisfatória ao movimento das taxas de juros. Utilizando contratos futuros de DI disponíveis na BMFBovespa entre 01 de março de 2007 a 30 de maio de 2014, as simulações foram realizadas em diferentes momentos de mercado, verificando qual a melhor janela para obtenção dos parâmetros dos modelos, e por quanto tempo esses parâmetros estimam de maneira ótima o comportamento das taxas de juros. Os resultados foram comparados com os obtidos pelo Modelo Vetor-auto regressivo de ordem 1, e constatou-se que o Filtro de Kalman aplicado ao Modelo Vasicek de dois fatores não é o mais indicado para estudos relacionados a previsão das taxas de juros. As limitações desse modelo o restringe em conseguir estimar toda a curva de juros de uma só vez denegrindo seus resultados.
Resumo:
A tradicional representação da estrutura a termo das taxas de juros em três fatores latentes (nível, inclinação e curvatura) teve sua formulação original desenvolvida por Charles R. Nelson e Andrew F. Siegel em 1987. Desde então, diversas aplicações vêm sendo desenvolvidas por acadêmicos e profissionais de mercado tendo como base esta classe de modelos, sobretudo com a intenção de antecipar movimentos nas curvas de juros. Ao mesmo tempo, estudos recentes como os de Diebold, Piazzesi e Rudebusch (2010), Diebold, Rudebusch e Aruoba (2006), Pooter, Ravazallo e van Dijk (2010) e Li, Niu e Zeng (2012) sugerem que a incorporação de informação macroeconômica aos modelos da ETTJ pode proporcionar um maior poder preditivo. Neste trabalho, a versão dinâmica do modelo Nelson-Siegel, conforme proposta por Diebold e Li (2006), foi comparada a um modelo análogo, em que são incluídas variáveis exógenas macroeconômicas. Em paralelo, foram testados dois métodos diferentes para a estimação dos parâmetros: a tradicional abordagem em dois passos (Two-Step DNS), e a estimação com o Filtro de Kalman Estendido, que permite que os parâmetros sejam estimados recursivamente, a cada vez que uma nova informação é adicionada ao sistema. Em relação aos modelos testados, os resultados encontrados mostram-se pouco conclusivos, apontando uma melhora apenas marginal nas estimativas dentro e fora da amostra quando as variáveis exógenas são incluídas. Já a utilização do Filtro de Kalman Estendido mostrou resultados mais consistentes quando comparados ao método em dois passos para praticamente todos os horizontes de tempo estudados.
Resumo:
A principal explicação sugerida pela literatura para o viés do preço futuro em relação à taxa de câmbio que prevalecerá no futuro é a existência de um prêmio de risco. Aplicamos aqui os principais modelos teóricos e técnicas econométricas para identificação e mensuração do prêmio de risco aos dados brasileiros do mercado futuro de câmbio posteriores ao Plano Real. Identifica-se um prêmio de risco que varia ao longo do tempo, o qual correlaciona-se com os fundamentos macroeconômicos da economia. A partir de 1999, coerentemente com a introdução da livre flutuação cambial, observou-se uma diminuição da importância do prêmio de risco relativamente aos erros de previsão na composição do forward discount. As técnicas empregadas permitem-nos avaliar importantes questões de política econômica, como o quanto podem cair as taxas de juros reais.
Resumo:
Com base nos dados históricos do bid-ask spread dos ativos do mercado futuro de taxas de juros no Brasil, este estudo analisa se há evidência de presença de investidores com informação superior no período que antecede o COPOM. A partir de testes do Componente de Assimetria de Informação (CAI) medidos às vésperas de 21 reuniões do COPOM, realizadas entre outubro de 2011 e maio de 2014, encontramos evidências que: o CAI apresenta patamar superior para períodos que antecedem reunião cuja decisão não foi bem antecipada pelo mercado, sugerindo a presença de investidores com informação superior nessas circunstâncias. Contudo, não encontramos evidência de que haja qualquer relação entre o comportamento do CAI com o volume de negócios, nem que haja relação entre o comportamento do CAI com o posicionamento de determinados players, especificamente Pessoas Físicas e Pessoas Jurídicas Não Financeiras. Por outro lado, encontramos evidência de expressiva redução na CAI no dia seguinte ao COPOM, sinalizando a eficácia da comunicação do BC na ancoragem de expectativas e reforçando a reunião como evento propício para atuação de players com informação superior. Os resultados se tornam ainda mais relevantes quando se considera o contexto do período analisado, marcado pela presença de intensa volatilidade na SELIC e por uma investigação da CVM sobre insider trading no mercado de juros.
Resumo:
Os dois objetivos de nossa pesquisa, quais sejam a) verificar quantos projetos foram aprovados, e quanto em contrapartidas econômicas aportaram para os cofres públicos depois da aprovação do Plano Diretor Estratégico de 2002 do Município de São Paulo e, b) a redução dos coeficientes de aproveitamento teria influenciado os preços dos terrenos afetados? Embora o primeiro objetivo tenha sido alcançado de forma indireta, pois não foi possível encontrar informação sobre cada projeto, conseguimos determinar quanto em contrapartidas econômicas foi obtido, e em que distritos o estoque de direitos adicionais de construção já se esgotou ou está prestes a se esgotar. Em relação à segunda questão verificamos que a redução dos coeficientes de aproveitamento não provocou nenhum efeito sobre os preços dos terrenos afetados. Nosso estudo também mostrou que é possível afirmar que depois da aprovação do Plano Diretor Estratégico do Município de São Paulo (2002) em todo o seu território se aplica o princípio da outorga onerosa e do solo criado. Se uma edificação ultrapassa o coeficiente de aproveitamento básico e deseja edificar até um máximo de 4 deverá pagar uma contrapartida financeira ao poder público.
Resumo:
Medimos a validade da paridade descoberta de juros – PDJ - para o mercado brasileiro no período de janeiro de 2010 a julho de 2014. Testamos a equação clássica da PDJ usando o Método dos Mínimos Quadrados Ordinários. Após a estimação dos parâmetros, aplicamos o Teste de Wald e verificamos que a paridade descoberta de juros não foi validada. Estendemos a equação tradicional da PDJ para uma especificação alternativa que captura medidas de risco Brasil e de alteração na liquidez internacional. Especificamente, acrescentamos três variáveis de controle: duas variáveis dummy que capturam condições de liquidez externa e o índice de commoditie CRB, que captura o risco Brasil. Com a especificação alternativa, a hipótese de que os retornos das taxas de juros em Real, dolarizadas, são iguais aos retornos da taxas de juros contratadas em dólares, ambas sujeitas ao risco Brasil, não foi rejeitada. Em complemento à análise das taxas representativas do mercado brasileiro, procurou-se avaliar a predominância da PDJ nas operações de swap cambial realizadas pela Vale S.A.. Para tanto, a série de taxa de juros em dólares do mercado brasileiro foi substituída pela taxa em dólar dos swaps contratados pela Vale. Os resultados encontrados demonstram que, quando comparado ao comportamento do mercado, as taxas em dólares da VALE são mais sensíveis às variações das taxas em Reais.
Resumo:
Este trabalho demonstra como podemos usar opções sobre o Índice de Taxa Média de Depósitos Interfinanceiros de Um Dia (IDI) para extrair a função densidade de probabilidade (FDP) para os próximos passos do Comitê de Política Monetária (COPOM). Como a decisão do COPOM tem uma natureza discreta, podemos estimar a FDP usando Mínimo Quadrados Ordinários (MQO). Esta técnica permite incluir restrições sobre as probabilidades estimadas. As probabilidades calculadas usando opções sobre IDI são então comparadas com as probabilidades encontradas usando o Futuro de DI e as probabilidades calculadas através de pesquisas.
Resumo:
Esta dissertação baseia-se na criação de uma taxa não inflacionária da capacidade utilizada (NIRCU) para economia brasileira, utilizando microdados da Sondagem da Indústria de Transformação e Índice de Preços ao Produtor Amplo – M (IPA-M), pesquisas desenvolvidas pela FGV/IBRE. Foram criadas três taxas: NIRCU Sondagem, NIRCU Coincidente e NIRCU Antecedente. A primeira utiliza apenas dados da sondagem e a ideia é verificar que não há pressão inflacionária quando as empresas informam para sondagem que não irão variar os seus preços para os próximos três meses e que o número de turnos trabalhado é igual à média do setor. Já as demais, cruzam as informações das empresas que respondem tanto a Sondagem da Indústria de Transformação quanto no IPA-M e verifica se as que informam que não irão alterar os seus preços nos próximos três meses se concretiza quando comparados às variações do índice. A diferença entre as duas últimas abordagens é que a primeira, NIRCU Coincidente, verifica no mesmo período e a outra, NIRCU Antecedente, no trimestre seguinte. A forma encontrada para verificar a eficácia dos indicadores em mensurar a existência de pressão inflacionária foi inserir os diferentes hiatos de produto das NIRCU no modelo de Curva de Phillips, usando a metodologia de Mínimos Quadrados Ordinários (MQO). De acordo com as estimativas, a NIRCU Antecedente foi a única das três que não apresentou um bom desempenho no resultado; as NIRCU Sondagem e Coincidente tiveram uma performance muita boa, principalmente a última. Ou seja, esses dois indicadores tiveram um resultado tão bom quanto as mais tradicionais medidas de hiato de produto.
Resumo:
Este trabalho analisa o perfil e as trajetórias de carreira dos diretores e conselheiros das se-guintes agências federais: ANEEL, ANATEL, ANP, ANVISA, ANS, ANA, ANCINE, AN-TAQ, ANTT e ANAC. São observadas algumas dimensões que se relacionam com condicio-nantes que, em tese, permitiriam uma maior autonomia decisória do regulador brasileiro federal: 1) o nível de expertise e conhecimento especializado do regulador, observando sua área de formação, nível de escolaridade e sua experiência prévia no setor regulado; 2) a existência ou não de filiação partidária antes de sua indicação para o cargo na agência; 3) a existência ou não de casos de recondução de reguladores, além dos mandados governamentais de diferentes presidentes; e 4) a origem e o destino profissional do regulador após sua atuação na agência reguladora. Paralelamente, observa-se como foi elaborado o desenho institucional destas agências brasileiras e como algumas características de sua estrutura e processo podem interferir com o resultado do processo regulatório, especialmente no que se refere à forma como os reguladores são indicados. Entre os principais resultados do trabalho, destacam-se a forte co-nexão entre a área de formação dos reguladores e o campo de atuação das agências reguladores; a valorização de cursos de pós-graduação na qualificação de um candidato para uma agência reguladora federal; e a comprovação de experiência profissional prévia no setor regulado, indicando que os reguladores brasileiros apresentam indicadores relevantes de especialização e expertise no setor. Também ocorreram casos de reguladores indicados e reconduzidos por presidentes diferentes, reforçando a hipótese de valorização da especialização. Com relação a captura política, se destaca que pouco menos de um terço dos indicados possuía filiação partidária anterior à nomeação. A maioria dos reguladores é selecionada dentro do serviço público, mas boa parte deles vai trabalhar na esfera privada do setor, reforçando os indícios de que pode ter havido captura durante os mandatos na agência. Percebe-se, ainda, uma forte tendência de fortalecimento da burocracia das agências a partir do final do primeiro mandato do presidente Lula, movimento acentuado no primeiro mandato da presidente Dilma Rousseff.