971 resultados para Pensamento geográfico brasileiro
Resumo:
O objetivo deste trabalho é investigar se a relação entre a taxa de câmbio spot e o fluxo de ordens deriva do fato do fluxo agregar informações a respeito dos fundamentos econômicos dispersos na economia. Para efetuar este teste foi utilizada uma base de dados que engloba todas as transações dos segmentos comercial e financeiro no mercado cambial primário brasileiro entre janeiro de 1999 e maio de 2008. Mostramos que o fluxo de ordens foi razoavelmente capaz de explicar variações nas expectativas de inflação, relação que não se manteve robusta para escolha de outros fundamentos, como PIB e Produção Industrial.
Resumo:
Esta dissertação tem dois objetivos: (i) propor um novo teste para verificar a existência de hysteresis em comércio exterior; (ii) aplicá-lo para o Brasil e analisar o comportamento recente do setor externo deste país à luz desta teoria. O teste sugerido envolve duas etapas. A primeira é a de delimitação da zona de inação ao longo do tempo, utilizando calibrações para o modelo de Dixit (1989, 1994) combinadas com uma aplicação de um modelo de Estado-Espaço de coeficientes variando no tempo para estimar o movimento browniano da taxa de câmbio real com parâmetros variáveis no tempo. Esta etapa nos permitirá identificar, de acordo com a teoria de hysteresis, quando a taxa de câmbio real ultrapassou os limiares da zona de inação. A segunda etapa consiste em utilizar estes resultados, juntamente com a metodologia de análise de cointegração com quebra estrutural proposto por Johansen et al. (2000), para testar a hipótese de que variações temporárias no câmbio, desde que sejam suficientemente grandes para ultrapassar os limiares da zona de inação, afetam permanentemente as exportações. Os resultados encontrados não apresentaram evidências fortes de hysteresis para o volume total das exportações brasileiras, mas sugeriram que há alguma evidência de hysteresis para o volume das exportações de produtos manufaturados.
Resumo:
O objetivo desta dissertação é aprofundar o estudo sobre os efeitos macroeconômicos dos ajustes fiscais analisando a trajetória da política fiscal brasileira entre os anos de 1997 e 2007, período que compreende a realização de um expressivo ajuste fiscal. Utilizam-se indicadores mais precisos da postura fiscal do governo, cujo objetivo é mensurar a atitude discricionária da autoridade fiscal, denominado de “impulso fiscal”. Com base neste indicador e nos conceitos desenvolvidos, a análise do caso brasileiro sugere algumas características do ajuste fiscal realizado a partir de 1998. O período entre 1997 e 2007 foi caracterizado pela elevação das receitas governamentais acima do crescimento de suas despesas. Nos episódios de forte ajuste fiscal, verifica-se um aumento das receitas em magnitude superior à redução das despesas. Desta forma, a composição do ajuste fiscal evidencia que o corte de despesas concentrou-se majoritariamente nas despesas menos rígidas e de elevado caráter discricionário, e que incluem despesas com investimento do governo. A composição do ajuste fiscal realizado não tem caráter permanente, conclusão reforçada pela trajetória das despesas do governo nos períodos que seguem à realização dos ajustes fiscais, pois estas retornam aos seus níveis prévios em média dois anos depois dos ajustes. No entanto, a manutenção da política de realização de superávits primários, em todo o período, permitiu a redução permanente na relação dívida/PIB. Portanto, as características do ajuste fiscal brasileiro entre 1999 e 2007 são contraditórias. No que se refere ao perfil e à composição do ajuste, os resultados não indicam um claro efeito “expectacional” no comportamento dos agentes econômicos, pois estes não incorporaram os ajustes fiscais como uma redução permanente no nível dos gastos governamentais, de forma a antecipar uma futura redução no nível da tributação governamental.
Resumo:
A lei do preço único afirma que o mesmo ativo negociado em diferentes mercados deve apresentar preços equivalentes. Este trabalho busca verificar se o risco de crédito soberano brasileiro negociado no mercado internacional é precificado de forma semelhante tanto nos tradicionais mercados de títulos quanto no novo e crescente mercado de derivativos de crédito. Adicionalmente, utiliza-se a análise de Price Discovery para examinar qual dos mercados se move mais rapidamente em resposta às mudanças nas condições de crédito da economia brasileira. A análise empírica é feita por meio de modelos de séries de tempo, mais especificamente análise de cointegração e vetor de correção de erros. Os resultados confirmam a predição teórica da lei do preço único de que o risco de crédito brasileiro, tanto nos mercados de títulos quanto no mercado de derivativos de crédito, movem-se juntos no longo prazo. Por fim, a maior parte do Price Discovery ocorre no mercado de derivativos de crédito.
Resumo:
O presente trabalho procura identificar e mensurar as distorções causadas por diferentes tipos de impostos, mas de uma perspectiva analítica em uma pequena economia aberta habitada por consumidores com horizonte de vida infinito. O referencial teórico neoclássico permite apontar as distorções intratemporais e intertemporais no consumo e lazer e suas conseqüências sobre a balança comercial, a conta corrente e o nível de endividamento da economia. Será considerado como dado o nível de gasto público e serão analisadas as alternativas possíveis de impostos em relação ao caso lump-sum. Serão trabalhados os seguintes tipos de impostos: imposto sobre consumo, imposto sobre ativos financeiros, imposto sobre a renda do trabalho e do capital e imposto sobre a produção que, em linhas gerais, representam os principais impostos adotados no Brasil.
Resumo:
Apesar dos aparelhos celulares terem se tornado parte fundamental da comunicação pessoal durante os últimos dez anos, há escassez de pesquisas de ordem acadêmica dedicadas à valoração das diferentes características dos planos e aparelhos celulares. Vários fatores precisam ser levados em conta para se conhecer a percepção de valor dos atributos dos planos e aparelhos celulares, desde as condições microeconômicas que afetam a evolução do mercado de aparelhos celulares em geral, até as decisões e motivações pessoais do processo de decisão de compra de um consumidor. Este estudo procura responder quais atributos são mais valorizados pelo consumidor brasileiro em um aparelho celular pós-pago, bem como o preço destes atributos no mercado. Para isto aplicou-se o método de preços hedônicos a uma base de dados de 48 modelos de celulares diferentes, de seis marcas presentes no mercado brasileiro, de três operadoras, em nove diferentes planos de assinatura, com observações de preços semanais ao longo do ano de 2008, totalizando 27 atributos diferentes e 292.410 observações. Por fim, também é apresentada nesta dissertação uma interpretação do mercado brasileiro pela ótica da Economia das Telecomunicações, e é realizado o cálculo da deflação ocorrida no mercado brasileiro de aparelhos celulares pós-pagos no ano de 2008 levando-se em consideração as mudanças de qualidade, funcionalidades e características destes aparelhos ocorridas ao longo do ano mencionado.
Resumo:
Este trabalho tem como objetivo analisar a relação entre a competição e a estabilidade financeira de quatro dos maiores bancos brasileiros, investigando a hipótese de que a existência de poder de mercado pode representar menos risco para as instituições bancárias atuantes no país. Aplicando as metodologias de Panzar e Rosse (1987) para o grau de competição e o modelo BSM de Black e Scholes (1973) e Merton (1974) para a estabilidade financeira, concluímos que no Brasil, três dos quatro casos analisados apresentaram uma relação inversa entre a competição e a estabilidade financeira, isto é, concluímos nesses casos, que a maior competição implica menor estabilidade das instituições. O estudo utilizou as informações disponíveis pelo Plano Contábil das Instituições do Sistema Financeiro Nacional (COSIF) do Banco Central do Brasil e pela Bolsa de Valores de São Paulo (BM&FBOVESPA), para o período entre o quarto trimestre de 1995 ao quarto trimestre de 2008.
Resumo:
Este trabalho tem por objetivo avaliar a eficiência do mercado acionário brasileiro a partir de testes estatísticos, para posterior modelagem das séries de retorno das ações, utilizando os modelos ARMA, ARCH, GARCH, Modelo de Decomposição e, por final, VAR. Para este trabalho foram coletados dados intradiários, que são considerados dados de alta freqüência e menos suscetíveis a possíveis alterações na estrutura de mercado, tanto micro como macroeconômicos. Optou-se por trabalhar com dados coletados a cada cinco minutos, devido à baixa liquidez dos ativos no mercado financeiro (que poderia acarretar em dados ausentes para intervalos de tempo inferiores). As séries escolhidas foram: Petrobrás PN, Gerdau PN, Bradesco PN, Vale do Rio Doce PN e o índice Ibovespa, que apresentam grande representatividade do mercado acionário brasileiro para o período analisado. Com base no teste de Dickey-Fuller, verificou-se indícios que o mercado acionário brasileiro possa ser eficiente e, assim foi proposto modelos para as séries de retorno das ações anteriormente citadas.
Resumo:
Esse trabalho comparou, para condições macroeconômicas usuais, a eficiência do modelo de Redes Neurais Artificiais (RNAs) otimizadas por Algoritmos Genéticos (AGs) na precificação de opções de Dólar à Vista aos seguintes modelos de precificação convencionais: Black-Scholes, Garman-Kohlhagen, Árvores Trinomiais e Simulações de Monte Carlo. As informações utilizadas nesta análise, compreendidas entre janeiro de 1999 e novembro de 2006, foram disponibilizadas pela Bolsa de Mercadorias e Futuros (BM&F) e pelo Federal Reserve americano. As comparações e avaliações foram realizadas com o software MATLAB, versão 7.0, e suas respectivas caixas de ferramentas que ofereceram o ambiente e as ferramentas necessárias à implementação e customização dos modelos mencionados acima. As análises do custo do delta-hedging para cada modelo indicaram que, apesar de mais complexa, a utilização dos Algoritmos Genéticos exclusivamente para otimização direta (binária) dos pesos sinápticos das Redes Neurais não produziu resultados significativamente superiores aos modelos convencionais.
Resumo:
O Brasil possui um dos maiores mercados de telefonia celular do mundo, resultado de um crescimento impulsionado, sobretudo, pela expansão agressiva do modelo de serviço pré-pago. Este crescimento se deu por meio de grandes investimentos em subsidio como forma de aumentar a atratividade dos aparelhos celulares comercializados nos pontos de venda. Estes investimentos ao mesmo tempo em que aceleraram a captação de novos clientes comprometeram a rentabilidade deste segmento e da margem EBITDA (Earnings Before Interest, Taxes, Depreciation and Amortization) consolidada do setor no Brasil quando comparada a outros países. Portanto, um entendimento apropriado dos atributos mais valorizados pelos consumidores no processo decisório de compra de um aparelho celular é de fundamental importância para melhorar a alocação dos recursos e maximizar o retorno, sem perda de mercado. Este trabalho aplica a Metodologia de Preços Hedônicos como ferramenta para auxiliar na identificação dos atributos relevantes dos aparelhos celulares comercializados no mercado de massa brasileiro e seus respectivos preços implícitos. São 96 aparelhos celulares monitorados semanalmente ao longo do ano de 2007, constituindo mais de 37.000 registros. Como resultado, no estágio de maturidade do mercado na época, foram identificados intensos prêmios de preço associados às características físicas (design) e à presença de atributos relacionados à itens de multimídia (câmeras digitais, vídeos e MP3 player). Por fim, utilizamos o modelo econométrico desenvolvido para simular e identificar o preço sugerido ou potencial de novos celulares, não presentes na amostra utilizada para a regressão, mas constituídos por novas combinações de atributos com preços implícitos já identificados.
Resumo:
Este trabalho explora com cuidado o lado específico da implementação de um modelo de alocação de ativos em que o risco é tratado de maneira integrada, não somente através do desvio padrão do portfólio, mas também considerando outras métricas de risco como, por exemplo, o Expected Shortfall. Além disso, utilizamos algumas técnicas de como trabalhar com as variáveis de modo a extrair do mercado os chamados “invariantes de mercado”, fenômenos que se repetem e podem ser modelados como variáveis aleatórias independentes e identicamente distribuídas. Utilizamos as distribuições empíricas dos invariantes, juntamente com o método de Cópulas para gerar um conjunto de cenários multivariados simulados de preços. Esses cenários são independentes de distribuição, portanto são não paramétricos. Através dos mesmos, avaliamos a distribuição de retornos simulados de um portfólio através de um índice de satisfação que é baseado em uma função de utilidade quadrática e utiliza o Expected Shortfall como métrica de risco. O índice de satisfação incorpora o trade-off do investidor entre risco e retorno. Finalmente, escolhemos como alocação ótima aquela que maximiza o índice de satisfação ajustado a um parâmetro de aversão ao risco. Perseguindo esses passos, é possível obter um portfólio no qual a alocação em cada ativo, ou classe de ativos, reflete o prêmio esperado ao risco incorrido.
Resumo:
O presente trabalho analisa o comportamento da volatilidade do crescimento do produto brasileiro entre 1980 e 2008, cuja trajetória apresenta um declínio de 70% desde 1991. Através da análise do comportamento do PIB, de seus componentes e de seus determinantes, objetiva-se apontar as razões pela qual a volatilidade do crescimento caiu de forma significativa no período considerado. A baixa volatilidade do crescimento do produto traz conseqüências positivas para o bem-estar da sociedade, para a distribuição de renda e para o crescimento econômico de longo prazo. Diferentes estudos foram realizados para apontar as causas do declínio desta volatilidade em diversos países nas últimas três décadas, fenômeno que nos Estados Unidos passou a ser conhecido como The Great Moderation. Dados os benefícios deste processo, entender as suas razões é imprescindível para a formulação de políticas econômicas que garantam a sustentabilidade da moderação dos ciclos econômicos. Este trabalho concentra-se nos fatores nominais (choques de demanda) para explicar o processo de redução da volatilidade do crescimento brasileiro. De um lado, a ausência de restrições externas ao crescimento econômico e o ciclo de prosperidade mundial dos últimos cinco anos garantiram a contribuição da parcela externa. Por outro lado, a condução de políticas macroeconômicas mais sólidas, refletindo em uma maior estabilidade de variáveis como o nível de preços, respondem pelos fatores internos.
Resumo:
O objetivo deste trabalho é analisar o desempenho de estimadores de volatilidade que utilizam valores extremos (máximo, mínimo, abertura e fechamento) para ativos no mercado brasileiro. Discute-se o viés dos estimadores usando como referências o estimador clássico, a volatilidade realizada e a volatilidade implícita de 1 mês da série de opções no dinheiro (ATM - at the money); discute-se a eficiência quanto à previsibilidade da volatilidade futura usando o estimador clássico e a volatilidade implícita defasados um período para frente como variáveis dependentes e a eficiência em si, isto é, quanto ao tamanho da variância do estima-dor. Como representantes de ativos brasileiros, foram escolhidos a paridade BRL/USD spot e o Índice Bovespa. Além de bastante líquidos, esses dois ativos têm bastante importância no mercado brasileiro, seja como benchmark para investimentos, bem como ativos-base para muitos derivativos operados na Bolsa de Mercadorias e Futuros (BM&F) e na Bolsa de Va-lores de São Paulo (Bovespa). A volatilidade do ativo-base é uma das variáveis para o apre-çamento de derivativos como opções; muitas estratégias são montadas, no mercado financei-ro, utilizando-a como referência. A volatilidade também é bastante usada no gerenciamento de riscos, em modelos como o Value at Risk (VaR), por exemplo.
Resumo:
Várias metodologias de mensuração de risco de mercado foram desenvolvidas e aprimoradas ao longo das últimas décadas. Enquanto algumas metodologias usam abordagens não-paramétricas, outras usam paramétricas. Algumas metodologias são mais teóricas, enquanto outras são mais práticas, usando recursos computacionais através de simulações. Enquanto algumas metodologias preservam sua originalidade, outras metodologias têm abordagens híbridas, juntando características de 2 ou mais metodologias. Neste trabalho, fizemos uma comparação de metodologias de mensuração de risco de mercado para o mercado financeiro brasileiro. Avaliamos os resultados das metodologias não-paramétricas e paramétricas de mensuração de VaR aplicados em uma carteira de renda fixa, renda variável e renda mista durante o período de 2000 a 2006. As metodologias não-paramétricas avaliadas foram: Simulação Histórica pesos fixos, Simulação Histórica Antitética pesos fixos, Simulação Histórica exponencial e Análise de Cenário. E as metodologias paramétricas avaliadas foram: VaR Delta-Normal pesos fixos, VaR Delta-Normal exponencial (EWMA), Simulação de Monte Carlo pesos fixos e Simulação de Monte Carlo exponencial. A comparação destas metodologias foi feita com base em medidas estatísticas de conservadorismo, precisão e eficiência.
Resumo:
Esta dissertação estuda a aplicação da estratégia Pairs Trading no mercado acionário brasileiro. Envolve basicamente a identificação de pares de ações que tenham movimentos de preço semelhantes e posteriormente a operação do diferencial entre seus preços. É possível observar no mercado a existência de um valor de equilíbrio de longo prazo para alguns pares de ações e quando o diferencial divergir de certa quantidade pré-definida opera-se o diferencial no intuito de que o mesmo retorne ao seu valor de equilíbrio de longo prazo, ou seja, espera-se que ocorra uma reversão à média do diferencial. A metodologia para a identificação desses pares de ações que descrevem movimentos semelhantes vem do conceito de cointegração. Essa metodologia é aplicada sobre as ações do índice Bovespa de 04-Jan-1993 a 30-Jun-2005. Inicialmente é feita uma pré-seleção dos pares de ações via correlação, ou medida de distância. Para a seleção final é feito o teste de cointegração, onde é utilizado o método de Dickey-Fuller aumentado (Augmented Dickey-Fuller test – ADF) para verificar a existência de raiz unitária da série de resíduo da combinação linear do logaritmo dos preços. Após a seleção, os pares são simulados historicamente (backtesting) para se analisar a performance dos retornos dos pares de ações, incluindo também os custos operacionais.