895 resultados para Ralph Waldo Emerson
Resumo:
O trabalho tem como objetivo aplicar uma modelagem não linear ao Produto Interno Bruto brasileiro. Para tanto foi testada a existência de não linearidade do processo gerador dos dados com a metodologia sugerida por Castle e Henry (2010). O teste consiste em verificar a persistência dos regressores não lineares no modelo linear irrestrito. A seguir a série é modelada a partir do modelo autoregressivo com limiar utilizando a abordagem geral para específico na seleção do modelo. O algoritmo Autometrics é utilizado para escolha do modelo não linear. Os resultados encontrados indicam que o Produto Interno Bruto do Brasil é melhor explicado por um modelo não linear com três mudanças de regime, que ocorrem no inicio dos anos 90, que, de fato, foi um período bastante volátil. Através da modelagem não linear existe o potencial para datação de ciclos, no entanto os resultados encontrados não foram suficientes para tal análise.
Resumo:
O trabalho tem por objetivo validar a influência dos formadores de mercado de ações sobre a liquidez, uma proxy capaz de medir os custos de transação no mercado secundário de ações. O desafio de medir corretamente a liquidez teve trabalhos relevantes desde 1984, e recentemente foi alvo de uma revisão geral que comparou diversas medidas e encontrou alguns ganhadores. A proposta do presente trabalho é a de revisitar estas medidas e selecionar a métrica mais adequada ao mercado Brasileiro. Escolhida a proxy mais significativa, será então avaliada a relevância do formador de mercado na determinação dos custos de transação por meio de uma versão modificada da equação econométrica de Sanvicente (2012). Por fim, este trabalho será relevante para identificar se as empresas devem contratar formadores de mercado para suas ações, com o fim de reduzirem os custos da negociação de suas ações.
Resumo:
O mercado bancário brasileiro aparenta se organizar sob a forma de oligopólio, sobretudo por conta da presença de um número reduzido de grandes instituições. A teoria microeconômica nos sugere, no entanto, que mercado oligopolizado não é sinônimo de ausência de competição. A partir disso, conclui-se que não é evidente que os bancos privados domésticos não compitam entre si (claro, tampouco o contrário é evidente). Neste trabalho analisamos a evolução do grau de competitividade da indústria bancária brasileira, entre janeiro de 2001 e dezembro de 2012, utilizando a estatística-H de Panzar & Rosse. A mensuração da competição para a amostra completa continuou a indicar que os bancos brasileiros operam em regime de concorrência monopolística. Não obstante, a evolução trimestral da estatística-H aponta para períodos de significativa redução da competitividade na indústria bancária brasileira, que coincidem com momentos importantes em termos de fusões e aquisições dentro deste setor. Como complemento às conclusões obtidas através do cálculo da estatística-H, e à luz da recente intensiva do governo de “forçar” uma queda do spread bancário via instituições públicas, foram executados testes de causalidade (de Granger) entre as taxas de juros cobradas pelos bancos públicos e privados. Os resultados indicam que as instituições bancárias aparentemente levam em conta, dentre outros fatores, as decisões dos seus concorrentes na hora de definir as taxas de juros que serão cobradas, sugerindo que a estratégia do governo pode contribuir para a continuidade do processo de convergência do spread bancário para patamares internacionais.
Resumo:
Esta dissertação tem como objetivo a estimação e comparação entre modelos VECM com a abordagem de modelos TVECM, na modelagem e estudo do desalinhamento cambial e como o ajuste do câmbio real para que procede. Como estratégia a ser abordada serão considerados modelos de correção de erros com características distintas. Utilizaremos como abordagem linear a técnica de cointegração proposta por Johansen (1988), a abordagem tradicional. Como técnica não linear utilizaremos a abordagem inicialmente proposta por BALKE, FOMBY(1997), que consideram um mecanismo de correção de erros de forma a incorporar características TAR e SETAR. Para a análise da presença ou não de não linearidade na correção de erros entre as séries, foram realizados neste trabalho os testes de Kapetanios, Shin e Snell (2003), Hansen e Seo(2002) e Seo (2006)
Resumo:
A governança em Regiões Metropolitanas tem se apresentado como um dos maiores desafios para as sociedades urbanas modernas. No Brasil, a trajetória de formação das Regiões Metropolitanas, o modelo de sistema federativo e as questões econômicas e sociais que giram em torno destas metrópoles, exigem estruturas institucionais e arranjos políticos complexos e inovadores. A questão que se coloca é como lidar com os dilemas da metrópole em um contexto federativo em que os interesses são muitas vezes conflitantes e os arranjos institucionais, frágeis, a fim de assegurar espaços de pactuação e construção de oportunidades. A Prefeitura de São Paulo está apostando, entre outras coisas, em assumir o papel de indutor de desenvolvimento metropolitano e de líder, como município pólo, no processo de melhoria de cooperação entre as cidades da região. Ao ser eleito presidente do Conselho de Desenvolvimento Metropolitano da Região Metropolitana de São Paulo no começo do ano, Fernando Haddad propôs a criação de um plano diretor estratégico para toda a região e, de antemão, pediu que as outras cidades Encaminhassem demandas específicas ao desenvolvimento da região. Enfim, o tema metropolitano está assaz presente na agenda da esfera pública e nas mesas de debate da sociedade civil e da iniciativa privada. De fato, a governança metropolitana retornou à centralidade da agenda governamental no Estado de São Paulo a partir da promulgação da Lei Complementar nº 1.139 de 16 de junho de 2011, que reorganizou a Região Metropolitana de São Paulo como unidade regional do território estadual. O presente trabalho apresenta-se nesse contexto e com dois objetivos principais. De um lado, pretende realizar uma pesquisa exploratória acerca da disposição existente nos municípios da Região Metropolitana de São Paulo para tratar dos desafios de cooperação, articulação e integração entre os diferentes atores e níveis federativos inerentes à questão metropolitana, bem como averiguar se o tema está presente na agenda desses municípios. Em segundo lugar, considerando a reflexão teórica e as experiências de cooperação federativas, o trabalho procura indicar caminhos para o fortalecimento da governança metropolitana na RMSP, em especial, que favoreçam a construção de uma agenda positiva de cooperação intergovernamental entre o município-pólo e demais entes federativos. Essas proposições partem da avaliação de experiências nacionais e internacionais que desenvolveram arranjos institucionais capazes de lidar com processos de decisão compartilhada e de contratualização federativa encontrada na literatura, bem como das contribuições retiradas das diversas entrevistas realizadas pelo grupo.
Resumo:
This paper investigates the impact of working while in school on learning outcomes through the use of a unique micro panel dataset of Brazilian students. The potential endogeneity is addressed through the use of di erence-in-di erence and instrumental variable estimators. A negative e ect of working on learning outcomes in both math and Portuguese is found. The e ects of child work range from 3% to 8% of a standard deviation decline in test score which represents a loss of about a quarter to a half of a year of learning on average. We also explore the minimum legal age to entry in the labor market to induce an exogenous variation in child labor status. The results reinforce the detrimental e ects of child labor on learning. Additionally, it is found that this e ect is likely due to the interference of work with the time kids can devote to school and school work.
Resumo:
This work aims to compare the forecast efficiency of different types of methodologies applied to Brazilian Consumer inflation (IPCA). We will compare forecasting models using disaggregated and aggregated data over twelve months ahead. The disaggregated models were estimated by SARIMA and will have different levels of disaggregation. Aggregated models will be estimated by time series techniques such as SARIMA, state-space structural models and Markov-switching. The forecasting accuracy comparison will be made by the selection model procedure known as Model Confidence Set and by Diebold-Mariano procedure. We were able to find evidence of forecast accuracy gains in models using more disaggregated data
Resumo:
Estudos sobre os determinantes da estrutura a termo de taxa de juros brasileira são recentes. Um melhor entendimento sobre os determinantes da mesma é importante, entre outras razões, para política econômica. Existem duas visões extremas sobre estrutura a termo. A primeira argumenta que as taxas de longo é igual a uma média ponderada das taxas de curto mais um prêmio por maturidade devido a agentes que arbitrassem tal diferença. A segunda visão argumenta que os agentes não teriam incentivos para arbitrar a curva de juros pois teria preferência por maturidades específicas e logo a curva de longo e curto estariam desconectadas. O presente trabalho testa as proposições Greenwood e Vayanos (2008) obtidas a partir de um modelo em que as duas visões acima são reconciliadas. No modelo de Greenwood e Vayanos (2008) a alteração da maturidade da dívida do governo afeta toda a estrutura a termo e tal efeito é mais intenso para títulos mais longos. Com esse intuito, testou-se se, para dados brasileiros, o prazo médio dos títulos afetava tanto o excesso de retorno como os spreads na curva. Os resultados indicaram que o prazo médio afeta o spread e o excesso de retorno, com efeito mais intenso no segundo.
Resumo:
Este trabalho tem por objetivo comparar metodologias distintas para cálculo de desalinhamento cambial além de testar a hipótese se as taxas de câmbio dos diversos países sofrem influencia apenas dos seus próprios fundamentos ou também da taxa de câmbio e dos fundamentos de outros países. Estas hipóteses consistem, respectivamente, na ausência ou na existência de interdependência entre os diversos países. Para realizar tal tarefa utilizam-se duas estratégias empíricas. A primeira baseia-se em avaliar se um modelo multivariado de séries de tempo usualmente utilizada na literatura de desalinhamento cambial com dados apenas do próprio país em análise pode ser melhorado através da adição de variáveis relacionadas a outros países usando o algoritmo proposto por David Hendry e co-autores. A segunda estratégia consiste em estimar um panel longo com as variáveis utilizadas para estimar desalinhamento cambial e testar formalmente a hipótese de ausência de interdependências. Os resultados sugerem que em ambas estratégias existe evidência de existência de interdependência. Esta ocorreria mais por conta de fatores ligados ao curto prazo, ou seja, o que explicaria o valor da taxa de câmbio de um país no longo prazo seriam seus próprios fundamentos enquanto no curto prazo fatores externos poderiam causar desvios
Resumo:
Este artigo estima a transmissão da variação cambial aos índices de preços brasileiros, utilizando a metodologia de vetores autorregressivos estruturais (SVAR) com vetores de correção de erros (VEC). O período estudado tem início na introdução do regime de metas para a inflação (junho de 1999) e se encerra em setembro de 2011. Os resultados reforçam a avaliação de que houve amadurecimento da política monetária nos últimos anos, concomitantemente a uma melhora do ambiente macroeconômico. Na comparação dos nossos resultados com estudos anteriores, encontramos significativa redução do pass-through da taxa de câmbio para os índices de inflação.
Resumo:
Este trabalho apresenta um estudo do impacto das negociações algorítmicas no processo de descoberta de preços no mercado de câmbio. Foram utilizados dados de negociação de alta frequência para contratos futuros de reais por dólar (DOL), negociados na Bolsa de Valores de São Paulo no período de janeiro a junho de 2013. No intuito de verificar se as estratégias algorítmicas de negociação são mais dependentes do que as negociações não algorítmicas, foi examinada a frequência em que algoritmos negociam entre si e comparou-se a um modelo benchmark que produz probabilidades teóricas para diferentes tipos de negociadores. Os resultados obtidos para as negociações minuto a minuto apresentam evidências de que as ações e estratégias de negociadores algorítmicos parecem ser menos diversas e mais dependentes do que aquelas realizadas por negociadores não algorítmicos. E para modelar a interação entre a autocorrelação serial dos retornos e negociações algorítmicas, foi estimado um vetor autorregressivo de alta frequência (VAR) em sua forma reduzida. As estimações mostram que as atividades dos algoritmos de negociação causam um aumento na autocorrelação dos retornos, indicando que eles podem contribuir para o aumento da volatilidade.
Resumo:
Neste estudo foram realizados testes econométricos da validade da hipótese das expectativas racionais como explicação para a formação das taxas de juros no Brasil. O estudo compara os resultados destes testes para período de 1995 a 2002 com os resultados para o período de 2003 a 2013. Estes intervalos foram escolhidos por contarem com políticas econômicas e choques muito diversos. A comparação entre os dois períodos obtém alterações importantes, mas que não alteram a conclusão de que a hipótese das expectativas racionais não tem respaldo empírico como explicação para a formação da estrutura termo das taxas de juros no Brasil. Embora tenha caído significativamente, o prêmio de alongamento continuou estatisticamente significante.
Resumo:
Nos últimos anos, a participação dos especuladores (hedge funds, fundos indexados a commodities e outros agentes financeiros) no mercado de derivativos de commodities aumentou. Este trabalho avalia se a posição destes não-hedgers apresenta uma relação de precedência temporal (no sentido de Granger-causa) com os retornos dos preços futuros das principais commodities agrícolas exportadas pelo Brasil (açúcar, café, soja, milho e algodão). Com base nos dados disponibilizados pelo relatório Supplemental COT (Commitments of Traders) e pelo relatório DCOT (Disaggregated Commitments of Traders Report), divulgados pela CFTC (U.S.Commodity Futures Trading Commission), foi aplicado o teste de causalidade de Granger para essas commodities. Com os resultados observados, não se pode concluir a existência de relação de precedência temporal entre a posição dos especuladores e os retornos dos preços futuros das respectivas commodities.
Resumo:
In the first essay, "Determinants of Credit Expansion in Brazil", analyzes the determinants of credit using an extensive bank level panel dataset. Brazilian economy has experienced a major boost in leverage in the first decade of 2000 as a result of a set factors ranging from macroeconomic stability to the abundant liquidity in international financial markets before 2008 and a set of deliberate decisions taken by President Lula's to expand credit, boost consumption and gain political support from the lower social strata. As relevant conclusions to our investigation we verify that: credit expansion relied on the reduction of the monetary policy rate, international financial markets are an important source of funds, payroll-guaranteed credit and investment grade status affected positively credit supply. We were not able to confirm the importance of financial inclusion efforts. The importance of financial sector sanity indicators of credit conditions cannot be underestimated. These results raise questions over the sustainability of this expansion process and financial stability in the future. The second essay, “Public Credit, Monetary Policy and Financial Stability”, discusses the role of public credit. The supply of public credit in Brazil has successfully served to relaunch the economy after the Lehman-Brothers demise. It was later transformed into a driver for economic growth as well as a regulation device to force private banks to reduce interest rates. We argue that the use of public funds to finance economic growth has three important drawbacks: it generates inflation, induces higher loan rates and may induce financial instability. An additional effect is the prevention of market credit solutions. This study contributes to the understanding of the costs and benefits of credit as a fiscal policy tool. The third essay, “Bayesian Forecasting of Interest Rates: Do Priors Matter?”, discusses the choice of priors when forecasting short-term interest rates. Central Banks that commit to an Inflation Target monetary regime are bound to respond to inflation expectation spikes and product hiatus widening in a clear and transparent way by abiding to a Taylor rule. There are various reports of central banks being more responsive to inflationary than to deflationary shocks rendering the monetary policy response to be indeed non-linear. Besides that there is no guarantee that coefficients remain stable during time. Central Banks may switch to a dual target regime to consider deviations from inflation and the output gap. The estimation of a Taylor rule may therefore have to consider a non-linear model with time varying parameters. This paper uses Bayesian forecasting methods to predict short-term interest rates. We take two different approaches: from a theoretic perspective we focus on an augmented version of the Taylor rule and include the Real Exchange Rate, the Credit-to-GDP and the Net Public Debt-to-GDP ratios. We also take an ”atheoretic” approach based on the Expectations Theory of the Term Structure to model short-term interest. The selection of priors is particularly relevant for predictive accuracy yet, ideally, forecasting models should require as little a priori expert insight as possible. We present recent developments in prior selection, in particular we propose the use of hierarchical hyper-g priors for better forecasting in a framework that can be easily extended to other key macroeconomic indicators.
Resumo:
A presente tese é composta por três ensaios. O primeiro ensaio estuda os ciclos de negócios brasileiro no período dos anos 1900 até 2012. Uma série trimestral do PIB real é elaborada, utilizando um modelo estrutural de séries de tempo. A partir disso, um modelo com mudança Markoviana é proposto para que seja construída uma cronologia de ciclo de negócios. O modelo selecionado possui dois regimes distintos, cenários de expansão e de recessão, a datação obtida é comparada com outros estudos sobre o tema e são propostas caracterizações das fases de crescimento que podem apoiar estudos sobre a história econômica do Brasil. O segundo ensaio estuda o comportamento da velocidade da moeda no ciclo de negócios brasileiro de 1900 até 2013. Os resultados a partir das estimativas dos modelos de séries temporais, MS e GARCH, são utilizados para suportar esse estudo. Em termos gerais a velocidade da moeda no Brasil apresentou queda até a segunda Guerra Mundial, cresceu até meados dos anos 1990 e a partir disso segue em tendência de queda. A experiência inflacionária brasileira é capítulo importante de nossa história econômica. O objetivo do terceiro ensaio é estudar a volatilidade da inflação brasileira ao longo do tempo no período de 1939 até 2013, buscando descrever sua relação com a taxa de inflação, adotando como referência uma datação de ciclos de negócios. Para realizar essa descrição serão utilizados os resultados obtidos nas estimações de modelos econométricos das classes GARCH, BSM e MS. No caso brasileiro a indicação é que a taxa de inflação impacta positivamente sua volatilidade.