988 resultados para Reformismo Ilustrado Luso-brasileiro
Resumo:
Um dos produtos mais consumidos do mundo vem passando por grandes transformações, e a cerveja que conhecemos como tipo Pilsen (Light Lager) deixou de ser opção única nas prateleiras. Dado o potencial de crescimento do setor no Brasil, o objetivo deste trabalho é mapear as preferências do consumidor de cerveja artesanal, usando técnicas de preferência declarada, a partir da aplicação de questionários que convidam o entrevistado a elencar suas preferências diante das combinações dos atributos Cor, Paladar, Aroma e Álcool. A partir da estratificação da amostra em Idade e Experiência, os resultados indicam que Paladar, seguido da Cor e, por último, o Aroma são os atributos mais relevantes para o entrevistado Experiente, enquanto o Não Experiente atribui maior peso à Cor, seguida do Paladar, sendo o Aroma um atributo irrelevante em suas escolhas. O atributo Álcool revelou-se insignificante em todas as estratificações realizadas.
Resumo:
São muitos os desafios intrínsecos ao bom funcionamento de um setor tão complexo quanto o elétrico, em que os efeitos de determinada medida podem levar anos até a maturidade, e só então ser totalmente conhecidos os seus impactos sobre a estrutura setorial como um todo, dificilmente antecipados pelos formuladores das reformas implementadas. Tomando o setor elétrico como pano de fundo, o escopo desta dissertação é apresentar as bases para o que seria uma reforma ideal, denominada na literatura “reforma de livro texto” e, em seguida, discorrer sobre a evolução regulatória do setor elétrico brasileiro de 1930 até o início de 2014, detalhando, especialmente, as características das reformas ocorridas em 1995 e 2004. Com esse esforço de pesquisa, que adota a técnica bibliográfica e se estrutura em quatro capítulos, pretende-se analisar a situação atual do mercado livre de energia elétrica brasileiro e propor melhorias passíveis de implementação com o objetivo de desenvolver este mercado no Brasil.
Resumo:
O produto potencial é uma variável não-observável e, por isso, de difícil mensuração. O objetivo deste trabalho é contribuir para a discussão sobre a estimação da taxa de crescimento do produto potencial brasileiro através de uma revisão teórica e metodológica das estimativas da variável para a economia brasileira. Após uma análise sintética sobre os principais conceitos relacionados ao tema e sobre os métodos de estimação mais utilizados na literatura nacional, optou-se por utilizar seis tipos de mensurações distintas. As principais conclusões do trabalho foram: primeiramente, as estimativas de Produto Interno Bruto (PIB) potencial são bastante sensíveis à metodologia utilizada; em segundo lugar, baseado em dados trimestrais da economia brasileira, foi possível verificar que a taxa de crescimento do produto potencial brasileiro caiu nos últimos anos e que esta se encontra em uma banda entre 1,63% e 2,72%.
Resumo:
Este trabalho tem o objetivo de testar a qualidade preditiva do Modelo Vasicek de dois fatores acoplado ao Filtro de Kalman. Aplicado a uma estratégia de investimento, incluímos um critério de Stop Loss nos períodos que o modelo não responde de forma satisfatória ao movimento das taxas de juros. Utilizando contratos futuros de DI disponíveis na BMFBovespa entre 01 de março de 2007 a 30 de maio de 2014, as simulações foram realizadas em diferentes momentos de mercado, verificando qual a melhor janela para obtenção dos parâmetros dos modelos, e por quanto tempo esses parâmetros estimam de maneira ótima o comportamento das taxas de juros. Os resultados foram comparados com os obtidos pelo Modelo Vetor-auto regressivo de ordem 1, e constatou-se que o Filtro de Kalman aplicado ao Modelo Vasicek de dois fatores não é o mais indicado para estudos relacionados a previsão das taxas de juros. As limitações desse modelo o restringe em conseguir estimar toda a curva de juros de uma só vez denegrindo seus resultados.
Resumo:
É vasta a literatura em finanças quantitativas sobre o apreçamento de derivativos, porém é bem reduzida em se tratando de ações. Nessa dissertação, procuramos aplicar o modelo de Bakshi-Chen na avaliação de ações listadas na Bovespa. Os inputs do modelo são o lucro por ação, LPA, dos últimos doze meses, a expectativa de crescimento de lucro para os doze meses seguintes (g), e a taxa de juros. Vamos mostrar o ganho de precisão em relação ao modelo de Gordon e avaliar o modelo na prática realizando um backtest para descobrir se o modelo consegue estimar o valor das ações melhor do que os investidores.
Resumo:
A tradicional representação da estrutura a termo das taxas de juros em três fatores latentes (nível, inclinação e curvatura) teve sua formulação original desenvolvida por Charles R. Nelson e Andrew F. Siegel em 1987. Desde então, diversas aplicações vêm sendo desenvolvidas por acadêmicos e profissionais de mercado tendo como base esta classe de modelos, sobretudo com a intenção de antecipar movimentos nas curvas de juros. Ao mesmo tempo, estudos recentes como os de Diebold, Piazzesi e Rudebusch (2010), Diebold, Rudebusch e Aruoba (2006), Pooter, Ravazallo e van Dijk (2010) e Li, Niu e Zeng (2012) sugerem que a incorporação de informação macroeconômica aos modelos da ETTJ pode proporcionar um maior poder preditivo. Neste trabalho, a versão dinâmica do modelo Nelson-Siegel, conforme proposta por Diebold e Li (2006), foi comparada a um modelo análogo, em que são incluídas variáveis exógenas macroeconômicas. Em paralelo, foram testados dois métodos diferentes para a estimação dos parâmetros: a tradicional abordagem em dois passos (Two-Step DNS), e a estimação com o Filtro de Kalman Estendido, que permite que os parâmetros sejam estimados recursivamente, a cada vez que uma nova informação é adicionada ao sistema. Em relação aos modelos testados, os resultados encontrados mostram-se pouco conclusivos, apontando uma melhora apenas marginal nas estimativas dentro e fora da amostra quando as variáveis exógenas são incluídas. Já a utilização do Filtro de Kalman Estendido mostrou resultados mais consistentes quando comparados ao método em dois passos para praticamente todos os horizontes de tempo estudados.
Resumo:
O trabalho busca através de um exercício empírico, extrair as curvas de probabilidade implícita de default em debêntures brasileiras. A construção ocorre em duas etapas. O primeiro desafio é obter as estruturas a termo das debêntures brasileiras. Foi utilizada a revisão proposta por Diebold e Li (2006) do modelo de Nelson Siegel (1987) para construç o das ETTJs. A segunda etapa consiste em extrair a probabilidade de default utilizado a forma reduzida do modelo de Duffie e Singleton (1999). A fração de perda em caso de default foi considerada constante conforme estudo de Xu e Nencioni (2000). A taxa de decaimento também foi mantida constante conforme proposto por Diebold e Li (2006) e Araújo (2012). O exercício foi replicado para três datas distintas durante o ciclo de redução de juros no Brasil. Dentre os resultados desse estudo identificou-se que os agentes do mercado reduziram a probabilidade de default dos emissores durante esse período. A redução nos vértices mais curtos foi mais significativa do que em vértices mais longos.
Resumo:
O objetivo deste trabalho é realizar procedimento de back-test da Magic Formula na Bovespa, reunindo evidências sobre violações da Hipótese do Mercado Eficiente no mercado brasileiro. Desenvolvida por Joel Greenblatt, a Magic Formula é uma metodologia de formação de carteiras que consiste em escolher ações com altos ROICs e Earnings Yields, seguindo a filosofia de Value Investing. Diversas carteiras foram montadas no período de dezembro de 2002 a maio de 2014 utilizando diferentes combinações de número de ativos por carteira e períodos de permanência. Todas as carteiras, independentemente do número de ativos ou período de permanência, apresentaram retornos superiores ao Ibovespa. As diferenças entre os CAGRs das carteiras e o do Ibovespa foram significativas, sendo que a carteira com pior desempenho apresentou CAGR de 27,7% contra 14,1% do Ibovespa. As carteiras também obtiveram resultados positivos após serem ajustadas pelo risco. A pior razão retorno-volatilidade foi de 1,2, comparado a 0,6 do Ibovespa. As carteiras com pior pontuação também apresentaram bons resultados na maioria dos cenários, contrariando as expectativas iniciais e os resultados observados em outros trabalhos. Adicionalmente foram realizadas simulações para diversos períodos de 5 anos com objetivo de analisar a robustez dos resultados. Todas as carteiras apresentaram CAGR maior que o do Ibovespa em todos os períodos simulados, independentemente do número de ativos incluídos ou dos períodos de permanência. Estes resultados indicam ser possível alcançar retornos acima do mercado no Brasil utilizando apenas dados públicos históricos. Esta é uma violação da forma fraca da Hipótese do Mercado Eficiente.
Resumo:
A introdução da competição foi o caminho escolhido no Brasil para o desenvolvimento dos setores de gás natural e energia elétrica. Entretanto, enquanto o mercado de energia elétrica é uma realidade há mais de uma década, o mercado de gás natural ainda não passa de uma boa intenção. O objetivo deste artigo é analisar as experiências e caracteristicas do modelo implementado no mercado de energia elétrica e mostrar como podem servir de exemplos para o desenvolvimento do mercado brasileiro de gás natural.
Resumo:
O conceito de valor justo na agricultura, introduzido com a adoção das normas CPC 29 e IAS 41, entre 2009 e 2010, estabeleceu uma nova forma de mensurar e contabilizar os ativos biológicos. A mensuração dos ativos biológicos passa a ser feita, também, pelo meio do valor presente dos fluxos de caixa que o ativo gerará durante sua vida. Através deste novo panorama, o presente trabalho tem como objetivo principal propor uma metodologia que permita mensurar o valor justo de qualquer de ativo biológico, aliando conceitos econômicos e agronômicos. Assim, para compor a proposta metodológica do cálculo do valor justo dos ativos biológicos, buscou-se ajustar alguns parâmetros da composição do fluxo de caixa descontado para que o método consiga aferir a situação da planta ou do animal a ser avaliado no local onde eles se encontram. Além dos ajustes propostos no fluxo de caixa, uma avaliação das condições agronômicas dos ativos biológicos foi recomendada, como parte integrante da metodologia de avaliação proposta. Posteriormente, como alvo secundário, testou-se empiricamente a metodologia proposta (em exceção a parte agronômica) com uma avaliação da lavoura de soja.
Resumo:
As diretrizes de política monetária são definidas com base em resultados dos indicadores macroeconômicos divulgados ao mercado periodicamente. Os agentes deste mercado respondem rapidamente às alterações de cenário, com o objetivo de obter lucro ou evitar perdas financeiras expressivas. Com este motivacional, a proposta deste trabalho é avaliar como reage o mercado futuro de juros diante da divulgação de surpresas em determinados indicadores macroeconômicos, propondo um indicador de surpresa agregado para prever os impactos causados. Através dos dados extraídos da Bloomberg e da BM&F Bovespa, foi construída uma base de dados simplificada pela adoção de premissas para mensuração do impacto das surpresas divulgadas no preço do DI Futuro. A padronização dos parâmetros, a realização dos testes de média e as regressões otimizadas pelo método OLS possibilitaram ponderar os indicadores econômicos de acordo com a oscilação que os mesmos causam a este mercado. Por fim, o teste de comparação mostrou que o indicador de surpresa proposto foi mais eficiente nas previsões da reação do mercado do que um indicador que pondere de forma igualitária todos os indicadores macroeconômicos.
Resumo:
The goal of this paper is twofold. First, using five of the most actively traded stocks in the Brazilian financial market, this paper shows that the normality assumption commonly used in the risk management area to describe the distributions of returns standardized by volatilities is not compatible with volatilities estimated by EWMA or GARCH models. In sharp contrast, when the information contained in high frequency data is used to construct the realized volatilies measures, we attain the normality of the standardized returns, giving promise of improvements in Value at Risk statistics. We also describe the distributions of volatilities of the Brazilian stocks, showing that the distributions of volatilities are nearly lognormal. Second, we estimate a simple linear model to the log of realized volatilities that differs from the ones in other studies. The main difference is that we do not find evidence of long memory. The estimated model is compared with commonly used alternatives in an out-of-sample experiment.