968 resultados para Pedro Pereira Leite


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação apresenta um modelo de análise dogmático para a aplicação do princípio da neutralidade da rede no país, na forma como se encontra regulado pela Lei n. 12.965, conhecida como o Marco Civil da Internet. A metodologia utilizada por este trabalho envolve o mapeamento dos principais debates e tensões que emergem sobre a regulação do tema no Brasil e em outros países, bem como a avaliação dos custos e benefícios envolvidos com diferentes aplicações do princípio da neutralidade da rede. O capítulo 1 traz uma revisão e organização da literatura sobre neutralidade da rede, propondo uma classificação de diferentes correntes e posições de acordo com sua perspectiva regulatória. O capítulo 2 apresenta um mapeamento da matriz institucional por trás da discussão sobre o tema no Brasil, avaliando o arcabouço regulatório, o posicionamento dos atores e de que forma essa matriz exerceu influência na construção colaborativa da redação da neutralidade da rede no Marco Civil. O capítulo 3 oferece um exercício de interpretação dogmática da regra aprovada no Marco Civil, utilizando como métodos diferentes modelos de interpretação. O capítulo 4 continua o exercício hermenêutico proposto no capítulo anterior, analisando de que forma a regulação da neutralidade da rede afeta novos modelos de negócio na camada de infraestrutura da rede, e de que maneira atinge a oferta de planos de acesso à internet que estabeleçam diferentes tarifas de acordo com aplicações específicas. Finalmente, o capítulo 5 utiliza as diversas inferências desenvolvidas nos dois capítulos anteriores para construir m modelo propositivo de como a neutralidade da rede pode ser regulamentada pelo Poder Executivo, à luz do princípio da legalidade.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho avalia as previsões de três métodos não lineares — Markov Switching Autoregressive Model, Logistic Smooth Transition Autoregressive Model e Autometrics com Dummy Saturation — para a produção industrial mensal brasileira e testa se elas são mais precisas que aquelas de preditores naive, como o modelo autorregressivo de ordem p e o mecanismo de double differencing. Os resultados mostram que a saturação com dummies de degrau e o Logistic Smooth Transition Autoregressive Model podem ser superiores ao mecanismo de double differencing, mas o modelo linear autoregressivo é mais preciso que todos os outros métodos analisados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The dissertation goal is to quantify the tail risk premium embedded into hedge funds' returns. Tail risk is the probability of extreme large losses. Although it is a rare event, asset pricing theory suggests that investors demand compensation for holding assets sensitive to extreme market downturns. By de nition, such events have a small likelihood to be represented in the sample, what poses a challenge to estimate the e ects of tail risk by means of traditional approaches such as VaR. The results show that it is not su cient to account for the tail risk stemming from equities markets. Active portfolio management employed by hedge funds demand a speci c measure to estimate and control tail risk. Our proposed factor lls that void inasmuch it presents explanatory power both over the time series as well as the cross-section of funds' returns.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Life cycle general equilibrium models with heterogeneous agents have a very hard time reproducing the American wealth distribution. A common assumption made in this literature is that all young adults enter the economy with no initial assets. In this article, we relax this assumption – not supported by the data - and evaluate the ability of an otherwise standard life cycle model to account for the U.S. wealth inequality. The new feature of the model is that agents enter the economy with assets drawn from an initial distribution of assets, which is estimated using a non-parametric method applied to data from the Survey of Consumer Finances. We found that heterogeneity with respect to initial wealth is key for this class of models to replicate the data. According to our results, American inequality can be explained almost entirely by the fact that some individuals are lucky enough to be born into wealth, while others are born with few or no assets.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The objective of this study is to investigate whether the relationship between order ow and the spot exchange rate stems from the fact that the ow aggregates information on dispersed economic fundamentals in the economy. To perform this test, a database that includes all transactions of the commercial and nancial segments of the Brazilian primary foreign exchange market between January of 1999 and May of 2008 was used. We show that the order ow was partly responsible for variations in in ation expectations over the time period and that this relationship did not remain robust, drawing comparisons with other fundamentals such as GDP and Industrial Production.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This work assesses the forecasts of three nonlinear methods | Markov Switching Autoregressive Model, Logistic Smooth Transition Auto-regressive Model, and Auto-metrics with Dummy Saturation | for the Brazilian monthly industrial production and tests if they are more accurate than those of naive predictors such as the autoregressive model of order p and the double di erencing device. The results show that the step dummy saturation and the logistic smooth transition autoregressive can be superior to the double di erencing device, but the linear autoregressive model is more accurate than all the other methods analyzed.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This study aims to contribute on the forecasting literature in stock return for emerging markets. We use Autometrics to select relevant predictors among macroeconomic, microeconomic and technical variables. We develop predictive models for the Brazilian market premium, measured as the excess return over Selic interest rate, Itaú SA, Itaú-Unibanco and Bradesco stock returns. We find that for the market premium, an ADL with error correction is able to outperform the benchmarks in terms of economic performance. For individual stock returns, there is a trade o between statistical properties and out-of-sample performance of the model.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This work proposes a method to examine variations in the cointegration relation between preferred and common stocks in the Brazilian stock market via Markovian regime switches. It aims on contributing for future works in "pairs trading" and, more specifically, to price discovery, given that, conditional on the state, the system is assumed stationary. This implies there exists a (conditional) moving average representation from which measures of "information share" (IS) could be extracted. For identification purposes, the Markov error correction model is estimated within a Bayesian MCMC framework. Inference and capability of detecting regime changes are shown using a Montecarlo experiment. I also highlight the necessity of modeling financial effects of high frequency data for reliable inference.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho tem como objetivo estudar o comportamento do mercado de ações e opções de Petrobrás utilizando a metodologia de price discovery (descoberta de preços). A partir de dados de alta frequência de ambos os mercados, fornecidos pela BM&FBOVESPA, os modelos econométricos utilizados nessa metodologia foram estimados e as medidas de Information Share (IS) e Component Share (CS) foram calculadas. Os resultados das análises indicaram dominância do mercado à vista no processo de descoberta de preços, dado que, para este mercado, foram observados valores acima de 66% para a medida IS e acima de 74% para a medida CS. Análises gráficas da função resposta ao impulso indicaram, também, que o mercado à vista é o mais eficiente.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo deste trabalho é aplicar e avaliar o desempenho do conceito de técnicas de nowcasting para previsão de uma importante variável macroeconômica do Produto Interno Bruto (PIB) brasileiro. Nos últimos anos, novas técnicas vêm sendo propostas e aprimoradas. Comparam-se diferentes modelos de nowcasting frente a um benchmarking, avaliando a relevância das variáveis a partir do Autometrics, que foi desenvolvido por Doornik (2011). A proposta é reunir diversos indicadores econômicos da economia brasileira que possam em maior ou menor grau antecipar a variação do PIB. Será utilizada a técnica de variáveis dummies com saturação (proposta por Johansen et. al.) para controlar possíveis quebras e outliers. Esta abordagem é adequada para um ambiente econômico instável, com constantes mudanças ao longo do tempo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho procura identificar quais variáveis são as mais relevantes para previsão da taxa de câmbio real do Brasil e analisar a robustez dessas previsões. Para isso foram realizados testes de cointegração de Johansen em 13 variáveis macroeconômicas. O banco de dados utilizado são séries trimestrais e compreende o período de 1970 a 2014 e os testes foram realizados sobre as séries combinadas dois a dois, três a três e quatro a quatro. Por meio desse método, encontramos nove grupos que cointegram entre si. Utilizando esses grupos, são feitas previsões fora da amostra com a partir das últimas 60 observações. A qualidade das previsões foi avaliada por meio dos testes de Erro Quadrático Médio, teste de Diebold-Mariano e, além disso, foi utilizado um modelo de passeio aleatório do câmbio real como benchmark para o procedimento de Hansen. Todos os testes mostram que, à medida que se aumenta o horizonte de projeção, o passeio aleatório perde poder preditivo e a maioria dos modelos são mais informativos sobre o futuro da o câmbio real efetivo. O horizonte é de três a quatro anos à frente. No caso do teste de Hansen, o passeio aleatório é completamente eliminado do grupo final de modelos, mostrando que é possível fazer previsões superiores ao passeio aleatório.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho tem como objectivo compreender de que forma os investidores veem as energias renováveis: se as veem como parte do sector tecnológico, à espera de novos desenvolvimentos, ou como uma alternativa aos métodos existentes de produção de energia. Para responder a esta questão, foi desenvolvido um modelo de vectores autoregressivos com quatro variáveis de forma a se poder aplicar um Granger causality test e Impulse Response function. Os resultados sugerem que para o período de 2002-2007 à escala global ambas as hipóteses se confirmam, porém de 2009-2014 os resultados sugerem que os investidores não reconhecem as energias renováveis como um ramo do sector tecnológico, neste período. Para além disso, durante o período de 2009-2014, e quando comparados investidores Americanos com Europeus, os resultados sugerem que apenas o último identifica as energias renováveis como uma fonte viável para a produção energética.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Revendo a definição e determinação de bolhas especulativas no contexto de contágio, este estudo analisa a bolha do DotCom nos mercados acionistas americanos e europeus usando o modelo de correlação condicional dinâmica (DCC) proposto por Engle e Sheppard (2001) como uma explicação econométrica e, por outro lado, as finanças comportamentais como uma explicação psicológica. Contágio é definido, neste contexto, como a quebra estatística nos DCC’s estimados, medidos através das alterações das suas médias e medianas. Surpreendentemente, o contágio é menor durante bolhas de preços, sendo que o resultado principal indica a presença de contágio entre os diferentes índices dos dois continentes e demonstra a presença de alterações estruturais durante a crise financeira.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Professora Christina Larroude de Paula Leite fala de sua carreira na Fundação Getulio Vargas

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho tem como objetivo avaliar a capacidade preditiva de modelos econométricos de séries de tempo baseados em indicadores macroeconômicos na previsão da inflação brasileira (IPCA). Os modelos serão ajustados utilizando dados dentro da amostra e suas projeções ex-post serão acumuladas de um a doze meses à frente. As previsões serão comparadas a de modelos univariados como autoregressivo de primeira ordem - AR(1) - que nesse estudo será o benchmark escolhido. O período da amostra vai de janeiro de 2000 até agosto de 2015 para ajuste dos modelos e posterior avaliação. Ao todo foram avaliadas 1170 diferentes variáveis econômicas a cada período a ser projetado, procurando o melhor conjunto preditores para cada ponto no tempo. Utilizou-se o algoritmo Autometrics para a seleção de modelos. A comparação dos modelos foi feita através do Model Confidence Set desenvolvido por Hansen, Lunde e Nason (2010). Os resultados obtidos nesse ensaio apontam evidências de ganhos de desempenho dos modelos multivariados para períodos posteriores a 1 passo à frente.