31 resultados para Evaluaciones ex-post
Resumo:
Este trabalho discute a racionalidade econômica para o desenvolvimento de um sistema de metas sociais como forma de o governo federal aumentar a eficiência na utilização dos recursos sociais transferidos para os municípios. O trabalho desenvolve algumas extensões do modelo de agente-principal incluindo abordagens estáticas com e sem informação imperfeita e abordagens dinâmicas com contratos perfeitos e imperfeitos. Os resultados dos modelos estáticos indicam que o uso de critérios usuais de focalização onde localidades mais pobres recebem mais recursos pode levar a incentivos adversos para a erradicação da pobreza. Nós também mostramos que transferências incondicionais do governo federal deslocam gastos sociais locais. O trabalho argumenta em favor do uso de contratos onde quanto maior for a melhora no indicador social escolhido, mais recursos o município receberia. A introdução de informação imperfeita neste modelo basicamente gera uma penalidade aos segmentos pobres de áreas onde os governos demonstram ser menos avessos a pobreza. O trabalho também aborda o problema de favoritismo político onde determinados grupos sociais têm maior, ou menor, atenção por parte de governos locais. O resultado é que as políticas sociais acabam privilegiando determinados setores em detrimento de outros. Com o estabelecimento de metas sociais é possível, se não eliminar o problema, ao menos criar incentivos corretos para que os gastos sociais sejam distribuídos de forma mais equânime. Também desenvolvemos modelos dinâmicos com diferentes possibilidades de renegociação ao longo do tempo. Demonstramos que a melhor forma de aumentar a eficiência alocativa dos fundos seria criar mecanismos institucionais garantindo a impossibilidade de renegociações bilaterais. Esse contrato ótimo reproduz a seqüência de metas e transferências de vários períodos encontrada na solução do modelo estático. Entretanto, esse resultado- desaparece quando incorporamos contratos incompletos. Nesse caso, as ineficiências ex-ante criadas pela possibilidade de renegociação devem ser comparadas com as ineficiências ex-post criadas por não se usar a informação nova revelada ao longo do processo. Finalmente, introduzimos a possibilidade do resultado social observado depender não só do investimento realizado, mas também da presença de choques. Nesse caso, tanto o governo quanto o município aumentam as suas metas de investimento na área social. Contratos lineares na presença de choques negativos fazem com que os municípios recebem menos recursos justamente em situações adversas. Para contornar esse problema, mostramos a importância da utilização de contratos com comparação de performance.
Resumo:
Este estudo compara previsões de volatilidade de sete ações negociadas na Bovespa usando 02 diferentes modelos de volatilidade realizada e 03 de volatilidade condicional. A intenção é encontrar evidências empíricas quanto à diferença de resultados que são alcançados quando se usa modelos de volatilidade realizada e de volatilidade condicional para prever a volatilidade de ações no Brasil. O período analisado vai de 01 de Novembro de 2007 a 30 de Março de 2011. A amostra inclui dados intradiários de 5 minutos. Os estimadores de volatilidade realizada que serão considerados neste estudo são o Bi-Power Variation (BPVar), desenvolvido por Barndorff-Nielsen e Shephard (2004b), e o Realized Outlyingness Weighted Variation (ROWVar), proposto por Boudt, Croux e Laurent (2008a). Ambos são estimadores não paramétricos, e são robustos a jumps. As previsões de volatilidade realizada foram feitas através de modelos autoregressivos estimados para cada ação sobre as séries de volatilidade estimadas. Os modelos de variância condicional considerados aqui serão o GARCH(1,1), o GJR (1,1), que tem assimetrias em sua construção, e o FIGARCH-CHUNG (1,d,1), que tem memória longa. A amostra foi divida em duas; uma para o período de estimação de 01 de Novembro de 2007 a 30 de Dezembro de 2010 (779 dias de negociação) e uma para o período de validação de 03 de Janeiro de 2011 a 31 de Março de 2011 (61 dias de negociação). As previsões fora da amostra foram feitas para 1 dia a frente, e os modelos foram reestimados a cada passo, incluindo uma variável a mais na amostra depois de cada previsão. As previsões serão comparadas através do teste Diebold-Mariano e através de regressões da variância ex-post contra uma constante e a previsão. Além disto, o estudo também apresentará algumas estatísticas descritivas sobre as séries de volatilidade estimadas e sobre os erros de previsão.
Resumo:
Esta tese é composta por três artigos. Dois deles investigam assuntos afeitos a tributação e o terceiro é um artigo sobre o tema “poupança”'. Embora os objetos de análise sejam distintos, os três possuem como característica comum a aplicação de técnicas de econometria de dados em painel a bases de dados inéditas. Em dois dos artigos, utiliza-se estimação por GMM em modelos dinâmicos. Por sua vez, o artigo remanescente é uma aplicação de modelos de variável dependente latente. Abaixo, apresenta-se um breve resumo de cada artigo, começando pelos dois artigos de tributação, que dividem uma seção comum sobre o ICMS (o imposto estadual sobre valor adicionado) e terminando com o artigo sobre poupança. O primeiro artigo analisa a importância da fiscalização como instrumento para deter a evasão de tributos e aumentar a receita tributária, no caso de um imposto sobre valor adicionado, no contexto de um país em desenvolvimento. O estudo é realizado com dados do estado de São Paulo. Para tratar questões relativas a endogeneidade e inércia na série de receita tributária, empregam-se técnicas de painel dinâmico. Utiliza-se como variáveis de controle o nível do PIB regional e duas proxies para esforço fiscal: a quantidade e o valor das multas tributárias. Os resultados apontam impacto significativo do esforço fiscal nas receitas tributárias. O artigo evidencia, indiretamente, a forma como a evasão fiscal é afetada pela penalidade aplicada aos casos de sonegação. Suas conclusões também são relevantes no contexto das discussões sobre o federalismo fiscal brasileiro, especialmente no caso de uma reforma tributária potencial. O segundo artigo examina uma das principais tarefas das administrações tributárias: a escolha periódica de contribuintes para auditoria. A melhora na eficiência dos mecanismos de seleção de empresas tem o potencial de impactar positivamente a probabilidade de detecção de fraudes fiscais, provendo melhor alocação dos escassos recursos fiscais. Neste artigo, tentamos desenvolver este mecanismo calculando a probabilidade de sonegação associada a cada contribuinte. Isto é feito, no universo restrito de empresas auditadas, por meio da combinação “ótima” de diversos indicadores fiscais existentes e de informações dos resultados dos procedimentos de auditoria, em modelos de variável dependente latente. Após calculados os coeficientes, a probabilidade de sonegação é calculada para todo o universo de contribuintes. O método foi empregado em um painel com micro-dados de empresas sujeitas ao recolhimento de ICMS no âmbito da Delegacia Tributária de Guarulhos, no estado de São Paulo. O terceiro artigo analisa as baixas taxas de poupança dos países latino-americanos nas últimas décadas. Utilizando técnicas de dados em painel, identificam-se os determinantes da taxa de poupança. Em seguida, faz-se uma análise contrafactual usando a China, que tem apresentado altas taxas de poupança no mesmo período, como parâmetro. Atenção especial é dispensada ao Brasil, que tem ficado muito atrás dos seus pares no grupo dos BRICs neste quesito. O artigo contribui para a literatura existente em vários sentidos: emprega duas amplas bases de dados para analisar a influência de uma grande variedade de determinantes da taxa de poupança, incluindo variáveis demográficas e de previdência social; confirma resultados previamente encontrados na literatura, com a robustez conferida por bases de dados mais ricas; para alguns países latino-americanos, revela que as suas taxas de poupança tenderiam a aumentar se eles tivessem um comportamento mais semelhante ao da China em outras áreas, mas o incremento não seria tão dramático.
Resumo:
This paper studies cost-sharing rules under dynamic adverse selection. We present a typical principal-agent model with two periods, set up in Laffont and Tirole's (1986) canonical regulation environment. At first, when the contract is signed, the firm has prior uncertainty about its efficiency parameter. In the second period, the firm learns its efficiency and chooses the level of cost-reducing effort. The optimal mechanism sequentially screens the firm's types and achieves a higher level of welfare than its static counterpart. The contract is indirectly implemented by a sequence of transfers, consisting of a fixed advance payment based on the reported cost estimate, and an ex-post compensation linear in cost performance.
Resumo:
The goal of t.his paper is to show the possibility of a non-monot.one relation between coverage and risk which has been considered in the literature of insurance models since the work of Rothschild and Stiglitz (1976). We present an insurance model where the insured agents have heterogeneity in risk aversion and in lenience (a prevention cost parameter). Risk aversion is described by a continuou.'l parameter which is correlated with lenience and, for the sake of simplicity, we assume perfect correlation. In the case of positive correlation, the more risk averse agent has higher cost of prevention leading to a higher demand for coverage. Equivalently, the single crossing property (SCP) is valid and implies a positive correlation between coverage and risk in equilibrium. On the other hand, if the correlation between risk aversion and lenience is negative, not only may the sep be broken, but also the monotonicity of contracts, i.e., the prediction that high (Iow) risk averse types choose full (partial) insurance. In both cases riskiness is monotonic in risk aversion, but in the last case t,here are some coverage leveIs associated with two different risks (low and high), which implies that the ex-ante (with respect to the risk aversion distribution) correlation bet,ween coverage and riskiness may have every sign (even though the ex-post correlation is always positive). Moreover, using another instrument (a proxy for riskiness), we give a testable implication to disentangle single crossing and non single crossing under an ex-post zero correlation result: the monotonicity of coverage as a function of riskiness. Since by controlling for risk aversion (no asymmetric informat, ion), coverage is a monotone function of riskiness, this also gives a test for asymmetric information. Finally, we relate this theoretical results to empirica! tests in the recent literature, specially the Dionne, Gouriéroux and Vanasse (2001) work. In particular, they found an empirical evidence that seems to be compatible with asymmetric information and non single crossing in our framework. More generally, we build a hidden information model showing how omitted variabIes (asymmetric information) can bias the sign of the correlation of equilibrium variabIes conditioning on ali observabIe variabIes. We show that this may be t,he case when the omitted variabIes have a non-monotonic reIation with t,he observable ones. Moreover, because this non-monotonic reIat,ion is deepIy reIated with the failure of the SCP in one-dimensional screening problems, the existing lit.erature on asymmetric information does not capture t,his feature. Hence, our main result is to point Out the importance of t,he SCP in testing predictions of the hidden information models.
Resumo:
We analyze simultaneous discrete public good games with incomplete information and continuous contributions. To use the tenninology of Admati and Perry (1991), we consider contribution and subscription games. In the former, contributions are not refunded ifthe project is not completed, while in the latter they are. For the special case where provision by a single player is possible we show the existence of an equihbrium in both contnbution and subscription games where a player decides to provide the good by himself. For the case where is not feasible for a single player to provide the good by himself: we show that there exist equilibria of the subscription game where each participant pays the same amount. Moreover, using the technical apparatus from Myerson (1981) we show that neither the subscription nor the contribution games admit ex-post eÁ cient equibbria. hl addition. we provide a suÁ cient condition for êontributing zero 'to be the unique equihbrium of the contnbution game with n players.
Resumo:
This paper studies the increase in the rate of informal workers in the Brazilian economy that occurred between 1985 and 1999. We develop an overlapping generations model with incomplete markets in which agents are ex-post heterogeneous. We calibrate it to match some features of the Brazilian economy for 1985. We conduct a policy experiment which reproduces the 1988 constitution reforms that increased the retirement benefits and labor costs in the formal sector. We show that these reforms can explain the increase in informal labor. Then, we conduct a policy experiment and analyze its impact on the Brazilian economy.
Resumo:
Cash transfers targeted to poor people, but conditional on some behavior on their part, such as school attendance or regular visits to health care facilities, are being adopted in a growing number of developing countries. Even where ex-post impact evaluations have been conducted, a number of policy-relevant counterfactual questions have remained unanswered. These are questions about the potential impact of changes in program design, such as benefit levels or the choice of the means-test, on both the current welfare and the behavioral response of household members. This paper proposes a method to simulate the effects of those alternative program designs on welfare and behavior, based on microeconometrically estimated models of household behavior. In an application to Brazil’s recently introduced federal Bolsa Escola program, we find a surprisingly strong effect of the conditionality on school attendance, but a muted impact of the transfers on the reduction of current poverty and inequality levels.
Resumo:
We analyze a common agency game under asymmetric information on the preferences of the non-cooperating principals. Asymmetric information introduces incentive compatibility constraints which rationalize the requirement of truthfulness made in the earlier literature on common agency games under complete information. There exists a large class of differentiable equilibria which are ex post inefficient and exhibit free-riding. We then characterize some interim efficient equilibria. Finally, there exists also a unique equilibrium allocation which is robust to random perturbations. This focal equilibrium is characterized for any distribution of types.
Resumo:
Economic development requires some limits on what those in power can do | the rule of law | but how can restraints be imposed on the powerful when there is no-one above them? This paper studies equilibrium rules allocating power and resources established by selfinterested incumbents under the threat of rebellions from inside and outside the group in power. Commitment to uphold individuals' rights can only be achieved if power is not as concentrated as incumbents would like it to be, ex post. Power sharing endogenously enables incumbents to commit to otherwise time-inconsistent laws by ensuring more people receive rents under the status quo, and thus want to defend it.
Resumo:
O presente trabalho tem como objetivo analisar o tratamento que vem sendo conferido pelo Direito Societário brasileiro ao voto proferido em conflito de interesses nas assembleias de acionistas das Sociedades Anônimas. Nesse sentido, foi analisado o tratamento dado pela legislação vigente e a interpretação tanto da jurisprudência como da doutrina relacionada. Duas correntes interpretativas predominam, quais sejam a do conflito formal e substancial de interesses. Elas propõem consequências práticas distintas: a primeira prevê a vedação ex ante do exercício de voto e a segunda o controle ex post do voto. Observa-se predominância na doutrina da interpretação materialista do conflito de interesses, e na jurisprudência da Comissão de Valores Mobiliários por interpretações formalistas. Diante desse panorama, será feito uma análise crítica dos principais argumentos trazidos pelas duas correntes que se destacam na doutrina e nas decisões da Comissão de Valores Mobiliários.
Resumo:
O estudo proposto tem por objetivo analisar a contribuição do turismo para o desenvolvimento sustentável de Cabo Verde. Partindo da hipótese de que o turismo afeta positivamente o desenvolvimento sustentável de Cabo Verde, a pesquisa buscou especificamente: identificar e justificar os indicadores do turismo e do desenvolvimento sustentável no país; identificar a metodologia mais adequada para analisar os dados da pesquisa e realizar uma análise dos indicadores do turismo e do desenvolvimento sustentável do país. Para compreender a contribuição do turismo no desenvolvimento sustentável do país realizou-se um estudo analítico dos indicadores do turismo e dos indicadores das dimensões do desenvolvimento sustentável. O estudo teve um caráter quantitativo ex post fato e exploratório-descritivo. Para comprovar a hipótese de pesquisa foi realizado um conjunto de testes estatísticos por meio da ferramenta SPSS analisando assim a influência da variável independente sobre a variável dependente. Uma vez realizados os testes concluiu-se que o turismo apresenta um impacto positivo sobre o desenvolvimento sustentável, em especial os indicadores econômicos e sociais.
Resumo:
The aim of this paper is to propose new methods to measure the effective exposure to country risk of emerging-market companies. Starting from Damodaran (2003), we propose seven new approaches and a revised CAPM for emerging markets companies. The “Prospective Lambda” represents the effective exposure according to analysts’ estimates of growth. The “Relative Lambda” relies on the firm value estimated through a relative valuation. The “Retrospective Lambda” represents the ex-post effective exposure to country risk. The “Company Effective Risk Premium” is a generalization of the Retrospective Lambda, and expresses the premium effectively requested by investors to invest in that specific company in the past year. “The Actual Lambda” and the “Company Actual Risk Premium” represent, respectively, the actual exposure to country risk of a company and the actual premium requested by investors to invest in that specific company. The “Industry Lambda” reflects the median exposure to country risk of the industry in which the company belongs. We tested our new measures of exposure to country risk on the Latin American emerging markets companies according to the classification of the MSCI Emerging Markets Latin America Index. The results confirm that the new approaches can be effectively applied by financial analysts to stable-growth companies that operate in emerging markets and to mature markets companies that operate in emerging markets, providing with a more reliable estimate of both the premium effectively requested by investors in the past and the actual premium. Applying the new approaches, the cost of equity reflects the effective exposure of a company to country risk without being over- or underestimated, as is the case with other existing approaches.
Resumo:
O presente trabalho tem como objetivo avaliar a capacidade preditiva de modelos econométricos de séries de tempo baseados em indicadores macroeconômicos na previsão da inflação brasileira (IPCA). Os modelos serão ajustados utilizando dados dentro da amostra e suas projeções ex-post serão acumuladas de um a doze meses à frente. As previsões serão comparadas a de modelos univariados como autoregressivo de primeira ordem - AR(1) - que nesse estudo será o benchmark escolhido. O período da amostra vai de janeiro de 2000 até agosto de 2015 para ajuste dos modelos e posterior avaliação. Ao todo foram avaliadas 1170 diferentes variáveis econômicas a cada período a ser projetado, procurando o melhor conjunto preditores para cada ponto no tempo. Utilizou-se o algoritmo Autometrics para a seleção de modelos. A comparação dos modelos foi feita através do Model Confidence Set desenvolvido por Hansen, Lunde e Nason (2010). Os resultados obtidos nesse ensaio apontam evidências de ganhos de desempenho dos modelos multivariados para períodos posteriores a 1 passo à frente.
Resumo:
This thesis elaborates the creation of value in private equity and in particular analyzes value creation in 3G Capital’s acquisition of Burger King. In this sense, a specific model is applied that composes value creation into several drivers, in order to answer the question of how value creation can be addressed in private equity investments. Although previous research by Achleitner et al. (2010) introduced a specific model that addresses value creation in private equity, the respective model was neither applied to an individual company, nor linked to indirect drivers that explain the dynamics and rationales for the creation of value. In turn this paper applies the quantitative model to an ongoing private equity investment and thereby provides different extensions to turn the model into a better forecasting model for ongoing investments, instead of only analyzing a deal that has already been divested from an ex post perspective. The chosen research approach is a case study about the Burger King buyout that first includes an extensive review about the current status of academic literature, second a quantitative calculation and qualitative interpretation of different direct value drivers, third a qualitative breakdown of indirect drivers, and lastly a recapitulating discussion about value creation and value drivers. Presenting a very successful private equity investment and elaborately demonstrating the dynamics and mechanisms that drive value creation in this case, provides important implications for other private equity firms as well as public firms in order to develop their proprietary approach towards value creation.