919 resultados para Evaluaciones ex-post
Resumo:
The argument for the inclusion of real estate in the mixed-asset portfolio has concentrated on examining its effect in reducing the portfolio risk - the time series standard deviation (TSSD), mainly using ex-post time series data. However, the past as such is not really relevant to the long-term institutional investors, such as the insurance companies and pension funds, who are more concerned the terminal wealth (TW) of their investments and the variability of this wealth, the terminal wealth standard deviation (TWSD), since it is from the TW of their investment portfolio that policyholders and pensioners will derive their benefits. These kinds of investors with particular holding period requirements will be less concerned about the within period volatility of their portfolios and more by the possibility that their portfolio returns will fail to finance their liabilities. This variability in TW will be closely linked to the risk of shortfall in the quantity of assets needed to match the institution’s liabilities. The question remains therefore can real estate enhance the TW of the mixed-asset portfolio and/or reduce the variability of the TW. This paper uses annual data from the United Kingdom (UK) for the period 1972-2001 to test whether real estate is an asset class that not only reduces ex-post portfolio risk but also enhances portfolio TW and/or reduces the variability of TW.
Resumo:
This paper examines one of the central issues in the formulation of a sector/regional real estate portfolio strategy, i.e. whether the means, standard deviations and correlations between the returns are sufficiently stable over time to justify using ex-post measures as proxies of the ex-ante portfolio inputs required for MPT. To investigate these issues this study conducts a number of tests of the inter-temporal stability of the total returns of the 19 sector/regions in the UK of the IPDMI. The results of the analysis reveal that the theoretical gains in sector and or regional diversification, found in previous work, could not have been readily achieved in practice without almost perfect foresight on the part of an investor as means, standard deviations and correlations, varied markedly from period to period.
Resumo:
Firms' conjectures are consistent if their ex post behavior rationalizes their ex ante beliefs. Admissible conjectures are those that satisfy the necessary conditions for consistency. Competition is inadmissible unless aggregate output is stationary. Relaxing this restriction, admissibility eliminates Cournot behavior and constrains conduct to be collusive
Resumo:
Abstract Objective: To systematically review the available evidence on whether national or international agricultural policies that directly affect the price of food influence the prevalence rates of undernutrition or nutrition-related chronic disease in children and adults. Design: Systematic review. Setting: Global. Search strategy: We systematically searched five databases for published literature (MEDLINE, EconLit, Agricola, AgEcon Search, Scopus) and systematically browsed other databases and relevant organisational websites for unpublished literature. Reference lists of included publications were hand-searched for additional relevant studies. We included studies that evaluated or simulated the effects of national or international food-price-related agricultural policies on nutrition outcomes reporting data collected after 1990 and published in English. Primary and secondary outcomes: Prevalence rates of undernutrition (measured with anthropometry or clinical deficiencies) and overnutrition (obesity and nutrition-related chronic diseases including cancer, heart disease and diabetes). Results: We identified a total of four relevant reports; two ex post evaluations and two ex ante simulations. A study from India reported on the undernutrition rates in children, and the other three studies from Egypt, the Netherlands and the USA reported on the nutrition related chronic disease outcomes in adults. Two of the studies assessed the impact of policies that subsidised the price of agricultural outputs and two focused on public food distribution policies. The limited evidence base provided some support for the notion that agricultural policies that change the prices of foods at a national level can have an effect on population-level nutrition and health outcomes. Conclusions: A systematic review of the available literature suggests that there is a paucity of robust direct evidence on the impact of agricultural price policies on nutrition and health.
Resumo:
In this paper we employ a hypothetical discrete choice experiment (DCE) to examine how much consumers are willing to pay to use technology to customize their food shopping. We conjecture that customized information provision can aid in the composition of a healthier shop. Our results reveal that consumers are prepared to pay relatively more for individual specic information as opposed to generic nutritional information that is typically provided on food labels. In arriving at these results we have examined various model specications including those that make use of ex-post de-brieng questions on attribute nonattendance and attribute ranking information and those that consider the time taken to complete the survey. Our main results are robust to the various model specications we examine
Resumo:
Purpose – This paper aims to make a comparison, different from existing literature solely focusing on voluntary earnings forecasts and ex post earnings surprise, between the effects of mandatory earnings surprise warnings and voluntary information disclosure issued by management teams on financial analysts in terms of the number of followings and the accuracy of earnings forecasts. Design/methodology/approach – This paper uses panel data analysis with fixed effects on data collected from Chinese public firms between 2006 and 2010. It uses an exogenous regulation enforcement to minimise the endogeneity problem. Findings – This paper finds that financial analysts are less likely to follow firms which mandatorily issue earnings surprise warnings ex ante than those voluntarily issue earnings forecasts. Moreover, ex post, they issue less accurate and more dispersed forecasts on former firms. The results support Brown et al.’s (2009) finding in the USA and suggest that the earnings surprise warnings affect information asymmetries. Practical implications – This paper justifies the mandatory earnings surprise warnings policy issued by Chinese Securities Regulatory Commission in 2006. Originality/value – Mandatory earnings surprise is a unique practical regulation for publicly listed firms in China. This paper, for the first time, provides empirical evaluation on the effectiveness of a mandatory information disclosure policy in China. Consistent with existing literature on information disclosure by public firms in other countries, this paper finds that, in China, voluntary information disclosure captures more private information than mandatory information disclosure on corporate earnings ability.
Resumo:
Gibrat's law predicts that firm growth is purely random and should be independent of firm size. We use a random effects-random coefficient model to test whether Gibrat's law holds on average in the studied sample as well as at the individual firm level in the Swedish energy market. No study has yet investigated whether Gibrat's law holds for individual firms, previous studies having instead estimated whether the law holds on average in the samples studied. The present results support the claim that Gibrat's law is more likely to be rejected ex ante when an entire firm population is considered, but more likely to be confirmed ex post after market selection has "cleaned" the original population of firms or when the analysis treats more disaggregated data. From a theoretical perspective, the results are consistent with models based on passive and active learning, indicating a steady state in the firm expansion process and that Gibrat's law is violated in the short term but holds in the long term once firms have reached a steady state. These results indicate that approximately 70 % of firms in the Swedish energy sector are in steady state, with only random fluctuations in size around that level over the 15 studied years.
Resumo:
Dissertação apresentada ao Programa de Pós – Graduação em Administração da Universidade Municipal de São Caetano do Sul como requisito parcial para obtenção do titulo de Mestre em Administração.
Resumo:
A partir de uma base de dados de ações da Telemar S.A., do período de 21/09/1998 a 21/10/2002, e de opções de 02/10/2000 a 21/10/2002, foi avaliado qual o previsor que prevê com maior precisão a volatilidade futura: o implícito ou o estatístico. A volatilidade implícita foi obtida por indução retroativa da fórmula de Black-Scholes. As previsões estatísticas da volatilidade foram obtidas pelos modelos de média móvel ponderada igualmente, modelo GARCH, EGARCH e FIGARCH. Os resultados das regressões do conteúdo de informação revelam que a volatilidade implícita ponderada possui substancial quantidade de informações sobre a volatilidade um passo à frente, pois apresenta o maior R2 ajustado de todas as regressões. Mesmo sendo eficiente, os testes indicam que ela é viesada. Porém, a estatística Wald revela que os modelos EGARCH e FIGARCH são previsores eficientes e não viesados da variação absoluta dos retornos da Telemar S.A. entre t e t + 1, apesar do R2 um pouco inferior a volatilidade implícita. Esse resultado a partir de parâmetros baseados em dados ex-post, de certo modo refuta a hipótese de que as opções possibilitam melhores informações aos participantes do mercado sobre as expectativas de risco ao longo do próximo dia Nas regressões do poder de previsão, que testam a habilidade da variável explicativa em prever a volatilidade ao longo do tempo de maturidade da opção, os resultados rejeitam a hipótese da volatilidade implícita ser um melhor previsor da volatilidade futura. Elas mostram que os coeficientes das volatilidades implícitas e incondicionais são estatisticamente insignificantes, além do R2 ajustado ser zero ou negativo. Isto, a princípio, conduz à rejeição da hipótese de que o mercado de opções é eficiente. Por outro lado, os resultados apresentados pelos modelos de volatilidade condicional revelam que o modelo EGARCH é capaz de explicar 60% da volatilidade futura. No teste de previsor eficiente e não viesado, a estatística Wald não rejeita esta hipótese para o modelo FIGARCH. Ou seja, um modelo que toma os dados ex-post consegue prever a volatilidade futura com maior precisão do que um modelo de natureza forward looking, como é o caso da volatilidade implícita. Desse modo, é melhor seguir a volatilidade estatística - expressa pelo modelo FIGARCH, para prever com maior precisão o comportamento futuro do mercado.
Resumo:
A economia do Rio Grande do Sul, o estado mais meridional do Brasil, enfrenta o problema da concentração econômica e industrial em suas três principais regiões: Metropolitano-Delta do Jacuí, Vale do Rio dos Sinos e Serra. Essa situação possui raízes históricas e vem desafiando os governos em seus esforços, baseados, principalmente, em incentivos financeiros, para promover o crescimento econômico e o desenvolvimento em outras regiões do Estado do Rio Grande do Sul, mediante investimentos industriais privados. O objetivo deste estudo é analisar a concentração regional da economia do Rio Grande do Sul, estabelecendo um cenário teórico e histórico a fim de proceder a uma avaliação dos impactos e efeitos sobre esta situação resultante da operação de um programa público de incentivos financeiros, que visa promover investimentos industriais privados na economia estadual, o Fundopem. A abordagem histórica do problema mostra que os primórdios da formação econômica do Rio Grande do Sul e seu desenvolvimento durante os séculos XIX e XX contribuíram para criar uma economia regionalmente desequilibrada. Por sua vez, a abordagem teórica, baseada na Economia Regional e, mais especialmente, na Teoria do Desenvolvimento Regional, contribui para a compreensão do papel atribuído ao estado, bem como das características gerais de suas macropolíticas, voltadas para melhorar a convergência econômica e social na desequilibrada distribuição de emprego e renda entre as regiões do Rio Grande do Sul Por fim, a análise e a avaliação ex-ante de projetos e ex-post de investimentos industriais incentivados pelo Fundopem como um programa público para a promoção do desenvolvimento regional trazem a este estudo uma visão quantitativa sobre os seus resultados macro e mesoeconômicos sobre o desenvolvimento do Rio Grande do Sul. A conclusão final do estudo mostra que, ao contrário de promover a desconcentração industrial, os projetos apoiados pelo Fundopem, no período 1989/98, tomaram a direção de reforço da concentração industrial existente nas três principais regiões do Rio Grande do Sul, enquanto que a distribuição regional da indústria e da economia estadual, no mesmo período, experimentou um processo de desconcentração, que ocorreu apesar do Fundopem.
Resumo:
Este trabalho discute a racionalidade econômica para o desenvolvimento de um sistema de metas sociais como forma de o governo federal aumentar a eficiência na utilização dos recursos sociais transferidos para os municípios. O trabalho desenvolve algumas extensões do modelo de agente-principal incluindo abordagens estáticas com e sem informação imperfeita e abordagens dinâmicas com contratos perfeitos e imperfeitos. Os resultados dos modelos estáticos indicam que o uso de critérios usuais de focalização onde localidades mais pobres recebem mais recursos pode levar a incentivos adversos para a erradicação da pobreza. Nós também mostramos que transferências incondicionais do governo federal deslocam gastos sociais locais. O trabalho argumenta em favor do uso de contratos onde quanto maior for a melhora no indicador social escolhido, mais recursos o município receberia. A introdução de informação imperfeita neste modelo basicamente gera uma penalidade aos segmentos pobres de áreas onde os governos demonstram ser menos avessos a pobreza. O trabalho também aborda o problema de favoritismo político onde determinados grupos sociais têm maior, ou menor, atenção por parte de governos locais. O resultado é que as políticas sociais acabam privilegiando determinados setores em detrimento de outros. Com o estabelecimento de metas sociais é possível, se não eliminar o problema, ao menos criar incentivos corretos para que os gastos sociais sejam distribuídos de forma mais equânime. Também desenvolvemos modelos dinâmicos com diferentes possibilidades de renegociação ao longo do tempo. Demonstramos que a melhor forma de aumentar a eficiência alocativa dos fundos seria criar mecanismos institucionais garantindo a impossibilidade de renegociações bilaterais. Esse contrato ótimo reproduz a seqüência de metas e transferências de vários períodos encontrada na solução do modelo estático. Entretanto, esse resultado desaparece quando incorporamos contratos incompletos. Nesse caso, as ineficiências ex-ante criadas pela possibilidade de renegociação devem ser comparadas com as ineficiências ex-post criadas por não se usar a informação nova revelada ao longo do processo. Finalmente, introduzimos a possibilidade do resultado social observado depender não só do investimento realizado, mas também da presença de choques. Nesse caso, tanto o governo quanto o município aumentam as suas metas de investimento na área social. Contratos lineares na presença de choques negativos fazem com que os municípios recebem menos recursos justamente em situações adversas. Para contornar esse problema, mostramos a importância da utilização de contratos com comparação de performance.
Resumo:
We analyze a common agency game under asymmetric information on the preferences of the non-cooperating principals in a public good context. Asymmetric information introduces incentive compatibility constraints which rationalize the requirement of truthfulness made in the earlier literature on common agency games under complete information. There exists a large class of differentiable equilibria which are ex post inefficient and exhibit free-riding. We then characterize some interim efficient equilibria. Finally, there exists also a unique equilibrium allocation which is robust to random perturbations. This focal equilibrium is characterized for any distribution of types.
Resumo:
The goal of this paper is to show the possibility of a non-monotone relation between coverage ans risk which has been considered in the literature of insurance models since the work of Rothschild and Stiglitz (1976). We present an insurance model where the insured agents have heterogeneity in risk aversion and in lenience (a prevention cost parameter). Risk aversion is described by a continuous parameter which is correlated with lenience and for the sake of simplicity, we assume perfect correlation. In the case of positive correlation, the more risk averse agent has higher cosr of prevention leading to a higher demand for coverage. Equivalently, the single crossing property (SCP) is valid and iplies a positive correlation between overage and risk in equilibrium. On the other hand, if the correlation between risk aversion and lenience is negative, not only may the SCP be broken, but also the monotonocity of contracts, i.e., the prediction that high (low) risk averse types choose full (partial) insurance. In both cases riskiness is monotonic in risk aversion, but in the last case there are some coverage levels associated with two different risks (low and high), which implies that the ex-ante (with respect to the risk aversion distribution) correlation between coverage and riskiness may have every sign (even though the ex-post correlation is always positive). Moreover, using another instrument (a proxy for riskiness), we give a testable implication to desentangle single crossing ans non single croosing under an ex-post zero correlation result: the monotonicity of coverage as a function os riskiness. Since by controlling for risk aversion (no asymmetric information), coverage is monotone function of riskiness, this also fives a test for asymmetric information. Finally, we relate this theoretical results to empirical tests in the recent literature, specially the Dionne, Gouruéroux and Vanasse (2001) work. In particular, they found an empirical evidence that seems to be compatible with asymmetric information and non single crossing in our framework. More generally, we build a hidden information model showing how omitted variables (asymmetric information) can bias the sign of the correlation of equilibrium variables conditioning on all observable variables. We show that this may be the case when the omitted variables have a non-monotonic relation with the observable ones. Moreover, because this non-dimensional does not capture this deature. Hence, our main results is to point out the importance of the SPC in testing predictions of the hidden information models.
Resumo:
Com o desenvolvimento e crescimento das tecnologias de informação e, em especial, a Internet, encontrar informação relevante e útil tornou-se uma tarefa complexa que envolve os aspectos computacionais dos Sistemas de Recuperação de Informação (SRIs) e os aspectos situacionais, psicológicos e cognitivos dos usuários. No entanto, há um desequilíbrio neste cenário pois o enfoque das pesquisas de recuperação de informação (RI) está extremamente voltado para a abordagem computacional. Decorrente deste viés, o aspecto central da recuperação de informação – o julgamento de relevância – tornou-se muito limitado e acarretou em baixo desempenho dos SRIs. Notando esta problemática, esta pesquisa teve como objetivo caracterizar os fatores de relevância empregados pelos usuários durante o processo de RI com o intuito de contribuir para a especificação de requisitos e avaliação daqueles sistemas. Assim, a pesquisa foi composta por duas etapas de avaliação denominadas ex ante e ex post para verificar a mudança de percepção em torno dos julgamentos de relevância. Para tanto, foi criado um instrumento de pesquisa para verificar os julgamentos de relevância que foram avaliados por 49 respondentes, obtendo um total de 238 objetos informacionais avaliados no momento ex ante e destes, 224 foram retornados (ex post). Os resultados encontrados mostraram que existe uma significativa mudança de percepção dos usuários nas duas medições, e demonstraram que os fatores de relevância obedecem a um processo decisório bem definido. Observou-se também que a utilidade e os aspectos cognitivos são as manifestações de relevância consideradas mais importantes pelos usuários e as demais servem para ter a noção de rejeição ou não do objeto informacional.
Resumo:
Granting economic development incentives (or “EDIs”) has become commonplace throughout the United States, but the efficiency of these mechanisms is generally unwarranted. Both the politicians granting, and the companies seeking, EDIs have incentives to overestimate the EDIs benefits. For politicians, ribbon–cutting ceremonies can be the highly desirable opportunity to please political allies and financiers, and the same time that they demonstrate to the population that they are successful in promoting economic growth – even when the population would be better off otherwise. In turn, businesses are naturally prone to seek governmental aid. This explains in part why EDIs often “fail” (i.e. don’t pay–off). To increase transparency and mitigate the risk of EDI failure, local and state governments across the country have created a number of accountability mechanisms. The general trait of these accountability mechanisms is that they apply controls to some of the sub–risks that underlie the risk of EDI failure. These sub–risks include the companies receiving EDIs not generating the expected number of jobs, not investing enough in their local facilities, not attracting the expected additional businesses investments to the jurisdiction, etc. The problem with such schemes is that they tackle the problem of EDI failure very loosely. They are too narrow and leave multiplier effects uncontrolled. I propose novel contractual framework for implementing accountability mechanisms. My suggestion is to establish controls on the risk of EDI failure itself, leaving its underlying sub–risks uncontrolled. I call this mechanism “Contingent EDIs”, because the EDIs are made contingent on the government achieving a preset target that benchmarks the risk of EDI failure. If the target is met, the EDIs will ex post kick in; if not, then the EDIs never kick in.