429 resultados para Prescott
Resumo:
Sweetness is generally a desirable taste, however consumers can be grouped into sweet likers and dislikers according to optimally preferred sucrose concentrations. Understanding the levels of sweetness in products that are acceptable and unacceptable to both consumer groups is important to product development and for influencing dietary habits. The concentrations at which sucrose decreases liking (the rejection threshold; RjT) in liquid and semi-solid matrices were investigated in this study. Thirty six consumers rated their liking of 5 sucrose aqueous solutions; this identified 36% sweet likers (SL) whose liking ratings increased with increasing sucrose and 64% sweet dislikers (SD) whose liking ratings decreased above 6% (w/v) sucrose. We hypothesized that SL and SD would have different RjT for sucrose in products. This was tested by preparing 8 levels of sucrose in orange juice and orange jelly and presenting each against the lowest level in forced choice preference tests. In orange juice, as sucrose increased from 33g/L to 75g/L the proportion of people preferring the sweeter sample increased in both groups. However, at higher sucrose levels, the proportion of consumers preferring the sweet sample decreased. For SD, a RjT was reached at 380 g/L, whereas a significant RjT for SL was not reached. RjT in jelly were not reached as the sweetness in orange jelly was significantly lower than for orange juice (p<0.001). Despite statistically significant differences in rated sweetness between SL and SD (p=0.019), the extent of difference between the two groups was minor. The results implied that sweet liker status was not substantially related to differences in sweetness perception. Self-reported dietary intake of carbohydrate, sugars and sucrose were not significantly affected by sweet liker status. However the failure to find an effect may be due to the small sample size and future studies within a larger, more representative population sample are justifiable from the results of this study.
Resumo:
Nesse trabalho defendemos a idéia de que por trás de vários fatores frequentemente apontados como causa do crescimento estão o grau de heterogeneidade das economias. Em particular instituições boas para o crescimento podem não ser adotadas se a sociedade for muito heterogênea. Para expor nosso ponto apresentamos vários modelos teóricos em que heterogeneidade tem um papel fundamental na adoção de reformas, e consequentemente no crescimento. Heterogeneidade nesses modelos aparece de várias formas, como heterogeneidade de educação ou heterogeneidade de dotações de terras. Uma caracterÌstica comum desses modelos é que as instituições políticas tipicamente são consideradas como constantes, o que levou autores como Daron Acemoglu a criticarem tal abordagem. Por essa razão, discutimos vários modelos de Acemoglu, Johnson e Robinson, e mostramos que nesses modelos, embora insitituições políticas estejam presentes, a razão básica do crescimento, ao contrório do que defendem os autores, é o grau de heterogeneidade e não instituições. Em outra linha de raciocínio mostramos que o modelo de Parente e Prescott de barreiras à entrada é viesado pela consideração inadequada do grau de heterogeneidade da economia. Quando este é devidamente levado em conta coloca-se em dívida se barreiras à entrada podem realmente explicar grandes diferenças de renda. Por fim, examinamos alguns exemplos históricos comumente citados para ilustrar a importância de instituições e mostramos como reinterpretá-los à luz da hipótese de heterogeneidade. Concluímos que o grau de heterogeneidade (ou homogeneidade) pode ser a causa mais fundamental das diferenças de renda entre os países.
Resumo:
This paper uses 1992:1-2004:2 quarterly data and two di§erent methods (approximation under lognormality and calibration) to evaluate the existence of an equity-premium puzzle in Brazil. In contrast with some previous works in the Brazilian literature, I conclude that the model used by Mehra and Prescott (1985), either with additive or recursive preferences, is not able to satisfactorily rationalize the equity premium observed in the Brazilian data. The second contribution of the paper is calling the attention to the fact that the utility function may not exist if the data (as it is the case with Brazilian time series) implies the existence of states in which high negative rates of consumption growth are attained with relatively high probability.
Resumo:
Esta dissertação de mestrado procura contribuir no debate sobre o desalinhamento cambial no Brasil, principalmente no período pós 1994. Para tanto, são apresentadas, respectivamente, revisões bibliográficas acerca de diferentes modelos de taxa de câmbio de equilíbrio e de diversas estimativas desta, a partir de modelos analíticos e metodologias econométricas diferentes. São analisadas, também, taxas de câmbio de equilíbrio estimadas para o Brasil por diversos autores. Por fim, é realizada uma estimativa para a taxa de câmbio real de equilíbrio para a economia brasileira para o período 1984-2000. Foi utilizado um modelo baseado em Montiel (1999), próprio para economias em desenvolvimento, estimado com dados trimestrais. As estimativas são feitas a partir dos coeficientes de longo prazo de um modelo de cointegração, onde as variáveis são transformadas pelo filtro de Hodrick-Prescott para que sejam obtidos os seus valores permanentes. Os resultados indicam que a evolução dos fundamentos da economia gerou uma tendência de redução do desalinhamento cambial no período pós 1994. Além disso, o coeficiente de correção de erros estimado foi compatível com o comportamento da taxa de câmbio após a liberalização do mercado de câmbio de janeiro de 1999.
Resumo:
Em 1985, Mehra e Prescott levantaram uma questão que até hoje não foi respondida de forma satisfatória: o prêmio de risco das ações americanas é muito maior do que poderia ser explicado pelo “paradigma neoclássico de finanças econômicas” (financial economics) representado pelo modelo C-CAPM. E, a partir de então, este problema não resolvido ficou conhecido como o “Equity Premium Puzzle” (EPP) ou o “Enigma do Prêmio (de risco) das Ações”. Este enigma estimulou a produção de uma série de artigos, dissertações e teses que tentaram ajustar os modelos intertemporais de utilidade esperada aos dados dos mercados financeiros. Dentro deste contexto, esta tese busca (i) revisar a evolução histórica da teoria dos modelos de maximização da utilidade intertemporal dos agentes, (ii) analisar os pressupostos e conceitos chaves desses modelos, (iii) propor um novo modelo que seja capaz de solucionar o EPP, (iv) aplicar este modelo proposto aos dados históricos anuais entre 1929 e 2004 e (v) validar a lógica deste modelo através das metodologias Mehra-Prescott e Hansen-Jagannathan. Esta tese faz uma crítica de que os estudos até aqui desenvolvidos tentaram explicar a dinâmica de um mercado financeiro altamente sofisticado, através de um modelo de economia não-monetária e de subsistência. Assim, a sua contribuição consiste na alteração desse pressuposto de uma economia de subsistência, considerando que a renda disponível do setor privado não seja integralmente consumida, mas que também possa ser poupada. Assumindo que as pessoas obtêm satisfação (utilidade) tanto pelo consumo atual como pela poupança atual (que será o consumo futuro), será deduzido que a utilidade marginal de consumir é igual à de poupar, em todo e qualquer período. Com base nisso, a utilidade marginal a consumir é substituída pela utilidade marginal de poupar dentro do modelo básico do C-CAPM. Para reforçar a idéia de que o modelo desta tese usa dados de poupança em vez de consumo, ao longo do trabalho ele será chamado de Sanving-CAPM, ou S-CAPM. Este novo modelo mostrou-se capaz de solucionar o EPP quando submetidas às abordagens Mehra-Prescott e Hansen-Jagannathan.
Resumo:
Segundo Sampaio (2002), os modelos intertemporais de equilíbrio começaram a ter a sua eficácia na determinação do retorno dos ativos questionada após a publicação do artigo de Mehra e Prescott em 1985. Tendo como objeto de análise os dados observados no mercado norte-americano, os autores não foram capazes de reproduzir a média histórica do prêmio do retorno das ações em relação ao retorno dos títulos públicos de curto prazo através de parâmetros comportamentais dentro de intervalos considerados plausíveis. Através das evidências, os autores, então, puderam verificar a necessidade de coeficientes exageradamente altos de aversão ao risco para equiparação do prêmio de risco histórico médio das ações norte-americanas, enigma que ficou conhecido como equity premium puzzle (EPP). Foi possível também a constatação de outro paradoxo: a necessidade de taxas de desconto intertemporais negativas para obtenção da média histórica da taxa de juros, o risk-free rate puzzle (RFP). Este trabalho tem como objetivo adaptar os dados do modelo proposto por Mehra e Prescott (2003) ao mercado brasileiro e notar se os puzzles apresentados anteriormente estão presentes. Testa-se o CCAPM com dados brasileiros entre 1995:1 e 2013:4 adotando preferências do tipo utilidade esperada e através da hipótese de log-normalidade conjunta dos retornos. Utiliza-se o método de calibração para avaliar se há EPP no Brasil. Em linha com alguns trabalhos prévios da literatura nacional, como Cysne (2006) e Soriano (2002) que mostraram a existência do puzzle nos períodos de 1992:1-2004:2 e 1980:1-1998:4, respectivamente, conclui-se que o modelo usado por Mehra e Prescott (2003) não é capaz de gerar o prêmio de risco observado na economia brasileira. Sampaio (2002), Bonomo e Domingues (2002) e Issler e Piqueira (2002), ao contrário, não encontram evidências da existência de um EPP brasileiro.
Resumo:
Esta tese contém dois capítulos, cada um lidando com a teoria e a história dos bancos e arranjos financeiros. No capítulo 1, busca-se extender uma economia Diamond-Dybvig com monitoramento imperfeito dos saques antecipados e realizar uma comparação do bem estar social em cada uma das alocações possíveis, como proposto em Presscott and Weinberg(2003). Esse monitoramento imperfeito é implementado a partir da comunicação indireta ( através de um meio de pagamento) entre os agentes e a máquina de depósitos e saques que é um agregado do setor produtivo e financeiro. A extensão consiste em estudar alocações onde uma fração dos agentes pode explorar o monitoramento imperfeito e fraudar a alocação contratada ao consumirem mais cedo além do limite, usando múltiplos meios de pagamento. Com a punição limitada no período de consumo tardio, essa nova alocação pode ser chamada de uma alocação separadora em contraste com as alocações agregadoras onde o agente com habilidade de fraudar é bloqueado por um meio de pagamento imune a fraude, mas custoso, ou por receber consumo futuro suficiente para tornar a fraude desinteressante. A comparação de bem estar na gama de parâmetros escolhida mostra que as alocações separadoras são ótimas para as economias com menor dotação e as agregadoras para as de nível intermediário e as ricas. O capítulo termina com um possível contexto histórico para o modelo, o qual se conecta com a narrativa histórica encontrada no capítulo 2. No capítulo 2 são exploradas as propriedade quantitativas de um sistema de previsão antecedente para crises financeiras, com as váriaveis sendo escolhidas a partir de um arcabouço de ``boom and bust'' descrito mais detalhadamente no apêndice 1. As principais variáveis são: o crescimento real nos preços de imóveis e ações, o diferencial entre os juros dos títulos governamentais de 10 anos e a taxa de 3 meses no mercado inter-bancário e o crescimento nos ativos totais do setor bancário. Essas variáveis produzem uma taxa mais elevada de sinais corretos para as crises bancárias recentes (1984-2008) do que os sistemas de indicadores antecedentes comparáveis. Levar em conta um risco de base crescente ( devido à tendência de acumulação de distorções no sistema de preços relativos em expansões anteriores) também provê informação e eleva o número de sinais corretos em países que não passaram por uma expansão creditícia e nos preços de ativos tão vigorosa.
Resumo:
This paper considers model worlds in which there are a continuum of individuaIs who form finite sized associations to undertake joint activities. We show that if there are a finite set of types and the commodity space contains lotteries, then the c1assicaI equilibrium results on convex economies can be reinterpreted to apply. Furthermore, in this lottery economy deterministic aIlocations (that is, degenerate lotteries) are generally not Pareto optimal, nor are they equilibria. In the interests of making the model seem more "natural," we show that the set of equilibria in a decentraIization in which individuaIs first gamble over vaIue transfers and then trade commodities in a deterministic competitive market economy are equivalent to those of our competi tive economy with a lottery commodity space.
Resumo:
As empresas de capital aberto, listadas em bolsa de valores, são naturalmente aquelas que vieram apresentando retornos superiores perante às demais empresas do seu setor. Assim, será que o viés de seleção desses ativos in uencia sigini cativamente no resultado do Equity Premium Puzzle, primordialmente lançado por Mehra and Prescott (1985)? É essa pergunta que este trabalho investiga e conclui que, sim, de fato pode haver uma in uência desse viés em explicar o Puzzle . Para isso, iremos gerar uma economia cujos ativos, por hipótese, sejam preci cados de acordo com o fator estocástico de desconto (SDF) baseado em consumo, ou seja, os modelos conhecidos como CCAPM (Consumption Capital Asset Pricing Model). Assim, essa economia será gerada via simulação de Monte Carlo, de forma que iremos construir um índice benchmark dessa economia, nos quais participariam apenas os ativos que foram historicamente mais rentáveis. Adota-se tal metodologia em paralelo à forma como os reais benchmarks são construidos (S&P 500, Nasdaq, Ibovespa), em que neles participam, basicamente, as empresas de capital aberta mais negociadas em Bolsa de Valores, que são, comumente, as empresas historicamente mais rentáveis da economia. Em sequência, iremos realizar a estimação via GMM (Generalized Method of Moments) de um dos parâmetros de interesse de uma economia CCAPM: o coe ciente de aversão relativa ao risco (CRRA). Finalmente, os resultados obtidos são comparados e analisados quanto ao viés de estimação.
Resumo:
CMS is a general purpose experiment, designed to study the physics of pp collisions at 14 TeV at the Large Hadron Collider ( LHC). It currently involves more than 2000 physicists from more than 150 institutes and 37 countries. The LHC will provide extraordinary opportunities for particle physics based on its unprecedented collision energy and luminosity when it begins operation in 2007. The principal aim of this report is to present the strategy of CMS to explore the rich physics programme offered by the LHC. This volume demonstrates the physics capability of the CMS experiment. The prime goals of CMS are to explore physics at the TeV scale and to study the mechanism of electroweak symmetry breaking - through the discovery of the Higgs particle or otherwise. To carry out this task, CMS must be prepared to search for new particles, such as the Higgs boson or supersymmetric partners of the Standard Model particles, from the start- up of the LHC since new physics at the TeV scale may manifest itself with modest data samples of the order of a few fb(-1) or less. The analysis tools that have been developed are applied to study in great detail and with all the methodology of performing an analysis on CMS data specific benchmark processes upon which to gauge the performance of CMS. These processes cover several Higgs boson decay channels, the production and decay of new particles such as Z' and supersymmetric particles, B-s production and processes in heavy ion collisions. The simulation of these benchmark processes includes subtle effects such as possible detector miscalibration and misalignment. Besides these benchmark processes, the physics reach of CMS is studied for a large number of signatures arising in the Standard Model and also in theories beyond the Standard Model for integrated luminosities ranging from 1 fb(-1) to 30 fb(-1). The Standard Model processes include QCD, B-physics, diffraction, detailed studies of the top quark properties, and electroweak physics topics such as the W and Z(0) boson properties. The production and decay of the Higgs particle is studied for many observable decays, and the precision with which the Higgs boson properties can be derived is determined. About ten different supersymmetry benchmark points are analysed using full simulation. The CMS discovery reach is evaluated in the SUSY parameter space covering a large variety of decay signatures. Furthermore, the discovery reach for a plethora of alternative models for new physics is explored, notably extra dimensions, new vector boson high mass states, little Higgs models, technicolour and others. Methods to discriminate between models have been investigated. This report is organized as follows. Chapter 1, the Introduction, describes the context of this document. Chapters 2-6 describe examples of full analyses, with photons, electrons, muons, jets, missing E-T, B-mesons and tau's, and for quarkonia in heavy ion collisions. Chapters 7-15 describe the physics reach for Standard Model processes, Higgs discovery and searches for new physics beyond the Standard Model.
Resumo:
Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq)
Resumo:
Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq)
Resumo:
Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq)
Search for supersymmetry in pp collisions at 7 TeV in events with jets and missing transverse energy
Resumo:
Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq)
Resumo:
Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq)