7 resultados para Determinant-based sparseness measure
em Repositório digital da Fundação Getúlio Vargas - FGV
Resumo:
By mixing together inequalities based on cyclical variables, such as unemployment, and on structural variables, such as education, usual measurements of income inequality add objects of a di§erent economic nature. Since jobs are not acquired or lost as fast as education or skills, this aggreagation leads to a loss of relavant economic information. Here I propose a di§erent procedure for the calculation of inequality. The procedure uses economic theory to construct an inequality measure of a long-run character, the calculation of which can be performed, though, with just one set of cross-sectional observations. Technically, the procedure is based on the uniqueness of the invariant distribution of wage o§ers in a job-search model. Workers should be pre-grouped by the distribution of wage o§ers they see, and only between-group inequalities should be considered. This construction incorporates the fact that the average wages of all workers in the same group tend to be equalized by the continuous turnover in the job market.
Resumo:
Este trabalho está dividido em dois ensaios. O primeiro ensaio examina aspectos da liquidez do mercado secundário de títulos públicos no Brasil no período 2003 a 2006 e os determinantes do spread de compra e venda no mercado secundário de LTN - Letra do Tesouro Nacional no período 2005 a 2006. Os spreads foram calculados com base em dados diários de alta freqüência, para períodos de 30 minutos e de um dia. Em linhas gerais, a liquidez é um determinante importante no cálculo do spread. Especificamente os spreads diminuem quando os volumes ofertados aumentam. No caso dos prazos de vencimento, os spreads aumentam quando os prazos se ampliam. LTNs com prazos de vencimentos até 30 dias apresentaram spreads de 1 centavo de reais (1.89 bp) enquanto que LTNs com prazos acima de dois anos apresentaram spreads médios em torno de 54 centavos de reais (3.84 bp) para intervalos de 30 minutos e 81 centavos de reais (5.72 bp) para intervalos de um dia. Os testes econométricos foram realizados com base em um modelo apresentado por Chakravarty e Sarkar (1999) e aplicado ao mercado americano de bonds no período de 1995 e 1997. Os testes foram feitos utilizando-se a técnica do Método dos Momentos Generalizados (GMM). Os resultados confirmam o spread de compra e venda como medida importante no acompanhamento da liquidez. O segundo ensaio compara aspectos da liquidez e da microestrutura do mercado de títulos públicos em alguns paises como Brasil, Chile, México, Coréia, Singapura, Polônia e Estados Unidos. A análise utiliza algumas dimensões da microestrutura como a liquidez do mercado secundário (spread de compra e venda, giro do estoque de títulos e vencimentos mais negociados), os custos de eficiência, a estrutura e transparência do mercado primário e secundário e, por último, a segurança do mercado. O objetivo é comparar as características e o funcionamento dos mercados secundários desses paises e, confrontar com a realidade do mercado brasileiro face ao desenvolvimento da microestrutura. Apesar da falta de alongamento dos prazos dos títulos públicos, o mercado secundário no Brasil apresenta aspectos da microestrutura semelhantes aos paises em consideração o que sugere a existência de outros fatores fora a microestrutura que limitam o aumento dos prazos. Os resultados do primeiro ensaio ajudam nas comparações dos demais paises. Como resultado, encontramos que embora a liquidez do mercado secundário de títulos públicos no Brasil concentra-se em papéis de prazo menor, este fato provavelmente não se deve a questões de microestrutura do mercado.
Resumo:
This paper develops nonparametric tests of independence between two stationary stochastic processes. The testing strategy boils down to gauging the closeness between the joint and the product of the marginal stationary densities. For that purpose, I take advantage of a generalized entropic measure so as to build a class of nonparametric tests of independence. Asymptotic normality and local power are derived using the functional delta method for kernels, whereas finite sample properties are investigated through Monte Carlo simulations.
Resumo:
A questão do Equilíbrio Competitivo é um tema importante da economia dos esportes profissionais nos Estados Unidos e na Europa. Muitas pesquisas foram feitas para estabelecer os critérios mais relevantes para avaliar a competitividade das ligas profissionais de futebol. Esta pesquisa analisou a relevância do Equilíbrio Competitivo como determinante da competitividade comparando o Brasileirão Série A com as nove principais ligas na Europa (Bélgica, Inglaterra, Alemanha, Holanda, França, Itália, Portugal, Escócia e Espanha). A competitividade é a capacidade de uma empresa (um clube) ou de uma indústria de enfrentar a concorrência efetiva ou potencial. A medida da competitividade deve levar em consideração uma série de fatores importantes como a qualidade e a relação qualidade/preço, a gestão de recursos humanos e a organização empresarial. Esse trabalho visa demonstrar que, apesar da incerteza do resultado ter sido considerado por muito tempo como um fator positivo de atratividade/interesse dos fãs nos esportes, um campeonato equilibrado poderia ter um efeito insignificante, para não dizer desprezível sobre a competitividade das ligas de futebol a longo prazo. Os resultados mostraram que o aumento do Equilíbrio Competitivo pode ser relevante para os campeonatos mais fracos (Bélgica, Holanda, Portugal, Escócia), mas nao dos cincos melhores (Alemanha, Espanha, França, Inglaterra, Itália). Consequentemente, o Equilíbrio Competitivo deve ser contemplado como uma variável desprezível quanto à competitividade das ligas de futebol, apesar do interesse crescente pelo conceito na literatura. Baseado principalmente em pesquisas de Dell'Osso e Symanski (1991) e de Oughton e Michie (2004), o índice HHI (Herfindahl-Hirschman) tem sido utilizado para determinar o nível de concentração de 11 ligas de futebol estudadas. Uma revisão da literatura sobre administração de futebol e esportes foi realizada.
Resumo:
Lucas (2000) has ShO\nl t hat Baile,\"'s formula for t hc \\'elfare costs of inflatioIl caIl bc rcgardpd as an approximation to t hc gcneral-equilibriuIll IllCaSllH'S \\"hich emerge from thc Sidrauski anrl the shopping-time models, In this paper \\'c shm\' that Baile~"s mcaSllrc can bc cxactly obtairlf'd in tllf' Siclrauski geIleral-equilibri1lIn framp\\'ork under the assUIllption of quasilinpar prefpreIlC'cs, The rpslllt. based on ",heter or not \\'Palt h pffpcts are incorporatccl into t hp analysis, is also helpful in darif\'ing \\'hy Lucas' Illeasurp clerin'd from the Siclrauski model turns 01lt to be aIl upper bOllIlcl to Bailp~"s, T,,'o eXaInplcs arp used to illustratc t he main C'ondusions,
Resumo:
The past decade has wítenessed a series of (well accepted and defined) financial crises periods in the world economy. Most of these events aI,"e country specific and eventually spreaded out across neighbor countries, with the concept of vicinity extrapolating the geographic maps and entering the contagion maps. Unfortunately, what contagion represents and how to measure it are still unanswered questions. In this article we measure the transmission of shocks by cross-market correlation\ coefficients following Forbes and Rigobon's (2000) notion of shift-contagion,. Our main contribution relies upon the use of traditional factor model techniques combined with stochastic volatility mo deIs to study the dependence among Latin American stock price indexes and the North American indexo More specifically, we concentrate on situations where the factor variances are modeled by a multivariate stochastic volatility structure. From a theoretical perspective, we improve currently available methodology by allowing the factor loadings, in the factor model structure, to have a time-varying structure and to capture changes in the series' weights over time. By doing this, we believe that changes and interventions experienced by those five countries are well accommodated by our models which learns and adapts reasonably fast to those economic and idiosyncratic shocks. We empirically show that the time varying covariance structure can be modeled by one or two common factors and that some sort of contagion is present in most of the series' covariances during periods of economical instability, or crisis. Open issues on real time implementation and natural model comparisons are thoroughly discussed.
Resumo:
Although research on Implicit Leadership Theories (ILT) has put great effort on determining what attributes define a leader prototype, little attention has been given to understanding the relative importance of each of these attributes in the categorization process by followers. Knowing that recognition-based leadership perceptions are the result of the match between followers’ ILTs and the perceived attributes in their actual leaders, understanding how specific prototypical leader attributes impact this impression formation process is particularly relevant. In this study, we draw upon socio-cognitive theories to explore how followers cognitively process the information about a leader’s attributes. By using Conjoint Analysis (CA), a technique that allows us to measure an individual’s trade-offs when making choices about multi-attributed options, we conducted a series of 4 studies with a total of 879 participants. Our results demonstrate that attributes’ importance for individuals’ leadership perceptions formation is rather heterogeneous, and that some attributes can enhance or spoil the importance of other prototypical attributes. Finally, by manipulating the leadership domain, we show that the weighting pattern of attributes is context dependent, as suggested by the connectionist approach to leadership categorization. Our findings also demonstrate that Conjoint Analysis can be a valuable tool for ILT research.