20 resultados para Pseudo-Convexity
em Repositório digital da Fundação Getúlio Vargas - FGV
Resumo:
Several works in the shopping-time and in the human-capital literature, due to the nonconcavity of the underlying Hamiltonian, use Örst-order conditions in dynamic optimization to characterize necessity, but not su¢ ciency, in intertemporal problems. In this work I choose one paper in each one of these two areas and show that optimality can be characterized by means of a simple aplication of Arrowís (1968) su¢ ciency theorem.
Resumo:
The present article initiates a systematic study of the behavior of a strictly increasing, C2 , utility function u(a), seen as a function of agents' types, a, when the set of types, A, is a compact, convex subset of iRm . When A is a m-dimensional rectangle it shows that there is a diffeomorphism of A such that the function U = u o H is strictly increasing, C2 , and strictly convexo Moreover, when A is a strictly convex leveI set of a nowhere singular function, there exists a change of coordinates H such that B = H-1(A) is a strictly convex set and U = u o H : B ~ iR is a strictly convex function, as long as a characteristic number of u is smaller than a characteristic number of A. Therefore, a utility function can be assumed convex in agents' types without loss of generality in a wide variety of economic environments.
Resumo:
This paper describes properties of upper semi-continuous homothetic preferences. First we give conditions for the existence of an upper semi-continuous representation which is homogeneous of degree one. Then we show that with the additional assumptions of monotonicity or strict convexity, the preference is continuous. Several counterexamples illustrate the tightness of the results.
Resumo:
In this note, in an independent private values auction framework, I discuss the relationship between the set of types and the distribution of types. I show that any set of types, finite dimensional or not, can be extended to a larger set of types preserving incentive compatibility constraints, expected revenue and bidder’s expected utilities. Thus for example we may convexify a set of types making our model amenable to the large body of theory in economics and mathematics that relies on convexity assumptions. An interesting application of this extension procedure is to show that although revenue equivalence is not valid in general if the set of types is not convex these mechanism have underlying distinct allocation mechanism in the extension. Thus we recover in these situations the revenue equivalence.
Resumo:
A abordagem do Value at Risk (VAR) neste trabalho será feita a partir da análise da curva de juros por componentes principais (Principal Component Analysis – PCA). Com essa técnica, os movimentos da curva de juros são decompostos em um pequeno número de fatores básicos independentes um do outro. Entre eles, um fator de deslocamento (shift), que faz com que as taxas da curva se movam na mesma direção, todas para cima ou para baixo; de inclinação (twist) que rotaciona a curva fazendo com que as taxas curtas se movam em uma direção e as longas em outra; e finalmente movimento de torção, que afeta vencimentos curtos e longos no mesmo sentido e vencimentos intermediários em sentido oposto. A combinação destes fatores produz cenários hipotéticos de curva de juros que podem ser utilizados para estimar lucros e perdas de portfolios. A maior perda entre os cenários gerados é uma maneira intuitiva e rápida de estimar o VAR. Este, tende a ser, conforme verificaremos, uma estimativa conservadora do respectivo percentual de perda utilizado. Existem artigos sobre aplicações de PCA para a curva de juros brasileira, mas desconhecemos algum que utilize PCA para construção de cenários e cálculo de VAR, como é feito no presente trabalho.Nesse trabalho, verificaremos que a primeira componente principal produz na curva um movimento de inclinação conjugado com uma ligeira inclinação, ao contrário dos resultados obtidos em curvas de juros de outros países, que apresentam deslocamentos praticamente paralelos.
Resumo:
Há forte evidência que os retornos das séries financeiras apresentam caudas mais pesadas que as da distribuição normal, principalmente em mercados emergentes. No entanto, muitos modelos de risco utilizados pelas instituições financeiras baseiam-se em normalidade condicional ou não condicional, reduzindo a acurácia das estimativas. Os recentes avanços na Teoria de Valores Extremos permitem sua aplicação na modelagem de risco, como por exemplo, na estimação do Valor em Risco e do requerimento de capital. Este trabalho verifica a adequação de um procedimento proposto por McNeil e Frey [1999] para estimação do Valor em Risco e conseqüente requerimento de capital às principais séries financeiras de retornos do Brasil. Tal procedimento semi-paramétrico combina um modelo GARCH ajustado por pseudo máxima verossimilhança para estimação da volatilidade corrente com a Teoria de Valores Extremos para estimação das caudas da distribuição das inovações do modelo GARCH. O procedimento foi comparado através de backtestings com outros métodos mais comuns de estimação de VaR que desconsideram caudas pesadas das inovações ou a natureza estocástica da volatilidade. Concluiu-se que o procedimento proposto por McNeil e Frey [1999] mostrou melhores resultados, principalmente para eventos relacionados a movimentos negativos nos mercados . Futuros trabalhos consistirão no estudo de uma abordagem multivariada de grandes dimensões para estimação de VaR e requerimento de capital para carteiras de investimentos.
Resumo:
When the joint assumption of optimal risk sharing and coincidence of beliefs is added to the collective model of Browning and Chiappori (1998) income pooling and symmetry of the pseudo-Hicksian matrix are shown to be restored. Because these are also the features of the unitary model usually rejected in empirical studies one may argue that these assumptions are at odds with evidence. We argue that this needs not be the case. The use of cross-section data to generate price and income variation is based Oil a definition of income pooling or symmetry suitable for testing the unitary model, but not the collective model with risk sharing. AIso, by relaxing assumptions on beliefs, we show that symmetry and income pooling is lost. However, with usual assumptions on existence of assignable goods, we show that beliefs are identifiable. More importantly, if di:fferences in beliefs are not too extreme, the risk sharing hypothesis is still testable.
Resumo:
This paper argues that monetary models can and usually present the phenomenon of over-banking; that is, the market solution of the model presents a size of the banking sector which is higher than the social optima. Applying a two sector monetary model of capital accumulation in presence of a banking sector, which supplies liquidity services, it is shown that the rise of a tax that disincentives the acquisition of the banking service presents the following impacts on welfare. If the technology is the same among the sectors, the tax increases welfare; otherwise, steady-state utility increase if the banking sector is labor-intensive compared to the real sector. Additionally, it is proved that the elevation of inflation has the following impact on the economy's equilibrium: the share on the product of the banking sector increases; the product and the stock of capital increases or reduces whether the banking sector is capital-intensive or laborintensive; and, the steady-state utility reduces. The results were derived under a quite general set up - standard hypothesis regarding concavity of preference, convexity of technology, and normality of goods - were required.
Resumo:
As pesquisas, no campo de estudos organizacionais, têm mostrado limitada capacidade para a compreensão e análise do complexo tema "fraudes corporativas", pois negligenciam o fenômeno como um processo (sequência de atos), tratando-o como um evento (ASHFORTH et al., 2008), menosprezando que cada tipo de fraude requer um conjunto de recursos, esquemas cognitivos e contextos (BAUCUS, 1994; MACLEAN, 2008; MISANGYI; WEAVER; ELMS, 2008). Eles não permitem responder à pergunta “Como a fraude ocorre nas corporações?”. Para tal é necessário identificar e analisar os fatores que permitem a fraude surgir e se sustentar. O presente trabalho, com intuito de identificar os elementos característicos do fenômeno da fraude e como se criou um contexto favorável para ela, estudou dois casos emblemáticos ocorridos no Brasil (Boi Gordo e Banco Santos). A análise, feita com uma abordagem de pesquisa baseada na grounded theory, com análise de documentos e de discursos, consubstanciou-se em um arcabouço teórico substantivo para o contexto de fraudes corporativas financeiras contra terceiros. O trabalho analisou o movimento do fenômeno, suas origens, seu desenvolvimento e consolidação e sua crise, identificando as variáveis antecedentes (de predisposição e oportunidade), bem como os recursos substantivos e simbólicos usados no desenvolvimento da fraude; evidenciando a forma como os recursos se relacionaram para criar a lógica institucional fraudulenta e; integrando os fatores antecedentes à operacionalização da fraude, de forma apreender os elementos constitutivos do processo. O esforço teórico e empírico aqui desenvolvido, resultou numa proposta inicial de modelo interpretativo, com a identificação de novos elementos teóricos. Evidenciou "o negócio baseado na confiança" como categoria central e mostrou de que modo esse elemento interage com outras categorias e propriedades. Entre os novos elementos estão os aspectos da vítima, a dialética centralização do comando e descentralização do negócio em várias empresas (com uso de "laranjas") e o uso de aspectos culturais como oportunidade para a fraude. Evidenciou ainda de que maneira os recursos substantivos usados por empresas idôneas ganharam novos significados, por meio de esquemas cognitivos e, permitiu a identificação de três momentos no processo: "origem", "pseudo sintonia" e "espiral". A dimensão multifacetada da fraude corporativa foi evidenciada, inclusive fazendo a ligação com a dimensão social (DEBORD, 1997; BOORSTIN, 1992; GOFFMAN, 1959; BAUDRILLARD, 1991; BOURDIEU, 2007). A tese constitui uma contribuição para a compreensão ampliada do fenômeno, numa perspectiva integrativa, interacionista e processual, que pode ser replicada em futuras pesquisas para construir um arcabouço robusto e generalizável em outros contextos substantivos ou ainda para a teoria formal de fraudes corporativas.
Resumo:
Ensinar ciência e, acima de tudo, ensinar o método científico e desenvolver a atitude crítica do estudante. Isto significa substituir a visão da ciência como uma coleção de fatos e teorias definitivamente estabelecidos, pela visão da ciência como um conhecimento racional - Porque crítico -, conjectural, provisório, sempre capaz de ser questionado e corrigido. Significa também opor à visão da ciência como uma representação completa e perfeita de fenômenos diretamente observáveis, a visão da ciência como uma reconstrução idealizada e parcial da realidade, que explica o visível pelo invisível. Nessa linha de raciocínio, devemos opor à idéia de uma observação pura e imparcial dos fatos, a ideia da observação guiada por hipóteses e teorias. Ensinar o meto do cientifico é questionar a ideia de que descobrimos e verificamos hipóteses através de procedimentos indutivos, substituindo-a pela ideia de que inventamos conjecturas ousadas, surgidas de nossa imaginação. Essas conjecturas, contudo, deverão ser testadas o mais severamente possível, através de tentativas de refutação que façam uso de experimentos controlados. No lugar da ilusória busca de teorias verificáveis, verdadeiras -ou pelo menos cada vez mais prováveis devemos buscar teorias de maior refutabilidade, cada vez mais amplas, precisas, profundas, de maior grau de corroboração e, talvez, mais próximas da verdade. Finalmente, ensinar o método científico significa também criticar cada uma das visões alternativas de ciência, propondo novos critérios para avaliar hipóteses e teorias científicas. É desnecessário dizer que estes critérios, por sua vez, devem também ser criticados, visto que a ausência de discussão crítica e a aceitação passiva e dogmática de um conjunto de ideias ou teorias e a não ciência, a pseudociência, enfim, a negação do espírito crítico e da racionalidade do homem.
Resumo:
A partir de três conceitos fundamentais para a compreensão da dinâmica das relações familiares: a pseudo-mutualidade, elaborada por Wynne, nos Estados Unidos, o postulado fusional, desenvolvido por Hochmann, na França e a mistificação, por Laing, na Inglaterra, investigou-se a estrutura de relações familiares em um texto teatral brasileiro, atual, "Do Fundo do Lago Escuro", de Domingos de Oliveira. Os três conceitos acima citados, fundamentais para a compreensão da dinâmica das relações familiares dentro de uma perspectiva sistêmica (não-psicanalítica),estão interrelacionados entre si e surgiram apartir de estudos realizados com famílias com um membro esquizofrênico, em três diferentes paises. Buscou-se estabelecer os pontos de contato, as divergências metodológicas, teóricas e ideológicas e os aspectos complementares dos referidos conceitos, bem como verificar sua aplicabilidade a uma estrutura familiar considerada representativa de certa parcela da sociedade brasileira, em determinada ocasião. Concluiu-se pela aplicabilidade dos conceitos, desenvolvidos em três diferentes países, a uma dada estrutura familiar brasileira em um dado momento histórico, e pela aplicabilidade dos conceitos a um grupo familiar que não apresenta, através de qualquer de seus membros, um quadro esquizofrênico manifesto.
Resumo:
The hypothesis that child labor impacts future income generation negatively, for it harms the formal acquisition of education, is widely accepted by the existing literature on this issue. However, some researchers agree that labor might be beneficial to teenagers once they can develop skills, acquire job experience, or even help them to afford their own education acquisition. Thus, the main goal of this study is to assess if there is an age which the negative impact of the early access to the labor market over income and the conclusion of high school, during the adulthood of Brazilian people, becomes positive. To do so, PNADs (Pesquisas Nacionais de Amostra de Domicílios), a National Census of Household Samples, issues 1992 to 2011, were utilized plus the employment of an econometric technique called pseudo-panel. For this analysis, generations of people born between 1982 and 1991 were observed from the ages 10 to 17 (child labor) and from the ages 20 to 29 (conclusion of high-school & income). The results show that starting at the age of 15, the negative effect of an early access to the labor market over income, between ages 20-29, becomes positive. As per high-school, it was observed that accessing the labor market before the age 15 diminishes the probability for an individual to conclude high school before the age 21. From this age on, labor does not have a negative impact anymore. The second goal of this study is to assess how much of the reduction of the child labor occurrence in Brazil for the past years is due to changes of economic and demographic characteristics of children and families. For these analyses PNADs - National Census of Household Samples, issues 2003 to 2011, were employed plus the methodology of decomposition that divides the variation of child labor into 2 components: (a) changing of the probability of children with the same characteristics (intragroup) to start working – access labor market & (b) changing of the distribution of characteristics (intergroups). The results show that the reduction of the child labor occurrence is due, mainly, to changes on the probabilities. In general terms, the occurrence of child labor took place, more significantly, among individuals of the ages 15 to 17 & household heads with less education. Besides the characteristics mentioned, the reduction between non-white individuals was also significant among individuals from 4-member families. The results show that the reduction of child labor took place, mainly, among children and teenagers from non-white and poor families.
Resumo:
This paper presents new indices for measuring the industry concentration. The indices proposed (C n ) are of a normative type because they embody (endogenous) weights matching the market shares of the individual firms to their Marshallian welfare shares. These indices belong to an enlarged class of the Performance Gradient Indexes introduced by Dansby&Willig(I979). The definition of Cn for the consumers allows a new interpretation for the Hirschman-Herfindahl index (H), which can be viewed as a normative index according to particular values of the demand parameters. For homogeneous product industries, Cn equates H for every market distribution if (and only if) the market demand is linear. Whenever the inverse demand curve is convex (concave), H underestimates( overestimates) the industry concentration measured by the normative indexo For these industries, H overestimates (underestimates) the concentration changes caused by market transfers among small firms if the inverse demand curve is convex(concave) and underestimates( overestimates) it when such tranfers benefit a large firm, according to the convexity (or the concavity) of the demand curve. For heterogeneous product industries, an explicit normative index is obtained with a market demand derived from a quasi-linear utilility function. Under symmetric preferences among the goods, the index Cn is always greater than or equal the H-index. Under asymmetric assumptions, discrepancies between the firms' market distribution and the differentiationj substitution distributions among the goods, increase the concentration but make room for some horizontal mergers do reduce it. In particular, a mean preserving spread of the differentiation(substitution) increases(decreases) the concentration only if the smaller firms' goods become more(less) differentiated(substitute) w.r.t. the other goods. One important consequence of these results is that the consumers are benefitted when the smaller firms are producing weak substitute goods, and the larger firms produce strong substitute goods or face demand curves weakly sensitive to their own prices.