19 resultados para anistropic growth constitutive equations mixture theory poroelasticity rational thermodynamics
em Repositório digital da Fundação Getúlio Vargas - FGV
Resumo:
Latin America is the region that bears the highest rates of inequality in the world. Deininger and Squire (1996) showed that Latin American countries achieved only minor reductions in inequality between 1960 and 1990. On the other hand, East Asian countries, recurrently cited in recent literature on this issue, have significantly narrowed the gap in income inequality, while achieving sustained economic growth. These facts have triggered a renewed discussion on the relationship between income inequality and economic growth. According to the above literature, income inequality could have an adverse effect on countries’ growth rates. The main authors who spouse this line of thinking are Persson and Tebellini (1994), Alesina and Rodrik (1994), Perotti (1996), Bénabou (1996), and Deininger and Squire (1996, 1998). More recently, however, articles were published that questioned the evidence presented previously. Representatives of this new point of view, namely Li and Zou (1998), Barro (1999), Deininger and Olinto (2000) and Forbes (2000), believe that the relation between these variables can be positive, i.e., income inequality can indeed foster economic growth. Using this literature as a starting point, this article seeks to evaluate the relation between income inequality and economic growth in Latin America, based on a 13-country panel, from 1970 to 1995. After briefly reviewing the above articles, this study estimates the per capita GDP and growth rate equations, based on the neoclassical approach for economic growth. It also estimates the Kuznets curve for this sample of countries. Econometric results are in line with recent work conducted in this area – particularly Li and Zou (1998) and Forbes (2000) – and confirm the positive relation between inequality and growth, and also support Kuznets hypothesis.
Resumo:
A teoria econômica recoloca, na atualidade, o tema do crescimento econômico após um longo período dedicado aos problemas de estabilização e equilíbrio fiscal. Na falta de um novo sistema conceitual, os modelos de crescimento estão buscando as categorias centrais de análise nos modelos teóricos do passado, particularmente na teoria do desenvolvimento econômico. Nesse sentido, são retomados conceitos como rendimentos crescentes, big push, economias de escala, que foram desenvolvidos por autores como Allyn Young, P. Rosenstein-Rodan, Ragnar Nurkse e outros expoentes da teoria do desenvolvimento dos anos 50. Nesta pesquisa, pretendo reconstituir os principais modelos de crescimento arquitetados por esses autores, analisar sua influência sobre o Modelo Brasileiro de Desenvolvimento e verificar de que forma essas categorias econômicas estão sendo recuperadas pelos novos modelos de crescimento da atualidade.
Resumo:
The Schumpelerian model of endogeno~s growlh is generalized with lhe introduction of stochastic resislance. by agenls other Ihan producers. to lhe innovations which drive growth. This causes a queue to be formcd of innovations, alrcady discovered, bUI waiting to be adopled~ A slationary stochastic equilibrium (SSE) is obtained when the queue is stable~ It is shown that in the SSE, such resistance will always reduce lhe average growth iate hut it may increa~e wclfare in certain silualions. In an example, Ihis is when innovatiuns are small anti monopoly power great. The cont1icl hetween this welfare motive for resistance and those of rent-seeking innovalors.may well explain why growth rates differ.
Resumo:
This paper shows that a competitive equilibrium model, where a representative agent maximizes welfare, expectations are rational and markets are in equilibrium can account for several hyperinflation stylized facts. The theory is built by combining two hypotheses, namely, a fiscal crisis that requires printing money to finance an increasing public deficit and a predicted change in an unsustainable fiscal regime.
Resumo:
The initial endogenous growth models emphasized the importance of externaI effects in explaining sustainable growth across time. Empirically, this hypothesis can be confirmed if the coefficient of physical capital per hour is unity in the aggregate production function. Although cross-section results concur with theory, previous estimates using time series data rejected this hypothesis, showing a small coefficient far from unity. It seems that the problem lies not with the theory but with the techniques employed, which are unable to capture low frequency movements in high frequency data. This paper uses cointegration - a technique designed to capture the existence of long-run relationships in multivariate time series - to test the externalities hypothesis of endogenous growth. The results confirm the theory' and conform to previous cross-section estimates. We show that there is long-run proportionality between output per hour and a measure of capital per hour. U sing this result, we confmn the hypothesis that the implied Solow residual can be explained by government expenditures on infra-structure, which suggests a supply side role for government affecting productivity and a decrease on the extent that the Solow residual explains the variation of output.
Resumo:
Initial endogenous growth models emphasized the importance of external effects and increasing retums in explaining growth. Empirically, this hypothesis can be confumed if the coefficient of physical capital per hour is unity in the aggregate production function. Previous estimates using time series data rejected this hypothesis, although cross-country estimates did nol The problem lies with the techniques employed, which are unable to capture low-frequency movements of high-frequency data. Using cointegration, new time series evidence confum the theory and conform to cross-country evidence. The implied Solow residual, which takes into account externaI effects to aggregate capital, has its behavior analyzed. The hypothesis that it is explained by government expenditures on infrasttucture is confIrmed. This suggests a supply-side role for government affecting productivity.
Resumo:
Este estudo busca identificar e analisar de que forma gestores de instituições financeiras percebem o uso da intuição no processo decisório. Busca, também, identificar o grau de importância que é dada por esses gestores ao conhecimento intuitivo, partindo da suposição de que gestores bancários percebem e utilizam-se do conhecimento intuitivo, além do conhecimento racional nas suas tomadas de decisão. Para tanto, fez-se o levantamento da teoria da decisão e estudos sobre intuição na literatura disponível. O trabalho apresenta uma pesquisa de abordagem qualitativa, com finalidade descritiva e explicativa, e em relação aos meios foi bibliográfica e de campo. A pesquisa de campo foi feita com 31 gestores de organizações financeiras, realizadas no próprio local de trabalho. Os gestores foram submetidos ao teste de evocação de palavras, concederam entrevista e responderam a questionário previamente elaborado com questões retiradas das diferentes abordagens teóricas sobre intuição consultadas. O resultado revela que há uma relação entre o conceito de intuição apresentado pelos gestores e o conceito que aparece na literatura. Revela também que os gestores apresentam clara percepção quanto ao uso da intuição na decisão, dando grande valor a esse conhecimento. As formas de percepção do uso da intuição na decisão aparecem como experiência, sensação, acerto, risco. Constatou-se que os executivos levam em consideração a intuição para tomar suas decisões e que essa prática favorece a produtividade de seu trabalho.
Resumo:
Aquilo que passamos a entender como racional e lógico a partir da era moderna, provê um esquema mental para tomada de ações que carrega um arcabouço de premissas e valores consigo. Essas regras visam a maximização utilitária das consequências, esvaziadas de qualquer valor subjetivo. Weber (1994) classificou acessoriamente esse esquema como “racionalidade instrumental”, que se caracteriza por ser orientada pelos fins, meios e consequências da ação. Em contraposição, definiu ainda a “racionalidade substantiva”, postulada nos valores do sujeito, que não se orienta por quaisquer consequências da ação. Muitos autores partiram dessas racionalidades para representar a dualidade que acomete o mundo a partir da centralidade do mercado e sua lógica instrumental, mas foi Guerreiro Ramos (1989) quem deu contundente contribuição ao estudo das organizações separando diferentes enclaves sociais, nos quais as racionalidades seriam mais adequadas em um ou outro espaço. Nesse contexto, o mercado é um enclave importante e legítimo, mas apartado de outros, nos quais as relações sociais existem para servir o sujeito. Esse trabalho, fundamentado na Teoria Crítica, reconhece que as ONGs (Organizações Não Governamentais) devem pertencer a um campo distinto daquele das empresas econômicas, por se basearem em racionalidades diferentes das mesmas. Foi realizada uma pesquisa de campo junto a cinco organizações sem fins lucrativos, com fins declarados de ação social (Harmonicanto, Reviverde, ACAM, Observatório de Favelas e Bola pra Frente), buscando identificar as influências desviacionistas que a adoção da racionalidade instrumental impõe sobre a realização dos objetivos previstos para essas organizações. Observou-se que existem contingências que favorecem o uso da instrumentalidade nessas organizações, como: necessidade de autossustentação, área de atuação, tamanho da organização, influência do líder, etc. Conclui-se que tais organizações, apesar de não serem espaços dedicados à atualização do sujeito (como define a Isonomia de Guerreiro Ramos), delatam o seu fim público e orientam-se pelas consequências sempre que absorvem de forma crua a dinâmica organizacional de uma empresa econômica.
Resumo:
The objectives of this paper are twofold. First, it intends to provide theoretical elements to analyze the relation between real exchange rates and economic development. Our main hypothesis is very much in line with the Dutch disease literature, and states that competitive currencies contribute to the existence and maintenance of the anufacturing sector in the economy. This, in turn, brings about higher growth rates in the long run, given the existence of increasing returns in the industrial sector, and its importance in generating echnological change and increasing productivity in the overall economy. The second objective of this paper is empirical. It intends to analyze examples of successful exchange rate policies, such as Chile and Indonesia in the eighties, as a benchmark for comparison with countries where currency overvaluation has taken place, such as Brazil. In the latter case, the local currency is being inflated by large capital inflows, due to high domestic interest rates and to a boom in demand and prices of commodities in the international markets. It will be argued that the industrial sector bears most of the burden when the currency appreciates, and that Brazil risks at deindustrialization if there are no changes in the exchange rate regime
Resumo:
This paper builds a simple, empirically-verifiable rational expectations model for term structure of nominal interest rates analysis. It solves an stochastic growth model with investment costs and sticky inflation, susceptible to the intervention of the monetary authority following a policy rule. The model predicts several patterns of the term structure which are in accordance to observed empirical facts: (i) pro-cyclical pattern of the level of nominal interest rates; (ii) countercyclical pattern of the term spread; (iii) pro-cyclical pattern of the curvature of the yield curve; (iv) lower predictability of the slope of the middle of the term structure; and (v) negative correlation of changes in real rates and expected inflation at short horizons.
Resumo:
A forte alta dos imóveis no Brasil nos últimos anos iniciou um debate sobre a possível existência de uma bolha especulativa. Dada a recente crise do crédito nos Estados Unidos, é factível questionar se a situação atual no Brasil pode ser comparada à crise americana. Considerando argumentos quantitativos e fundamentais, examina-se o contexto imobiliário brasileiro e questiona-se a sustentabilidade em um futuro próximo. Primeiramente, analisou-se a taxa de aluguel e o nível de acesso aos imóveis e também utilizou-se um modelo do custo real para ver se o mercado está em equilíbrio o não. Depois examinou-se alguns fatores fundamentais que afetam o preço dos imóveis – oferta e demanda, crédito e regulação, fatores culturais – para encontrar evidências que justificam o aumento dos preços dos imóveis. A partir dessas observações tentou-se chegar a uma conclusão sobre a evolução dos preços no mercado imobiliário brasileiro. Enquanto os dados sugerem que os preços dos imóveis estão supervalorizados em comparação ao preço dos aluguéis, há evidências de uma legítima demanda por novos imóveis na emergente classe média brasileira. Um risco maior pode estar no mercado de crédito, altamente alavancado em relação ao consumidor brasileiro. No entanto, não se encontrou evidências que sugerem mais do que uma temporária estabilização ou correção no preço dos imóveis.
Resumo:
Em redes de inovação baseadas em trocas de informação, o agente orquestrador se apropria das informações dos atores periféricos, gera inovação e distribui em forma de valor agregado. É sua função promover a estabilidade na rede fazendo com que a mesma tenha taxas não negativas de crescimento. Nos mercados de análise de crédito e fraude, por exemplo, ou bureaus funcionam como agentes orquestradores, concentrando as informações históricas da população que são provenientes de seus clientes e fornecendo produtos que auxiliam na tomada de decisão. Assumindo todas as empresas do ecossistema como agentes racionais, a teoria dos jogos se torna uma ferramenta apropriada para o estudo da precificação dos produtos como mecanismo de promoção da estabilidade da rede. Este trabalho busca identificar a relação de diferentes estruturas de precificação promovidas pelo agente orquestrador com a estabilidade e eficiência da rede de inovação. Uma vez que o poder da rede se dá pela força conjunta de seus membros, a inovação por esta gerada varia de acordo com a decisão isolada de cada agente periférico de contratar o agente orquestrador ao preço por ele estipulado. Através da definição de um jogo teórico simplificado onde diferentes agentes decidem conectar-se ou não à rede nas diferentes estruturas de preços estipuladas pelo agente orquestrador, o estudo analisa as condições de equilíbrio conclui que o equilíbrio de Nash implica em um cenário de estabilidade da rede. Uma conclusão é que, para maximizar o poder de inovação da rede, o preço a ser pago por cada agente para fazer uso da rede deve ser diretamente proporcional ao benefício financeiro auferido pela inovação gerada pela mesma. O estudo apresenta ainda uma simulação computacional de um mercado fictício para demonstração numérica dos efeitos observados. Através das conclusões obtidas, o trabalho cobre uma lacuna da literatura de redes de inovação com agentes orquestradores monopolistas em termos de precificação do uso da rede, servindo de subsídio de tomadores de decisão quando da oferta ou demanda dos serviços da rede.
Resumo:
Esta tese contém dois capítulos, cada um lidando com a teoria e a história dos bancos e arranjos financeiros. No capítulo 1, busca-se extender uma economia Diamond-Dybvig com monitoramento imperfeito dos saques antecipados e realizar uma comparação do bem estar social em cada uma das alocações possíveis, como proposto em Presscott and Weinberg(2003). Esse monitoramento imperfeito é implementado a partir da comunicação indireta ( através de um meio de pagamento) entre os agentes e a máquina de depósitos e saques que é um agregado do setor produtivo e financeiro. A extensão consiste em estudar alocações onde uma fração dos agentes pode explorar o monitoramento imperfeito e fraudar a alocação contratada ao consumirem mais cedo além do limite, usando múltiplos meios de pagamento. Com a punição limitada no período de consumo tardio, essa nova alocação pode ser chamada de uma alocação separadora em contraste com as alocações agregadoras onde o agente com habilidade de fraudar é bloqueado por um meio de pagamento imune a fraude, mas custoso, ou por receber consumo futuro suficiente para tornar a fraude desinteressante. A comparação de bem estar na gama de parâmetros escolhida mostra que as alocações separadoras são ótimas para as economias com menor dotação e as agregadoras para as de nível intermediário e as ricas. O capítulo termina com um possível contexto histórico para o modelo, o qual se conecta com a narrativa histórica encontrada no capítulo 2. No capítulo 2 são exploradas as propriedade quantitativas de um sistema de previsão antecedente para crises financeiras, com as váriaveis sendo escolhidas a partir de um arcabouço de ``boom and bust'' descrito mais detalhadamente no apêndice 1. As principais variáveis são: o crescimento real nos preços de imóveis e ações, o diferencial entre os juros dos títulos governamentais de 10 anos e a taxa de 3 meses no mercado inter-bancário e o crescimento nos ativos totais do setor bancário. Essas variáveis produzem uma taxa mais elevada de sinais corretos para as crises bancárias recentes (1984-2008) do que os sistemas de indicadores antecedentes comparáveis. Levar em conta um risco de base crescente ( devido à tendência de acumulação de distorções no sistema de preços relativos em expansões anteriores) também provê informação e eleva o número de sinais corretos em países que não passaram por uma expansão creditícia e nos preços de ativos tão vigorosa.
Resumo:
This paper discusses distribution and the historical phases of capitalism. It assumes that technical progress and growth are taking place, and, given that, its question is on the functional distribution of income between labor and capital, having as reference classical theory of distribution and Marx’s falling tendency of the rate of profit. Based on the historical experience, it, first, inverts the model, making the rate of profit as the constant variable in the long run and the wage rate, as the residuum; second, it distinguishes three types of technical progress (capital-saving, neutral and capital-using) and applies it to the history of capitalism, having the UK and France as reference. Given these three types of technical progress, it distinguishes four phases of capitalist growth, where only the second is consistent with Marx prediction. The last phase, after World War II, should be, in principle, capital-saving, consistent with growth of wages above productivity. Instead, since the 1970s wages were kept stagnant in rich countries because of, first, the fact that the Information and Communication Technology Revolution proved to be highly capital using, opening room for a new wage of substitution of capital for labor; second, the new competition coming from developing countries; third, the emergence of the technobureaucratic or professional class; and, fourth, the new power of the neoliberal class coalition associating rentier capitalists and financiers