944 resultados para Liapunov convexity theorem


Relevância:

10.00% 10.00%

Publicador:

Resumo:

This work adds to Lucas (2000) by providing analytical solutions to two problems that are solved only numerically by the author. The first part uses a theorem in control theory (Arrow' s sufficiency theorem) to provide sufficiency conditions to characterize the optimum in a shopping-time problem where the value function need not be concave. In the original paper the optimality of the first-order condition is characterized only by means of a numerical analysis. The second part of the paper provides a closed-form solution to the general-equilibrium expression of the welfare costs of inflation when the money demand is double logarithmic. This closed-form solution allows for the precise calculation of the difference between the general-equilibrium and Bailey's partial-equilibrium estimates of the welfare losses due to inflation. Again, in Lucas's original paper, the solution to the general-equilibrium-case underlying nonlinear differential equation is done only numerically, and the posterior assertion that the general-equilibrium welfare figures cannot be distinguished from those derived using Bailey's formula rely only on numerical simulations as well.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

We give necessary and sufficient conditions for the existence of symmetric equilibrium without ties in interdependent values auctions, with multidimensional independent types and no monotonic assumptions. In this case, non-monotonic equilibria might happen. When the necessary and sufficient conditions are not satisfied, there are ties with positive probability. In such case, we are still able to prove the existence of pure strategy equilibrium with an all-pay auction tie-breaking rule. As a direct implication of these results, we obtain a generalization of the Revenue Equivalence Theorem. From the robustness of equilibrium existence for all-pay auctions in multidimensional setting, an interpretation of our results can give a new justification to the use of tournaments in practice.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper explores the link between environmental policy and economic growth by employing an extension of the AK Growth Model. We include a state equation for renewable natural resources. We assume that the change in environmental regulations induces costs and that economic agents also derive some utility from capital stock accumulation vis-`a-vis the environment. Using the Hopf bifurcation theorem, we show that cyclical environmental policy strategies are optimal, providing theoretical support for the Environmental Kuznets Curve.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

No presente paper, nós provamos que qualquer função da escolha social satisfaz o princípio da independência das alternativas irrelevantes (IIA) de Arrow se o comportamento individual é menu-dependente. Portanto, o 'Teorema da Possibilidade Geral' de Arrow não é válido quando as preferências individuais são determinadas por valores irredutíveis. Nesse contexto, qualquer instrumento de agregação que satisfaça os princípios não-ditatoriais e paretianos de unanimidade (maioria simples, por exemplo) também faz IIA. Esse poderia ser um resultado importante para a teoria da escolha social, enquanto um comportamento individual determinado por valores irredutíveis (interesse próprio, ideologia, Ética e normas sociais, por exemplo) podendo validar democracia representativa. A importância relativa de tais valores e da possibilidade de reversão da preferência determina a dinâmica da escolha social, de acordo com os princípios democráticos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho estudamos três generalizações para o último Teorema de Fermat. A primeira generalização trata de expoentes negativos e de expoentes racionais. Além de mostrar em que casos estas equações possuem soluções, damos uma caracterização completa para todas as soluções inteiras não-nulas existentes. A segunda generalização também trata de expoentes racionais, porém num contexto mais amplo. Aqui permitimos que as raízes n-ésimas sejam complexas, não necessariamente reais. Na terceira generalização vemos que o último Teorema de Fermat também vale para expoentes inteiros gaussianos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho tem por objetivo apresentar resultados sobre módulos e anéis distributivos. Trataremos de algumas caracterizações e propriedades desta classe de módulos. O teorema principal nos dá uma caracterização sobre módulos e anéis distributivos através de seus submódulos e ideais saturados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objetivos: Desenvolver e validar instrumento que auxilie o pediatra a determinar a probabilidade de ocorrência do abuso sexual em crianças. Métodos: Estudo de caso-controle com 201 crianças que consultaram em ambulatórios de pediatria e locais de referência para vítimas de abuso sexual, entre março e novembro de 2004: grupo caso (com suspeita ou revelação de abuso sexual) e grupo controle (sem suspeita de abuso sexual). Aplicou-se, junto aos responsáveis, um questionário com 18 itens e cinco opções de respostas segundo a escala Likert, abordando comportamento, sintomas físicos e emocionais apresentados pelas crianças. Excluíram-se nove crianças sem controle esfincteriano e um item respondido por poucas pessoas. A validade e consistência interna dos itens foram avaliadas com obtenção de coeficientes de correlação (Pearson, Spearman e Goodman-Kruskal), coeficiente α de Cronbach e cálculo da área da curva ROC. Calculou-se, após, a razão de verossimilhança (RV) e os valores preditivo positivos (VPP) para os cinco itens do questionário que apresentaram os melhores desempenhos. Resultados: Obteve-se um questionário composto pelos cinco itens que melhor discriminaram crianças com e sem abuso sexual em dois contextos. Cada criança recebeu um escore resultante da soma das respostas com pesos de 0 a 4 (amplitude de 0 a 20), o qual, através do teorema de Bayes (RV), indicou sua probabilidade pós-teste (VPP) de abuso sexual. Conclusões: O instrumento proposto é útil por ser de fácil aplicação, auxiliando o pediatra na identificação de crianças vítimas de abuso sexual. Ele fornecerá, conforme o escore obtido, a probabilidade (VPP) de abuso sexual, orientando na conduta de cuidado à criança.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A abordagem do Value at Risk (VAR) neste trabalho será feita a partir da análise da curva de juros por componentes principais (Principal Component Analysis – PCA). Com essa técnica, os movimentos da curva de juros são decompostos em um pequeno número de fatores básicos independentes um do outro. Entre eles, um fator de deslocamento (shift), que faz com que as taxas da curva se movam na mesma direção, todas para cima ou para baixo; de inclinação (twist) que rotaciona a curva fazendo com que as taxas curtas se movam em uma direção e as longas em outra; e finalmente movimento de torção, que afeta vencimentos curtos e longos no mesmo sentido e vencimentos intermediários em sentido oposto. A combinação destes fatores produz cenários hipotéticos de curva de juros que podem ser utilizados para estimar lucros e perdas de portfolios. A maior perda entre os cenários gerados é uma maneira intuitiva e rápida de estimar o VAR. Este, tende a ser, conforme verificaremos, uma estimativa conservadora do respectivo percentual de perda utilizado. Existem artigos sobre aplicações de PCA para a curva de juros brasileira, mas desconhecemos algum que utilize PCA para construção de cenários e cálculo de VAR, como é feito no presente trabalho.Nesse trabalho, verificaremos que a primeira componente principal produz na curva um movimento de inclinação conjugado com uma ligeira inclinação, ao contrário dos resultados obtidos em curvas de juros de outros países, que apresentam deslocamentos praticamente paralelos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A presente dissertação versa sobre a sincronização idêntica em redes de osciladores caóticos. Uma perspectiva razoavelmente histórica sobre a literatura da área é apresentada . O conceito de caos é introduzido junto com outras idéias da dinâmica não-linear: sistemas dinâmicos, exemplos de sistemas, atratores, expoentes de Liapunov, etc. A integração numérica de equações diferenciais é largamente utilizada, principalmente, para o cálculo de expoentes e o desenho do diagrama de fases. A sincronização idêntica é definida, inicialmente, em redes que não passam de um par de osciladores. A variedade de sincronização (conjunto de pontos no espaço de fases no qual a solução do sistema é encontrada se há sincronização) é determinada. Diferentes variantes de acoplamentos lineares são enfocadas: acoplamento interno, externo, do tipo mestre-escravo e birecional, entre outras. Para detectar sincronização, usa-se o conceito de expoente de Liapunov transversal, uma extensão do conceito clássico de expoente de Liapunov que caracteriza a sincronização como a existência de um atrator na variedade de sincronização. A exposição é completada com exemplos e atinge relativo detalhe sobre o assunto, sem deixar de ser sintética com relação à ampla literatura existente. Um caso de sincronização em antifase que usa a mesma análise é incluído. A sincronização idêntica também é estudada em redes de osciladores idênticos com mais de dois osciladores. As possibilidades de sincronização completa e parcial são explanadas. As técnicas usadas para um par de osciladores são expandidas para cobrir este novo tipo de redes. A existência de variedades de sincronização invariantes é considerada como fator determinante para a sincronização. A sincronização parcial gera estruturas espaciais, analisadas sob a denominação de padrões. Algumas relações importantes entre as sincronizações são explicitadas, principalmente as degenerescências e a relação entre a sincronização parcial e a sincronização completa do respectivo estado sincronizado para alguns tipos de acoplamento. Ainda são objetos de interesse as redes formadas por grupos de osciladores idênticos que são diferentes dos osciladores dos outros grupos. A sincronização parcial na qual todos os grupos de osciladores têm seus elementos sincronizados é chamada de sincronização primária. A sincronização secundária é qualquer outro tipo de sincronização parcial. Ambas são exemplificadas e analisadas por meio dos expoentes transversais e novamente por meio da existência de invariantes de sincronização. Obtém-se, então, uma caracterização suficientemente ampla, completada por casos específicos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

We define a subgame perfect Nash equilibrium under Knightian uncertainty for two players, by means of a recursive backward induction procedure. We prove an extension of the Zermelo-von Neumann-Kuhn Theorem for games of perfect information, i. e., that the recursive procedure generates a Nash equilibrium under uncertainty (Dow and Werlang(1994)) of the whole game. We apply the notion for two well known games: the chain store and the centipede. On the one hand, we show that subgame perfection under Knightian uncertainty explains the chain store paradox in a one shot version. On the other hand, we show that subgame perfection under uncertainty does not account for the leaving behavior observed in the centipede game. This is in contrast to Dow, Orioli and Werlang(1996) where we explain by means of Nash equilibria under uncertainty (but not subgame perfect) the experiments of McKelvey and Palfrey(1992). Finally, we show that there may be nontrivial subgame perfect equilibria under uncertainty in more complex extensive form games, as in the case of the finitely repeated prisoner's dilemma, which accounts for cooperation in early stages of the game.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper proves the existence and uniqueness of a fixed-point for local contractions without assuming the family of contraction coefficients to be uniformly bounded away from 1. More importantly it shows how this fixed-point result can apply to study existence and uniqueness of solutions to some recursive equations that arise in economic dynamics.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper argues that monetary models can and usually present the phenomenon of over-banking; that is, the market solution of the model presents a size of the banking sector which is higher than the social optima. Applying a two sector monetary model of capital accumulation in presence of a banking sector, which supplies liquidity services, it is shown that the rise of a tax that disincentives the acquisition of the banking service presents the following impacts on welfare. If the technology is the same among the sectors, the tax increases welfare; otherwise, steady-state utility increase if the banking sector is labor-intensive compared to the real sector. Additionally, it is proved that the elevation of inflation has the following impact on the economy's equilibrium: the share on the product of the banking sector increases; the product and the stock of capital increases or reduces whether the banking sector is capital-intensive or laborintensive; and, the steady-state utility reduces. The results were derived under a quite general set up - standard hypothesis regarding concavity of preference, convexity of technology, and normality of goods - were required.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A Automação e o processo de Robotização vêm, cada vem mais, se tornando pauta nas discussões de centenas de indústrias brasileiras, onde a tendência clara e identificada é a de investimentos expressivos na melhoria de processos e produtos, por intermédio dessas tecnologias; com foco, sempre que possível, na nacionalização de equipamentos. O presente trabalho tem como objetivo avaliar o modelo proposto por Paul Kennedy (1993) com relação à tendência de Automação e Robotização nas Indústrias Mundiais, analisando o estudo realizado diante de uma economia emergente como a brasileira. Para tanto, foram pesquisadas empresas no Brasil, em diferentes segmentos industriais, o estado da arte em termos de tecnologia de automação e robótica aplicada a processos industriais, e sugerido um modelo diferente do idealizado originalmente por Kennedy. A análise do autor se baseou no teorema que, na matemática discreta, chamamos de “law of the excluded middle”, ou seja, segundo Kennedy, o Brasil estaria vivendo hoje uma migração gradual das indústrias para os países ricos. O Brasil é um exemplo de país industrializado, de economia emergente, que investe intensamente em processos automatizados, mas que não é classificado dentro do grupo desses países ricos. Através da pesquisa realizada será apresentado um novo modelo, no qual países emergentes como o Brasil têm acesso à tecnologia de ponta em automação e robótica, aplicando a mesma em seus processos industriais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The main objective of this paper is to propose a novel setup that allows estimating separately the welfare costs of the uncertainty stemming from business-cycle uctuations and from economic-growth variation, when the two types of shocks associated with them (respectively,transitory and permanent shocks) hit consumption simultaneously. Separating these welfare costs requires dealing with degenerate bivariate distributions. Levis Continuity Theorem and the Disintegration Theorem allow us to adequately de ne the one-dimensional limiting marginal distributions. Under Normality, we show that the parameters of the original marginal distributions are not afected, providing the means for calculating separately the welfare costs of business-cycle uctuations and of economic-growth variation. Our empirical results show that, if we consider only transitory shocks, the welfare cost of business cycles is much smaller than previously thought. Indeed, we found it to be negative - -0:03% of per-capita consumption! On the other hand, we found that the welfare cost of economic-growth variation is relatively large. Our estimate for reasonable preference-parameter values shows that it is 0:71% of consumption US$ 208:98 per person, per year.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho tem por objetivo estimar um modelo empírico para relacionar os gastos em publicidade com a receita das firmas, de forma a servir como ferramenta de tomada de decisão, para isso vamos fazer um estudo de caso da indústria de telecomunicações. A Indústria de comunicação (publicidade) no Brasil, segundo dados do IBGE de 2008, é responsável por 4% do PIB, gerando receitas da ordem 115 bilhões de reais. Com 113 mil empresas que geram 711 mil empregos, ocupam 866 mil pessoas e pagam 11,8 bilhões em salários e encargos. No entanto, a maioria dos gestores de marketing declara não ter instrumentos para medir o impacto de suas ações no resultado das empresas. O modelo empírico será estimado tendo como base dados mensais dos serviços de ligações de longa distância nacional da Embratel para o período de janeiro de 2009 até dezembro de 2011. As informações quase sempre não disponíveis, só puderam ser usadas devido ao compromisso de confidencialidade. A partir de técnicas de cointegração, foi calculada a elasticidade de longo prazo da receita em relação aos gastos com publicidade e ao preço, assim com as respectivas velocidades de ajustamento aos desvios de curto prazo. Os resultados sugerem que a receita responde positivamente às variações dos gastos em publicidade, embora o percentual seja relativamente baixo, através do teorema de Dorfman-Steiner conseguimos indicar que o ponto ótimo da relação entre gastos com publicidade e a receita seria de aproximadamente 20%, respeitadas as limitações do modelo.