954 resultados para Liapunov convexity theorem


Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper explores the link between environmental policy and economic growth by employing an extension of the AK Growth Model. We include a state equation for renewable natural resources. We assume that the change in environmental regulations induces costs and that economic agents also derive some utility from capital stock accumulation vis-`a-vis the environment. Using the Hopf bifurcation theorem, we show that cyclical environmental policy strategies are optimal, providing theoretical support for the Environmental Kuznets Curve.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

No presente paper, nós provamos que qualquer função da escolha social satisfaz o princípio da independência das alternativas irrelevantes (IIA) de Arrow se o comportamento individual é menu-dependente. Portanto, o 'Teorema da Possibilidade Geral' de Arrow não é válido quando as preferências individuais são determinadas por valores irredutíveis. Nesse contexto, qualquer instrumento de agregação que satisfaça os princípios não-ditatoriais e paretianos de unanimidade (maioria simples, por exemplo) também faz IIA. Esse poderia ser um resultado importante para a teoria da escolha social, enquanto um comportamento individual determinado por valores irredutíveis (interesse próprio, ideologia, Ética e normas sociais, por exemplo) podendo validar democracia representativa. A importância relativa de tais valores e da possibilidade de reversão da preferência determina a dinâmica da escolha social, de acordo com os princípios democráticos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho estudamos três generalizações para o último Teorema de Fermat. A primeira generalização trata de expoentes negativos e de expoentes racionais. Além de mostrar em que casos estas equações possuem soluções, damos uma caracterização completa para todas as soluções inteiras não-nulas existentes. A segunda generalização também trata de expoentes racionais, porém num contexto mais amplo. Aqui permitimos que as raízes n-ésimas sejam complexas, não necessariamente reais. Na terceira generalização vemos que o último Teorema de Fermat também vale para expoentes inteiros gaussianos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho tem por objetivo apresentar resultados sobre módulos e anéis distributivos. Trataremos de algumas caracterizações e propriedades desta classe de módulos. O teorema principal nos dá uma caracterização sobre módulos e anéis distributivos através de seus submódulos e ideais saturados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objetivos: Desenvolver e validar instrumento que auxilie o pediatra a determinar a probabilidade de ocorrência do abuso sexual em crianças. Métodos: Estudo de caso-controle com 201 crianças que consultaram em ambulatórios de pediatria e locais de referência para vítimas de abuso sexual, entre março e novembro de 2004: grupo caso (com suspeita ou revelação de abuso sexual) e grupo controle (sem suspeita de abuso sexual). Aplicou-se, junto aos responsáveis, um questionário com 18 itens e cinco opções de respostas segundo a escala Likert, abordando comportamento, sintomas físicos e emocionais apresentados pelas crianças. Excluíram-se nove crianças sem controle esfincteriano e um item respondido por poucas pessoas. A validade e consistência interna dos itens foram avaliadas com obtenção de coeficientes de correlação (Pearson, Spearman e Goodman-Kruskal), coeficiente α de Cronbach e cálculo da área da curva ROC. Calculou-se, após, a razão de verossimilhança (RV) e os valores preditivo positivos (VPP) para os cinco itens do questionário que apresentaram os melhores desempenhos. Resultados: Obteve-se um questionário composto pelos cinco itens que melhor discriminaram crianças com e sem abuso sexual em dois contextos. Cada criança recebeu um escore resultante da soma das respostas com pesos de 0 a 4 (amplitude de 0 a 20), o qual, através do teorema de Bayes (RV), indicou sua probabilidade pós-teste (VPP) de abuso sexual. Conclusões: O instrumento proposto é útil por ser de fácil aplicação, auxiliando o pediatra na identificação de crianças vítimas de abuso sexual. Ele fornecerá, conforme o escore obtido, a probabilidade (VPP) de abuso sexual, orientando na conduta de cuidado à criança.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A abordagem do Value at Risk (VAR) neste trabalho será feita a partir da análise da curva de juros por componentes principais (Principal Component Analysis – PCA). Com essa técnica, os movimentos da curva de juros são decompostos em um pequeno número de fatores básicos independentes um do outro. Entre eles, um fator de deslocamento (shift), que faz com que as taxas da curva se movam na mesma direção, todas para cima ou para baixo; de inclinação (twist) que rotaciona a curva fazendo com que as taxas curtas se movam em uma direção e as longas em outra; e finalmente movimento de torção, que afeta vencimentos curtos e longos no mesmo sentido e vencimentos intermediários em sentido oposto. A combinação destes fatores produz cenários hipotéticos de curva de juros que podem ser utilizados para estimar lucros e perdas de portfolios. A maior perda entre os cenários gerados é uma maneira intuitiva e rápida de estimar o VAR. Este, tende a ser, conforme verificaremos, uma estimativa conservadora do respectivo percentual de perda utilizado. Existem artigos sobre aplicações de PCA para a curva de juros brasileira, mas desconhecemos algum que utilize PCA para construção de cenários e cálculo de VAR, como é feito no presente trabalho.Nesse trabalho, verificaremos que a primeira componente principal produz na curva um movimento de inclinação conjugado com uma ligeira inclinação, ao contrário dos resultados obtidos em curvas de juros de outros países, que apresentam deslocamentos praticamente paralelos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A presente dissertação versa sobre a sincronização idêntica em redes de osciladores caóticos. Uma perspectiva razoavelmente histórica sobre a literatura da área é apresentada . O conceito de caos é introduzido junto com outras idéias da dinâmica não-linear: sistemas dinâmicos, exemplos de sistemas, atratores, expoentes de Liapunov, etc. A integração numérica de equações diferenciais é largamente utilizada, principalmente, para o cálculo de expoentes e o desenho do diagrama de fases. A sincronização idêntica é definida, inicialmente, em redes que não passam de um par de osciladores. A variedade de sincronização (conjunto de pontos no espaço de fases no qual a solução do sistema é encontrada se há sincronização) é determinada. Diferentes variantes de acoplamentos lineares são enfocadas: acoplamento interno, externo, do tipo mestre-escravo e birecional, entre outras. Para detectar sincronização, usa-se o conceito de expoente de Liapunov transversal, uma extensão do conceito clássico de expoente de Liapunov que caracteriza a sincronização como a existência de um atrator na variedade de sincronização. A exposição é completada com exemplos e atinge relativo detalhe sobre o assunto, sem deixar de ser sintética com relação à ampla literatura existente. Um caso de sincronização em antifase que usa a mesma análise é incluído. A sincronização idêntica também é estudada em redes de osciladores idênticos com mais de dois osciladores. As possibilidades de sincronização completa e parcial são explanadas. As técnicas usadas para um par de osciladores são expandidas para cobrir este novo tipo de redes. A existência de variedades de sincronização invariantes é considerada como fator determinante para a sincronização. A sincronização parcial gera estruturas espaciais, analisadas sob a denominação de padrões. Algumas relações importantes entre as sincronizações são explicitadas, principalmente as degenerescências e a relação entre a sincronização parcial e a sincronização completa do respectivo estado sincronizado para alguns tipos de acoplamento. Ainda são objetos de interesse as redes formadas por grupos de osciladores idênticos que são diferentes dos osciladores dos outros grupos. A sincronização parcial na qual todos os grupos de osciladores têm seus elementos sincronizados é chamada de sincronização primária. A sincronização secundária é qualquer outro tipo de sincronização parcial. Ambas são exemplificadas e analisadas por meio dos expoentes transversais e novamente por meio da existência de invariantes de sincronização. Obtém-se, então, uma caracterização suficientemente ampla, completada por casos específicos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

We define a subgame perfect Nash equilibrium under Knightian uncertainty for two players, by means of a recursive backward induction procedure. We prove an extension of the Zermelo-von Neumann-Kuhn Theorem for games of perfect information, i. e., that the recursive procedure generates a Nash equilibrium under uncertainty (Dow and Werlang(1994)) of the whole game. We apply the notion for two well known games: the chain store and the centipede. On the one hand, we show that subgame perfection under Knightian uncertainty explains the chain store paradox in a one shot version. On the other hand, we show that subgame perfection under uncertainty does not account for the leaving behavior observed in the centipede game. This is in contrast to Dow, Orioli and Werlang(1996) where we explain by means of Nash equilibria under uncertainty (but not subgame perfect) the experiments of McKelvey and Palfrey(1992). Finally, we show that there may be nontrivial subgame perfect equilibria under uncertainty in more complex extensive form games, as in the case of the finitely repeated prisoner's dilemma, which accounts for cooperation in early stages of the game.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper proves the existence and uniqueness of a fixed-point for local contractions without assuming the family of contraction coefficients to be uniformly bounded away from 1. More importantly it shows how this fixed-point result can apply to study existence and uniqueness of solutions to some recursive equations that arise in economic dynamics.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper argues that monetary models can and usually present the phenomenon of over-banking; that is, the market solution of the model presents a size of the banking sector which is higher than the social optima. Applying a two sector monetary model of capital accumulation in presence of a banking sector, which supplies liquidity services, it is shown that the rise of a tax that disincentives the acquisition of the banking service presents the following impacts on welfare. If the technology is the same among the sectors, the tax increases welfare; otherwise, steady-state utility increase if the banking sector is labor-intensive compared to the real sector. Additionally, it is proved that the elevation of inflation has the following impact on the economy's equilibrium: the share on the product of the banking sector increases; the product and the stock of capital increases or reduces whether the banking sector is capital-intensive or laborintensive; and, the steady-state utility reduces. The results were derived under a quite general set up - standard hypothesis regarding concavity of preference, convexity of technology, and normality of goods - were required.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A Automação e o processo de Robotização vêm, cada vem mais, se tornando pauta nas discussões de centenas de indústrias brasileiras, onde a tendência clara e identificada é a de investimentos expressivos na melhoria de processos e produtos, por intermédio dessas tecnologias; com foco, sempre que possível, na nacionalização de equipamentos. O presente trabalho tem como objetivo avaliar o modelo proposto por Paul Kennedy (1993) com relação à tendência de Automação e Robotização nas Indústrias Mundiais, analisando o estudo realizado diante de uma economia emergente como a brasileira. Para tanto, foram pesquisadas empresas no Brasil, em diferentes segmentos industriais, o estado da arte em termos de tecnologia de automação e robótica aplicada a processos industriais, e sugerido um modelo diferente do idealizado originalmente por Kennedy. A análise do autor se baseou no teorema que, na matemática discreta, chamamos de “law of the excluded middle”, ou seja, segundo Kennedy, o Brasil estaria vivendo hoje uma migração gradual das indústrias para os países ricos. O Brasil é um exemplo de país industrializado, de economia emergente, que investe intensamente em processos automatizados, mas que não é classificado dentro do grupo desses países ricos. Através da pesquisa realizada será apresentado um novo modelo, no qual países emergentes como o Brasil têm acesso à tecnologia de ponta em automação e robótica, aplicando a mesma em seus processos industriais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The main objective of this paper is to propose a novel setup that allows estimating separately the welfare costs of the uncertainty stemming from business-cycle uctuations and from economic-growth variation, when the two types of shocks associated with them (respectively,transitory and permanent shocks) hit consumption simultaneously. Separating these welfare costs requires dealing with degenerate bivariate distributions. Levis Continuity Theorem and the Disintegration Theorem allow us to adequately de ne the one-dimensional limiting marginal distributions. Under Normality, we show that the parameters of the original marginal distributions are not afected, providing the means for calculating separately the welfare costs of business-cycle uctuations and of economic-growth variation. Our empirical results show that, if we consider only transitory shocks, the welfare cost of business cycles is much smaller than previously thought. Indeed, we found it to be negative - -0:03% of per-capita consumption! On the other hand, we found that the welfare cost of economic-growth variation is relatively large. Our estimate for reasonable preference-parameter values shows that it is 0:71% of consumption US$ 208:98 per person, per year.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho tem por objetivo estimar um modelo empírico para relacionar os gastos em publicidade com a receita das firmas, de forma a servir como ferramenta de tomada de decisão, para isso vamos fazer um estudo de caso da indústria de telecomunicações. A Indústria de comunicação (publicidade) no Brasil, segundo dados do IBGE de 2008, é responsável por 4% do PIB, gerando receitas da ordem 115 bilhões de reais. Com 113 mil empresas que geram 711 mil empregos, ocupam 866 mil pessoas e pagam 11,8 bilhões em salários e encargos. No entanto, a maioria dos gestores de marketing declara não ter instrumentos para medir o impacto de suas ações no resultado das empresas. O modelo empírico será estimado tendo como base dados mensais dos serviços de ligações de longa distância nacional da Embratel para o período de janeiro de 2009 até dezembro de 2011. As informações quase sempre não disponíveis, só puderam ser usadas devido ao compromisso de confidencialidade. A partir de técnicas de cointegração, foi calculada a elasticidade de longo prazo da receita em relação aos gastos com publicidade e ao preço, assim com as respectivas velocidades de ajustamento aos desvios de curto prazo. Os resultados sugerem que a receita responde positivamente às variações dos gastos em publicidade, embora o percentual seja relativamente baixo, através do teorema de Dorfman-Steiner conseguimos indicar que o ponto ótimo da relação entre gastos com publicidade e a receita seria de aproximadamente 20%, respeitadas as limitações do modelo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper presents new indices for measuring the industry concentration. The indices proposed (C n ) are of a normative type because they embody (endogenous) weights matching the market shares of the individual firms to their Marshallian welfare shares. These indices belong to an enlarged class of the Performance Gradient Indexes introduced by Dansby&Willig(I979). The definition of Cn for the consumers allows a new interpretation for the Hirschman-Herfindahl index (H), which can be viewed as a normative index according to particular values of the demand parameters. For homogeneous product industries, Cn equates H for every market distribution if (and only if) the market demand is linear. Whenever the inverse demand curve is convex (concave), H underestimates( overestimates) the industry concentration measured by the normative indexo For these industries, H overestimates (underestimates) the concentration changes caused by market transfers among small firms if the inverse demand curve is convex(concave) and underestimates( overestimates) it when such tranfers benefit a large firm, according to the convexity (or the concavity) of the demand curve. For heterogeneous product industries, an explicit normative index is obtained with a market demand derived from a quasi-linear utilility function. Under symmetric preferences among the goods, the index Cn is always greater than or equal the H-index. Under asymmetric assumptions, discrepancies between the firms' market distribution and the differentiationj substitution distributions among the goods, increase the concentration but make room for some horizontal mergers do reduce it. In particular, a mean preserving spread of the differentiation(substitution) increases(decreases) the concentration only if the smaller firms' goods become more(less) differentiated(substitute) w.r.t. the other goods. One important consequence of these results is that the consumers are benefitted when the smaller firms are producing weak substitute goods, and the larger firms produce strong substitute goods or face demand curves weakly sensitive to their own prices.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper presents results of a pricing system to compute the option adjusted spread ("DAS") of Eurobonds issued by Brazilian firms. The system computes the "DAS" over US treasury rates taktng imo account the embedded options present on these bonds. These options can be calls ("callable bond"), puts ("putable bond") or combinations ("callable and putable bond"). The pricing model takes into account the evolution of the term structure along time, is compatible with the observable market term structure and is able to compute risk measures such as duration and convexity, and pricing and hedging of options on these bonds. Examples show the ejJects of the embedded options on the spread and risk measures as well as the ejJects on the spread due to variations on the volatility parameters ofthe short rate.