686 resultados para Moeda endógena
Resumo:
A motivação para este trabalho vem dos principais resultados de Carvalho e Schwartzman (2008), onde a heterogeneidade surge a partir de diferentes regras de ajuste de preço entre os setores. Os momentos setoriais da duração da rigidez nominal são su cientes para explicar certos efeitos monetários. Uma vez que concordamos que a heterogeneidade é relevante para o estudo da rigidez de preços, como poderíamos escrever um modelo com o menor número possível de setores, embora com um mínimo de heterogeneidade su ciente para produzir qualquer impacto monetário desejado, ou ainda, qualquer três momentos da duração? Para responder a esta questão, este artigo se restringe a estudar modelos com hazard-constante e considera que o efeito acumulado e a dinâmica de curto-prazo da política monetária são boas formas de se resumir grandes economias heterogêneas. Mostramos que dois setores são su cientes para resumir os efeitos acumulados de choques monetários, e economias com 3 setores são boas aproximações para a dinâmica destes efeitos. Exercícios numéricos para a dinâmica de curto prazo de uma economia com rigidez de informação mostram que aproximar 500 setores usando apenas 3 produz erros inferiores a 3%. Ou seja, se um choque monetário reduz o produto em 5%, a economia aproximada produzirá um impacto entre 4,85% e 5,15%. O mesmo vale para a dinâmica produzida por choques de nível de moeda em uma economia com rigidez de preços. Para choques na taxa de crescimento da moeda, a erro máximo por conta da aproximação é de 2,4%.
Resumo:
Este relatório apresenta os primeiros resultados semestrais de pesquisa junto a um grupo de cientistas políticos focando a política monetária (A construção de autoridade monetária e democracia: A experiência brasileira no contexto da integração econômica em escala global, FAPESP Processo no 2001/05568-8). Durante este primeiro semestre o trabalho de pesquisa consistiu em uma revisão geral da bibliografia sobre a política monetária e instituições na ciência política e na economia, como também a criação de novos bancos de dados sobre credito, moeda, e instituições financeiras no Brasil de 1860 a 2002 e, finalmente, o desenvolvimento e aplicação de uma pesquisa de opinião à uma amostra de 75 Deputados Federais brasileiros.
Resumo:
O objetivo deste trabalho é determinar qual o impacto da redução do custo Brasil sobre a defasagem cambial. Supõe-se uma economia em que o câmbio esteja fora de equilíbrio. A partir dessa situação, calcula-se o impacto de ganhos de eficiência e/ou redução de alíquotas de impostos distorcivos sobre o desequilíbrio cambial. O argumento básico é que, em equilíbrio geral, não é obrigatoriamente verdade que ganhos de eficiência concorram para reduzir o atraso cambial: é necessário saber em que setor e/ou sob qual fatorde produção a distorção incide. O principal resultado é que ganhos de produtividade no setor de bens comercializáveis reduzem o atraso cambial; no setor de bens domésticos, elevam o atraso cambial e, se for em ambos os setores, o resultado dependerá da resposta da demanda. Se a elasticidade-renda da demanda do bem doméstico for maior do que a do bem comercializável, o atraso cambial é reduzido, caso contrário, eleva-se. Em particular, quando a redução do custo Brasil significa elevação da eficiência do sistema portuário, nada pode ser afirmado. Antes de responder a esta questão, a segunda seção do trabalho discute o conceito de câmbio real,desequilíbrio cambial e valorização cambial.
Resumo:
Este ensaio se propõe confrontar a abordagem neoclássica da economia como ciência positiva, com a modelo keynesiano e a visão da economia dinâmica de Kalecki, onde a economia é tratada desde a perspectiva de uma ciência moral e normativa. Para tanto analisaremos as bases teóricas de cada modelo, seus pressupostos, leis fundamentais e principais conclusões. Dado o propósito didático do texto nos preocupamos em tentar explicar os antecedentes, axiomas, leis e relações funcionais de cada modelo, dando especial ênfase às que surgem da crítica de postulados anteriores, pois admitimos que cada modelo incorpora valores, pressupostos e metodologia própria, cuja crítica é essencial para o avanço da ciência. A economia neoclássica supõe agentes racionais, informação completa e ações e resultados imediatos. Seu método de análise é a otimização com restrições. O principio ordenador, necessário e suficiente da atividade econômica, consiste no comportamento racional dos agentes. Este modelo tem sua concepção política e ética das relações econômicas, consistente com seus pressupostos, o que fica patente, por exemplo, a propósito de sua teoria da distribuição da renda. Com a introdução de conceitos como: o tempo histórico; o caracter monetário da produção; a preferência pela liquidez; o comportamento subjetivo dos agentes; o predomínio da procura sobre a oferta; as expectativas e a incerteza em relação ao futuro, etc., a macroeconomia de Keynes consegue romper o paradigma anterior, do ajuste automático dos mercados de acordo com um feedeback contínuo e estável, capaz de garantir o equilíbrio de pleno emprego. Embora a análise keynesiana tivesse permitido a abordagem precisa de questões tão importantes como: a natureza e as causas do desemprego; o papel da moeda e do crédito; a determinação dos juros; os condicionantes do investimento, etc., faltava ainda uma teoria dos preços, da distribuição e do ciclo econômico, no que o trabalho de M. Kalecki, certamente parece ter avançado. Este autor parte de um contexto cultural e ideológico que lhe permite abordar sem entraves a natureza do capitalismo. Seu enfoque micro e macroeconômico é integrado e está apoiado no pressuposto da concorrência imperfeita. No universo keynesiano os mercados podem estar em equilíbrio, mas não no de pleno emprego, já segundo Kalecki o ciclo econômico é inevitável. Em ambos os casos os mercados não são perfeitos e não tendem naturalmente para o equilíbrio, o que justifica a ação reguladora do Estado, de acordo sua opção política e um código de valores preestabelecido. É de se imaginar que cada modelo de análise esteja condicionado pelo conjunto de valores dominantes do momento, o que não invalida o caracter de ciência social da economia. Por exemplo, desde a perspectiva individualista da troca mercantil, a economia se apresenta com a metodologia de ciência pura, porém, levando em conta as relações de classe social, é uma ciência moral.
Resumo:
A presente tese é composta de três ensaios sobre o mercado de seguros de automóveis, cada ensaio corresponde a um capítulo. No primeiro capítulo apresentamos uma extensão dinâmica ao modelo de Bertrand, no qual corretores de seguros competem em preços (comissão) pela venda de contratos aos segurados. Nosso objetivo é fornecer uma explicação para um fato estilizado interessante: a coexitência de comissões nulas e positivas. Derivamos um equilíbrio de Nash perfeito em subjogo e, por máxima verossimilhança, estimamos os seguintes parâmetros do modelo: (i) o número de corretores efetivamente consultados pelos segurados; (ii) o custo de trocar de corretor; e (iii) o valor presente dos lucros dos corretores. No segundo capítulo apresentamos uma versão do modelo estático de Stahl (1989) para explicar como corretores de seguros competem em preços (comissão). Derivamos um equilíbrio no qual o valor esperado da taxa de comissão é função decrescente do prêmio mínimo exigido pela seguradora e estimamos a elasticidade da taxa de comissão em relação a este prêmio mínimo. Esta informação pode ajudar as seguradoras a desenhar seus contratos de forma mais precisa. No terceiro capítulo testamos a existência de assimetria de informação no mercado brasileiro de seguros de automóveis. Propomos o uso da taxa de comissão dos corretores como instrumento da variável endógena bônus. Esta metodologia nos permite ampliar a amostra para segurados onde a assimetria de informação é potencialmente maior. Usando dados sobre mercado brasileiro de seguros de automóveis concluímos que: (i) não há indícios de assimetria de informação relevante no grupo de segurados jovens; (ii) há assimetria de informação no grupo de segurados mais experientes. Estes resultados se alinham aos obtidos por Chiappori e Salamié (2001) e Cohen (2005).
Resumo:
É proposto aqui um modelo estrutural macroeconômico capaz de englobar os impactos das políticas fiscal e monetária do governo sobre os principais agregados macroeconômicos, assim como projetar seus efeitos no curto e médio prazos. Para tanto um sistema com dez equações é proposto. A primeira equação é uma do tipo IS, ligando o hiato do produto e suas defasagens à taxa de juros reais e à taxa de câmbio real. A segunda é uma versão da chamada Curva de Phillips, que liga a inflação, suas defasagens, e valores esperados futuros, ao hiato do produto e à taxa de câmbio nominal. A terceira é a uma equação da chamada Paridade de Juros não Coberta, que liga o diferencial das taxas interna e externa à desvalorização esperada da moeda doméstica e ao prêmio de risco de reter ativos domésticos. Complementa-se o sistema formado por essas três equações da seguinte forma: uma equação para o emprego representando o mercado de trabalho, duas equações que representariam o comportamento fiscal agregado - gasto público, arrecadação tributária - e duas que representariam a demanda por exportações e importações nacionais. Finalmente, são acrescentadas duas identidades que determinarão o caminho da dívida pública e o da dívida externa.
Resumo:
A dificuldade em se caracterizar alocações ou equilíbrios não estacionários é uma das principais explicações para a utilização de conceitos e hipóteses que trivializam a dinâmica da economia. Tal dificuldade é especialmente crítica em Teoria Monetária, em que a dimensionalidade do problema é alta mesmo para modelos muito simples. Neste contexto, o presente trabalho relata a estratégia computacional de implementação do método recursivo proposto por Monteiro e Cavalcanti (2006), o qual permite calcular a sequência ótima (possivelmente não estacionária) de distribuições de moeda em uma extensão do modelo proposto por Kiyotaki e Wright (1989). Três aspectos deste cálculo são enfatizados: (i) a implementação computacional do problema do planejador envolve a escolha de variáveis contínuas e discretas que maximizem uma função não linear e satisfaçam restrições não lineares; (ii) a função objetivo deste problema não é côncava e as restrições não são convexas; e (iii) o conjunto de escolhas admissíveis não é conhecido a priori. O objetivo é documentar as dificuldades envolvidas, as soluções propostas e os métodos e recursos disponíveis para a implementação numérica da caracterização da dinâmica monetária eficiente sob a hipótese de encontros aleatórios.
Resumo:
Considerando que as doenças cardiovasculares representam a maior causa de mortalidade e morbidade em países ocidentais, a aterosclerose se destaca pelo fato de predispor os pacientes ao infarto do miocárdio, a acidentes vasculares cerebrais e a doenças vasculares periféricas. Neste contexto, a oxidação de lipoproteínas do plasma, particularmente LDL, é um dos fatores de risco para eventos cardiovasculares, pois é reconhecida e internalizada por macrófagos, ocasionando a sua diferenciação em foam cells. Diversos fatores participam deste processo de diferenciação, como a expressão de receptores de scavenger CD 36, proporcionando aumento na captação de LDL oxidada, aumento na síntese endógena de colesterol e ativação de fatores nucleares que iniciam a transcrição de proteínas específicas e fatores de crescimento que disparam a aterogênese. Os fenômenos celulares relacionados à apoptose também são de especial importância, tanto no desenvolvimento da lesão aterosclerótica como na estabilidade da placa e formação de trombos. As prostaglandinas (PGs) ciclopentenônicas (CP-PGs), em particular a PGA2 e a 15-desóxi-∆12,14-PGJ2 são uma classe especial de PGs que, em diminutas concentrações, disparam a expressão das proteínas de choque térmico (hsp), que são citoprotetoras. Além disso, CP-PGs bloqueiam a ativação do fator nuclear pró-inflamatório NF-κB tornando-as potentes agentes antiinflamatórios. Embora as PGs das famílias A e J guardem uma série de características em comum, a 15-desóxi-∆12,14- PGJ2 é o ligante fisiológico do fator nuclear pró-aterogênico PPAR-γ, enquanto as PGs da família A ativam apenas a via citoprotetora das hsp. Este trabalho teve como objetivo avaliar os efeitos das CP-PGs sobre a expressão gênica de fatores relacionados à diferenciação de macrófagos em foam cells, bem como proteínas reguladoras do processo de apoptose, em células da linhagem pró-monocítica humana U937. Para tal, as células foram tratadas com CPPGs em presença e/ou ausência de LDL nat e LDL ox, o RNA foi extraído para a realização de RT-PCR para PPAR-γ, CD 36, HMG-CoA redutase e proteínas de apoptose Caspase 3, p53 e Bcl-xL. O tratamento estatístico utilizado foi análise de variância (ANOVA one-way) e teste “t” de student, com resultados expressos como médias + desvios-padrão da média, com P<0,05. Os resultados obtidos demontraram que as CP-PGs PGA2 (20µM-24h) e PGJ2 (1,5µM-24h) inibiram a expressão gênica do fator nuclear PPAR- γ (64 % (PGA2), 88 % (15- d-PGJ2)) nas células U937, em presença de LDL oxidada, quando comparado ao controle. PGA2 inibiu a expressão de HMG-CoA redutase (33 %), enzima chave da síntese de colesterol intracelular, e o tratamento com as CP-PGs também inibiu a apoptose nas células tratadas em presença de LDL oxidada. Os dados sugerem que as CP-PGs apresentam grande potencial para o tratamento da aterosclerose, já que, além de apresentarem efeito antiinflamatório, inibem a expressão do fator nuclear pró-aterogênico PPAR-γ, do receptor de scavenger CD36 (apenas a 15-desóxi-∆12,14-PGJ2) e da enzima HMG-CoA redutase. O bloqueio da apoptose nas células estudadas pode estar relacionado à citoproteção oferecida por estas PGs. Embora investigações in vivo deste laboratório tenham mostrado a eficácia do tratamento com CP-PGs em camundongos portadores de aterosclerose, estudos adicionais são necessários para esclarecer-se o efeito antiaterogênico das mesmas.
Resumo:
o estudo da relação entre a complexidade do conhecimento e sua construção no ambiente escolar apóia-se na Epistemologia Genética e no paradigma da complexidade. A investigação se delineou como um estudo qualitativo, inspirado na metodologia de Estudo de Caso. O problema de pesquisa procurou indagar a repercussão da fragmentação dos conteúdos programáticos em disciplinas nos anos finais do Ensino Fundamental. Os dados foram coletados através de múltiplas fontes de evidência. Realizaram-se entrevistas, inspiradas na abordagem clínica piagetiana, com alunos e professores; - observações diretas do tipo participante como observador e análise documental. Os dados coletados indicam que as práticas escolares apresentam pressupostos epistemológicos e paradigmáticos que se apóiam no senso comum e estendem-se em métodos empiristas/aprioristas e reducionistas. O pensamento do aluno é manipulado de forma a se enquadrar ao modelo escolar. A fala é reduzida a uma mera ação prática, pois, embora exercida, o professor desconsidera a importância do diálogo. Por sua vez, os exercícios apresentam-se como dois lados de uma mesma moeda. Podem manifestar-se como promotores de técnicas empiristas, quando colocados sob a forma de repetição para a memorização. Todavia, podem se revelar como um recurso extremamente valioso quando colocam um problema, apresentam desafios e permitem a testagem de hipóteses do sujeito. Já os conteúdos programáticos visam a uma eterna diferenciação do objeto de estudo, a qual se configura como uma simples fragmentação capaz de eliminar qualquer dimensão do conhecimento enquanto totalidade. O tempo da aprendizagem acaba por se igualar com aquele que o professor gasta para expor a informação ao aluno. Isso o relega a uma posição passiva que retira o caráter de equilíbrio dinâmico do conhecimento, pois esse sempre se apresenta como um produto pronto e acabado. A escola, então, tem um desconhecimento do próprio conhecimento e o senso comum, que é empirista/apriorista no campo epistemológico, é reducionista em sua dimensão paradigmática.
Resumo:
Começa-se por enfocar a Contabilidade apenas como modelo de medição, isolada da sua sobre determinação pelos modelos de decisão de seus usuários. Analisam-se os seus pilares lógicos (princípios fundamentais), como instrumentos de circunscrição do seu universo particular de observação. Derivam-se os sistemas contábeis como ordenamentos alternativos de interpretação da realidade micro-econômica . Acompanha-se a espiral de sua evolução dialeticamente levando à reformulação do próprio-modelo, que' se alarga ao• incorporar a inflação no âmbito do seu objeto de avaliação. Para a detecção e evidência dos efeitos inflacionários, discutem-se os sistemas contábeis corrigidos, lambem vistos como técnica viabilizadora da necessária constância na unidade de medida, perdida quando se antagonizam as duas funções da moeda, como padrão de aferição e como mercadoria de troca. Questiona-se o significado e adeqüacidade generalizadora dos índices de referencia complementar monetária, que se constituem no elo mais vulneravelmente viciador de toda a restante consistência lógica daqueles sistemas, por mais sofisticados que sejam. Da panorâmica teórica avança-se para aplicações práticas, tipificadas pelas duas versões locais de sistemas corrigidos de custos históricos. Detalha-se criticamente a sistemática de correção monetária implementada a partir da lei 6.404 que ainda hoje regulamenta a contabilidade financeira e fiscal da generalidade das empresas que operam no Brasil. Mostram-se os seus limites, procurando desfazerem-se diversos equívocos que a envolvem e as deturpações conceitual-contábeis que ela gera. Em especial, enfatiza-se a diferença entre resultado da correção monetária do balanço e resultado inflacionário, contestando-se o absurdo deferimentos da realização deste. Finalmente, aborda-se a proposta de correção integral- da Comissão de Valores Mobiliários (instrução 64), ainda sem vínculo tributário e apenas normativa para as companhias de capital aberto. Nela se assinalam a superarão das falhas técnicas da sistemática anterior e sobretudo o crescente primado da disciplina científica contábil sobre o casuísmo fiscal, que ela pode vir a ensejar. O que perspectivado como etapa de transparência e autonomização descentralizadora, vital à maturação de um estágio mais avançado no relacionamento econômico da sociedade
Resumo:
A presente dissertação utilizou a abordagem da Sociologia Econômica para a realização de um estudo de caso sobre empreendedorismo e redes sociais na cidade de São Carlos (SP), tendo como unidade de análise os projetos beneficiados por um programa público da Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP): o Programa Inovação Tecnológica na Pequena Empresa (PIPE). Este trabalho foi baseado nos estudos de Mark Granovetter sobre a imersão social da ação econômica, redes sociais e seu papel no desenvolvimento do Vale do Silício (EUA) para a identificação, no caso de São Carlos, dos vínculos que importam entre empreendedores e pesquisadores, das redes sociais construídas em torno do empreendedorismo de base tecnológica e dos arranjos institucionais entre atores públicos, privados e não-governamentais que contribuem para que a cidade seja considerada uma “fábrica de PIPE’s” e um dos principais pólos de inovação tecnológica do país. O estudo apontou que os empreendedores de base tecnológica em São Carlos, sob a ótica da Sociologia Econômica, constituem uma rede social endógena e focada na pesquisa científica, pouco se conectando com instituições de suporte de mercado, o que limita o desenvolvimento da atividade empreendedora, entendida como a criação de empresas que façam interações formais com o mercado. Acredita-se que os resultados desta pesquisa permitirão um melhor entendimento da realidade empreendedora na região de São Carlos sob o ponto de vista sociológico e contribuirão para o desenvolvimento de iniciativas governamentais que levem em consideração a necessidade de compreender a estrutura social e as redes de relações sob as quais se implantarão futuras políticas públicas de incentivo ao empreendedorismo.
Resumo:
Trata da análise do caso brasileiro, buscando-se com base no desenvolvimento teórico acerca do assunto, bem como da experiência de outros países, analisaras principais mudanças pertinentes ao tema Bancos Centrais e sua forma de atuação. Especial atenção foi dispensada a temas como a polêmica Central Banking X Free-Banking, aos Modelos de Supervisão Bancária, e a Regulamentação do art. 192 da Constituição Federal que trata do sistema financeiro e da organização, funções e forma de atuação do Banco central do Brasil
Resumo:
Em meio à crise fiscal do setor público brasileiro, caracterizada pela desestabilização da moeda, pela distribuição das finanças públicas, pela desorganização do sistema produtivo, que compromete os saléarios e penaliza basicamente os setores menos favorecidos e menos organizados, exige-se medidas drásticas, imediatas e eficazes por parte do governo, que responde, quase sempre, segundo uma "racionalidade econômica", onde os fins arrecadatórios justificam os meios, muitos deles, eivados de declaradas inconstitucionalidade
Resumo:
Corrupção é um problema antigo que tem recebido, nos últimos anos, uma atenção global destacada, chamando a atenção, tanto de organismos públicos como de privados, dos meios de comunicação, dos formuladores de políticas públicas, bem como do conjunto da sociedade civil, acerca das suas formas de atuação, seus determinantes e seus efeitos para a sociedade. Enquanto não existe ainda um consenso na literatura sobre como definir o fenômeno da corrupção, uma coisa está clara: corrupção é um problema de governo. Mais precisamente, corrupção envolve a ação racional de burocratas que possuem um poder de monopólio sobre a oferta de um bem ou serviço público, ou ainda, o poder discricionário na tomada de decisões que afetam a renda de grupos na sociedade civil. Este estudo apresenta três contribuições para a literatura da economia da corrupção. Primeiro, ele contribui para a organização da discussão apresentando as diferentes formas como a Economia Política da Corrupção analisa o problema da corrupção: a) como um problema de rent-seeking, b) como um problema de crime, c) como um problema de estrutura de mercado do serviço público. Segundo, este trabalho contribui na identificação das variáveis econômicas que estão relacionados com o fenômeno da corrupção, o que permite uma melhor compreensão dos efeitos das políticas econômicos no incentivo à atividade corrupta e, terceiro, este trabalho contribui para a identificação do volume de recursos envolvido com a corrupção no Brasil. Os resultados alcançados mostram que o fechamento comercial do país, a expansão dos gastos do governo e a prática de política industrial ativa, com a elevação dos impostos de importação, funcionam como incentivadores de práticas corruptas na relação entre Estado e sociedade. Por outro lado, a aplicação de um modelo de equilíbrio geral com corrupção endógena possibilitou a obtenção de um valor para o volume de recursos envolvidos com corrupção no Brasil, em torno de 12% do PIB. A simulação do modelo para política comercial e fiscal não permite concluir que a corrupção, necessariamente, ressulte em menor crescimento econômico.
Resumo:
O sistema renina - angiotensina tem um papel importante e bem descrito na modulação do sistema cardiovascular. Sua participação em processos cognitivos tem sido assunto de diversos trabalhos. É de particular interesse a modulação da memória pela ação de seus metabólitos funcionais, angiotensina II (AII) e IV (AIV), no sistema nervoso central. Apesar dos diversos trabalhos abordando o assunto, o papel da AII no processamento da memória continua controverso. Para tentar aprofundar essa questão utilizamos o paradigma da esquiva inibitória de uma única sessão em conjunto com a infusão intra-hipocampal de AII, AIV, e antagonistas AT1 ou AT2. Ratos foram implantados com cânulas na região CA1 do hipocampo dorsal, alguns dias depois da cirurgia foram treinados em uma tarefa de esquiva inibitória e, em tempos diferentes após o treino, foram infundidos com veículo ou uma das drogas descritas acima. Os animais foram testados 3 ou 24 h após o treino; no primeiro caso para avaliar memória de curta duração (STM) e para avaliar memória de longa duração (LTM) no segundo. Verificou-se um efeito amnésico para a AII na consolidação da LTM e STM quando infundida imediatamente ou 30 min pós-treino, e na evocação da LTM quando infundida 15 min antes do teste. O efeito amnésico da AII parece ser modulado exclusivamente por sua ação em receptores AT2, não tendo participação nem receptores AT1, nem sua conversão endógena em AIV. A AII endógena não parece ter qualquer participação na formação da memória de esquiva inibitória.