120 resultados para Economia Keynesiana - Modelos matematicos
Resumo:
Esta tese é composta por três ensaios sobre testes empíricos de curvas de Phillips, curvas IS e a interação entre as políticas fiscal e monetária. O primeiro ensaio ("Curvas de Phillips: um Teste Abrangente") testa curvas de Phillips usando uma especificação autoregressiva de defasagem distribuída (ADL) que abrange a curva de Phillips Aceleracionista (APC), a curva de Phillips Novo Keynesiana (NKPC), a curva de Phillips Híbrida (HPC) e a curva de Phillips de Informação Rígida (SIPC). Utilizamos dados dos Estados Unidos (1985Q1--2007Q4) e do Brasil (1996Q1--2012Q2), usando o hiato do produto e alternativamente o custo marginal real como medida de pressão inflacionária. A evidência empírica rejeita as restrições decorrentes da NKPC, da HPC e da SIPC, mas não rejeita aquelas da APC. O segundo ensaio ("Curvas IS: um Teste Abrangente") testa curvas IS usando uma especificação ADL que abrange a curva IS Keynesiana tradicional (KISC), a curva IS Novo Keynesiana (NKISC) e a curva IS Híbrida (HISC). Utilizamos dados dos Estados Unidos (1985Q1--2007Q4) e do Brasil (1996Q1--2012Q2). A evidência empírica rejeita as restrições decorrentes da NKISC e da HISC, mas não rejeita aquelas da KISC. O terceiro ensaio ("Os Efeitos da Política Fiscal e suas Interações com a Política Monetária") analisa os efeitos de choques na política fiscal sobre a dinâmica da economia e a interação entre as políticas fiscal e monetária usando modelos SVARs. Testamos a Teoria Fiscal do Nível de Preços para o Brasil analisando a resposta do passivo do setor público a choques no superávit primário. Para a identificação híbrida, encontramos que não é possível distinguir empiricamente entre os regimes Ricardiano (Dominância Monetária) e não-Ricardiano (Dominância Fiscal). Entretanto, utilizando a identificação de restrições de sinais, existe evidência que o governo seguiu um regime Ricardiano (Dominância Monetária) de janeiro de 2000 a junho de 2008.
Resumo:
O mercado de crédito vem ganhando constantemente mais espaço na economia brasileira nos últimos anos. Haja vista isto, o risco de crédito, que tenta medir a perda com operações de crédito, tem fundamental importância e, neste contexto, a perda esperada é, sem dúvida, tema chave. Usualmente, a perda esperada relativa, EL (%), é modelada como o produto dos parâmetros de risco PD (probabilidade de default) e LGD (perda dado o default) pressupondo a independência dos mesmos. Trabalhos recentes mostram que pode haver oportunidade em melhorar o ajuste com a modelagem conjunta da perda, além da retirada da forte premissa de independência dos fatores. O presente trabalho utiliza a distribuição beta inflacionada, modelo BEINF da classe GAMLSS, para o ajuste da perda esperada relativa através de uma base de dados reais disponibilizada pela empresa Serasa Experian. Os resultados mostram que o modelo traz um bom ajuste e que há oportunidade de ganhos em sua utilização na modelagem da EL(%).O mercado de crédito vem ganhando constantemente mais espaço na economia brasileira nos últimos anos. Haja vista isto, o risco de crédito, que tenta medir a perda com operações de crédito, tem fundamental importância e, neste contexto, a perda esperada é, sem dúvida, tema chave. Usualmente, a perda esperada relativa, EL (%), é modelada como o produto dos parâmetros de risco PD (probabilidade de default) e LGD (perda dado o default) pressupondo a independência dos mesmos. Trabalhos recentes mostram que pode haver oportunidade em melhorar o ajuste com a modelagem conjunta da perda, além da retirada da forte premissa de independência dos fatores. O presente trabalho utiliza a distribuição beta inflacionada, modelo BEINF da classe GAMLSS, para o ajuste da perda esperada relativa através de uma base de dados reais disponibilizada pela empresa Serasa Experian. Os resultados mostram que o modelo traz um bom ajuste e que há oportunidade de ganhos em sua utilização na modelagem da EL(%).
Resumo:
Esta tese apresenta novas possibilidades metodológicas no campo do urbanismo através da aplicação de técnicas derivadas da ciência da geoinformação a luz das teorias de economia urbana. O trabalho está organizado em torno de três ensaios. Cada ensaio se dedica a apresentação e análise de uma questão específica identificada como relevante dentro das teorias da economia urbana no contexto de cidades brasileiras. O primeiro ensaio tem como objetivo investigar as relações que possam existir entre os processos de expansão urbana e a segregação socioespacial na cidade de São Paulo. Situando a discussão dentro de uma perspectiva de economia urbana, o ensaio parte do pressuposto de que ambos os processos estão relacionados às forças de mercado habitacional, incluindo suas falhas inerentes, que acabam por definir a distribuição dos grupos populacionais de acordo com suas características socioeconômicas. O estudo se debruça sobre uma questão central ao debate urbanístico atual que é a ocupação contínua das áreas de fronteira urbana e na forma como este processo impacta a estrutura urbana. O segundo capítulo traz o ensaio onde tratamos de analisar as questões relativas à distribuição dos empregos na cidade de São Paulo e suas consequências para os modelos de economia urbana baseados em gradientes de renda e valor da terra. O terceiro capítulo traz o ensaio no qual retomamos a discussão sobre os processos de expansão urbana, porém situando a discussão a partir de uma perspectiva dinâmica em cidades médias em rápido crescimento demográfico. Neste contexto, há o reconhecimento de que a composição dos preços da terra nas áreas limítrofes da mancha urbana sofre uma forte influência de expectativas de retornos levando a uma sobrevalorização do preço gerada por processos de retenção de terras. Em uma análise aplicada às cidades amazônicas de Marabá e Santarém, buscamos caracterizar em uma perspectiva comparativa os processos de conversão da terra em usos urbanos nas últimas três décadas. Incorporando a informação sobre os usos do solo anteriores a conversão para uso urbano, criamos uma escala de potencial de conversão relativo a cada uso. Partindo do pressuposto de que é possível estabelecer representações matemático-computacionais da estrutura urbana em sistemas de informação geográfica, o trabalho espera contribuir para a constituição dos territórios digitais como expressões quantitativas de conceitos sobre os diferentes processos ambientais e socioeconômicos que acabam por definir o ambiente urbano. Através destas representações, buscar inserir o território no centro das decisões políticas e econômicas que seguem continuamente conformando essas cidades e as condições objetivas de vida que elas propiciam.
Resumo:
Este trabalho analisa as propriedades de uma nova medida de má especificação de modelos de apreçamento, que está relacionada com o tamanho do ajuste multiplicativo necessário para que o modelo seja corretamente especificado. A partir disso, caracterizamos o parâmetro que minimiza a medida a partir de um programa dual, de solução mais simples. Os estimadores naturais para esse parâmetro pertencem à classe de Generalized Empirical Likelihood. Derivamos as propriedades assintóticas deste estimador sob a hipótese de má especificação. A metodologia é empregada para estudar como se comportam em amostras finitas as estimativas de aversão relativa ao risco em uma economia de desastres quando os estimadores estão associados a nossa medida de má especificação. Nas simulações vemos que em média a aversão ao risco é superestimada, mesmo quando ocorre um número significativo de desastres.
Resumo:
This paper presents new methodology for making Bayesian inference about dy~ o!s for exponential famiIy observations. The approach is simulation-based _~t> use of ~vlarkov chain Monte Carlo techniques. A yletropolis-Hastings i:U~UnLlllll 1::; combined with the Gibbs sampler in repeated use of an adjusted version of normal dynamic linear models. Different alternative schemes are derived and compared. The approach is fully Bayesian in obtaining posterior samples for state parameters and unknown hyperparameters. Illustrations to real data sets with sparse counts and missing values are presented. Extensions to accommodate for general distributions for observations and disturbances. intervention. non-linear models and rnultivariate time series are outlined.
Resumo:
We propose mo deIs to analyze animal growlh data wilh lhe aim of eslimating and predicting quanlities of Liological and economical interest such as the maturing rate and asymptotic weight. lt is also studied lhe effect of environmenlal facLors of relevant influence in the growlh processo The models considered in this paper are based on an extension and specialization of the dynamic hierarchical model (Gamerman " Migon, 1993) lo a non-Iinear growlh curve sdLillg, where some of the growth curve parameters are considered cxchangeable among lhe unils. The inferencc for thcse models are appruximale conjugale analysis Lascd on Taylor series cxpallsiulIs aliei linear Bayes procedures.
Resumo:
Estimar e prever a volatilidade de um ativo é uma tarefa muito importante em mercados financeiros. Nosso objetivo neste trabalho é propor o conceito de deformação temporal neste contexto. A idéia é que o mercado modifica-se com a chegada de novas informações, e não com o decorrer do tempo de calendário. Nós estimamos a volatilidade dos retornos do IBOVESPA, aplicando Modelos de Volatilidade Estocástica sem e com Deformação Temporal.
Resumo:
O objetivo deste estudo é propor a implementação de um modelo estatístico para cálculo da volatilidade, não difundido na literatura brasileira, o modelo de escala local (LSM), apresentando suas vantagens e desvantagens em relação aos modelos habitualmente utilizados para mensuração de risco. Para estimação dos parâmetros serão usadas as cotações diárias do Ibovespa, no período de janeiro de 2009 a dezembro de 2014, e para a aferição da acurácia empírica dos modelos serão realizados testes fora da amostra, comparando os VaR obtidos para o período de janeiro a dezembro de 2014. Foram introduzidas variáveis explicativas na tentativa de aprimorar os modelos e optou-se pelo correspondente americano do Ibovespa, o índice Dow Jones, por ter apresentado propriedades como: alta correlação, causalidade no sentido de Granger, e razão de log-verossimilhança significativa. Uma das inovações do modelo de escala local é não utilizar diretamente a variância, mas sim a sua recíproca, chamada de “precisão” da série, que segue uma espécie de passeio aleatório multiplicativo. O LSM captou todos os fatos estilizados das séries financeiras, e os resultados foram favoráveis a sua utilização, logo, o modelo torna-se uma alternativa de especificação eficiente e parcimoniosa para estimar e prever volatilidade, na medida em que possui apenas um parâmetro a ser estimado, o que representa uma mudança de paradigma em relação aos modelos de heterocedasticidade condicional.
Resumo:
A presente dissertação tem como objetivo apresentar dois importantes modelos usados na análise de risco. Essa análise culmina em uma aplicação empírica para cada um deles. Apresenta-se primeiro o modelo Nelson-Siegel dinâmico, que estima a curva de juros usando um modelo paramétrico exponencial parcimonioso. É citada a referência criadora dessa abordagem, que é Nelson & Siegel (1987), passa-se pela apresentação da mais importante abordagem moderna que é a de Diebold & Li (2006), que é quem cria a abordagem dinâmica do modelo Nelson-Siegel, e que é inspiradora de diversas extensões. Muitas dessas extensões também são apresentadas aqui. Na parte empírica, usando dados da taxa a termo americana de Janeiro de 2004 a Março de 2015, estimam-se os modelos Nelson-Siegel dinâmico e de Svensson e comparam-se os resultados numa janela móvel de 12 meses e comparamos seus desempenhos com aqueles de um passeio aleatório. Em seguida, são apresentados os modelos ARCH e GARCH, citando as obras originais de Engle (1982) e Bolleslev (1986) respectivamente, discutem-se características destes modelos e apresentam-se algumas extensões ao modelo GARCH, incluindo aí alguns modelos GARCH multivariados. Passa-se então por uma rápida apresentação do conceito de VaR (Value at Risk), que será o objetivo da parte empírica. Nesta, usando dados de 02 de Janeiro de 2004 até 25 de Fevereiro de 2015, são feitas uma estimação da variância de um portfólio usando os modelos GARCH, GJR-GARCH e EGARCH e uma previsão do VaR do portfólio a partir da estimação feita anteriormente. Por fim, são apresentados alguns trabalhos que usam os dois modelos conjuntamente, ou seja, que consideram que as taxas ou os fatores que as podem explicam possuem variância variante no tempo.
Resumo:
A obra trata de alguns modelos teóricos a respeito da relação entre a agricultura e a industrialização. Apresenta os grandes ciclos da formação econômica brasileira como o do açúcar, do ouro e do café, e discorre sobre o modo como se deu a industrialização brasileira sob a influência da agricultura e do Estado, enfatizando o período da economia cafeeira como fator determinante para o surgimento de um sistema produtivo de base industrial. Por fim, o estudo avalia a agricultura no Brasil no período de 1960 a 1980, mostrando as principais características do setor agrícola nacional, o papel da agricultura no desenvolvimento nacional e as causas de seu sucesso.
Resumo:
Este artigo apresenta modelos de parcerias que podem ser celebrados pela prefeitura de São Paulo com a finalidade de estruturar um cluster de moda na região da luz, centro do município. A escolha do setor têxtil para a proposta se baseou na importância que esta indústria tem na cidade de São Paulo e no seu potencial de crescimento, tendo em vista a baixa qualificação e inovação apontada pelos dados do setor. A delimitação da região da luz considerou a vocação da região já ocupada pelo comércio de moda e por ser uma região estratégica para o município. Com esse artigo objetiva-se projetar a cidade de São Paulo como grande produtor de moda no mundo e recuperar a região da luz por meio de parcerias com parceiros privados, ou seja, com ações com baixo impacto no orçamento municipal.
Resumo:
A tese é constituída por três artigos: “Regulação Ótima de Pescarias com Imperfeito Enforcement dos Direitos de Propriedade”, “Estimação de um Modelo Generalizado de Pesca” e “Fatores Condicionantes da Reincidência Criminal no Chile”. No Capitulo 1, num contexto de enforcement imperfeito e custoso dos direitos de propriedade, é desenvolvido um modelo bioeconômico para determinar a captura ótima na exploração de recursos hidrobiológicos. Os resultados mostram que: (i) o stock do recurso em estado estacionário é menor quando o enforcement é imperfeito e custoso que quando é perfeito e sem custo, (ii) se o stock do recurso em estado estacionário com enforcement perfeito e sem custo é menor ao de máximo rendimento sustentável, então a quota de captura ótima com enforcement imperfeito e custoso é menor à respetiva quota quando o enforcement é perfeito e sem custo, e (iii) o stock do recurso em estado estacionário com enforcement imperfeito e custoso é maior ao stock do recurso quando a pescaria é de livre acesso. Contudo a gestão ótima dos recursos pesqueiros requer o conhecimento dos seus parâmetros bioeconômicos, porém implementar estudos para obter informação do stock do recurso é muito custoso e está sujeito a erros de mensuração. Assim, no Capitulo 2 são estimados os parâmetros bioeconômicos para a captura de anchoveta peruana. A metodologia baseia-se em Zhang e Smith (2011). Os parâmetros bioeconômicos são obtidos a traves de uma estimação econométrica em dois estágios utilizando dados microeconômicos associadas às embarcações que contam com permissão para capturar anchoveta. O método do bootstrap é utilizado para corrigir os erros padrão das estimativas obtidas pela metodologia em dois estágios. Os parâmetros estimados são utilizados para o stock ótimo e a captura ótima de anchoveta em estado estacionário. Assim mesmo, comparar-se o stock ótimo com o stock observado conclui-se que a pescaria da anchoveta peruana tem estado continuamente sujeita â sobre-exploração. Por último o Capitulo 3 é um esforço por estudar os fatores de reincidência criminal no Chile, uma área de pesquisa que tem sido escassamente explorada em América Latina, embora da sua importância na agenda pública e dada a crença da sociedade chilena que a criminalidade é explicada fundamentalmente por criminais reincidentes. A aproximação escolhida no presente estudo analisa a reincidência a partir da imputação. Para estudar os determinantes a reincidência, utiliza-se um modelo econométrico binário, o modelo Probit, que permite analisar como a idade, sexo, e o tipo de delitos cometidos, afetam a probabilidade de reincidência. Observa-se que na maior dos casos os estimadores apresentam o sinal esperado.
Resumo:
O estado desenvolvimentista está situado entre o estado liberal e o estatismo. Todas as revoluções industriais foram realizadas no quadro de estados desenvolvimentistas, que assumiram várias formas ou modelos, conforme o desenvolvimento fosse original ou retardatário, central ou periférico, o primeiro desenvolvimentismo no país ou o segundo. Terminada a revolução industrial e depois que a economia se torna diversificada, complexa e competitiva, o mercado pode coordenar com vantagem os setores competitivos. Mas o estado tende e deve continuar desenvolvimentista, porque cabe a ele coordenar o setor não-competitivo, realizar uma política macroeconômica ativa incluindo uma política cambial, promover a diminuição das desigualdades econômicas, e proteger o meio ambiente – todas atividades que o mercado não tem condições de realizar.
Resumo:
As mudanças climáticas irão impactar as produções agrícolas de maneiras distintas em cada região do mundo. Os impactos sobre culturas açucareiras (cana-de-açúcar e beterraba açucareira) provocarão mudanças na oferta de açúcar com consequentes mudanças econômicas nos países produtores. Para compreender efeitos dos choques de produtividade no setor sucroenergético e na economia brasileira (PIB e bem-estar) realizou-se uma revisão da literatura sobre os impactos previstos nestas culturas para cenários de mudanças climáticas. Levantaram-se 21 trabalhos, divididos em 10 regiões do mundo de acordo com seus padrões de produção e consumo, que permitiram estabelecer três cenários de choques em produtividade, mínimo, médio e máximo, para cada região. Levantaram-se também choques de produtividade mínimos e máximos para as grandes culturas (trigo, milho, arroz e soja) com base em trabalhos divulgados pelo IPCC (Intergovernmental Panel on Climate Change). Para traduzir os choques de produtividade em retornos econômicos, foram simulados em um modelo econômico os três cenários de choques em produtividade sobre as culturas açucareiras, e outros seis cenários combinando tais choques aos choques em produtividade sobre as grandes culturas. O modelo econômico de equilíbrio geral computável GTAP (Global Trade Analysis Project) foi utilizado, considerando o ano base de 2011, para analisar os efeitos sobre o setor sucroenergético e sobre a economia brasileira. Observou-se que as mudanças climáticas tendem a promover ganhos de produtividade nas culturas açucareiras e na produção de açúcar de diversas regiões do globo. No caso do Brasil, os cenários de choques de produtividade sobre as grandes culturas e culturas açucareiras em conjunto promoveram ganhos de PIB e bem-estar pouco superiores aos cenários de choques somente nas culturas açucareiras. Os resultados sugerem que as mudanças climáticas pouco influenciarão os setores de cana-de-açúcar e açúcar do Brasil. A participação destes setores no PIB é pequena de forma que as variações que promoverão para o PIB e bem-estar brasileiro serão modestas, embora positivas. Para futuros trabalhos sugere-se a incorporação de novas culturas e da pecuária aos cenários, estudos mais regionalizados sobre os impactos do clima futuro nas produtividades agrícolas, e a adoção de modelos econômicos dinâmicos nas análises de cenários de choques de produtividade.