275 resultados para Oferta e procura - Modelos econométricos


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabalho tem por objetivo avaliar para o caso brasileiro uma das mais importantes propriedades esperadas de um núcleo: ser um bom previsor da inflação plena futura. Para tanto, foram utilizados como referência para comparação dois modelos construídos a partir das informações mensais do IPCA e seis modelos VAR referentes a cada uma das medidas de núcleo calculadas pelo Banco Central do Brasil. O desempenho das previsões foi avaliado pela comparação dos resultados do erro quadrático médio e pela aplicação da metodologia de Diebold-Mariano (1995) de comparação de modelos. Os resultados encontrados indicam que o atual conjunto de medidas de núcleos calculado pelo Banco Central não atende pelos critérios utilizados neste trabalho a essa característica desejada.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabalho tem a finalidade de analisar as evidências de relações de longo prazo entre a taxa de câmbio real (“RER”), a posição internacional de investimentos (“NFA”) e o efeito Balassa-Samuelson (“PREL”) em um grupo de 28 países, grupo este que inclui países em diferentes estágios de desenvolvimento. A metodologia utilizada foi a de testes de cointegração. Os testes aplicados foram desenvolvidos por Bierens (1997), teste não paramétrico, e por Saikkonen e Lütkepohl (2000a, b, c), teste que consiste em primeiro estimar um termo determinístico. Evidências de cointegração são constatadas, em ambos os testes, na maioria dos países estudados. Entretanto, houve diferenças relevantes entre os resultados encontrados através dos dois testes aplicados. Estas diferenças entre os resultados, bem como alguns casos especiais de países que não demonstraram evidências de cointegração, requerem análises mais aprofundadas sobre o comportamento de longo prazo das três variáveis estudadas.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A doença holandesa tornou-se amplamente conhecida na década de 1960, quando a descoberta repentina de reservatórios de gás natural em território holandês, na região do mar do norte, transformou o país em uma economia rica em recursos. A desagradável consequência que proveio da recém-adquirida abundância de commodities foi o declínio da próspera indústria holandesa, que perdeu sua competitividade devido à valorização do florim holandês, como consequência do aumento do influxo de capital estrangeiro no país. Desde então este fenômeno tem sido observado em diversos países que possuem abundância de commodities. O objetivo desta tese é aplicar o modelo da doença holandesa ao Brasil, já que a maior economia da América latina poderá também ter de encarar a ameaça de se tornar prisioneira da “armadilha das commodities”, devido à sua abundância de recursos naturais. O autor revisa a bibliografia básica abordando o tema geral da doença holandesa e dá enfoque a estudos realizados anteriormente no Brasil. Além disso, os quatro maiores sintomas que caracterizam a doença holandesa são testados: (1) valorização das taxas de câmbio do real, (2) declínio do setor industrial, (3) crescimento do setor de serviços, e (4) aumento dos salários. Todos estes sintomas foram observados e podem ser comprovados através das abordagens de cointegração ou de correlação, com exceção do sintoma número dois. Ainda que estes resultados sejam significativos, há muito outros fatores determinantes que influenciam o desenvolvimento dos sintomas examinados, motivo pelo qual futuros estudos serão necessários para se obtiver conclusões definitivas sobre como o Brasil é afetado pela doença holandesa.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este estudo tem como objetivo determinar os principais fatores macroeconômicos que influenciam a formação do preço de imóveis, tomando como base o mercado imobiliário residencial da cidade de São Paulo entre os anos de 2001 e 2012. Para capturar o efeito endógeno do PIB, da taxa de juros e da bolsa de valores sobre o preço de imóveis, optou-se por um modelo VAR. Concluiu-se que, dentre as variáveis, o PIB foi o fator mais preponderante na formação do preço, chegando a ter um impacto quase três vezes superior à taxa de juros. Não foram encontradas evidências estatísticas significativas do efeito da bolsa sobre o preço dos imóveis. Constatou-se ainda que choques no PIB e na taxa de juros demoram, no mínimo, um ano para começarem a refletir sobre o preço. Essas conclusões foram mais robustas no período anterior à crise imobiliária americana de 2008.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta pesquisa (i) caracteriza o processo de transformação estrutural, (ii) quantifica o seu impacto sobre o crescimento da produtividade agregada do trabalho e (iii) investiga os determinantes do crescimento da produtividade induzido pela transformação estrutural através de um extensivo estudo econométrico. Encontrou-se que, em média, a transformação estrutural desempenhou um papel importante para o crescimento da produtividade agregada em países em desenvolvimento. Em particular, a realocação de trabalhadores entre setores foi capaz de explicar, em média, cerca de 50% do crescimento da produtividade agregada em países da América Latina até a década de oitenta. Dessa década em diante, a tranformação estrutural deixou de contribuir para o crescimento da produtividade nessa região. Esse retrocesso estaria relacionado com a retração de atividades de produtividade relativamente alta, como a indústria de transformação, e com o inchaço do setor de serviços. Em oposição à Mcmillan & Rodrik (2011), os resultados encontrados apontaram para uma relação nula ou muito fraca e, certamente, pouco robusta entre a taxa real de câmbio e o componente estrutural de crescimento da produtividade.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Neste trabalho investigamos as propriedades em pequena amostra e a robustez das estimativas dos parâmetros de modelos DSGE. Tomamos o modelo de Smets and Wouters (2007) como base e avaliamos a performance de dois procedimentos de estimação: Método dos Momentos Simulados (MMS) e Máxima Verossimilhança (MV). Examinamos a distribuição empírica das estimativas dos parâmetros e sua implicação para as análises de impulso-resposta e decomposição de variância nos casos de especificação correta e má especificação. Nossos resultados apontam para um desempenho ruim de MMS e alguns padrões de viés nas análises de impulso-resposta e decomposição de variância com estimativas de MV nos casos de má especificação considerados.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Neste artigo, é analisado, por meio de um modelo DSGE novo-keynesiano, o efeito da redução do imposto sobre o consumo, tal como os impactos das elevações da tarifa incidente sobre a renda do trabalho e dos gastos do governo, sobre o produto e o déficit público em uma economia com armadilha da liquidez. Ao permitir que a duração da armadilha da liquidez seja determinada endogenamente é possível concluir que os efeitos marginais dependem da magnitude do choque dado e de quais instrumentos de política fiscal estão sendo usados. Desta forma, para avaliar o impacto desses instrumentos torna-se necessário observar os seus efeitos médios. Com base nessa medida e na economia em questão, uma política fiscal pode apresentar os maiores efeitos marginais para cada duração da armadilha da liquidez, mas não necessariamente será aquela que causará os maiores impactos sobre o produto e o déficit público.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A presente Dissertação aborda a questão da localização varejista. Trata da temática da localização varejista em zonas urbanas, apresentando uma metodologia e o correspondente algoritmo que possibilitam ter uma visão global das áreas de uma zona urbana que representam possíveis oportunidades de negócio para estabelecimentos de auto-serviço alimentício, por apresentarem a demanda pior atendida pelas lojas instaladas, relativamente às demais áreas dessa zona urbana. Apresenta, ainda, a título de ilustração da aplicação do algoritmo, a situação existente na cidade de Uberlândia, MG.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta dissertação tem como objetivo a estimação e comparação entre modelos VECM com a abordagem de modelos TVECM, na modelagem e estudo do desalinhamento cambial e como o ajuste do câmbio real para que procede. Como estratégia a ser abordada serão considerados modelos de correção de erros com características distintas. Utilizaremos como abordagem linear a técnica de cointegração proposta por Johansen (1988), a abordagem tradicional. Como técnica não linear utilizaremos a abordagem inicialmente proposta por BALKE, FOMBY(1997), que consideram um mecanismo de correção de erros de forma a incorporar características TAR e SETAR. Para a análise da presença ou não de não linearidade na correção de erros entre as séries, foram realizados neste trabalho os testes de Kapetanios, Shin e Snell (2003), Hansen e Seo(2002) e Seo (2006)

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Modelos de predição baseados em estimações não-paramétricas continuam em desenvolvimento e têm permeado a comunidade quantitativa. Sua principal característica é que não consideram a priori distribuições de probabilidade conhecidas, mas permitem que os dados passados sirvam de base para a construção das próprias distribuições. Implementamos para o mercado brasileiro os estimadores agrupados não-paramétricos de Sam e Jiang (2009) para as funções de drift e de difusão do processo estocástico da taxa de juros instantânea, por meio do uso de séries de taxas de juros de diferentes maturidades fornecidas pelos contratos futuros de depósitos interfinanceiros de um dia (DI1). Os estimadores foram construídos sob a perspectiva da estimação por núcleos (kernels), que requer para a sua otimização um formato específico da função-núcleo. Neste trabalho, foi usado o núcleo de Epanechnikov, e um parâmetro de suavizamento (largura de banda), o qual é fundamental para encontrar a função de densidade de probabilidade ótima que forneça a estimação mais eficiente em termos do MISE (Mean Integrated Squared Error - Erro Quadrado Integrado Médio) no momento de testar o modelo com o tradicional método de validação cruzada de k-dobras. Ressalvas são feitas quando as séries não possuem os tamanhos adequados, mas a quebra estrutural do processo de difusão da taxa de juros brasileira, a partir do ano 2006, obriga à redução do tamanho das séries ao custo de reduzir o poder preditivo do modelo. A quebra estrutural representa um processo de amadurecimento do mercado brasileiro que provoca em grande medida o desempenho insatisfatório do estimador proposto.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabalho busca medir a credibilidade do Banco Central Brasileiro. Utiliza-se como medida da credibilidade, a variação do prêmio de risco de inflação em função de surpresas inflacionárias de curto prazo no índice IPCA. Primeiro evidencia-se que as expectativas inflacionárias de médio prazo são afetadas pelas surpresas inflacionárias, este efeito é causado por dois motivos, a indexação da economia e/ou a falta de credibilidade da autoridade monetária. Em seguida verifica-se que as surpresas inflacionárias também tem efeito sobre o premio de risco de inflação o que indica falta de credibilidade do banco central.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este artigo pretende associar o desempenho dos índices de saúde com saneamento básico nos estados brasileiros e se a filiação partidária afeta ou não esses indicadores. Para elaboração deste trabalho foi montado um banco de dados utilizando a estrutura em dados em painel, referente ao período de 2000 a 2010, com os dados extraídos do SINIS, DataSUS, IBGE e TSE. Foi estimado por modelo de efeitos fixos, corrigindo o poblema de heterocedasticidade da amostra com o Teste de White. Os resultados mostram que não podemos descartar a importância do saneamento. Encontramos evidências do impacto das variáveis de esgotamento sanitário sobre a queda da mortalidade por diarréia aguda (crianças menores de 5 anos).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta dissertação concentra-se nos processos estocásticos espaciais definidos em um reticulado, os chamados modelos do tipo Cliff & Ord. Minha contribuição nesta tese consiste em utilizar aproximações de Edgeworth e saddlepoint para investigar as propriedades em amostras finitas do teste para detectar a presença de dependência espacial em modelos SAR (autoregressivo espacial), e propor uma nova classe de modelos econométricos espaciais na qual os parâmetros que afetam a estrutura da média são distintos dos parâmetros presentes na estrutura da variância do processo. Isto permite uma interpretação mais clara dos parâmetros do modelo, além de generalizar uma proposta de taxonomia feita por Anselin (2003). Eu proponho um estimador para os parâmetros do modelo e derivo a distribuição assintótica do estimador. O modelo sugerido na dissertação fornece uma interpretação interessante ao modelo SARAR, bastante comum na literatura. A investigação das propriedades em amostras finitas dos testes expande com relação a literatura permitindo que a matriz de vizinhança do processo espacial seja uma função não-linear do parâmetro de dependência espacial. A utilização de aproximações ao invés de simulações (mais comum na literatura), permite uma maneira fácil de comparar as propriedades dos testes com diferentes matrizes de vizinhança e corrigir o tamanho ao comparar a potência dos testes. Eu obtenho teste invariante ótimo que é também localmente uniformemente mais potente (LUMPI). Construo o envelope de potência para o teste LUMPI e mostro que ele é virtualmente UMP, pois a potência do teste está muito próxima ao envelope (considerando as estruturas espaciais definidas na dissertação). Eu sugiro um procedimento prático para construir um teste que tem boa potência em uma gama de situações onde talvez o teste LUMPI não tenha boas propriedades. Eu concluo que a potência do teste aumenta com o tamanho da amostra e com o parâmetro de dependência espacial (o que está de acordo com a literatura). Entretanto, disputo a visão consensual que a potência do teste diminui a medida que a matriz de vizinhança fica mais densa. Isto reflete um erro de medida comum na literatura, pois a distância estatística entre a hipótese nula e a alternativa varia muito com a estrutura da matriz. Fazendo a correção, concluo que a potência do teste aumenta com a distância da alternativa à nula, como esperado.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabalho tem por objetivo estimar um modelo empírico para relacionar os gastos em publicidade com a receita das firmas, de forma a servir como ferramenta de tomada de decisão, para isso vamos fazer um estudo de caso da indústria de telecomunicações. A Indústria de comunicação (publicidade) no Brasil, segundo dados do IBGE de 2008, é responsável por 4% do PIB, gerando receitas da ordem 115 bilhões de reais. Com 113 mil empresas que geram 711 mil empregos, ocupam 866 mil pessoas e pagam 11,8 bilhões em salários e encargos. No entanto, a maioria dos gestores de marketing declara não ter instrumentos para medir o impacto de suas ações no resultado das empresas. O modelo empírico será estimado tendo como base dados mensais dos serviços de ligações de longa distância nacional da Embratel para o período de janeiro de 2009 até dezembro de 2011. As informações quase sempre não disponíveis, só puderam ser usadas devido ao compromisso de confidencialidade. A partir de técnicas de cointegração, foi calculada a elasticidade de longo prazo da receita em relação aos gastos com publicidade e ao preço, assim com as respectivas velocidades de ajustamento aos desvios de curto prazo. Os resultados sugerem que a receita responde positivamente às variações dos gastos em publicidade, embora o percentual seja relativamente baixo, através do teorema de Dorfman-Steiner conseguimos indicar que o ponto ótimo da relação entre gastos com publicidade e a receita seria de aproximadamente 20%, respeitadas as limitações do modelo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta tese é composta por três ensaios sobre testes empíricos de curvas de Phillips, curvas IS e a interação entre as políticas fiscal e monetária. O primeiro ensaio ("Curvas de Phillips: um Teste Abrangente") testa curvas de Phillips usando uma especificação autoregressiva de defasagem distribuída (ADL) que abrange a curva de Phillips Aceleracionista (APC), a curva de Phillips Novo Keynesiana (NKPC), a curva de Phillips Híbrida (HPC) e a curva de Phillips de Informação Rígida (SIPC). Utilizamos dados dos Estados Unidos (1985Q1--2007Q4) e do Brasil (1996Q1--2012Q2), usando o hiato do produto e alternativamente o custo marginal real como medida de pressão inflacionária. A evidência empírica rejeita as restrições decorrentes da NKPC, da HPC e da SIPC, mas não rejeita aquelas da APC. O segundo ensaio ("Curvas IS: um Teste Abrangente") testa curvas IS usando uma especificação ADL que abrange a curva IS Keynesiana tradicional (KISC), a curva IS Novo Keynesiana (NKISC) e a curva IS Híbrida (HISC). Utilizamos dados dos Estados Unidos (1985Q1--2007Q4) e do Brasil (1996Q1--2012Q2). A evidência empírica rejeita as restrições decorrentes da NKISC e da HISC, mas não rejeita aquelas da KISC. O terceiro ensaio ("Os Efeitos da Política Fiscal e suas Interações com a Política Monetária") analisa os efeitos de choques na política fiscal sobre a dinâmica da economia e a interação entre as políticas fiscal e monetária usando modelos SVARs. Testamos a Teoria Fiscal do Nível de Preços para o Brasil analisando a resposta do passivo do setor público a choques no superávit primário. Para a identificação híbrida, encontramos que não é possível distinguir empiricamente entre os regimes Ricardiano (Dominância Monetária) e não-Ricardiano (Dominância Fiscal). Entretanto, utilizando a identificação de restrições de sinais, existe evidência que o governo seguiu um regime Ricardiano (Dominância Monetária) de janeiro de 2000 a junho de 2008.