944 resultados para Inflação - Modelos econométricos
Resumo:
Desde a implantação do sistema de metas de inflação em julho de 1999, o Banco Central (BC) tem utilizado para monitorar a política monetária um número crescente de indicadores, dentre os quais, incluem-se as medidas de núcleo de inflação. O objetivo é obter uma informação mais precisa sobre o curso da inflação no país e, consequentemente, sobre o futuro da política monetária. Além do Banco Central, muitas instituições financeiras utilizam medidas de núcleo para orientar suas estimativas em relação ao comportamento da inflação no país. Deste modo, esta dissertação faz uma avaliação dos núcleos de inflação utilizando os principais testes estatísticos e econométricos sugeridos pela literatura econômica e propõe ainda novos indicadores para o Brasil.
Resumo:
Este trabalho busca analisar a relação entre as taxas de câmbio e a inflação no Brasil, tanto entre médias quanto entre volatilidades, fazendo uso de instrumentais econométricos mais sofisticados que aqueles até então aplicados na literatura existente. No que se refere à relação entre médias, ou a estimação do pass-through da taxa de câmbio para a inflação, analisou-se a relação entre tais variáveis no período compreendido entre 1980 e 2002, considerando dois índices de preços ao consumidor (IPCA e IGP-DI) e um índice de preços ao produtor (IPA-DI). A abordagem teórica partiu do modelo de FEENSTRA e KENDAL (1997), com algumas adaptações para a economia brasileira. Os testes empíricos foram realizados aplicando o Filtro de Kalman, após a demonstração de que este gera melhores resultados que as estimações por OLS tradicionalmente usadas. Os resultados mostram que o ambiente inflacionário e o regime cambial percebido pelos agentes afetam o grau de pass-through do câmbio para os preços ao consumidor. Observou-se uma redução no pass-through após a implementação do Real para os índices de preço ao consumidor (IPCA) ou com um componente de preços ao consumidor incorporado (IGP-DI) e uma redução ainda mais intensa após a adoção do regime de taxas de câmbio flutuantes em 1999. Já no que se refere à relação entre volatilidades, aplicou-se um modelo GARCH bivariado, trabalhando-se diretamente com os efeitos das volatilidades condicionais, aspecto ainda não abordado na literatura existente Foi encontrada uma relação semi-côncava entre as variâncias da taxa de câmbio e da inflação, diferente do estimado para séries financeiras e em linha com intuições sugeridas em outros estudos. Esta aplicação inova ao (i) estabelecer uma relação entre volatilidades da taxa de câmbio e da inflação, (ii) aplicar um modelo GARCH multivariado, usando variâncias condicionais para analisar a relação entre aquelas volatilidades e (iii) mostrar que os testes tradicionais realizados com séries de volatilidade construídas exogenamente são sensíveis ao critério escolhido para a construção de tais séries, ocultando características relevantes daquela relação. PALAVRAS-CHAVE: Taxas de câmbio, inflação, pass-through, volatilidade, Filtro de Kalman, GARCH
Resumo:
O trabalho tem como objetivo comparar a eficácia das diferentes metodologias de projeção de inflação aplicadas ao Brasil. Serão comparados modelos de projeção que utilizam os dados agregados e desagregados do IPCA em um horizonte de até doze meses à frente. Foi utilizado o IPCA na base mensal, com início em janeiro de 1996 e fim em março de 2012. A análise fora da amostra foi feita para o período entre janeiro de 2008 e março de 2012. Os modelos desagregados serão estimados por SARIMA, pelo software X-12 ARIMA disponibilizado pelo US Census Bureau, e terão as aberturas do IPCA de grupos (9) e itens (52), assim como aberturas com sentido mais econômico utilizadas pelo Banco Central do Brasil como: serviços, administrados, alimentos e industrializados; duráveis, não duráveis, semiduráveis, serviços e administrados. Os modelos agregados serão estimados por técnicas como SARIMA, modelos estruturais em espaço-estado (Filtro de Kalman) e Markov-switching. Os modelos serão comparados pela técnica de seleção de modelo Model Confidence Set, introduzida por Hansen, Lunde e Nason (2010), e Dielbod e Mariano (1995), no qual encontramos evidências de ganhos de desempenho nas projeções dos modelos mais desagregados em relação aos modelos agregados.
Resumo:
Pós-graduação em Física - IFT
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
As estimações das taxas de inflação são de fundamental importância para os gestores, pois as decisões de investimento estão intimamente ligadas a elas. Contudo, o comportamento inflacionário tende a ser não linear e até mesmo caótico, tornando difícil a sua correta estimação. Essa característica do fenômeno pode tornar imprecisos os modelos mais simples de previsão, acessíveis às pequenas organizações, uma vez que muitos deles necessitam de grandes manipulações de dados e/ou softwares especializados. O presente artigo tem por objetivo avaliar, por meio de análise formal estatística, a eficácia das redes neurais artificiais (RNA) na previsão da inflação, dentro da realidade de organizações de pequeno porte. As RNA são ferramentas adequadas para mensurar os fenômenos inflacionários, por se tratar de aproximações de funções polinomiais, capazes de lidar com fenômenos não lineares. Para esse processo, foram selecionados três modelos básicos de redes neurais artificiais Multi Layer Perceptron, passíveis de implementação a partir de planilhas eletrônicas de código aberto. Os três modelos foram testados a partir de um conjunto de variáveis independentes sugeridas por Bresser-Pereira e Nakano (1984), com defasagem de um, seis e doze meses. Para tal, foram utilizados testes de Wilcoxon, coeficiente de determinação R² e o percentual de erro médio dos modelos. O conjunto de dados foi dividido em dois, sendo um grupo usado para treinamento das redes neurais artificiais, enquanto outro grupo era utilizado para verificar a capacidade de predição dos modelos e sua capacidade de generalização. Com isso, o trabalho concluiu que determinados modelos de redes neurais artificiais têm uma razoável capacidade de predição da inflação no curto prazo e se constituem em uma alternativa razoável para esse tipo de mensuração.
Resumo:
Esta dissertação visa deslumbrar uma análise macroeconômica do Brasil, especialmente no que se refere à relação dos índices mensais dos volumes das exportações e das importações com os volumes mensais do PIB, da Taxa SELIC e as Taxas de Câmbio, conforme dados coletados no período de janeiro de 2004 a dezembro de 2014, através de pesquisa literária referente aos históricos sobre cada conceito envolvido no âmbito da macroeconomia das varáveis estudadas. Foi realizado um estudo de caso embasado em dados de sites governamentais, no período delimitado, empregando-se o método de regressão linear, com base na Teoria da correlação de Pearson, demonstrando os resultados obtidos no período do estudo para as varáveis estudadas. Desta maneira, conseguiu-se estudar e analisar como as variáveis dependentes (resposta): volume das exportações e volume das importações estão relacionadas com as varáveis independentes (explicativas): PIB, Taxa Selic e taxa de Câmbio. Os resultados apurados no presente estudo permitem identificar que existe correlação moderada e negativa, quando analisadas a Taxa Selic e a Taxa de Câmbio com os volumes das exportações e das importações, enquanto o PIB apresenta correlação forte e positiva na análise com os volumes das exportações e das importações
Resumo:
Há mais de uma década o controle dos níveis de preço na economia brasileira é realizado dentro do escopo do Regime de Metas de Inflação, que utiliza modelos macroeconômicos como instrumentos para guiar as tomadas de decisões sobre política monetária. Após um período de relativo êxito (2006 - 2009), nos últimos anos apesar dos esforços das autoridades monetárias na aplicação das políticas de contenção da inflação, seguindo os mandamentos do regime de metas, esta tem se mostrado resistente, provocando um debate em torno de fatores que podem estar ocasionando tal comportamento. Na literatura internacional, alguns trabalhos têm creditado aos choques de oferta, especialmente aos desencadeados pela variação dos preços das commodities, uma participação significativa na inflação, principalmente em economias onde os produtos primários figuram como maioria na pauta exportadora. Na literatura nacional, já existem alguns trabalhos que apontam nesta mesma direção. Sendo assim, buscou-se, como objetivo principal para o presente estudo, avaliar como os choques de oferta, mais especificamente os choques originados pelos preços das commodities, têm impactado na inflação brasileira e como e com que eficiência a política monetária do país tem reagido. Para tanto, foi estimado um modelo semiestrutural contendo uma curva de Phillips, uma curva IS e duas versões da Função de Reação do Banco Central, de modo a verificar como as decisões de política monetária são tomadas. O método de estimação empregado foi o de Autorregressão Vetorial com Correção de Erro (VEC) na sua versão estrutural, que permite uma avaliação dinâmica das relações de interdependência entre as variáveis do modelo proposto. Por meio da estimação da curva de Phillips foi possível observar que os choques de oferta, tanto das commodities como da produtividade do trabalho e do câmbio, não impactam a inflação imediatamente, porém sua relevância é crescente ao longo do tempo chegando a prevalecer sobre o efeito autorregressivo (indexação) verificado. Estes choques também se apresentaram importantes para o comportamento da expectativa de inflação, produzindo assim, uma indicação de que seus impactos tendem a se espalhar pelos demais setores da economia. Através dos resultados da curva IS constatou-se a forte inter-relação entre o hiato do produto e a taxa de juros, o que indica que a política monetária, por meio da fixação de tal taxa, influencia fortemente a demanda agregada. Já por meio da estimação da primeira função de reação, foi possível perceber que há uma relação contemporânea relevante entre o desvio da expectativa de inflação em relação à meta e a taxa Selic, ao passo que a relação contemporânea do hiato do produto sobre a taxa Selic se mostrou pequena. Por fim, os resultados obtidos com a segunda função de reação, confirmaram que as autoridades monetárias reagem mais fortemente aos sinais inflacionários da economia do que às movimentações que acontecem na atividade econômica e mostraram que uma elevação nos preços das commodities, em si, não provoca diretamente um aumento na taxa básica de juros da economia.
Resumo:
As empresas que almejam garantir e melhorar sua posição dentro de em um mercado cada vez mais competitivo precisam estar sempre atualizadas e em constante evolução. Na busca contínua por essa evolução, investem em projetos de Pesquisa & Desenvolvimento (P&D) e em seu capital humano para promover a criatividade e a inovação organizacional. As pessoas têm papel fundamental no desenvolvimento da inovação, mas para que isso possa florescer de forma constante é preciso comprometimento e criatividade para a geração de ideias. Criatividade é pensar o novo; inovação é fazer acontecer. Porém, encontrar pessoas com essas qualidades nem sempre é tarefa fácil e muitas vezes é preciso estimular essas habilidades e características para que se tornem efetivamente criativas. Os cursos de graduação podem ser uma importante ferramenta para trabalhar esses aspectos, características e habilidades, usando métodos e práticas de ensino que auxiliem no desenvolvimento da criatividade, pois o ambiente ensino-aprendizagem pesa significativamente na formação das pessoas. O objetivo deste estudo é de identificar quais fatores têm maior influência sobre o desenvolvimento da criatividade em um curso de graduação em administração, analisando a influência das práticas pedagógicas dos docentes e as barreiras internas dos discentes. O referencial teórico se baseia principalmente nos trabalhos de Alencar, Fleith, Torrance e Wechsler. A pesquisa transversal de abordagem quantitativa teve como público-alvo os alunos do curso de Administração de uma universidade confessional da Grande São Paulo, que responderam 465 questionários compostos de três escalas. Para as práticas docentes foi adaptada a escala de Práticas Docentes em relação à Criatividade. Para as barreiras internas foi adaptada a escala de Barreiras da Criatividade Pessoal. Para a análise da percepção do desenvolvimento da criatividade foi construída e validada uma escala baseada no referencial de características de uma pessoa criativa. As análises estatísticas descritivas e fatoriais exploratórias foram realizadas no software Statistical Package for the Social Sciences (SPSS), enquanto as análises fatoriais confirmatórias e a mensuração da influência das práticas pedagógicas e das barreiras internas sobre a percepção do desenvolvimento da criatividade foram realizadas por modelagem de equação estrutural utilizando o algoritmo Partial Least Squares (PLS), no software Smart PLS 2.0. Os resultados apontaram que as práticas pedagógicas e as barreiras internas dos discentes explicam 40% da percepção de desenvolvimento da criatividade, sendo as práticas pedagógicas que exercem maior influencia. A pesquisa também apontou que o tipo de temática e o período em que o aluno está cursando não têm influência sobre nenhum dos três construtos, somente o professor influencia as práticas pedagógicas.
Resumo:
A significant observational effort has been directed to investigate the nature of the so-called dark energy. In this dissertation we derive constraints on dark energy models using three different observable: measurements of the Hubble rate H(z) (compiled by Meng et al. in 2015.); distance modulus of 580 Supernovae Type Ia (Union catalog Compilation 2.1, 2011); and the observations of baryon acoustic oscilations (BAO) and the cosmic microwave background (CMB) by using the so-called CMB/BAO of six peaks of BAO (a peak determined through the Survey 6dFGS data, two through the SDSS and three through WiggleZ). The statistical analysis used was the method of the χ2 minimum (marginalized or minimized over h whenever possible) to link the cosmological parameter: m, ω and δω0. These tests were applied in two parameterization of the parameter ω of the equation of state of dark energy, p = ωρ (here, p is the pressure and ρ is the component of energy density). In one, ω is considered constant and less than -1/3, known as XCDM model; in the other the parameter of state equantion varies with the redshift, where we the call model GS. This last model is based on arguments that arise from the theory of cosmological inflation. For comparison it was also made the analysis of model CDM. Comparison of cosmological models with different observations lead to different optimal settings. Thus, to classify the observational viability of different theoretical models we use two criteria information, the Bayesian information criterion (BIC) and the Akaike information criteria (AIC). The Fisher matrix tool was incorporated into our testing to provide us with the uncertainty of the parameters of each theoretical model. We found that the complementarity of tests is necessary inorder we do not have degenerate parametric spaces. Making the minimization process we found (68%), for the Model XCDM the best fit parameters are m = 0.28 ± 0, 012 and ωX = −1.01 ± 0, 052. While for Model GS the best settings are m = 0.28 ± 0, 011 and δω0 = 0.00 ± 0, 059. Performing a marginalization we found (68%), for the Model XCDM the best fit parameters are m = 0.28 ± 0, 012 and ωX = −1.01 ± 0, 052. While for Model GS the best settings are M = 0.28 ± 0, 011 and δω0 = 0.00 ± 0, 059.
Resumo:
A significant observational effort has been directed to investigate the nature of the so-called dark energy. In this dissertation we derive constraints on dark energy models using three different observable: measurements of the Hubble rate H(z) (compiled by Meng et al. in 2015.); distance modulus of 580 Supernovae Type Ia (Union catalog Compilation 2.1, 2011); and the observations of baryon acoustic oscilations (BAO) and the cosmic microwave background (CMB) by using the so-called CMB/BAO of six peaks of BAO (a peak determined through the Survey 6dFGS data, two through the SDSS and three through WiggleZ). The statistical analysis used was the method of the χ2 minimum (marginalized or minimized over h whenever possible) to link the cosmological parameter: m, ω and δω0. These tests were applied in two parameterization of the parameter ω of the equation of state of dark energy, p = ωρ (here, p is the pressure and ρ is the component of energy density). In one, ω is considered constant and less than -1/3, known as XCDM model; in the other the parameter of state equantion varies with the redshift, where we the call model GS. This last model is based on arguments that arise from the theory of cosmological inflation. For comparison it was also made the analysis of model CDM. Comparison of cosmological models with different observations lead to different optimal settings. Thus, to classify the observational viability of different theoretical models we use two criteria information, the Bayesian information criterion (BIC) and the Akaike information criteria (AIC). The Fisher matrix tool was incorporated into our testing to provide us with the uncertainty of the parameters of each theoretical model. We found that the complementarity of tests is necessary inorder we do not have degenerate parametric spaces. Making the minimization process we found (68%), for the Model XCDM the best fit parameters are m = 0.28 ± 0, 012 and ωX = −1.01 ± 0, 052. While for Model GS the best settings are m = 0.28 ± 0, 011 and δω0 = 0.00 ± 0, 059. Performing a marginalization we found (68%), for the Model XCDM the best fit parameters are m = 0.28 ± 0, 012 and ωX = −1.01 ± 0, 052. While for Model GS the best settings are M = 0.28 ± 0, 011 and δω0 = 0.00 ± 0, 059.
Resumo:
Estudiar los medios de comunicación significa estudiar al hombre, la sociedad en la que vive, su evolución y las perspectivas de desarrollo futuro. Después de haber puntualizado brevemente los avances tecnológicos salientes en la historia del hombre y de haber identificado las características más relevantes de las diversas redefiniciones antropológicas que siguieron a la introducción de algunos nuevos medios, nos detendremos principalmente en el estudio de las peculiaridades de los instrumentos de comunicación de masa más modernos, de la fotografía al cine, de la televisión a Internet. El objetivo principal de este aporte, lejos de querer proveer sistemas teóricos definitivos, es trazar un conjunto coherente de temáticas capaces de suscitar nuevas y proficuas cuestiones y de promover un debate abierto a los más diversos aportes, con particular atención a los avances de las comunicaciones telemáticas.
Resumo:
Resumen: Luego de la crisis financiera global de 2008, el blindaje conceptual del paradigma neoclásico, edificado sobre un atractivo formalismo matemático, ha dejado entrever sus falencias. En ese contexto, este artículo plantea la necesidad de revisar sus fundamentos, en especial la concepción antropológica y la metodología que subyace detrás del modelo. El autor analiza al mainstream como un modelo reduccionista de la naturaleza humana, y postula la necesidad de modificar el rumbo de la ciencia económica hacia una dirección personalista, enfocada en el bienestar social de las personas, que considere la importancia de la moral en la toma de decisiones. Asimismo, el economista debería desarrollar su trabajo desde una perspectiva reflexiva y de diálogo con el resto de las ciencias sociales.
Resumo:
El área experimental está ubicada en el departamento de Boaco, municipio de San José de los Remate, finca La Primavera cuya ubicación es latitud norte 12°36'43" y longitud oeste 85° 44'07". El objetivo del presente estudio es determinar los factores de la RUSLE Y USLE durante la estación lluviosa del 2008, bajo diferentes sistemas de cubierta vegetal (Grama natural y Bosque nativo). Se estableció un experimento en bloques, con tres repeticiones y dos tratamientos. Cada parcela tiene una dimensión de 50 metros de largo y 15 metros de ancho para un área útil de 750 m2 con un área total por tratamiento de 2,250 m2. El estudio demuestra que las mayores pérdidas de suelo se dieron en las parcelas de Grama natural con un valor promedio de 0.229 t/ha y en las parcelas de Bosque nativo resultaron con pérdidas menores con 0.033t/ha. Además las pérdidas de suelos en todos los eventos fueron relativamente bajas en comparación a los niveles de tolerancia propuestos por Wischmeier y Smith, 1965-1978. Se utilizo la Ecuación Universal de Pérdida de Suelo (E.U.P.S) el cual está compuesta por un total de 6 parámetro como R = 516.48. MJmm/ha h, K = 0.34-0.63 t.ha.h/ha MJ mm, S = 1.6, L = 4.27 (USLE), L*S (0.34–0.39) (RUSLE), C = Grama natural 0.01 y Bosque nativo 0.001, P = no se asumió por no existir práctica.Para el análisis de la información; se utilizó como método estadístico T student con un grado de significancia del 95 % los efectos de las diferentes variables relacionada a los procesos de erosión del suelo y del escurrimiento superficial resultando no significativos entre modelos.