61 resultados para Previsão da taxa de inflação
em Lume - Repositório Digital da Universidade Federal do Rio Grande do Sul
Resumo:
A teoria dos ciclos político-econômicos propõe que as flutuações econômicas possam ser explicadas pelo calendário eleitoral. Sabendo que a situação econômica tem grande influência sobre a decisão de voto dos eleitores, os governantes irão manipular a política econômica a fim de maximizar as chances de vitória do candidato governista. Os estudos empíricos que visaram comprovar essa hipótese encontraram evidências de oportunismo político tanto nas variáveis macroeconômicas, quanto nos instrumentos de política econômica. A presente dissertação tem como objetivo testar a hipótese de oportunismo político nas variáveis macroeconômicas, nos instrumentos de política fiscal e na taxa de juros do Brasil entre 1980 e 2000. Para proceder os testes econométricos serão utilizados modelos autoregressivos integrados de médias móveis (ARIMA) com variáveis dummy de intercepto nos meses que antecedem às eleições. Os resultados comprovaram a hipótese de oportunismo político na taxa de inflação e na despesa total do governo federal.
Resumo:
O objetivo desse trabalho é estudar as variáveis econômicas que influenciaram o investimento das empresas brasileiras no período de 1990-01, para estudar a hipótese do Racionamento do Crédito como fator determinante na decisão de investimento nesse período. As teorias do investimento do ponto de vista macro e microeconômico indicam que vários fatores podem afetar o volume dos investimentos, como nível de atividade da economia, taxa de juros, perspectivas de lucros futuros e de retornos dos investimentos. Todavia as teorias também indicam que mesmo projetos que são viáveis economicamente não são levados a cabo por problemas informacionais, criando o Racionamento do Crédito. Os dados da pesquisa demonstrados nesse trabalho apontam os determinantes da decisão de investimento da empresa. Entre os principais determinantes estão os financiamentos para novos projetos, o mercado doméstico, a taxa de lucro, as incertezas, os custos dos tributos, o câmbio e a taxa de inflação doméstica. Os resultados indicam que a empresa pode ter sofrido o racionamento do crédito no período estudado.
Resumo:
Desde que foi introduzido pela primeira vez na Nova Zelândia, em março de 1990, o regime de metas de inflação tem sido objeto de crescente interesse na literatura econômica. Seguindo a Nova Zelândia, inúmeros outros países passaram a adotar metas de inflação como regime de política monetária, como, por exemplo, o Canadá, Reino Unido, Suécia, Finlândia, Espanha, Chile, e Brasil. Por se tratar de um regime relativamente novo, surgiram na literatura diversos trabalhos com o propósito de avaliar este regime, tanto de uma perspectiva teórica quanto empírica. O objetivo principal deste trabalho é implementar alguns testes iniciais sobre a efetividade do regime de metas de inflação no Brasil. Para alcançar este objetivo, utilizamos duas abordagens principais. Em primeiro lugar, estimamos uma função de reação do tipo Taylor, e olhamos para mudanças nos pesos relativos sobre a atividade real e sobre a inflação. Na segunda abordagem, obtemos dois modelos Auto-Regressivos Vetoriais (VAR), um restrito e outro irrestrito. Estes dois modelos foram utilizados num exercício de previsão fora da amostra (out-of-sample). Os resultados, embora ainda preliminares produzidos pelos poucos dados disponíveis, permitem-nos concluir que o impacto inicial de metas de inflação foi positivo. Nossos resultados indicam que metas de inflação foi um mecanismo importante para manter a estabilidade de preços obtida a partir do Plano Real, mesmo num contexto de acentuada desvalorização cambial.
Resumo:
O objetivo deste trabalho é abordar os principais mecanismos utilizados pelo Banco Central do Brasil (BCB) no processo de decisão acerca da condução da política monetária no período durante o regime de metas de inflação. O BCB analisa e reavalia seus modelos econométricos, que buscam captar inter-relações dos principais agregados da economia brasileira, em conjunto com informações externas aos modelos e julgamentos subjetivos de integrantes do conselho. Portanto, inicialmente será discutida a conjuntura histórica que levou o país a adotar o regime de metas de inflação, assim como sua aplicabilidade. Na segunda parte, são feitas as estimações das equações IS e Phillips que mostram que a taxa de juros afeta o hiato do produto com defasagem de um trimestre e que o produto se correlaciona positivamente com a inflação com defasagem de mais um trimestre. Num terceiro momento, são feitas estimações de uma função de reação do BCB, sugerindo que a instituição leva em consideração o desvio da expectativa de inflação do mercado com relação a meta, o comportamento do hiato do produto e a trajetória dos preços livres em seu processo de decisão.
Resumo:
Este trabalho busca analisar a relação entre as taxas de câmbio e a inflação no Brasil, tanto entre médias quanto entre volatilidades, fazendo uso de instrumentais econométricos mais sofisticados que aqueles até então aplicados na literatura existente. No que se refere à relação entre médias, ou a estimação do pass-through da taxa de câmbio para a inflação, analisou-se a relação entre tais variáveis no período compreendido entre 1980 e 2002, considerando dois índices de preços ao consumidor (IPCA e IGP-DI) e um índice de preços ao produtor (IPA-DI). A abordagem teórica partiu do modelo de FEENSTRA e KENDAL (1997), com algumas adaptações para a economia brasileira. Os testes empíricos foram realizados aplicando o Filtro de Kalman, após a demonstração de que este gera melhores resultados que as estimações por OLS tradicionalmente usadas. Os resultados mostram que o ambiente inflacionário e o regime cambial percebido pelos agentes afetam o grau de pass-through do câmbio para os preços ao consumidor. Observou-se uma redução no pass-through após a implementação do Real para os índices de preço ao consumidor (IPCA) ou com um componente de preços ao consumidor incorporado (IGP-DI) e uma redução ainda mais intensa após a adoção do regime de taxas de câmbio flutuantes em 1999. Já no que se refere à relação entre volatilidades, aplicou-se um modelo GARCH bivariado, trabalhando-se diretamente com os efeitos das volatilidades condicionais, aspecto ainda não abordado na literatura existente Foi encontrada uma relação semi-côncava entre as variâncias da taxa de câmbio e da inflação, diferente do estimado para séries financeiras e em linha com intuições sugeridas em outros estudos. Esta aplicação inova ao (i) estabelecer uma relação entre volatilidades da taxa de câmbio e da inflação, (ii) aplicar um modelo GARCH multivariado, usando variâncias condicionais para analisar a relação entre aquelas volatilidades e (iii) mostrar que os testes tradicionais realizados com séries de volatilidade construídas exogenamente são sensíveis ao critério escolhido para a construção de tais séries, ocultando características relevantes daquela relação. PALAVRAS-CHAVE: Taxas de câmbio, inflação, pass-through, volatilidade, Filtro de Kalman, GARCH
Resumo:
A exploração do paralelismo no nível de instrução (ILP) em arquiteturas superescalares é limitada fortemente pelas dependências de controle, as quais são ocasionadas pelas instruções de desvio, e pelas dependências de dados. As arquiteturas SMT (Simultaneous MultiThreaded) buscam explorar um novo nível de paralelismo, denominado paralelismo no nível de tarefa (TLP), para buscar e executar instruções de diversas tarefas ao mesmo tempo. Com isso, enquanto uma tarefa está bloqueada por dependências de controle e de dados, outras tarefas podem continuar executando, mascarando assim as latências de previsões incorretas e de acessos à memória, usando mais eficientemente as unidades funcionais e demais recursos disponíveis. Contudo, o projeto dessas arquiteturas continua a esbarrar nos mesmos problemas associados ao uso de técnicas utilizadas para a exploração de ILP, como a previsão de devios. Além disso, essas arquiteturas trazem novos desafios, como a determinação da maneira mais eficiente de distribuição/compartilhamento de recursos entre as tarefas. Nesse trabalho será apresentada uma topologia para as tabelas de previsão de desvios em arquiteturas multitarefas simultâneas. Além disso, serão desenvolvidas duas análises complementares acerca de previsão de desvios: o impacto da taxa de acertos da previsão de desvios em arquiteturas com pipelines profundos e o impacto da taxa de acerto na previsão do alvo de um desvio. Entre as principais contribuições do trabalho pode-se citar a definição de uma estrutura particionada para as tabelas de previsão em arquiteturas SMT, aliando desempenho a um menor custo de implementação em uma arquitetura real. Além disso, é mostrado que a taxa de acerto da previsão de desvios tem um grande impacto no desempenho das arquiteturas SMT com pipelines profundos, bem como nas causas de bloqueio do estágio de busca quando utiliza-se cache de instruções bloqueantes.
Resumo:
Geralmente, as populações, incluindo aí os setores produtivos, planejam suas atividades pelo conhecimento antecipado das variações tanto da temperatura quanto da precipitação pluvial baseados nos ciclos anuais e sazonais conhecidos. Os benefícios, confiabilidade e utilização das previsões climáticas têm sido objeto de análise e discussão na comunidade científica mundial. O desenvolvimento e aplicação dessas previsões para determinadas partes de áreas extensas, atende, de forma mais satisfatória, aos anseios dos setores produtivos e a sociedade como um todo. O objetivo principal desse trabalho foi identificar regiões dos oceanos Atlântico e Pacífico, cuja Temperatura da Superfície do Mar (TSM) possa ser utilizada como preditor potencial em modelos estatísticos de previsão climática de temperaturas máxima e mínima em regiões homogêneas do Estado do Rio Grande do Sul. Este estudo foi desenvolvido com dados de temperaturas máxima e mínima de 40 estações meteorológicas, do Instituto Nacional de Meteorologia e, da Fundação Estadual de Pesquisas Agropecuárias para o período de 1913 a 1998 e dados de TSM em pontos de grade para o período de 1950 a 1998 do National Center for Environmental Prediction. Num tratamento preliminar dos dados, as séries tiveram suas falhas preenchidas utilizando um método de preenchimento, aqui chamado, de “método das correlações”. Com as séries completas, aplicou-se métodos de agrupamento, determinando 4 regiões homogêneas de temperaturas máxima e mínima para o Estado. Foi feito um estudo climatológico dessas regiões e determinadas as relações das temperaturas médias máxima e mínima, de cada uma com TSM dos Oceanos na grade definida. As regiões determinadas representaram bem a fisiografia do Estado e as regiões preditoras apresentaram correlações significativas tanto com a temperatura máxima, quanto com a mínima. Os meses com maior número de preditores, tanto para as temperatura máxima quanto para mínima, foi agosto e o de menor, julho. Correlações diferentes para regiões homogêneas distintas, justificou a utilização da regionalização neste trabalho.
Resumo:
Os primeiros estudos sobre previsão de falência foram elaborados por volta da década de 30. Entretanto, o assunto só ganhou impulso a partir da utilização de técnicas estatísticas, ao longo dos anos 60. No Brasil, os primeiros trabalhos sobre o assunto datam dos anos 70. A esse respeito, vale destacar que a técnica estatística empregada em grande parte destes estudos foi a análise discriminante linear multivariada. Na tentativa de contribuir para o tema, este trabalho se propõs a testar um modelo de previsão de concordatas de empresas de capital aberto, a partir da modelagem desenvolvida por Cox (1972). Esse modelo se diferencia daqueles estimados a partir de técnicas logit, probit e análise discriminante na medida em que fornece não apenas a probabilidade de que um determinado evento ocorra no futuro, mas também uma estimativa do tempo até sua ocorrência. A análise dos resultados demonstrou que é possível identificar, antecipadamente, o risco de concordata de uma empresa de capital aberto. Nesse sentido, acredita -se que o modelo de Cox possa ser utilizado como auxiliar na previsão de concordatas de companhias abertas operando na Bolsa de Valores de São Paulo – Bovespa.
Resumo:
Resumo não disponível.
Resumo:
A cada ano, mais de 500.000 pessoas vêm a falecer em acidentes de trânsito no mundo. No Brasil, estima-se entre 30.000 e 50.000 mortos no mesmo período. A velocidade elevada é considerada como um dos principais fatores determinantes dos acidentes e da gravidade dos mesmos. O presente trabalho desenvolve uma análise da consistência geométrica de rodovias de pistas simples no Estado do Rio Grande do Sul, através da elaboração de modelos de previsão da velocidade operacional, em duas etapas distintas. Na primeira etapa, a partir da coleta de dados de velocidades pontuais e de elementos geométricos da rodovia, é elaborado um modelo que permite prever o comportamento do condutor, quanto à velocidade que emprega em seu veículo segundo diferentes condicionantes geométricas. Na segunda etapa, o modelo proposto é aplicado sobre diferentes segmentos viários de rodovias de pista simples do Estado do Rio Grande do Sul, para obtenção das velocidades operacionais previstas e os resultados comparados entre si e com as velocidades de projeto e a velocidade regulamentada. A análise dos resultados para obtenção do modelo conclui como única variável significativa para a elaboração do mesmo, entre as diversas analisadas, o raio planimétrico. Já a análise da consistência geométrica das rodovias, através da aplicação do modelo proposto, indicou que estas apresentam projetos geométricos classificados como bons quanto a sua fluidez, mas classificados como fracos quanto ao dimensionamento dos elementos geométricos de segurança (superelevação, superlargura e distâncias de visibilidade) em decorrência de diferenças superiores a 20 km/h entre a velocidade operacional e a velocidade de projeto. Por fim, observa que as rodovias projetadascom velocidadediretriz de 60 km/h ou inferior são as que apresentam os piores resultados na análise da consistência geométrica e que o condutor brasileiro (observado na elaboração do modelo) não pode ser considerado um velocista, mas sim, um condutor mais "ousado", em situações adversas, se comparado a condutores de outros países, em especial, dos Estados Unidos.
Resumo:
Em fontes de nêutrons por spallation para pesquisa de materiais, o comprimento de onda dos nêutrons é geralmente determinado pelos tempos de percurso (TOF) dos nêutrons desde a fonte até o detector. A precisão atingível é limitada pelo fato de o tempo de emissão do pulso característico do sistema alvo/moderador ser diferente de zero (a situação ideal fictícia seria a emissão se ocorresse na forma de um impulso). “Moderadores acoplados” (elementos usados para produzir feixes de alta intensidade com nêutrons de baixa energia) apresentam um decaimento de intensidade em função do tempo muito longo, ao longo de todo o espectro usado nos experimentos. Por este motivo, “moderadores desacoplados”, os quais produzem feixes com intensidade mais reduzida, são freqüentemente usados para instrumentos que requerem alta resolução. Neste trabalho, propusemos e analisamos uma nova técnica de filtragem dinâmica de feixes de nêutrons polarizados de baixa energia para experimentos que utilizam TOF na determinação do comprimento de onda. O dispositivo consiste de um sistema ótico polarizador/analisador e um inversor de spin seletivo em energia, o qual funciona por ressonância espacial do spin. Variando a condição de ressonância em sincronia com a estrutura temporal do pulso de nêutrons (através do controle de campos magnéticos), o filtro pode ajustar a resolução de energia (ou de comprimento de onda) de pulsos de banda larga em tais experimentos, separando os nêutrons com a correta relação “TOF/comprimento de onda” dos demais Um método para o cálculo de desempenho do sistema foi apresentado em um Trabalho Individual (TI) (PARIZZI et al., 2002 - i), do qual se fará aqui uma breve revisão além de amplo uso na otimização dos parâmetros a serem ajustados para o projeto do filtro. Os resultados finais mostram que ganhos consideráveis em resolução podem ser obtidos com a aplicação desta técnica em experimentos de reflectometria por tempo de percurso, sem que para tal seja necessário comprometer a intensidade do feixe usado pelo mesmo instrumento quando operado em um modo de baixa resolução, dando ao usuário do instrumento a opção de escolher a relação ótima entre intensidade e resolução para seu experimento. Como parte da conclusão desta dissertação, é apresentada uma proposta de parâmetros para a construção deste tipo de filtro e previsão de desempenho da configuração proposta, baseada no software de modelamento desenvolvido.