70 resultados para Simulações numéricas
Resumo:
O Estudo Visa Avaliar os Impactos de Propostas Alternativas de Redução da Proteção Tarifária de Bens Não-Agrícolas Sobre a Economia Brasileira Usando um Modelo de Equilíbrio Geral Computável. Foram Simulados os Impactos da Implementação de Cortes Tarifários de Acordo com Diferentes Coeficientes para a Fórmula Suíça. as Simulações Foram Realizadas com o Modelo Gtap e Todos os Choques Tarifários Foram Calculados a Partir de Informações da Base de Dados Macmap. Além de Analisar Resultados Macroeconômicos e Setoriais, Também foi Testada a Sensibilidade dos Resultados em Relação ao Aumento das Elasticidades de Armington e À Ocorrência de uma Simultânea Liberalização de Tarifas Sobre Bens Agrícolas.
Impacto de entrada da Venezuela no Mercosul: uma simulação com modelo de equilíbrio geral computável
Resumo:
O Objetivo deste Estudo é Avaliar os Impactos da Entrada da Venezuela no Mercosul Utilizando para Tanto o Modelo de Equilíbrio Geral Computável Multi-Setorial e Multi-Regional Denominado Global Trade Analysis Project (Gtap). Além da Introdução, o Estudo Está Dividido em Outras 5 Seções. na Seção 2, são Analisados os Documentos Mais Relevantes Assinados Pelos Estados-Parte, Ressaltando a Relativa Rapidez da Assinatura do Acordo de Adesão da Venezuela ao Bloco; na Seção 3, Descreve-Se o Estado Atual do Fluxo de Comércio entre Venezuela e Mercosul, Assim como as Condições de Acesso a Mercados, Ressaltando a Importância da Venezuela para o Mercosul e a Proteção Ligeiramente Maior Aplicada Pela Economia Venezuelana Quando Comparada com a do Mercosul. na Seção Seguinte, Descrevem-Se os Choques Tarifários Implementados em Três Simulações, Representativas da Adesão da Venezuela ao Mercosul, Além de Hipóteses de Fechamento do Modelo. na Seção 5, os Resultados da Simulação são Apresentados e Discutidos. Sinteticamente, Chama-Se À Atenção para o Aumento de Bem Estar nos Países Envolvidos e o Significativo Impacto Setorial, Especialmente nos Setores de Automóveis, Máquinas e Equipamentos e Têxteis e Vestuário. uma Última Seção Sumaria as Principais Conclusões do Trabalho.
Resumo:
Este artigo avalia o impacto sobre a economia brasileira de uma reforma tributária que reduza distorções e cumulatividade, utilizando para tal experimento a atual proposta do Ministério da Fazenda. Utiliza-se um modelo recursivo dinâmico padrão calibrado de forma a se aproximar o máximo possível da economia brasileira hoje. A simulações são implementadas ao se introduzir parâmetros correspondentes à reforma tributária: desoneração da folha de pagamentos, redução da cumulatividade com introdução do IVA-F e a desoneração dos investimentos com a redução do prazo de restituição de créditos de ICMS. Estima-se que a reforma tributária proposta provocaria um aumento de 1,5 pontos percentuais na taxa de crescimento do produto nos oito anos seguintes a sua implementação e um ganho de longo prazo de 16%. O impacto sobre o nível de investimento seria muito expressivo, 40% no mesmo período, de modo que a taxa de investimento saltaria dos atuais 20% para quase 24%. Os ganhos de consumo e bem-estar também foram estimados como bastante signicativos.
Resumo:
Diversos estudos de Finanças Corporativas consideram os custos associados aos ajustes da estrutura de capital das empresas irrelevantes tanto na forma quanto em magnitude. Este estudo analisou empiricamente a influência dos custos de ajustamento na dinâmica dos ajustes da estrutura de capital de empresas brasileiras de capital aberto no período de 1999 a 2007. A alavancagem foi abordada sob três diferentes cenários, considerando a presença de custos fixos, custos proporcionais e por uma composição de custos fixos e proporcionais através de simulações utilizando um modelo reduzido da estrutura de capital. Em seguida a análise não paramétrica da amostra revelou que as empresas apresentam um comportamento dinâmico em suas decisões de financiamento para o ajuste da estruturas de capital, mas que não se revelou contínuo. A utilização de um modelo de duration mostrou-se adequado para mensurar o intervalo de tempo entre os ajustes da estrutura de capital das empresas. Os resultados são extremamente relevantes e suportam a teoria de um comportamento de rebalanceamento dinâmico pelas empresas de suas estruturas de capital em torno de um intervalo ótimo. Entretanto os ajustes não ocorrem de forma imediata e a persistência de choques à estrutura de capital deve-se em sua maior parte aos custos associados aos ajustes do que a uma possível indiferença à estrutura de capital. . Este trabalho constitui-se como pioneiro no mercado brasileiro acerca dos custos de ajustamento da estrutura de capital e abre espaço para a discussão do comportamento ótimo em torno da estrutura de capital de empresas nacionais.
Resumo:
Tendo como motivação o desenvolvimento de uma representação gráfica de redes com grande número de vértices, útil para aplicações de filtro colaborativo, este trabalho propõe a utilização de superfícies de coesão sobre uma base temática multidimensionalmente escalonada. Para isso, utiliza uma combinação de escalonamento multidimensional clássico e análise de procrustes, em algoritmo iterativo que encaminha soluções parciais, depois combinadas numa solução global. Aplicado a um exemplo de transações de empréstimo de livros pela Biblioteca Karl A. Boedecker, o algoritmo proposto produz saídas interpretáveis e coerentes tematicamente, e apresenta um stress menor que a solução por escalonamento clássico. O estudo da estabilidade da representação de redes frente à variação amostral dos dados, realizado com base em simulações envolvendo 500 réplicas em 6 níveis de probabilidade de inclusão das arestas nas réplicas, fornece evidência em favor da validade dos resultados obtidos.
Resumo:
Uma análise de como a estrutura da cadeia de suprimento agrícola pode gerar comportamentos cíclicos nos preços. Aplicando a análise espectral às séries de preços agrícolas no Brasil identifica-se ciclos nos preços. Usando um modelo de Dinâmica de Sistemas da cadeia de suprimento agrícola são feitas algumas simulações para verificar se o modelo gera comportamentos similares aos encontrados nas séries históricas. Identifica pontos de alavancagem que podem ser usados para criar políticas de estabilização de preços.
Resumo:
Apresenta os resultados de um projeto de pesquisa que tem como objetivo a construção de um Modelo Aplicado de Equilíbrio Geral para a Economia Brasileira ("Computable General Equilibrium (CGE) Model"), voltado para a simulação de políticas públicas de crescimento e distribuição de renda. Após a caracterização e apresentação do modelo adotado ("Brasil CGE 95"), são realizadas treze simulações, onde comparam-se os resultados do ano base (95) com os obtidos em cada experimento, incluindo: indicadores macroeconômicos (PIB, Consumo, Déficit Público, Balança ComerciaL.), a remuneração anual dos dez fatores de produção do modelo (oito tipos de trabalho, dois tipos de capital ), a renda anual dos nove grupos de famílias do modelo, indicadores de pobreza/distribuição e indicadores variados como o emprego/produção setorial, taxa de câmbio real e o índice relativo de preços
Resumo:
Apresenta a Teoria de Opções como a melhor abordagem para integrar estratégia e finanças, pois esta considera as flexibilidades gerenciais (opção de postergar investimento, aumentar e contrair escala de produção, abandonar temporária ou definitivamente um projeto, etc.) e opções de crescimento existentes no projeto, assim como estabelece uma política ótima de investimento. Contém uma introdução da Teoria de Opções aplicada a ativos financeiros, mostrando porque é possível se trabalhar com o ambiente neutro ao risco. Realiza uma analogia entre Opções Reais e Opções Financeiras, mostrando algumas limitações para se empregar a Teoria de Opções a projetos de investimento. Apresenta, compara e exemplifica diferentes abordagens numéricas (modelo binomial, integrações numéricas e esquemas de diferenças finitas, etc.) para se quantificar opções reais. Analisa a avaliação de empresas sob a ótica de opções, e cita exemplos onde a aplicação da Teoria de Opções foi fundamental. Realiza considerações e apresenta modelos para lidar com opções múltiplas e estrutura de mercado da indústria.
Resumo:
A dissertação trata do estudo das finanças públicas da cidade paulista de Campinas, no período de 1980 a 1999, analisadas a partir da reconstituição histórica do federalismo brasileiro e do papel que nele o município representa. É, ainda, apresentado, um diagnóstico sócio-econômico-financeiro, com base em indicadores construídos a partir de balanços gerais anuais. Finalmente, a partir dos dados levantados, constróem-se simulações para os cenários financeiros de Campinas no quadriênio 2001-2004, a fim de serem avaliados o potencial e as dificuldades financeiras do município.
Resumo:
A dissertação analisa o papel cada vez mais fundamental do gerenciamento de risco de crédito para a garantia da lucratividade das Instituições Financeiras daqui para frente. As Instituições que vão diferenciar-se serão as que apresentarem menores perdas de crédito. o gerenciamento de crédito eficaz é discutido através da constatação que a demanda de crédito é influenciada pela taxa de juros, principalmente para a faixa da população que apresenta melhor renda e/ou menor índice de inadimplência e apresenta a precificação dos empréstimos com base no risco de crédito do cliente como uma forma de se obter menores perdas de crédito. Atualmente, na maioria das Instituições Financeiras brasileiras, não há diferenciação de preço por grupos de inadimplência, ou seja, a taxa de juros é definida através de uma inadimplência média, gerando, para as Instituições, um lucro extraordinário na concessão de crédito para os bons pagadores (e com isso desestimulando-os a solicitar empréstimos) e um provável prejuízo na concessão para maus pagadores. Como ferramenta para precificar o crédito com base no risco, utilizamos o RAROCRisk Adjusted Retum on Capital - uma metodologia extremamente sofisticada que estabelece alocação de capital igual à diferença entre as provisões de devedores duvidosos e a perda máxima com um nível de significância variável de 95% a 99% (existe de 1 a5% de probabilidade de ocorrer uma perda maior que a perda máxima esperada). Esta dissertação conclui, através de simulações, que é possível aumentar a lucratividade bancária, através da redução das perdas, precificando corretamente os créditos concedidos
Resumo:
O principal objetivo deste trabalho é analisar se o uso de preferências que incorporem assimetria na reação do investidor frente a ganhos e perdas permite gerar resultados mais coerentes com o comportamento real de investidores brasileiros na seleção de portfólios ótimos de investimento. Uma das formas de tratar o comportamento assimétrico se dá através da introdução do coeficiente de aversão a perdas (ou ao desapontamento) na função utilidade tradicional, coeficiente este que aumenta o impacto das perdas frente aos ganhos. A aplicação deste ajuste na função utilidade tradicional decorre de recentes avanços na teoria de finanças, mais especificamente daqueles estudos que buscam solucionar as violações dos axiomas da teoria da utilidade esperada, violações estas já demonstradas empiricamente através de testes de laboratório. A análise das implicações do uso deste tipo de função é feita através da comparação dos resultados quanto à participação do ativo com risco (mercado acionário) na composição do portfólio ótimo (aquele que maximiza a utilidade) do investidor gerados por dois tipos de função utilidade: tradicional e com aversão a perdas. Os resultados são comparados com dados reais de participação do mercado acionário nos investimentos totais de dois tipos de investidores brasileiros - fundos de pensão e investidores individuais - visando verificar a adequação dos resultados de cada função em relação ao comportamento destes investidores. Os resultados mostram que não é possível rejeitar a função utilidade tradicional como modelo representativo do comportamento agregado dos fundos de pensão. Por outro lado, as simulações indicam que a função utilidade tradicional deve ser rejeitada como modelo representativo do comportamento dos investidores individuais, sendo o comportamento destes investidores melhor representado por uma função que incorpora aversão a perdas.
Resumo:
Pesquisas de opinião freqüentemente utilizam questionários com muitos itens para avaliar um serviço ou produto. Nestas pesquisas, cada respondente, além de avaliar os itens segundo seu grau de satisfação ou concordância, deve também atribuir um grau de importância ao item. Com estas duas informações disponíveis para cada item, é possível criar uma medida resumo, na forma de um escore total composto pela avaliação dos itens ponderada pela sua importância. O objetivo desta tese é modelar a importância dos itens por meio de um modelo de Desdobramento Graduado Generalizado, pertencente à família de modelos da Teoria de Resposta ao Item. Resultados de uma pesquisa sobre academia de ginástica mostram que o modelo tem bom ajuste neste caso, e simulações mostram que é possível, com a utilização do modelo, montar desenhos experimentais para diminuir o número de itens ou categorias de resposta a serem perguntados aos respondentes sem perda de informação.
Resumo:
O objetivo da tese é analisar questões relativas à coordenação entre as políticas monetária e fiscal no Brasil após a adoção do regime de metas de inflação. Utiliza-se de um modelo de metas de inflação para uma economia pequena e aberta para a incorporação um bloco de equações que descrevem a dinâmica das variáveis fiscais. Tendo por base os conceitos de Leeper (1991), ambas as entidades, Banco Central e Tesouro Nacional, podem agir de forma ativa ou passiva, e será este comportamento estratégico que determinará a eficiência da política monetária. Foram estimados os parâmetros que calibram o modelo e feitas as simulações para alguns dos choques que abalaram a economia brasileira nos últimos anos. Os resultados mostraram que nos arranjos em que a autoridade fiscal reage a aumentos de dívida pública com alterações no superávit primário, a trajetória de ajuste das variáveis frente a choques tende a ser, na maioria dos casos, menos volátil propiciando uma atuação mais eficiente do Banco Central. Nestes arranjos, o Banco Central não precisa tomar para si funções que são inerentes ao Tesouro. Também são analisadas as variações no comportamento do Banco Central e do Tesouro Nacional em função de diferentes composições da dívida pública. Os resultados mostram que a estrutura do endividamento público será benéfica, ou não, à condução das políticas monetária e fiscal, dependendo do tipo de choque enfrentado. O primeiro capítulo, introdutório, procura contextualizar o regime de metas de inflação brasileiro e descrever, sucintamente, a evolução da economia brasileira desde sua implantação. No segundo capítulo são analisados os fundamentos teóricos do regime de metas de inflação, sua origem e principais componentes; em seguida, são apresentados, as regras de política fiscal necessárias à estabilidade de preços e o problema da dominância fiscal no âmbito da economia brasileira. O terceiro capítulo apresenta a incorporação do bloco de equações fiscais no modelo de metas de inflação para economia aberta proposto por Svensson (2000), e as estimações e calibrações dos seus parâmetros para a economia brasileira. O quarto capítulo discute as diferentes formas de coordenação entre as autoridades monetária e fiscal e a atuação ótima do Banco Central. O quinto capítulo tem como base a mais eficiente forma de coordenação obtida no capítulo anterior para analisar as mudanças no comportamento da autoridade monetária e fiscal frente a diferentes estruturas de prazos e indexadores da dívida pública que afetam suas elasticidades, juros, inflação e câmbio.
Resumo:
Esse trabalho comparou, para condições macroeconômicas usuais, a eficiência do modelo de Redes Neurais Artificiais (RNAs) otimizadas por Algoritmos Genéticos (AGs) na precificação de opções de Dólar à Vista aos seguintes modelos de precificação convencionais: Black-Scholes, Garman-Kohlhagen, Árvores Trinomiais e Simulações de Monte Carlo. As informações utilizadas nesta análise, compreendidas entre janeiro de 1999 e novembro de 2006, foram disponibilizadas pela Bolsa de Mercadorias e Futuros (BM&F) e pelo Federal Reserve americano. As comparações e avaliações foram realizadas com o software MATLAB, versão 7.0, e suas respectivas caixas de ferramentas que ofereceram o ambiente e as ferramentas necessárias à implementação e customização dos modelos mencionados acima. As análises do custo do delta-hedging para cada modelo indicaram que, apesar de mais complexa, a utilização dos Algoritmos Genéticos exclusivamente para otimização direta (binária) dos pesos sinápticos das Redes Neurais não produziu resultados significativamente superiores aos modelos convencionais.
Resumo:
Várias metodologias de mensuração de risco de mercado foram desenvolvidas e aprimoradas ao longo das últimas décadas. Enquanto algumas metodologias usam abordagens não-paramétricas, outras usam paramétricas. Algumas metodologias são mais teóricas, enquanto outras são mais práticas, usando recursos computacionais através de simulações. Enquanto algumas metodologias preservam sua originalidade, outras metodologias têm abordagens híbridas, juntando características de 2 ou mais metodologias. Neste trabalho, fizemos uma comparação de metodologias de mensuração de risco de mercado para o mercado financeiro brasileiro. Avaliamos os resultados das metodologias não-paramétricas e paramétricas de mensuração de VaR aplicados em uma carteira de renda fixa, renda variável e renda mista durante o período de 2000 a 2006. As metodologias não-paramétricas avaliadas foram: Simulação Histórica pesos fixos, Simulação Histórica Antitética pesos fixos, Simulação Histórica exponencial e Análise de Cenário. E as metodologias paramétricas avaliadas foram: VaR Delta-Normal pesos fixos, VaR Delta-Normal exponencial (EWMA), Simulação de Monte Carlo pesos fixos e Simulação de Monte Carlo exponencial. A comparação destas metodologias foi feita com base em medidas estatísticas de conservadorismo, precisão e eficiência.