180 resultados para Câmbio – Modelos matemáticos
Resumo:
This research is to be considered as an implementation of Goetzmann and Jorion (1999). In order to provide a more realistic scenario, we have implemented a Garch (1,1) approach for the residuals of returns and a multifactor model thus to better replicate the systematic risk of a market. The new simulations reveal some new aspects of emerging markets’ expected returns: the unpredictability of the emerging markets’ returns with the global factor does not depend on the year of emergence and that the unsystematic risk explains the returns of emerging markets for a much larger period of time. The results also reveal the high impact of Exchange rate, Commodities index and of the Global factor in emerging markets’ expected return.
Resumo:
Este trabalho se propõe a estudar as implicações macroeconômicas da existência do BNDES na economia. Construímos aqui um modelo DSGE contemplando as características do BNDES e realizamos exercícios sobre o mesmo. Este é o primeiro trabalho a analisar o impacto de curto prazo do BNDES, sendo essa sua contribuição central. Constatamos aqui que o BNDES atua de forma a amplificar os choques de produtividade sobre a economia e reduz a eficácia da política monetária.
Resumo:
A escolha da cidade do Rio de Janeiro como sede de grandes eventos esportivos mundiais, a Copa do Mundo de Futebol de 2014 e os Jogos Olímpicos de 2016, colocou-a no centro de investimentos em infraestrutura, mobilidade urbana e segurança pública, com consequente impacto no mercado imobiliário, tanto de novos lançamentos de empreendimentos, quanto na revenda de imóveis usados. Acredita-se que o preço de um imóvel dependa de uma relação entre suas características estruturais como quantidade de quartos, suítes, vagas de garagem, presença de varanda, tal como sua localização, proximidade com centros de trabalho, entretenimento e áreas valorizadas ou degradadas. Uma das técnicas para avaliar a contribuição dessas características para a formação do preço do imóvel, conhecido na Econométrica como Modelagem Hedônica de Preços, é uma aplicação de regressão linear multivariada onde a variável dependente é o preço e as variáveis independentes, as respectivas características que deseja-se modelar. A utilização da regressão linear implica em observar premissas que devem ser atendidas para a confiabilidade dos resultados a serem analisados, tais como independência e homoscedasticidade dos resíduos e não colinearidade entre as variáveis independentes. O presente trabalho objetiva aplicar a modelagem hedônica de preços para imóveis localizados na cidade do Rio de Janeiro em um modelo de regressão linear multivariada, em conjunto com outras fontes de dados para a construção de variáveis de acessibilidade e socioambiental a fim de verificar a relação de importância entre elas para a formação do preço e, em particular, exploramos brevemente a tendência de preços em função da distância a favelas. Em atenção aos pré-requisitos observados para a aplicação de regressão linear, verificamos que a premissa de independência dos preços não pode ser atestada devido a constatação da autocorrelação espacial entre os imóveis, onde não apenas as características estruturais e de acessibilidade são levadas em consideração para a precificação do bem, mas principalmente a influência mútua que os imóveis vizinhos exercem um ao outro.
Resumo:
A partir de Buiter e Miller (1981), Obstfeld (1983), Sachs (1981), Svensson e Razin (1983) e alguns outros, a abordagem intertemporal da conta-corrente passou a receber atenção crescente da literatura. Desde então os estudos empíricos não são unânimes em atestar sua validade e, dessa forma, a evidência empírica tem sido mista. Mais recentemente, Corsetti e Konstantinou (2009) caracterizam empiricamente a dinâmica conjunta da conta-corrente, ativos e passivos externos a valor de mercado e produto líquido para os EUA no período pós Bretton Woods. Ao contrário da maioria das outras publicações, Corsetti e Konstantinou (2009) são pouco restritivos no que diz respeito às premissas. Neste trabalho buscou-se aplicar a mesma metodologia emprega por Corsetti e Konstantinou (2009) para analisar o equilíbrio externo do Brasil entre 1990 e 2014, período no qual diversos choques afetaram a economia brasileira. São identificados os componentes transitórios e permanentes para a dinâmica conjunta das quatro variáveis básicas da restrição intertemporal da economia, ou seja: Consumo, Produto Líquido, Ativos externos e Passivos externos. O presente trabalho sugere que existem evidências da validade da abordagem intertemporal da conta-corrente para o Brasil, mesmo a análise sendo feita em uma amostra em que estão presentes choques significantes que afetaram a economia brasileira.
Resumo:
This work aims to analyze the interaction and the effects of administered prices in the economy, through a DSGE model and the derivation of optimal monetary policies. The model used is a standard New Keynesian DSGE model of a closed economy with two sectors companies. In the first sector, free prices, there is a continuum of firms, and in the second sector of administered prices, there is a single firm. In addition, the model has positive trend inflation in the steady state. The model results suggest that price movements in any sector will impact on both sectors, for two reasons. Firstly, the price dispersion causes productivity to be lower. As the dispersion of prices is a change in the relative price of any sector, relative to general prices in the economy, when a movement in the price of a sector is not followed by another, their relative weights will change, leading to an impact on productivity in both sectors. Second, the path followed by the administered price sector is considered in future inflation expectations, which is used by companies in the free sector to adjust its optimal price. When this path leads to an expectation of higher inflation, the free sector companies will choose a higher mark-up to accommodate this expectation, thus leading to higher inflation trend when there is imperfect competition in the free sector. Finally, the analysis of optimal policies proved inconclusive, certainly indicating that there is influence of the adjustment model of administered prices in the definition of optimal monetary policy, but a quantitative study is needed to define the degree of impact.
Resumo:
Utilizando dados de mercado obtidos na BM&F Bovespa, este trabalho propõe uma possível variação do modelo Heath, Jarrow e Morton em sua forma discreta e multifatorial, com a introdução de jumps como forma de considerar o efeito das reuniões realizadas pelo Cômite de Políticas Monetárias (Copom). Através do uso da análise de componentes principais (PCA), é feita a calibração dos parâmetros do modelo, possibilitando a simulação da evolução da estrutura a termo de taxa de juros (ETTJ) da curva prefixada em reais via simulação de Monte Carlo (MCS). Com os cenários da curva simulada em vértices fixos (sintéticos), os resultados são comparados aos dados observados no mercado.
Resumo:
Este trabalho aborda os fundamentos da relação entre a medida neutra a risco e o mundo físico, apresentando algumas metodologias conhecidas de transformação da medida de probabilidade associada a cada um destes dois contextos. Mostramos como titulos de crédito podem ser utilizados para a estimação da probabilidade de inadimplência de seus emissores, explicitando os motivos que fazem com que ela não reflita, em um primeiro momento, os dados observados historicamente. Utilizando dados de empresas brasileiras, estimamos a razão entre a probabilidade de default neutra a risco e a probabilidade de default real. Tais resultados, quando comparados com outros trabalhos similares, sugerem que a razão do prêmio de risco de empresas brasileiras possui valor maior do que a de empresas americanas.
Resumo:
Neste trabalho, propomos uma especificação de modelo econométrico na forma reduzida, estimado por mínimos quadrados ordinários (MQO) e baseado em variáveis macroeconômicas, com o objetivo de explicar os retornos trimestrais do índice de ações IBRX-100, entre 2001 e 2015. Testamos ainda a eficiência preditiva do modelo e concluímos que o erro de previsão estimado em janela móvel, com re-estimação de MQO a cada rodada, e utilização de VAR auxiliar para projeção dos regressores, é significativamente inferior ao erro de previsão associado à hipótese de Random Walk para o horizonte de previsão de um trimestre a frente.
Resumo:
EMAp - Escola de Matemática Aplicada
Resumo:
The control of the spread of dengue fever by introduction of the intracellular parasitic bacterium Wolbachia in populations of the vector Aedes aegypti, is presently one of the most promising tools for eliminating dengue, in the absence of an efficient vaccine. The success of this operation requires locally careful planning to determine the adequate number of mosquitoes carrying the Wolbachia parasite that need to be introduced into the natural population. The latter are expected to eventually replace the Wolbachia-free population and guarantee permanent protection against the transmission of dengue to human. In this paper, we propose and analyze a model describing the fundamental aspects of the competition between mosquitoes carrying Wolbachia and mosquitoes free of the parasite. We then introduce a simple feedback control law to synthesize an introduction protocol, and prove that the population is guaranteed to converge to a stable equilibrium where the totality of mosquitoes carry Wolbachia. The techniques are based on the theory of monotone control systems, as developed after Angeli and Sontag. Due to bistability, the considered input-output system has multivalued static characteristics, but the existing results are unable to prove almost-global stabilization, and ad hoc analysis has to be conducted.
Resumo:
We consider risk-averse convex stochastic programs expressed in terms of extended polyhedral risk measures. We derive computable con dence intervals on the optimal value of such stochastic programs using the Robust Stochastic Approximation and the Stochastic Mirror Descent (SMD) algorithms. When the objective functions are uniformly convex, we also propose a multistep extension of the Stochastic Mirror Descent algorithm and obtain con dence intervals on both the optimal values and optimal solutions. Numerical simulations show that our con dence intervals are much less conservative and are quicker to compute than previously obtained con dence intervals for SMD and that the multistep Stochastic Mirror Descent algorithm can obtain a good approximate solution much quicker than its nonmultistep counterpart. Our con dence intervals are also more reliable than asymptotic con dence intervals when the sample size is not much larger than the problem size.
Resumo:
A composição de equipes é um tema recorrente em diferentes áreas do conhecimento. O interesse pela definição das etapas e variáveis relevantes desse processo, considerado complexo, é manifestado por pesquisadores, profissionais e desenvolvedores de Sistemas de Informação (SI). Todavia, enquanto linhas teóricas, oriundas dos estudos organizacionais, buscam a consolidação de modelos matemáticos que reflitam a relação entre variáveis de composição de equipes e o seu desempenho, teorias emergentes, como a de Combinação Social, acrescentam novos elementos à discussão. Adicionalmente, variáveis específicas de cada contexto, que no caso dessa pesquisa é a educação executiva brasileira, também são mencionadas como tendo relevância para estruturação de grupos. Dado o interesse e a variedade de vertentes teóricas que abordam esse fenômeno, essa pesquisa foi proposta para descrever como ocorre a construção de equipes docentes e identificar as variáveis consideradas relevantes neste processo. Um modelo teórico inicial foi desenvolvido e aplicado. Dada a característica da questão de pesquisa, foi utilizada uma abordagem metodológica exploratório-descritiva, baseada em estudos de casos múltiplos, realizados em quatro instituições de ensino superior brasileiras, que oferecem cursos de educação executiva. A coleta e a análise de dados foi norteada pelos métodos propostos por Huberman e Miles (1983) e Yin (2010), compreendendo a utilização de um protocolo de estudo de caso, bem como o uso de tabelas e quadros, padronizados à luz do modelo teórico inicial. Os resultados desse trabalho indicam, majoritariamente, que: as teorias de Combinação Social e as teorias de Educação adicionam elementos que são relevantes ao entendimento do processo de composição de equipes; há variáveis não estruturadas que deixam de ser consideradas em documentos utilizados na avaliação e seleção de profissionais para equipes docentes; e há variáveis de composição que só são consideradas após o fim do primeiro ciclo de atividades das equipes. Com base nos achados empíricos, a aplicação do modelo teórico foi ajustada e apresentada. As contribuições adicionais, as reflexões, as limitações e as propostas de estudos futuros são apresentadas no capítulo de conclusões.
Resumo:
Esta dissertação estuda a propagação de crises sobre o sistema financeiro. Mais especi- ficamente, busca-se desenvolver modelos que permitam simular como um determinado choque econômico atinge determinados agentes do sistema financeiro e apartir dele se propagam, transformando-se em um problema sistêmico. A dissertação é dividida em dois capítulos,além da introdução. O primeiro capítulo desenvolve um modelo de propa- gação de crises em fundos de investimento baseado em ciência das redes.Combinando dois modelos de propagação em redes financeiras, um simulando a propagação de perdas em redes bipartites de ativos e agentes financeiros e o outro simulando a propagação de perdas em uma rede de investimentos diretos em quotas de outros agentes, desenvolve-se um algoritmo para simular a propagação de perdas através de ambos os mecanismos e utiliza-se este algoritmo para simular uma crise no mercado brasileiro de fundos de investimento. No capítulo 2,desenvolve-se um modelo de simulação baseado em agentes, com agentes financeiros, para simular propagação de um choque que afeta o mercado de operações compromissadas.Criamos também um mercado artificial composto por bancos, hedge funds e fundos de curto prazo e simulamos a propagação de um choque de liquidez sobre um ativo de risco securitizando utilizado para colateralizar operações compromissadas dos bancos.
Resumo:
We construct a frictionless matching model of the marriage market where women have bidimensional attributes, one continuous (income) and the other dichotomous (home ability). Equilibrium in the marriage market determines intrahousehold allocation of resources and female labor participation. Our model is able to predict partial non-assortative matching, with rich men marrying women with low income but high home ability. We then perform numerical exercises to evaluate the impacts of income taxes in individual welfare and find that there is considerable divergence in the female labor participation response to taxes between the short run and the long run.
Resumo:
The synthetic control (SC) method has been recently proposed as an alternative method to estimate treatment e ects in comparative case studies. Abadie et al. [2010] and Abadie et al. [2015] argue that one of the advantages of the SC method is that it imposes a data-driven process to select the comparison units, providing more transparency and less discretionary power to the researcher. However, an important limitation of the SC method is that it does not provide clear guidance on the choice of predictor variables used to estimate the SC weights. We show that such lack of speci c guidances provides signi cant opportunities for the researcher to search for speci cations with statistically signi cant results, undermining one of the main advantages of the method. Considering six alternative speci cations commonly used in SC applications, we calculate in Monte Carlo simulations the probability of nding a statistically signi cant result at 5% in at least one speci cation. We nd that this probability can be as high as 13% (23% for a 10% signi cance test) when there are 12 pre-intervention periods and decay slowly with the number of pre-intervention periods. With 230 pre-intervention periods, this probability is still around 10% (18% for a 10% signi cance test). We show that the speci cation that uses the average pre-treatment outcome values to estimate the weights performed particularly bad in our simulations. However, the speci cation-searching problem remains relevant even when we do not consider this speci cation. We also show that this speci cation-searching problem is relevant in simulations with real datasets looking at placebo interventions in the Current Population Survey (CPS). In order to mitigate this problem, we propose a criterion to select among SC di erent speci cations based on the prediction error of each speci cations in placebo estimations