180 resultados para Testes não-destrutivos- Modelos matemáticos


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabalho elabora um modelo para investigação do padrão de variação do crescimento econômico, entre diferentes países e através do tempo, usando um framework Markov- Switching com matriz de transição variável. O modelo desenvolvido segue a abordagem de Pritchett (2003), explicando a dinâmica do crescimento a partir de uma coleção de diferentes estados – cada qual com seu sub-modelo e padrão de crescimento – através dos quais os países oscilam ao longo do tempo. A matriz de transição entre os diferentes estados é variante no tempo, dependendo de variáveis condicionantes de cada país e a dinâmica de cada estado é linear. Desenvolvemos um método de estimação generalizando o Algoritmo EM de Diebold et al. (1993) e estimamos um modelo-exemplo em painel com a matriz de transição condicionada na qualidade das instituições e no nível de investimento. Encontramos três estados de crescimento: crescimento estável, ‘milagroso’ e estagnação - virtualmente coincidentes com os três primeiros de Jerzmanowski (2006). Os resultados mostram que a qualidade das instituições é um importante determinante do crescimento de longo prazo enquanto o nível de investimento tem papel diferenciado: contribui positivamente em países com boa qualidade de instituições e tem papel pouco relevante para os países com instituições medianas ou piores.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este estudo investiga a eficiência de precificação do Ibovespa à vista e futuro. Usando o modelo de custo de carregamento, compara-se o futuro observado com o justo no período de 04/01/2010 a 18/08/2010. Em um mercado eficiente, esses dois preços não podem divergir, pois eventuais diferenças geram oportunidades de arbitragem. O propósito desta dissertação é investigar duas questões: a primeira, se o modelo de custo de carregamento explica a dinâmica de preços observada; a segunda, se existem possibilidades de arbitragem entre os mercados à vista e futuro. A base de dados é composta de dados intradiários de compra e venda do Ibovespa à vista e futuro, calculados em intervalos de um minuto. Verifica-se que o modelo de custo de carregamento não explica o comportamento do mercado e que maiores discrepâncias de preços ocorrem longe do vencimento. Considerando-se custos de transação e prêmio de risco, existem inúmeras possibilidades de arbitragem no mercado, principalmente na operação que o mercado denomina como “reversão”.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nos últimos anos, o mercado brasileiro de opções apresentou um forte crescimento, principalmente com o aparecimento da figura dos High Frequency Traders (HFT) em busca de oportunidades de arbitragem, de modo que a escolha adequada do modelo de estimação de volatilidade pode tornar-se um diferencial competitivo entre esses participantes. Este trabalho apresenta as vantagens da adoção do modelo de volatilidade estocástica de Heston (1993) na construção de superfície de volatilidade para o mercado brasileiro de opções de dólar, bem como a facilidade e o ganho computacional da utilização da técnica da Transformada Rápida de Fourier na resolução das equações diferenciais do modelo. Além disso, a partir da calibração dos parâmetros do modelo com os dados de mercado, consegue-se trazer a propriedade de não-arbitragem para a superfície de volatilidade. Os resultados, portanto, são positivos e motivam estudos futuros sobre o tema.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Regimes de câmbio flutuante têm sido amplamente adotados desde 1973. De acordo com muitos estudos empíricos, esses regimes têm manifestado maiores volatilidades do que os regimes de câmbio fixo adotados após a Segunda Guerra Mundial. Contudo, desde começo dos anos 1970, muitos países têm adotado diferentes tipos de regimes de câmbio flutuante, desde completamente livres a flutuantes administrados, assim como uma ampla variedade de regimes de câmbio rígido. O objetivo deste trabalho é verificar se a volatilidade cambial está estatisticamente associada a esses diferentes regimes de câmbio. Utilizando a classificação cambial de facto de Reinhart e Rogoff (2004), nossa pesquisa aponta que regimes de câmbio com algum tipo de rigidez cambial são menos voláteis que regimes de câmbio com flutuação livre (freely floating); além disso, aponta que regimes cambiais em períodos de instabilidade monetária são ainda mais voláteis. Verificou-se ainda, que crises cambiais são significativas e responsáveis por maior volatilidade cambial, enquanto outros tipos de crises não se mostram estatisticamente significantes. Um terceiro resultado importante é o de que a abertura comercial e a abertura financeira não apresentaram significância estatística.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Uma questão decisiva na literatura empírica de avaliação do regime de metas diz respeito ao papel desta estratégia monetária na redução do nível da taxa de inação verificada nos países que a adotaram. Neste trabalho utilizamos o método de Controle Sintético desenvolvido por Abadie, Dimond e Hainmuller (2010) para investigar o impacto do regime de metas sobre a taxa de Inflação em sete países da OCDE: Austrália, Canadá, Espanha, Finlândia, Nova Zelândia, Reino Unido e Suécia. Nossos resultados indicam que a opção pelo regime de metas contribuiu para redução da taxa de inflação em pelo menos dois destes países: Finlândia e Reino Unido. Antes desta parte empírica, estendemos a análise de Abadie, Dimond e Hainmuller( 2010) de um modelo estatístico utilizado para motivar a utilização do Contole Sintético.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A manutenção de um sistema bancário hígido e com níveis de concorrência que estimulem a oferta de produtos financeiros que atendam à sociedade é um objetivo desejável, porém difícil de ser atingido. A dificuldade resine no trade-off, ainda não consensual, entre questões ligadas à estabilidade sistêmica e questões concorrenciais. Claramente, os sistemas bancários são indispensáveis no processamento de fluxo de capitais e na administração da intermediação entre poupadores e tomadores de crédito (Freixas e Roche, 2007). Essa atividade tem a característica marcante de risco de solvência (Diammond e Dybvig, 1983), mas, ainda assim, não há conformidade de motivo e forma de regulá-la (Dewatripont e Tirole, 1994). Sobre estas questões desenvolvemos uma análise histórico-institucional com o objetivo de contextualizar o estado atual no Brasil. Vale notar que, no setor bancário, também não há consenso sobre as formas de mensurar variáveis importantes para a literatura de Organização Industrial, como Poder de Mercado e Nível de Concorrência. Para contribuir com a discussão metodológica quanto às bases de dados e aos modelos de competição, foram realizados testes com os modelos Bresnahan e Lau (1982), Panzar e Rosse (1987) e Boone (2008), além das medidas usuais de concentração Cn e HHI, avaliando o setor bancário pelas unidades bancárias (CNPJ) e pelos Conglomerados Financeiros. Os testes apontam diferença estatística no uso destas bases a partir de 2004. Outra lacuna existente na literatura é a ausência de modelos para a simulação das variações da oferta de crédito provenientes de variações na estrutura ou modo de competição. Este trabalho também traz contribuições no entendimento das relações de Poder de Mercado e Nível de Competição no Mercado de Empréstimos Bancário brasileiro. Para tanto, são realizados testes, sobre uma estrutura de função de produção, onde os resultados confirmam as hipóteses clássicas quanto ao uso de poder de mercado de forma unilateral e à eficiência de escala, no nível do conglomerado bancário.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabalho busca melhorar a solução de dois modelos distintos através da aplicação conjunta dos mesmos. Por um lado, sofistica os parâmetros de risco em um modelo de alocação dinâmica por utilizar definições e restrições do modelo de preferências em ciclo de vida de Campbell e Viceira (2002). Por outro, aumenta a maximização de utilidade no modelo de ciclo de vida por utilizar a alocação dinâmica ao invés de um ativo de risco ou carteira estática. Boa parte dos modelos recentes de alocação dinâmica necessitam de ferramentas computacionais e métodos numéricos avançados, o que os impede de ser utilizados de forma mais abrangente no dia a dia. Este trabalho utiliza uma técnica desenvolvida por Brandt e Santa-Clara (2004) que não é mais difícil do que a resolução tradicional de Markowitz. Esta técnica é aplicada, em seguida, no modelo de ciclo de vida para que o risco seja ajustado a partir de variáveis mais realistas para o investidor comum do que o nível de aversão a risco relativo. Os resultados empíricos demonstram que há um importante ganho de eficiência da alocação dinâmica em comparação com carteiras estáticas, tanto em termos de índice de Sharpe quanto no emprego no modelo de ciclo de vida. Apesar de os modelos terem sido desenvolvidos para a realidade dos Estados Unidos, o emprego dos mesmos no Brasil também demonstrou os mesmos ganhos de eficiência.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Muitos bancos e fundos de investimento mantêm opções de ações com pouca liquidez em suas carteiras que precisam ser apreçadas diariamente, e esta falta de liquidez gera dificuldades para o processo de apreçamento. A proposta deste trabalho para resolver este problema é utilizar um modelo derivado do CAPM para estimar a superfície de volatilidades implícitas destas opções sem liquidez através da superfície de volatilidades implícitas de opções do Índice BOVESPA, ou de outras opções com maior liquidez. O modelo testado é conhecido como modelo de um fator e é utilizado para o cálculo da variância, e conseqüentemente do risco, de uma ação, ou de uma carteira de ações. Porém, neste trabalho, testaremos a validade da aplicação deste modelo para a obtenção das volatilidades implícitas de opções ilíquidas, mas com liquidez nos ativos objeto, através dos betas obtidos pelo CAPM e de volatilidades implícitas de opções líquidas e com ativos objeto também líquidos. Para o teste, foram utilizadas séries históricas de volatilidades implícitas de opções de compra líquidas de algumas ações negociadas na BM&FBOVESPA no período de 2005 a 2010, e estas foram comparadas com as volatilidades implícitas obtidas através do modelo proposto. Com os resultados, pode-se observar que as volatilidades implícitas obtidas pelo modelo são boas estimativas para apreçarmos opções com deltas próximos de 50% e para vencimentos de até 2 meses.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabalho estuda a previsão da taxa de juros com foco em uma estratégia de investimento. Inicialmente é feita a parametrização da taxa de juros com o modelo de Vasicek para posterior aplicação do modelo autorregressivo tanto na taxa de juros quanto nos parâmetros do Vasicek. O instrumento financeiro escolhido para verificar a eficácia da metodologia proposta foi o constant matutity swap aplicado em alguns vértices. Os resultados variaram significativamente para os diferentes horizontes de calibragem e períodos de amostragem sem um padrão de desempenho.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This paper investigates economic growth’s pattern of variation across and within countries using a Time-Varying Transition Matrix Markov-Switching Approach. The model developed follows the approach of Pritchett (2003) and explains the dynamics of growth based on a collection of different states, each of which has a sub-model and a growth pattern, by which countries oscillate over time. The transition matrix among the different states varies over time, depending on the conditioning variables of each country, with a linear dynamic for each state. We develop a generalization of the Diebold’s EM Algorithm and estimate an example model in a panel with a transition matrix conditioned on the quality of the institutions and the level of investment. We found three states of growth: stable growth, miraculous growth, and stagnation. The results show that the quality of the institutions is an important determinant of long-term growth, whereas the level of investment has varying roles in that it contributes positively in countries with high-quality institutions but is of little relevance in countries with medium- or poor-quality institutions.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The thesis introduces a system dynamics Taylor rule model of new Keynesian nature for monetary policy feedback in Brazil. The nonlinear Taylor rule for interest rate changes con-siders gaps and dynamics of GDP growth and inflation. The model closely tracks the 2004 to 2011 business cycle and outlines the endogenous feedback between the real interest rate, GDP growth and inflation. The model identifies a high degree of endogenous feedback for monetary policy and inflation, while GDP growth remains highly exposed to exogenous eco-nomic conditions. The results also show that the majority of the monetary policy moves during the sample period was related to GDP growth, despite higher coefficients of inflation parameters in the Taylor rule. This observation challenges the intuition that inflation target-ing leads to a dominance of monetary policy moves with respect to inflation. Furthermore, the results suggest that backward looking price-setting with respect to GDP growth has been the dominant driver of inflation. Moreover, simulation exercises highlight the effects of the new BCB strategy initiated in August 2011 and also consider recession and inflation avoid-ance versions of the Taylor rule. In methodological terms, the Taylor rule model highlights the advantages of system dynamics with respect to nonlinear policies and to the stock-and-flow approach. In total, the strong historical fit and some counterintuitive observations of the Taylor rule model call for an application of the model to other economies.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O objetivo principal deste trabalho consiste na exploração de parâmetros de variáveis organizacionais e psico-sociais relacionadas aos acidentes de trabalho de uma indústria de construção naval do Estado do Rio de Janeiro, através da aplicação de modelos matemáticos inspirados na Teoria das filas. A primeira parte compreende uma revisão das principais pesquisas 8 estudos relacionando diversas variáveis psicológicas, sociais sociológicas, fisiológicas físicas e organizacionais a ocorrência de acidentas de trabalho. A segunda parte do trabalho consiste na análise de 9.657 acidentes ocorri dos em uma indústria de construção naval no ano de 1974 quando são evidenciados os parâmetros que regem as distribuições do numero de acidentes sofridos por operário e do intervalo entre acidentes consecutivos são ainda propostas as equações que deveriam ser empregadas para a previsão das duas variáveis dependentes consideradas. Ao final são apresentadas algumas sugestões e conclusões onde a mais importante refere-se à invariância dos parâmetros quando se consideram diferentes características pessoais dos sujeitos. Tal fato é interpretado como produto do grau de periculosidade muito e levado da organização que esconde ria as influências das variáveis pessoais na ocorrência de acidentes de trabalho.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta dissertação pretende ser uma abordagem empírica para testar a validade de um modelo matemático para avaliação de comportamentos proposto por Ziviani (1974), quanto ao seu emprego para avaliar e quantificar respostas a questões de múltipla escolha, tendo como critério o modelo tradicional da psicometria clássica. É portanto, um estudo comparativo entre os resultados (escores) obtidos através deste modelo, por um lado, e através do método tradicional, em termos da dicotomia certo-errado, por outro. Visa mostrar como as variações no instrumento de medida (teste) ou instrumentos de medida com características diferentes determinam variações nos escores fornecidos pelos dois modelos e que estes escores são tanto mais equivalentes quanto "melhor" for o teste a que se referem.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O objetivo desse trabalho é obter um conjunto de evidências empíricas a respeito da dinâmica econômica de curto-prazo das regiões brasileiras para avaliar se as diferenças regionais resultam em ausência de sincronia econômica. Foi construida uma séries de evidências acerca do comportamento cíclico das regiões brasileiras, sendo uma parte delas por datação via o algoritmo de Bry Boschan e outra parte por meio da construção de um indicador do nível de atividade, pela metodologia de Stock e Watson de fatores dinâmicos. Em decorrência à dificuldade de disponibilidade de dados, só foi possível analisar dez estados brasileiros. Apesar das evidências geradas pelo algoritmo de Bry Boschan terem diferenças em relação as evidências geradas pelo modelo de Stock Watson, foi possível constatar que os ciclos regionais são bastante diferentes se comparados com os ciclos nacionais, sendo São Paulo o Estado que possui a maior sincronia e os Estados de Pernambuco e Rio Grande do Sul as menores. No entanto, duas recessões foram captadas na maioria dos estados, a de 2002 e a de 2008, sugerindo o quanto esses períodos foram abrangentes sendo que boa parte dos estados foi afetada.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A incipiente alta nas expectativas de inflação futura combinada com a busca do governo por juros nominais mais baixos e o maior intervencionismo via medidas convencionais e não convencionais na gestão da política econômica, pode ter deteriorado a percepção dos agentes de mercado quanto à credibilidade da Autoridade Monetária, mesmo que indicadores tradicionais de credibilidade ainda não mostrem isso. Este trabalho intui que a resposta de ativos à divulgação de dados macroeconômicos apresenta informações sobre a percepção do mercado da credibilidade do Banco Central, utilizando, então, uma base de dados de alta frequência para medir as respostas dos ativos e empregando o teste econométrico quasi-local level (QLL), busca avaliar se houve alguma instabilidade nos coeficientes de respostas que indique uma variação na percepção ao longo do tempo. A série de dados analisada compreende o período de 2006 a 2011 e o trabalho conclui que não houve variação nos coeficientes e, portanto, se houve alguma mudança positiva ou negativa na percepção de credibilidade, esta não pode ser inferida pelo método proposto.