931 resultados para estimação


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nos últimos anos, o mercado brasileiro de opções apresentou um forte crescimento, principalmente com o aparecimento da figura dos High Frequency Traders (HFT) em busca de oportunidades de arbitragem, de modo que a escolha adequada do modelo de estimação de volatilidade pode tornar-se um diferencial competitivo entre esses participantes. Este trabalho apresenta as vantagens da adoção do modelo de volatilidade estocástica de Heston (1993) na construção de superfície de volatilidade para o mercado brasileiro de opções de dólar, bem como a facilidade e o ganho computacional da utilização da técnica da Transformada Rápida de Fourier na resolução das equações diferenciais do modelo. Além disso, a partir da calibração dos parâmetros do modelo com os dados de mercado, consegue-se trazer a propriedade de não-arbitragem para a superfície de volatilidade. Os resultados, portanto, são positivos e motivam estudos futuros sobre o tema.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A pesquisa teve como objetivo analisar a relação entre consumo e renda agregados das famílias no Brasil para os últimos 60 anos. Para realizar esta análise, foi utilizado a metodologia econométrica sugerida por Bierens e Martins (2010), que consiste na estimação de Vetor Autoregressivo com Mecanismo de Correção de Erros (VECM) similar ao modelo proposto por Johansen (1988), porém permitindo que vetor de cointegração varie ao longo do tempo. Este modelo estimado mostrou-se melhor comparado à análise tradicional de Johansen (1988).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este estudo tem por objetivo estimar o impacto do fluxo de emissões corporativas brasileiras em dólar sobre o cupom cambial. Podemos entender o cupom cambial, sob a ótica da Paridade Coberta da Taxa de Juros, como resultado de dois componentes: Taxa de juros externa (Libor) e Risco País. Desvios adicionais sobre a Paridade podem ser explicados por diversos fatores como custos de transação, liquidez, fluxos em transações de arbitragem de empresas financeiras ou não-financeiras, etc. Neste contexto, os fluxos de arbitragem ocorrem quando é possível para uma empresa brasileira captar recursos no mercado externo e internar estes recursos no Brasil encontrando uma taxa final de captação em reais inferior à de sua captação local (via debêntures, notas financeiras, empréstimos, CDB’s, etc) incluindo todos os custos. Quando há condições necessárias a este tipo de operação, o efeito pode ser visto no mercado de FRA de cupom cambial da BM&F, através de um fluxo anormal de doadores de juros. Testes não-paramétricos (Wilcoxon-Mann-Whitney, Kruskal-Wallis e Van der Waerden) e a metodologia de estudo de eventos detectaram comportamento anormal no mercado de FRA de cupom cambial frente aos eventos aqui considerados como emissões de eurobonds de empresas brasileiras, excluindo o efeito do risco soberano, medido pelo CDS Brasil e considerando nulo o risco de conversibilidade no período, após análise do diferencial entre NDF onshore e offshore. Para estimação do impacto das emissões sobre o FRA de cupom cambial foram utilizados dois modelos, AR-GARCH e OLS com correção de Newey-West, e os resultados mostraram que as emissões causam fechamento de 2 a 5 bps no FRA de cupom cambial, dependendo do vencimento da emissão e do modelo avaliado. Sob a mesma metodologia, concluímos de cada USD 100 milhões de emissões são responsáveis por, em média, 1 bps de fechamento no FRA de cupom cambial, tudo mais constante.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Um dos maiores desafios atuais do Brasil em relação ao seu sistema educacional é a melhora da qualidade da educação oferecida pela rede pública de ensino. Motivado por isso, o Instituto Unibanco criou o Projeto Jovem de Futuro. O projeto oferece às escolas públicas estaduais de ensino médio apoio técnico e financeiro para a implantação de um plano de melhoria de qualidade na dinâmica de funcionamento escolar, com o objetivo de aumentar o rendimento dos alunos e diminuir os índices de evasão escolar. Este trabalho faz uma avaliação do primeiro ano do projeto nos estado de Minas Gerais e Rio Grande do Sul. Os conceitos de avaliação estatística de programas sociais são utilizados na estimação do efeito médio do projeto sobre as notas dos alunos, dos efeitos heterogêneos e do efeito na dispersão das notas dos alunos. Os resultados encontrados indicam que o Projeto Jovem de Futuro teve grande impacto sobre a nota média dos alunos e contribuiu para a redução da desigualdade nas notas dos alunos das escolas participantes. A fim de entender o que gerou o aumento da proficiência dos alunos participantes do programa, também são feitas algumas estimações com o objetivo de captar qual o tipo de investimento que, em média, contribuiu mais para o desenvolvimento dos alunos. Neste aspecto não foi possível chegar a um resultado conclusivo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste artigo, foi estimada a taxa natural de juros para a economia brasileira entre o final de 2001 e segundo trimestre de 2010 com base em dois modelos, sendo o primeiro deles o proposto por Laubach e Williams e o segundo proposto por Mesónnier e Renne, que trata de uma versão alterada do primeiro, que segundo os autores perimite uma estimação mais transparente e robusta. Em ambos os modelos, a taxa natural de juros é estimada em conjunto com o produto potencial, através de filtro de Kalman, no formato de um modelo Espaço de Estado. As estimativas provenientes dos dois modelos não apresentam diferenças relevantes, o que gera maior confiabilidade nos resultados obtidos. Para o período de maior interesse deste estudo (pós-2005), dada a existência de outras análises para período anterior, as estimativas mostram que a taxa natural de juros está em queda na economia brasileira desde 2006. A mensuração da taxa natural de juros, adicionalmente, possibilitou que fosse feita uma avaliação sobre a condução da política monetária implementada pelo Banco Central brasileiro nos últimos anos através do conceito de hiato de juros. Em linhas gerais, a análise mostrou um Banco Central mais conservador entre o final de 2001 e 2005, e mais próximo da neutralidade desde então. Esta conclusão difere da apontada por outros estudos, especialmente para o primeiro período.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O trabalho tem como objetivo analisar a relação entre consumo e renda agregados das famílias no Brasil para os últimos 60 anos. Para realizar esta análise, foi utilizado a metodologia econométrica construída por Bierens e Martins (2010), que consiste na estimação de Vetor Autoregressivo com Mecanismo de Correção de Erros (VECM) similar ao modelo proposto por Johansen (1988), porém permitindo que o vetor de cointegração varie ao longo do tempo. Este modelo estimado mostrou-se melhor comparado a análise tradicional de Johansen (1988). Os resultados obtidos neste trabalho sugerem que a dinâmica do consumo e da renda variou ao longo do período amostral e que o consumo brasileiro parece não ser bem descrito por um passeio aleatório.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Com o intuito de utilizar uma rede com protocolo IP para a implementação de malhas fechadas de controle, este trabalho propõe-se a realizar um estudo da operação de um sistema de controle dinâmico distribuído, comparando-o com a operação de um sistema de controle local convencional. Em geral, a decisão de projetar uma arquitetura de controle distribuído é feita baseada na simplicidade, na redução dos custos e confiabilidade; portanto, um diferencial bastante importante é a utilização da rede IP. O objetivo de uma rede de controle não é transmitir dados digitais, mas dados analógicos amostrados. Assim, métricas usuais em redes de computadores, como quantidade de dados e taxa de transferências, tornam-se secundárias em uma rede de controle. São propostas técnicas para tratar os pacotes que sofrem atrasos e recuperar o desempenho do sistema de controle através da rede IP. A chave para este método é realizar a estimação do conteúdo dos pacotes que sofrem atrasos com base no modelo dinâmico do sistema, mantendo o sistema com um nível adequado de desempenho. O sistema considerado é o controle de um manipulador antropomórfico com dois braços e uma cabeça de visão estéreo totalizando 18 juntas. Os resultados obtidos mostram que se pode recuperar boa parte do desempenho do sistema.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A tese tem como objetivo discutir a liquidez do mercado secundário de títulos da dívida pública no Brasil. Em três ensaios, defende que problemas de organização do mercado prejudicam a ampliação da liquidez e que a formação de preços nesse mercado acompanha as taxas do mercado futuro de depósitos interfinanceiros – DI futuro, e não o contrário, como esperado, já que a presença de títulos de elevada liquidez no mercado à vista é que deveria desenvolver o mercado futuro. O primeiro ensaio mede e estima os determinantes do bid-ask spread cotado (indicador de liquidez) para cada vértice de taxa de juros, tendo como referência os vencimentos dos títulos pré-fixados em cabeça de semestre: LTNs (LTN-13 e LTN-11) e NTNFs- (NTNF-17, NTNF-14). Mercados com menores spreads são mais líquidos, mercados com spreads maiores são menos líquidos. Os modelos empíricos foram estimados por meio de análises de séries de tempo. O trabalho utiliza o cálculo do bid-ask cotado para medir a liquidez dos títulos em análise, medido pela diferença entre o ask price e o bid price de fechamento do mercado. A estimação dos determinantes da liquidez de mercado foi realizada com base no método dos mínimos quadrados ordinários (MQO). O modelo testa se maturidade e volume de negócio determinam o bid-ask spread dos títulos. Mercados com menores spreads são mais líquidos do que mercados com maiores spreads. Os resultados mostram que a mediana e a média do bid-ask spread cotado crescem com a maturidade dos títulos. Os sinais dos parâmetros das regressões confirmam para a maioria dos vértices dos vértices analisados neste trabalho a hipótese inicial de que o bid-ask spread aumenta com a elevação maturidade e diminui com maior volume negociado, confirmando a hipótese de baixa liquidez dos títulos públicos no mercado secundário brasileiro. O segundo ensaio analisa uma singularidade relevante do mercado brasileiro: a dependência da formação dos preços e da taxa de juros no mercado secundário de títulos públicos (LTN e NTNF) em relação ao DI futuro. As variáveis utilizadas foram o bid-ask spread cotado e o volume negociado no mercado de títulos públicos e de DI futuro. O ensaio utiliza tanto o método de Granger (1969), que tem como suposto que as informações relevantes para a previsão das variáveis estão contidas exclusivamente nos dados das séries temporais destas mesmas variáveis, quanto o modelo de Geweke (1982) para testar a causalidade, simultaneidade e dependência linear entre as duas séries no tempo. Os resultados confirmam a hipótese inicial de que bid-ask spread e volume de títulos públicos possuem forte dependência do bid-ask spread e do volume para contratos de DI futuro de mesmo vencimento, dependência devida à causalidade do mercado de DI futuro para o mercado de títulos públicos para a maioria dos vértices analisados nesse trabalho, indicando que a taxa CDI é benchmark para a precificação dos títulos públicos. Uma possível explicação está nos fatores de microestrutura, que fazem com que esse mercado seja o mais conveniente para negociar risco de liquidez e de mercado. O terceiro ensaio discute as implicações do desenho institucional sobre a liquidez do mercado secundário de títulos públicos - mecanismos e regras de negociação, desenho dos títulos e base de investidores. Essas regras afetam a formação dos preços no mercado, definem as trocas, a dimensão da assimetria de informação e os custos de transação e do processo de negociação. Pela sua relevância, a organização do mercado de títulos públicos tem sido objeto de reformas em diversos países. O terceiro ensaio é finalizado com a análise das medidas adotadas no Brasil e de seus resultados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Um dos grandes desafios na gestão de uma carteira de renda fixa passa pela estimação da curva de juros dos títulos que a compõe. Sua correta estimação e a identificação dos fatores de risco associados a estes títulos são imprescindíveis para uma boa gestão de uma carteira de renda fixa, assim como para o correto apreçamento dos ativos. O presente trabalho tem por objetivo estimar a curva de juros real da economia brasileira a partir de um conjunto de títulos negociados no mercado. Os títulos em questão são as notas do tesouro nacional série B (NTN-B), que tem sua rentabilidade vinculada à variação da inflação (IPCA), acrescida de juros definidos no momento da compra. Por se tratar de títulos que pagam cupom não se pode observar num primeiro momento sua estrutura a termo, nesse sentido, serão apresentados modelos capazes de extrair a curva “zero cupom” a partir destes títulos e estimar a estrutura a termo da taxa de juros real. Através da análise de componentes principais será possível identificar os principais fatores responsáveis por movimentos na curva estimada e consequentemente no preço do título. Alguns cenários macroeconômicos serão elaborados de forma a estudar o comportamento dos títulos frente a choques nesses fatores (análise de sensibilidade). A elaboração de cenários e a análise das prováveis trajetórias para o preço deste título auxiliarão na gestão de carteiras de títulos de renda fixa.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho, com base na literatura teórica e empírica que trata da taxa de câmbio real, tem como objetivo investigar, por meio da estimação de um modelo de correção de erros, as principais variáveis que afetaram a taxa de câmbio real no período 1999/2010. A amostra utilizada começa com a implementação do regime de metas de inflação pelo Banco Central do Brasil (BCB) e pela adoção do câmbio flexível. O modelo de correção dos erros (VECM) foi estimado para duas taxas de câmbio reais efetivas, uma deflacionada pelo IPCA (Índice de Preço ao Consumidor Amplo) e outra pelo IPA (Índice de Preço no Atacado). Os resultados apontam que as principais variáveis que afetaram a taxa de câmbio real de equilíbrio no longo prazo foram: diferencial de juros, gastos do governo, produtividade, termos de troca, transações correntes e dívida externa total.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo desta tese é colaborar com a discussão sobre o papel da política fiscal em nível macroeconômico, seja em termos do impacto sobre as flutuações de curto prazo no produto e demais variáveis agregadas, ou no efeito que esta exerce sobre o crescimento e bem estar de longo prazo, sendo que uma atenção especial será dada ao papel dos gastos produtivos do governo. A análise de curto prazo é baseada em um modelo de Real Business Cycle (RBC) em que o capital público entra na função de produção como um insumo adicional ao capital privado e ao trabalho, sendo que o governo mantém o orçamento equilibrado a cada período. Os resultados indicam que o modelo consegue reproduzir bem a alta volatilidade dos gastos do governo e o caráter procíclico da política fiscal no Brasil, para o período de 1950 a 2003. Posteriormente, é feita a estimação dos principais parâmetros que influenciam a política fiscal pelo método bayesiano. As variáveis fiscais (investimento, consumo e taxa de impostos) ajudam a explicar boa parte do comportamento das variáveis privadas. Em termos de bem estar, o modelo prevê que aumentar o investimento do governo através de uma diminuição no consumo do mesmo gera um ganho de bem estar considerável, bem como reduções na taxa de impostos. A análise de longo prazo é baseada um modelo de gerações sobrepostas e crescimento endógeno com dívida pública, onde o governo executa gastos considerados produtivos e improdutivos. Os resultados do modelo teórico indicam que o impacto dos gastos produtivos do governo sobre o crescimento de longo prazo depende negativamente do tamanho da dívida, da carga tributária e do déficit primário, podendo ocorrer um cenário com equilíbrios múltiplos. De maneira a testar as predições teóricas, é estimada uma equação de crescimento em função do gasto produtivo e interações com as demais variáveis fiscais para uma amostra de países heterogêneos, e de fato, comprovam-se empiricamente os resultados do modelo teórico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O modelo de três fatores de Fama & French (1993) é uma extensão do modelo de precificação de ativos de Sharpe (1963), Lintner (1965) e Black (1972), o CAPM. Em Fama & French (1993), o valor de mercado e o valor contábil das empresas são adicionados como variáveis explicativas ao fator de risco de mercado β do CAPM. O objetivo deste trabalho é testar o poder explicativo do modelo de três fatores para o mercado acionário brasileiro. A inovação deste trabalho foi a utilização de um universo de ações móvel, no qual os títulos que são lançados na Bovespa no período de análise vão sendo incorporadas à base de dados conforme atingem os requisitos do modelo. Trata-se de uma abordagem inovadora, já que tradicionalmente o universo de ações que compõe a amostra é rígido do início ao fim do período de análise. Esta abordagem foi desenvolvida com o intuito de mitigar o problema de falta de dados do mercado acionário brasileiro. O período de análise foi de 2000 à 2011, e as ações utilizadas foram todas aquelas que possuíam um histórico confiável e apresentaram pelo menos um negócio à cada dois meses. A análise do Modelo de Três Fatores foi realizada utilizando a metodologia de séries temporais de Black, Jensen e Scholes (1972), da mesma forma que Fama & French (1993). Como variável dependente foram utilizadas 16 carteiras, oriundas do cruzamento das ações dividas em 4 percentis iguais pelos seus valores de mercado (ME), e 4 percentis iguais pela razão valor de mercado pelo valor contábil (ME/BE). Como variáveis independentes foram construídas duas séries de retorno que replicam os fatores de risco valor de mercado, SMB, e a razão valor de mercado pelo valor contábil, HML. Estas foram construídas pela diferença dos retornos das ações de maior ME e menor ME; e pela diferença do retorno das de maior ME/BE, pelas de menor ME/BE. O método de estimação dos coeficientes das regressões utilizado foi o dos mínimos quadrados ordinários. Os resultados do Modelo encontrados para a bolsa brasileira foram similares àqueles encontrados por Fama & French (1993). O Modelo apresentou maior poder explicativo para os retornos dos portfolios analisados que o CAPM, e mostrou-se estatisticamente significante para 15 das 16 carteiras. Os coeficientes das regressões relativos aos fatores de risco SMB e HML apresentaram, em sua maioria, os mesmo sinais que os encontrados por Fama & French (1993). Foi encontrada uma discrepância relativa ao sinal do fator HML para as carteiras de maior ME/BE, cuja explicação está atrelada ao momento da economia e mercados no período. Por fim, o Modelo e a discrepância foram reavaliados dividindo-se o período de análise em pré e pós-crise de 2008. O modelo mostrou maior poder explicativo para o período pós-crise que para o pré-crise. A mesma discrepância do sinal de HML foi encontrada no pré-crise, entretanto não foi verificada no pós-crise.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Busca-se como objetivo geral, através da estimação de uma equação de demanda por moeda de longo prazo para o Brasil, período 1980-2001, testar a sua estabilidade, o que implica analisar a evolução dos coeficientes ao longo do tempo, bem como mensurar o desempenho acerca do grau de previsibilidade de demanda futura por encaixes reais, comparando sua eficiência no prognóstico com aquelas que se obteriam utilizando técnicas de estimação Mínimos Quadrados Ordinários (MQO) e Mínimos Quadrados Ordinários Recursivos (MQOR), ambas de caráter não adaptativo. Além disso, como resultado da análise percuciente das trajetórias dos parâmetros, a política monetária exercida no período é recuperada. Os resultados rejeitam a hipótese nula de estabilidade da demanda de moeda, encontrando-se que os parâmetros apresentam flutuações importantes não ilustradas pelo procedimento MQO, tendo se destacado o período 1986-1992 como o mais instável. Como era de se esperar, nos testes de capacidade de previsão, a estimação por meio do Filtro de Kalman supera as demais técnicas, evidenciando a ocorrência de mudanças nos regimes de política.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho, desenvolveram-se modelos matemáticos simplificados para o cálculo de duas variáveis importantes no estudo da extrusão de polímeros: vazão mássica (M&) e pressão na saída da extrusora (Psaída), em função das propriedades dos materiais e das condições de operação do equipamento. Podem-se utilizar esses modelos como ferramentas simples para a definição de critérios de ajustes que se devem fazer em uma extrusora de parafuso único para obter-se o desempenho desejado quando se alimenta o equipamento com um novo material. Para desenvolverem-se os modelos simplificados, utilizaram-se dados experimentais da extrusão de poliestireno (PS) e de polipropileno (PP), bem como resultados preditos por um programa computacional de simulação de extrusão disponível comercialmente. Mediram-se os dados experimentais de vazão mássica e de pressão na saída da extrusora em um equipamento de parafuso único de 45 mm de diâmetro. Realizaram-se esses testes, variando-se a velocidade de rotação do parafuso de 70 a 100 rpm para ambos os polímeros. No primeiro conjunto de simulações, utilizou-se o simulador Flow 2000 (Compuplast Inc.) para ajustarem-se os valores preditos de M& e de Psaída aos dados obtidos experimentalmente através da estimação dos fatores de atrito barril-polímero tanto para o PP quanto para o PS. Posteriormente, realizou-se um planejamento de experimentos, do tipo fatorial fracionado , para obter-se um segundo conjunto de simulações, considerando-se as propriedades dos materiais (reológicas e térmicas) e as condições de operação da extrusora (velocidade de rotação do parafuso e perfil de temperatura nas zonas de aquecimento da extrusora) como fatores de investigação. Com as novas simulações no Flow 2000, ajustaram-se os parâmetros dos modelos simplificados aos valores de vazão mássica e de pressão na saída da extrusora preditos no simulador. Elaboraram-se os modelos simplificados levando-se em conta as interações entre os fatores cujos efeitos consideraram-se significativos nas análises de variância (ANOVA). Obteve-se um modelo linear com 37 termos para o cálculo da vazão mássica e um modelo linear com 41 termos para o cálculo da pressão na saída da extrusora. Posteriormente, aplicou-se uma técnica de regressão multivariável para selecionar apenas os termos importantes dessas 1402IV2− XVI equações, conduzindo a um modelo linear com 10 termos para o cálculo da vazão mássica e a um modelo com 6 termos para o cálculo da pressão na saída da extrusora. Conseguiu-se boa concordância entre os dados experimentais e os valores preditos quando se aplicaram os modelos simplificados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese tem como objetivo principal aproximar a evidencia empirica existente sobre os agregados macroeconomicos com as novas evidencias empiricas baseadas nos micro dados de precos ao consumidor, tendo como base os modelos padroes de rigidez de preco utilizados na literatura de politica monetaria. Para isso, esta tese utiliza a base de dados individuais de precos ao consumidor no Brasil fornecida pela Fundacao Getulio Vargas. Especificamente, esta tese foca em tres temas principais: a existencia de variac˜oes temporararias de precos, a heterogeneidade na rigidez de precos entre firmas de um mesmo setor e o formato das func˜oes hazard. Os resultados mostram que: existe de fato uma correlac˜ao entre as variaveis referentes as mudancas temporararias de precos e os agregados macroeconomicos; a heterogeneidade na rigidez de precos entre firmas de um mesmo setor apresenta efeitos significativos sobre a dinamica dos agregados macroeconomicos; e por fim, o formato mais geral da func˜ao hazard proposta nesta tese possibilita novas dinamicas dos agregados macroeconomicos.