724 resultados para Estimação


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho analisaram-se estratégias de spread calendário de contratos futuros de taxa de juros de curto prazo (STIR – Short Term Interest Rate) em operações de intraday trade. O spread calendário consiste na compra e venda simultânea de contratos de STIR com diferentes maturidades. Cada um dos contratos individualmente se comporta de forma aleatória e dificilmente previsível. No entanto, no longo prazo, pares de contratos podem apresentar um comportamento comum, com os desvios de curto prazo sendo corrigidos nos períodos seguintes. Se este comportamento comum for empiricamente confirmado, há a possibilidade de desenvolver uma estratégia rentável de trading. Para ser bem sucedida, esta estratégia depende da confirmação da existência de um equilíbrio de longo prazo entre os contratos e a definição do limite de spread mais adequado para a mudança de posições entre os contratos. Neste trabalho, foram estudadas amostras de 1304 observações de 5 diferentes séries de spread, coletadas a cada 10 minutos, durante um período de 1 mês. O equilíbrio de longo prazo entre os pares de contratos foi testado empiricamente por meio de modelos de cointegração. Quatro pares mostraram-se cointegrados. Para cada um destes, uma simulação permitiu a estimação de um limite que dispararia a troca de posições entre os contratos, maximizando os lucros. Uma simulação mostrou que a aplicação deste limite, levando em conta custos de comissão e risco de execução, permitiria obter um fluxo de caixa positivo e estável ao longo do tempo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os recentes avanços na tecnologia de sensores tem disponibilizado imagens em alta dimensionalidade para fins de sensoriamento Remoto. Análise e interpretação dos dados provenientes desta nova geração de sensores apresenta novas possibilidades e também novos desafios. Neste contexto,um dos maiores desafios consiste na estimação dos parâmetros em um classificador estatístico utilizando-se um número limitado de amostras de treinamento.Neste estudo,propõe-se uma nova metodologia de extração de feições para a redução da dimensionalidadedos dados em imagens hiperespectrais. Essa metodologia proposta é de fácil implementação e também eficiente do ponto de vista computacional.A hipótese básica consiste em assumir que a curva de resposta espectral do pixel, definida no espaço espectral, pelos contadores digitais (CD's) das bandas espectrais disponíveis, pode ser substituída por um número menor de estatísticas, descrevendo as principais característicasda resposta espectral dos pixels. Espera-se que este procedimento possa ser realizado sem uma perda significativa de informação. Os CD's em cada banda espectral são utilizados para o cálculo de um número reduzido de estatísticas que os substituirão no classificador. Propõe-se que toda a curva seja particionada em segmentos, cada segmento sendo então representado pela respectiva média e variância dos CD's. Propõem-se três algoritmos para segmentação da curva de resposta espectral dos pixels. O primeiro utiliza um procedimento muito simples. Utilizam-se segmentos de comprimento constante, isto é, não se faz nenhuma tentativa para ajustar o comprimento de cada segmento às características da curva espectral considerada. Os outros dois implementam um método que permite comprimentos variáveis para cada segmento,onde o comprimentodos segmentos ao longo da curva de resposta espectral é ajustado seqüencialmente.Um inconveniente neste procedimento está ligado ao fato de que uma vez selecionadauma partição, esta não pode ser alterada, tornando os algoritmos sub-ótimos. Realizam-se experimentos com um classificador paramétrico utilizando-se uma imagem do sensor AVIRIS. Obtiveram-se resultados animadores em termos de acurácia da classificação,sugerindo a eficácia dos algoritmos propostos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Usando dados intradiários dos ativos mais negociados do Bovespa, este trabalho considerou dois modelos recentemente desenvolvidos na literatura de estimação e previsão de volatilidade realizada. São eles; Heterogeneous Autorregresive Model of Realized Volatility (HAR-RV), desenvolvido por Corsi (2009)e o Mixed Data Sampling (MIDAS-RV) desenvolvido por Ghysels et. al (2004). Através de medidas de comparação de previsão dentro e fora da amostra, constatou-se resultados superiores do modelo MIDAS-RV apenas para previsões dentro da amostra. Para previsões fora da amostra, no entanto, não houve diferença estatisticamente significativa entre os modelos. Também encontram-se evidências que a utilização da volatilidade realizada induz distribuições dos retornos padronizados mais próximas da normal.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho objetivou verificar se é possível estimar um modelo econométrico para prever o comportamento dos emissores de novas cotas de Fundos de Investimentos em Participações (FIPs) com base em algumas variáveis explicativas, em sua grande maioria, variáveis macroeconômicas baseadas no modelo estimado no trabalho de Iaquipaza (2005). Foi analisada uma série histórica de 75 observações, referentes ao número de ofertas públicas de FIPs realizadas em cada mês, no período de outubro de 2003 a dezembro de 2009. Para analisar a série histórica de ofertas públicas de FIPs utilizou-se um modelo de regressão de Poisson, para trabalhar com os dados “contáveis” que compunham a amostra da variável dependente. Os resultados indicaram a influência de algumas variáveis indicadas no trabalho de Iaquipaza (2005) e de outras que foram incluídas no modelo em virtude da especificidade do tipo de ativo analisado. Contudo, o trabalho tem como limitação o fato de ter sido estudada uma indústria ainda incipiente, o que culminou na estimação de um modelo com a utilização de poucas observações.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo desta dissertação é estudar a relevância dos gastos em P&D e Inovação no valor de mercado das empresas da indústria química brasileira. Este foi um tema de grande debate na reestruturação da indústria petroquímica e que resultou na criação da Braskem, a primeira petroquímica integrada brasileira. As justificativas para a referida integração vertical foram a maior capacidade para investimentos em P&D e o aumento do valor das empresas para poderem competir conforme os moldes internacionais. Por outro lado, economistas debatiam sobre o poder de monopólio da nova empresa e, consequentemente, o possível aumento de preços para o consumidor final. Desta forma, foram analisados nesse estudo os dados da indústria química brasileira de 1996 a 2008, obtidos no Anuário da Indústria Química Brasileira. Os modelos foram estimados utilizando estimadores de efeito fixos e aleatórios para um painel de dados não balanceado. A estimação por efeitos fixos foi escolhida, tanto para a estimação do modelo aditivo,quanto para o modelo multiplicativo. Acredita-se que o modelo multiplicativo, além de mais geral, seja o mais adequado para a modelagem de interesse, uma vez que ele trata as diferenças entre o porte das empresas consideradas por meio da linearização, e conseqüente suavização, do modelo. A elasticidade estimada dos gastos em P&D e inovação, com relação aos valores de mercado das empresas, indicou relacionamento positivo entre estes gastos e o aumento de valor das empresas. O coeficiente de 0,26 indica que um aumento de 1% nos gastos com P&D geram, em média, um aumento de 0,26% no valor de mercado destas empresas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nos últimos anos, o mercado brasileiro de opções apresentou um forte crescimento, principalmente com o aparecimento da figura dos High Frequency Traders (HFT) em busca de oportunidades de arbitragem, de modo que a escolha adequada do modelo de estimação de volatilidade pode tornar-se um diferencial competitivo entre esses participantes. Este trabalho apresenta as vantagens da adoção do modelo de volatilidade estocástica de Heston (1993) na construção de superfície de volatilidade para o mercado brasileiro de opções de dólar, bem como a facilidade e o ganho computacional da utilização da técnica da Transformada Rápida de Fourier na resolução das equações diferenciais do modelo. Além disso, a partir da calibração dos parâmetros do modelo com os dados de mercado, consegue-se trazer a propriedade de não-arbitragem para a superfície de volatilidade. Os resultados, portanto, são positivos e motivam estudos futuros sobre o tema.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A pesquisa teve como objetivo analisar a relação entre consumo e renda agregados das famílias no Brasil para os últimos 60 anos. Para realizar esta análise, foi utilizado a metodologia econométrica sugerida por Bierens e Martins (2010), que consiste na estimação de Vetor Autoregressivo com Mecanismo de Correção de Erros (VECM) similar ao modelo proposto por Johansen (1988), porém permitindo que vetor de cointegração varie ao longo do tempo. Este modelo estimado mostrou-se melhor comparado à análise tradicional de Johansen (1988).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este estudo tem por objetivo estimar o impacto do fluxo de emissões corporativas brasileiras em dólar sobre o cupom cambial. Podemos entender o cupom cambial, sob a ótica da Paridade Coberta da Taxa de Juros, como resultado de dois componentes: Taxa de juros externa (Libor) e Risco País. Desvios adicionais sobre a Paridade podem ser explicados por diversos fatores como custos de transação, liquidez, fluxos em transações de arbitragem de empresas financeiras ou não-financeiras, etc. Neste contexto, os fluxos de arbitragem ocorrem quando é possível para uma empresa brasileira captar recursos no mercado externo e internar estes recursos no Brasil encontrando uma taxa final de captação em reais inferior à de sua captação local (via debêntures, notas financeiras, empréstimos, CDB’s, etc) incluindo todos os custos. Quando há condições necessárias a este tipo de operação, o efeito pode ser visto no mercado de FRA de cupom cambial da BM&F, através de um fluxo anormal de doadores de juros. Testes não-paramétricos (Wilcoxon-Mann-Whitney, Kruskal-Wallis e Van der Waerden) e a metodologia de estudo de eventos detectaram comportamento anormal no mercado de FRA de cupom cambial frente aos eventos aqui considerados como emissões de eurobonds de empresas brasileiras, excluindo o efeito do risco soberano, medido pelo CDS Brasil e considerando nulo o risco de conversibilidade no período, após análise do diferencial entre NDF onshore e offshore. Para estimação do impacto das emissões sobre o FRA de cupom cambial foram utilizados dois modelos, AR-GARCH e OLS com correção de Newey-West, e os resultados mostraram que as emissões causam fechamento de 2 a 5 bps no FRA de cupom cambial, dependendo do vencimento da emissão e do modelo avaliado. Sob a mesma metodologia, concluímos de cada USD 100 milhões de emissões são responsáveis por, em média, 1 bps de fechamento no FRA de cupom cambial, tudo mais constante.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Um dos maiores desafios atuais do Brasil em relação ao seu sistema educacional é a melhora da qualidade da educação oferecida pela rede pública de ensino. Motivado por isso, o Instituto Unibanco criou o Projeto Jovem de Futuro. O projeto oferece às escolas públicas estaduais de ensino médio apoio técnico e financeiro para a implantação de um plano de melhoria de qualidade na dinâmica de funcionamento escolar, com o objetivo de aumentar o rendimento dos alunos e diminuir os índices de evasão escolar. Este trabalho faz uma avaliação do primeiro ano do projeto nos estado de Minas Gerais e Rio Grande do Sul. Os conceitos de avaliação estatística de programas sociais são utilizados na estimação do efeito médio do projeto sobre as notas dos alunos, dos efeitos heterogêneos e do efeito na dispersão das notas dos alunos. Os resultados encontrados indicam que o Projeto Jovem de Futuro teve grande impacto sobre a nota média dos alunos e contribuiu para a redução da desigualdade nas notas dos alunos das escolas participantes. A fim de entender o que gerou o aumento da proficiência dos alunos participantes do programa, também são feitas algumas estimações com o objetivo de captar qual o tipo de investimento que, em média, contribuiu mais para o desenvolvimento dos alunos. Neste aspecto não foi possível chegar a um resultado conclusivo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste artigo, foi estimada a taxa natural de juros para a economia brasileira entre o final de 2001 e segundo trimestre de 2010 com base em dois modelos, sendo o primeiro deles o proposto por Laubach e Williams e o segundo proposto por Mesónnier e Renne, que trata de uma versão alterada do primeiro, que segundo os autores perimite uma estimação mais transparente e robusta. Em ambos os modelos, a taxa natural de juros é estimada em conjunto com o produto potencial, através de filtro de Kalman, no formato de um modelo Espaço de Estado. As estimativas provenientes dos dois modelos não apresentam diferenças relevantes, o que gera maior confiabilidade nos resultados obtidos. Para o período de maior interesse deste estudo (pós-2005), dada a existência de outras análises para período anterior, as estimativas mostram que a taxa natural de juros está em queda na economia brasileira desde 2006. A mensuração da taxa natural de juros, adicionalmente, possibilitou que fosse feita uma avaliação sobre a condução da política monetária implementada pelo Banco Central brasileiro nos últimos anos através do conceito de hiato de juros. Em linhas gerais, a análise mostrou um Banco Central mais conservador entre o final de 2001 e 2005, e mais próximo da neutralidade desde então. Esta conclusão difere da apontada por outros estudos, especialmente para o primeiro período.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O trabalho tem como objetivo analisar a relação entre consumo e renda agregados das famílias no Brasil para os últimos 60 anos. Para realizar esta análise, foi utilizado a metodologia econométrica construída por Bierens e Martins (2010), que consiste na estimação de Vetor Autoregressivo com Mecanismo de Correção de Erros (VECM) similar ao modelo proposto por Johansen (1988), porém permitindo que o vetor de cointegração varie ao longo do tempo. Este modelo estimado mostrou-se melhor comparado a análise tradicional de Johansen (1988). Os resultados obtidos neste trabalho sugerem que a dinâmica do consumo e da renda variou ao longo do período amostral e que o consumo brasileiro parece não ser bem descrito por um passeio aleatório.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Com o intuito de utilizar uma rede com protocolo IP para a implementação de malhas fechadas de controle, este trabalho propõe-se a realizar um estudo da operação de um sistema de controle dinâmico distribuído, comparando-o com a operação de um sistema de controle local convencional. Em geral, a decisão de projetar uma arquitetura de controle distribuído é feita baseada na simplicidade, na redução dos custos e confiabilidade; portanto, um diferencial bastante importante é a utilização da rede IP. O objetivo de uma rede de controle não é transmitir dados digitais, mas dados analógicos amostrados. Assim, métricas usuais em redes de computadores, como quantidade de dados e taxa de transferências, tornam-se secundárias em uma rede de controle. São propostas técnicas para tratar os pacotes que sofrem atrasos e recuperar o desempenho do sistema de controle através da rede IP. A chave para este método é realizar a estimação do conteúdo dos pacotes que sofrem atrasos com base no modelo dinâmico do sistema, mantendo o sistema com um nível adequado de desempenho. O sistema considerado é o controle de um manipulador antropomórfico com dois braços e uma cabeça de visão estéreo totalizando 18 juntas. Os resultados obtidos mostram que se pode recuperar boa parte do desempenho do sistema.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A tese tem como objetivo discutir a liquidez do mercado secundário de títulos da dívida pública no Brasil. Em três ensaios, defende que problemas de organização do mercado prejudicam a ampliação da liquidez e que a formação de preços nesse mercado acompanha as taxas do mercado futuro de depósitos interfinanceiros – DI futuro, e não o contrário, como esperado, já que a presença de títulos de elevada liquidez no mercado à vista é que deveria desenvolver o mercado futuro. O primeiro ensaio mede e estima os determinantes do bid-ask spread cotado (indicador de liquidez) para cada vértice de taxa de juros, tendo como referência os vencimentos dos títulos pré-fixados em cabeça de semestre: LTNs (LTN-13 e LTN-11) e NTNFs- (NTNF-17, NTNF-14). Mercados com menores spreads são mais líquidos, mercados com spreads maiores são menos líquidos. Os modelos empíricos foram estimados por meio de análises de séries de tempo. O trabalho utiliza o cálculo do bid-ask cotado para medir a liquidez dos títulos em análise, medido pela diferença entre o ask price e o bid price de fechamento do mercado. A estimação dos determinantes da liquidez de mercado foi realizada com base no método dos mínimos quadrados ordinários (MQO). O modelo testa se maturidade e volume de negócio determinam o bid-ask spread dos títulos. Mercados com menores spreads são mais líquidos do que mercados com maiores spreads. Os resultados mostram que a mediana e a média do bid-ask spread cotado crescem com a maturidade dos títulos. Os sinais dos parâmetros das regressões confirmam para a maioria dos vértices dos vértices analisados neste trabalho a hipótese inicial de que o bid-ask spread aumenta com a elevação maturidade e diminui com maior volume negociado, confirmando a hipótese de baixa liquidez dos títulos públicos no mercado secundário brasileiro. O segundo ensaio analisa uma singularidade relevante do mercado brasileiro: a dependência da formação dos preços e da taxa de juros no mercado secundário de títulos públicos (LTN e NTNF) em relação ao DI futuro. As variáveis utilizadas foram o bid-ask spread cotado e o volume negociado no mercado de títulos públicos e de DI futuro. O ensaio utiliza tanto o método de Granger (1969), que tem como suposto que as informações relevantes para a previsão das variáveis estão contidas exclusivamente nos dados das séries temporais destas mesmas variáveis, quanto o modelo de Geweke (1982) para testar a causalidade, simultaneidade e dependência linear entre as duas séries no tempo. Os resultados confirmam a hipótese inicial de que bid-ask spread e volume de títulos públicos possuem forte dependência do bid-ask spread e do volume para contratos de DI futuro de mesmo vencimento, dependência devida à causalidade do mercado de DI futuro para o mercado de títulos públicos para a maioria dos vértices analisados nesse trabalho, indicando que a taxa CDI é benchmark para a precificação dos títulos públicos. Uma possível explicação está nos fatores de microestrutura, que fazem com que esse mercado seja o mais conveniente para negociar risco de liquidez e de mercado. O terceiro ensaio discute as implicações do desenho institucional sobre a liquidez do mercado secundário de títulos públicos - mecanismos e regras de negociação, desenho dos títulos e base de investidores. Essas regras afetam a formação dos preços no mercado, definem as trocas, a dimensão da assimetria de informação e os custos de transação e do processo de negociação. Pela sua relevância, a organização do mercado de títulos públicos tem sido objeto de reformas em diversos países. O terceiro ensaio é finalizado com a análise das medidas adotadas no Brasil e de seus resultados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Um dos grandes desafios na gestão de uma carteira de renda fixa passa pela estimação da curva de juros dos títulos que a compõe. Sua correta estimação e a identificação dos fatores de risco associados a estes títulos são imprescindíveis para uma boa gestão de uma carteira de renda fixa, assim como para o correto apreçamento dos ativos. O presente trabalho tem por objetivo estimar a curva de juros real da economia brasileira a partir de um conjunto de títulos negociados no mercado. Os títulos em questão são as notas do tesouro nacional série B (NTN-B), que tem sua rentabilidade vinculada à variação da inflação (IPCA), acrescida de juros definidos no momento da compra. Por se tratar de títulos que pagam cupom não se pode observar num primeiro momento sua estrutura a termo, nesse sentido, serão apresentados modelos capazes de extrair a curva “zero cupom” a partir destes títulos e estimar a estrutura a termo da taxa de juros real. Através da análise de componentes principais será possível identificar os principais fatores responsáveis por movimentos na curva estimada e consequentemente no preço do título. Alguns cenários macroeconômicos serão elaborados de forma a estudar o comportamento dos títulos frente a choques nesses fatores (análise de sensibilidade). A elaboração de cenários e a análise das prováveis trajetórias para o preço deste título auxiliarão na gestão de carteiras de títulos de renda fixa.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho, com base na literatura teórica e empírica que trata da taxa de câmbio real, tem como objetivo investigar, por meio da estimação de um modelo de correção de erros, as principais variáveis que afetaram a taxa de câmbio real no período 1999/2010. A amostra utilizada começa com a implementação do regime de metas de inflação pelo Banco Central do Brasil (BCB) e pela adoção do câmbio flexível. O modelo de correção dos erros (VECM) foi estimado para duas taxas de câmbio reais efetivas, uma deflacionada pelo IPCA (Índice de Preço ao Consumidor Amplo) e outra pelo IPA (Índice de Preço no Atacado). Os resultados apontam que as principais variáveis que afetaram a taxa de câmbio real de equilíbrio no longo prazo foram: diferencial de juros, gastos do governo, produtividade, termos de troca, transações correntes e dívida externa total.