982 resultados para Precificação quantitativa


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Em complemento a diversas pesquisas qualitativas existentes na literatura sobre o comportamento do consumidor face à intensificação da automação dos canais de atendimento bancário e a conseqüente despersonalização dos serviços, este trabalho analisa dados quantitativos com o objetivo de auxiliar na compreensão da influência do atendimento pessoal na migração de transações do caixa humano para o auto-atendimento. Neste trabalho, a relação de causa e efeito entre o investimento em funcionários dedicados à orientação de usuários dos caixas eletrônicos e o aumento do uso deste tipo de canal, foi investigada através de um estudo de caso em um banco de varejo brasileiro, Além de analisar o comportamento da migração dos usuários para os caixas eletrônicos, foi desenvolvido e aplicado um modelo de avaliação do investimento em atendimento humano em função dos ganhos auferidos na redução dos custos de transação das agências. Deve-se destacar que na literatura encontram-se poucos modelos de avaliação de investimento em qualidade de serviços bancários, o que reforça a relevância deste trabalho. O resultado desta pesquisa traz uma maior compreensão sobre o papel do atendimento humano como incentivo ao uso de canais de auto-atendimento, além de propor um modelo de análise de investimento em qualidade de serviços bancários, que pode ser utilizado pelos bancos para avaliação de retornos obtidos na melhoria da qualidade de atendimento.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Trata da análise das principais ferramentas quantitativas para a tomada de decisão e análise de investimentos, em particular de análise por árvore de decisão e teoria de precificação de opções aplicada a casos de investimentos em ativos não financeiros. Mostra as vantagens e desvantagens de cada metodologia, em especial as limitações de aplicação prática da TPO. Propõe uma metodologia para calcular o valor das "opções reais" utilizando árvores de decisão

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A dissertação analisa a utilização do bookbuilding como redutor do deságio no preço das emissões dos IPOs brasileiros. A literatura internacional sobre bookbuilding é apresentada e, no caso brasileiro, exemplos de emissões são discutidas, particularmente no que se refere à alocação das ações entre os investidores. Favorecimento na alocação parece ocorrer para os maiores investidores, para os Fundos de Pensão e para os que fazem suas ofertas diretamente ao bookrunner. A análise de uma amostra de IPOs brasileiros, precificados por bookbuilding, revelou que o retorno médio ajustado ao mercado é de 2,46%, no final do primeiro dia de negociação na Bolsa de Valores. O resultado confirma que o bookbuilding é um poderoso instrumento de redução de underpricing. Após 135 dias úteis a amostra apresentou retorno médio de -77,29%.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esse trabalho comparou, para condições macroeconômicas usuais, a eficiência do modelo de Redes Neurais Artificiais (RNAs) otimizadas por Algoritmos Genéticos (AGs) na precificação de opções de Dólar à Vista aos seguintes modelos de precificação convencionais: Black-Scholes, Garman-Kohlhagen, Árvores Trinomiais e Simulações de Monte Carlo. As informações utilizadas nesta análise, compreendidas entre janeiro de 1999 e novembro de 2006, foram disponibilizadas pela Bolsa de Mercadorias e Futuros (BM&F) e pelo Federal Reserve americano. As comparações e avaliações foram realizadas com o software MATLAB, versão 7.0, e suas respectivas caixas de ferramentas que ofereceram o ambiente e as ferramentas necessárias à implementação e customização dos modelos mencionados acima. As análises do custo do delta-hedging para cada modelo indicaram que, apesar de mais complexa, a utilização dos Algoritmos Genéticos exclusivamente para otimização direta (binária) dos pesos sinápticos das Redes Neurais não produziu resultados significativamente superiores aos modelos convencionais.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Estudos anteriores mostraram que a técnica de redes neurais tem sido mais bem sucedida que os modelos tradicionais em vários assuntos relacionados ao mercado de debêntures, tais como modelar a probabilidade de default e em explicar os ratings de agências classificadoras de risco, como Standard & Poors e Moodys. O objetivo deste trabalho é testar a técnica de redes neurais para precificar debêntures no Brasil e comparar os resultados obtidos com regressões lineares. Para isso, utilizaram-se como variáveis explicativas dados contábeis, características específicas das emissões, tais como prazo para vencimento e cláusulas de recompra antecipada. Em relação às variáveis dependentes, optou-se por utilizar as taxas divulgadas diariamente pela ANDIMA como valor de mercado para as debêntures. As variáveis acima foram testadas em diversos modelos pelo método dos mínimos quadrados ordinários e o modelo que apresentou o melhor resultado foi testado em redes neurais com duas camadas intermediárias. Os resultados obtidos com redes neurais com seis e oito neurônios apresentaram resultados superiores aos modelos estimados por mínimos quadrados ordinários tanto na fase de treinamento como na fase de testes. No entanto, ainda há bastante espaço para melhorias nos modelos dado que o tamanho da base de dados disponível para este tipo de testes no Brasil ainda não é a ideal e as taxas divulgadas pela ANDIMA são médias de um grupo pequeno de instituições e não necessariamente refletem o valor de mercado de uma debênture.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo desse trabalho é analisar e precificar o prêmio de liquidez exigido pelos investidores nas negociações de debêntures do mercado secundário brasileiro, com base no yield to maturity diário desses papéis. Os testes econométricos foram realizados com base no modelo apresentado por Houweling, Mentink e Vorst (2005) e aplicado ao mercado de eurobonds nos períodos de 1999 a 2001. Foi implementado um modelo de 5 variáveis para controlar, através de betas e características, os outros tipos de risco determinantes do spread das debêntures que não a liquidez. O conhecido modelo de títulos de renda fixa de dois fatores Fama-French (1993) foi utilizado para controlar os riscos de crédito e de taxas de juros, foram incorporados efeitos marginais, através das características individuais (rating e duration) das debêntures e uma adaptação para as particularidades do mercado brasileiro foi realizada, com a inclusão de um fator baseado na taxa PréxDI da duration dos portfólios. Para esse estudo, foram consideradas 4 proxies de liquidez largamente utilizadas na literatura: Volume de Emissão, Idade da Emissão, Número de Transações no dia e Spread de Compra e Venda, sendo o modelo estimado uma vez para cada proxy analisada. Para realizar os testes de regressão e precificar o prêmio de liquidez no mercado secundário de debêntures do Brasil, todas as variáveis do modelo foram calculadas para cada uma das amostras de dados. Posteriormente, para cada proxy de liquidez foram construídos diariamente portfólios mutuamente excludentes, com as debêntures segregadas em portfólios de acordo com a proxy de liquidez em questão, conforme a metodologia proposta por Brennan e Subrahmanyam (1996). A base de dados, que somou 16.083 amostras, se fundamentou nas cotações de mercado fornecidas diariamente pelo Sistema Nacional de Debêntures no período de Maio de 2004 a Novembro de 2006. A hipótese nula de que não existe prêmio de liquidez embutido nos spreads das debêntures negociadas no mercado secundário brasileiro é rejeitada para todas as proxies analisadas. De acordo com a proxy de liquidez utilizada, o prêmio de liquidez no mercado secundário de debêntures varia de 8 a 30 basis points.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação procurou identificar as diretrizes de supervisão dos mercados futuros no Brasil frente às práticas de regulação utilizadas em outros países do mundo, basicamente aqueles cujas economias e mercados são maiores do que o brasileiro, em volume de contratos negociados. O desenvolvimento do tema se deu de maneira a estimular o uso de tais práticas na estrutura local de supervisão, com vistas a uma melhoria da atividade dos órgãos reguladores e ao crescimento do mercado de capitais brasileiro. Dentre as referidas práticas, destacou-se a utilização de modelos estatísticos de precificação dos contratos negociados no sentido de balizar a atuação dos departamentos de fiscalização na investigação de condições artificiais de mercado. A abordagem desses modelos abrangeu desde a definição de conceitos fundamentais até a apresentação de um estudo de caso com opções sobre ações, passando pela caracterização dos principais modelos e formas de calcular a volatilidade no preço desses títulos. Os resultados de pesquisa foram relacionados às origens legais e ao desenvolvimento econômico recente do Brasil, que levaram à sofisticação dos mecanismos de financiamento do mercado de capitais nacional, não se limitando ao simples apontamento dos pontos fracos da estrutura local de supervisão. Finalmente, a pesquisa evoluiu para as necessidades práticas da atividade de supervisão a serem atendidas pelo regulador, segundo as características operacionais dos principais mercados, a fim de que a bolsa de futuros brasileira reforce sua posição competitiva no cenário mundial.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Trabalho sobre precificação e administração de riscos de derivativos cambiais do mercado brasileiro.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Examinamos a relação entre anomalias de temperatura e séries de sinistros diretos do mercado segurador brasileiro, bem como seu efeito sobre um modelo de precificação de ativos de consumo. Nossa metodologia consistiu na análise da correlação das anomalias de temperatura com a série de sinistros e no efeito dessas séries nas oportunidades futuras de investimento. Testamos um modelo de precificação de ativos de consumo (CCAPM) condicional com as séries temporais brasileiras. Duas séries de consumo, duas séries de sinistros diretos e quatro séries de anomalias de temperatura foram utilizadas na realização dos testes. Todas as séries pertenceram ao período de setembro de 1996 a dezembro de 2007, com freqüência trimestral, dois anos posteriores ao início do plano Real e um ano antes da crise de crédito de 2008. Em alguns casos utilizamos séries mensais. Observamos a existência de correlação positiva e significativa entre as séries de sinistro direto e as anomalias de temperatura. Dois modelos se apresentaram melhores que o CCAPM clássico. O primeiro com a taxa de crescimento da série de sinistros, com pontos que poderíamos considerar como outliers, e o segundo com a série de anomalias de temperatura do hemisfério sul elaborada pelo Goddard Institute of Space Sciences (GISS/NASA). Como resultado observamos que a série de anomalias de temperatura elaborada pelo GISS é capaz de afetar as oportunidades futuras de investimento no mercado de capitais brasileiro.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As regras do novo modelo de mercado para o Setor Elétrico Brasileiro (SEB) foram publicadas em julho de 2004. A base deste modelo está na criação do Ambiente de Contratação Regulada (ACR) e o Ambiente de Contratação Livre (ACL), para comercialização de energia elétrica. No ACR, a contratação é feita por leilão, procurando-se atender à soma das demandas de todas as Distribuidoras participantes. Cada Gerador, vencedor do leilão, assina contratos bilaterais com todas as Distribuidoras, as quais podem estar localizadas em submercados diferentes e, assim, expor os Geradores ao chamado “risco de submercado”. No entanto, no ACR, este risco é assumido pelas Distribuidoras, que poderão, eventualmente, repassá-los aos consumidores finais. Por outro lado, no ACL este risco continuará sendo assumido pelos Geradores no caso de contratos entre submercados. Neste contexto, o objetivo do presente trabalho é propor uma metodologia para precificação e análise dos riscos de submercado de um Gerador operando no ACL, com base na teoria da “utilidade esperada”. São analisados dois estudos de caso, de uma contratação bilateral diretamente com um consumidor e da participação em um leilão de compra de energia elétrica realizado em um submercado “vizinho”. Em ambos os casos, analisados com dados reais do sistema elétrico brasileiro, os resultados obtidos comprovam que a abordagem de “utilidade esperada” captura de forma mais coerente o perfil de risco do Gerador, comparada à abordagem tradicional de precificação do risco pelo valor presente médio da renda, que considera o Gerador como sendo neutro à situações de risco.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A ferrugem da folha da aveia, causada pelo fungo Puccinia coronata f. sp. avenae, é responsável por grandes decréscimos na produção, afetando tanto o rendimento como a qualidade de grãos. O controle através do uso de cultivares com resistência qualitativa tem se mostrado pouco efetivo em termos de durabilidade. Neste sentido, a resistência quantitativa pode ser uma alternativa de controle viável, em busca de uma resistência mais durável, já que exerce menor pressão de seleção sobre a população patogênica. A resistência quantitativa reduz a taxa de progresso da doença, pela combinação dos diversos componentes que a condicionam, como: longo período latente, curto período infeccioso, baixa eficiência de infecção e pústulas de comprimento reduzido. Não se sabe ao certo o papel individual de cada um destes componentes sobre o progresso da doença no campo, bem como, o número de genes que determinam estas características. Assim, este trabalho visou caracterizar os componentes da resistência quantitativa (período latente, período infeccioso, comprimento de pústulas e ASCPD) à ferrugem da folha da aveia, em planta adulta e plântulas, tanto em condições controladas como em condições de campo. Para tanto foram utilizadas 83 linhagens recombinantes F6:10 de aveia branca, oriundas do cruzamento de um pai suscetível (UFRGS 7) com um pai com resistência quantitativa (UFRGS 910906). As linhagens apresentaram variabilidade para as características avaliadas, exceto para comprimento de pústulas em planta adulta. Os componentes da resistência apresentaram distribuição normal, exceto o comprimento de pústulas em planta adulta e o período de latência em plântulas. Isto sugere a presença de vários genes de pequeno efeito atuando na expressão dos mesmos, não se enquadrando em nenhum modelo de poucos genes. Os resultados sugerem que a resistência quantitativa à ferrugem da folha da aveia é resultado da ação conjunta de todos os componentes que a condicionam, e não de apenas um deles. Ainda, mecanismos diferenciados parecem estar atuando em cada genótipo na expressão desta característica.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo dessa dissertação é estabelecer um modelo quantitativo de gestão de riscos estratégicos de um ativo de produção de petróleo, notadamente o valor em risco do seu fluxo de caixa e de sua rentabilidade. Para tanto, foi utilizado um modelo de fluxo de caixa onde a receita operacional foi definida como variável estocástica. A receita operacional foi estimada a partir de uma função de perdas que descreve o volume de produção de petróleo, e de uma trajetória de preços definida por um modelo geométrico browniano sem reversão a média e com volatilidade descrita por um processo GARCH. Os resultados obtidos demonstram que o modelo proposto é capaz de fornecer informações importantes para a gestão de riscos de ativos de produção de petróleo ao passo que permite a quantificação de diferentes fatores de risco que afetam a rentabilidade das operações. Por fim, o modelo aqui proposto pode ser estendido para a avaliação do risco financeiro e operacional de um conjunto de ativos de petróleo, considerando sua estrutura de dependência e a existência de restrições de recursos financeiros, físicos e humanos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

No Reino Unido, uma grande política monetária de compra de títulos públicos que ficou conhecida como Quantitative Easing foi realizada em 2009. Nesse estudo foram utilizados diversos dados diários de Gilts convencionais para tentar entender os efeitos que mudanças na oferta de Gilts tem na estrutura a termo dos mesmos. No dia das compras não foi possível mostrar que as compras tem alguma influência sobre a estrutura termo implícita (os “efeitos de fluxo”). No entanto, no final do programa houve uma diminuição de até 40bps na estrutura termo implícita sendo que a maior parte dessa diminuição veio de compras do próprio ativo e uma parte um pouco menor de compras de ativos substitutos (os “efeitos de estoque”). Além disso, as maiores diminuições apareceram justamente nos setores da curva onde governo concentrou as compras.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo deste trabalho é avaliar a eficiência da precificação e os erros de aderência dos Exchange Traded Funds (ETFs), conhecidos no mercado de capitais como fundos de investimentos abertos listados e comercializados em bolsas de valores. Para esta avaliação, são realizados testes sobre hipóteses acerca da significância estatística dos mispricings entre (1) os valores das cotas patrimoniais e os preços de fechamentos destes ETFs e (2) sobre a diferença entre os preços de fechamento dos ETFs e dos seus índices de referência. A amostra utilizada é dos oito ETFs comercializados no mercado brasileiro de capitais durante o período de realização do trabalho. Como resultado do esforço de pesquisa realizado, o último capítulo mostra uma tendência a distintos níveis de eficiência da precificação e erros de aderência nos ETFs brasileiros. Enquanto alguns ETFs mais líquidos apresentam prêmios/descontos insignificantes estatisticamente, os prêmios/descontos de outros ETFs se mostraram razoavelmente consideráveis. No que tange aos erros de aderência, a média dos erros do ETFs listados localmente mostrou-se em um patamar intermediário entre aqueles ETFs listados no mercado americano e os de uma seleção de ETFs listados em mercados emergentes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A presente pesquisa visa identificar os fatores que influenciam a inovação tecnológica em micro e pequenas empresas brasileiras, por meio da análise dos dados secundários da Pesquisa de Inovação Tecnológica (PINTEC 2008), conduzida pelo Instituto Brasileiro de Geografia e Estatística (IBGE) junto a 16.371 empresas de ramos industriais e de serviços selecionados. Para tanto, foi feita a modelagem estatística dos microdados relativos à sub-amostra formada pelas 3.092 micro e pequenas empresas inquiridas pela PINTEC 2008. A análise das correlações entre as variáveis que influenciam as inovações e quatro variáveis que caracterizam o tipo e a abrangência das inovações tecnológicas – inovação em produto para o mercado nacional, inovação em produto para o mercado mundial, inovação em processo para o mercado nacional, inovação em processo para o mercado mundial – permitiu selecionar as variáveis independentes mais significativas em termos de influência sobre a ocorrência de inovação em micro e pequenas empresas. Com base nessas mesmas correlações, foram elaboradas regressões logísticas (logit), nas quais as variáveis dependentes escolhidas foram as quatro variáveis caracterizadoras do tipo e da abrangência da inovação acima mencionadas, e as variáveis independentes foram selecionadas dentre aquelas com maior poder explicativo sobre a ocorrência de inovação. Foram tomadas as devidas precauções para evitar a ocorrência de multicolinearidade nas regressões. Os resultados das regressões, analisados à luz da revisão bibliográfica, revelam a importância das variáveis independentes para a ocorrência de inovação em micro e pequenas empresas, e ajudam nas reflexões sobre possíveis melhorias nas políticas de estímulo à inovação tecnológica em micro e pequenas empresas.