10 resultados para Modelo preditivo

em Repositório digital da Fundação Getúlio Vargas - FGV


Relevância:

60.00% 60.00%

Publicador:

Resumo:

Este trabalho analisou os portadores de cartão tipo Private Label do Carrefour, a segunda maior organização varejista do mundo. Foram coletados dados de uma amostra de 400 clientes, com o fim de construir um modelo empírico de Satisfação e Lealdade. Em seguida, foi utilizada a técnica de Análise de Sobrevivência para construir um modelo preditivo de risco de perda de clientes, que se mostrou efetivo na prevenção do atrito. Não se encontra aplicação desta técnica emergente para o problema da deserção de clientes. Os resultados mostram que a classe social dos clientes atua sobre a Satisfação, a Lealdade Atitudinal, e o Uso de meios de pagamento dos clientes pesquisados.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Após o surgimento e a expansão exponencial, a internet evoluiu para uma tecnologia que extrapolou os contornos acadêmicos em que foi criada, desenvolvendo diversas e simultâneas vocações, entre elas, fonte de educação e lazer, armazenamento de informações, rede de computadores, meio de comunicação individual e veículo de mídia de massa. É esta vocação, de veículo de mídia, que provocou o interesse pela pesquisa objeto desta dissertação. A entrada da internet no ambiente de mídia tem renovado o interesse na questão do consumo de mídia. Particularmente, a crescente popularidade como novo meio de comunicação resultou em mudanças nos usos dos meios tradicionais, como teorizado na Teoria do Nicho aplicada à indústria de mídia. O declínio da audiência das grandes redes de TV aberta mostra como o setor vem reagindo à concorrência de novos canais, à emergência de novas plataformas de acesso à programação televisiva e à mudança nos hábitos de consumo de mídia. Esta investigação faz uma revisão da literatura e compara o panorama internacional e especialmente a situação do Brasil, onde as principais emissoras de sinal aberto tentam resistir ao processo de fragmentação do público que se registra mundialmente. Para melhor compreender o que significam tais mudanças, é primordial entender quais as variáveis relevantes no universo dos veículos de mídia. A principal delas é a audiência, que representa o número de pessoas que acessam, veem, leem, ouvem ou consomem determinado meio de comunicação em determinado espaço de tempo. O objetivo deste estudo foi desenvolver um modelo preditivo sobre o tempo despendido pelas pessoas na internet, a partir de informações sociodemográficas e do comportamento dessas pessoas enquanto audiência dos meios de comunicação tradicionais, particularmente a televisão. Como os dados secundários analisados apresentam respostas em categorias ordinais, foi escolhido a regressão logística ordinal como o modelo de probabilidades para realizar esse estudo.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Este trabalho tem como objetivo investigar o fenômeno da dispersão de clientes em torno de uma agência bancária, identificando generalizações e peculiaridades deste fenômeno e verificando quais variáveis controláveis e ambientais influenciam a capacidade das agências bancárias em atrair clientes para desenvolver um modelo preditivo de determinação da área de influência primária. Para determinação desta área, foi utilizada a metodologia customer spotting, adotando-se o software mapinfo e a base cartográfica digitalizada da Grande São Paulo. Para cada uma das agências, foi selecionada do banco de dados da instituição uma amostra de 400 clientes ativos com seus endereços residenciais e verificadas as características ambientais no raio de 1.000 metros. Os testes de associação entre variáveis e a modelagem econométrica foram realizados por meio da análise de regressões múltiplas. A área de influência primária foi operacionalizada como sendo a extensão do raio que contém 50% dos clientes. As áreas de influência das agências bancárias mostram enorme diversidade entre si, variando de 1,1 a 12,2 km, sendo mais extensa se comparada com o comércio varejista. As variáveis mais associadas à área de influência são a densidade demográfica no entorno da agência (relação negativa), existência ou não de estacionamento na agência (relação positiva) e o nível de aglomeração bancária na região (relação positiva). As generalizações são limitadas para a cidade de São Paulo e apenas para clientes pessoas físicas ativos que não recebem seus salários pelo banco. Conhecer a área de influência das agências bancárias possibilita verificar áreas em que ocorrem sobreposição, baixa ou ausência de atuação, subsidiando estudos para instalação de novas agências ou remanejamento das já existentes e estabelecer estratégias específicas para as agências de acordo com a procedência de seus clientes. Este trabalho pioneiro preenche uma importante lacuna nos estudos de área de influência para o mercado bancário que vem crescendo nos últimos anos.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

O VIX Volatility Index surgiu como uma alternativa no cálculo da volatilidade implícita, visando mitigar alguns problemas encontrados em modelos da família Black-Scholes. Este tipo de volatilidade é tida como a melhor previsora da volatilidade futura, dado que as expectativas dos operadores de opções se encontram embutidas em seus valores. O objetivo deste trabalho é testar se o VIX apresenta maior poder preditivo e informações relevantes não presentes em modelos de séries temporais para variáveis não-negativas, tratadas através do modelo de erro multiplicativo. Os resultados indicam que o VIX apresenta maior poder preditivo em períodos de estabilidade econômica, mas não contém informação relevante frente à real volatilidade. Em períodos de crise econômica o resultado se altera, com o VIX apresentando o mesmo poder explicativo, mas contém informações relevantes no curto prazo.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O trabalho tem como objetivo comparar a eficácia das diferentes metodologias de projeção de inflação aplicadas ao Brasil. Serão comparados modelos de projeção que utilizam os dados agregados e desagregados do IPCA em um horizonte de até doze meses à frente. Foi utilizado o IPCA na base mensal, com início em janeiro de 1996 e fim em março de 2012. A análise fora da amostra foi feita para o período entre janeiro de 2008 e março de 2012. Os modelos desagregados serão estimados por SARIMA, pelo software X-12 ARIMA disponibilizado pelo US Census Bureau, e terão as aberturas do IPCA de grupos (9) e itens (52), assim como aberturas com sentido mais econômico utilizadas pelo Banco Central do Brasil como: serviços, administrados, alimentos e industrializados; duráveis, não duráveis, semiduráveis, serviços e administrados. Os modelos agregados serão estimados por técnicas como SARIMA, modelos estruturais em espaço-estado (Filtro de Kalman) e Markov-switching. Os modelos serão comparados pela técnica de seleção de modelo Model Confidence Set, introduzida por Hansen, Lunde e Nason (2010), e Dielbod e Mariano (1995), no qual encontramos evidências de ganhos de desempenho nas projeções dos modelos mais desagregados em relação aos modelos agregados.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O trabalho busca comparar dois conjuntos de informações para a projeção das variações do PIB brasileiro: através de modelos econométricos aplicados sobre a série univariada do PIB, e a aplicação dos mesmos modelos, mas contemplando adicionalmente o conjunto de informação com dados da estrutura a termo de taxa de juros de swap PRÉ-DI. O objetivo é verificar, assim como descrito na literatura internacional, se informações de variáveis financeiras tem a capacidade de incrementar o poder preditivo de projeções de variáveis macroeconômicas, na medida em que esses dados também embutem as expectativas dos agentes em relação ao desenvolvimento do cenário econômico. Adicionalmente, o mesmo procedimento aplicado para os dados brasileiros é aplicado sobre as informações dos Estados Unidos, buscando poder fornecer ao estudo uma base de comparação sobre os dados, tamanho da amostra e estágio de maturidade das respectivas economias. Como conclusão do resultado do trabalho está o fato de que foi possível obter um modelo no qual a inclusão do componente de mercado apresenta menores erros de projeção do que as projeções apenas univariadas, no entanto, os ganhos de projeção não demonstram grande vantagem comparativa a ponto de poder capturar o efeito de antecipação do mercado em relação ao indicador econômico como em alguns casos norte-americanos. Adicionalmente o estudo demonstra que para este trabalho e amostra de dados, mesmo diante de diferentes modelos econométricos de previsão, as projeções univariadas apresentaram resultados similares.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta pesquisa busca testar a eficácia de uma estratégia de arbitragem de taxas de juros no Brasil baseada na utilização do modelo de Nelson-Siegel dinâmico aplicada à curva de contratos futuros de taxa de juros de 1 dia da BM&FBovespa para o período compreendido entre 02 de janeiro de 2008 e 03 de dezembro de 2012. O trabalho adapta para o mercado brasileiro o modelo original proposto por Nelson e Siegel (1987), e algumas de suas extensões e interpretações, chegando a um dos modelos propostos por Diebold, Rudebusch e Aruoba (2006), no qual estimam os parâmetros do modelo de Nelson-Siegel em uma única etapa, colocando-o em formato de espaço de estados e utilizando o Filtro de Kalman para realizar a previsão dos fatores, assumindo que o comportamento dos mesmos é um VAR de ordem 1. Desta maneira, o modelo possui a vantagem de que todos os parâmetros são estimados simultaneamente, e os autores mostraram que este modelo possui bom poder preditivo. Os resultados da estratégia adotada foram animadores quando considerados para negociação apenas os 7 primeiros vencimentos abertos para negociação na BM&FBovespa, que possuem maturidade máxima próxima a 1 ano.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A tradicional representação da estrutura a termo das taxas de juros em três fatores latentes (nível, inclinação e curvatura) teve sua formulação original desenvolvida por Charles R. Nelson e Andrew F. Siegel em 1987. Desde então, diversas aplicações vêm sendo desenvolvidas por acadêmicos e profissionais de mercado tendo como base esta classe de modelos, sobretudo com a intenção de antecipar movimentos nas curvas de juros. Ao mesmo tempo, estudos recentes como os de Diebold, Piazzesi e Rudebusch (2010), Diebold, Rudebusch e Aruoba (2006), Pooter, Ravazallo e van Dijk (2010) e Li, Niu e Zeng (2012) sugerem que a incorporação de informação macroeconômica aos modelos da ETTJ pode proporcionar um maior poder preditivo. Neste trabalho, a versão dinâmica do modelo Nelson-Siegel, conforme proposta por Diebold e Li (2006), foi comparada a um modelo análogo, em que são incluídas variáveis exógenas macroeconômicas. Em paralelo, foram testados dois métodos diferentes para a estimação dos parâmetros: a tradicional abordagem em dois passos (Two-Step DNS), e a estimação com o Filtro de Kalman Estendido, que permite que os parâmetros sejam estimados recursivamente, a cada vez que uma nova informação é adicionada ao sistema. Em relação aos modelos testados, os resultados encontrados mostram-se pouco conclusivos, apontando uma melhora apenas marginal nas estimativas dentro e fora da amostra quando as variáveis exógenas são incluídas. Já a utilização do Filtro de Kalman Estendido mostrou resultados mais consistentes quando comparados ao método em dois passos para praticamente todos os horizontes de tempo estudados.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho procura identificar quais variáveis são as mais relevantes para previsão da taxa de câmbio real do Brasil e analisar a robustez dessas previsões. Para isso foram realizados testes de cointegração de Johansen em 13 variáveis macroeconômicas. O banco de dados utilizado são séries trimestrais e compreende o período de 1970 a 2014 e os testes foram realizados sobre as séries combinadas dois a dois, três a três e quatro a quatro. Por meio desse método, encontramos nove grupos que cointegram entre si. Utilizando esses grupos, são feitas previsões fora da amostra com a partir das últimas 60 observações. A qualidade das previsões foi avaliada por meio dos testes de Erro Quadrático Médio, teste de Diebold-Mariano e, além disso, foi utilizado um modelo de passeio aleatório do câmbio real como benchmark para o procedimento de Hansen. Todos os testes mostram que, à medida que se aumenta o horizonte de projeção, o passeio aleatório perde poder preditivo e a maioria dos modelos são mais informativos sobre o futuro da o câmbio real efetivo. O horizonte é de três a quatro anos à frente. No caso do teste de Hansen, o passeio aleatório é completamente eliminado do grupo final de modelos, mostrando que é possível fazer previsões superiores ao passeio aleatório.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho procura identificar quais variáveis são as mais relevantes para previsão da taxa de câmbio real do Brasil e analisar a robustez dessas previsões. Para isso foram realizados testes de cointegração de Johansen em 13 variáveis macroeconômicas. O banco de dados utilizado são séries trimestrais e compreende o período de 1970 a 2014 e os testes foram realizados sobre as séries combinadas dois a dois, três a três e quatro a quatro. Por meio desse método, encontramos nove grupos que cointegram entre si. Utilizando esses grupos, são feitas previsões fora da amostra com a partir das últimas 60 observações. A qualidade das previsões foi avaliada por meio dos testes de Erro Quadrático Médio, teste de Diebold-Mariano e, além disso, foi utilizado um modelo de passeio aleatório do câmbio real como benchmark para o procedimento de Hansen. Todos os testes mostram que, à medida que se aumenta o horizonte de projeção, o passeio aleatório perde poder preditivo e a maioria dos modelos são mais informativos sobre o futuro da o câmbio real efetivo. O horizonte é de três a quatro anos à frente. No caso do teste de Hansen, o passeio aleatório é completamente eliminado do grupo final de modelos, mostrando que é possível fazer previsões superiores ao passeio aleatório.