13 resultados para Redes neurais pulsadas

em Repositório digital da Fundação Getúlio Vargas - FGV


Relevância:

100.00% 100.00%

Publicador:

Resumo:

A gestão e a mensuração do risco operacional é uma preocupação crescente da comunidade bancária, de modo que a escolha adequada do modelo de alocação de capital para risco operacional pode tornar-se um diferencial competitivo. Este trabalho apresenta as vantagens da adoção de modelos causais para a gestão e mensuração do risco operacional e, ao investigar a aplicação de Redes Neurais Artificiais para tal propósito, comprova que o modelo causal chega a valores de capital mais alinhados à exposição ao risco da instituição financeira. Além disso, há a vantagem de que, quanto mais sensível a risco a metodologia de cálculo de capital for, maior será o incentivo para uma gestão apropriada dos riscos no dia-a-dia da instituição financeira, o que não apenas reduz sua necessidade de alocação de capital, quanto diminui suas perdas esperadas. Os resultados, portanto, são positivos e motivam estudos futuros sobre o tema.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esse trabalho comparou, para condições macroeconômicas usuais, a eficiência do modelo de Redes Neurais Artificiais (RNAs) otimizadas por Algoritmos Genéticos (AGs) na precificação de opções de Dólar à Vista aos seguintes modelos de precificação convencionais: Black-Scholes, Garman-Kohlhagen, Árvores Trinomiais e Simulações de Monte Carlo. As informações utilizadas nesta análise, compreendidas entre janeiro de 1999 e novembro de 2006, foram disponibilizadas pela Bolsa de Mercadorias e Futuros (BM&F) e pelo Federal Reserve americano. As comparações e avaliações foram realizadas com o software MATLAB, versão 7.0, e suas respectivas caixas de ferramentas que ofereceram o ambiente e as ferramentas necessárias à implementação e customização dos modelos mencionados acima. As análises do custo do delta-hedging para cada modelo indicaram que, apesar de mais complexa, a utilização dos Algoritmos Genéticos exclusivamente para otimização direta (binária) dos pesos sinápticos das Redes Neurais não produziu resultados significativamente superiores aos modelos convencionais.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Estudos anteriores mostraram que a técnica de redes neurais tem sido mais bem sucedida que os modelos tradicionais em vários assuntos relacionados ao mercado de debêntures, tais como modelar a probabilidade de default e em explicar os ratings de agências classificadoras de risco, como Standard & Poors e Moodys. O objetivo deste trabalho é testar a técnica de redes neurais para precificar debêntures no Brasil e comparar os resultados obtidos com regressões lineares. Para isso, utilizaram-se como variáveis explicativas dados contábeis, características específicas das emissões, tais como prazo para vencimento e cláusulas de recompra antecipada. Em relação às variáveis dependentes, optou-se por utilizar as taxas divulgadas diariamente pela ANDIMA como valor de mercado para as debêntures. As variáveis acima foram testadas em diversos modelos pelo método dos mínimos quadrados ordinários e o modelo que apresentou o melhor resultado foi testado em redes neurais com duas camadas intermediárias. Os resultados obtidos com redes neurais com seis e oito neurônios apresentaram resultados superiores aos modelos estimados por mínimos quadrados ordinários tanto na fase de treinamento como na fase de testes. No entanto, ainda há bastante espaço para melhorias nos modelos dado que o tamanho da base de dados disponível para este tipo de testes no Brasil ainda não é a ideal e as taxas divulgadas pela ANDIMA são médias de um grupo pequeno de instituições e não necessariamente refletem o valor de mercado de uma debênture.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabalho tem por motivação evidenciar a eficiência de redes neurais na classificação de rentabilidade futura de empresas, e desta forma, prover suporte para o desenvolvimento de sistemas de apoio a tomada de decisão de investimentos. Para serem comparados com o modelo de redes neurais, foram escolhidos o modelo clássico de regressão linear múltipla, como referência mínima, e o de regressão logística ordenada, como marca comparativa de desempenho (benchmark). Neste texto, extraímos dados financeiros e contábeis das 1000 melhores empresas listadas, anualmente, entre 1996 e 2006, na publicação Melhores e Maiores – Exame (Editora Abril). Os três modelos foram construídos tendo como base as informações das empresas entre 1996 e 2005. Dadas as informações de 2005 para estimar a classificação das empresas em 2006, os resultados dos três modelos foram comparados com as classificações observadas em 2006, e o modelo de redes neurais gerou o melhor resultado.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Resumo O objetivo deste trabalho é explorar a utilização de Redes Neurais no processo de previsão da Captação Líquida do Mercado de Previdência Privada Brasileiro como ferramenta à tomada de decisão e apoio na gestão das empresas do setor. Para a construção desse modelo foram utilizadas Redes Neurais, ferramenta que vem se mostrando adequada para utilização em modelos não lineares com resultados superiores a outras técnicas. A fonte de dados principal para a realização deste trabalho foi a FENAPREVI – Federação Nacional de Previdência Privada e Vida. Para comparação com o modelo de Redes Neurais, foi utilizado um modelo de Regressão Linear Múltipla como benchmark, com o objetivo de evidenciar a adequação da ferramenta em vista dos objetivos traçados no trabalho. O modelo foi construído a partir das informações mensais do setor, entre maio de 2002 e agosto de 2009, considerando o que se convencionou chamar de ‘mercado vivo’, que abrange os produtos PGBL e VGBL, comercializados ininterruptamente nesse período pelas chamadas EAPP – Entidades Abertas de Prividência Privada. Os resultados obtidos demonstraram a adequação da ferramenta Redes Neurais, que obtiveram resultados superiores aos obtidos utilizando Regressão Linear Múltipla.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabalho tem por objetivo a construção de uma rede neural para previsão do movimento dos contratos de dólar futuro e a construção de estratégias de negociação, para prover uma ferramenta para estimar o movimento do câmbio e para a negociação desses ativos. Essa ferramenta pode auxiliar empresas que necessitam fazer hedge de ativos e passivos e players do mercado que necessitam rentabilizar carteiras. Neste trabalho utilizamos como input dados de ativos do mercado financeiro, de janeiro de 2001 até setembro de 2013, disponíveis via terminal Bloomberg. Para o cálculo dos resultados financeiros das estratégias utilizamos dados de preços referenciais disponibilizados pela BM&F.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Em economias com regimes de metas de inflação é comum que Bancos Centrais intervenham para reduzir os níveis de volatilidade do dólar, sendo estas intervenções mais comuns em países não desenvolvidos. No caso do Brasil, estas intervenções acontecem diretamente no mercado à vista, via mercado de derivativos (através de swaps cambiais) ou ainda com operações a termo, linhas de liquidez e via empréstimos. Neste trabalho mantemos o foco nas intervenções no mercado à vista e de derivativos pois estas representam o maior volume financeiro relacionado à este tipo de atuação oficial. Existem diversos trabalhos que avaliam o impacto das intervenções e seus graus de sucesso ou fracasso mas relativamente poucos que abordam o que levaria o Banco Central do Brasil (BCB) a intervir no mercado. Tentamos preencher esta lacuna avaliando as variáveis que podem se relacionar às intervenções do BCB no mercado de câmbio e adicionalmente verificando se essas variáveis se relacionam diferentemente com as intervenções de venda e compra de dólares. Para tal, além de utilizarmos regressões logísticas, como na maioria dos trabalhos sobre o tema, empregamos também a técnica de redes neurais, até onde sabemos inédita para o assunto. O período de estudo vai de 2005 a 2012, onde o BCB interveio no mercado de câmbio sob demanda e não de forma continuada por longos períodos de tempo, como nos anos mais recentes. Os resultados indicam que algumas variáveis são mais relevantes para o processo de intervenção vendendo ou comprando dólares, com destaque para a volatilidade implícita do câmbio nas intervenções que envolvem venda de dólares, resultado este alinhado com outros trabalhos sobre o tema.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Apresenta métodos quantitativos próprios para a discriminação entre grupos, baseados em Análise Discriminante Linear, Regressão Logística, Redes Neurais e Algoritmos Genéticos, dentro do contexto do problema da análise de crédito.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

O trabalho busca analisar e entender se a aplicação de técnicas de Data mining em processos de aquisição de clientes de cartão de crédito, especificamente os que não possuem uma conta corrente em banco, podem trazer resultados positivos para as empresas que contam com processos ativos de conquista de clientes. Serão exploradas três técnicas de amplo reconhecimento na comunidade acadêmica : Regressão logística, Árvores de decisão, e Redes neurais. Será utilizado como objeto de estudo uma empresa do setor financeiro, especificamente nos seus processos de aquisição de clientes não correntistas para o produto cartão de crédito. Serão mostrados resultados da aplicação dos modelos para algumas campanhas passadas de venda de cartão de crédito não correntistas, para que seja possível verificar se o emprego de modelos estatísticos que discriminem os clientes potenciais mais propensos dos menos propensos à contratação podem se traduzir na obtenção de ganhos financeiros. Esses ganhos podem vir mediante redução dos custos de marketing abordando-se somente os clientes com maiores probabilidades de responderem positivamente à campanha. A fundamentação teórica se dará a partir da introdução dos conceitos do mercado de cartões de crédito, do canal telemarketing, de CRM, e das técnicas de data mining. O trabalho apresentará exemplos práticos de aplicação das técnicas mencionadas verificando os potenciais ganhos financeiros. Os resultados indicam que há grandes oportunidades para o emprego das técnicas de data mining nos processos de aquisição de clientes, possibilitando a racionalização da operação do ponto de vista de custos de aquisição.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Who was the cowboy in Washington? What is the land of sushi? Most people would have answers to these questions readily available,yet, modern search engines, arguably the epitome of technology in finding answers to most questions, are completely unable to do so. It seems that people capture few information items to rapidly converge to a seemingly 'obvious' solution. We will study approaches for this problem, with two additional hard demands that constrain the space of possible theories: the sought model must be both psychologically and neuroscienti cally plausible. Building on top of the mathematical model of memory called Sparse Distributed Memory, we will see how some well-known methods in cryptography can point toward a promising, comprehensive, solution that preserves four crucial properties of human psychology.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

O estudo teve como objetivo avaliar a capacidade preditiva dos modelos de estimação do risco de mercado em momentos de crises financeiras. Para isso, foram testados modelos de estimação do Value-at-Risk (VaR) aplicados aos retornos diários de carteiras compostas por índices de ações de países desenvolvidos e emergentes. Foram testados o modelo VaR de Simulação Histórica, modelos ARCH multivariados (Bekk, Vech e CCC), Redes Neurais Artificiais e funções Cópulas. A amostra de dados refere-se aos períodos de duas crises financeiras internacionais, Crise Asiática, de 1997, e Crise do Sub Prime dos EUA, de 2008. Os resultados apontaram que os modelos ARCH multivariados (Vech e Bekk) e Cópula - Clayton tiveram desempenho semelhantes, com bons ajustes em 100% dos testes. Diferentemente do que era esperado, não foi possível perceber diferenças significativas entre os ajustes para países desenvolvidos e emergentes e os momentos de crise e normal.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

O presente trabalho pretende descrever e analisar a evolução institucional da Internet Corporation for Assigned Names and Numbers (ICANN), organização responsável pela gestão dos nomes de domínio e protocolos de comunicação entre computadores em rede ao redor do mundo. Iniciando sua trajetória como instituição privada estadunidense e vinculada ao departamento de comércio do mesmo país, a ICANN passa por diversas modificações estruturais ao longo da última década, de forma a englobar representantes de diversos setores sociais em suas atividades. Algumas peculiaridades em sua estrutura que ainda a vinculam aos Estados Unidos, no entanto, são objeto de controvérsia entre aqueles que buscam uma democratização da internet em nível global.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Existe um problema de representação em processamento de linguagem natural, pois uma vez que o modelo tradicional de bag-of-words representa os documentos e as palavras em uma unica matriz, esta tende a ser completamente esparsa. Para lidar com este problema, surgiram alguns métodos que são capazes de representar as palavras utilizando uma representação distribuída, em um espaço de dimensão menor e mais compacto, inclusive tendo a propriedade de relacionar palavras de forma semântica. Este trabalho tem como objetivo utilizar um conjunto de documentos obtido através do projeto Media Cloud Brasil para aplicar o modelo skip-gram em busca de explorar relações e encontrar padrões que facilitem na compreensão do conteúdo.