29 resultados para Equalização Adaptativa. Redes Neurais. Sistemas Ópticos. Equalizador Neural
em Repositório digital da Fundação Getúlio Vargas - FGV
Resumo:
Este trabalho tem por motivação evidenciar a eficiência de redes neurais na classificação de rentabilidade futura de empresas, e desta forma, prover suporte para o desenvolvimento de sistemas de apoio a tomada de decisão de investimentos. Para serem comparados com o modelo de redes neurais, foram escolhidos o modelo clássico de regressão linear múltipla, como referência mínima, e o de regressão logística ordenada, como marca comparativa de desempenho (benchmark). Neste texto, extraímos dados financeiros e contábeis das 1000 melhores empresas listadas, anualmente, entre 1996 e 2006, na publicação Melhores e Maiores – Exame (Editora Abril). Os três modelos foram construídos tendo como base as informações das empresas entre 1996 e 2005. Dadas as informações de 2005 para estimar a classificação das empresas em 2006, os resultados dos três modelos foram comparados com as classificações observadas em 2006, e o modelo de redes neurais gerou o melhor resultado.
Resumo:
Esse trabalho comparou, para condições macroeconômicas usuais, a eficiência do modelo de Redes Neurais Artificiais (RNAs) otimizadas por Algoritmos Genéticos (AGs) na precificação de opções de Dólar à Vista aos seguintes modelos de precificação convencionais: Black-Scholes, Garman-Kohlhagen, Árvores Trinomiais e Simulações de Monte Carlo. As informações utilizadas nesta análise, compreendidas entre janeiro de 1999 e novembro de 2006, foram disponibilizadas pela Bolsa de Mercadorias e Futuros (BM&F) e pelo Federal Reserve americano. As comparações e avaliações foram realizadas com o software MATLAB, versão 7.0, e suas respectivas caixas de ferramentas que ofereceram o ambiente e as ferramentas necessárias à implementação e customização dos modelos mencionados acima. As análises do custo do delta-hedging para cada modelo indicaram que, apesar de mais complexa, a utilização dos Algoritmos Genéticos exclusivamente para otimização direta (binária) dos pesos sinápticos das Redes Neurais não produziu resultados significativamente superiores aos modelos convencionais.
Resumo:
Este trabalho tem por objetivo a construção de uma rede neural para previsão do movimento dos contratos de dólar futuro e a construção de estratégias de negociação, para prover uma ferramenta para estimar o movimento do câmbio e para a negociação desses ativos. Essa ferramenta pode auxiliar empresas que necessitam fazer hedge de ativos e passivos e players do mercado que necessitam rentabilizar carteiras. Neste trabalho utilizamos como input dados de ativos do mercado financeiro, de janeiro de 2001 até setembro de 2013, disponíveis via terminal Bloomberg. Para o cálculo dos resultados financeiros das estratégias utilizamos dados de preços referenciais disponibilizados pela BM&F.
Resumo:
Em economias com regimes de metas de inflação é comum que Bancos Centrais intervenham para reduzir os níveis de volatilidade do dólar, sendo estas intervenções mais comuns em países não desenvolvidos. No caso do Brasil, estas intervenções acontecem diretamente no mercado à vista, via mercado de derivativos (através de swaps cambiais) ou ainda com operações a termo, linhas de liquidez e via empréstimos. Neste trabalho mantemos o foco nas intervenções no mercado à vista e de derivativos pois estas representam o maior volume financeiro relacionado à este tipo de atuação oficial. Existem diversos trabalhos que avaliam o impacto das intervenções e seus graus de sucesso ou fracasso mas relativamente poucos que abordam o que levaria o Banco Central do Brasil (BCB) a intervir no mercado. Tentamos preencher esta lacuna avaliando as variáveis que podem se relacionar às intervenções do BCB no mercado de câmbio e adicionalmente verificando se essas variáveis se relacionam diferentemente com as intervenções de venda e compra de dólares. Para tal, além de utilizarmos regressões logísticas, como na maioria dos trabalhos sobre o tema, empregamos também a técnica de redes neurais, até onde sabemos inédita para o assunto. O período de estudo vai de 2005 a 2012, onde o BCB interveio no mercado de câmbio sob demanda e não de forma continuada por longos períodos de tempo, como nos anos mais recentes. Os resultados indicam que algumas variáveis são mais relevantes para o processo de intervenção vendendo ou comprando dólares, com destaque para a volatilidade implícita do câmbio nas intervenções que envolvem venda de dólares, resultado este alinhado com outros trabalhos sobre o tema.
Resumo:
Apresenta o cenário do setor de telecomunicações no final da década de 90 e suas principais tendências. Explicita a arquitetura básica dos sistemas ópticos submarinos, detalhando a infra-estrutura disponível no Brasil. Aponta as razões que levaram ao acirramento da competição e à degradação de valor das empresas prestando serviços banda larga internacional utilizando sistemas ópticos submarinos. Apresenta a estratégia das principais empresas atuando no Brasil, suas conseqüências e reveses. Analisa o setor segundo o modelo de Porter. Aponta alternativas para a criação de valor utilizando o conceito de "coopetição".
Resumo:
A gestão e a mensuração do risco operacional é uma preocupação crescente da comunidade bancária, de modo que a escolha adequada do modelo de alocação de capital para risco operacional pode tornar-se um diferencial competitivo. Este trabalho apresenta as vantagens da adoção de modelos causais para a gestão e mensuração do risco operacional e, ao investigar a aplicação de Redes Neurais Artificiais para tal propósito, comprova que o modelo causal chega a valores de capital mais alinhados à exposição ao risco da instituição financeira. Além disso, há a vantagem de que, quanto mais sensível a risco a metodologia de cálculo de capital for, maior será o incentivo para uma gestão apropriada dos riscos no dia-a-dia da instituição financeira, o que não apenas reduz sua necessidade de alocação de capital, quanto diminui suas perdas esperadas. Os resultados, portanto, são positivos e motivam estudos futuros sobre o tema.
Resumo:
Estudos anteriores mostraram que a técnica de redes neurais tem sido mais bem sucedida que os modelos tradicionais em vários assuntos relacionados ao mercado de debêntures, tais como modelar a probabilidade de default e em explicar os ratings de agências classificadoras de risco, como Standard & Poors e Moodys. O objetivo deste trabalho é testar a técnica de redes neurais para precificar debêntures no Brasil e comparar os resultados obtidos com regressões lineares. Para isso, utilizaram-se como variáveis explicativas dados contábeis, características específicas das emissões, tais como prazo para vencimento e cláusulas de recompra antecipada. Em relação às variáveis dependentes, optou-se por utilizar as taxas divulgadas diariamente pela ANDIMA como valor de mercado para as debêntures. As variáveis acima foram testadas em diversos modelos pelo método dos mínimos quadrados ordinários e o modelo que apresentou o melhor resultado foi testado em redes neurais com duas camadas intermediárias. Os resultados obtidos com redes neurais com seis e oito neurônios apresentaram resultados superiores aos modelos estimados por mínimos quadrados ordinários tanto na fase de treinamento como na fase de testes. No entanto, ainda há bastante espaço para melhorias nos modelos dado que o tamanho da base de dados disponível para este tipo de testes no Brasil ainda não é a ideal e as taxas divulgadas pela ANDIMA são médias de um grupo pequeno de instituições e não necessariamente refletem o valor de mercado de uma debênture.
Resumo:
Resumo O objetivo deste trabalho é explorar a utilização de Redes Neurais no processo de previsão da Captação Líquida do Mercado de Previdência Privada Brasileiro como ferramenta à tomada de decisão e apoio na gestão das empresas do setor. Para a construção desse modelo foram utilizadas Redes Neurais, ferramenta que vem se mostrando adequada para utilização em modelos não lineares com resultados superiores a outras técnicas. A fonte de dados principal para a realização deste trabalho foi a FENAPREVI – Federação Nacional de Previdência Privada e Vida. Para comparação com o modelo de Redes Neurais, foi utilizado um modelo de Regressão Linear Múltipla como benchmark, com o objetivo de evidenciar a adequação da ferramenta em vista dos objetivos traçados no trabalho. O modelo foi construído a partir das informações mensais do setor, entre maio de 2002 e agosto de 2009, considerando o que se convencionou chamar de ‘mercado vivo’, que abrange os produtos PGBL e VGBL, comercializados ininterruptamente nesse período pelas chamadas EAPP – Entidades Abertas de Prividência Privada. Os resultados obtidos demonstraram a adequação da ferramenta Redes Neurais, que obtiveram resultados superiores aos obtidos utilizando Regressão Linear Múltipla.
Resumo:
Existe um problema de representação em processamento de linguagem natural, pois uma vez que o modelo tradicional de bag-of-words representa os documentos e as palavras em uma unica matriz, esta tende a ser completamente esparsa. Para lidar com este problema, surgiram alguns métodos que são capazes de representar as palavras utilizando uma representação distribuída, em um espaço de dimensão menor e mais compacto, inclusive tendo a propriedade de relacionar palavras de forma semântica. Este trabalho tem como objetivo utilizar um conjunto de documentos obtido através do projeto Media Cloud Brasil para aplicar o modelo skip-gram em busca de explorar relações e encontrar padrões que facilitem na compreensão do conteúdo.
Resumo:
Apresenta métodos quantitativos próprios para a discriminação entre grupos, baseados em Análise Discriminante Linear, Regressão Logística, Redes Neurais e Algoritmos Genéticos, dentro do contexto do problema da análise de crédito.
Resumo:
O trabalho busca analisar e entender se a aplicação de técnicas de Data mining em processos de aquisição de clientes de cartão de crédito, especificamente os que não possuem uma conta corrente em banco, podem trazer resultados positivos para as empresas que contam com processos ativos de conquista de clientes. Serão exploradas três técnicas de amplo reconhecimento na comunidade acadêmica : Regressão logística, Árvores de decisão, e Redes neurais. Será utilizado como objeto de estudo uma empresa do setor financeiro, especificamente nos seus processos de aquisição de clientes não correntistas para o produto cartão de crédito. Serão mostrados resultados da aplicação dos modelos para algumas campanhas passadas de venda de cartão de crédito não correntistas, para que seja possível verificar se o emprego de modelos estatísticos que discriminem os clientes potenciais mais propensos dos menos propensos à contratação podem se traduzir na obtenção de ganhos financeiros. Esses ganhos podem vir mediante redução dos custos de marketing abordando-se somente os clientes com maiores probabilidades de responderem positivamente à campanha. A fundamentação teórica se dará a partir da introdução dos conceitos do mercado de cartões de crédito, do canal telemarketing, de CRM, e das técnicas de data mining. O trabalho apresentará exemplos práticos de aplicação das técnicas mencionadas verificando os potenciais ganhos financeiros. Os resultados indicam que há grandes oportunidades para o emprego das técnicas de data mining nos processos de aquisição de clientes, possibilitando a racionalização da operação do ponto de vista de custos de aquisição.
Resumo:
Este trabalho se propõe a analisar o fenômeno das organizações em Rede, dando ênfase às Redes Sociais baseando-se no conceito de que são formadas por laços de solidariedade, com valores coletivos. Redes são sistemas organizacionais que concentram indivíduos e instituições, de forma democrática e participativa, em tomo de objetivos afins. As redes se caracterizam pelas relações horizontais, de ações dinâmicas e que visam ao trabalho integrado. Os tipos de redes variam no que tange a autonomia dos atores e a interdependência que os mesmos estabelecem entre si, mas em comum este estilo de gestão busca uma maior participação e compromisso dos atores envolvidos. O trabalho está dividido em quatro capítulos: O primeiro pretende introduzir o leitor ao tema em que a pesquisa está inserida: redes sociais e intercâmbio cultural. O segundo capitulo apresenta o cenário em que o tema está inserido. O terceiro capítulo apresenta a pesquisa empírica, na qual é utilizado o método de estudo de caso, com a finalidade de investigar o processo de implementação de uma organização em rede - Rede Latitudes - cujo objetivo é o de promover o intercâmbio e a cooperação cultural nestes países. E finalmente, no quarto e último capítulo pretende-se averiguar até que ponto a teoria se aplica na prática. Como se dá o processo de implementação de uma rede com característica social.
Resumo:
A difusão das doutrinas de gerenciamento orientadas para resultados no Brasil tem levado as organizações públicas a realizarem investimentos relevantes em tecnologia da informação como um componente de transparência para as ações governamentais e como suporte para a tomada de decisões pelos gestores públicos. O uso intensivo da informática em um mundo cada vez mais interconectado expõe a administração pública a novos tipos de ameaças e vulnerabilidades. Nesse contexto, as entidades de fiscalização devem ampliar sua forma de atuação, realizando controles mais rigorosos por meio de técnicas próprias de auditorias de tecnologia da informação, que visam assegurar a integridade e segurança dos dados que trafegam pelas redes e sistemas de informação. O objetivo da presente pesquisa consistiu em identificar as principais impropriedades associadas ao uso da informática nas administrações municipais sob a jurisdição do TCE-RJ, por meio do estudo de caso de sua experiência na realização de auditorias operacionais em tecnologia da informação. A pesquisa foi realizada com base na literatura e na análise dos achados das auditorias de sistemas, mostrando que este tipo de auditoria tem contribuído para tornar a gestão pública municipal mais eficiente, eficaz e transparente.
Resumo:
Negócios sociais, empresas autossuficientes com objetivos principalmente sociais estão a surgir e a mudar o cenário económico mundial. No Brasil, o campo de Empreendedorismo Social promete ajudar a resolver os vários problemas sociais do país, mas tal promessa depende do desenvolvimento de um ecossistema de suporte. No entanto, a pesquisa desenvolvida no tópico ainda é limitada, especialmente quando considerando pesquisa em contextos macro como estruturas de suporte ao negócio. O presente estudo explora o ecossistema de suporte aos negócios sociais no Brasil, oferecendo uma análise qualitativa preliminar da eficácia da rede de suporte existente para os negócios sociais, de acordo com as perceções de empreendedores sociais e prestadores de suporte. O estudo é desenvolvido baseando-se no modelo conceptual de Turrini et al. (2010) sobre os determinantes de eficácia de redes a fim de facilitar a captura de padrões. Desta forma, cada variável de eficácia de redes é desenvolvida no contexto da presente investigação e as principais conclusões relativas ao ecossistema de suporte para negócios sociais no Brasil são destacadas. Os resultados sugerem um rápido crescimento da disponibilidade de suporte para negócios sociais, mas indicam que estes serviços ainda são em número limitado e concentrados no Sudeste do país. Adicionalmente, os serviços de suporte são percecionados pelos empreendedores sociais como serviços de alta qualidade e embora se observe um sentimento generalizado de que a colaboração entre organizações de suporte tem sido importante para a construção do campo, os resultados indicam que um maior nível de interação e formalização entre prestadores de suporte levaria a maiores níveis de criação de sinergias e potenciaria a construção do ecossistema. Por último, é observado um sentimento generalizado de que o crescente nível de recursos financeiros, consciência pública e apoio do governo ao campo impactarão positivamente o desenvolvimento do ecossistema.
Resumo:
Who was the cowboy in Washington? What is the land of sushi? Most people would have answers to these questions readily available,yet, modern search engines, arguably the epitome of technology in finding answers to most questions, are completely unable to do so. It seems that people capture few information items to rapidly converge to a seemingly 'obvious' solution. We will study approaches for this problem, with two additional hard demands that constrain the space of possible theories: the sought model must be both psychologically and neuroscienti cally plausible. Building on top of the mathematical model of memory called Sparse Distributed Memory, we will see how some well-known methods in cryptography can point toward a promising, comprehensive, solution that preserves four crucial properties of human psychology.