25 resultados para Algoritmos de filtragem

em Repositório digital da Fundação Getúlio Vargas - FGV


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Em setembro de 2006 a modelo Daniela Cicarelli e seu namorado, Renato Malzoni Filho, ingressaram com ações judiciais contra a YouTube Inc., empresa que operava o website norte-americano YouTube (posteriormente adquirido pela Google), as Organizações Globo e o Internet Group (iG), tendo por objeto a retirada do vídeo em questão dos websites administrados pelos réus e o pedido de indenização pelos danos causados aos autores por conta de sua exibição. Por decisão do juiz Gustavo Santini Teodoro, da 23ª Vara Cível da Capital (São Paulo), os processos deveriam correr em regime de segredo de justiça, uma vez que a notoriedade da autora levaria à grande procura dos autos nas serventias cartorárias.5 Essa decisão terminou por dificultar uma análise mais aprofundada sobre os detalhes dos processos movidos pelos autores, tendo sido revelado ao público em geral apenas as decisões em seguida relatadas. O escopo do presente artigo é refletir sobre algumas das derivações mais importantes deste caso, tendo como norte os temas da neutralidade da rede, a filtragem de conteúdo e a extensão dos interesses públicos aplicáveis ao caso.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esse trabalho comparou, para condições macroeconômicas usuais, a eficiência do modelo de Redes Neurais Artificiais (RNAs) otimizadas por Algoritmos Genéticos (AGs) na precificação de opções de Dólar à Vista aos seguintes modelos de precificação convencionais: Black-Scholes, Garman-Kohlhagen, Árvores Trinomiais e Simulações de Monte Carlo. As informações utilizadas nesta análise, compreendidas entre janeiro de 1999 e novembro de 2006, foram disponibilizadas pela Bolsa de Mercadorias e Futuros (BM&F) e pelo Federal Reserve americano. As comparações e avaliações foram realizadas com o software MATLAB, versão 7.0, e suas respectivas caixas de ferramentas que ofereceram o ambiente e as ferramentas necessárias à implementação e customização dos modelos mencionados acima. As análises do custo do delta-hedging para cada modelo indicaram que, apesar de mais complexa, a utilização dos Algoritmos Genéticos exclusivamente para otimização direta (binária) dos pesos sinápticos das Redes Neurais não produziu resultados significativamente superiores aos modelos convencionais.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Com o objetivo de estabelecer uma metodologia capaz segregar momentos de mercado e de identificar as características predominantes dos investidores atuantes em um determinado mercado financeiro, este trabalho emprega simulações geradas em um Mercado Financeiro Artificial baseado em agentes, utilizando um Algoritmo Genético para ajustar tais simulações ao histórico real observado. Para tanto, uma aplicação foi desenvolvida utilizando-se o mercado de contratos futuros de índice Bovespa. Esta metodologia poderia facilmente ser estendida a outros mercados financeiros através da simples parametrização do modelo. Sobre as bases estabelecidas por Toriumi et al. (2011), contribuições significativas foram atingidas, promovendo acréscimo de conhecimento acerca tanto do mercado alvo escolhido, como das técnicas de modelagem em Mercados Financeiros Artificiais e também da aplicação de Algoritmos Genéticos a mercados financeiros, resultando em experimentos e análises que sugerem a eficácia do método ora proposto.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho primeiramente explora fundamentos teóricos básicos para análise e implementação de algoritmos para a modelagem de séries temporais. A finalidade principal da modelagem de séries temporais será a predição para utilizá-la na arbitragem estatística. As séries utilizadas são retiradas de uma base de histórico do mercado de ações brasileiro. Estratégias de arbitragem estatística, mais especificamente pairs trading, utilizam a característica de reversão à média dos modelos para explorar um lucro potencial quando o módulo do spread está estatisticamente muito afastado de sua média. Além disso, os modelos dinâmicos deste trabalho apresentam parâmetros variantes no tempo que aumentam a sua flexibilidade e adaptabilidade em mudanças estruturais do processo. Os pares do algoritmo de pairs trading são escolhidos selecionando ativos de mesma empresa ou índices e ETFs (Exchange Trade Funds). A validação da escolha dos pares é feita utilizando testes de cointegração. As simulações demonstram os resultados dos testes de cointegração, a variação no tempo dos parâmetros do modelo e o resultado de um portfólio fictício.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A abordagem de Modelos Baseados em Agentes é utilizada para trabalhar problemas complexos, em que se busca obter resultados partindo da análise e construção de componentes e das interações entre si. Os resultados observados a partir das simulações são agregados da combinação entre ações e interferências que ocorrem no nível microscópico do modelo. Conduzindo, desta forma, a uma simulação do micro para o macro. Os mercados financeiros são sistemas perfeitos para o uso destes modelos por preencherem a todos os seus requisitos. Este trabalho implementa um Modelo de Mercado Financeiro Baseado em Agentes constituído por diversos agentes que interagem entre si através de um Núcleo de Negociação que atua com dois ativos e conta com o auxílio de formadores de mercado para promover a liquidez dos mercados, conforme se verifica em mercados reais. Para operação deste modelo, foram desenvolvidos dois tipos de agentes que administram, simultaneamente, carteiras com os dois ativos. O primeiro tipo usa o modelo de Markowitz, enquanto o segundo usa técnicas de análise de spread entre ativos. Outra contribuição deste modelo é a análise sobre o uso de função objetivo sobre os retornos dos ativos, no lugar das análises sobre os preços.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação descreve três abordagens utilizadas para incorporar heterogeneidade numa economia de Lucas. Em mercados incompletos, essa hipótese oferece uma oportunidade de enriquecimento dos resultados de apreçamento obtidos de um modelo de agente representativo. Métodos recursivos são explorados como poderosa ferramenta para se modelar economias, encontrar equilíbrios, bem como desenvolver algoritmos computacionais. Na primeira abordagem, é mostrada a existência de uma função transição, que pode ser arbitrariamente complicada, mapeando o estado hoje nos possíveis estados amanhã. Na segunda abordagem, insere-se a possibilidade de default com colateral. Agora também é possível se construir uma função política que mapeia choques exógenos e distribuição de riqueza em preços e decisões de carteira. Finalmente, na terceira abordagem, que difere completamente das outras, uma equação de Euler modi cada é obtida convenientemente modelando-se choques idiossincráticos e persistentes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Buscamos aferir ganhos na precificação de opções lançadas sobre a ação Telebrás PN, com a utilização de modelos auto regressivos de volatilidade· condicionada, cujos resultados foram comparados àqueles gerados pelos procedimentos numéricos de volatilidades históricas e implícitas. Nesta tarefa, a dinâmica do estudo levou ao estabelecimento de novos objetivos, que destacamos: a) identificação de modelos mais eficientes para filtragem da média do processo sobre retornos de Telebrás PN, que eventualmente pudessem otimizar o emprego dos modelos da classe ARCH; b) aferir anomalias de mercadodevidas a negociaçõesem dias específicos da semana; c) esclarecer influências exercidas pela sensibilidade dos preços das opções sobre a eficiência dos modelos de volatilidade condicionada, com vista a definir condições para o alcance de resultados práticos no campo da precificação de opções.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Analisa e compara, sob as óticas de acurácia e custo, os principais métodos numéricos (simulação de Monte carlo, métodos de diferenças finitas, e modelos baseados em lattice para precificação de opções financeiras, exóticas e reais. Aponta as situações onde cada método deve ser empregado, e apresenta os algoritmos necessários para implementação dos métodos numéricos na prática.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Apresenta métodos quantitativos próprios para a discriminação entre grupos, baseados em Análise Discriminante Linear, Regressão Logística, Redes Neurais e Algoritmos Genéticos, dentro do contexto do problema da análise de crédito.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Com o objetivo de avaliar o uso do consumo de energia elétrica como indicador socioeconômico, esta pesquisa analisa informações em dois níveis de agregação geográfica. No primeiro, sob perspectiva territorial, investiga indicadores de Renda e Consumo de Energia Elétrica agregados por áreas de ponderação (conjunto de setores censitários) do município de São Paulo e utiliza os microdados do Censo Demográfico 2000 em conjunto com a base de domicílios da AES Eletropaulo. Aplica modelos de Spatial Auto-Regression (SAR), Geographically Weighted Regression (GWR), e um modelo inédito combinado (GWR+SAR), desenvolvido neste estudo. Diversas matrizes de vizinhança foram utilizadas na avaliação da influência espacial (com padrão Centro-Periferia) das variáveis em estudo. As variáveis mostraram forte auto-correlação espacial (I de Moran superior a 58% para o Consumo de Energia Elétrica e superior a 75% para a Renda Domiciliar). As relações entre Renda e Consumo de Energia Elétrica mostraram-se muito fortes (os coeficientes de explicação da Renda atingiram valores de 0,93 a 0,98). No segundo nível, domiciliar, utiliza dados coletados na Pesquisa Anual de Satisfação do Cliente Residencial, coordenada pela Associação Brasileira dos Distribuidores de Energia Elétrica (ABRADEE), para os anos de 2004, 2006, 2007, 2008 e 2009. Foram aplicados os modelos Weighted Linear Model (WLM), GWR e SAR para os dados das pesquisas com as entrevistas alocadas no centróide e na sede dos distritos. Para o ano de 2009, foram obtidas as localizações reais dos domicílios entrevistados. Adicionalmente, foram desenvolvidos 6 algoritmos de distribuição de pontos no interior dos polígonos dos distritos. Os resultados dos modelos baseados em centróides e sedes obtiveram um coeficiente de determinação R2 em torno de 0,45 para a técnica GWR, enquanto os modelos baseados no espalhamento de pontos no interior dos polígonos dos distritos reduziram essa explicação para cerca de 0,40. Esses resultados sugerem que os algoritmos de alocação de pontos em polígonos permitem a observação de uma associação mais realística entre os construtos analisados. O uso combinado dos achados demonstra que as informações de faturamento das distribuidoras de energia elétrica têm grande potencial para apoiar decisões estratégicas. Por serem atuais, disponíveis e de atualização mensal, os indicadores socioeconômicos baseados em consumo de energia elétrica podem ser de grande utilidade como subsídio a processos de classificação, concentração e previsão da renda domiciliar.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O trabalho tem como objetivo comparar a eficácia das diferentes metodologias de projeção de inflação aplicadas ao Brasil. Serão comparados modelos de projeção que utilizam os dados agregados e desagregados do IPCA em um horizonte de até doze meses à frente. Foi utilizado o IPCA na base mensal, com início em janeiro de 1996 e fim em março de 2012. A análise fora da amostra foi feita para o período entre janeiro de 2008 e março de 2012. Os modelos desagregados serão estimados por SARIMA, pelo software X-12 ARIMA disponibilizado pelo US Census Bureau, e terão as aberturas do IPCA de grupos (9) e itens (52), assim como aberturas com sentido mais econômico utilizadas pelo Banco Central do Brasil como: serviços, administrados, alimentos e industrializados; duráveis, não duráveis, semiduráveis, serviços e administrados. Os modelos agregados serão estimados por técnicas como SARIMA, modelos estruturais em espaço-estado (Filtro de Kalman) e Markov-switching. Os modelos serão comparados pela técnica de seleção de modelo Model Confidence Set, introduzida por Hansen, Lunde e Nason (2010), e Dielbod e Mariano (1995), no qual encontramos evidências de ganhos de desempenho nas projeções dos modelos mais desagregados em relação aos modelos agregados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta pesquisa busca testar a eficácia de uma estratégia de arbitragem de taxas de juros no Brasil baseada na utilização do modelo de Nelson-Siegel dinâmico aplicada à curva de contratos futuros de taxa de juros de 1 dia da BM&FBovespa para o período compreendido entre 02 de janeiro de 2008 e 03 de dezembro de 2012. O trabalho adapta para o mercado brasileiro o modelo original proposto por Nelson e Siegel (1987), e algumas de suas extensões e interpretações, chegando a um dos modelos propostos por Diebold, Rudebusch e Aruoba (2006), no qual estimam os parâmetros do modelo de Nelson-Siegel em uma única etapa, colocando-o em formato de espaço de estados e utilizando o Filtro de Kalman para realizar a previsão dos fatores, assumindo que o comportamento dos mesmos é um VAR de ordem 1. Desta maneira, o modelo possui a vantagem de que todos os parâmetros são estimados simultaneamente, e os autores mostraram que este modelo possui bom poder preditivo. Os resultados da estratégia adotada foram animadores quando considerados para negociação apenas os 7 primeiros vencimentos abertos para negociação na BM&FBovespa, que possuem maturidade máxima próxima a 1 ano.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho apresenta um estudo do impacto das negociações algorítmicas no processo de descoberta de preços no mercado de câmbio. Foram utilizados dados de negociação de alta frequência para contratos futuros de reais por dólar (DOL), negociados na Bolsa de Valores de São Paulo no período de janeiro a junho de 2013. No intuito de verificar se as estratégias algorítmicas de negociação são mais dependentes do que as negociações não algorítmicas, foi examinada a frequência em que algoritmos negociam entre si e comparou-se a um modelo benchmark que produz probabilidades teóricas para diferentes tipos de negociadores. Os resultados obtidos para as negociações minuto a minuto apresentam evidências de que as ações e estratégias de negociadores algorítmicos parecem ser menos diversas e mais dependentes do que aquelas realizadas por negociadores não algorítmicos. E para modelar a interação entre a autocorrelação serial dos retornos e negociações algorítmicas, foi estimado um vetor autorregressivo de alta frequência (VAR) em sua forma reduzida. As estimações mostram que as atividades dos algoritmos de negociação causam um aumento na autocorrelação dos retornos, indicando que eles podem contribuir para o aumento da volatilidade.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O uso combinado de algoritmos para a descoberta de tópicos em coleções de documentos com técnicas orientadas à visualização da evolução daqueles tópicos no tempo permite a exploração de padrões temáticos em corpora extensos a partir de representações visuais compactas. A pesquisa em apresentação investigou os requisitos de visualização do dado sobre composição temática de documentos obtido através da modelagem de tópicos – o qual é esparso e possui multiatributos – em diferentes níveis de detalhe, através do desenvolvimento de uma técnica de visualização própria e pelo uso de uma biblioteca de código aberto para visualização de dados, de forma comparativa. Sobre o problema estudado de visualização do fluxo de tópicos, observou-se a presença de requisitos de visualização conflitantes para diferentes resoluções dos dados, o que levou à investigação detalhada das formas de manipulação e exibição daqueles. Dessa investigação, a hipótese defendida foi a de que o uso integrado de mais de uma técnica de visualização de acordo com a resolução do dado amplia as possibilidades de exploração do objeto em estudo em relação ao que seria obtido através de apenas uma técnica. A exibição dos limites no uso dessas técnicas de acordo com a resolução de exploração do dado é a principal contribuição desse trabalho, no intuito de dar subsídios ao desenvolvimento de novas aplicações.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este tese é composta por quatro ensaios sobre aplicações econométricas em tópicos econômicos relevantes. Os estudos versam sobre consumo de bens não-duráveis e preços de imóveis, capital humano e crescimento econômico, demanda residencial de energia elétrica e, por fim, periodicidade de variáveis fiscais de Estados e Municípios brasileiros. No primeiro artigo, "Non-Durable Consumption and Real-Estate Prices in Brazil: Panel-Data Analysis at the State Level", é investigada a relação entre variação do preço de imóveis e variação no consumo de bens não-duráveis. Os dados coletados permitem a formação de um painel com sete estados brasileiros observados entre 2008- 2012. Os resultados são obtidos a partir da estimação de uma forma reduzida obtida em Campbell e Cocco (2007) que aproxima um modelo estrutural. As estimativas para o caso brasileiro são inferiores as de Campbell e Cocco (2007), que, por sua vez, utilizaram microdados britânicos. O segundo artigo, "Uma medida alternativa de capital humano para o estudo empírico do crescimento", propõe uma forma de mensuração do estoque de capital humano que reflita diretamente preços de mercado, através do valor presente do fluxo de renda real futura. Os impactos dessa medida alternativa são avaliados a partir da estimação da função de produção tradicional dos modelos de crescimento neoclássico. Os dados compõem um painel de 25 países observados entre 1970 e 2010. Um exercício de robustez é realizado para avaliar a estabilidade dos coeficientes estimados diante de variações em variáveis exógenas do modelo. Por sua vez, o terceiro artigo "Household Electricity Demand in Brazil: a microdata approach", parte de dados da Pesquisa de Orçamento Familiar (POF) para mensurar a elasticidade preço da demanda residencial brasileira por energia elétrica. O uso de microdados permite adotar abordagens que levem em consideração a seleção amostral. Seu efeito sobre a demanda de eletricidade é relevante, uma vez que esta demanda é derivada da demanda por estoque de bens duráveis. Nesse contexto, a escolha prévia do estoque de bens duráveis (e consequentemente, a escolha pela intensidade de energia desse estoque) condiciona a demanda por eletricidade dos domicílios. Finalmente, o quarto trabalho, "Interpolação de Variáveis Fiscais Brasileiras usando Representação de Espaço de Estados" procurou sanar o problema de baixa periodicidade da divulgação de séries fiscais de Estados e Municípios brasileiros. Através de técnica de interpolação baseada no Filtro de Kalman, as séries mensais não observadas são projetadas a partir de séries bimestrais parcialmente observadas e covariáveis mensais selecionadas.