951 resultados para Teoria da informação em finanças


Relevância:

90.00% 90.00%

Publicador:

Resumo:

As chamadas promocionais são consideradas como um comercial da emissora. Através delas, o conteúdo da programação é divulgado para persuadir o público a assistir os programas. Esta investigação identificou que o uso de apelos verbais e visuais, aproxima as chamadas da linguagem publicitária. No entanto, as semelhanças com a publicidade não se dão no momento da exibição das peças. Baseando-se no conceito de redundância proposto pela Teoria da Informação e na Teoria da Aprendizagem da Mensagem, de Carl Hovland, a pesquisa realizou um estudo de caso das duas primeiras temporadas de A FAZENDA, exibidas na Rede Record de Televisão. Pôde-se concluir que as chamadas do reality show não foram exibidas de acordo com os conceitos publicitários de GRP, cobertura e frequência, desperdiçando o espaço dos breaks e causando superexposição das mensagens autopromocionais.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Neste trabalho discutimos vários sistemas de dígitos verificadores utilizados no Brasil, muitos deles semelhantes a esquemas usados mundialmente, e fazemos uma análise da sua capacidade de detectar os diversos tipos de erros que são comuns na entrada de dados em sistemas computacionais. A análise nos mostra que os esquemas escolhidos constituem decisões subotimizadas e quase nunca obtêm a melhor taxa de detecção de erros possível. Os sistemas de dígitos verificadores são baseados em três teorias da álgebra: aritmética modular, teoria de grupos e quasigrupos. Para os sistemas baseados em aritmética modular, apresentamos várias melhorias que podem ser introduzidas. Desenvolvemos um novo esquema ótimo baseado em aritmética modular base 10 com três permutações para identificadores de tamanho maior do que sete. Descrevemos também o esquema Verhoeff, já antigo, mas pouquíssimo utilizado e que também é uma alternativa de melhoria para identificadores de tamanho até sete. Desenvolvemos ainda, esquemas ótimos para qualquer base modular prima que detectam todos os tipos de erros considerados. A dissertação faz uso ainda de elementos da estatística, no estudo das probabilidades de detecção de erros e de algoritmos, na obtenção de esquemas ótimos.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

A tese pesquisa a problemática da inserção da Escola na Sociedade do Conhecimento no contexto da Cibercultura, considerando o distanciamento que as práticas educativas escolares vêm apresentando em relação ao universo midiático da cultura social contemporânea na qual os alunos estão inseridos. Utiliza como referencial teórico os fundamentos da Teoria da Complexidade, a partir do que ficou conhecido como paradigma complexo de Edgar Morin. Neste contexto, visa refletir sobre a necessidade de ampliar o olhar sobre o conhecimento como forma de superação do paradigma fragmentador. Parte da hipótese de que as práticas educativas, permeadas pela tecnologia, quando fundamentadas em um paradigma complexo, podem abrir novas possibilidades de superação com a promoção de mudanças pedagógicas em direção a um novo paradigma educativo mais dinâmico, criativo e integrador. Investiga se o uso da Informática na Educação pode, de fato, contribuir com as reformas necessárias à Educação em tempos de complexidade. Tendo o Colégio Pedro II como espaço de investigação, a pesquisa desenvolveu-se em duas fases e objetivou compreender o movimento do Colégio para ajustar-se e atender as demandas educacionais da sociedade contemporânea em acelerado processo de transformação e imersa na Cultura da Convergência. Analisa a incorporação e apropriação das tecnologias no processo de escolarização pelo corpo docente do Colégio e como isto tem se dado na prática da instituição. A pesquisa qualitativa de caráter exploratório tem como cenário de investigação os laboratórios de Informática Educativa (espaços multimídia com conexão a Internet) nos diferentes CAMPI do 1 e 2 Segmentos do Ensino Fundamental e nas atividades desenvolvidas, através da atuação dos professores de Informática Educativa, em parceria ou não, com os professores de outras disciplinas. Para analise dos dados foram utilizados conceitos da Teoria da Complexidade, como por exemplo, as categorias provenientes do Tetragrama Organizacional e os Operadores da Complexidade. O material empírico extraído da análise documental e das entrevistas sobre as práticas realizadas nos laboratório do Colégio resulta em mapeamento das diferentes formas de estruturação do trabalho pedagógico dos laboratórios, análise do ciclo docente: planejamento, execução e avaliação. A pesquisa de campo exploratória, inicialmente de caráter descritivo, passa a enfatizar, progressivamente, o caráter qualitativo da pesquisa, objetivando assim, oferecer maior clareza e visibilidade ao real estado da Informática Educativa para o Colégio Pedro II. A pesquisa desenvolvida analisa a realidade escolar no ponto onde estamos, que é a prática da interdisciplinaridade em direção a transdisciplinaridade. A transdisciplinaridade, em vários aspectos, ainda representa uma utopia pedagógica no contexto formal do sistema educacional brasileiro que estrutura-se de modo visivelmente fragmentado.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

No romance A defesa Lujin, de Vladimir Nabokov, publicado em russo em 1930, o texto procura levar o leitor a adotar processos mentais similares ao de um jogador de xadrez e de um esquizofrênico, características do personagem-título do romance. Delineiam-se as expectativas e circunstâncias de um ser de papel que se vê jogando um xadrez em que também é peça e traçam-se paralelos com as expectativas e circunstâncias do leitor perante esse texto literário. O prefácio de Nabokov à edição em inglês de 1964 é tomado como indício de um leitor e um autor implícitos que ele procura moldar. Para análise dos elementos textuais e níveis de abstração mental envolvidos, recorre-se à estética da recepção de Wolfgang Iser e a diversas ideias do psiquiatra e etnólogo Gregory Bateson, entre elas o conceito de duplo vínculo, com atenção às distinções entre mapa/território e play/game. Um duplo duplo vínculo é perpetrado na interação leitor-texto: 1) o leitor é convidado a sentir empatia pela situação do personagem Lujin e a considerá-lo lúcido e louco ao mesmo tempo; e 2) o leitor é colocado como uma instância pseudo-transcendental incapaz de comunicação com a instância inferior (Lujin), gerando uma angústia diretamente relacionável ao seu envolvimento com a ficção, replicando de certa forma a loucura de Lujin. A sinestesia do personagem Lujin é identificada como um dos elementos do texto capaz de recriar a experiência de jogar xadrez até para quem não aprecia o jogo. Analisa-se a conexão entre a esquizofrenia ficcional do personagem Lujin e a visão batesoniana do alcoolismo

Relevância:

80.00% 80.00%

Publicador:

Resumo:

As técnicas estatísticas são fundamentais em ciência e a análise de regressão linear é, quiçá, uma das metodologias mais usadas. É bem conhecido da literatura que, sob determinadas condições, a regressão linear é uma ferramenta estatística poderosíssima. Infelizmente, na prática, algumas dessas condições raramente são satisfeitas e os modelos de regressão tornam-se mal-postos, inviabilizando, assim, a aplicação dos tradicionais métodos de estimação. Este trabalho apresenta algumas contribuições para a teoria de máxima entropia na estimação de modelos mal-postos, em particular na estimação de modelos de regressão linear com pequenas amostras, afetados por colinearidade e outliers. A investigação é desenvolvida em três vertentes, nomeadamente na estimação de eficiência técnica com fronteiras de produção condicionadas a estados contingentes, na estimação do parâmetro ridge em regressão ridge e, por último, em novos desenvolvimentos na estimação com máxima entropia. Na estimação de eficiência técnica com fronteiras de produção condicionadas a estados contingentes, o trabalho desenvolvido evidencia um melhor desempenho dos estimadores de máxima entropia em relação ao estimador de máxima verosimilhança. Este bom desempenho é notório em modelos com poucas observações por estado e em modelos com um grande número de estados, os quais são comummente afetados por colinearidade. Espera-se que a utilização de estimadores de máxima entropia contribua para o tão desejado aumento de trabalho empírico com estas fronteiras de produção. Em regressão ridge o maior desafio é a estimação do parâmetro ridge. Embora existam inúmeros procedimentos disponíveis na literatura, a verdade é que não existe nenhum que supere todos os outros. Neste trabalho é proposto um novo estimador do parâmetro ridge, que combina a análise do traço ridge e a estimação com máxima entropia. Os resultados obtidos nos estudos de simulação sugerem que este novo estimador é um dos melhores procedimentos existentes na literatura para a estimação do parâmetro ridge. O estimador de máxima entropia de Leuven é baseado no método dos mínimos quadrados, na entropia de Shannon e em conceitos da eletrodinâmica quântica. Este estimador suplanta a principal crítica apontada ao estimador de máxima entropia generalizada, uma vez que prescinde dos suportes para os parâmetros e erros do modelo de regressão. Neste trabalho são apresentadas novas contribuições para a teoria de máxima entropia na estimação de modelos mal-postos, tendo por base o estimador de máxima entropia de Leuven, a teoria da informação e a regressão robusta. Os estimadores desenvolvidos revelam um bom desempenho em modelos de regressão linear com pequenas amostras, afetados por colinearidade e outliers. Por último, são apresentados alguns códigos computacionais para estimação com máxima entropia, contribuindo, deste modo, para um aumento dos escassos recursos computacionais atualmente disponíveis.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

In recent years, a new paradigm for communication called cooperative communications has been proposed for which initial information theoretic studies have shown the potential for improvements in capacity over traditional multi-hop wireless networks. Extensive research has been done to mitigate the impact of fading in wireless networks, being mostly focused on Multiple-Input Multiple-Output (MIMO) systems. Recently, cooperative relaying techniques have been investigated to increase the performance of wireless systems by using diversity created by different single antenna devices, aiming to reach the same level of performance of MIMO systems with low cost devices. Cooperative communication is a promising method to achieve high spectrum efficiency and improve transmission capacity for wireless networks. Cooperative communications is the general idea of pooling the resources of distributed nodes to improve the overall performance of a wireless network. In cooperative networks the nodes cooperate to help each other. A cooperative node offering help is acting like a middle man or proxy and can convey messages from source to destination. Cooperative communication involves exploiting the broadcast nature of the wireless medium to form virtual antenna arrays out of independent singleantenna network nodes for transmission. This research aims at contributing to the field of cooperative wireless networks. The focus of this research is on the relay-based Medium Access Control (MAC) protocol. Specifically, I provide a framework for cooperative relaying called RelaySpot which comprises on opportunistic relay selection, cooperative relay scheduling and relay switching. RelaySpot-based solutions are expected to minimize signaling exchange, remove estimation of channel conditions, and improve the utilization of spatial diversity, minimizing outage and increasing reliability.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Esta tese descreve uma framework de trabalho assente no paradigma multi-camada para analisar, modelar, projectar e optimizar sistemas de comunicação. Nela se explora uma nova perspectiva acerca da camada física que nasce das relações entre a teoria de informação, estimação, métodos probabilísticos, teoria da comunicação e codificação. Esta framework conduz a métodos de projecto para a próxima geração de sistemas de comunicação de alto débito. Além disso, a tese explora várias técnicas de camada de acesso com base na relação entre atraso e débito para o projeto de redes sem fio tolerantes a atrasos. Alguns resultados fundamentais sobre a interação entre a teoria da informação e teoria da estimação conduzem a propostas de um paradigma alternativo para a análise, projecto e optimização de sistemas de comunicação. Com base em estudos sobre a relação entre a informação recíproca e MMSE, a abordagem descrita na tese permite ultrapassar, de forma inovadora, as dificuldades inerentes à optimização das taxas de transmissão de informação confiáveis em sistemas de comunicação, e permite a exploração da atribuição óptima de potência e estruturas óptimas de pre-codificação para diferentes modelos de canal: com fios, sem fios e ópticos. A tese aborda também o problema do atraso, numa tentativa de responder a questões levantadas pela enorme procura de débitos elevados em sistemas de comunicação. Isso é feito através da proposta de novos modelos para sistemas com codificação de rede (network coding) em camadas acima da sua camada física. Em particular, aborda-se a utilização de sistemas de codificação em rede para canais que variam no tempo e são sensíveis a atrasos. Isso foi demonstrado através da proposta de um novo modelo e esquema adaptativo, cujos algoritmos foram aplicados a sistemas sem fios com desvanecimento (fading) complexo, de que são exemplos os sistemas de comunicação via satélite. A tese aborda ainda o uso de sistemas de codificação de rede em cenários de transferência (handover) exigentes. Isso é feito através da proposta de novos modelos de transmissão WiFi IEEE 801.11 MAC, que são comparados com codificação de rede, e que se demonstram possibilitar transferência sem descontinuidades. Pode assim dizer-se que esta tese, através de trabalho de análise e de propostas suportadas por simulações, defende que na concepção de sistemas de comunicação se devem considerar estratégias de transmissão e codificação que sejam não só próximas da capacidade dos canais, mas também tolerantes a atrasos, e que tais estratégias têm de ser concebidas tendo em vista características do canal e a camada física.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Systems equipped with multiple antennas at the transmitter and at the receiver, known as MIMO (Multiple Input Multiple Output) systems, offer higher capacities, allowing an efficient exploitation of the available spectrum and/or the employment of more demanding applications. It is well known that the radio channel is characterized by multipath propagation, a phenomenon deemed problematic and whose mitigation has been achieved through techniques such as diversity, beamforming or adaptive antennas. By exploring conveniently the spatial domain MIMO systems turn the characteristics of the multipath channel into an advantage and allow creating multiple parallel and independent virtual channels. However, the achievable benefits are constrained by the propagation channel’s characteristics, which may not always be ideal. This work focuses on the characterization of the MIMO radio channel. It begins with the presentation of the fundamental results from information theory that triggered the interest on these systems, including the discussion of some of their potential benefits and a review of the existing channel models for MIMO systems. The characterization of the MIMO channel developed in this work is based on experimental measurements of the double-directional channel. The measurement system is based on a vector network analyzer and a two-dimensional positioning platform, both controlled by a computer, allowing the measurement of the channel’s frequency response at the locations of a synthetic array. Data is then processed using the SAGE (Space-Alternating Expectation-Maximization) algorithm to obtain the parameters (delay, direction of arrival and complex amplitude) of the channel’s most relevant multipath components. Afterwards, using a clustering algorithm these data are grouped into clusters. Finally, statistical information is extracted allowing the characterization of the channel’s multipath components. The information about the multipath characteristics of the channel, induced by existing scatterers in the propagation scenario, enables the characterization of MIMO channel and thus to evaluate its performance. The method was finally validated using MIMO measurements.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Este trabalho versa sobre a avaliação da compressão de dados e da qualidade de imagens e animações usando-se complexidade de Kolmogorov, simulação de máquinas e distância de informação. Complexidade de Kolmogorov é uma teoria da informação e da aleatoriedade baseada na máquina de Turing. No trabalho é proposto um método para avaliar a compressão de dados de modelos de animação gráfica usando-se simulação de máquinas. Também definimos formalmente compressão de dados com perdas e propomos a aplicação da distância de informação como uma métrica de qualidade de imagem. O desenvolvimento de uma metodologia para avaliar a compressão de dados de modelos de animação gráfica para web é útil, a medida que as páginas na web estão sendo cada vez mais enriquecidas com animações, som e vídeo, e a economia de banda de canal tornase importante, pois os arquivos envolvidos são geralmente grandes. Boa parte do apelo e das vantagens da web em aplicações como, por exemplo, educação à distância ou publicidade, reside exatamente na existência de elementos multimídia, que apoiam a idéia que está sendo apresentada na página. Como estudo de caso, o método de comparação e avaliação de modelos de animação gráfica foi aplicado na comparação de dois modelos: GIF (Graphics Interchange Format) e AGA (Animação Gráfica baseada em Autômatos finitos), provando formalmente que AGA é melhor que GIF (“melhor” significa que AGA comprime mais as animações que GIF). Foi desenvolvida também uma definição formal de compressão de dados com perdas com o objetivo de estender a metodologia de avalição apresentada Distância de informação é proposta como uma nova métrica de qualidade de imagem, e tem como grande vantagem ser uma medida universal, ou seja, capaz de incorporar toda e qualquer medida computável concebível. A métrica proposta foi testada em uma série de experimentos e comparada com a distância euclidiana (medida tradicionalmente usada nestes casos). Os resultados dos testes são uma evidência prática que a distância proposta é efetiva neste novo contexto de aplicação, e que apresenta, em alguns casos, resultados superiores ao da distância euclidiana. Isto também é uma evidência que a distância de informação é uma métrica mais fina que a distância euclidiana. Também mostramos que há casos em que podemos aplicar a distância de informação, mas não podemos aplicar a distância euclidiana. A métrica proposta foi aplicada também na avaliação de animações gráficas baseadas em frames, onde apresentou resultados melhores que os obtidos com imagens puras. Este tipo de avaliação de animações é inédita na literatura, segundo revisão bibliográfica feita. Finalmente, neste trabalho é apresentado um refinamento à medida proposta que apresentou resultados melhores que a aplicação simples e direta da distância de informação.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Investigamos o padrão de comportamento de um grande número de investidores entre pessoas físicas, pessoas jurídicas institucionais e não-institucionais que transacionaram na Bolsa de Valores de São Paulo (BOVESPA) entre 2001 e 2004. Nosso objetivo foi testar o efeito disposição, ou seja, a tendência a realizar ganhos (winners) antes de perdas (losers), já demonstrado em vários estudos empíricos. Usando várias medidas do efeito disposição em corte-transversal, demonstramos que todos os investidores tendem a realizar winners antes do que losers ao longo de todo o período analisado assim como para cada ano. Entretanto, quando testamos para o efeito disposição por tipo de investidor encontramos resultados distintos. Enquanto os investidores pessoa física ainda apresentam o efeito disposição, os demais investidores demonstram um comportamento ambíguo. Podemos concluir que a segmentação por tipo de investidor traz contribuições relevantes na avaliação do efeito disposição. Usando uma medida em séries temporais, o efeito disposição foi encontrado em todos os anos e para todos os investidores, com exceção dos investidores institucionais no ano de 2004, na utilização da medida baseada em valor (R$). Para validar o resultado anterior aplicamos testes complementares comparando os resultados após isolar alguns fatores como: vendas motivadas pela tributação, rebalanceamento, dividendos e a influência de quedas bruscas de preços de três ações com liquidez. Demonstramos que nenhum destes fatores alterou a tendência a realizar winners antes do que losers.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

O presente estudo propõe, a partir das informações levantadas sobre as principais intoxicações e envenenamentos no país e, em particular, da análise do Sistema Nacional de Informações Tóxico Farmacológicas - como uma fonte de dados de morbidade - a adoção pelos Sistemas de Informações de um enfoque conceitual ampliado do objeto "Intoxicações e Envenenamentos", que englobe as questões Iigadas a contaminações ambiental nas suas diferentes formas, o consumo voluntário de tóxicos, compreendendo tabagismo, alcoolismo e drogas ilícitas, em seu campo de abrangência. Mostra a importância que vem ganhando, na atualidade, o conjunto destes eventos pelos impactos que acarretam sobre o meio ambiente, a saúde humana e aos demais seres vivos, em nível nacional e internacional. Destaca o papel relevante da informação como ferramenta essencial para subsidiar a formulação de políticas, para o gerenciamento dos serviços de saúde e para a administração cotidiana das atividades de atenção à saúde. Como conclusão sugere, para a superação das atuais limitações dos Sistemas de Informações Tóxico-Farmacológicas existentes, a adoção de uma visão compreensiva e integradora das diversas areas do conhecimento e especialidades que oriente a constituição de Sistemas de Informações diversificados e interativos e estruturados de acordo com a concepção sistêmica da teoria da informação.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

O presente trabalho tem por objetivo investigar se a adoção de documentos eletrônicos, uma realidade cuja obrigatoriedade é crescente no Brasil, é acompanhada por uma redução nos custos de conformidade das empresas. O autor buscou o referencial teórico em várias áreas do conhecimento: no Direito Tributário e no Direito Civil, na Matemática Aplicada, na Tecnologia da Informação e, por fim, na Contabilidade. Do Direito Civil vieram os conceitos de documento, que juntamente com conceitos de Matemática e de Teoria da Informação permitem construir a noção de Documento Eletrônico. Do Direito Tributário vieram as noções relativas aos tributos no ordenamento brasileiro, e as suas obrigações associadas (principal e acessórias). Da Contabilidade buscaram-se as definições de custos de conformidade e de transação, de forma que se pudesse avaliar quanto custa para uma empresa ser conforme com as obrigações tributárias acessórias brasileiras, especialmente no que tange ao uso de documentos fiscais eletrônicos. O estudo foi circunscrito na Nota Fiscal Eletrônica, que no Brasil deve ser utilizada em operações de circulação de mercadorias em substituição à Nota Fiscal Modelo 1 ou 1-A, documento tradicional que existe há décadas no Brasil. Buscaram-se informações quantitativas com empresas brasileiras, e a conclusão final é que existem evidências que justificam a afirmação de que o uso de documentos eletrônicos é mais barato que o uso de documentos em papel, mediante a comparação entre os custos de transação associados com a Nota Fiscal Modelo 1 ou 1-A e com a Nota Fiscal Eletrônica.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Este trabalho investiga basicamente a validade do Teste Illinois de Habilidades Psicolinguísticas -ITPA -instrumento de avaliação do desenvolvimento da linguagem infantil. Seus autores, S. Kirk e J.J. McCarthy (1961), utilizam o referencial teórico proposto por C. Osgood (1957), a ele incorporando o modelo derivado da Teoria da Informação, o que permite que, na prática clínica, o ITPA possa ser incluído no processo psicodiagnóstico como instrumento de avaliação dos problemas da comunicação em crianças entre três e dez anos. Os objetivos que conduzem e orientam o trabalho apresentado podem ser definidos em três níveis: 1) O que trata dos constructos e suas interrelaç6es -análise crítica da validade teóricado ITPA; 2) O que avalia sua condição de instrumento diagnóstico do desempenho escolar -sensibilidade discriminante do rendimento acadêmico; 3) O que trata da eficácia da prática psicopedagógica proposta pelo mesmo instrumento. O estudo sobre a validade teórica foi realizado com 931 crianças entre três e dez anos de idade, em processo de escolarização, frequentando creches, jardins de infância ou classes regulares da Rede de Ensino do Primeiro Grau no Município do Rio de Janeiro. Utilizou-se a técnica da Análise Fatorial, complementada por uma abordagem lógica que comprovaram algumas das dimensões propostas pelo referencial teórico de Kirk e McCarthy. Para a validade diagnóstica foram avaliadas 71 crianças com dificuldades no desempenho acadêmico, expressas através de conceitos de insuficiência ou deficiência de rendimento e seus resultados foram comparados com os de um subgrupo, aleatoriamente constituído de crianças que participaram do estudo anterior. Utilizou-se a técnica da Análise Discriminante chegando-se à seguinte conclusão: embora a validade de constructo do IIPA não tenha sido completamente confirmada num nível diagnóstico os resultados permitem identificar, com baixa margem de erro, as crianças que pertencem a um ou outro dos grupos de contraste. Quanto ao terceiro nível, foi feita ampla-revelação bibliográfica sobre investigações efetuadas com este instrumento no Brasil e no Exterior. Visou-se avaliar a eficácia da prática psicopedagógica utilizada quando desenvolvida à luz dos recursos de intervenção que o IIPA propõe. Concluiu-se que as pesquisas, até o presente momento efetuadas, não são suficientes para formar um juízo mais seguro da praxis educativa destinada à reabilitação das crianças com problemas da comunicação - o que constitui impedimento a seu desempenho acadêmico - em função das controvérsias que tais pesquisas apresentam.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

O objetivo deste trabalho foi testar a presença de dois efeitos no mercado acionário brasileiro: disponibilidade e momento, amplamente estudados para o mercado norte-americano em publicações anteriores. Utilizando uma amostra de 70 empresas foram analisadas séries temporais de retornos mensais do período de ago/2006 a jan/2011, cujos resultados não foram suficientes para rejeitar a hipótese de não eficiência do mercado brasileiro. No teste do efeito disponibilidade, apenas uma das quatro estratégias testadas com a utilização do indicador de retorno do mês anterior da ação gerou retornos positivos (2,27% ao mês), e os indicadores de volume anormal e “presença na mídia” geraram retornos negativos nas estratégias testadas. No caso do efeito momento, das 16 estratégias estudadas, a única que proporcionou retorno positivo estatisticamente significativo foi a que considerou o período de três meses de formação e manutenção das carteiras (2,01% ao mês).