1000 resultados para Entropia (Teoria da informação)
Resumo:
Currently, one of the biggest challenges for the field of data mining is to perform cluster analysis on complex data. Several techniques have been proposed but, in general, they can only achieve good results within specific areas providing no consensus of what would be the best way to group this kind of data. In general, these techniques fail due to non-realistic assumptions about the true probability distribution of the data. Based on this, this thesis proposes a new measure based on Cross Information Potential that uses representative points of the dataset and statistics extracted directly from data to measure the interaction between groups. The proposed approach allows us to use all advantages of this information-theoretic descriptor and solves the limitations imposed on it by its own nature. From this, two cost functions and three algorithms have been proposed to perform cluster analysis. As the use of Information Theory captures the relationship between different patterns, regardless of assumptions about the nature of this relationship, the proposed approach was able to achieve a better performance than the main algorithms in literature. These results apply to the context of synthetic data designed to test the algorithms in specific situations and to real data extracted from problems of different fields
Resumo:
O conhecimento prévio do valor da carga é de extrema importância para o planejamento e operação dos sistemas de energia elétrica. Este trabalho apresenta os resultados de um estudo investigativo da aplicação de Redes Neurais Artificiais do tipo Perceptron Multicamadas com treinamento baseado na Teoria da Informação para o problema de Previsão de Carga a curto prazo. A aprendizagem baseada na Teoria da Informação se concentra na utilização da quantidade de informação (Entropia) para treinamento de uma rede neural artificial. Dois modelos previsores são apresentados sendo que os mesmos foram desenvolvidos a partir de dados reais fornecidos por uma concessionária de energia. Para comparação e verificação da eficiência dos modelos propostos um terceiro modelo foi também desenvolvido utilizando uma rede neural com treinamento baseado no critério clássico do erro médio quadrático. Os resultados alcançados mostraram a eficiência dos sistemas propostos, que obtiveram melhores resultados de previsão quando comparados ao sistema de previsão baseado na rede treinada pelo critério do MSE e aos sistemas previsores já apresentados na literatura.
Resumo:
Esta tese analisou a cadeia da carne bovina no Brasil com o objetivo de identificar a existência de assimetrias nas relações comerciais entre seus agentes (pecuaristas, frigoríficos e supermercados). Foram investigadas duas formas de assimetria: a diferença de conteúdo informacional entre os agentes econômicos, no mercado futuro de boi gordo da BM&F e a possibilidade de exercício de poderes de mercado e de barganha nas relações comerciais dentro dessa cadeia. A análise de poder de mercado baseou-se na estrutura analítica de Crespi, Gao e Peterson (2005), e permitiu inferir que existe poder de mercado na aquisição de bois pelos frigoríficos, o que vai ao encontro dos resultados observados em outros oligopólios de estrutura caracterizada por um mercado pulverizado na ponta fornecedora e por um processo local, isto é, na própria região, de escoamento da produção. Implementou-se uma análise complementar sobre a estrutura de formação do preço do boi, na qual identificou-se que São Paulo é a região formadora dos preços. A relação entre frigoríficos e supermercados foi analisada através do modelo momentum threshold autoregression (M-TAR) e observou-se que os supermercados apropriam-se das reduções observada no preço do atacado e repassam ao varejo eventuais aumentos de preços no atacado. Portanto, é possível concluir que os supermercados têm poder de barganha junto aos frigoríficos, o que era esperado, pelo fato de esses estabelecimentos adquirirem volumes significativos e se posicionarem como principais canais de distribuição da carne. E, por fim, verificou-se a existência de assimetrias informacionais entre os participantes do mercado futuro de boi gordo da BM&F, mensurada por meio de uma análise sobre a relação entre a volatilidade dos preços futuros e as posições por tipo de participante. Os resultados encontrados corroboraram a hipótese de que os frigoríficos têm mais informação, no mercado futuro, que os demais agentes.
Resumo:
Este trabalho apresenta um método de apreçamento não paramétrico de derivativos de taxa de juros baseado em teoria da informação. O apreçamento se dá através da distribuição de probabilidade na medida futura, estimando aquela que mais se aproxima da distribuição objetiva. A teoria da informação sugere a forma de medir esta distância. Especificamente, esta dissertação generaliza o método de apreçamento canônico criado por Stutzer (1996), também baseado na teoria da informação, para o caso de derivativos de taxas de juros usando a classe Cressie-Read como critério de distância entre distribuições de probabilidade.
Resumo:
Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)
Resumo:
Coding process is a fundamental aspect of cerebral functioning. The sensory stimuli transformation in neurophysiological responses has been a research theme in several areas of Neuroscience. One of the most used ways to measure a neural code e ciency is by the use of Information Theory measures, such as mutual information. Using these tools, recent studies show that in the auditory cortex both local eld potentials (LFPs) and action potential spiking times code information about sound stimuli. However, there are no studies applying Information Theory tools to investigate the e ciency of codes that use postsynaptics potentials (PSPs), alone and associated with LFP analysis. These signals are related in the sense that LFPs are partly created by joint action of several PSPs. The present dissertation reports information measures between PSP and LFP responses obtained in the primary auditory cortex of anaesthetized rats and auditory stimuli of distinct frequencies. Our results show that PSP responses hold information about sound stimuli in comparable levels and even greater than LFP responses. We have also found that PSPs and LFPs code sound information independently, since the joint analysis of these signals did neither show synergy nor redundancy.
Resumo:
Neste trabalho, comparamos algumas aplicações obtidas ao se utilizar os conhecimentos subjetivos do investidor para a obtenção de alocações de portfólio ótimas, de acordo com o modelo bayesiano de Black-Litterman e sua generalização feita por Pezier e Meucci. Utilizamos como medida de satisfação do investidor as funções utilidade correspondentes a um investidor disciplinado, isto é, que é puramente averso a risco, e outro que procura risco quando os resultados são favoráveis. Aplicamos o modelo a duas carteiras de ações que compõem o índice Ibovespa, uma que replica a composição do índice e outra composta por pares de posições long&short de ações ordinárias e preferenciais. Para efeito de validação, utilizamos uma análise com dados fora da amostra, dividindo os dados em períodos iguais e revezando o conjunto de treinamento. Como resultado, foi possível concluir que: i) o modelo de Black-Litterman não é suficiente para contornar as soluções de canto quando o investidor não é disciplinado, ao menos para o modelo utilizado; ii) para um investidor disciplinado, o P&L médio obtido pelos modelos de média-variância e de Black-Litterman é consideravelmente superior ao do benchmark para as duas carteiras; iii) o modelo de Black Litterman somente foi superior ao de média-variância quando a visão do investidor previu bem os resultados do mercado.
Resumo:
Pós-graduação em Matemática Universitária - IGCE
Resumo:
O objetivo deste trabalho é demonstrar como o valor pode ser agregado à informação. A atual situação de sobrecarga de informação vivenciada por todos nós no trabalho será descrita. Descrever-se-á também um modelo teórico para agregar valor à informação, assim como os modos de aplicação do modelo no DTI Market Service/Dinamarca.
Resumo:
Este trabalho propõe inicialmente uma abordagem sobre os conceitos de crédito e de risco de crédito. Posteriormente é realizada uma visão geral da evolução da análise do risco e de sua importância para o mercado, de como as normas bancárias interferem no racionamento do crédito e sua interface com a teoria da informação assimétrica. Tendo em vista que a informação assimétrica analisa os problemas tanto antes que o contrato seja negociado (seleção adversa) como após a contratação da operação (risco moral), conclui-se que o estudo do risco de crédito, comparado com a teoria da informação assimétrica, induz a possibilidade da premiação para clientes que paguem com pontualidade seus compromissos com as instituições financeiras. Esta possibilidade tem como objetivo a redução do atual patamar das taxas de juros. Neste caminho é questionado se o sistema de classificação de risco adotado pelas instituições financeiras pode ser uma boa base para a adoção da sistemática de premiação pelo pagamento pontual das operações dos clientes. Conclui-se que o sistema de classificação de risco não é uma boa base para a adoção da sistemática de premiação pelo pagamento pontual devido a conter numa mesma faixa de risco uma quantidade significativa de operações com diferentes “spreads”, taxas de juros, tipos de operações, garantias, prazos, clientes, financiadores, entre outros. Constata-se, também, que o risco de crédito faz parte de um problema cultural e que os bancos, para oferecerem um prêmio por pontualidade, irão ponderar, caso a caso, o custo do prêmio a ser pago versus o prejuízo causado pela inadimplência, diante da expectativa do retorno pretendido em cada operação.
Resumo:
A posição que a renomada estatí stica de Boltzmann-Gibbs (BG) ocupa no cenário cientifíco e incontestável, tendo um âmbito de aplicabilidade muito abrangente. Por em, muitos fenômenos físicos não podem ser descritos por esse formalismo. Isso se deve, em parte, ao fato de que a estatística de BG trata de fenômenos que se encontram no equilíbrio termodinâmico. Em regiões onde o equilíbrio térmico não prevalece, outros formalismos estatísticos devem ser utilizados. Dois desses formalismos emergiram nas duas ultimas décadas e são comumente denominados de q-estatística e k-estatística; o primeiro deles foi concebido por Constantino Tsallis no final da década de 80 e o ultimo por Giorgio Kaniadakis em 2001. Esses formalismos possuem caráter generalizador e, por isso, contem a estatística de BG como caso particular para uma escolha adequada de certos parâmetros. Esses dois formalismos, em particular o de Tsallis, nos conduzem também a refletir criticamente sobre conceitos tão fortemente enraizados na estat ística de BG como a aditividade e a extensividade de certas grandezas físicas. O escopo deste trabalho esta centrado no segundo desses formalismos. A k -estatstica constitui não só uma generalização da estatística de BG, mas, atraves da fundamentação do Princípio de Interação Cinético (KIP), engloba em seu âmago as celebradas estatísticas quânticas de Fermi- Dirac e Bose-Einstein; além da própria q-estatística. Neste trabalho, apresentamos alguns aspectos conceituais da q-estatística e, principalmente, da k-estatística. Utilizaremos esses conceitos junto com o conceito de informação de bloco para apresentar um funcional entrópico espelhado no formalismo de Kaniadakis que será utilizado posteriormente para descrever aspectos informacionais contidos em fractais tipo Cantor. Em particular, estamos interessados em conhecer as relações entre parâmetros fractais, como a dimensão fractal, e o parâmetro deformador. Apesar da simplicidade, isso nos proporcionará, em trabalho futuros, descrever estatisticamente estruturas mais complexas como o DNA, super-redes e sistema complexos
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
As Estruturas Conceptuais são um formalismo de representação de conhecimentos baseado em grafos, os chamados grafos conceptuais. A teoria foi inicialmente desenvolvida por John Sowa há dez anos. desde então, uma comunidade científica cada vez mais ampla tem-na utilizado em muitas áreas de aplicação e propôs várias alterações à teoria original. Também está em desenvolvimento uma implementação estado-da-arte gratuita e, além disso, os grafos conceptuais foram adoptados num padrão ANSI em preparação. Apesar desta actividade não existe de facto uma definição formal, completa, consistente e revista da Teoria das Estruturas Conceptuais. Esta dissertação vem contribuir para essa definição ao estender, refinar e clarificar as noções básicas da teoria. A clarificação dos grafos conceptuais em * grafos sintacticamente correctos, * grafos bem tipados, * grafos ontologicamente correctos, chamados grafos canónicos, * e grafos verdadeiros é a base da clarificação do significado das várias noções e serve de guia às extensões e aos refinamentos introduzidos. As principais extensões foram feitas no sistema de tipos e no esquema de dependências entre vértices de grafos, e o refinamento de quase todos os aspectos da teoria - em particular das regras de formação de grafos canónicos e de regras de inferência para os grafos verdadeiros - inclui o tratamento formal de algumas propostas informais de outros autores.
Resumo:
Passamos por uma transição tecnológica. Quer a chamemos de Revolução Digital, Era da Informação, Sociedade em Rede etc, é inegável que a base de tal transição está na crescente mudança das tecnologias analógicas de comunicação e armazenamento de informação para as tecnologias digitais. Os fundamentos científicos de tal mudança foram estabelecidos em 1948, no livro do matemático e engenheiro americano Claude Elwood Shannon chamado Teoria Matemática da Comunicação. O livro, um clássico das agora convergentes áreas de informática e telecomunicações, definiu uma série de conceitos e modelos que atravessaram as décadas de tecnologia analógica e permanece, em plena era digital, um guia para engenheiros e cientistas que desenvolvem as onipresentes tecnologias de comunicação. Além disso, o corpo teórico presente em Teoria Matemática da Comunicação se espalhou por diversas áreas do conhecimento humano com o nome de Teoria da Informação.
Resumo:
Discute-se como a assimetria de informações afeta os modelos de precificação de ativos e algumas das consequências para os testes de eficiência. No primeiro capítulo são apresentados dois modelos que partiram da hipótese que os agentes possuem informação completa sobre as variáveis econômicas: o CAPM e o Black-Scholes. No segundo capítulo procura-se verificar até que ponto é possível modelar a economia dadas estas imperfeições. Partindo de uma variação de AkerIoff (1970), mostra-se que quando uma parte de posse de uma informação superior transaciona com outra, ocorre uma falha de mercado, a seleção adversa, podendo até gerar o colapso do mercado. O segundo modelo analisado, Bray (1989), mostra como as informações privilegiadas são incorporadas ao preço e o último modelo, Kyle (1985), analisa como a presença de um agente com informação privilegiada afeta a liquidez do mercado. O terceiro capítulo faz um teste para a eficiência do mercado de câmbio brasileiro. Apesar de não se poder negar a presença de co integração entre as séries, não se pode aceitar a hipótese de eficiência semi-forte, ou seja, a hipótese de que o mercado futuro seria um estimador não viesado para o mercado à vista, o que pode ser interpretado como indicação de informação incompleta ou imperfeita.