911 resultados para Compressão de dados (Computação)
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
Pós-graduação em Ciência da Computação - IBILCE
Resumo:
As concessionárias de energia, para garantir que sua rede seja confiável, necessitam realizar um procedimento para estudo e análise baseado em funções de entrega de energia nos pontos de consumo. Este estudo, geralmente chamado de planejamento de sistemas de distribuição de energia elétrica, é essencial para garantir que variações na demanda de energia não afetem o desempenho do sistema, que deverá se manter operando de maneira técnica e economicamente viável. Nestes estudos, geralmente são analisados, demanda, tipologia de curva de carga, fator de carga e outros aspectos das cargas existentes. Considerando então a importância da determinação das tipologias de curvas de cargas para as concessionárias de energia em seu processo de planejamento, a Companhia de Eletricidade do Amapá (CEA) realizou uma campanha de medidas de curvas de carga de transformadores de distribuição para obtenção das tipologias de curvas de carga que caracterizam seus consumidores. Neste trabalho apresentam-se os resultados satisfatórios obtidos a partir da utilização de Mineração de Dados baseada em Inteligência Computacional (Mapas Auto-Organizáveis de Kohonen) para seleção das curvas típicas e determinação das tipologias de curvas de carga de consumidores residenciais e industriais da cidade de Macapá, localizada no estado do Amapá. O mapa auto-organizável de Kohonen é um tipo de Rede Neural Artificial que combina operações de projeção e agrupamento, permitindo a realização de análise exploratória de dados, com o objetivo de produzir descrições sumarizadas de grandes conjuntos de dados.
Resumo:
This work focuses on the study of video compression standard MPEG. To this end, a study was undertaken starting from the basics of digital video, addressing the components necessary for the understanding of the tools used by the video coding standard MPEG. The Motion Picture Experts Group (MPEG) was formed in the late '80s by a group of experts in order to create international standards for encoding and decoding audio and video. This paper will discuss the techniques present in the video compression standard MPEG, as well as its evolution. Will be described in the MPEG-1, MPEG-2, MPEG-4 and H.264 (MPEG-4 Part 10), however, the last two will be presented with more emphasis, because the standards are present in most modern video technologies, as in HDTV broadcasts
Resumo:
With the increase of stakeholders and consequently increase of amount of nancial transaction the study of news investment strategies in the stock market with data mining techniques has been the target of important researches. It allows that great historical data base to be processed and analysed looking for pattern that can be used to take a decision in investments. With the idea of getting pro t more than the real indexs' gain, we propose a strategy method of transactions using rules built by algorithm classi cation. For that, diary historical data of Ibovespa index and Petrobras stocks are organized and processed to nding the most important attribute that act decisively when taking a investment decision.To test the accuracy of proposed rules, a non real portfolio management is created, showing the decisions' performance over the real index and stocks' performance. Following the proposed rules, the results show that the strategy of investment give me back a high return that Stock market's return. The exclusive characteristics of algorithms maximize the gain inside the analysed time allowing to determine the techniques' return and the number of the days necessary to double the initial investment. The best classi er applied on the time series and its use on the propose investments strategy will demand 104 days to double the initial capital
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
Pós-graduação em Ciência da Computação - IBILCE
Resumo:
Pós-graduação em Ciência da Informação - FFC
Resumo:
Pós-graduação em Desenvolvimento Humano e Tecnologias - IBRC
Resumo:
The Telehealth Brazil Networks Program, created in 2007 with the aim of strengthening primary care and the unified health system (SUS - Sistema Único de Saúde), uses information and communication technologies for distance learning activities related to health. The use of technology enables the interaction between health professionals and / or their patients, furthering the ability of Family Health Teams (FHT). The program is grounded in law, which determines a number of technologies, protocols and processes which guide the work of Telehealth nucleus in the provision of services to the population. Among these services is teleconsulting, which is registered consultation and held between workers, professionals and managers of healthcare through bidirectional telecommunication instruments, in order to answer questions about clinical procedures, health actions and questions on the dossier of work. With the expansion of the program in 2011, was possible to detect problems and challenges that cover virtually all nucleus at different scales for each region. Among these problems can list the heterogeneity of platforms, especially teleconsulting, and low internet coverage in the municipalities, mainly in the interior cities of Brazil. From this perspective, the aim of this paper is to propose a distributed architecture, using mobile computing to enable the sending of teleconsultation. This architecture works offline, so that when internet connection data will be synchronized with the server. This data will travel on compressed to reduce the need for high transmission rates. Any Telehealth Nucleus can use this architecture, through an external service, which will be coupled through a communication interface.
Resumo:
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Elétrica, 2016.
Resumo:
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Educação, Programa de Pós-Graduação em Educação, 2016.
Resumo:
Métodos estocásticos oferecem uma poderosa ferramenta para a execução da compressão de dados e decomposições de matrizes. O método estocástico para decomposição de matrizes estudado utiliza amostragem aleatória para identificar um subespaço que captura a imagem de uma matriz de forma aproximada, preservando uma parte de sua informação essencial. Estas aproximações compactam a informação possibilitando a resolução de problemas práticos de maneira eficiente. Nesta dissertação é calculada uma decomposição em valores singulares (SVD) utilizando técnicas estocásticas. Esta SVD aleatória é empregada na tarefa de reconhecimento de faces. O reconhecimento de faces funciona de forma a projetar imagens de faces sobre um espaço de características que melhor descreve a variação de imagens de faces conhecidas. Estas características significantes são conhecidas como autofaces, pois são os autovetores de uma matriz associada a um conjunto de faces. Essa projeção caracteriza aproximadamente a face de um indivíduo por uma soma ponderada das autofaces características. Assim, a tarefa de reconhecimento de uma nova face consiste em comparar os pesos de sua projeção com os pesos da projeção de indivíduos conhecidos. A análise de componentes principais (PCA) é um método muito utilizado para determinar as autofaces características, este fornece as autofaces que representam maior variabilidade de informação de um conjunto de faces. Nesta dissertação verificamos a qualidade das autofaces obtidas pela SVD aleatória (que são os vetores singulares à esquerda de uma matriz contendo as imagens) por comparação de similaridade com as autofaces obtidas pela PCA. Para tanto, foram utilizados dois bancos de imagens, com tamanhos diferentes, e aplicadas diversas amostragens aleatórias sobre a matriz contendo as imagens.
Resumo:
Esta pesquisa foi realizada com a intenção de motivar o estudo da criptografia, mostrando que a matemática e a comunicação estão presentes em diversos momentos, tanto no passado quanto no presente. Este trabalho mostra a origem da criptoanálise e toda a sua evolução dando ênfase nos mecanismos de codificação e decodificação através de exemplos práticos. Além disso, alguns métodos criptográficos são destacados como a cifra de substituição monoalfabética, a cifra de Vigenère, a criptografia RSA que é o método mais conhecido de criptografia de chave pública, as cifras de Hill, o método das transformações lineares e o método de Rabin, devido a sua grande importância para a evolução de sistemas computacionais e assinaturas digitais entre outros. Por fim, mostra-se a importância e a necessidade dos recursos criptográficos nos dias de hoje, na tentativa de impedir que hackers e pessoas que fazem mau uso do conhecimento matemático possam causar danos a sociedade, seja por uma simples mensagem ou até mesmo através de situações mais imprudentes como as transações bancárias indevidas
Resumo:
Tendo como motivação o desenvolvimento de uma representação gráfica de redes com grande número de vértices, útil para aplicações de filtro colaborativo, este trabalho propõe a utilização de superfícies de coesão sobre uma base temática multidimensionalmente escalonada. Para isso, utiliza uma combinação de escalonamento multidimensional clássico e análise de procrustes, em algoritmo iterativo que encaminha soluções parciais, depois combinadas numa solução global. Aplicado a um exemplo de transações de empréstimo de livros pela Biblioteca Karl A. Boedecker, o algoritmo proposto produz saídas interpretáveis e coerentes tematicamente, e apresenta um stress menor que a solução por escalonamento clássico.