969 resultados para Compressão de dados (Telecomunicações)
Resumo:
The great amount of data generated as the result of the automation and process supervision in industry implies in two problems: a big demand of storage in discs and the difficulty in streaming this data through a telecommunications link. The lossy data compression algorithms were born in the 90’s with the goal of solving these problems and, by consequence, industries started to use those algorithms in industrial supervision systems to compress data in real time. These algorithms were projected to eliminate redundant and undesired information in a efficient and simple way. However, those algorithms parameters must be set for each process variable, becoming impracticable to configure this parameters for each variable in case of systems that monitor thousands of them. In that context, this paper propose the algorithm Adaptive Swinging Door Trending that consists in a adaptation of the Swinging Door Trending, as this main parameters are adjusted dynamically by the analysis of the signal tendencies in real time. It’s also proposed a comparative analysis of performance in lossy data compression algorithms applied on time series process variables and dynamometer cards. The algorithms used to compare were the piecewise linear and the transforms.
Resumo:
Neste trabalho apresentamos um novo método de compressão, com perda controlada de dados, que tem a vantagem de ter uma taxa significativa de compressão sem introduzir nenhuma perda superior a um parâmetro escolhido pelo usuário. Esta abordagem é uma abordagem mista, pois usa técnicas de compactação de dados tanto com perda quanto sem perda. Isto quer dizer que conseguimos um método que alia as vantagens da alta compressão, sem introduzir distorções indesejáveis nos dados. Mostramos como a massa de dados utilizada nos nossos estudos é obtida e a sua importância na prospecção de depósitos de hidrocarbonetos. É apresentado um levantamento bibliográfico com técnicas de compressão aplicadas a dados sísmicos tipicamente utilizadas em aplicações comerciais. Por fim, apresentamos os resultados da compressão utilizando o método em conjuntos de dados sísmicos reais. Para 1% de erro, os arquivos de dados sísmicos compactados passaram a ter algo próximo a 25% de seus tamanhos originais, o que representa um fator de compressão de aproximadamente 4
Resumo:
Este trabalho versa sobre a avaliação da compressão de dados e da qualidade de imagens e animações usando-se complexidade de Kolmogorov, simulação de máquinas e distância de informação. Complexidade de Kolmogorov é uma teoria da informação e da aleatoriedade baseada na máquina de Turing. No trabalho é proposto um método para avaliar a compressão de dados de modelos de animação gráfica usando-se simulação de máquinas. Também definimos formalmente compressão de dados com perdas e propomos a aplicação da distância de informação como uma métrica de qualidade de imagem. O desenvolvimento de uma metodologia para avaliar a compressão de dados de modelos de animação gráfica para web é útil, a medida que as páginas na web estão sendo cada vez mais enriquecidas com animações, som e vídeo, e a economia de banda de canal tornase importante, pois os arquivos envolvidos são geralmente grandes. Boa parte do apelo e das vantagens da web em aplicações como, por exemplo, educação à distância ou publicidade, reside exatamente na existência de elementos multimídia, que apoiam a idéia que está sendo apresentada na página. Como estudo de caso, o método de comparação e avaliação de modelos de animação gráfica foi aplicado na comparação de dois modelos: GIF (Graphics Interchange Format) e AGA (Animação Gráfica baseada em Autômatos finitos), provando formalmente que AGA é melhor que GIF (“melhor” significa que AGA comprime mais as animações que GIF). Foi desenvolvida também uma definição formal de compressão de dados com perdas com o objetivo de estender a metodologia de avalição apresentada Distância de informação é proposta como uma nova métrica de qualidade de imagem, e tem como grande vantagem ser uma medida universal, ou seja, capaz de incorporar toda e qualquer medida computável concebível. A métrica proposta foi testada em uma série de experimentos e comparada com a distância euclidiana (medida tradicionalmente usada nestes casos). Os resultados dos testes são uma evidência prática que a distância proposta é efetiva neste novo contexto de aplicação, e que apresenta, em alguns casos, resultados superiores ao da distância euclidiana. Isto também é uma evidência que a distância de informação é uma métrica mais fina que a distância euclidiana. Também mostramos que há casos em que podemos aplicar a distância de informação, mas não podemos aplicar a distância euclidiana. A métrica proposta foi aplicada também na avaliação de animações gráficas baseadas em frames, onde apresentou resultados melhores que os obtidos com imagens puras. Este tipo de avaliação de animações é inédita na literatura, segundo revisão bibliográfica feita. Finalmente, neste trabalho é apresentado um refinamento à medida proposta que apresentou resultados melhores que a aplicação simples e direta da distância de informação.
Resumo:
This work focuses on the study of video compression standard MPEG. To this end, a study was undertaken starting from the basics of digital video, addressing the components necessary for the understanding of the tools used by the video coding standard MPEG. The Motion Picture Experts Group (MPEG) was formed in the late '80s by a group of experts in order to create international standards for encoding and decoding audio and video. This paper will discuss the techniques present in the video compression standard MPEG, as well as its evolution. Will be described in the MPEG-1, MPEG-2, MPEG-4 and H.264 (MPEG-4 Part 10), however, the last two will be presented with more emphasis, because the standards are present in most modern video technologies, as in HDTV broadcasts
Resumo:
The expansion of the energy matrix is a matter of great importance since the recent problems facing the country in this sector, such as rationing mobilized in 2001. Moreover, there is also concern with global sustainable development. Brazil is producing about 64 million cubic meters of biogas per day, but only a small percentage of this total is harnessed as an energy resource. Compounders are considered potential, for example, landfill energy (LE) and sewage treatment plants (STP), which can be adapted to produce biogas and market them. The work focuses its studies on biogas produced by these small and medium compounders. Are proposed and studied the following alternatives for the utilization of biogas energy: generation and sale of electricity through the installation of a small power station within the landfill, and purification and marketing of gas, whose price will be a consideration on the price of natural gas, taking into account the percentage of methane present in the biogas. Trade ensures that gas plus a destination ecologically appropriate to it, taking advantage of its energy
Resumo:
Image compress consists in represent by small amount of data, without loss a visual quality. Data compression is important when large images are used, for example satellite image. Full color digital images typically use 24 bits to specify the color of each pixel of the Images with 8 bits for each of the primary components, red, green and blue (RGB). Compress an image with three or more bands (multispectral) is fundamental to reduce the transmission time, process time and record time. Because many applications need images, that compression image data is important: medical image, satellite image, sensor etc. In this work a new compression color images method is proposed. This method is based in measure of information of each band. This technique is called by Self-Adaptive Compression (S.A.C.) and each band of image is compressed with a different threshold, for preserve information with better result. SAC do a large compression in large redundancy bands, that is, lower information and soft compression to bands with bigger amount of information. Two image transforms are used in this technique: Discrete Cosine Transform (DCT) and Principal Component Analysis (PCA). Primary step is convert data to new bands without relationship, with PCA. Later Apply DCT in each band. Data Loss is doing when a threshold discarding any coefficients. This threshold is calculated with two elements: PCA result and a parameter user. Parameters user define a compression tax. The system produce three different thresholds, one to each band of image, that is proportional of amount information. For image reconstruction is realized DCT and PCA inverse. SAC was compared with JPEG (Joint Photographic Experts Group) standard and YIQ compression and better results are obtain, in MSE (Mean Square Root). Tests shown that SAC has better quality in hard compressions. With two advantages: (a) like is adaptive is sensible to image type, that is, presents good results to divers images kinds (synthetic, landscapes, people etc., and, (b) it need only one parameters user, that is, just letter human intervention is required
Resumo:
Dissertação apresentada à Universidade Fernando Pessoa como partes dos requisitos para a obtenção do grau de Mestre em Engenharia Informática, ramo de Sistemas de Informação e Multimédia
Resumo:
Pós-graduação em Matematica Aplicada e Computacional - FCT
Resumo:
Métodos estocásticos oferecem uma poderosa ferramenta para a execução da compressão de dados e decomposições de matrizes. O método estocástico para decomposição de matrizes estudado utiliza amostragem aleatória para identificar um subespaço que captura a imagem de uma matriz de forma aproximada, preservando uma parte de sua informação essencial. Estas aproximações compactam a informação possibilitando a resolução de problemas práticos de maneira eficiente. Nesta dissertação é calculada uma decomposição em valores singulares (SVD) utilizando técnicas estocásticas. Esta SVD aleatória é empregada na tarefa de reconhecimento de faces. O reconhecimento de faces funciona de forma a projetar imagens de faces sobre um espaço de características que melhor descreve a variação de imagens de faces conhecidas. Estas características significantes são conhecidas como autofaces, pois são os autovetores de uma matriz associada a um conjunto de faces. Essa projeção caracteriza aproximadamente a face de um indivíduo por uma soma ponderada das autofaces características. Assim, a tarefa de reconhecimento de uma nova face consiste em comparar os pesos de sua projeção com os pesos da projeção de indivíduos conhecidos. A análise de componentes principais (PCA) é um método muito utilizado para determinar as autofaces características, este fornece as autofaces que representam maior variabilidade de informação de um conjunto de faces. Nesta dissertação verificamos a qualidade das autofaces obtidas pela SVD aleatória (que são os vetores singulares à esquerda de uma matriz contendo as imagens) por comparação de similaridade com as autofaces obtidas pela PCA. Para tanto, foram utilizados dois bancos de imagens, com tamanhos diferentes, e aplicadas diversas amostragens aleatórias sobre a matriz contendo as imagens.
Resumo:
Crescimento espacial tem sido um dos importantes fenômenos observados nas cidades contemporâneas, sendo a identificação de processos e padrões, de suas causas e conseqüências, um desafio para a ciência. Nesse caminho, esta pesquisa propõe um modelo de simulação de crescimento urbano dedicado a realizar simulações, incluindo de modo integrado fatores urbanos, naturais e institucionais, promovendo simultaneidade entre crescimento externo e interno a um espaço urbano preexistente, representados e modelados utilizando integradamente grafos, autômato celular e geotecnologias. Experimentos com modos de crescimento (axial, polar e difuso) e com cenários alternativos estão implementados, bem como são investigadas questões urbanas de conversão de território, de distribuição dos estoques construídos, de formação de periferias e vazios, de obsolescência e revitalização, de mono e policentralidade, de abrangência de funções urbanas e de influência da distância, de renaturalização e preservação ambiental, de limites de crescimento e problemas ambientais intra-urbanos, de ponderação de atributos, de crescimento difuso, fragmentação e compacidade. Estão também incluídas possibilidades de compressão de dados e alternativas de visualização de resultados, alcançando estudos exploratórios sobre forma urbana e sustentabilidade. O trabalho está dedicado inicialmente a fundamentar, construir e apresentar o modelo de simulação de crescimento denominado SACI – Simulador do Ambiente da Cidade®, depois a realizar simulações num caso real, em Pelotas, RS, quando são demonstrados os procedimentos de calibração, terminando com experimentos escolhidos para avançar na discussão do fenômeno do crescimento urbano. Esforços estão realizados para oferecer um instrumento de simulação com possibilidade de uso para além dos interesses exclusivos desta investigação, particularmente no campo do ensino e da prática do planejamento urbano municipal. Sendo assim, este argumento se dedica simultaneamente a documentar a trajetória de construção de um modelo de simulação de crescimento urbano, a explicitar sua aplicabilidade em casos de cidades reais e a contribuir para a compreensão teórica da dinâmica urbana e ambiental na cidade.
Resumo:
Pós-graduação em Matematica Aplicada e Computacional - FCT
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
The Telehealth Brazil Networks Program, created in 2007 with the aim of strengthening primary care and the unified health system (SUS - Sistema Único de Saúde), uses information and communication technologies for distance learning activities related to health. The use of technology enables the interaction between health professionals and / or their patients, furthering the ability of Family Health Teams (FHT). The program is grounded in law, which determines a number of technologies, protocols and processes which guide the work of Telehealth nucleus in the provision of services to the population. Among these services is teleconsulting, which is registered consultation and held between workers, professionals and managers of healthcare through bidirectional telecommunication instruments, in order to answer questions about clinical procedures, health actions and questions on the dossier of work. With the expansion of the program in 2011, was possible to detect problems and challenges that cover virtually all nucleus at different scales for each region. Among these problems can list the heterogeneity of platforms, especially teleconsulting, and low internet coverage in the municipalities, mainly in the interior cities of Brazil. From this perspective, the aim of this paper is to propose a distributed architecture, using mobile computing to enable the sending of teleconsultation. This architecture works offline, so that when internet connection data will be synchronized with the server. This data will travel on compressed to reduce the need for high transmission rates. Any Telehealth Nucleus can use this architecture, through an external service, which will be coupled through a communication interface.
Resumo:
Hoje em dia, a área de codificação de dados é transversal a diversos tipos de engenharias devido à sua grande importância. Com o aumento exponencial na criação de dados digitais, o campo da compressão de dados ganhou uma grande visibilidade nesta área. São constantemente desenvolvidos e melhorados algoritmos de compressão por forma a obter a maior compressão de dados possível seja com ou sem perda de dados, permitindo sustentar o rápido e constante crescimento dos mesmos. Um dos grandes problemas deste tipo de algoritmos deve-se ao grande poder computacional que por vezes é necessário para obter uma boa taxa de compressão mantendo a qualidade dos dados quando descompactados. Este documento descreve uma estratégia para tentar reduzir o impacto do poder computacional necessário à codificação de imagens utilizando uma implementação heterogénea. O objetivo é tentar efetuar a paralelização das secções que requerem elevado poder computacional reduzindo assim o tempo necessário à compressão de dados. Este documento baseia-se na implementação desta estratégia para o algoritmo de codificação de imagens MMP-Intra. Utilizando inicialmente uma análise teórica, demonstramos que é viável efetuar a paralelização do algoritmo, sendo possível obter elevados ganhos de desempenho. Por forma a provar que o algoritmo MMP-Intra era paralelizavel e identificar os ganhos reais foi desenvolvido um protótipo inicial, o qual obteve um desempenho muito inferiore ao do algoritmo original, necessitando de muito mais tempo para obter os mesmo resultados. Utilizando um processo de otimização iterativo o protótipo passou por várias etapas de refinação. O protótipo refinado final obteve resultados muito superiores ao algoritmo sequencial no qual o mesmo foi baseado chegando a obter desempenhos quatro vezes superior ao original.
Resumo:
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Tecnoloigia, 2016.