931 resultados para Transformada Wavelet Discreta
Resumo:
Digital signal processing (DSP) aims to extract specific information from digital signals. Digital signals are, by definition, physical quantities represented by a sequence of discrete values and from these sequences it is possible to extract and analyze the desired information. The unevenly sampled data can not be properly analyzed using standard techniques of digital signal processing. This work aimed to adapt a technique of DSP, the multiresolution analysis, to analyze unevenly smapled data, to aid the studies in the CoRoT laboratory at UFRN. The process is based on re-indexing the wavelet transform to handle unevenly sampled data properly. The was efective presenting satisfactory results
Resumo:
Image compress consists in represent by small amount of data, without loss a visual quality. Data compression is important when large images are used, for example satellite image. Full color digital images typically use 24 bits to specify the color of each pixel of the Images with 8 bits for each of the primary components, red, green and blue (RGB). Compress an image with three or more bands (multispectral) is fundamental to reduce the transmission time, process time and record time. Because many applications need images, that compression image data is important: medical image, satellite image, sensor etc. In this work a new compression color images method is proposed. This method is based in measure of information of each band. This technique is called by Self-Adaptive Compression (S.A.C.) and each band of image is compressed with a different threshold, for preserve information with better result. SAC do a large compression in large redundancy bands, that is, lower information and soft compression to bands with bigger amount of information. Two image transforms are used in this technique: Discrete Cosine Transform (DCT) and Principal Component Analysis (PCA). Primary step is convert data to new bands without relationship, with PCA. Later Apply DCT in each band. Data Loss is doing when a threshold discarding any coefficients. This threshold is calculated with two elements: PCA result and a parameter user. Parameters user define a compression tax. The system produce three different thresholds, one to each band of image, that is proportional of amount information. For image reconstruction is realized DCT and PCA inverse. SAC was compared with JPEG (Joint Photographic Experts Group) standard and YIQ compression and better results are obtain, in MSE (Mean Square Root). Tests shown that SAC has better quality in hard compressions. With two advantages: (a) like is adaptive is sensible to image type, that is, presents good results to divers images kinds (synthetic, landscapes, people etc., and, (b) it need only one parameters user, that is, just letter human intervention is required
Resumo:
There has been an increasing tendency on the use of selective image compression, since several applications make use of digital images and the loss of information in certain regions is not allowed in some cases. However, there are applications in which these images are captured and stored automatically making it impossible to the user to select the regions of interest to be compressed in a lossless manner. A possible solution for this matter would be the automatic selection of these regions, a very difficult problem to solve in general cases. Nevertheless, it is possible to use intelligent techniques to detect these regions in specific cases. This work proposes a selective color image compression method in which regions of interest, previously chosen, are compressed in a lossless manner. This method uses the wavelet transform to decorrelate the pixels of the image, competitive neural network to make a vectorial quantization, mathematical morphology, and Huffman adaptive coding. There are two options for automatic detection in addition to the manual one: a method of texture segmentation, in which the highest frequency texture is selected to be the region of interest, and a new face detection method where the region of the face will be lossless compressed. The results show that both can be successfully used with the compression method, giving the map of the region of interest as an input
Resumo:
One of the main goals of CoRoT Natal Team is the determination of rotation period for thousand of stars, a fundamental parameter for the study of stellar evolutionary histories. In order to estimate the rotation period of stars and to understand the associated uncertainties resulting, for example, from discontinuities in the curves and (or) low signal-to-noise ratio, we have compared three different methods for light curves treatment. These methods were applied to many light curves with different characteristics. First, a Visual Analysis was undertaken for each light curve, giving a general perspective on the different phenomena reflected in the curves. The results obtained by this method regarding the rotation period of the star, the presence of spots, or the star nature (binary system or other) were then compared with those obtained by two accurate methods: the CLEANest method, based on the DCDFT (Date Compensated Discrete Fourier Transform), and the Wavelet method, based on the Wavelet Transform. Our results show that all three methods have similar levels of accuracy and can complement each other. Nevertheless, the Wavelet method gives more information about the star, from the wavelet map, showing the variations of frequencies over time in the signal. Finally, we discuss the limitations of these methods, the efficiency to give us informations about the star and the development of tools to integrate different methods into a single analysis
Resumo:
In this work, the study of some complex systems is done with use of two distinct procedures. In the first part, we have studied the usage of Wavelet transform on analysis and characterization of (multi)fractal time series. We have test the reliability of Wavelet Transform Modulus Maxima method (WTMM) in respect to the multifractal formalism, trough the calculation of the singularity spectrum of time series whose fractality is well known a priori. Next, we have use the Wavelet Transform Modulus Maxima method to study the fractality of lungs crackles sounds, a biological time series. Since the crackles sounds are due to the opening of a pulmonary airway bronchi, bronchioles and alveoli which was initially closed, we can get information on the phenomenon of the airway opening cascade of the whole lung. Once this phenomenon is associated with the pulmonar tree architecture, which displays fractal geometry, the analysis and fractal characterization of this noise may provide us with important parameters for comparison between healthy lungs and those affected by disorders that affect the geometry of the tree lung, such as the obstructive and parenchymal degenerative diseases, which occurs, for example, in pulmonary emphysema. In the second part, we study a site percolation model for square lattices, where the percolating cluster grows governed by a control rule, corresponding to a method of automatic search. In this model of percolation, which have characteristics of self-organized criticality, the method does not use the automated search on Leaths algorithm. It uses the following control rule: pt+1 = pt + k(Rc − Rt), where p is the probability of percolation, k is a kinetic parameter where 0 < k < 1 and R is the fraction of percolating finite square lattices with side L, LxL. This rule provides a time series corresponding to the dynamical evolution of the system, in particular the likelihood of percolation p. We proceed an analysis of scaling of the signal obtained in this way. The model used here enables the study of the automatic search method used for site percolation in square lattices, evaluating the dynamics of their parameters when the system goes to the critical point. It shows that the scaling of , the time elapsed until the system reaches the critical point, and tcor, the time required for the system loses its correlations, are both inversely proportional to k, the kinetic parameter of the control rule. We verify yet that the system has two different time scales after: one in which the system shows noise of type 1 f , indicating to be strongly correlated. Another in which it shows white noise, indicating that the correlation is lost. For large intervals of time the dynamics of the system shows ergodicity
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)
Resumo:
Pós-graduação em Física - IGCE
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
Pós-graduação em Ciência da Computação - IBILCE
Resumo:
A análise de ocorrências no sistema de energia elétrica é de fundamento mportância para uma operação segura, e para manter a qualidade da energia elétrica lornecida aos consumidores. As concessionárias do setor de energia elétrica usam equipamentos, chamados registradores de perturbação (RP's), para monitora diagnosticar problemas nos sistemas elétrico e de proteção. As formas de onda normalmente analisadas nos centros de operação das concessionárias, são aquelas geradas por eventos que quase sempre causam a aocrtul je linhas devido a operação dos relés comandados pelos dispositivos de proteção .Contudo, uma grande quantidade de registros armazenados que podem conte informações importantes sobre o comportamento e desempenho do sistema elétricl jeixa de ser analisada. O objetivo desse trabalho é usar os dados disponíveis nos centros de ontrole, operação das concessionárias de energia elétrica obtidos pelos RP's, para classificar e quantificar de forma automática sinais que caracterizem problemas de qualidade da energia, quanto a variações de tensão de curta duração: afundamentos, elevações e interrupções. O método proposto usa a transformada wavelet para obter um vetor característico para as tensões das fases A, B e C, e uma rede neural probabilística para classificação. Os sinais classificados como apresentando variações de curta duração são quantilicados quanto a duração e amplitude, usando-se as propriedades da análise nultiresolução da decomposição do sinal. Esses parâmetros, então, irão formar uma Jase de dados onde procedimentos de análise estatística podem ser usados para gerar relatórios com as características da qualidade da energia. Os resultados obtidos com a metodologia proposta para um sistema real são também apresentados.
Resumo:
Muitos laboratórios de eletrofisiologia visual não possuem seus próprios valores de normalidade para o eletrorretinograma de campo total. Isto prejudica a confiabilidade dos diagnósticos de diversas doenças que afetam as vias visuais. Desta forma, o objetivo deste trabalho foi estabelecer os valores normativos para o teste Eletrorretinograma de Campo Total para o Laboratório de Neurologia Tropical (LNT) da Universidade Federal do Pará (UFPA). Realizaram o eletrorretinograma 68 indivíduos saudáveis e sem queixas visuais divididos em três grupos de acordo com a faixa etária: 36 indivíduos pertenceram ao grupo 1 (entre 17 e 30 anos), 21 indivíduos ao grupo 2 (entre 31 e 45 anos) e 11 indivíduos ao grupo 3 (entre 46 e 60 anos). O protocolo de realização do teste seguiu as recomendações da ISCEV, com a utilização de seis tipos de estimulação. Quatro após adaptação escotópica e estimulação com intensidades de: 0,01 cd.s/m2 (resposta de bastonetes), 3,0 cd.s/m2 (resposta mista de cones e bastonetes e potenciais oscilatórios) e 10,0 cd.s/m2 (resposta mista adicional). Dois após adaptação fotópica em fundo de 30 cd/m2: 3,0 cd.s/m2 (resposta de cones e Flicker 30Hz). Para a análise dos resultados foram calculados os valores de amplitude e tempo implícito das ondas a e b obtidas em resposta a cada um dos seis tipos de estimulação utilizados. Estes valores foram descritos estatisticamente através da mediana, intervalos de confiança, 1º e 3º quartis, coeficiente de variação, média, desvio padrão e valores mínimos e máximos. Os grupos de maior faixa etária apresentaram menores valores de amplitude e atraso no tempo implícito. A utilização da transformada wavelet permitiu a melhor visualização das ondas sem alteração de amplitude e tempo implícito. Portanto, os valores normativos obtidos podem servir como parâmetros de normalidade confiáveis para auxiliar o diagnóstico de doenças retinianas.
Resumo:
Essa dissertação tem por objetivo analisar a influência de famílias wavelets e suas ordens no desempenho de um algoritmo de localização de faltas a partir das ondas viajantes de dois terminais de uma linha de transmissão aérea. Tornou-se objetivo secundário a modelagem de um sistema elétrico de potência (SEP) para obtenção de um universo de faltas que validassem o localizador. Para isso, parte de um SEP da Eletrobrás-Eletronorte em 500/230 kV foi modelado no Alternative Transient Program (ATP) utilizando-se parâmetros reais. A Transformada Wavelet, via análise multiresolução (AMR), é empregada valendo-se de sua característica de localização temporal, permitindo caracterizações precisas de instantes de transitórios eletromagnéticos ocasionados por faltas, as quais geram ondas que ao se propagarem em direção aos terminais da linha contêm os tempos de propagação destas do local do defeito a tais terminais e podem ser convenientemente extraídos por tal transformada. Pela metodologia adotada no algoritmo, a diferença entre esses tempos determina com boa exatidão o local de ocorrência da falta sobre a linha. Entretanto, um dos agentes variantes do erro nessa estimação é a escolha da Wavelet usada na AMR dos sinais, sendo, portanto, a avaliação dessa escolha sobre o erro, objetivo principal do trabalho, justificada pela ainda inexistente fundamentação científica que garanta a escolha de uma wavelet ótima a uma certa aplicação. Dentre um leque de Wavelets discretas, obtiveram-se resultados adequados para 16 delas, havendo erros máximos inferiores aos 250 metros estipulados para a precisão. Duas Wavelets, a Db15 e a Sym17, sobressaíram-se ao errarem, respectivamente, 3,5 e 1,1 vezes menos que as demais. A metodologia empregada consta da: exportação dos dados das faltas do ATP para o MATLAB®; aplicação da transformação modal de Clarke; decomposição dos modos alfa e síntese dos níveis 1 de detalhes via AMR; cálculo de suas máximas magnitudes e determinação dos índices temporais; e por fim, a teoria das ondas viajantes equaciona e estima o local do defeito sobre a LT, sendo tudo isso programado no MATLAB e os erros de localização analisados estatisticamente no Microsoft Excell®. Ao final elaborou-se ainda uma GUI (Guide User Interface) para a Interface Homem-Máquina (IHM) do localizador, servindo também para análises gráficas de qualquer das contingências aplicadas ao SEP. Os resultados alcançados demonstram uma otimização de performance em razão da escolha da wavelet mais adequada ao algoritmo e norteiam para uma aplicação prática do localizador.