931 resultados para Transformada de Wavelet
Resumo:
This paper proposes a novel computer vision approach that processes video sequences of people walking and then recognises those people by their gait. Human motion carries different information that can be analysed in various ways. The skeleton carries motion information about human joints, and the silhouette carries information about boundary motion of the human body. Moreover, binary and gray-level images contain different information about human movements. This work proposes to recover these different kinds of information to interpret the global motion of the human body based on four different segmented image models, using a fusion model to improve classification. Our proposed method considers the set of the segmented frames of each individual as a distinct class and each frame as an object of this class. The methodology applies background extraction using the Gaussian Mixture Model (GMM), a scale reduction based on the Wavelet Transform (WT) and feature extraction by Principal Component Analysis (PCA). We propose four new schemas for motion information capture: the Silhouette-Gray-Wavelet model (SGW) captures motion based on grey level variations; the Silhouette-Binary-Wavelet model (SBW) captures motion based on binary information; the Silhouette-Edge-Binary model (SEW) captures motion based on edge information and the Silhouette Skeleton Wavelet model (SSW) captures motion based on skeleton movement. The classification rates obtained separately from these four different models are then merged using a new proposed fusion technique. The results suggest excellent performance in terms of recognising people by their gait.
Resumo:
Power distribution automation and control are import-ant tools in the current restructured electricity markets. Unfortunately, due to its stochastic nature, distribution systems faults are hardly avoidable. This paper proposes a novel fault diagnosis scheme for power distribution systems, composed by three different processes: fault detection and classification, fault location, and fault section determination. The fault detection and classification technique is wavelet based. The fault-location technique is impedance based and uses local voltage and current fundamental phasors. The fault section determination method is artificial neural network based and uses the local current and voltage signals to estimate the faulted section. The proposed hybrid scheme was validated through Alternate Transient Program/Electromagentic Transients Program simulations and was implemented as embedded software. It is currently used as a fault diagnosis tool in a Southern Brazilian power distribution company.
Resumo:
Swallowing dynamics involves the coordination and interaction of several muscles and nerves which allow correct food transport from mouth to stomach without laryngotracheal penetration or aspiration. Clinical swallowing assessment depends on the evaluator`s knowledge of anatomic structures and of neurophysiological processes involved in swallowing. Any alteration in those steps is denominated oropharyngeal dysphagia, which may have many causes, such as neurological or mechanical disorders. Videofluoroscopy of swallowing is presently considered to be the best exam to objectively assess the dynamics of swallowing, but the exam needs to be conducted under certain restrictions, due to patient`s exposure to radiation, which limits periodical repetition for monitoring swallowing therapy. Another method, called cervical auscultation, is a promising new diagnostic tool for the assessment of swallowing disorders. The potential to diagnose dysphagia in a noninvasive manner by assessing the sounds of swallowing is a highly attractive option for the dysphagia clinician. Even so, the captured sound has an amount of noise, which can hamper the evaluator`s decision. In that way, the present paper proposes the use of a filter to improve the quality of audible sound and facilitate the perception of examination. The wavelet denoising approach is used to decompose the noisy signal. The signal to noise ratio was evaluated to demonstrate the quantitative results of the proposed methodology. (C) 2007 Elsevier Ltd. All rights reserved.
Resumo:
Thyristor-based onload tap-changing ac voltage stabilizers are cheap and robust. They have replaced most mechanical tap-changers in low voltage applications from 300 VA to 300 M. Nevertheless, this replacement hardily applies to tap-changers associated to transformers feeding medium-voltage lines (typically 69 kV primary, 34.5 kV line, 10 MVA) which need periodical maintenance of contacts and oil. The Electric Power Research Institute (EPRI) has studied the feasibility of this replacement. It detected economical problems derived from the need for series association of thyristors to manage the high voltages involved, and from the current overload developed under line fault. The paper reviews the configurations used in that field and proposes new solutions, using a compensating transformer in the main circuit and multi-winding coils in the commutating circuit, with reduced overload effect and no series association of thyristors, drastically decreasing their number and rating. The stabilizer can be installed at any point of the line and the electronic circuit can be fixed to ground. Subsequent works study and synthesize several commutating circuits in detail.
Resumo:
Intravascular ultrasound (IVUS) image segmentation can provide more detailed vessel and plaque information, resulting in better diagnostics, evaluation and therapy planning. A novel automatic segmentation proposal is described herein; the method relies on a binary morphological object reconstruction to segment the coronary wall in IVUS images. First, a preprocessing followed by a feature extraction block are performed, allowing for the desired information to be extracted. Afterward, binary versions of the desired objects are reconstructed, and their contours are extracted to segment the image. The effectiveness is demonstrated by segmenting 1300 images, in which the outcomes had a strong correlation to their corresponding gold standard. Moreover, the results were also corroborated statistically by having as high as 92.72% and 91.9% of true positive area fraction for the lumen and media adventitia border, respectively. In addition, this approach can be adapted easily and applied to other related modalities, such as intravascular optical coherence tomography and intravascular magnetic resonance imaging. (E-mail: matheuscardosomg@hotmail.com) (C) 2011 World Federation for Ultrasound in Medicine & Biology.
Resumo:
Due to the several kinds of services that use the Internet and data networks infra-structures, the present networks are characterized by the diversity of types of traffic that have statistical properties as complex temporal correlation and non-gaussian distribution. The networks complex temporal correlation may be characterized by the Short Range Dependence (SRD) and the Long Range Dependence - (LRD). Models as the fGN (Fractional Gaussian Noise) may capture the LRD but not the SRD. This work presents two methods for traffic generation that synthesize approximate realizations of the self-similar fGN with SRD random process. The first one employs the IDWT (Inverse Discrete Wavelet Transform) and the second the IDWPT (Inverse Discrete Wavelet Packet Transform). It has been developed the variance map concept that allows to associate the LRD and SRD behaviors directly to the wavelet transform coefficients. The developed methods are extremely flexible and allow the generation of Gaussian time series with complex statistical behaviors.
Resumo:
We present a review of perceptual image quality metrics and their application to still image compression. The review describes how image quality metrics can be used to guide an image compression scheme and outlines the advantages, disadvantages and limitations of a number of quality metrics. We examine a broad range of metrics ranging from simple mathematical measures to those which incorporate full perceptual models. We highlight some variation in the models for luminance adaptation and the contrast sensitivity function and discuss what appears to be a lack of a general consensus regarding the models which best describe contrast masking and error summation. We identify how the various perceptual components have been incorporated in quality metrics, and identify a number of psychophysical testing techniques that can be used to validate the metrics. We conclude by illustrating some of the issues discussed throughout the paper with a simple demonstration. (C) 1998 Elsevier Science B.V. All rights reserved.
Resumo:
High performance video codec is mandatory for multimedia applications such as video-on-demand and video conferencing. Recent research has proposed numerous video coding techniques to meet the requirement in bandwidth, delay, loss and Quality-of-Service (QoS). In this paper, we present our investigations on inter-subband self-similarity within the wavelet-decomposed video frames using neural networks, and study the performance of applying the spatial network model to all video frames over time. The goal of our proposed method is to restore the highest perceptual quality for video transmitted over a highly congested network. Our contributions in this paper are: (1) A new coding model with neural network based, inter-subband redundancy (ISR) prediction for video coding using wavelet (2) The performance of 1D and 2D ISR prediction, including multiple levels of wavelet decompositions. Our result shows a short-term quality enhancement may be obtained using both 1D and 2D ISR prediction.
Resumo:
This article deals with the efficiency of fractional integration parameter estimators. This study was based on Monte Carlo experiments involving simulated stochastic processes with integration orders in the range]-1,1[. The evaluated estimation methods were classified into two groups: heuristics and semiparametric/maximum likelihood (ML). The study revealed that the comparative efficiency of the estimators, measured by the lesser mean squared error, depends on the stationary/non-stationary and persistency/anti-persistency conditions of the series. The ML estimator was shown to be superior for stationary persistent processes; the wavelet spectrum-based estimators were better for non-stationary mean reversible and invertible anti-persistent processes; the weighted periodogram-based estimator was shown to be superior for non-invertible anti-persistent processes.
Resumo:
A crise econ??mica que atravess??vamos foi a mola propulsora para desenvolvermos o projeto Racionaliza????o/Manuten????o da Qualidade Alimentar do Servi??o de Nutri????o e Diet??tica -SND do Hospital Escola. A dificuldade era tanta que nos obrigava a "cortar"os custos de um setor (que fornece uma m??dia mensal de 7.192 refei????es para os plantonistas de servi??o e, principalmente 54.764 refei????es para os pacientes do Hospital) envolvido diretamente, na recupera????o da sa??de dos pacientes. Portanto, era de fundamental import??ncia n??o diminuir a qualidade nutritiva dos alimentos fornecidos. Ent??o, o grande desafio seria: reduzir os custos, sem prejudicar o pronto restabelecimento dos pacientes. Ap??s amplo estudo, conclu??mos que seria necess??rio: simplificar e padronizar os procedimentos operacionais do Servi??o de Nutri????o e Diet??tica (SND); criar mecanismos de controle de acesso aos refeit??rios e encontrar formas alternativas de alimenta????o. Os resultados das medidas implantadas foram surpreendentes. Conseguimos uma redu????o nos custos na ordem de 20% (anexo 1). A mensagem final que gostar??amos de deixar para os nossos colegas Funcion??rios P??blicos ?? que as adversidades s??o essenciais para podermos "mexer" e este ato s?? ocorrer?? se, de fato, precisarmos faz??-lo em nosso benef??cio ou de nossos semelhantes ( o contribuinte que paga seus impostos)
Resumo:
A redefini????o do papel do Estado na sociedade e a conseq??ente transforma????o das Organiza????es P??blicas (OPs) implementadoras deste novo papel t??m sido t??picos-alvo constantes de discuss??o e a????o de governos, tanto em pa??ses desenvolvidos, quanto nos em desenvolvimento. Neste artigo ?? apresentada uma proposta metodol??gica para a transforma????o de OPs, utilizando-se de tecnologia da informa????o (TI) como fator propulsor deste processo de transforma????o. O arcabou??o metodol??gico proposto est??, basicamente, ancorado em duas for??as de mudan??a: uma for??a externa ?? OP ??? Institutional Accountability, e uma for??a interna ?? OP ??? Equipes de Trabalho, que, sinergicamente, encontram-se nos processos de trabalho executados pela OP transformada. As TIs que viabilizam e prov??em suporte ?? implementa????o das for??as externa e interna s??o, respectivamente: Sistema de Informa????o Executivo e Groupware.
Resumo:
Este trabalho tem como objeto de estudo as ações organizativas dos movimentos populares de bairro, enquanto práticas político-pedagógicas. Tomamos como foco, as associações de moradores da região da Grande São Pedro. Apesar de ter ficado conhecida na década de 1980 pela situação de miséria, os moradores dessa região, historicamente perpassada pelo fenômeno da segregação socioespacial, encontraram nas adversidades motivação para a organização do movimento popular como forma de construir sua história e afirmar sua cidadania. Totalmente transformada no que tange à sua urbanização, a região ainda hoje apresenta um cenário adverso para os moradores. Nesse sentido, a importância da organização dos moradores na atualidade é fundamental para lutar contra as situações de opressão que se impõem sobre os mesmos. Entretanto, o quadro que os atuais movimentos populares de bairro desta região apresenta é de reprodução de um modelo político-cultural marcado pelo individualismo, com traços peculiares da formação social brasileira - caracterizada por práticas de centralização, dependência e clientelismo político. Deve-se registrar que apesar de também trazerem traços de lutas e resistência, a forma como atualmente acontecem, com ações em níveis imediatos, esvaziadas de conteúdo político mais amplo, sem articulação com movimentos mais abrangentes, acabam se expressando em um “associativismo individualizado”. Desta feita, reiteramos neste trabalho a necessidade de a classe trabalhadora brasileira retomar, reconstruir espaços que contribuam com a formação de lideranças, com a qualificação das bases desses movimentos, para que seus protagonistas possam consolidar uma prática político-pedagógica fundamentada na educação popular e com isso venham adensar as lutas da classe trabalhadora e somar ao projeto de construção da contra-hegemonia, visando à transformação social. Buscar-se-ia neste sentido, a consolidação de um projeto social mais igualitário, justo e verdadeiramente democrático, no qual seja possível a emancipação humana.
Resumo:
Um complexo de alta fotoluminescência é proposto como marcador óptico para a identificação de resíduos de tiro (GSR). O marcador é o complexo [Eu(PIC)3(NMK)3], de fórmula molecular Eu(C6H2N3O7)3.(C7H13NO)3, que apresenta o íon Eu3+ e os ligantes ácido pícrico (PIC) e n-metil-Ɛ-caprolactama (NMK). Foi realizada a caracterização quimicamente através de espectroscopia de emissão, espectroscopia de infravermelho com transformada de Fourier (FTIR), termogravimetria e análise térmica diferencial (TG/DTA), e espectrometria de massas com ionização por eletrospray e ressonância ciclotrônica de íons por transformada de Fourier (ESI-FT-ICR MS), e, em seguida, foram adicionadas diferentes massas do complexo a munições convencionais (de 2 a 50 mg por cartucho). Após os tiros, o GSR marcado foi visualmente e quimicamente detectado por irradiação UV (ʎ = 395 nm) e ESI-FT-ICR MS, respectivamente. Os resultados mostraram uma fotoluminescência eficiente e duradoura, sendo facilmente visível sobre a superfície do alvo, no ambiente, no cartucho deflagrado, na arma de fogo, e sobre as mãos e braços do atirador quando utilizada massa a partir de 25 mg do marcador em cartuchos .38 e 50 mg em cartuchos .40. Sua toxicidade aguda também foi avaliada empregando-se o Protocolo 423 da Organização para a Cooperação e Desenvolvimento Econômico (OECD) e apresentou DL50 de 1000 mg.kg-1, sendo classificado como de categoria 4 na escala do Sistema Globalmente Harmonizado de Classificação e Rotulagem de Produtos Químicos (GHS), considerado, portanto, de média toxicidade. O composto mostrou ser menos tóxico do que os componentes inorgânicos de munições convencionais (em especial o Pb), justificando o seu emprego como marcador de GSR.
Resumo:
Nesta tese apresenta-se uma nova técnica para solucionar a problemática da estimação de velocidade de embarcações em Radar de Abertura Sintética (SAR). A solução proposta combina duas técnicas já publicadas introduzindo como inovação, a Transformada de Radon. Esta transformada vai permitir estimar a posição do rasto que a embarcação gera à medida que se vai deslocando. Com a posição do objecto calculada é então possível estimar a sua distância ao rasto e assim a velocidade em range. Esta estimativa é limitada pelo Pulse Repetition Frequency (PRF) utilizado na missão SAR. Para a velocidade em azimute é usada uma técnica de Multilook que vai executar uma correlação cruzada entre dois look’s consecutivos. Esta operação permite estimar o desvio que um alvo sofreu de um look para outro. Medindo a frequência central de cada look utilizado é possível estimar a velocidade em azimute.
Resumo:
As características dos vídeos recolhidos num sistema de videovigilância são bastante diferentes dos vídeos recolhidos para filmes. Cada sistema de videovigilância é único. Este trabalho trata a implementação, e especialização, de um algoritmo de codificação de vídeo para um sistema particular de videovigilância composto por três câmaras fixas. O algoritmo desenvolvido tira partido do facto de se conhecer previamente as características físicas e de utilização do local. Utilizando uma codificação inteligente, a codificação das imagens recolhidas depende do dia da semana, hora, câmara e da detecção de alterações na área que se encontra sob vigilância. A especialização é realizada através da configuração do codificador, tendo em conta critérios pré-definidos, de modo a obter uma relação adequada entre a qualidade de imagem e a compressão dos dados. As imagens são independentemente codificadas pela seguinte ordem de operações: transformada discreta do co-seno, quantização, run-length e codificação de Huffman. São armazenadas todas as imagens onde for detectado movimento, não a totalidade da imagem, mas apenas as regiões onde foi detectado movimento sendo utilizado uma decomposição em árvore quaternária. Foi implementado um protótipo de modo a avaliar o desempenho do algoritmo de codificação. O algoritmo, quando comparado com a técnica de codificação usada no sistema de videovigilância, apresenta uma maior taxa de compressão As imagens descodificadas apresentam qualidade suficiente para identificar as pessoas em pontos críticos e seguir os seus movimentos ao longo do corredor.