948 resultados para Frequency Modulated Signals, Parameter Estimation, Signal-to-Noise-Ratio, Simulations
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
Apresenta-se nesta dissertação a proposta de um algoritmo supervisionado de classificação de imagens de sensoreamento remoto, composto de três etapas: remoção ou suavização de nuvens, segmentação e classificação.O método de remoção de nuvens usa filtragem homomórfica para tratar as obstruções causadas pela presença de nuvens suaves e o método Inpainting para remover ou suavizar a preseça de sombras e nuvens densas. Para as etapas de segmentação e classificação é proposto um método baseado na energia AC dos coeficientes da Transformada Cosseno Discreta (DCT). O modo de classificação adotado é do tipo supervisionado. Para avaliar o algioritmo foi usado um banco de 14 imagens captadas por vários sensores, das quais 12 possuem algum tipo de obstrução. Para avaliar a etapa de remoção ou suavização de nuvens e sombras são usados a razão sinal-ruído de pico (PSNR) e o coeficiente Kappa. Nessa fase, vários filtros passa-altas foram comparados para a escolha do mais eficiente. A segmentação das imagens é avaliada pelo método da coincidência entre bordas (EBC) e a classificação é avaliada pela medida da entropia relativa e do erro médio quadrático (MSE). Tão importante quanto as métricas, as imagens resultantes são apresentadas de forma a permitir a avaliação subjetiva por comparação visual. Os resultados mostram a eficiência do algoritmo proposto, principalmente quando comparado ao software Spring, distribuído pelo Instituto Nacional de Pesquisas Espaciais (INPE).
Resumo:
Recentemente a sociedade está vivendo em meio a um aglomerado de dispositivos móveis com múltiplas interfaces sem fio que permitem que clientes móveis domésticos e corporativos solucionem problemas rotineiros no menor espaço de tempo e em diversas localizações. Por outro lado, a disponibilidade de diversas tecnologias de acesso sem fio como: Wi-Fi (Wireless Fidelity), WiMAX (Worldwide Interoperability for Microwave Access) e LTE (Long Term Evolution), proporcionam um cenário heterogêneo com diversas oportunidades de conectividade para o usuário de dispositivos com múltiplas interfaces. Alguns dos desafios atuais no contexto da concepção da então denominada NGN (Next Generation Networks) são o desenvolvimento de arcabouços e mecanismos que viabilizem tanto o suporte adequado à Qualidade de Serviço (QoS – Quality of Service) e à Qualidade de Experiência (QoE – Quality of Experience) para aplicações multimídia, quanto a garantia de equidade entre vazões de diferentes aplicações em ambiente heterogêneo. Esta dissertação propõe um arcabouço para o aprovisionamento de QoS e QoE em redes sem fio heterogêneas formada por redes WiMAX e Wi-Fi. Especificamente, nossa solução provê mapeamento estático de QoS entre as classes de serviços WiMAX e categorias de acesso Wi-Fi. Além disso, nossa proposta também combina funcionalidades de equidade entre vazões com a solução de mapeamento, a fim de alcançar um bom compromisso tanto para o operador da rede, quanto para o usuário, através de uma nova metodologia de coleta e calculo de vazão agregada e algoritmo de decisão de handover vertical. A avaliação quantitativa da proposta foi realizada através de modelos de simulação no ns-2 (Network Simulator). Os resultados de desempenho demonstram a eficiência da arquitetura em termos de métricas de QoS (vazão, vazão média e atraso) e QoE (PSRN - Peak Signal to Noise Ratio, SSIM - Structural Similarity Index e VQM - Video Quality Metric).
Resumo:
Esta dissertação tem como objetivo o desenvolvimento de um modelo matemático capaz de ajustar dados obtidos através de campanhas de medição por meio de um protótipo de um cenário da tecnologia WiMAX. As campanhas de medição foram feitas na Universidade Federal do Pará. Foram utilizadas antenas WiMAX, sendo uma como servidor, localizada em cima do prédio do Laboratório de Planejamento de Redes de Alto Desempenho (LPRAD), e a outra, receptora, que ficou em cima de um móvel para que os pontos fossem coletados. O método de ajuste utilizado foi o dos Mínimos Quadrados Lineares. Por meio dos dados coletados, aplica-se o método e estuda seu comportamento, verificando o quanto a otimização foi eficiente nos casos apresentados. A utilização da tecnologia em questão como acesso à Internet em alguns programas como o NAVEGAPARÁ, a busca de melhoramentos ou criação de modelos de propagação e a análise cross-layer das métricas utilizadas no trabalho, como a influência da relação sinal-ruído na perda de quadros, são fatores motivadores para a pesquisa desta dissertação.
Resumo:
A determinação de um acurado modelo de velocidades é um requisito fundamental para a realização do imageamento sísmico. Métodos novos como a Estereotomografia préempilhamento e a Tomografia da onda NIP são ferramentas poderosas e bastante sugestivas para este propósito. Basicamente, a Estereotomografia pré-empilhamento se baseia no conceito de eventos localmente coerentes interpretados como reflexões primárias e associados com pares de segmentos de raios, que tem um mesmo ponto de reflexão em profundidade. Na Tomografia da onda NIP um evento sísmico é representado por uma onda hipotética NIP, que está relacionada a um ponto de reflexão em profundidade. Os atributos da onda NIP são determinados no decorrer do Empilhamento de Superfície de Reflexão Comum (empilhamento CRS). Este trabalho tem como objetivo, fazer um estudo comparativo de ambos os métodos de determinação do modelo de velocidades em profundidade. Assim, é realizada uma revisão dos fundamentos teóricos de ambos os métodos tomográficos, destacando as principais diferenças e aplicando estas aproximações em um dado sintético e um dado real marinho (linha sísmica 214-2660 da Bacia do Jequitinhonha). Para avaliar os modelos de velocidades encontrados pelas aproximações, foi utilizada a migração pré-empilhamento em profundidade do tipo Kirchhoff e também as famílias de imagem comum (CIG). Os resultados mostraram que ambos os métodos tomográficos fornecem modelos de velocidades representativos. Contudo, constatou-se que a estereotomografia tem melhor desempenho em meios com variações laterais de velocidades, porém, aplicável somente em dados pré-empilhados com alta razão sinal/ruído.
Resumo:
O empilhamento sísmico é um método de imageamento utilizado para simulação de seções sísmicas com afastamento nulo (AN) a partir de dados de cobertura múltipla, produzindo um aumento da razão sinal/ruído na seção simulada. Este método é realizado usando o processamento convencional denominado ponto médio comum (PMC), através das chamadas correções sobretempo normal e sobretempo oblíquo (STN/STO). Alternativamente, um novo método de empilhamento sísmico, denominado superfície de reflexão comum (SRC) pode ser usado para simular seções sísmicas em afastamento nulo (AN). O método SRC tem como principais características: 1) a construção de uma aproximação do tempo de trânsito de reflexões primárias na vizinhança de um raio de reflexão normal; 2) esta aproximação de empilhamento tem como parâmetros os ângulos de emergência do raio normal e os raios de curvaturas de duas ondas hipotéticas denominadas onda ponto de incidência normal (onda PIN) e onda normal (onda N). O método pressupõe ainda que a velocidade da onda longitudinal na parte superior do modelo próxima à superfície da Terra seja conhecida. Para determinar adequadamente os parâmetros supracitados, fundamentais para o método de imageamento SRC, são necessárias estratégias de busca que utilizem casos particulares da aproximação de segunda ordem hiperbólica dos tempos de trânsito. As estratégias de busca apresentadas são: SRC pragmático-extendito e SRC global-local. Neste trabalho é apresentada uma revisão extensa dos fundamentos teóricos de método de empilhamento SRC, como também das estratégias de busca dos parâmetros SRC, dos algoritmos de implementação, e da delimitação de aberturas do operador de empilhamento SRC usando conceitos de zonas de Fresnel e o fator de estiramento da correção STN. Como um exemplo de aplicação dos atributos ou parâmetros SRC é apresentado o resultado da correção STN, sem estiramento do sinal sísmico, obtido utilizando as velocidades estimadas dos parâmetros SRC. Também, são apresentados os resultados da aplicação dos três métodos de empilhamento (PMC (STN/STO), SRC pragmático-extendido, SRC global-local) nos dados sintéticos Marmousi e real terrestre da bacia paleozóica Amazônica. Finalmente apresentam-se as discussões sobre os resultados, quanto à resolução da imagem sísmica e custo computacional.
Resumo:
This study compared the effectiveness of the multifocal visual evoked cortical potentials (mfVEP) elicited by pattern pulse stimulation with that of pattern reversal in producing reliable responses (signal-to-noise ratio >1.359). Participants were 14 healthy subjects. Visual stimulation was obtained using a 60-sector dartboard display consisting of 6 concentric rings presented in either pulse or reversal mode. Each sector, consisting of 16 checks at 99% Michelson contrast and 80 cd/m2 mean luminance, was controlled by a binary m-sequence in the time domain. The signal-to-noise ratio was generally larger in the pattern reversal than in the pattern pulse mode. The number of reliable responses was similar in the central sectors for the two stimulation modes. At the periphery, pattern reversal showed a larger number of reliable responses. Pattern pulse stimuli performed similarly to pattern reversal stimuli to generate reliable waveforms in R1 and R2. The advantage of using both protocols to study mfVEP responses is their complementarity: in some patients, reliable waveforms in specific sectors may be obtained with only one of the two methods. The joint analysis of pattern reversal and pattern pulse stimuli increased the rate of reliability for central sectors by 7.14% in R1, 5.35% in R2, 4.76% in R3, 3.57% in R4, 2.97% in R5, and 1.78% in R6. From R1 to R4 the reliability to generate mfVEPs was above 70% when using both protocols. Thus, for a very high reliability and thorough examination of visual performance, it is recommended to use both stimulation protocols.
Resumo:
A simulação de uma seção sísmica de afastamento-nulo (ZO) a partir de dados de cobertura múltipla para um meio 2-D, através do empilhamento, é um método de imageamento de reflexão sísmica muito utilizado, que permite reduzir a quantidade de dados e melhorar a relação sinal/ruído. Segundo Berkovitch et al. (1999) o método Multifoco está baseado na Teoria do Imageamento Homeomórfico e consiste em empilhar dados de cobertura múltipla com distribuição fonte-receptor arbitrária de acordo com uma nova correção de sobretempo, chamada Multifoco. Esta correção de sobretempo esta baseada numa aproximação esférica local da frente de onda focalizante na vizinhança da superfície da terra. Este método permite construir uma seção sísmica no domínio do tempo de afastamento nulo aumentando a relação sinal/ruído. A técnica Multifoco não necessita do conhecimento a priori de um macro-modelo de velocidades. Três parâmetros são usados para descrever a aproximação de tempo de trânsito, Multifoco, os quais são: 1) o ângulo de emergência do raio de afastamento nulo ou raio de reflexão normal (β0), 2) a curvatura da frente de onda no Ponto de Incidência Normal (RNIP) e 3) curvatura da frente de Onda Normal (RN). Sendo também necessário a velocidade próximo a superfície da terra. Neste trabalho de tese aplico esta técnica de empilhamento Multifoco para dados de cobertura múltipla referidos a modelos de velocidade constante e modelo heterogêneos, com o objetivo de simular seções sísmicas afastamento-nulo. Neste caso, como se trata da solução de um problema direto, o macro-modelo de velocidades é considerado conhecido a priori. No contexto do problema inverso tem-se que os parâmetros RNIP, RN e β0 podem ser determinados a partir da análise de coerência aplicada aos dados sísmicos de múltipla cobertura. Na solução deste problema a função objetivo, a ser otimizada, é definida pelo cálculo da máxima coerência existente entre os dados na superfície de empilhamento sísmico. Neste trabalho de tese nos discutimos a sensibilidade da aproximação do tempo de trânsito usado no empilhamento Multifoco, como uma função dos parâmetros RNIP, RN e β0. Esta análise de sensibilidade é feita de três diferentes modos: 1) a primeira derivada da função objetivo, 2) a medida de coerência, denominada semelhança, e 3) a sensibilidade no Empilhamento Multifoco.
Resumo:
Métodos de migração baseados na equação da onda unidirecional apresentam limitações no imageamento de refletores com forte mergulho e no tratamento de ondas evanescentes. Utilizando a expansão de Padé complexa na solução da equação da onda unidirecional para imageamento em geofísica é possível tratar ondas evanescentes, estabilizando a migração e dispensando um tratamento especial para absorção nas fronteiras do domínio. Utilizando várias parcelas na expansão de Padé, refletores com forte mergulho podem ser corretamente migrados. Nesta dissertação aplicamos a equação da onda unidirecional com expansão de Padé complexa para implementar dois algoritmos de migração em profundidade pré e pós empilhamento: a migração por diferenças finitas (FD) e a migração por diferenças finitas e Fourier (FFD). O estudo das curvas de dispersão e da resposta impulsiva dos operadores de migração nos permitiu escolher o número adequado de parcelas na expansão de Padé e os coeficientes da expansão que garantem estabilidade à continuação do campo de onda para um ângulo de mergulho máximo prescrito. As implementações foram validadas nos dados Marmousi e no modelo de domo de sal da SEG/EAGE mostrando que refletores com forte mergulho foram corretamente migrados, mesmo na presença de forte variação lateral de velocidade. Esses resultados são comparados com outros métodos de migração baseados na equação da onda unidirecional ressaltando a qualidade da aproximação estudada neste trabalho.
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
Our main purpose in this study was to quantify biological tissue in computed tomography (CT) examinations with the aim of developing a skull and a chest patient equivalent phantom (PEP), both specific to infants, aged between 1 and 5 years old. This type of phantom is widely used in the development of optimization procedures for radiographic techniques, especially in computed radiography (CR) systems. In order to classify and quantify the biological tissue, we used a computational algorithm developed in Matlab (R). The algorithm performed a histogram of each CT slice followed by a Gaussian fitting of each tissue type. The algorithm determined the mean thickness for the biological tissues (bone, soft, fat, and lung) and also converted them into the corresponding thicknesses of the simulator material (aluminum, PMMA, and air). We retrospectively analyzed 148 CT examinations of infant patients, 56 for skull exams and 92 were for chest. The results provided sufficient data to construct a phantom to simulate the infant chest and skull in the posterior anterior or anterior posterior (PA/AP) view. Both patient equivalent phantoms developed in this study can be used to assess physical variables such as noise power spectrum (NPS) and signal to noise ratio (SNR) or perform dosimetric control specific to pediatric protocols.
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
The Box-Cox transformation is a technique mostly utilized to turn the probabilistic distribution of a time series data into approximately normal. And this helps statistical and neural models to perform more accurate forecastings. However, it introduces a bias when the reversion of the transformation is conducted with the predicted data. The statistical methods to perform a bias-free reversion require, necessarily, the assumption of Gaussianity of the transformed data distribution, which is a rare event in real-world time series. So, the aim of this study was to provide an effective method of removing the bias when the reversion of the Box-Cox transformation is executed. Thus, the developed method is based on a focused time lagged feedforward neural network, which does not require any assumption about the transformed data distribution. Therefore, to evaluate the performance of the proposed method, numerical simulations were conducted and the Mean Absolute Percentage Error, the Theil Inequality Index and the Signal-to-Noise ratio of 20-step-ahead forecasts of 40 time series were compared, and the results obtained indicate that the proposed reversion method is valid and justifies new studies. (C) 2014 Elsevier B.V. All rights reserved.