963 resultados para 2-D electrophoresis
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
This thesis is an outcome of the investigations carried out on the development of an Artificial Neural Network (ANN) model to implement 2-D DFT at high speed. A new definition of 2-D DFT relation is presented. This new definition enables DFT computation organized in stages involving only real addition except at the final stage of computation. The number of stages is always fixed at 4. Two different strategies are proposed. 1) A visual representation of 2-D DFT coefficients. 2) A neural network approach. The visual representation scheme can be used to compute, analyze and manipulate 2D signals such as images in the frequency domain in terms of symbols derived from 2x2 DFT. This, in turn, can be represented in terms of real data. This approach can help analyze signals in the frequency domain even without computing the DFT coefficients. A hierarchical neural network model is developed to implement 2-D DFT. Presently, this model is capable of implementing 2-D DFT for a particular order N such that ((N))4 = 2. The model can be developed into one that can implement the 2-D DFT for any order N upto a set maximum limited by the hardware constraints. The reported method shows a potential in implementing the 2-D DF T in hardware as a VLSI / ASIC
Resumo:
The thesis explores the area of still image compression. The image compression techniques can be broadly classified into lossless and lossy compression. The most common lossy compression techniques are based on Transform coding, Vector Quantization and Fractals. Transform coding is the simplest of the above and generally employs reversible transforms like, DCT, DWT, etc. Mapped Real Transform (MRT) is an evolving integer transform, based on real additions alone. The present research work aims at developing new image compression techniques based on MRT. Most of the transform coding techniques employ fixed block size image segmentation, usually 8×8. Hence, a fixed block size transform coding is implemented using MRT and the merits and demerits are analyzed for both 8×8 and 4×4 blocks. The N2 unique MRT coefficients, for each block, are computed using templates. Considering the merits and demerits of fixed block size transform coding techniques, a hybrid form of these techniques is implemented to improve the performance of compression. The performance of the hybrid coder is found to be better compared to the fixed block size coders. Thus, if the block size is made adaptive, the performance can be further improved. In adaptive block size coding, the block size may vary from the size of the image to 2×2. Hence, the computation of MRT using templates is impractical due to memory requirements. So, an adaptive transform coder based on Unique MRT (UMRT), a compact form of MRT, is implemented to get better performance in terms of PSNR and HVS The suitability of MRT in vector quantization of images is then experimented. The UMRT based Classified Vector Quantization (CVQ) is implemented subsequently. The edges in the images are identified and classified by employing a UMRT based criteria. Based on the above experiments, a new technique named “MRT based Adaptive Transform Coder with Classified Vector Quantization (MATC-CVQ)”is developed. Its performance is evaluated and compared against existing techniques. A comparison with standard JPEG & the well-known Shapiro’s Embedded Zero-tree Wavelet (EZW) is done and found that the proposed technique gives better performance for majority of images
Resumo:
The relationship between an algebra and its associated monomial algebra is investigated when at least one of the algebras is d-Koszul It is shown that an algebra which has a reduced Grobnerbasis that is composed of homogeneous elements of degree d is d-Koszul if and only if its associated monomial algebra is d-Koszul The class of 2-d-determined algebras and the class 2-d-Koszul algebras are introduced In particular it is shown that 2-d-determined monomial algebras are 2-d-Koszul algebras and the structure of the ideal of relations of such an algebra is completely determined (C) 2010 Elsevier B V All rights reserved
Resumo:
Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq)
Resumo:
Flutter is an in-flight vibration of flexible structures caused by energy in the airstream absorbed by the lifting surface. This aeroelastic phenomenon is a problem of considerable interest in the aeronautic industry, because flutter is a potentially destructive instability resulting from an interaction between aerodynamic, inertial, and elastic forces. To overcome this effect, it is possible to use passive or active methodologies, but passive control adds mass to the structure and it is, therefore, undesirable. Thus, in this paper, the goal is to use linear matrix inequalities (LMIs) techniques to design an active state-feedback control to suppress flutter. Due to unmeasurable aerodynamic-lag states, one needs to use a dynamic observer. So, LMIs also were applied to design a state-estimator. The simulated model, consists of a classical flat plate in a two-dimensional flow. Two regulators were designed, the first one is a non-robust design for parametric variation and the second one is a robust control design, both designed by using LMIs. The parametric uncertainties are modeled through polytopic uncertainties. The paper concludes with numerical simulations for each controller. The open-loop and closed-loop responses are also compared and the results show the flutter suppression. The perfomance for both controllers are compared and discussed. Copyright © 2006 by ABCM.
Resumo:
An improvement to the quality bidimensional Delaunay mesh generation algorithm, which combines the mesh refinement algorithms strategy of Ruppert and Shewchuk is proposed in this research. The developed technique uses diametral lenses criterion, introduced by L. P. Chew, with the purpose of eliminating the extremely obtuse triangles in the boundary mesh. This method splits the boundary segment and obtains an initial prerefinement, and thus reducing the number of necessary iterations to generate a high quality sequential triangulation. Moreover, it decreases the intensity of the communication and synchronization between subdomains in parallel mesh refinement. © 2008 IEEE.
Resumo:
Os dados sísmicos terrestres são afetados pela existência de irregularidades na superfície de medição, e.g. a topografia. Neste sentido, para obter uma imagem sísmica de alta resolução, faz-se necessário corrigir estas irregularidades usando técnicas de processamento sísmico, e.g. correições estáticas residuais e de campo. O método de empilhamento Superfície de Reflexão Comum, CRS ("Common-Reflection-Surface", em inglês) é uma nova técnica de processamento para simular seções sísmicas com afastamento-nulo, ZO ("Zero-Offset", em inglês) a partir de dados sísmicos de cobertura múltipla. Este método baseia-se na aproximação hiperbólica de tempos de trânsito paraxiais de segunda ordem referido ao raio (central) normal. O operador de empilhamento CRS para uma superfície de medição planar depende de três parâmetros, denominados o ângulo de emergência do raio normal, a curvatura da onda Ponto de Incidência Normal, NIP ("Normal Incidence Point", em inglês) e a curvatura da onda Normal, N. Neste artigo o método de empilhamento CRS ZO 2-D é modificado com a finalidade de considerar uma superfície de medição com topografia suave também dependente desses parâmetros. Com este novo formalismo CRS, obtemos uma seção sísmica ZO de alta resolução, sem aplicar as correições estáticas, onde em cada ponto desta seção são estimados os três parâmetros relevantes do processo de empilhamento CRS.
Resumo:
O método de empilhamento sísmico CRS simula seções sísmicas ZO a partir de dados de cobertura múltipla, independente do macro-modelo de velocidades. Para meios 2-D, a função tempo de trânsito de empilhamento depende de três parâmetros, a saber: do ângulo de emergência do raio de reflexão normal (em relação à normal da superfície) e das curvaturas das frentes de onda relacionadas às ondas hipotéticas, denominadas NIP e Normal. O empilhamento CRS consiste na soma das amplitudes dos traços sísmicos em dados de múltipla cobertura, ao longo da superfície definida pela função tempo de trânsito do empilhamento CRS, que melhor se ajusta aos dados. O resultado do empilhamento CRS é assinalado a pontos de uma malha pré-definida na seção ZO. Como resultado tem-se a simulação de uma seção sísmica ZO. Isto significa que para cada ponto da seção ZO deve-se estimar o trio de parâmetros ótimos que produz a máxima coerência entre os eventos de reflexão sísmica. Nesta Tese apresenta-se fórmulas para o método CRS 2-D e para a velocidade NMO, que consideram a topografia da superfície de medição. O algoritmo é baseado na estratégia de otimização dos parâmetros de fórmula CRS através de um processo em três etapas: 1) Busca dos parâmetros, o ângulo de emergência e a curvatura da onda NIP, aplicando uma otimização global, 2) busca de um parâmetro, a curvatura da onda N, aplicando uma otimização global, e 3) busca de três parâmetros aplicando uma otimização local para refinar os parâmetros estimados nas etapas anteriores. Na primeira e segunda etapas é usado o algoritmo Simulated Annealing (SA) e na terceira etapa é usado o algoritmo Variable Metric (VM). Para o caso de uma superfície de medição com variações topográficas suaves, foi considerada a curvatura desta superfície no algoritmo do método de empilhamento CRS 2-D, com aplicação a dados sintéticos. O resultado foi uma seção ZO simulada, de alta qualidade ao ser comparada com a seção ZO obtida por modelamento direto, com uma alta razão sinal-ruído, além da estimativa do trio de parâmetros da função tempo de trânsito. Foi realizada uma nálise de sensibilidade para a nova função de tempo de trânsito CRS em relação à curvatura da superfície de medição. Os resultados demonstraram que a função tempo de trânsito CRS é mais sensível nos pontos-médios afastados do ponto central e para grandes afastamentos. As expressões da velocidade NMO apresentadas foram aplicadas para estimar as velocidades e as profundidades dos refletores para um modelo 2-D com topografia suave. Para a inversão destas velocidades e profundidades dos refletores, foi considerado o algoritmo de inversão tipo Dix. A velocidade NMO para uma superfície de medição curva, permite estimar muito melhor estas velocidades e profundidades dos refletores, que as velocidades NMO referidas as superfícies planas. Também apresenta-se uma abordagem do empilhamento CRS no caso 3-D. neste caso a função tempo de trânsito depende de oito parâmetros. São abordadas cinco estratégias de busca destes parâmetros. A combinação de duas destas estratégias (estratégias das três aproximações dos tempos de trânsito e a estratégia das configurações e curvaturas arbitrárias) foi aplicada exitosamente no empilhamento CRS 3-D de dados sintéticos e reais.
Resumo:
Nos últimos anos tem-se verificado através de várias publicações um interesse crescente em métodos de migração com amplitude verdadeira, com o objetivo de obter mais informações sobre as propriedades de refletividade da subsuperfície da terra. A maior parte desses trabalhos tem tratado deste tema baseando-se na aproximação de Born, como em Bleistein (1987) e Bleistein et al. (1987), ou na aproximação do campo de ondas pela teoria do raio como Hubral et al. (1991), Schleicher et al. (1993) e Martins et al. (1997). Considerando configurações arbitrárias de fontes e receptores, as reflexões primárias compressionais podem ser imageadas em reflexões migradas no domínio do tempo ou profundidade de tal modo que as amplitudes do campo de ondas migrado são uma medida do coeficiente de reflexão dependente do ângulo de incidência. Para realizar esta tarefa, vários algoritmos têm sido propostos nos últimos anos baseados nas aproximações de Kirchhoff e Born. Essas duas abordagens utilizam um operador integral de empilhamento de difrações ponderado que é aplicado aos dados da seção sísmica de entrada. Como resultado obtém-se uma seção migrada onde, em cada ponto refletor, tem-se o pulso da fonte com amplitude proporcional ao coeficiente de reflexão naquele ponto. Baseando-se na aproximação de Kirchhoff e na aproximação da teoria do raio do campo de ondas, neste trabalho é obtida a função peso para modelos bidimensionais (2-D) e dois e meio dimensionais (2,5-D) que é aplicada a dados sintéticos com e sem ruído. O resultado mostra a precisão e estabilidade do método de migração em 2-D e 2,5-D como uma ferramenta para a obtenção de informações importantes da subsuperfície da terra, que é de grande interesse para a análise da variação da amplitude com o afastamento (ângulo). Em suma, este trabalho apresenta expressões para as funções peso 2-D e 2,5-D em função de parâmetros ao longo de cada ramo do raio. São mostrados exemplos da aplicação do algoritmo de migração em profundidade a dados sintéticos 2-D e 2,5-D obtidos por modelamento sísmico através da teoria do raio usando o pacote Seis88 (Cervený e Psencík, 1988) e os resultados confirmaram a remoção do espalhamento geométrico dos dados migrados mesmo na presença de ruído. Testes adicionais foram realizados para a análise do efeito de alongamento do pulso na migração em profundidade (Tygel et al., 1994) e a aplicação do empilhamento múltiplo (Tygel et al., 1993) para a estimativa de atributos dos pontos de reflexão - no caso o ângulo de reflexão e a posição do receptor.
Resumo:
A modelagem acústica fornece dados úteis para avaliação de metodologias de processamento e imageamento sísmico, em modelos com estrutura geológica complexa. Esquemas de diferenças finitas (DF) e elementos finitos (EF) foram implementados e avaliados em modelos homogêneos e heterogêneos. O algoritmo de diferenças finitas foi estendido para o caso 2,5-D em modelos com densidade variável. Foi apresentada a modelagem de alvos geológicos de interesse exploratório existentes na Bacia Paleozóica do Solimões na Amazônia. Reflexões múltiplas de longo período produzidas entre a superfície livre e a discordância Cretáceo-Paleozóica, a baixa resolução da onda sísmica nas proximidades do reservatório e as fracas reflexões na interface entre as rochas reservatório e as rochas selantes são as principais características dos dados sintéticos obtidos, os quais representam um grande desafio ao imageamento sísmico.