865 resultados para Multi-Point Method


Relevância:

30.00% 30.00%

Publicador:

Resumo:

This paper presents a new method to estimate hole diameters and surface roughness in precision drilling processes, using coupons taken from a sandwich plate composed of a titanium alloy plate (Ti6Al4V) glued onto an aluminum alloy plate (AA 2024T3). The proposed method uses signals acquired during the cutting process by a multisensor system installed on the machine tool. These signals are mathematically treated and then used as input for an artificial neural network. After training, the neural network system is qualified to estimate the surface roughness and hole diameter based on the signals and cutting process parameters. To evaluate the system, the estimated data were compared with experimental measurements and the errors were calculated. The results proved the efficiency of the proposed method, which yielded very low or even negligible errors of the tolerances used in most industrial drilling processes. This pioneering method opens up a new field of research, showing a promising potential for development and application as an alternative monitoring method for drilling processes. © 2012 Springer-Verlag London Limited.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The present paper proposes a new hybrid multi-population genetic algorithm (HMPGA) as an approach to solve the multi-level capacitated lot sizing problem with backlogging. This method combines a multi-population based metaheuristic using fix-and-optimize heuristic and mathematical programming techniques. A total of four test sets from the MULTILSB (Multi-Item Lot-Sizing with Backlogging) library are solved and the results are compared with those reached by two other methods recently published. The results have shown that HMPGA had a better performance for most of the test sets solved, specially when longer computing time is given. © 2012 Elsevier Ltd.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Grinding is a parts finishing process for advanced products and surfaces. However, continuous friction between the workpiece and the grinding wheel causes the latter to lose its sharpness, thus impairing the grinding results. This is when the dressing process is required, which consists of sharpening the worn grains of the grinding wheel. The dressing conditions strongly affect the performance of the grinding operation; hence, monitoring them throughout the process can increase its efficiency. The objective of this study was to estimate the wear of a single-point dresser using intelligent systems whose inputs were obtained by the digital processing of acoustic emission signals. Two intelligent systems, the multilayer perceptron and the Kohonen neural network, were compared in terms of their classifying ability. The harmonic content of the acoustic emission signal was found to be influenced by the condition of dresser, and when used to feed the neural networks it is possible to classify the condition of the tool under study.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The major contribution of this paper relates to the practical advantages of combining Ground Control Points (GCPs), Ground Control Lines (GCLs) and orbital data to estimate the exterior orientation parameters of images collected by CBERS-2B (China-Brazil Earth Resources Satellite) HRC (High-resolution Camera) and CCD (High-resolution CCD Camera) sensors. Although the CBERS-2B is no longer operational, its images are still being used in Brazil, and the next generations of the CBERS satellite will have sensors with similar technical features, which motivates the study presented in this paper. The mathematical models that relate the object and image spaces are based on collinearity (for points) and coplanarity (for lines) conditions. These models were created in an in-house developed software package called TMS (Triangulation with Multiple Sensors) with multi-feature control (GCPs and GCLs). Experiments on a block of four CBERS-2B HRC images and on one CBERS-2B CCD image were performed using both models. It was observed that the combination of GCPs and GCLs provided better bundle block adjustment results than conventional bundle adjustment using only GCPs. The results also demonstrate the advantages of using primarily orbital data when the number of control entities is reduced. © 2013 International Society for Photogrammetry and Remote Sensing, Inc. (ISPRS).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Grinding is a workpiece finishing process for advanced products and surfaces. However, the constant friction between workpiece and grinding wheel causes the latter to lose its sharpness, thereby impairing the result of the grinding process. When this occurs, the dressing process is essential to sharpen the worn grains of the grinding wheel. The dressing conditions strongly influence the performance of the grinding operation; hence, monitoring them throughout the process can increase its efficiency. The purpose of this study was to classify the wear condition of a single-point dresser using intelligent systems whose inputs were obtained by digitally processing acoustic emission signals. Two multilayer perceptron (MLP) neural networks were compared for their classification ability, one using the root mean square (RMS) statistics and another the ratio of power (ROP) statistics as input. In this study, it was found that the harmonic content of the acoustic emission signal is influenced by the condition of the dresser, and that the condition of the tool under study can be classified by using the aforementioned statistics to feed a neural network. © IFAC.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This paper provides a contribution to the contingency analysis of electric power systems under steady state conditions. An alternative methodology is presented for static contingency analyses that only use continuation methods and thus provides an accurate determination of the loading margin. Rather than starting from the base case operating point, the proposed continuation power flow obtains the post-contingency loading margins starting from the maximum loading and using a bus voltage magnitude as a parameter. The branch selected for the contingency evaluation is parameterised using a scaling factor, which allows its gradual removal and assures the continuation power flow convergence for the cases where the method would diverge for the complete transmission line or transformer removal. The applicability and effectiveness of the proposed methodology have been investigated on IEEE test systems (14, 57 and 118 buses) and compared with the continuation power flow, which obtains the post-contingency loading margin starting from the base case solution. In general, for most of the analysed contingencies, few iterations are necessary to determine the post-contingency maximum loading point. Thus, a significant reduction in the global number of iterations is achieved. Therefore, the proposed methodology can be used as an alternative technique to verify and even to obtain the list of critical contingencies supplied by the electric power systems security analysis function. © 2013 Elsevier Ltd. All rights reserved.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Pós-graduação em Psicologia - FCLAS

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The development of an electroanalytical method for simultaneous determination of copper and lead ions in sugar cane spirit (cachaça) using carbon paste electrode modified with ascorbic acid and carbon nanotubes (CPE-AaCNT) is described. Squarewave voltammetry (SWV) with anodic stripping was employed, and this technique was optimized with respect to the following parameters: frequency (50 Hz), amplitude (100 mV) and scan increment (9 mV). The analytical curves were linear in the range from 0.0900 to 7.00 mg L - 1 for lead and copper. The limits of detection were 48.5 and 23.9 µg L - 1 for lead and copper, respectively. The developed method was applied to the simultaneous determination of copper and lead in five commercial samples of sugar cane spirit. The results were in good agreement with those obtained by F AAS/GF AAS (flame atomic absorption spectrometry/graphite furnace atomic absorption spectrometry) and showed that CPE-AaCNT can be successfully employed in the simultaneous determination of these metals in real sugar cane spirit samples.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O empilhamento por superfície de reflexão comum (ou empilhamento SRC), conhecido como empilhamento CRS, do inglês Commom reflection surface, constitui-se em um novo método para o processamento sísmico na simulação de seções afastamento nulo (AN) e afastamento comum (AC). Este método é baseado em uma aproximação paraxial hiperbólica de segunda ordem dos tempos de trânsito de reflexão na vizinhança de um raio central. Para a simulação de seção AN, o raio central é um raio normal, enquanto que para a simulação de uma seção AC o raio central é um raio de afastamento finito. Em adição à seção AN, o método de empilhamento SRC também fornece estimativas dos atributos cinemáticos do campo de onda, sendo aplicados, por exemplo, na determinação (por um processo de inversão) da velocidade intervalar, no cálculo do espalhamento geométrico, na estimativa da zona de Fresnel, e também na simulação de eventos de tempos de difrações, este último tendo uma grande importância para a migração pré-empilhamento. Neste trabalho é proposta uma nova estratégia para fazer uma migração em profundidade pré-empilhamento, que usa os atributos cinemáticos do campo de onda derivados do empilhamento SRC, conhecido por método CRS-PSDM, do inglês CRS based pre-stack depth migration. O método CRS-PSDM usa os resultados obtidos do método SRC, isto é, as seções dos atributos cinemáticos do campo de onda, para construir uma superfície de tempos de trânsito de empilhamento, ao longo da qual as amplitudes do dado sísmico de múltipla cobertura são somadas, sendo o resultado da soma atribuído a um dado ponto em profundidade, na zona alvo de migração que é definida por uma malha regular. Similarmente ao método convencional de migração tipo Kirchhoff (K-PSDM), o método CRS-PSDM precisa de um modelo de velocidade de migração. Contrário ao método K-PSDM, o método CRS-PSDM necessita apenas computar os tempos de trânsito afastamento nulo, ao seja, ao longo de um único raio ligando o ponto considerado em profundidade a uma dada posição de fonte e receptor coincidentes na superfície. O resultado final deste procedimento é uma imagem sísmica em profundidade dos refletores a partir do dado de múltipla cobertura.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O advento de novas formas multimídia tem atraído uma clientela exigente, onde preocupação não é somente com o serviço, mas também, com a qualidade que esse serviço pode ser oferecido. As WLAN (Wireless Local Area Networks) tornaram-se a forma mais comum de roteamento de Internet, devido ao seu baixo custo e facilidade de implementação. Para realizar um bom roteamento é necessário um planejamento, utilizando-se modelos. Os modelos de propagação existentes na literatura fazem a predição da intensidade do sinal, mas algumas vezes não contemplam a previsão de um bom serviço. Nesse sentido a presente dissertação propõe-se a elaborar um modelo de propagação empírico indoor multi-andar que não só prediz a potência recebida, mas também faz uma previsão para algumas métricas de QoS (Quality of Service) de chamadas VoIP (Voice over Internet Protocol). Para a elaboração do modelo proposto foram feitas campanhas de medição, em um prédio de dois andares, em pisos distintos mantendo-se a posição do ponto de acesso (PA) fixa. Estudos de geometria analítica para a contagem e agregação de perdas em pisos e paredes. Os resultados do modelo proposto foram comparados com um modelo da literatura que tem um comportamento similar, onde é possível verificar o melhor desempenho do modelo proposto, e para efeito de estudo um andar completamente simulado foi introduzido para avaliação.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho apresenta um método para encontrar um conjunto de pontos de operação, os quais são ótimos de Pareto com diversidade, para linhas digitais de assinante (DSL - digital subscriber line). Em diversos trabalhos encontrados na literatura, têm sido propostos algoritmos para otimização da transmissão de dados em linhas DSL, que fornecem como resultado apenas um ponto de operação para os modems. Esses trabalhos utilizam, em geral, algoritmos de balanceamento de espectro para resolver um problema de alocação de potência, o que difere da abordagem apresentada neste trabalho. O método proposto, chamado de diverseSB , utiliza um processo híbrido composto de um algoritmo evolucionário multiobjetivo (MOEA - multi-objective evolutionary algorithm), mais precisamente, um algoritmo genético com ordenamento por não-dominância (NSGA-II - Non-Dominated Sorting Genetic Algorithm II), e usando ainda, um algoritmo de balanceamento de espectro. Os resultados obtidos por simulações mostram que, para uma dada diversidade, o custo computacional para determinar os pontos de operação com diversidade usando o algoritmo diverseSB proposto é muito menor que métodos de busca de “força bruta”. No método proposto, o NSGA-II executa chamadas ao algoritmo de balanceamento de espectro adotado, por isso, diversos testes envolvendo o mesmo número de chamadas ao algoritmo foram realizadas com o método diverseSB proposto e o método de busca por força bruta, onde os resultados obtidos pelo método diverseSB proposto foram bem superiores do que os resultados do método de busca por força bruta. Por exemplo, o método de força bruta realizando 1600 chamadas ao algoritmo de balanceamento de espectro, obtém um conjunto de pontos de operação com diversidade semelhante ao do método diverseSB proposto com 535 chamadas.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Os dados sísmicos terrestres são afetados pela existência de irregularidades na superfície de medição, e.g. a topografia. Neste sentido, para obter uma imagem sísmica de alta resolução, faz-se necessário corrigir estas irregularidades usando técnicas de processamento sísmico, e.g. correições estáticas residuais e de campo. O método de empilhamento Superfície de Reflexão Comum, CRS ("Common-Reflection-Surface", em inglês) é uma nova técnica de processamento para simular seções sísmicas com afastamento-nulo, ZO ("Zero-Offset", em inglês) a partir de dados sísmicos de cobertura múltipla. Este método baseia-se na aproximação hiperbólica de tempos de trânsito paraxiais de segunda ordem referido ao raio (central) normal. O operador de empilhamento CRS para uma superfície de medição planar depende de três parâmetros, denominados o ângulo de emergência do raio normal, a curvatura da onda Ponto de Incidência Normal, NIP ("Normal Incidence Point", em inglês) e a curvatura da onda Normal, N. Neste artigo o método de empilhamento CRS ZO 2-D é modificado com a finalidade de considerar uma superfície de medição com topografia suave também dependente desses parâmetros. Com este novo formalismo CRS, obtemos uma seção sísmica ZO de alta resolução, sem aplicar as correições estáticas, onde em cada ponto desta seção são estimados os três parâmetros relevantes do processo de empilhamento CRS.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O método de empilhamento sísmico CRS simula seções sísmicas ZO a partir de dados de cobertura múltipla, independente do macro-modelo de velocidades. Para meios 2-D, a função tempo de trânsito de empilhamento depende de três parâmetros, a saber: do ângulo de emergência do raio de reflexão normal (em relação à normal da superfície) e das curvaturas das frentes de onda relacionadas às ondas hipotéticas, denominadas NIP e Normal. O empilhamento CRS consiste na soma das amplitudes dos traços sísmicos em dados de múltipla cobertura, ao longo da superfície definida pela função tempo de trânsito do empilhamento CRS, que melhor se ajusta aos dados. O resultado do empilhamento CRS é assinalado a pontos de uma malha pré-definida na seção ZO. Como resultado tem-se a simulação de uma seção sísmica ZO. Isto significa que para cada ponto da seção ZO deve-se estimar o trio de parâmetros ótimos que produz a máxima coerência entre os eventos de reflexão sísmica. Nesta Tese apresenta-se fórmulas para o método CRS 2-D e para a velocidade NMO, que consideram a topografia da superfície de medição. O algoritmo é baseado na estratégia de otimização dos parâmetros de fórmula CRS através de um processo em três etapas: 1) Busca dos parâmetros, o ângulo de emergência e a curvatura da onda NIP, aplicando uma otimização global, 2) busca de um parâmetro, a curvatura da onda N, aplicando uma otimização global, e 3) busca de três parâmetros aplicando uma otimização local para refinar os parâmetros estimados nas etapas anteriores. Na primeira e segunda etapas é usado o algoritmo Simulated Annealing (SA) e na terceira etapa é usado o algoritmo Variable Metric (VM). Para o caso de uma superfície de medição com variações topográficas suaves, foi considerada a curvatura desta superfície no algoritmo do método de empilhamento CRS 2-D, com aplicação a dados sintéticos. O resultado foi uma seção ZO simulada, de alta qualidade ao ser comparada com a seção ZO obtida por modelamento direto, com uma alta razão sinal-ruído, além da estimativa do trio de parâmetros da função tempo de trânsito. Foi realizada uma nálise de sensibilidade para a nova função de tempo de trânsito CRS em relação à curvatura da superfície de medição. Os resultados demonstraram que a função tempo de trânsito CRS é mais sensível nos pontos-médios afastados do ponto central e para grandes afastamentos. As expressões da velocidade NMO apresentadas foram aplicadas para estimar as velocidades e as profundidades dos refletores para um modelo 2-D com topografia suave. Para a inversão destas velocidades e profundidades dos refletores, foi considerado o algoritmo de inversão tipo Dix. A velocidade NMO para uma superfície de medição curva, permite estimar muito melhor estas velocidades e profundidades dos refletores, que as velocidades NMO referidas as superfícies planas. Também apresenta-se uma abordagem do empilhamento CRS no caso 3-D. neste caso a função tempo de trânsito depende de oito parâmetros. São abordadas cinco estratégias de busca destes parâmetros. A combinação de duas destas estratégias (estratégias das três aproximações dos tempos de trânsito e a estratégia das configurações e curvaturas arbitrárias) foi aplicada exitosamente no empilhamento CRS 3-D de dados sintéticos e reais.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O método de empilhamento sísmico por Superfície de Reflexão Comum (ou empilhamento SRC) produz a simulação de seções com afastamento nulo (NA) a partir dos dados de cobertura múltipla. Para meios 2D, o operador de empilhamento SRC depende de três parâmetros que são: o ângulo de emergência do raio central com fonte-receptor nulo (β0), o raio de curvatura da onda ponto de incidência normal (RNIP) e o raio de curvatura da onda normal (RN). O problema crucial para a implementação do método de empilhamento SRC consiste na determinação, a partir dos dados sísmicos, dos três parâmetros ótimos associados a cada ponto de amostragem da seção AN a ser simulada. No presente trabalho foi desenvolvido uma nova sequência de processamento para a simulação de seções AN por meio do método de empilhamento SRC. Neste novo algoritmo, a determinação dos três parâmetros ótimos que definem o operador de empilhamento SRC é realizada em três etapas: na primeira etapa são estimados dois parâmetros (β°0 e R°NIP) por meio de uma busca global bidimensional nos dados de cobertura múltipla. Na segunda etapa é usado o valor de β°0 estimado para determinar-se o terceiro parâmetro (R°N) através de uma busca global unidimensional na seção AN resultante da primeira etapa. Em ambas etapas as buscas globais são realizadas aplicando o método de otimização Simulated Annealing (SA). Na terceira etapa são determinados os três parâmetros finais (β0, RNIP e RN) através uma busca local tridimensional aplicando o método de otimização Variable Metric (VM) nos dados de cobertura múltipla. Nesta última etapa é usado o trio de parâmetros (β°0, R°NIP, R°N) estimado nas duas etapas anteriores como aproximação inicial. Com o propósito de simular corretamente os eventos com mergulhos conflitantes, este novo algoritmo prevê a determinação de dois trios de parâmetros associados a pontos de amostragem da seção AN onde há intersecção de eventos. Em outras palavras, nos pontos da seção AN onde dois eventos sísmicos se cruzam são determinados dois trios de parâmetros SRC, os quais serão usados conjuntamente na simulação dos eventos com mergulhos conflitantes. Para avaliar a precisão e eficiência do novo algoritmo, este foi aplicado em dados sintéticos de dois modelos: um com interfaces contínuas e outro com uma interface descontinua. As seções AN simuladas têm elevada razão sinal-ruído e mostram uma clara definição dos eventos refletidos e difratados. A comparação das seções AN simuladas com as suas similares obtidas por modelamento direto mostra uma correta simulação de reflexões e difrações. Além disso, a comparação dos valores dos três parâmetros otimizados com os seus correspondentes valores exatos calculados por modelamento direto revela também um alto grau de precisão. Usando a aproximação hiperbólica dos tempos de trânsito, porém sob a condição de RNIP = RN, foi desenvolvido um novo algoritmo para a simulação de seções AN contendo predominantemente campos de ondas difratados. De forma similar ao algoritmo de empilhamento SRC, este algoritmo denominado empilhamento por Superfícies de Difração Comum (SDC) também usa os métodos de otimização SA e VM para determinar a dupla de parâmetros ótimos (β0, RNIP) que definem o melhor operador de empilhamento SDC. Na primeira etapa utiliza-se o método de otimização SA para determinar os parâmetros iniciais β°0 e R°NIP usando o operador de empilhamento com grande abertura. Na segunda etapa, usando os valores estimados de β°0 e R°NIP, são melhorados as estimativas do parâmetro RNIP por meio da aplicação do algoritmo VM na seção AN resultante da primeira etapa. Na terceira etapa são determinados os melhores valores de β°0 e R°NIP por meio da aplicação do algoritmo VM nos dados de cobertura múltipla. Vale salientar que a aparente repetição de processos tem como efeito a atenuação progressiva dos eventos refletidos. A aplicação do algoritmo de empilhamento SDC em dados sintéticos contendo campos de ondas refletidos e difratados, produz como resultado principal uma seção AN simulada contendo eventos difratados claramente definidos. Como uma aplicação direta deste resultado na interpretação de dados sísmicos, a migração pós-empilhamento em profundidade da seção AN simulada produz uma seção com a localização correta dos pontos difratores associados às descontinuidades do modelo.