952 resultados para Post processing


Relevância:

60.00% 60.00%

Publicador:

Resumo:

STEEL, the Caltech created nonlinear large displacement analysis software, is currently used by a large number of researchers at Caltech. However, due to its complexity, lack of visualization tools (such as pre- and post-processing capabilities) rapid creation and analysis of models using this software was difficult. SteelConverter was created as a means to facilitate model creation through the use of the industry standard finite element solver ETABS. This software allows users to create models in ETABS and intelligently convert model information such as geometry, loading, releases, fixity, etc., into a format that STEEL understands. Models that would take several days to create and verify now take several hours or less. The productivity of the researcher as well as the level of confidence in the model being analyzed is greatly increased.

It has always been a major goal of Caltech to spread the knowledge created here to other universities. However, due to the complexity of STEEL it was difficult for researchers or engineers from other universities to conduct analyses. While SteelConverter did help researchers at Caltech improve their research, sending SteelConverter and its documentation to other universities was less than ideal. Issues of version control, individual computer requirements, and the difficulty of releasing updates made a more centralized solution preferred. This is where the idea for Caltech VirtualShaker was born. Through the creation of a centralized website where users could log in, submit, analyze, and process models in the cloud, all of the major concerns associated with the utilization of SteelConverter were eliminated. Caltech VirtualShaker allows users to create profiles where defaults associated with their most commonly run models are saved, and allows them to submit multiple jobs to an online virtual server to be analyzed and post-processed. The creation of this website not only allowed for more rapid distribution of this tool, but also created a means for engineers and researchers with no access to powerful computer clusters to run computationally intensive analyses without the excessive cost of building and maintaining a computer cluster.

In order to increase confidence in the use of STEEL as an analysis system, as well as verify the conversion tools, a series of comparisons were done between STEEL and ETABS. Six models of increasing complexity, ranging from a cantilever column to a twenty-story moment frame, were analyzed to determine the ability of STEEL to accurately calculate basic model properties such as elastic stiffness and damping through a free vibration analysis as well as more complex structural properties such as overall structural capacity through a pushover analysis. These analyses showed a very strong agreement between the two softwares on every aspect of each analysis. However, these analyses also showed the ability of the STEEL analysis algorithm to converge at significantly larger drifts than ETABS when using the more computationally expensive and structurally realistic fiber hinges. Following the ETABS analysis, it was decided to repeat the comparisons in a software more capable of conducting highly nonlinear analysis, called Perform. These analyses again showed a very strong agreement between the two softwares in every aspect of each analysis through instability. However, due to some limitations in Perform, free vibration analyses for the three story one bay chevron brace frame, two bay chevron brace frame, and twenty story moment frame could not be conducted. With the current trend towards ultimate capacity analysis, the ability to use fiber based models allows engineers to gain a better understanding of a building’s behavior under these extreme load scenarios.

Following this, a final study was done on Hall’s U20 structure [1] where the structure was analyzed in all three softwares and their results compared. The pushover curves from each software were compared and the differences caused by variations in software implementation explained. From this, conclusions can be drawn on the effectiveness of each analysis tool when attempting to analyze structures through the point of geometric instability. The analyses show that while ETABS was capable of accurately determining the elastic stiffness of the model, following the onset of inelastic behavior the analysis tool failed to converge. However, for the small number of time steps the ETABS analysis was converging, its results exactly matched those of STEEL, leading to the conclusion that ETABS is not an appropriate analysis package for analyzing a structure through the point of collapse when using fiber elements throughout the model. The analyses also showed that while Perform was capable of calculating the response of the structure accurately, restrictions in the material model resulted in a pushover curve that did not match that of STEEL exactly, particularly post collapse. However, such problems could be alleviated by choosing a more simplistic material model.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

A padronização para a fabricação de instrumentos endodônticos em aço inoxidável contribuiu para o desenvolvimento de novos aspectos geométricos. Surgiram propostas de alterações no desenho da haste helicoidal, da seção reta transversal, da ponta, da conicidade e do diâmetro na extremidade (D0). Concomitantemente, o emprego de ligas em Níquel-Titânio possibilitou a produção de instrumentos acionados a motor, largamente empregados hoje. A cada ano a indústria lança instrumentos com diversas modificações, sem, contudo, disponibilizar informações suficientes quanto às implicações clínicas destas modificações. Existe um crescente interesse no estudo dos diferentes aspectos geométricos e sua precisa metrologia. Tradicionalmente, a aferição de aspectos geométricos de instrumentos endodônticos é realizada visualmente através de microscopia ótica. Entretanto, esse procedimento visual é lento e subjetivo. Este trabalho propõe um novo método para a metrologia de instrumentos endodônticos baseado no microscópio eletrônico de varredura e na análise digital das imagens. A profundidade de campo do MEV permite obter a imagem de todo o relevo do instrumento endodôntico a uma distância de trabalho constante. Além disso, as imagens obtidas pelo detector de elétrons retro-espalhados possuem menos artefatos e sombras, tornando a obtenção e análise das imagens mais fáceis. Adicionalmente a análise das imagens permite formas de mensuração mais eficientes, com maior velocidade e qualidade. Um porta-amostras específico foi adaptado para obtenção das imagens dos instrumentos endodônticos. Ele é composto de um conector elétrico múltiplo com terminais parafusados de 12 pólos com 4 mm de diâmetro, numa base de alumínio coberta por discos de ouro. Os nichos do conector (terminais fêmeas) têm diâmetro apropriado (2,5 mm) para o encaixe dos instrumentos endodônticos. Outrossim, o posicionamento ordenado dos referidos instrumentos no conector elétrico permite a aquisição automatizada das imagens no MEV. Os alvos de ouro produzem, nas imagens de elétrons retro-espalhados, melhor contraste de número atômico entre o fundo em ouro e os instrumentos. No porta-amostras desenvolvido, os discos que compõem o fundo em ouro são na verdade, alvos do aparelho metalizador, comumente encontrados em laboratórios de MEV. Para cada instrumento, imagens de quatro a seis campos adjacentes de 100X de aumento são automaticamente obtidas para cobrir todo o comprimento do instrumento com a magnificação e resolução requeridas (3,12 m/pixel). As imagens obtidas são processadas e analisadas pelos programas Axiovision e KS400. Primeiro elas são dispostas num campo único estendido de cada instrumento por um procedimento de alinhamento semi-automático baseado na inter-relação com o Axiovision. Então a imagem de cada instrumento passa por uma rotina automatizada de análise de imagens no KS400. A rotina segue uma sequência padrão: pré-processamento, segmentação, pós-processamento e mensuração dos aspectos geométricos.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

The layout of a typical optical microscope has remained effectively unchanged over the past century. Besides the widespread adoption of digital focal plane arrays, relatively few innovations have helped improve standard imaging with bright-field microscopes. This thesis presents a new microscope imaging method, termed Fourier ptychography, which uses an LED to provide variable sample illumination and post-processing algorithms to recover useful sample information. Examples include increasing the resolution of megapixel-scale images to one gigapixel, measuring quantitative phase, achieving oil-immersion quality resolution without an immersion medium, and recovering complex three dimensional sample structure.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

A novel method incorporating the shielded method and the post-processing method has been proposed to fabricate the pi-phase-shilted fibre grating. Then an Er-doped pi-phase-shifted distributed feedback fibre grating laser has been fabricated using the grating. The laser threshold is 20 mW. When pumped with 90 mW light at 980 nm, the laser gives an output of 1.1 mW. Its signal-to-noise ratio is better than 60 dB. It is demonstrated that the laser is single mode operation by means of a Fabry-Perot scanning interferometer.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Incorporating the shielded method and post-processing method, a 75 mW single frequency Yb-doped DFB fiber laser was obtained with a 250 mW laser diode pump source at 978 nm. The threshold of the laser is 2 mW. The laser is single-polarization operation and the output power fluctuation is less than 0.2 mW in one hour when the pump power is 250 mW.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

研究了退火和二次离子交换对Er^3+/Yb^3+共掺的磷酸盐玻璃平面光波导传输特性的影响。在退火过程中,由于热效应和波导层Ag^+离子的浓度差使得Ag^+离子重新分布;随着退火时间的延长和温度的升高,光波导模式数目逐渐增加,波导层深度加深,且波导表面折射率与玻璃基质折射率差减小,退火扩散深度与退火时间的平方根成正比。电子探针结果显示在二次离子交换后形成了掩埋式的光波导,Ag^+离子浓度接近二次方分布,而掩埋式的光波导有助于降低光波导的传输损耗。

Relevância:

60.00% 60.00%

Publicador:

Resumo:

采用溶胶凝胶法在LiAlO2(302)衬底上制备了ZnO薄膜。用X射线衍射(XRD)和扫描电镜(SEM)对样品的结构和形貌进行了表征。XRD结果表明,随着热处理温度的升高(350℃、450℃、550℃、600℃、800℃),所得到的薄膜分别为单相ZnAl2O4(350℃),ZnAl2O4和ZnO的混合相(450℃)以及单相的ZnO(550℃、600℃、800℃),并且ZnO薄膜C轴择优取向的生长趋势随温度升高相应明显。SEM图像显示,随着热处理温度的升高,ZnO薄膜的粒径相应变大。

Relevância:

60.00% 60.00%

Publicador:

Resumo:

No presente trabalho foram utilizados modelos de classificação para minerar dados relacionados à aprendizagem de Matemática e ao perfil de professores do ensino fundamental. Mais especificamente, foram abordados os fatores referentes aos educadores do Estado do Rio de Janeiro que influenciam positivamente e negativamente no desempenho dos alunos do 9 ano do ensino básico nas provas de Matemática. Os dados utilizados para extrair estas informações são disponibilizados pelo Instituto Nacional de Estudos e Pesquisas Educacionais Anísio Teixeira que avalia o sistema educacional brasileiro em diversos níveis e modalidades de ensino, incluindo a Educação Básica, cuja avaliação, que foi foco deste estudo, é realizada pela Prova Brasil. A partir desta base, foi aplicado o processo de Descoberta de Conhecimento em Bancos de Dados (KDD - Knowledge Discovery in Databases), composto das etapas de preparação, mineração e pós-processamento dos dados. Os padrões foram extraídos dos modelos de classificação gerados pelas técnicas árvore de decisão, indução de regras e classificadores Bayesianos, cujos algoritmos estão implementados no software Weka (Waikato Environment for Knowledge Analysis). Além disso, foram aplicados métodos de grupos e uma metodologia para tornar as classes uniformemente distribuídas, afim de melhorar a precisão dos modelos obtidos. Os resultados apresentaram importantes fatores que contribuem para o ensino-aprendizagem de Matemática, assim como evidenciaram aspectos que comprometem negativamente o desempenho dos discentes. Por fim, os resultados extraídos fornecem ao educador e elaborador de políticas públicas fatores para uma análise que os auxiliem em posteriores tomadas de decisão.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

O estudo do fluxo de água e do transporte escalar em reservatórios hidrelétricos é importante para a determinação da qualidade da água durante as fases iniciais do enchimento e durante a vida útil do reservatório. Neste contexto, um código de elementos finitos paralelo 2D foi implementado para resolver as equações de Navier-Stokes para fluido incompressível acopladas a transporte escalar, utilizando o modelo de programação de troca de mensagens, a fim de realizar simulações em um ambiente de cluster de computadores. A discretização espacial é baseada no elemento MINI, que satisfaz as condições de Babuska-Brezzi (BB), que permite uma formulação mista estável. Todas as estruturas de dados distribuídos necessárias nas diferentes fases do código, como pré-processamento, solução e pós-processamento, foram implementadas usando a biblioteca PETSc. Os sistemas lineares resultantes foram resolvidos usando o método da projeção discreto com fatoração LU por blocos. Para aumentar o desempenho paralelo na solução dos sistemas lineares, foi empregado o método de condensação estática para resolver a velocidade intermediária nos vértices e no centróide do elemento MINI separadamente. Os resultados de desempenho do método de condensação estática com a abordagem da solução do sistema completo foram comparados. Os testes mostraram que o método de condensação estática apresenta melhor desempenho para grandes problemas, às custas de maior uso de memória. O desempenho de outras partes do código também são apresentados.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

No presente trabalho foram desenvolvidos modelos de classificação aplicados à mineração de dados climáticos para a previsão de eventos extremos de precipitação com uma hora de antecedência. Mais especificamente, foram utilizados dados observacionais registrados pela estação meteorológica de superfície localizada no Instituto Politécnico da Universidade do Estado do Rio de Janeiro em Nova Friburgo RJ, durante o período de 2008 a 2012. A partir desses dados foi aplicado o processo de Descoberta de Conhecimento em Banco de Dados (KDD Knowledge Discovery in Databases), composto das etapas de preparação, mineração e pós processamento dos dados. Com base no uso de algoritmos de Redes Neurais Artificiais e Árvores de Decisão para a extração de padrões que indicassem um acúmulo de precipitação maior que 10 mm na hora posterior à medição das variáveis climáticas, pôde-se notar que a utilização da observação meteorológica de micro escala para previsões de curto prazo é suscetível a altas taxas de alarmes falsos (falsos positivos). Para contornar este problema, foram utilizados dados históricos de previsões realizadas pelo Modelo Eta com resolução de 15 km, disponibilizados pelo Centro de Previsão de Tempo e Estudos Climáticos do Instituto Nacional de Pesquisas Espaciais CPTEC/INPE. De posse desses dados, foi possível calcular os índices de instabilidade relacionados à formação de situação convectiva severa na região de Nova Friburgo e então armazená-los de maneira estruturada em um banco de dados, realizando a união entre os registros de micro e meso escala. Os resultados demonstraram que a união entre as bases de dados foi de extrema importância para a redução dos índices de falsos positivos, sendo essa uma importante contribuição aos estudos meteorológicos realizados em estações meteorológicas de superfície. Por fim, o modelo com maior precisão foi utilizado para o desenvolvimento de um sistema de alertas em tempo real, que verifica, para a região estudada, a possibilidade de chuva maior que 10 mm na próxima hora.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

To further enhance the sound absorption of metal foams via combining the high sound absorption and good heat conductivity of the cellular foam metals, the use and acoustic modeling of these materials are reviewed. The predictions made by three viscous models developed by the authors for the propagation of sound through open-cell metal foams are compared with an experiment both for the metal foams and for the polymer substrates used to manufacture the foam. All models are valid in the limit of low Reynold's number which is valid for the typical cell dimensions found in metal foams provided the amplitude of the waves is below 160 dB. The first model considers the drag experienced by acoustic waves as they propagate passing rigid cylinders parallel to their axes, the second considers the propagation normal to their axes, and the third considers the propagation passing the spherical joints. All three are combined together to give a general model of the acoustic behavior of the foams. In particular, the sound absorption is found to be significant and well predicted by the combined model. In addition, a post-processing technique is described for the experiment used to extract the fundamental wave propagation characteristics of the material.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

This paper describes a method for monitoring the variation in support condition of pipelines using a vibration technique. The method is useful for detecting poor support of buried pipelines and for detecting spanning and depth of cover in sub-sea lines. Variation in the pipe support condition leads to increased likelihood of pipe damage. Under roadways, poorly supported pipe may be damaged by vehicle loading. At sea, spanned sections of pipe are vulnerable to ocean current loading and also to snagging by stray anchors in shallow waters. A vibrating `pig' has been developed and tested on buried pipelines. Certain features of pipe support, such as voids and hard spots, display characteristic responses to vibration, and these are measured by the vibrating pig. Post-processing of the measured vibration data is used to produce a graphical representation of the pipeline support and certain `feature characteristics' are identified. In field tests on a pipeline with deliberately constructed support faults, features detected by the vibrating pig are in good agreement with the known construction.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

The use of variable-width features (prosodics, broad structural information etc.) in large vocabulary speech recognition systems is discussed. Although the value of this sort of information has been recognized in the past, previous approaches have not been widely used in speech systems because either they have not been robust enough for realistic, large vocabulary tasks or they have been limited to certain recognizer architectures. A framework for the use of variable-width features is presented which employs the N-Best algorithm with the features being applied in a post-processing phase. The framework is flexible and widely applicable, giving greater scope for exploitation of the features than previous approaches. Large vocabulary speech recognition experiments using TIMIT show that the application of variable-width features has potential benefits.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

The long term goal of our work is to enable rapid prototyping design optimization to take place on geometries of arbitrary size in a spirit of a real time computer game. In recent papers we have reported the integration of a Level Set based geometry kernel with an octree-based cut-Cartesian mesh generator, RANS flow solver and post-processing all within a single piece of software - and all implemented in parallel with commodity PC clusters as the target. This work has shown that it is possible to eliminate all serial bottlenecks from the CED Process. This paper reports further progress towards our goal; in particular we report on the generation of viscous layer meshes to bridge the body to the flow across the cut-cells. The Level Set formulation, which underpins the geometry representation, is used as a natural mechanism to allow rapid construction of conformal layer meshes. The guiding principle is to construct the mesh which most closely approximates the body but remains solvable. This apparently novel approach is described and examples given.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

The application of automated design optimization to real-world, complex geometry problems is a significant challenge - especially if the topology is not known a priori like in turbine internal cooling. The long term goal of our work is to focus on an end-to-end integration of the whole CFD Process, from solid model through meshing, solving and post-processing to enable this type of design optimization to become viable & practical. In recent papers we have reported the integration of a Level Set based geometry kernel with an octree-based cut- Cartesian mesh generator, RANS flow solver, post-processing & geometry editing all within a single piece of software - and all implemented in parallel with commodity PC clusters as the target. The cut-cells which characterize the approach are eliminated by exporting a body-conformal mesh guided by the underpinning Level Set. This paper extends this work still further with a simple scoping study showing how the basic functionality can be scripted & automated and then used as the basis for automated optimization of a generic gas turbine cooling geometry. Copyright © 2008 by W.N.Dawes.