936 resultados para Método de otimização de Luus-Jaakola


Relevância:

100.00% 100.00%

Publicador:

Resumo:

O uso de opções no mercado financeiro tem ganhado relevância devido ao seu payoff não-linear e a possibilidade de alterar o perfil da distribuição de retornos de um portfolio. Existem diversas estratégias que são adequadas para cada cenário que o investidor acredita estar exposto, mas como o conjunto de cenários forma uma distribuição de retornos, devemos utilizar uma medida adequada para trabalhar com este tipo de informação. Assim, foi utilizada a medida Omega, que é uma medida capaz de capturar todos os momentos de uma distribuição, dado um limiar de retornos. Este trabalho se propõe a desenvolver uma metodologia que possibilite otimizar a medida Omega de um portfolio, através do uso de opções sobre o IBOVESPA. Para a geração das distribuições de retornos foi utilizada simulação de Monte Carlo, com jumps e volatilidade estocástica. Finalmente, foram feitas diversas análises sobre os resultados obtidos, afim de comparar a estratégia otimizada com diversas estratégias aleatórias, e também, realizado um backtest para avaliar a eficácia da implementação da estratégia otimizada.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This work proposes a computational methodology to solve problems of optimization in structural design. The application develops, implements and integrates methods for structural analysis, geometric modeling, design sensitivity analysis and optimization. So, the optimum design problem is particularized for plane stress case, with the objective to minimize the structural mass subject to a stress criterion. Notice that, these constraints must be evaluated at a series of discrete points, whose distribution should be dense enough in order to minimize the chance of any significant constraint violation between specified points. Therefore, the local stress constraints are transformed into a global stress measure reducing the computational cost in deriving the optimal shape design. The problem is approximated by Finite Element Method using Lagrangian triangular elements with six nodes, and use a automatic mesh generation with a mesh quality criterion of geometric element. The geometric modeling, i.e., the contour is defined by parametric curves of type B-splines, these curves hold suitable characteristics to implement the Shape Optimization Method, that uses the key points like design variables to determine the solution of minimum problem. A reliable tool for design sensitivity analysis is a prerequisite for performing interactive structural design, synthesis and optimization. General expressions for design sensitivity analysis are derived with respect to key points of B-splines. The method of design sensitivity analysis used is the adjoin approach and the analytical method. The formulation of the optimization problem applies the Augmented Lagrangian Method, which convert an optimization problem constrained problem in an unconstrained. The solution of the Augmented Lagrangian function is achieved by determining the analysis of sensitivity. Therefore, the optimization problem reduces to the solution of a sequence of problems with lateral limits constraints, which is solved by the Memoryless Quasi-Newton Method It is demonstrated by several examples that this new approach of analytical design sensitivity analysis of integrated shape design optimization with a global stress criterion purpose is computationally efficient

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In recent years there has been a significant growth in technologies that modify implant surfaces, reducing healing time and allowing their successful use in areas with low bone density. One of the most widely used techniques is plasma nitration, applied with excellent results in titanium and its alloys, with greater frequency in the manufacture of hip, ankle and shoulder implants. However, its use in dental implants is very limited due to high process temperatures (between 700 C o and 800 C o ), resulting in distortions in these geometrically complex and highly precise components. The aim of the present study is to assess osseointegration and mechanical strength of grade II nitrided titanium samples, through configuration of hollow cathode discharge. Moreover, new formulations are proposed to determine the optimum structural topology of the dental implant under study, in order to perfect its shape, make it efficient, competitive and with high definition. In the nitriding process, the samples were treated at a temperature of 450 C o and pressure of 150 Pa , during 1 hour of treatment. This condition was selected because it obtains the best wettability results in previous studies, where different pressure, temperature and time conditions were systematized. The samples were characterized by X-ray diffraction, scanning electron microscope, roughness, microhardness and wettability. Biomechanical fatigue tests were then conducted. Finally, a formulation using the three dimensional structural topology optimization method was proposed, in conjunction with an hadaptive refinement process. The results showed that plasma nitriding, using the hollow cathode discharge technique, caused changes in the surface texture of test specimens, increases surface roughness, wettability and microhardness when compared to the untreated sample. In the biomechanical fatigue test, the treated implant showed no flaws, after five million cycles, at a maximum fatigue load of 84.46 N. The results of the topological optimization process showed well-defined optimized layouts of the dental implant, with a clear distribution of material and a defined edge

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This work presents an optimization technique based on structural topology optimization methods, TOM, designed to solve problems of thermoelasticity 3D. The presented approach is based on the adjoint method of sensitivity analysis unified design and is intended to loosely coupled thermomechanical problems. The technique makes use of analytical expressions of sensitivities, enabling a reduction in the computational cost through the use of a coupled field adjoint equation, defined in terms the of temperature and displacement fields. The TOM used is based on the material aproach. Thus, to make the domain is composed of a continuous distribution of material, enabling the use of classical models in nonlinear programming optimization problem, the microstructure is considered as a porous medium and its constitutive equation is a function only of the homogenized relative density of the material. In this approach, the actual properties of materials with intermediate densities are penalized based on an artificial microstructure model based on the SIMP (Solid Isotropic Material with Penalty). To circumvent problems chessboard and reduce dependence on layout in relation to the final optimal initial mesh, caused by problems of numerical instability, restrictions on components of the gradient of relative densities were applied. The optimization problem is solved by applying the augmented Lagrangian method, the solution being obtained by applying the finite element method of Galerkin, the process of approximation using the finite element Tetra4. This element has the ability to interpolate both the relative density and the displacement components and temperature. As for the definition of the problem, the heat load is assumed in steady state, i.e., the effects of conduction and convection of heat does not vary with time. The mechanical load is assumed static and distributed

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O método de empilhamento sísmico por Superfície de Reflexão Comum (ou empilhamento SRC) produz a simulação de seções com afastamento nulo (NA) a partir dos dados de cobertura múltipla. Para meios 2D, o operador de empilhamento SRC depende de três parâmetros que são: o ângulo de emergência do raio central com fonte-receptor nulo (β0), o raio de curvatura da onda ponto de incidência normal (RNIP) e o raio de curvatura da onda normal (RN). O problema crucial para a implementação do método de empilhamento SRC consiste na determinação, a partir dos dados sísmicos, dos três parâmetros ótimos associados a cada ponto de amostragem da seção AN a ser simulada. No presente trabalho foi desenvolvido uma nova sequência de processamento para a simulação de seções AN por meio do método de empilhamento SRC. Neste novo algoritmo, a determinação dos três parâmetros ótimos que definem o operador de empilhamento SRC é realizada em três etapas: na primeira etapa são estimados dois parâmetros (β°0 e R°NIP) por meio de uma busca global bidimensional nos dados de cobertura múltipla. Na segunda etapa é usado o valor de β°0 estimado para determinar-se o terceiro parâmetro (R°N) através de uma busca global unidimensional na seção AN resultante da primeira etapa. Em ambas etapas as buscas globais são realizadas aplicando o método de otimização Simulated Annealing (SA). Na terceira etapa são determinados os três parâmetros finais (β0, RNIP e RN) através uma busca local tridimensional aplicando o método de otimização Variable Metric (VM) nos dados de cobertura múltipla. Nesta última etapa é usado o trio de parâmetros (β°0, R°NIP, R°N) estimado nas duas etapas anteriores como aproximação inicial. Com o propósito de simular corretamente os eventos com mergulhos conflitantes, este novo algoritmo prevê a determinação de dois trios de parâmetros associados a pontos de amostragem da seção AN onde há intersecção de eventos. Em outras palavras, nos pontos da seção AN onde dois eventos sísmicos se cruzam são determinados dois trios de parâmetros SRC, os quais serão usados conjuntamente na simulação dos eventos com mergulhos conflitantes. Para avaliar a precisão e eficiência do novo algoritmo, este foi aplicado em dados sintéticos de dois modelos: um com interfaces contínuas e outro com uma interface descontinua. As seções AN simuladas têm elevada razão sinal-ruído e mostram uma clara definição dos eventos refletidos e difratados. A comparação das seções AN simuladas com as suas similares obtidas por modelamento direto mostra uma correta simulação de reflexões e difrações. Além disso, a comparação dos valores dos três parâmetros otimizados com os seus correspondentes valores exatos calculados por modelamento direto revela também um alto grau de precisão. Usando a aproximação hiperbólica dos tempos de trânsito, porém sob a condição de RNIP = RN, foi desenvolvido um novo algoritmo para a simulação de seções AN contendo predominantemente campos de ondas difratados. De forma similar ao algoritmo de empilhamento SRC, este algoritmo denominado empilhamento por Superfícies de Difração Comum (SDC) também usa os métodos de otimização SA e VM para determinar a dupla de parâmetros ótimos (β0, RNIP) que definem o melhor operador de empilhamento SDC. Na primeira etapa utiliza-se o método de otimização SA para determinar os parâmetros iniciais β°0 e R°NIP usando o operador de empilhamento com grande abertura. Na segunda etapa, usando os valores estimados de β°0 e R°NIP, são melhorados as estimativas do parâmetro RNIP por meio da aplicação do algoritmo VM na seção AN resultante da primeira etapa. Na terceira etapa são determinados os melhores valores de β°0 e R°NIP por meio da aplicação do algoritmo VM nos dados de cobertura múltipla. Vale salientar que a aparente repetição de processos tem como efeito a atenuação progressiva dos eventos refletidos. A aplicação do algoritmo de empilhamento SDC em dados sintéticos contendo campos de ondas refletidos e difratados, produz como resultado principal uma seção AN simulada contendo eventos difratados claramente definidos. Como uma aplicação direta deste resultado na interpretação de dados sísmicos, a migração pós-empilhamento em profundidade da seção AN simulada produz uma seção com a localização correta dos pontos difratores associados às descontinuidades do modelo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O método de empilhamento por Superfície de Reflexão Comum (SRC) produz seções simuladas de afastamento nulo (AN) por meio do somatório de eventos sísmicos dos dados de cobertura múltipla contidos nas superfícies de empilhamento. Este método não depende do modelo de velocidade do meio, apenas requer o conhecimento a priori da velocidade próxima a superfície. A simulação de seções AN por este método de empilhamento utiliza uma aproximação hiperbólica de segunda ordem do tempo de trânsito de raios paraxiais para definir a superfície de empilhamento ou operador de empilhamento SRC. Para meios 2D este operador depende de três atributos cinemáticos de duas ondas hipotéticas (ondas PIN e N), observados no ponto de emergência do raio central com incidência normal, que são: o ângulo de emergência do raio central com fonte-receptor nulo (β0) , o raio de curvatura da onda ponto de incidência normal (RPIN) e o raio de curvatura da onda normal (RN). Portanto, o problema de otimização no método SRC consiste na determinação, a partir dos dados sísmicos, dos três parâmetros (β0, RPIN, RN) ótimos associados a cada ponto de amostragem da seção AN a ser simulada. A determinação simultânea destes parâmetros pode ser realizada por meio de processos de busca global (ou otimização global) multidimensional, utilizando como função objetivo algum critério de coerência. O problema de otimização no método SRC é muito importante para o bom desempenho no que diz respeito a qualidade dos resultados e principalmente ao custo computacional, comparado com os métodos tradicionalmente utilizados na indústria sísmica. Existem várias estratégias de busca para determinar estes parâmetros baseados em buscas sistemáticas e usando algoritmos de otimização, podendo estimar apenas um parâmetro de cada vez, ou dois ou os três parâmetros simultaneamente. Levando em conta a estratégia de busca por meio da aplicação de otimização global, estes três parâmetros podem ser estimados através de dois procedimentos: no primeiro caso os três parâmetros podem ser estimados simultaneamente e no segundo caso inicialmente podem ser determinados simultaneamente dois parâmetros (β0, RPIN) e posteriormente o terceiro parâmetro (RN) usando os valores dos dois parâmetros já conhecidos. Neste trabalho apresenta-se a aplicação e comparação de quatro algoritmos de otimização global para encontrar os parâmetros SRC ótimos, estes são: Simulated Annealing (SA), Very Fast Simulated Annealing (VFSA), Differential Evolution (DE) e Controlled Rando Search - 2 (CRS2). Como resultados importantes são apresentados a aplicação de cada método de otimização e a comparação entre os métodos quanto a eficácia, eficiência e confiabilidade para determinar os melhores parâmetros SRC. Posteriormente, aplicando as estratégias de busca global para a determinação destes parâmetros, por meio do método de otimização VFSA que teve o melhor desempenho foi realizado o empilhamento SRC a partir dos dados Marmousi, isto é, foi realizado um empilhamento SRC usando dois parâmetros (β0, RPIN) estimados por busca global e outro empilhamento SRC usando os três parâmetros (β0, RPIN, RN) também estimados por busca global.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Pós-graduação em Engenharia Mecânica - FEG

Relevância:

100.00% 100.00%

Publicador:

Resumo:

One of several techniques applied to production processes oil is the artificial lift, using equipment in order to reduce the bottom hole pressure, providing a pressure differential, resulting in a flow increase. The choice of the artificial lift method depends on a detailed analysis of the some factors, such as initial costs of installation, maintenance, and the existing conditions in the producing field. The Electrical Submersible Pumping method (ESP) appears to be quite efficient when the objective is to produce high liquid flow rates in both onshore and offshore environments, in adverse conditions of temperature and in the presence of viscous fluids. By definition, ESP is a method of artificial lift in which a subsurface electric motor transforms electrical into mechanical energy to trigger a centrifugal pump of multiple stages, composed of a rotating impeller (rotor) and a stationary diffuser (stator). The pump converts the mechanical energy of the engine into kinetic energy in the form of velocity, which pushes the fluid to the surface. The objective of this work is to implement the optimization method of the flexible polyhedron, known as Modified Simplex Method (MSM) applied to the study of the influence of the modification of the input and output parameters of the centrifugal pump impeller in the channel of a system ESP. In the use of the optimization method by changing the angular parameters of the pump, the resultant data applied to the simulations allowed to obtain optimized values of the Head (lift height), lossless efficiency and the power with differentiated results.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This thesis develops a new technique for composite microstructures projects by the Topology Optimization process, in order to maximize rigidity, making use of Deformation Energy Method and using a refining scheme h-adaptative to obtain a better defining the topological contours of the microstructure. This is done by distributing materials optimally in a region of pre-established project named as Cell Base. In this paper, the Finite Element Method is used to describe the field and for government equation solution. The mesh is refined iteratively refining so that the Finite Element Mesh is made on all the elements which represent solid materials, and all empty elements containing at least one node in a solid material region. The Finite Element Method chosen for the model is the linear triangular three nodes. As for the resolution of the nonlinear programming problem with constraints we were used Augmented Lagrangian method, and a minimization algorithm based on the direction of the Quasi-Newton type and Armijo-Wolfe conditions assisting in the lowering process. The Cell Base that represents the composite is found from the equivalence between a fictional material and a preescribe material, distributed optimally in the project area. The use of the strain energy method is justified for providing a lower computational cost due to a simpler formulation than traditional homogenization method. The results are presented prescription with change, in displacement with change, in volume restriction and from various initial values of relative densities.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cada vez mais, os principais objetivos na indústria é a produção a baixo custo, com a máxima qualidade e com o tempo de fabrico o mais curto possível. Para atingir esta meta, a indústria recorre, frequentemente, às máquinas de comando numérico (CNC), uma vez que com esta tecnologia torna se capaz alcançar uma elevada precisão e um tempo de processamento mais baixo. As máquinas ferramentas CNC podem ser aplicadas em diferentes processos de maquinagem, tais como: torneamento, fresagem, furação, entre outros. De todos estes processos, o mais utilizado é a fresagem devido à sua versatilidade. Utiliza-se normalmente este processo para maquinar materiais metálicos como é o caso do aço e dos ferros fundidos. Neste trabalho, são analisados os efeitos da variação de quatro parâmetros no processo de fresagem (velocidade de corte, velocidade de avanço, penetração radial e penetração axial), individualmente e a interação entre alguns deles, na variação da rugosidade num aço endurecido (aço 12738). Para essa análise são utilizados dois métodos de otimização: o método de Taguchi e o método das superfícies. O primeiro método foi utilizado para diminuir o número de combinações possíveis e, consequentemente, o número de ensaios a realizar é denominado por método de Taguchi. O método das superfícies ou método das superfícies de resposta (RSM) foi utilizado com o intuito de comparar os resultados obtidos com o método de Taguchi, de acordo com alguns trabalhos referidos na bibliografia especializada, o RSM converge mais rapidamente para um valor ótimo. O método de Taguchi é muito conhecido no setor industrial onde é utilizado para o controlo de qualidade. Apresenta conceitos interessantes, tais como robustez e perda de qualidade, sendo bastante útil para identificar variações do sistema de produção, durante o processo industrial, quantificando a variação e permitindo eliminar os fatores indesejáveis. Com este método foi vi construída uma matriz ortogonal L16 e para cada parâmetro foram definidos dois níveis diferentes e realizados dezasseis ensaios. Após cada ensaio, faz-se a medição superficial da rugosidade da peça. Com base nos resultados obtidos das medições da rugosidade é feito um tratamento estatístico dos dados através da análise de variância (Anova) a fim de determinar a influência de cada um dos parâmetros na rugosidade superficial. Verificou-se que a rugosidade mínima medida foi de 1,05m. Neste estudo foi também determinada a contribuição de cada um dos parâmetros de maquinagem e a sua interação. A análise dos valores de “F-ratio” (Anova) revela que os fatores mais importantes são a profundidade de corte radial e da interação entre profundidade de corte radial e profundidade de corte axial para minimizar a rugosidade da superfície. Estes têm contribuições de cerca de 30% e 24%, respetivamente. Numa segunda etapa este mesmo estudo foi realizado pelo método das superfícies, a fim de comparar os resultados por estes dois métodos e verificar qual o melhor método de otimização para minimizar a rugosidade. A metodologia das superfícies de resposta é baseada num conjunto de técnicas matemáticas e estatísticas úteis para modelar e analisar problemas em que a resposta de interesse é influenciada por diversas variáveis e cujo objetivo é otimizar essa resposta. Para este método apenas foram realizados cinco ensaios, ao contrário de Taguchi, uma vez que apenas em cinco ensaios consegue-se valores de rugosidade mais baixos do que a média da rugosidade no método de Taguchi. O valor mais baixo por este método foi de 1,03μm. Assim, conclui-se que RSM é um método de otimização mais adequado do que Taguchi para os ensaios realizados. Foram obtidos melhores resultados num menor número de ensaios, o que implica menos desgaste da ferramenta, menor tempo de processamento e uma redução significativa do material utilizado.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A estimação de parâmetros cinéticos em processos químicos e cromatográficos utilizando técnicas numéricas assistidas por computadores tem conduzido para melhoria da eficiência e o favorecimento da compreensão das fenomenologias envolvidas nos mesmos. Na primeira parte deste trabalho será realizada a modelagem computacional do processo de produção de biodiesel via esterificação, sendo que, o método de otimização estocástica Random Restricted Window (R2W) será correlacionado com os dados experimentais da produção de biodiesel a partir da esterificação do ácido láurico com etanol anidro na presença do catalisador ácido nióbico (Nb2O5). Na segunda parte do mesmo será realizada a modelagem computacional do processo de cromatografia de adsorção (batch process) onde serão correlacionados os dados provenientes dos modelos cinéticos de HASHIM, CHASE e IKM2 com os dados experimentais da adsorção de amoxicilina com quitosana, e também serão correlacionados os dados experimentais da adsorção de Bovine Serum Albumin (BSA) com Streamline DEAE com os dados provenientes de uma nova aplicação do método R2W mediante a implementação de um modelo cinético reversível. Ademais, as constantes cinéticas para cada processo supracitado serão estimadas levando em consideração o valor mínimo da função resíduos quadrados.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O presente trabalho trata do escoamento bifásico em meios porosos heterogêneos de natureza fractal, onde os fluidos são considerados imiscíveis. Os meios porosos são modelados pela equação de Kozeny-Carman Generalizada (KCG), a qual relaciona a porosidade com a permeabilidade do meio através de uma nova lei de potência. Esta equação proposta por nós é capaz de generalizar diferentes modelos existentes na literatura e, portanto, é de uso mais geral. O simulador numérico desenvolvido aqui emprega métodos de diferenças finitas. A evolução temporal é baseada em um esquema de separação de operadores que segue a estratégia clássica chamada de IMPES. Assim, o campo de pressão é calculado implicitamente, enquanto que a equação da saturação da fase molhante é resolvida explicitamente em cada nível de tempo. O método de otimização denominado de DFSANE é utilizado para resolver a equação da pressão. Enfatizamos que o DFSANE nunca foi usado antes no contexto de simulação de reservatórios. Portanto, o seu uso aqui é sem precedentes. Para minimizar difusões numéricas, a equação da saturação é discretizada por um esquema do tipo "upwind", comumente empregado em simuladores numéricos para a recuperação de petróleo, o qual é resolvido explicitamente pelo método Runge-Kutta de quarta ordem. Os resultados das simulações são bastante satisfatórios. De fato, tais resultados mostram que o modelo KCG é capaz de gerar meios porosos heterogêneos, cujas características permitem a captura de fenômenos físicos que, geralmente, são de difícil acesso para muitos simuladores em diferenças finitas clássicas, como o chamado fenômeno de dedilhamento, que ocorre quando a razão de mobilidade (entre as fases fluidas) assume valores adversos. Em todas as simulações apresentadas aqui, consideramos que o problema imiscível é bidimensional, sendo, portanto, o meio poroso caracterizado por campos de permeabilidade e de porosidade definidos em regiões Euclideanas. No entanto, a teoria abordada neste trabalho não impõe restrições para sua aplicação aos problemas tridimensionais.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

No presente trabalho, o modelo de identificação de danos apresentado por Stutz et al. (2005) é utilizado. A contribuição do presente trabalho consiste em avaliar alguns pontos da identificação de danos em vigas e, em seguida, expandir o modelo para identificar danos estruturais em placas. Uma avaliação do comportamento das frequências naturais e da matriz de flexibilidade para uma viga de Euler-Bernoulli simplesmente apoiada, na presença de danos simulados pelo parâmetro de coesão é realizada. Essa análise, permite também o conhecimento das regiões onde há maior sensibilidade ao dano, ajudando a traçar estratégias para melhorar a identificação de danos em regiões que sofrem poucas alterações na presença de falhas estruturais. Comparou-se o comportamento dos dois primeiros modos de vibração da viga simplesmente apoiada na presença de um dano estrutural, com os dois primeiros modos de vibração da estrutura intacta e corrompidos por ruído. Diversos métodos de localização de danos e de otimização são avaliados na tentativa de identificar os danos simulados através do campo de danos proposto por Stutz et al. (2005) na presença de dados ruidosos. Após a apresentação de resultados da identificação de danos obtidos para uma viga de Euler-Bernoulli simplesmente apoiada, uma análise do comportamento das frequências naturais e da matriz de flexibilidade de uma viga de Euler- Bernoulli engastada na presença de danos é apresentada, assim como os resultados de identificação de danos considerando-se diversos cenários e níveis de ruído. Uma importante contribuição do presente trabalho consiste em propor um método de identificação de danos via matriz de flexibilidade onde o campo de defeitos para a placa de Kirchoff é modelado via MEF. Uma análise do comportamento da matriz de flexibilidade devido à presença de danos na placa é apresentada, assim como os resultados numéricos da identificação de danos estruturais com e sem a presença de dados ruidosos. Com a finalidade de reduzir o custo computacional na identificação de danos em estruturas complexas, uma hibridização entre o método de otimização por enxame de particulas (PSO, do inglês, Particle Swarm Optimization) e o método de otimização Levenberg-Marquardt é proposta. Resultados numéricos da hibridização para uma estrutura do tipo placa são apresentados.