890 resultados para Integer Non-Linear Optimization
Resumo:
In this paper guidance laws to intercept stationary and constant velocity targets at a desired impact angle, based on sliding mode control theory, are proposed. The desired impact angle, which is defined in terms of a desired line-of-sight (LOS) angle, is achieved in finite time by selecting the missile's lateral acceleration (latax) to enforce non-singular terminal sliding mode on a switching surface designed using this desired LOS angle and based on non-linear engagement dynamics. Numerical simulation results are presented to validate the proposed guidance laws for different initial engagement geometries and impact angles.
Resumo:
In this paper we first derive a necessary and sufficient condition for a stationary strategy to be the Nash equilibrium of discounted constrained stochastic game under certain assumptions. In this process we also develop a nonlinear (non-convex) optimization problem for a discounted constrained stochastic game. We use the linear best response functions of every player and complementary slackness theorem for linear programs to derive both the optimization problem and the equivalent condition. We then extend this result to average reward constrained stochastic games. Finally, we present a heuristic algorithm motivated by our necessary and sufficient conditions for a discounted cost constrained stochastic game. We numerically observe the convergence of this algorithm to Nash equilibrium. (C) 2015 Elsevier B.V. All rights reserved.
Resumo:
Sequential Monte Carlo methods, also known as particle methods, are a widely used set of computational tools for inference in non-linear non-Gaussian state-space models. In many applications it may be necessary to compute the sensitivity, or derivative, of the optimal filter with respect to the static parameters of the state-space model; for instance, in order to obtain maximum likelihood model parameters of interest, or to compute the optimal controller in an optimal control problem. In Poyiadjis et al. [2011] an original particle algorithm to compute the filter derivative was proposed and it was shown using numerical examples that the particle estimate was numerically stable in the sense that it did not deteriorate over time. In this paper we substantiate this claim with a detailed theoretical study. Lp bounds and a central limit theorem for this particle approximation of the filter derivative are presented. It is further shown that under mixing conditions these Lp bounds and the asymptotic variance characterized by the central limit theorem are uniformly bounded with respect to the time index. We demon- strate the performance predicted by theory with several numerical examples. We also use the particle approximation of the filter derivative to perform online maximum likelihood parameter estimation for a stochastic volatility model.
Resumo:
The work presented here is part of a larger study to identify novel technologies and biomarkers for early Alzheimer disease (AD) detection and it focuses on evaluating the suitability of a new approach for early AD diagnosis by non-invasive methods. The purpose is to examine in a pilot study the potential of applying intelligent algorithms to speech features obtained from suspected patients in order to contribute to the improvement of diagnosis of AD and its degree of severity. In this sense, Artificial Neural Networks (ANN) have been used for the automatic classification of the two classes (AD and control subjects). Two human issues have been analyzed for feature selection: Spontaneous Speech and Emotional Response. Not only linear features but also non-linear ones, such as Fractal Dimension, have been explored. The approach is non invasive, low cost and without any side effects. Obtained experimental results were very satisfactory and promising for early diagnosis and classification of AD patients.
Resumo:
Many engineering applications face the problem of bounding the expected value of a quantity of interest (performance, risk, cost, etc.) that depends on stochastic uncertainties whose probability distribution is not known exactly. Optimal uncertainty quantification (OUQ) is a framework that aims at obtaining the best bound in these situations by explicitly incorporating available information about the distribution. Unfortunately, this often leads to non-convex optimization problems that are numerically expensive to solve.
This thesis emphasizes on efficient numerical algorithms for OUQ problems. It begins by investigating several classes of OUQ problems that can be reformulated as convex optimization problems. Conditions on the objective function and information constraints under which a convex formulation exists are presented. Since the size of the optimization problem can become quite large, solutions for scaling up are also discussed. Finally, the capability of analyzing a practical system through such convex formulations is demonstrated by a numerical example of energy storage placement in power grids.
When an equivalent convex formulation is unavailable, it is possible to find a convex problem that provides a meaningful bound for the original problem, also known as a convex relaxation. As an example, the thesis investigates the setting used in Hoeffding's inequality. The naive formulation requires solving a collection of non-convex polynomial optimization problems whose number grows doubly exponentially. After structures such as symmetry are exploited, it is shown that both the number and the size of the polynomial optimization problems can be reduced significantly. Each polynomial optimization problem is then bounded by its convex relaxation using sums-of-squares. These bounds are found to be tight in all the numerical examples tested in the thesis and are significantly better than Hoeffding's bounds.
Análise global da estabilidade termodinâmica de misturas: um estudo com o método do conjunto gerador
Resumo:
O cálculo do equilíbrio de fases é um problema de grande importância em processos da engenharia, como, por exemplo, na separação por destilação, em processos de extração e simulação da recuperação terciária de petróleo, entre outros. Mas para resolvê-lo é aconselhável que se estude a priori a estabilidade termodinâmica do sistema, a qual consiste em determinar se uma dada mistura se apresenta em uma ou mais fases. Tal problema pode ser abordado como um problema de otimização, conhecido como a minimização da função distância do plano tangente à energia livre de Gibbs molar, onde modelos termodinâmicos, de natureza não convexa e não linear, são utilizados para descrevê-lo. Esse fato tem motivado um grande interesse em técnicas de otimização robustas e eficientes para a resolução de problemas relacionados com a termodinâmica do equilíbrio de fases. Como tem sido ressaltado na literatura, para proporcionar uma completa predição do equilíbrio de fases, faz-se necessário não apenas a determinação do minimizador global da função objetivo do teste de estabilidade, mas também a obtenção de todos os seus pontos estacionários. Assim, o desenvolvimento de metodologias para essa tarefa desafiadora tem se tornado uma nova área de pesquisa da otimização global aplicada à termodinâmica do equilíbrio, com interesses comuns na engenharia química e na engenharia do petróleo. O foco do presente trabalho é uma nova metodologia para resolver o problema do teste de estabilidade. Para isso, usa-se o chamado método do conjunto gerador para realizar buscas do tipo local em uma rede de pontos previamente gerada por buscas globais efetuadas com uma metaheurística populacional, no caso o método do enxame de partículas.Para se obter mais de um ponto estacionário, minimizam-se funções de mérito polarizadas, cujos pólos são os pontos previamente encontrados. A metodologia proposta foi testada na análise de quatorze misturas polares previamente consideradas na literatura. Os resultados mostraram que o método proposto é robusto e eficiente a ponto de encontrar, além do minimizador global, todos os pontos estacionários apontados previamente na literatura, sendo também capaz de detectar, em duas misturas ternárias estudadas, pontos estacionários não obtidos pelo chamado método de análise intervalar, uma técnica confiável e muito difundida na literatura. A análise do teste de estabilidade pela simples utilização do método do enxame de partículas associado à técnica de polarização mencionada acima, para a obtenção de mais de um ponto estacionário (sem a busca local feita pelo método do conjunto gerador em uma dada rede de pontos), constitui outra metodologia para a resolução do problema de interesse. Essa utilização é uma novidade secundária deste trabalho. Tal metodologia simplificada exibiu também uma grande robustez, sendo capaz de encontrar todos os pontos estacionários pesquisados. No entanto, quando comparada com a abordagem mais geral proposta aqui, observou-se que tal simplificação pode, em alguns casos onde a função de mérito apresenta uma geometria mais complexa, consumir um tempo de máquina relativamente grande, dessa forma é menos eficiente.
Resumo:
Atualmente, o crescimento dos problemas de vibrações excessivas sobre pisos mistos (aço-concreto) tem conduzido à necessidade de desenvolvimento de critérios específicos para projetos estruturais submetidos à ação de atividades humanas rítmicas. Com base no desenvolvimento desta dissertação de mestrado, objetiva-se, principalmente, verificar a influência das ligações estruturais (ligações viga-viga), sobre a resposta dinâmica não-linear de pisos mistos (aço-concreto) de edificações, quando submetidos a cargas dinâmicas humanas rítmicas. Deste modo, o carregamento dinâmico empregado para a simulação das atividades humanas sobre o modelo estrutural investigado foi obtido através de testes experimentais com indivíduos praticando atividades rítmicas e não rítmicas. O modelo analisado nesta dissertação corresponde a um piso misto (aço-concreto) com uma área total de 1600m2 e consiste de um ambiente onde serão desenvolvidas atividades de ginástica aeróbica. O sistema estrutural é constituído por lajes de concreto armado apoiadas sobre vigas de aço, simulando o comportamento de um sistema estrutural misto (aço-concreto) com interação total. A metodologia de análise desenvolvida emprega técnicas usuais de discretização presentes no método dos elementos finitos, com base no emprego do programa ANSYS. A modelagem do sistema contempla ligações estruturais do tipo rígidas, semirrígidas e flexíveis. Os valores das acelerações de pico foram comparados com os limites recomendados por normas de projeto, baseando-se em critérios de conforto humano. As conclusões alcançadas ao longo deste trabalho de pesquisa revelam que as ligações estruturais do tipo viga-viga não apresentam influência significativa, no que diz respeito a resposta dinâmica não-linear da estrutura. Por outro lado, as acelerações de pico obtidas com base na análise dinâmica não-linear apresentam valores elevados indicando que o piso misto (aço-concreto) investigado apresenta problemas de vibração excessiva inerentes ao conforto humano.
Resumo:
Neste trabalho o processo não linear de transmissão de calor condução-radiação é abordado num contexto bidimensional plano e simulado com o uso de um esquema linear em diferenças finitas. O problema original é tratado como o limite de uma sequencia de problemas lineares, do tipo condução-convecção. Este limite, cuja existência é comprovada, é facilmente obtido a partir de procedimentos básicos, accessíveis a qualquer estudante de engenharia, permitindo assim o emprego de hipóteses mais realistas, já que não se tem o limitante matemático para a abordagem numérica de uma equação diferencial parcial elíptica. Neste trabalho foi resolvido o problema de condução de calor em regime permanente em uma placa com condições de contorno convectivas e radioativas utilizando-se o software MatLab, vale ressaltar, que a mesma metodologia é aplicável para geometrias mais complexas.
Resumo:
Métodos de otimização que utilizam condições de otimalidade de primeira e/ou segunda ordem são conhecidos por serem eficientes. Comumente, esses métodos iterativos são desenvolvidos e analisados à luz da análise matemática do espaço euclidiano n-dimensional, cuja natureza é de caráter local. Consequentemente, esses métodos levam a algoritmos iterativos que executam apenas as buscas locais. Assim, a aplicação de tais algoritmos para o cálculo de minimizadores globais de uma função não linear,especialmente não-convexas e multimodais, depende fortemente da localização dos pontos de partida. O método de Otimização Global Topográfico é um algoritmo de agrupamento, que utiliza uma abordagem baseada em conceitos elementares da teoria dos grafos, a fim de gerar bons pontos de partida para os métodos de busca local, a partir de pontos distribuídos de modo uniforme no interior da região viável. Este trabalho tem dois objetivos. O primeiro é realizar uma nova abordagem sobre método de Otimização Global Topográfica, onde, pela primeira vez, seus fundamentos são formalmente descritos e suas propriedades básicas são matematicamente comprovadas. Neste contexto, propõe-se uma fórmula semi-empírica para calcular o parâmetro chave deste algoritmo de agrupamento, e, usando um método robusto e eficiente de direções viáveis por pontos-interiores, estendemos o uso do método de Otimização Global Topográfica a problemas com restrições de desigualdade. O segundo objetivo é a aplicação deste método para a análise de estabilidade de fase em misturas termodinâmicas,o qual consiste em determinar se uma dada mistura se apresenta em uma ou mais fases. A solução deste problema de otimização global é necessária para o cálculo do equilíbrio de fases, que é um problema de grande importância em processos da engenharia, como, por exemplo, na separação por destilação, em processos de extração e simulação da recuperação terciária de petróleo, entre outros. Além disso, afim de ter uma avaliação inicial do potencial dessa técnica, primeiro vamos resolver 70 problemas testes, e então comparar o desempenho do método proposto aqui com o solver MIDACO, um poderoso software recentemente introduzido no campo da otimização global.
Resumo:
Os métodos de otimização que adotam condições de otimalidade de primeira e/ou segunda ordem são eficientes e normalmente esses métodos iterativos são desenvolvidos e analisados através da análise matemática do espaço euclidiano n-dimensional, o qual tem caráter local. Esses métodos levam a algoritmos iterativos que são usados para o cálculo de minimizadores globais de uma função não linear, principalmente não-convexas e multimodais, dependendo da posição dos pontos de partida. Método de Otimização Global Topográfico é um algoritmo de agrupamento, o qual é fundamentado nos conceitos elementares da teoria dos grafos, com a finalidade de gerar bons pontos de partida para os métodos de busca local, com base nos pontos distribuídos de modo uniforme no interior da região viável. Este trabalho tem como objetivo a aplicação do método de Otimização Global Topográfica junto com um método robusto e eficaz de direções viáveis por pontos-interiores a problemas de otimização que tem restrições de igualdade e/ou desigualdade lineares e/ou não lineares, que constituem conjuntos viáveis com interiores não vazios. Para cada um destes problemas, é representado também um hiper-retângulo compreendendo cada conjunto viável, onde os pontos amostrais são gerados.
Resumo:
The modelling of the non-linear behaviour of MEMS oscillators is of interest to understand the effects of non-linearities on start-up, limit cycle behaviour and performance metrics such as output frequency and phase noise. This paper proposes an approach to integrate the non-linear modelling of the resonator, transducer and sustaining amplifier in a single numerical modelling environment so that their combined effects may be investigated simultaneously. The paper validates the proposed electrical model of the resonator through open-loop frequency response measurements on an electrically addressed flexural silicon MEMS resonator driven to large motional amplitudes. A square wave oscillator is constructed by embedding the same resonator as the primary frequency determining element. Measurements of output power and output frequency of the square wave oscillator as a function of resonator bias and driving voltage are consistent with model predictions ensuring that the model captures the essential non-linear behaviour of the resonator and the sustaining amplifier in a single mathematical equation. © 2012 IEEE.
Resumo:
One of the major challenges in hig4h-speed fan stages used in compact, embedded propulsion systems is inlet distortion noise. A body-force-based approach for the prediction of multiple-pure-tone (MPT) noise was previously introduced and validated. In this paper, it is employed with the objective of quantifying the effects of non-uniform flow on the generation and propagation of MPT noise. First-of-their-kind back-to-back coupled aero-acoustic computations were carried out using the new approach for conventional and serpentine inlets. Both inlets delivered flow to the same NASA/GE R4 fan rotor at equal corrected mass flow rates. Although the source strength at the fan is increased by 45 dB in sound power level due to the non-uniform inflow, farfield noise for the serpentine inlet duct is increased on average by only 3.1 dBA overall sound pressure level in the forward arc. This is due to the redistribution of acoustic energy to frequencies below 11 times the shaft frequency and the apparent cut-off of tones at higher frequencies including blade-passing tones. The circumferential extent of the inlet swirl distortion at the fan was found to be 2 blade pitches, or 1/11th of the circumference, suggesting a relationship between the circumferential extent of the inlet distortion and the apparent cut-off frequency perceived in the far field. A first-principles-based model of the generation of shock waves from a transonic rotor in non-uniform flow showed that the effects of non-uniform flow on acoustic wave propagation, which cannot be captured by the simplified model, are more dominant than those of inlet flow distortion on source noise. It demonstrated that non-linear, coupled aerodynamic and aeroacoustic computations, such as those presented in this paper, are necessary to assess the propagation through non-uniform mean flow. A parametric study of serpentine inlet designs is underway to quantify these propagation effects. Copyright © 2011 by ASME.
Resumo:
Micro-pore-throat, micro-fracture and low permeability are the most obvious characters of Xifeng ultra-low permeability reservoir, and threshold pressure gradient and medium deformation during the period of oilfield developing results non-linear seepage feature of the formation liquid flowing in the porous medium underground. It is impossible to solve some problems in the ultra-low permeability reservoir development by current Darcy filtration theory and development techniques. In the view of the characters of ultra-low permeability and powerful-diagenesis and fracture up-growth, the paper quantitatively characterizes of through-going scope for reservoir parameters together with some materials such as similarity field outcrop, rock core, drilling, well logging and production dynamic, which provides geological base for further development adjustment. Based on the displacement experiment of different kinds of seepage fluid and oil-water two phases, this paper proves the relationship between threshold pressure gradient and formation permeability in experiment and theory, which is power function and its index is about -1. The variation rule and the mechanism of oil-water two phases threshold pressure gradient are studied. At the same time, based on the experiment of medium deformation, the variation rule of formation physical property parameters and the deformation mechanism are researched, and the influential factors on the medium deformation are analyzed systematically. With elastic unsteady filtration theory, nonlinear mathematical models of the steady and unsteady flow of single phase as well as horizontal well flow and oil-water two phases flow are deduced with the influence of nonlinear factors including threshold pressure gradient and media deformation. The influences of nonlinear factors upon well deliverability and reservoir pressure distribution as well as the saturation variation pattern of oil-water front are analyzed. By means of the researches such as reasonable well pattern, reasonable well array ration, artificial fracture length optimization advisable water flood timing and feasibility of advanced water flooding, it is necessary to find out effective techniques in order to improve development result of this kind of reservoir. This research result develops and improves on low-velocity nonlinear seepage theory, and offers ways to study similar kind of reservoir; it is meaningful to the development of the ultra-low permeability oil and gas reservoir.
Resumo:
The Black Sea ecosystem experienced severe eutrophication-related degradation during the 1970s and 1980s. However, in recent years the Black Sea has shown some signs of recovery which are often attributed to a reduction in nutrient loading. Here, SeaWiFS chlorophyll a (chl a), a proxy for phytoplankton biomass, is used to investigate spatio-temporal patterns in Black Sea phytoplankton dynamics and to explore the potential role of climate in the Black Sea's recovery. Maps of chl a anomalies, calculated relative to the 8 year mean, emphasize spatial and temporal variability of phytoplankton biomass in the Black Sea, particularly between the riverine-influenced Northwest Shelf and the open Black Sea. Evolution of phytoplankton biomass has shown significant spatial variability of persistence of optimal bloom conditions between three major regions of the Black Sea. With the exception of 2001, chl a has generally decreased during our 8 year time-series. However, the winter of 2000–2001 was anomalously warm with low wind stress, resulting in reduced vertical mixing of the water column and retention of nutrients in the photic zone. These conditions were associated with anomalously high levels of chl a throughout much of the open Black Sea during the following spring and summer. The unusual climatic conditions occurring in 2001 may have triggered a shift in the Black Sea's chl a regime. The long-term significance of this recent shift is still uncertain but illustrates a non-linear response to climate forcing that makes future ecosystem changes in the pelagic Black Sea ecosystem difficult to predict.
Resumo:
One of the first attempts to develop a formal model of depth cue integration is to be found in Maloney and Landy's (1989) "human depth combination rule". They advocate that the combination of depth cues by the visual sysetem is best described by a weighted linear model. The present experiments tested whether the linear combination rule applies to the integration of texture and shading. As would be predicted by a linear combination rule, the weight assigned to the shading cue did vary as a function of its curvature value. However, the weight assigned to the texture cue varied systematically as a function of the curvature value of both cues. Here we descrive a non-linear model which provides a better fit to the data. Redescribing the stimuli in terms of depth rather than curvature reduced the goodness of fit for all models tested. These results support the hypothesis that the locus of cue integration is a curvature map, rather than a depth map. We conclude that the linear comination rule does not generalize to the integration of shading and texture, and that for these cues it is likely that integration occurs after the recovery of surface curvature.