166 resultados para Linearization
Resumo:
Saponins are natural soaplike foam-forming compounds widely used in foods, cosmetic and pharmaceutical preparations. In this work foamability and foam lifetime of foams obtained from Ilex paraguariensis unripe fruits were analyzed. Polysorbate 80 and sodium dodecyl sulfate were used as reference surfactants. Aiming a better data understanding a linearized 4-parameters Weibull function was proposed. The mate hydroethanolic extract (ME) and a mate saponin enriched fraction (MSF) afforded foamability and foam lifetime comparable to the synthetic surfactants. The linearization of the Weibull equation allowed the statistical comparison of foam decay curves, improving former mathematical approaches.
Resumo:
Huoli ympäristön tilasta ja fossiilisten polttoaineiden hinnan nousu ovat vauhdittaneet tutkimusta uusien energialähteiden löytämiseksi. Polttokennot ovat yksi lupaavimmista tekniikoista etenkin hajautetun energiantuotannon, varavoimalaitosten sekä liikennevälineiden alueella. Polttokenno on tehonlähteenä kuitenkin hyvin epäideaalinen, ja se asettaa tehoelektroniikalle lukuisia erityisvaatimuksia. Polttokennon kytkeminen sähköverkkoon on tavallisesti toteutettu käyttämällä galvaanisesti erottavaa DC/DC hakkuria sekä vaihtosuuntaajaa sarjassa. Polttokennon kulumisen estämiseksi tehoelektroniikalta vaaditaan tarkkaa polttokennon lähtövirran hallintaa. Perinteisesti virran hallinta on toteutettu säätämällä hakkurin tulovirtaa PI (Proportional and Integral) tai PID (Proportional, Integral and Derivative) -säätimellä. Hakkurin epälineaarisuudesta johtuen tällainen ratkaisu ei välttämättä toimi kaukana linearisointipisteestä. Lisäksi perinteiset säätimet ovat herkkiä mallinnusvirheille. Tässä diplomityössä on esitetty polttokennon jännitettä nostavan hakkurin tilayhtälökeskiarvoistusmenetelmään perustuva malli, sekä malliin perustuva diskreettiaikainen integroiva liukuvan moodin säätö. Esitetty säätö on luonteeltaan epälineaarinen ja se soveltuu epälineaaristen ja heikosti tunnettujen järjestelmien säätämiseen.
Resumo:
Adsorbents functionalized with chelating agents are effective in removal of heavy metals from aqueous solutions. Important properties of such adsorbents are high binding affinity as well as regenerability. In this study, aminopolycarboxylic acid, EDTA and DTPA, were immobilized on the surface of silica gel, chitosan, and their hybrid materials to achieve chelating adsorbents for heavy metals such as Co(II), Ni(II), Cd(II), and Pb(II). New knowledge about the adsorption properties of EDTA- and DTPA-functionalizedadsorbents was obtained. Experimental work showed the effectiveness, regenerability, and stability of the studied adsorbents. Both advantages and disadvantages of the adsorbents were evaluated. For example, the EDTA-functionalized chitosan-silica hybrid materials combined the benefits of the silica gel and chitosan while at the same time diminishing their observed drawbacks. Modeling of adsorption kinetics and isotherms is an important step in design process. Therefore, several kinetic and isotherm models were introduced and applied in this work. Important aspects such as effect of error function, data range, initial guess values, and linearization were discussed and investigated. The selection of the most suitable model was conducted by comparing the experimental and simulated data as well as evaluating the correspondence between the theory behind the model and properties of the adsorbent. In addition, modeling of two-component data was conducted using various extended isotherms. Modeling results for both one- and twocomponent systems supported each other. Finally, application testing of EDTA- and DTPA-functionalized adsorbents was conducted. The most important result was the applicability of DTPA-functionalized silica gel and chitosan in the capturing of Co(II) from its aqueous EDTA-chelate. Moreover, these adsorbents were efficient in various solution matrices. In addition, separation of Ni(II) from Co(II) and Ni(II) and Pb(II) from Co(II) and Cd(II) was observed in two- and multimetal systems. Lastly, prior to their analysis, EDTA- and DTPA-functionalized silica gels were successfully used to preconcentrate metal ions from both pure and salty waters
Resumo:
A control law was designed for a satellite launcher ( rocket ) vehicle using eigenstructure assignment in order that the vehicle tracks a reference attitude and also to decouple the yaw response from roll and pitch manoeuvres and to decouple the pitch response from roll and yaw manoeuvres. The design was based on a complete linear coupled model obtained from the complete vehicle non linear model by linearization at each trajectory point. After all, the design was assessed with the vehicle time varying non-linear model showing a good performance and robustness. The used design method is explained and a case study for the Brazilian satellite launcher ( VLS Rocket ) is reported.
Resumo:
Tässä työssä tutkittiin FE-analyysin soveltamista S960 QC teräksisen I-profiilin kestävyyden määrittämisessä. Työn tavoitteena oli tarkastella nykyisten suunnitteluohjeiden soveltuvuutta ultralujille teräksille ja koota ohjemateriaali I-profiilin optimoimisesta sekä FE-analyysin hyö-dyntämisestä I-profiilin staattisen ja dynaamisen kestävyyden määrittämisessä. I-profiili mitoitettiin ja optimoitiin Eurokoodi 3:ssa esitettyjen PL3 mukaisten mitoitusohjeiden avulla. Rakenteelle suoritettiin Eurokoodi 3:n ja IIW:n mukaiset lommahdus-, kiepahdus- ja vä-symiskestävyystarkastelut. Väsymistarkastelussa sovellettiin nimellisen jännityksen, rakenteelli-sen jännityksen ja tehollisen lovijännityksen menetelmiä sekä murtumismekaniikkaa. Rakenteel-lisen jännityksen menetelmässä sovellettiin lisäksi lineaarista ja parabolista pintaa pitkin ekstra-polointia, paksuuden yli linearisointia sekä Dong:in menetelmää. Lommahdus-, kiepahdus- ja väsymistarkasteluissa hyödynnettiin analyyttistä laskentaa, FE-analyysiä sekä Frank2d sovellusta. Tarkastelujen perusteella voidaan todeta, että analyyttisillä menetelmillä saadaan numeerisia me-netelmiä varmemmalla puolella olevia tuloksia. Lommahdustarkastelussa ero tulosten välillä on suurimmillaan 8 % ja kiepahdustarkastelussa suurimmillaan 20 % mutta väsymistarkastelussa saadut tulokset eroavat keskenään huomattavasti. Väsymistarkastelussa tehollisen lovijännityksen menetelmällä sekä rakenteellisen jännityksen menetelmän Dong:in menetelmällä saadaan huo-mattavasti muita menetelmiä pidempiä kestoikiä, kun taas yksinkertaisemmilla menetelmillä saa-dut kestoiät ovat lyhyempiä. Rakenteen kestävyyden määrittäminen analyyttisillä menetelmillä on melko helppoa, mutta tu-lokset ovat monesti liian konservatiivisia. FE-analyysillä saadaan puolestaan hyvin tarkkoja tu-loksia mallin ollessa yksityiskohtainen. Mallintaminen on kuitenkin aikaa ja resursseja vievää ja vaatii käyttökokemusta. FE-analyysin mahdolliset hyödyt on aina arvioitava tapauskohtaisesti tarkasteltavan geometrian, kuormitusten ja reunaehtojen perusteella.
Resumo:
Stochastic differential equation (SDE) is a differential equation in which some of the terms and its solution are stochastic processes. SDEs play a central role in modeling physical systems like finance, Biology, Engineering, to mention some. In modeling process, the computation of the trajectories (sample paths) of solutions to SDEs is very important. However, the exact solution to a SDE is generally difficult to obtain due to non-differentiability character of realizations of the Brownian motion. There exist approximation methods of solutions of SDE. The solutions will be continuous stochastic processes that represent diffusive dynamics, a common modeling assumption for financial, Biology, physical, environmental systems. This Masters' thesis is an introduction and survey of numerical solution methods for stochastic differential equations. Standard numerical methods, local linearization methods and filtering methods are well described. We compute the root mean square errors for each method from which we propose a better numerical scheme. Stochastic differential equations can be formulated from a given ordinary differential equations. In this thesis, we describe two kind of formulations: parametric and non-parametric techniques. The formulation is based on epidemiological SEIR model. This methods have a tendency of increasing parameters in the constructed SDEs, hence, it requires more data. We compare the two techniques numerically.
Resumo:
Adaptive control systems are one of the most significant research directions of modern control theory. It is well known that every mechanical appliance’s behavior noticeably depends on environmental changes, functioning-mode parameter changes and changes in technical characteristics of internal functional devices. An adaptive controller involved in control process allows reducing an influence of such changes. In spite of this such type of control methods is applied seldom due to specifics of a controller designing. The work presented in this paper shows the design process of the adaptive controller built by Lyapunov’s function method for the Hydraulic Drive. The calculation needed and the modeling were conducting with MATLAB® software including Simulink® and Symbolic Math Toolbox™ etc. In the work there was applied the Jacobi matrix linearization of the object’s mathematical model and derivation of the suitable reference models based on Newton’s characteristic polynomial. The intelligent adaptive to nonlinearities algorithm for solving Lyapunov’s equation was developed. Developed algorithm works properly but considered plant is not met requirement of functioning with. The results showed confirmation that adaptive systems application significantly increases possibilities in use devices and might be used for correction a system’s behavior dynamics.
Resumo:
L'imputation est souvent utilisée dans les enquêtes pour traiter la non-réponse partielle. Il est bien connu que traiter les valeurs imputées comme des valeurs observées entraîne une sous-estimation importante de la variance des estimateurs ponctuels. Pour remédier à ce problème, plusieurs méthodes d'estimation de la variance ont été proposées dans la littérature, dont des méthodes adaptées de rééchantillonnage telles que le Bootstrap et le Jackknife. Nous définissons le concept de double-robustesse pour l'estimation ponctuelle et de variance sous l'approche par modèle de non-réponse et l'approche par modèle d'imputation. Nous mettons l'emphase sur l'estimation de la variance à l'aide du Jackknife qui est souvent utilisé dans la pratique. Nous étudions les propriétés de différents estimateurs de la variance à l'aide du Jackknife pour l'imputation par la régression déterministe ainsi qu'aléatoire. Nous nous penchons d'abord sur le cas de l'échantillon aléatoire simple. Les cas de l'échantillonnage stratifié et à probabilités inégales seront aussi étudiés. Une étude de simulation compare plusieurs méthodes d'estimation de variance à l'aide du Jackknife en terme de biais et de stabilité relative quand la fraction de sondage n'est pas négligeable. Finalement, nous établissons la normalité asymptotique des estimateurs imputés pour l'imputation par régression déterministe et aléatoire.
Resumo:
Les systèmes Matériels/Logiciels deviennent indispensables dans tous les aspects de la vie quotidienne. La présence croissante de ces systèmes dans les différents produits et services incite à trouver des méthodes pour les développer efficacement. Mais une conception efficace de ces systèmes est limitée par plusieurs facteurs, certains d'entre eux sont: la complexité croissante des applications, une augmentation de la densité d'intégration, la nature hétérogène des produits et services, la diminution de temps d’accès au marché. Une modélisation transactionnelle (TLM) est considérée comme un paradigme prometteur permettant de gérer la complexité de conception et fournissant des moyens d’exploration et de validation d'alternatives de conception à des niveaux d’abstraction élevés. Cette recherche propose une méthodologie d’expression de temps dans TLM basée sur une analyse de contraintes temporelles. Nous proposons d'utiliser une combinaison de deux paradigmes de développement pour accélérer la conception: le TLM d'une part et une méthodologie d’expression de temps entre différentes transactions d’autre part. Cette synergie nous permet de combiner dans un seul environnement des méthodes de simulation performantes et des méthodes analytiques formelles. Nous avons proposé un nouvel algorithme de vérification temporelle basé sur la procédure de linéarisation des contraintes de type min/max et une technique d'optimisation afin d'améliorer l'efficacité de l'algorithme. Nous avons complété la description mathématique de tous les types de contraintes présentées dans la littérature. Nous avons développé des méthodes d'exploration et raffinement de système de communication qui nous a permis d'utiliser les algorithmes de vérification temporelle à différents niveaux TLM. Comme il existe plusieurs définitions du TLM, dans le cadre de notre recherche, nous avons défini une méthodologie de spécification et simulation pour des systèmes Matériel/Logiciel basée sur le paradigme de TLM. Dans cette méthodologie plusieurs concepts de modélisation peuvent être considérés séparément. Basée sur l'utilisation des technologies modernes de génie logiciel telles que XML, XSLT, XSD, la programmation orientée objet et plusieurs autres fournies par l’environnement .Net, la méthodologie proposée présente une approche qui rend possible une réutilisation des modèles intermédiaires afin de faire face à la contrainte de temps d’accès au marché. Elle fournit une approche générale dans la modélisation du système qui sépare les différents aspects de conception tels que des modèles de calculs utilisés pour décrire le système à des niveaux d’abstraction multiples. En conséquence, dans le modèle du système nous pouvons clairement identifier la fonctionnalité du système sans les détails reliés aux plateformes de développement et ceci mènera à améliorer la "portabilité" du modèle d'application.
Resumo:
La régression logistique est un modèle de régression linéaire généralisée (GLM) utilisé pour des variables à expliquer binaires. Le modèle cherche à estimer la probabilité de succès de cette variable par la linéarisation de variables explicatives. Lorsque l’objectif est d’estimer le plus précisément l’impact de différents incitatifs d’une campagne marketing (coefficients de la régression logistique), l’identification de la méthode d’estimation la plus précise est recherchée. Nous comparons, avec la méthode MCMC d’échantillonnage par tranche, différentes densités a priori spécifiées selon différents types de densités, paramètres de centralité et paramètres d’échelle. Ces comparaisons sont appliquées sur des échantillons de différentes tailles et générées par différentes probabilités de succès. L’estimateur du maximum de vraisemblance, la méthode de Gelman et celle de Genkin viennent compléter le comparatif. Nos résultats démontrent que trois méthodes d’estimations obtiennent des estimations qui sont globalement plus précises pour les coefficients de la régression logistique : la méthode MCMC d’échantillonnage par tranche avec une densité a priori normale centrée en 0 de variance 3,125, la méthode MCMC d’échantillonnage par tranche avec une densité Student à 3 degrés de liberté aussi centrée en 0 de variance 3,125 ainsi que la méthode de Gelman avec une densité Cauchy centrée en 0 de paramètre d’échelle 2,5.
Resumo:
Most adaptive linearization circuits for the nonlinear amplifier have a feedback loop that returns the output signal oj'tne eunplifier to the lineurizer. The loop delay of the linearizer most be controlled precisely so that the convergence of the linearizer should be assured lot this Letter a delay control circuit is presented. It is a delay lock loop (ULL) with it modified early-lute gate and can he easily applied to a DSP implementation. The proposed DLL circuit is applied to an adaptive linearizer with the use of a polynomial predistorter, and the simulalion for a 16-QAM signal is performed. The simulation results show that the proposed DLL eliminates the delay between the reference input signal and the delayed feedback signal of the linearizing circuit perfectly, so that the predistorter polynomial coefficients converge into the optimum value and a high degree of linearization is achieved
Resumo:
Piecewise linear models systems arise as mathematical models of systems in many practical applications, often from linearization for nonlinear systems. There are two main approaches of dealing with these systems according to their continuous or discrete-time aspects. We propose an approach which is based on the state transformation, more particularly the partition of the phase portrait in different regions where each subregion is modeled as a two-dimensional linear time invariant system. Then the Takagi-Sugeno model, which is a combination of local model is calculated. The simulation results show that the Alpha partition is well-suited for dealing with such a system
Resumo:
Generalizing the notion of an eigenvector, invariant subspaces are frequently used in the context of linear eigenvalue problems, leading to conceptually elegant and numerically stable formulations in applications that require the computation of several eigenvalues and/or eigenvectors. Similar benefits can be expected for polynomial eigenvalue problems, for which the concept of an invariant subspace needs to be replaced by the concept of an invariant pair. Little has been known so far about numerical aspects of such invariant pairs. The aim of this paper is to fill this gap. The behavior of invariant pairs under perturbations of the matrix polynomial is studied and a first-order perturbation expansion is given. From a computational point of view, we investigate how to best extract invariant pairs from a linearization of the matrix polynomial. Moreover, we describe efficient refinement procedures directly based on the polynomial formulation. Numerical experiments with matrix polynomials from a number of applications demonstrate the effectiveness of our extraction and refinement procedures.
Resumo:
This paper presents a controller design scheme for a priori unknown non-linear dynamical processes that are identified via an operating point neurofuzzy system from process data. Based on a neurofuzzy design and model construction algorithm (NeuDec) for a non-linear dynamical process, a neurofuzzy state-space model of controllable form is initially constructed. The control scheme based on closed-loop pole assignment is then utilized to ensure the time invariance and linearization of the state equations so that the system stability can be guaranteed under some mild assumptions, even in the presence of modelling error. The proposed approach requires a known state vector for the application of pole assignment state feedback. For this purpose, a generalized Kalman filtering algorithm with coloured noise is developed on the basis of the neurofuzzy state-space model to obtain an optimal state vector estimation. The derived controller is applied in typical output tracking problems by minimizing the tracking error. Simulation examples are included to demonstrate the operation and effectiveness of the new approach.
Resumo:
A new incremental four-dimensional variational (4D-Var) data assimilation algorithm is introduced. The algorithm does not require the computationally expensive integrations with the nonlinear model in the outer loops. Nonlinearity is accounted for by modifying the linearization trajectory of the observation operator based on integrations with the tangent linear (TL) model. This allows us to update the linearization trajectory of the observation operator in the inner loops at negligible computational cost. As a result the distinction between inner and outer loops is no longer necessary. The key idea on which the proposed 4D-Var method is based is that by using Gaussian quadrature it is possible to get an exact correspondence between the nonlinear time evolution of perturbations and the time evolution in the TL model. It is shown that J-point Gaussian quadrature can be used to derive the exact adjoint-based observation impact equations and furthermore that it is straightforward to account for the effect of multiple outer loops in these equations if the proposed 4D-Var method is used. The method is illustrated using a three-level quasi-geostrophic model and the Lorenz (1996) model.