869 resultados para sparse linear systems
Resumo:
In the present paper we concentrate on solving sequences of nonsymmetric linear systems with block structure arising from compressible flow problems. We attempt to improve the solution process by sharing part of the computational effort throughout the sequence. This is achieved by application of a cheap updating technique for preconditioners which we adapted in order to be used for our applications. Tested on three benchmark compressible flow problems, the strategy speeds up the entire computation with an acceleration being particularly pronounced in phases of instationary behavior.
Resumo:
In der Arbeit werden zunächst die wesentlichsten Fakten über Schiefpolynome wiederholt, der Fokus liegt dabei auf Shift- und q-Shift-Operatoren in Charakteristik Null. Alle für die Arithmetik mit diesen Objekten notwendigen Konzepte und Algorithmen finden sich im ersten Kapitel. Einige der zur Bestimmung von Lösungen notwendigen Daten können aus dem Newtonpolygon, einer den Operatoren zugeordneten geometrischen Figur, abgelesen werden. Die Herleitung dieser Zusammenhänge ist das Thema des zweiten Kapitels der Arbeit, wobei dies insbesondere im q-Shift-Fall in dieser Form neu ist. Das dritte Kapitel beschäftigt sich mit der Bestimmung polynomieller und rationaler Lösungen dieser Operatoren, dabei folgt es im Wesentlichen der Darstellung von Mark van Hoeij. Der für die Faktorisierung von (q-)Shift Operatoren interessanteste Fall sind die sogenannten (q-)hypergeometrischen Lösungen, die direkt zu Rechtsfaktoren erster Ordnung korrespondieren. Im vierten Kapitel wird der van Hoeij-Algorithmus vom Shift- auf den q-Shift-Fall übertragen. Außerdem wird eine deutliche Verbesserung des q-Petkovsek-Algorithmus mit Hilfe der Daten des Newtonpolygons hergeleitet. Das fünfte Kapitel widmet sich der Berechnung allgemeiner Faktoren, wozu zunächst der adjungierte Operator eingeführt wird, der die Berechnung von Linksfaktoren erlaubt. Dann wird ein Algorithmus zur Berechnung von Rechtsfaktoren beliebiger Ordnung dargestellt. Für die praktische Benutzung ist dies allerdings für höhere Ordnungen unpraktikabel. Bei fast allen vorgestellten Algorithmen tritt das Lösen linearer Gleichungssysteme über rationalen Funktionenkörpern als Zwischenschritt auf. Dies ist in den meisten Computeralgebrasystemen nicht befriedigend gelöst. Aus diesem Grund wird im letzten Kapitel ein auf Evaluation und Interpolation basierender Algorithmus zur Lösung dieses Problems vorgestellt, der in allen getesteten Systemen den Standard-Algorithmen deutlich überlegen ist. Alle Algorithmen der Arbeit sind in einem MuPAD-Package implementiert, das der Arbeit beiliegt und eine komfortable Handhabung der auftretenden Objekte erlaubt. Mit diesem Paket können in MuPAD nun viele Probleme gelöst werden, für die es vorher keine Funktionen gab.
Resumo:
In der vorliegenden Dissertation wurden kreuzkonjugierte organische Verbindungen basierend auf Diazafluorenmethyliden- sowie Dipyridylmethyliden-Bausteinen synthetisiert, die zum einen photoredoxaktive Metallfragmente komplexieren können und zum anderen erweiterte π-konjugierte Pfade auf der Grundlage von Alkineinheiten ermöglichen. Das kreuzkonjugierte Motiv wurde über die Kupplung von Alkineinheiten an halogenierte Methyliden-Einheiten, den so genannten Dibromolefinen, zugänglich gemacht. Zur Synthese von Dibromolefinen wurden verschiedene Methoden untersucht. Literaturbekannte Methoden wie die Wittig-Reaktion und ihre Modifikationen sowie die Corey-Fuchs-Reaktion konnten für die Diazafluoreneinheit nicht erfolgreich angewendet werden. Bei einer mikrowellenunterstützten Reaktion konnte sowohl ausgehend von Diazafluoren-9-on als auch von Di-2-pyridylketon eine Dibromolefinierung (55 % und 65 %) erreicht werden. Die Eignung der Mikrowellenstrahlung für Dibromolefinierungsreaktionen nach Corey und Fuchs wurde weiterhin an verschiedenen Aldehyden und Ketonen untersucht. In den meisten Fällen konnten gute bis sehr gute Ergebnisse erzielt werden. Durch die erfolgreiche Synthese von Dibromolefinen über Mikrowellensynthese wurde die Realisierung von diversen π-konjugierten Systemen möglich. Dies erfolgte exemplarisch durch die Kupplung der Alkine 5-Ethinyl-2,2’-bipyridin, 1-(Ferrocenylethinyl)-4-(ethinyl)benzol, Tri(tolyl)propin sowie der TIPS- und TMS-Acetylene. Neben der Vielfalt an Möglichkeiten zur Funktionalisierung von Dipyridyl- und Diazafluorenbausteinen zeigte sich zudem, dass sogar räumlich anspruchsvolle Verbindungen wie die geminale angeordneten voluminösen Tri(tolyl)propinyl-Substituenten an der Doppelbindung erfolgreich synthetisiert werden können. Die Koordinationseigenschaften der neu synthetisierten Verbindungen konnten durch Umsetzungen der Diazafluoren- und Dipyridylverbindungen mit PdCl2 und [RuCl2(bpy)2] erfolgreich gezeigt werden. Im Hinblick auf die Herstellung von Funktionsmaterialien eignen sich die Endiin-Strukturmotive aufgrund von diversen Variationsmöglichkeiten wie Koordination von Übergangsmetallen sowie Funktionalisierung der Peripherie gut. Dadurch können die elektronischen Eigenschaften wie die Absorption oder elektrochemische Potentiale der Verbindungen modifiziert werden. Die UV/Vis-Spektren der neu synthetisierten Verbindungen zeigen, dass Absorptionen in längerwelligen Bereichen durch Verlängerung des Konjugationspfades gesteuert werden können. Zudem lassen sich weitere photophysikalische Eigenschaften wie MC-, LC-, LMCT- oder MLCT-Übergänge durch Koordination von Metallen generieren. Die elektrochemischen Potentiale der Dipyridyl- und Diazafluorenbausteine konnten durch Anbindung von verschiedenen Substituenten beeinflusst werden. Es zeigte sich, dass sich die Reduktionswellen im Vergleich zu denen der Ketone zu niedrigeren Potentialen verschieben, wenn Alkine an die Dipyridylmethyliden- und Diazafluorenmethyliden-Bausteine geknüpft wurden. Zudem konnte beobachtet werden, dass die Signale nicht immer reversibel sind. Insbesondere die Dipyridylverbindungen zeichneten sich durch irreversible Reduktionswellen aus. Die Realisierung von π-konjugierten Systemen gelang auch mit cyclischen kohlenstoffbasierten Verbindungen. Über das separat synthetisierte 2,2’-Diethinyltolan konnte eine cyclische Verbindung, ein dehydroannulen-radialenisches System, erfolgreich hergestellt werden. Die Koordination von redoxaktiven Metallzentren wie [Ru(bpy)2] konnte für diese Verbindung ebenfalls erfolgreich gezeigt werden. Die elektronische Wechselwirkung zwischen dem Metallzentrum und dem dehydroannulenischen System könnte sowohl über theoretische Methoden (zeitabhängige Dichtefunktionaltheorie) als auch experimentell wie z. B. über transiente Absorptionsspektroskopie untersucht werden. Diese zukünftig durchzuführenden Untersuchungen können Aufschluss über die Ladungstransferraten und -dauer geben. Im Hinblick auf die Realisierung von Modellverbindungen für molekulare Drähte wurden lineare Systeme basierend auf der Diazafluoreneinheit synthetisiert. Zur Synthese von derartigen Systemen war es zunächst notwendig, die Dibromolefine unsymmetrisch zu alkinylieren. Die unsymmetrische Substitution gestaltete sich als Herausforderung, da eine Einfachkupplung mit einem Acetylen nicht möglich war. In den meisten Fällen wurden zweifach substituierte Spezies mit den identischen Alkinen erhalten. Die besten Ausbeuten konnten durch die konsekutive Zugabe von TIPS-Acetylen und darauffolgend TMS-Acetylen in die Reaktionsmischung erhalten werden. Offenbar spielt der räumliche Anspruch des Erstsubstituenten in diesem Zusammenhang eine Rolle. Die selektive Entschützung der unterschiedlich silylierten Verbindungen erfolgte mit K2CO3 in MeOH/THF (1:1). Die oxidative Homokupplungsreaktion erfolgte ohne Isolierung der entschützten Spezies, da diese instabil ist und zur Polymerisation neigt. Aufgrund der Instabilität der entschützten Spezies sowie möglichen Nebenreaktionen waren die Ausbeuten sowohl bei der TIPS-geschützten Verbindung als auch bei der TTP-geschützten Verbindung gering. Versuche, lineare Systeme von dipyridylbasierten Verbindungen zu erhalten, schlugen fehl. Die π-konjugierten Systeme lassen aufgrund der effektiven Überlappung der beteiligten π-Orbitale hohe Ladungsträgermobilitäten vermuten. Die im Rahmen dieser Arbeit synthetisierten Verbindungen könnten mit Schwefelverbindungen die Anbindung an Elektroden zulassen, worüber die Leitfähigkeiten der Verbindungen gemessen werden könnten.
Resumo:
Exercises and solutions in LaTex
Resumo:
Exercises and solutions in PDF
Resumo:
Se presenta el análisis de sensibilidad de un modelo de percepción de marca y ajuste de la inversión en marketing desarrollado en el Laboratorio de Simulación de la Universidad del Rosario. Este trabajo de grado consta de una introducción al tema de análisis de sensibilidad y su complementario el análisis de incertidumbre. Se pasa a mostrar ambos análisis usando un ejemplo simple de aplicación del modelo mediante la aplicación exhaustiva y rigurosa de los pasos descritos en la primera parte. Luego se hace una discusión de la problemática de medición de magnitudes que prueba ser el factor más complejo de la aplicación del modelo en el contexto práctico y finalmente se dan conclusiones sobre los resultados de los análisis.
Resumo:
We consider the application of the conjugate gradient method to the solution of large, symmetric indefinite linear systems. Special emphasis is put on the use of constraint preconditioners and a new factorization that can reduce the number of flops required by the preconditioning step. Results concerning the eigenvalues of the preconditioned matrix and its minimum polynomial are given. Numerical experiments validate these conclusions.
Resumo:
The use of special units for logarithmic ratio quantities is reviewed. The neper is used with a natural logarithm (logarithm to the base e) to express the logarithm of the amplitude ratio of two pure sinusoidal signals, particularly in the context of linear systems where it is desired to represent the gain or loss in amplitude of a single-frequency signal between the input and output. The bel, and its more commonly used submultiple, the decibel, are used with a decadic logarithm (logarithm to the base 10) to measure the ratio of two power-like quantities, such as a mean square signal or a mean square sound pressure in acoustics. Thus two distinctly different quantities are involved. In this review we define the quantities first, without reference to the units, as is standard practice in any system of quantities and units. We show that two different definitions of the quantity power level, or logarithmic power ratio, are possible. We show that this leads to two different interpretations for the meaning and numerical values of the units bel and decibel. We review the question of which of these alternative definitions is actually used, or is used by implication, by workers in the field. Finally, we discuss the relative advantages of the alternative definitions.
Nonlinear system identification using particle swarm optimisation tuned radial basis function models
Resumo:
A novel particle swarm optimisation (PSO) tuned radial basis function (RBF) network model is proposed for identification of non-linear systems. At each stage of orthogonal forward regression (OFR) model construction process, PSO is adopted to tune one RBF unit's centre vector and diagonal covariance matrix by minimising the leave-one-out (LOO) mean square error (MSE). This PSO aided OFR automatically determines how many tunable RBF nodes are sufficient for modelling. Compared with the-state-of-the-art local regularisation assisted orthogonal least squares algorithm based on the LOO MSE criterion for constructing fixed-node RBF network models, the PSO tuned RBF model construction produces more parsimonious RBF models with better generalisation performance and is often more efficient in model construction. The effectiveness of the proposed PSO aided OFR algorithm for constructing tunable node RBF models is demonstrated using three real data sets.
Resumo:
Data assimilation algorithms are a crucial part of operational systems in numerical weather prediction, hydrology and climate science, but are also important for dynamical reconstruction in medical applications and quality control for manufacturing processes. Usually, a variety of diverse measurement data are employed to determine the state of the atmosphere or to a wider system including land and oceans. Modern data assimilation systems use more and more remote sensing data, in particular radiances measured by satellites, radar data and integrated water vapor measurements via GPS/GNSS signals. The inversion of some of these measurements are ill-posed in the classical sense, i.e. the inverse of the operator H which maps the state onto the data is unbounded. In this case, the use of such data can lead to significant instabilities of data assimilation algorithms. The goal of this work is to provide a rigorous mathematical analysis of the instability of well-known data assimilation methods. Here, we will restrict our attention to particular linear systems, in which the instability can be explicitly analyzed. We investigate the three-dimensional variational assimilation and four-dimensional variational assimilation. A theory for the instability is developed using the classical theory of ill-posed problems in a Banach space framework. Further, we demonstrate by numerical examples that instabilities can and will occur, including an example from dynamic magnetic tomography.
Resumo:
A two-stage linear-in-the-parameter model construction algorithm is proposed aimed at noisy two-class classification problems. The purpose of the first stage is to produce a prefiltered signal that is used as the desired output for the second stage which constructs a sparse linear-in-the-parameter classifier. The prefiltering stage is a two-level process aimed at maximizing a model's generalization capability, in which a new elastic-net model identification algorithm using singular value decomposition is employed at the lower level, and then, two regularization parameters are optimized using a particle-swarm-optimization algorithm at the upper level by minimizing the leave-one-out (LOO) misclassification rate. It is shown that the LOO misclassification rate based on the resultant prefiltered signal can be analytically computed without splitting the data set, and the associated computational cost is minimal due to orthogonality. The second stage of sparse classifier construction is based on orthogonal forward regression with the D-optimality algorithm. Extensive simulations of this approach for noisy data sets illustrate the competitiveness of this approach to classification of noisy data problems.
Resumo:
A novel two-stage construction algorithm for linear-in-the-parameters classifier is proposed, aiming at noisy two-class classification problems. The purpose of the first stage is to produce a prefiltered signal that is used as the desired output for the second stage to construct a sparse linear-in-the-parameters classifier. For the first stage learning of generating the prefiltered signal, a two-level algorithm is introduced to maximise the model's generalisation capability, in which an elastic net model identification algorithm using singular value decomposition is employed at the lower level while the two regularisation parameters are selected by maximising the Bayesian evidence using a particle swarm optimization algorithm. Analysis is provided to demonstrate how “Occam's razor” is embodied in this approach. The second stage of sparse classifier construction is based on an orthogonal forward regression with the D-optimality algorithm. Extensive experimental results demonstrate that the proposed approach is effective and yields competitive results for noisy data sets.
Resumo:
With the prospect of exascale computing, computational methods requiring only local data become especially attractive. Consequently, the typical domain decomposition of atmospheric models means horizontally-explicit vertically-implicit (HEVI) time-stepping schemes warrant further attention. In this analysis, Runge-Kutta implicit-explicit schemes from the literature are analysed for their stability and accuracy using a von Neumann stability analysis of two linear systems. Attention is paid to the numerical phase to indicate the behaviour of phase and group velocities. Where the analysis is tractable, analytically derived expressions are considered. For more complicated cases, amplification factors have been numerically generated and the associated amplitudes and phase diagnosed. Analysis of a system describing acoustic waves has necessitated attributing the three resultant eigenvalues to the three physical modes of the system. To do so, a series of algorithms has been devised to track the eigenvalues across the frequency space. The result enables analysis of whether the schemes exactly preserve the non-divergent mode; and whether there is evidence of spurious reversal in the direction of group velocities or asymmetry in the damping for the pair of acoustic modes. Frequency ranges that span next-generation high-resolution weather models to coarse-resolution climate models are considered; and a comparison is made of errors accumulated from multiple stability-constrained shorter time-steps from the HEVI scheme with a single integration from a fully implicit scheme over the same time interval. Two schemes, “Trap2(2,3,2)” and “UJ3(1,3,2)”, both already used in atmospheric models, are identified as offering consistently good stability and representation of phase across all the analyses. Furthermore, according to a simple measure of computational cost, “Trap2(2,3,2)” is the least expensive.
Resumo:
We present models for the upper-mantle velocity structure beneath SE and Central Brazil using independent tomographic inversions of P- and S-wave relative arrival-time residuals (including core phases) from teleseismic earthquakes. The events were recorded by a total of 92 stations deployed through different projects, institutions and time periods during the years 1992-2004. Our results show correlations with the main tectonic structures and reveal new anomalies not yet observed in previous works. All interpretations are based on robust anomalies, which appear in the different inversions for P-and S-waves. The resolution is variable through our study volume and has been analyzed through different theoretical test inversions. High-velocity anomalies are observed in the western portion of the Sao Francisco Craton, supporting the hypothesis that this Craton was part of a major Neoproterozoic plate (San Franciscan Plate). Low-velocity anomalies beneath the Tocantins Province (mainly fold belts between the Amazon and Sao Francisco Cratons) are interpreted as due to lithospheric thinning, which is consistent with the good correlation between intraplate seismicity and low-velocity anomalies in this region. Our results show that the basement of the Parana Basin is formed by several blocks, separated by suture zones, according to model of Milani & Ramos. The slab of the Nazca Plate can be observed as a high-velocity anomaly beneath the Parana Basin, between the depths of 700 and 1200 km. Further, we confirm the low-velocity anomaly in the NE area of the Parana Basin which has been interpreted by VanDecar et al. as a fossil conduct of the Tristan da Cunha Plume related to the Parana flood basalt eruptions during the opening of the South Atlantic.
Resumo:
This work deals with a mathematical fundament for digital signal processing under point view of interval mathematics. Intend treat the open problem of precision and repesention of data in digital systems, with a intertval version of signals representation. Signals processing is a rich and complex area, therefore, this work makes a cutting with focus in systems linear invariant in the time. A vast literature in the area exists, but, some concepts in interval mathematics need to be redefined or to be elaborated for the construction of a solid theory of interval signal processing. We will construct a basic fundaments for signal processing in the interval version, such as basic properties linearity, stability, causality, a version to intervalar of linear systems e its properties. They will be presented interval versions of the convolution and the Z-transform. Will be made analysis of convergences of systems using interval Z-transform , a essentially interval distance, interval complex numbers , application in a interval filter.