7 resultados para BENCHMARK
em Universitätsbibliothek Kassel, Universität Kassel, Germany
Resumo:
Während der letzten 20 Jahre hat sich das Periodensystem bis zu den Elementen 114 und 116 erweitert. Diese sind kernphysikalisch nachgewiesen, so dass jetzt die chemische Untersuchung an erster Selle steht. Nachdem sich das Periodensystem bis zum Element 108 so verhält, wie man es dem Periodensystem nach annimmt, wird in dieser Arbeit die Chemie des Elements 112 untersucht. Dabei geht es um die Adsorptionsenergie auf einer Gold-Ober fläche, weil dies der physikalisch/chemische Prozess ist, der bei der Analyse angewandt wird. Die Methode, die in dieser Arbeit angwandt wird, ist die relativistische Dichtefunktionalmethode. Im ersten Teil wird das Vielkörperproblem in allgemeiner Form behandelt, und im zweiten die grundlegenden Eigenschaften und Formulierungen der Dichtefunktionaltheorie. Die Arbeit beschreibt zwei prinzipiell unterschiedliche Ansätze, wie die Adsorptionsenergie berechnet werden kann. Zum einen ist es die sogenannte Clustermethode, bei der ein Atom auf ein relativ kleines Cluster aufgebracht und dessen Adsorptionsenergie berechnet wird. Wenn es gelingt, die Konvergenz mit der Größe des Clusters zu erreichen, sollte dies zu einem Wert für die Adsorptionsenergie führen. Leider zeigt sich in den Rechnungen, dass aufgrund des zeitlichen Aufwandes die Konvergenz für die Clusterrechnungen nicht erreicht wird. Es werden sehr ausführlich die drei verschiedenen Adsorptionsplätze, die Top-, die Brücken- und die Muldenposition, berechnet. Sehr viel mehr Erfolg erzielt man mit der Einbettungsmethode, bei der ein kleiner Cluster von vielen weiteren Atomen an den Positionen, die sie im Festkörpers auf die Adsorptionsenergie soweit sichergestellt ist, dass physikalisch-chemisch gute Ergebnisse erzielt werden. Alle hier gennanten Rechnungen sowohl mit der Cluster- wie mit der Einbettungsmethode verlangen sehr, sehr lange Rechenzeiten, die, wie oben bereits erwähnt, nicht zu einer Konvergenz für die Clusterrechnungen ausreichten. In der Arbeit wird bei allen Rechnungen sehr detailliert auf die Abhängigkeit von den möglichen Basissätzen eingegangen, die ebenfalls in entscheidender Weise zur Länge und Qualität der Rechnungen beitragen. Die auskonvergierten Rechnungen werden in der Form von Potentialkurven, Density of States (DOS), Overlap Populations sowie Partial Crystal Overlap Populations analysiert. Im Ergebnis zeigt sich, dass die Adsoptionsenergie für das Element 112 auf einer Goldoberfläche ca. 0.2 eV niedriger ist als die Adsorption von Quecksilber auf der gleichen Ober fläche. Mit diesem Ergebnis haben die experimentellen Kernchemiker einen Wert an der Hand, mit dem sie eine Anhaltspunkt haben, wo sie bei den Messungen die wenigen zu erwartenden Ereignisse finden können.
Resumo:
In the present paper we concentrate on solving sequences of nonsymmetric linear systems with block structure arising from compressible flow problems. We attempt to improve the solution process by sharing part of the computational effort throughout the sequence. This is achieved by application of a cheap updating technique for preconditioners which we adapted in order to be used for our applications. Tested on three benchmark compressible flow problems, the strategy speeds up the entire computation with an acceleration being particularly pronounced in phases of instationary behavior.
Resumo:
We report on the solution of the Hartree-Fock equations for the ground state of the H_2 molecule using the finite element method. Both the Hartree-Fock and the Poisson equations are solved with this method to an accuracy of 10^-8 using only 26 x 11 grid points in two dimensions. A 41 x 16 grid gives a new Hartree-Fock benchmark to ten-figure accuracy.
Resumo:
Relativistic density functional theory is widely applied in molecular calculations with heavy atoms, where relativistic and correlation effects are on the same footing. Variational stability of the Dirac Hamiltonian is a very important field of research from the beginning of relativistic molecular calculations on, among efforts for accuracy, efficiency, and density functional formulation, etc. Approximations of one- or two-component methods and searching for suitable basis sets are two major means for good projection power against the negative continuum. The minimax two-component spinor linear combination of atomic orbitals (LCAO) is applied in the present work for both light and super-heavy one-electron systems, providing good approximations in the whole energy spectrum, being close to the benchmark minimax finite element method (FEM) values and without spurious and contaminated states, in contrast to the presence of these artifacts in the traditional four-component spinor LCAO. The variational stability assures that minimax LCAO is bounded from below. New balanced basis sets, kinetic and potential defect balanced (TVDB), following the minimax idea, are applied with the Dirac Hamiltonian. Its performance in the same super-heavy one-electron quasi-molecules shows also very good projection capability against variational collapse, as the minimax LCAO is taken as the best projection to compare with. The TVDB method has twice as many basis coefficients as four-component spinor LCAO, which becomes now linear and overcomes the disadvantage of great time-consumption in the minimax method. The calculation with both the TVDB method and the traditional LCAO method for the dimers with elements in group 11 of the periodic table investigates their difference. New bigger basis sets are constructed than in previous research, achieving high accuracy within the functionals involved. Their difference in total energy is much smaller than the basis incompleteness error, showing that the traditional four-spinor LCAO keeps enough projection power from the numerical atomic orbitals and is suitable in research on relativistic quantum chemistry. In scattering investigations for the same comparison purpose, the failure of the traditional LCAO method of providing a stable spectrum with increasing size of basis sets is contrasted to the TVDB method, which contains no spurious states already without pre-orthogonalization of basis sets. Keeping the same conditions including the accuracy of matrix elements shows that the variational instability prevails over the linear dependence of the basis sets. The success of the TVDB method manifests its capability not only in relativistic quantum chemistry but also for scattering and under the influence of strong external electronic and magnetic fields. The good accuracy in total energy with large basis sets and the good projection property encourage wider research on different molecules, with better functionals, and on small effects.
Resumo:
Research on transition-metal nanoalloy clusters composed of a few atoms is fascinating by their unusual properties due to the interplay among the structure, chemical order and magnetism. Such nanoalloy clusters, can be used to construct nanometer devices for technological applications by manipulating their remarkable magnetic, chemical and optical properties. Determining the nanoscopic features exhibited by the magnetic alloy clusters signifies the need for a systematic global and local exploration of their potential-energy surface in order to identify all the relevant energetically low-lying magnetic isomers. In this thesis the sampling of the potential-energy surface has been performed by employing the state-of-the-art spin-polarized density-functional theory in combination with graph theory and the basin-hopping global optimization techniques. This combination is vital for a quantitative analysis of the quantum mechanical energetics. The first approach, i.e., spin-polarized density-functional theory together with the graph theory method, is applied to study the Fe$_m$Rh$_n$ and Co$_m$Pd$_n$ clusters having $N = m+n \leq 8$ atoms. We carried out a thorough and systematic sampling of the potential-energy surface by taking into account all possible initial cluster topologies, all different distributions of the two kinds of atoms within the cluster, the entire concentration range between the pure limits, and different initial magnetic configurations such as ferro- and anti-ferromagnetic coupling. The remarkable magnetic properties shown by FeRh and CoPd nanoclusters are attributed to the extremely reduced coordination number together with the charge transfer from 3$d$ to 4$d$ elements. The second approach, i.e., spin-polarized density-functional theory together with the basin-hopping method is applied to study the small Fe$_6$, Fe$_3$Rh$_3$ and Rh$_6$ and the larger Fe$_{13}$, Fe$_6$Rh$_7$ and Rh$_{13}$ clusters as illustrative benchmark systems. This method is able to identify the true ground-state structures of Fe$_6$ and Fe$_3$Rh$_3$ which were not obtained by using the first approach. However, both approaches predict a similar cluster for the ground-state of Rh$_6$. Moreover, the computational time taken by this approach is found to be significantly lower than the first approach. The ground-state structure of Fe$_{13}$ cluster is found to be an icosahedral structure, whereas Rh$_{13}$ and Fe$_6$Rh$_7$ isomers relax into cage-like and layered-like structures, respectively. All the clusters display a remarkable variety of structural and magnetic behaviors. It is observed that the isomers having similar shape with small distortion with respect to each other can exhibit quite different magnetic moments. This has been interpreted as a probable artifact of spin-rotational symmetry breaking introduced by the spin-polarized GGA. The possibility of combining the spin-polarized density-functional theory with some other global optimization techniques such as minima-hopping method could be the next step in this direction. This combination is expected to be an ideal sampling approach having the advantage of avoiding efficiently the search over irrelevant regions of the potential energy surface.
Resumo:
Im Rahmen der Dichtefunktionaltheorie wurden Orbitalfunktionale wie z.B. B3LYP entwickelt. Diese lassen sich mit der „optimized effective potential“ – Methode selbstkonsistent auswerten. Während sie früher nur im 1D-Fall genau berechnet werden konnte, entwickelten Kümmel und Perdew eine Methode, bei der das OEP-Problem unter Verwendung einer Differentialgleichung selbstkonsistent gelöst werden kann. In dieser Arbeit wird ein Finite-Elemente-Mehrgitter-Verfahren verwendet, um die entstehenden Gleichungen zu lösen und damit Energien, Dichten und Ionisationsenergien für Atome und zweiatomige Moleküle zu berechnen. Als Orbitalfunktional wird dabei der „exakte Austausch“ verwendet; das Programm ist aber leicht auf jedes beliebige Funktional erweiterbar. Für das Be-Atom ließ sich mit 8.Ordnung –FEM die Gesamtenergien etwa um 2 Größenordnungen genauer berechnen als der Finite-Differenzen-Code von Makmal et al. Für die Eigenwerte und die Eigenschaften der Atome N und Ne wurde die Genauigkeit anderer numerischer Methoden erreicht. Die Rechenzeit wuchs erwartungsgemäß linear mit der Punktzahl. Trotz recht langsamer scf-Konvergenz wurden für das Molekül LiH Genauigkeiten wie bei FD und bei HF um 2-3 Größenordnungen bessere als mit Basismethoden erzielt. Damit zeigt sich, dass auf diese Weise benchmark-Rechnungen durchgeführt werden können. Diese dürften wegen der schnellen Konvergenz über der Punktzahl und dem geringen Zeitaufwand auch auf schwerere Systeme ausweitbar sein.
Resumo:
In den letzten Jahrzehnten haben sich makroskalige hydrologische Modelle als wichtige Werkzeuge etabliert um den Zustand der globalen erneuerbaren Süßwasserressourcen flächendeckend bewerten können. Sie werden heutzutage eingesetzt um eine große Bandbreite wissenschaftlicher Fragestellungen zu beantworten, insbesondere hinsichtlich der Auswirkungen anthropogener Einflüsse auf das natürliche Abflussregime oder der Auswirkungen des globalen Wandels und Klimawandels auf die Ressource Wasser. Diese Auswirkungen lassen sich durch verschiedenste wasserbezogene Kenngrößen abschätzen, wie z.B. erneuerbare (Grund-)Wasserressourcen, Hochwasserrisiko, Dürren, Wasserstress und Wasserknappheit. Die Weiterentwicklung makroskaliger hydrologischer Modelle wurde insbesondere durch stetig steigende Rechenkapazitäten begünstigt, aber auch durch die zunehmende Verfügbarkeit von Fernerkundungsdaten und abgeleiteten Datenprodukten, die genutzt werden können, um die Modelle anzutreiben und zu verbessern. Wie alle makro- bis globalskaligen Modellierungsansätze unterliegen makroskalige hydrologische Simulationen erheblichen Unsicherheiten, die (i) auf räumliche Eingabedatensätze, wie z.B. meteorologische Größen oder Landoberflächenparameter, und (ii) im Besonderen auf die (oftmals) vereinfachte Abbildung physikalischer Prozesse im Modell zurückzuführen sind. Angesichts dieser Unsicherheiten ist es unabdingbar, die tatsächliche Anwendbarkeit und Prognosefähigkeit der Modelle unter diversen klimatischen und physiographischen Bedingungen zu überprüfen. Bisher wurden die meisten Evaluierungsstudien jedoch lediglich in wenigen, großen Flusseinzugsgebieten durchgeführt oder fokussierten auf kontinentalen Wasserflüssen. Dies steht im Kontrast zu vielen Anwendungsstudien, deren Analysen und Aussagen auf simulierten Zustandsgrößen und Flüssen in deutlich feinerer räumlicher Auflösung (Gridzelle) basieren. Den Kern der Dissertation bildet eine umfangreiche Evaluierung der generellen Anwendbarkeit des globalen hydrologischen Modells WaterGAP3 für die Simulation von monatlichen Abflussregimen und Niedrig- und Hochwasserabflüssen auf Basis von mehr als 2400 Durchflussmessreihen für den Zeitraum 1958-2010. Die betrachteten Flusseinzugsgebiete repräsentieren ein breites Spektrum klimatischer und physiographischer Bedingungen, die Einzugsgebietsgröße reicht von 3000 bis zu mehreren Millionen Quadratkilometern. Die Modellevaluierung hat dabei zwei Zielsetzungen: Erstens soll die erzielte Modellgüte als Bezugswert dienen gegen den jegliche weiteren Modellverbesserungen verglichen werden können. Zweitens soll eine Methode zur diagnostischen Modellevaluierung entwickelt und getestet werden, die eindeutige Ansatzpunkte zur Modellverbesserung aufzeigen soll, falls die Modellgüte unzureichend ist. Hierzu werden komplementäre Modellgütemaße mit neun Gebietsparametern verknüpft, welche die klimatischen und physiographischen Bedingungen sowie den Grad anthropogener Beeinflussung in den einzelnen Einzugsgebieten quantifizieren. WaterGAP3 erzielt eine mittlere bis hohe Modellgüte für die Simulation von sowohl monatlichen Abflussregimen als auch Niedrig- und Hochwasserabflüssen, jedoch sind für alle betrachteten Modellgütemaße deutliche räumliche Muster erkennbar. Von den neun betrachteten Gebietseigenschaften weisen insbesondere der Ariditätsgrad und die mittlere Gebietsneigung einen starken Einfluss auf die Modellgüte auf. Das Modell tendiert zur Überschätzung des jährlichen Abflussvolumens mit steigender Aridität. Dieses Verhalten ist charakteristisch für makroskalige hydrologische Modelle und ist auf die unzureichende Abbildung von Prozessen der Abflussbildung und –konzentration in wasserlimitierten Gebieten zurückzuführen. In steilen Einzugsgebieten wird eine geringe Modellgüte hinsichtlich der Abbildung von monatlicher Abflussvariabilität und zeitlicher Dynamik festgestellt, die sich auch in der Güte der Niedrig- und Hochwassersimulation widerspiegelt. Diese Beobachtung weist auf notwendige Modellverbesserungen in Bezug auf (i) die Aufteilung des Gesamtabflusses in schnelle und verzögerte Abflusskomponente und (ii) die Berechnung der Fließgeschwindigkeit im Gerinne hin. Die im Rahmen der Dissertation entwickelte Methode zur diagnostischen Modellevaluierung durch Verknüpfung von komplementären Modellgütemaßen und Einzugsgebietseigenschaften wurde exemplarisch am Beispiel des WaterGAP3 Modells erprobt. Die Methode hat sich als effizientes Werkzeug erwiesen, um räumliche Muster in der Modellgüte zu erklären und Defizite in der Modellstruktur zu identifizieren. Die entwickelte Methode ist generell für jedes hydrologische Modell anwendbar. Sie ist jedoch insbesondere für makroskalige Modelle und multi-basin Studien relevant, da sie das Fehlen von feldspezifischen Kenntnissen und gezielten Messkampagnen, auf die üblicherweise in der Einzugsgebietsmodellierung zurückgegriffen wird, teilweise ausgleichen kann.