1000 resultados para Korrelierte Elektronensysteme, Festkörperphysik, Hubbard-Modell, Dynamische Molekularfeld-Theorie
Resumo:
Es gibt kaum eine präzisere Beschreibung der Natur als die durch das Standardmodell der Elementarteilchen (SM). Es ist in der Lage bis auf wenige Ausnahmen, die Physik der Materie- und Austauschfelder zu beschreiben. Dennoch ist man interessiert an einer umfassenderen Theorie, die beispielsweise auch die Gravitation mit einbezieht, Neutrinooszillationen beschreibt, und die darüber hinaus auch weitere offene Fragen klärt. Um dieser Theorie ein Stück näher zu kommen, befasst sich die vorliegende Arbeit mit einem effektiven Potenzreihenansatz zur Beschreibung der Physik des Standardmodells und neuer Phänomene. Mit Hilfe eines Massenparameters und einem Satz neuer Kopplungskonstanten wird die Neue Physik parametrisiert. In niedrigster Ordnung erhält man das bekannte SM, Terme höherer Ordnung in der Kopplungskonstanten beschreiben die Effekte jenseits des SMs. Aus gewissen Symmetrie-Anforderungen heraus ergibt sich eine definierte Anzahl von effektiven Operatoren mit Massendimension sechs, die den hier vorgestellten Rechnungen zugrunde liegen. Wir berechnen zunächst für eine bestimmte Auswahl von Prozessen zugehörige Zerfallsbreiten bzw. Wirkungsquerschnitte in einem Modell, welches das SM um einen einzigen neuen effektiven Operator erweitertet. Unter der Annahme, dass der zusätzliche Beitrag zur Observablen innerhalb des experimentellen Messfehlers ist, geben wir anhand von vorliegenden experimentellen Ergebnissen aus leptonischen und semileptonischen Präzisionsmessungen Ausschlussgrenzen der neuen Kopplungen in Abhängigkeit von dem Massenparameter an. Die hier angeführten Resultate versetzen Physiker zum Einen in die Lage zu beurteilen, bei welchen gemessenen Observablen eine Erhöhung der Präzision sinnvoll ist, um bessere Ausschlussgrenzen angeben zu können. Zum anderen erhält man einen Anhaltspunkt, welche Prozesse im Hinblick auf Entdeckungen Neuer Physik interessant sind.
Resumo:
Die vorliegende Arbeit untersucht die Möglichkeiten und Limitierungen der MR-Lungenbildgebung mit hyperpolarisiertem 3-He bei gegenüber üblichen Magnetfeldstärken reduzierten magnetischen Führungsfeldern. Dabei werden insbesondere auch die funktionellen Bildgebungstechniken (dynamische Bildgebung, diffusionsgewichtete Bildgebung und Bestimmung des Sauerstoff-Partialdrucks) berücksichtigt. Experimentell geschieht dies durch in vivo Messungen an einem 0.1 T-Ganzkörpertomographen. Zur systematischen Untersuchung der MR-Bildgebung unter dem Einfluss diffundierender Kontrastmittel werden analytische Simulationen, Monte-Carlo-Studien und Referenzexperimente durchgeführt. Hier wird das Augenmerk besonders auf den Einfluss von Diffusions- und Suszeptibilitätsartefakten auf die morphologische und die diffusionsgewichtete Bildgebung gerichtet. Die Entwicklung und der Vergleich verschiedener Konzepte zur Erzeugung von MR-Führungsmagnetfeldern führt zur Erfindung eines neuartigen Prinzips zur weiträumigen Homogenisierung von Magnetfeldern. Die Umsetzung dieses Prinzips erfolgt in Form eines besonders kompakten Transportbehälters für kernspinpolarisierte Edelgase. Die Arbeit beinhaltet eine ausführliche Diskussion der MR-Bildgebungstechnik in Theorie und Praxis, um die Anknüpfungspunkte an die angestellten Untersuchungen herauszuarbeiten. Teile dieser Studien wurden von der Europäischen Raumfahrtorganisation ESA finanziert (Contract No.15308/01/NL/PA).
Resumo:
Precision measurements of phenomena related to fermion mixing require the inclusion of higher order corrections in the calculation of corresponding theoretical predictions. For this, a complete renormalization scheme for models that allow for fermion mixing is highly required. The correct treatment of unstable particles makes this task difficult and yet, no satisfactory and general solution can be found in the literature. In the present work, we study the renormalization of the fermion Lagrange density with Dirac and Majorana particles in models that involve mixing. The first part of the thesis provides a general renormalization prescription for the Lagrangian, while the second one is an application to specific models. In a general framework, using the on-shell renormalization scheme, we identify the physical mass and the decay width of a fermion from its full propagator. The so-called wave function renormalization constants are determined such that the subtracted propagator is diagonal on-shell. As a consequence of absorptive parts in the self-energy, the constants that are supposed to renormalize the incoming fermion and the outgoing antifermion are different from the ones that should renormalize the outgoing fermion and the incoming antifermion and not related by hermiticity, as desired. Instead of defining field renormalization constants identical to the wave function renormalization ones, we differentiate the two by a set of finite constants. Using the additional freedom offered by this finite difference, we investigate the possibility of defining field renormalization constants related by hermiticity. We show that for Dirac fermions, unless the model has very special features, the hermiticity condition leads to ill-defined matrix elements due to self-energy corrections of external legs. In the case of Majorana fermions, the constraints for the model are less restrictive. Here one might have a better chance to define field renormalization constants related by hermiticity. After analysing the complete renormalized Lagrangian in a general theory including vector and scalar bosons with arbitrary renormalizable interactions, we consider two specific models: quark mixing in the electroweak Standard Model and mixing of Majorana neutrinos in the seesaw mechanism. A counter term for fermion mixing matrices can not be fixed by only taking into account self-energy corrections or fermion field renormalization constants. The presence of unstable particles in the theory can lead to a non-unitary renormalized mixing matrix or to a gauge parameter dependence in its counter term. Therefore, we propose to determine the mixing matrix counter term by fixing the complete correction terms for a physical process to experimental measurements. As an example, we calculate the decay rate of a top quark and of a heavy neutrino. We provide in each of the chosen models sample calculations that can be easily extended to other theories.
Resumo:
Der niederländische Astronom Willem de Sitter ist bekannt für seine inzwischen berühmte Kontroverse mit Einstein von 1916 bis 1918, worin die relativistische Kosmologie begründet wurde. In diesem Kontext wird sein Name mit dem von ihm geschaffenen kosmologischen Modell verbunden, welches er als Gegenbeispiel zu Einsteins physikalischer Intuition schuf. Obwohl diese Debatte schon in wissenschaftshistorischen Arbeiten analysiert wurde, hat de Sitters Rolle in der Rezeption und dem Verbreiten der allgemeinen Relativitätstheorie bislang in der Hauptrichtung der Einstein-Studien noch nicht die ihr zustehende Aufmerksamkeit erhalten. Die vorliegende Untersuchung zielt darauf ab, seine zentrale Wichtigkeit für die Forschung zur ART innerhalb der Leidener Community aufzuzeigen. Wie Eddington war de Sitter einer der wenigen Astronomen, die sowohl hinreichende Ausbildung als auch nötige Interessen vereinten, um zum einen die spezielle und zum anderen die allgemeine Relativitätstheorie zu verfolgen. Er befasste sich zunächst 1911 mit dem Relativitätsprinzip (Einsteins erstes Postulat der SRT); zwei Jahre später fand er einen Nachweis für die Konstanz der Lichtgeschwindigkeit (Einsteins zweites Postulat). De Sitters Interesse an Gravitationstheorien reicht sogar noch weiter zurück und lässt sich bis 1908 zurückverfolgen. Überdies verfolgte er Einsteins Versuche, einen feldtheoretischen Ansatz für die Gravitation zu konstruieren, inklusive der kontroversen Einstein-Grossmann Theorie von 1913. Diese Umstände zeigen deutlich, dass de Sitters bekannteres Werk zur ART eine Konsequenz seiner vorausgegangenen Forschungen war und kein Resultat einer plötzlichen, erst 1916 einsetzenden Beschäftigung mit Einsteins Relativitätstheorie.
Resumo:
Die Wirksamkeit einer Vakzine ist von vielen Parametern abhängig. Dazu gehören unter anderen: das ausgewählte Antigen, die Formulation in der das Antigen benutzt wird sowie die Applikationsroute. Antigen-kodierende Ribonukleinsäuren (RNA) gilt heutzutage als eine sichere und effiziente Alternative zu traditionellen Impfstoff-Formulierungen, wie Peptiden, rekombinanten Proteinen, viralen Systemen oder DNA basierten Impfstoffen. Bezüglich des Applikationsortes repräsentiert der Lymphknoten ein optimales Milieu für die Interaktion zwischen antigenpräsentierenden Zellen und T-Zellen. Vor diesem Hintergrund war die Zielsetzung dieser Arbeit, ein auf direktem in vivo Transfer von Antigen-kodierender in vitro transkribierter RNA (IVT-RNA) basierendes Impfverfahren zu entwickeln, zu charakterisieren und auf seine anti-tumorale Wirksamkeit zu testen. In der vorliegenden Arbeit konnte gezeigt werden, dass dendritische Zellen (DCs) in vitro hocheffizient mit IVT-RNA transfiziert werden können und eine hohe stimulatorische Kapazität besitzen. Durch Sequenzmodifikation der IVT-RNA konnten wir die Transkriptstabilität und Translationseffizienz erhöhen was zu einer Steigerung der stimulatorischen Kapazität in vivo führte. Darüber hinaus untersuchten wir die Auswirkung der Insertion eines Signalpeptides 5’ sowie einer C-terminalen transmembran- und zytosolischen-Domäne eines MHC-Klasse-I-Moleküls am 3’ der Antigen-kodierenden Sequenz auf die Effizienz der MHC-Klasse-I und -II Präsentation. Wir konnten in vitro und in vivo nachweisen, dass diese Modifikation zu einer gesteigerten, simultanen Stimulation von antigenspezifischen CD4+ und CD8+ T-Zellen führt. Auf der Basis der optimierten Vektorkassetten etablierten wir die intranodale (i.n.) Transfektion von antigenpräsentierenden Zellen in der Maus. Dazu nutzten wir verschiedene Reportersysteme (eGFP-RNA, fluoreszensmarkierte RNA) und konnten zeigen, dass die intranodale Applikation von IVT-RNA zu selektiven Transfektion und Maturation lymphknotenresidenter DCs führt. Zur Untersuchung der immunologischen Effekte wurden in erster Linie auf Influenza-Hemagglutinin-A und Ovalbumin basierende Modellantigensysteme verwendet. Beide Antigene wurden als Antigen-MHC-Fusionskonstrukte genutzt. Als Responderzellen wurden TCR-transgene Lymphozyten verwendet, die MHC-Klasse-I oder -Klasse-II restringierte Epitope des Influenza-Hemagglutinin-A bzw. des Ovalbumin-Proteins erkennen. Wir konnten in vivo zeigen, dass die intranodale Immunisierung mit IVT-RNA zu einer effizienten Stimulation und Expansion von antigenspezifischen CD4+ und CD8+ T-Zellen in einer dosisabhängigen Weise führt. Funktionell konnte gezeigt werden, dass diese T-Zellen Zytokine sezernieren und zur Zytolyse befähigt sind. Wir waren in der Lage durch repetitive i.n. RNA Immunisierung ein ‚Priming’ CD8+ T-Zellen in naiven Mäusen sowohl gegen virale als auch gegen Tumor assoziierte Antigene zu erreichen. Die geprimten T-Zellen waren befähigt eine zytolytische Aktivität gegen mit spezifischem Peptid beladene Targetzellen zu generieren. Darüber hinaus waren wir in der Lage Gedächtnisszellen expandieren zu können. Abschließend konnten wir in Tumormodellen sowohl in prophylaktischen als auch in therapeutischen Experimenten zeigen dass die i.n. RNA Vakzination die Potenz zur Induktion einer anti-tumoralen Immunität besitzt.
Resumo:
Biologische Membranen sind Fettmolekül-Doppelschichten, die sich wie zweidimensionale Flüssigkeiten verhalten. Die Energie einer solchen fluiden Oberfläche kann häufig mit Hilfe eines Hamiltonians beschrieben werden, der invariant unter Reparametrisierungen der Oberfläche ist und nur von ihrer Geometrie abhängt. Beiträge innerer Freiheitsgrade und der Umgebung können in den Formalismus mit einbezogen werden. Dieser Ansatz wird in der vorliegenden Arbeit dazu verwendet, die Mechanik fluider Membranen und ähnlicher Oberflächen zu untersuchen. Spannungen und Drehmomente in der Oberfläche lassen sich durch kovariante Tensoren ausdrücken. Diese können dann z. B. dazu verwendet werden, die Gleichgewichtsposition der Kontaktlinie zu bestimmen, an der sich zwei aneinander haftende Oberflächen voneinander trennen. Mit Ausnahme von Kapillarphänomenen ist die Oberflächenenergie nicht nur abhängig von Translationen der Kontaktlinie, sondern auch von Änderungen in der Steigung oder sogar Krümmung. Die sich ergebenden Randbedingungen entsprechen den Gleichgewichtsbedingungen an Kräfte und Drehmomente, falls sich die Kontaktlinie frei bewegen kann. Wenn eine der Oberflächen starr ist, muss die Variation lokal dieser Fläche folgen. Spannungen und Drehmomente tragen dann zu einer einzigen Gleichgewichtsbedingung bei; ihre Beiträge können nicht mehr einzeln identifiziert werden. Um quantitative Aussagen über das Verhalten einer fluiden Oberfläche zu machen, müssen ihre elastischen Eigenschaften bekannt sein. Der "Nanotrommel"-Versuchsaufbau ermöglicht es, Membraneigenschaften lokal zu untersuchen: Er besteht aus einer porenüberspannenden Membran, die während des Experiments durch die Spitze eines Rasterkraftmikroskops in die Pore gedrückt wird. Der lineare Verlauf der resultierenden Kraft-Abstands-Kurven kann mit Hilfe der in dieser Arbeit entwickelten Theorie reproduziert werden, wenn der Einfluss von Adhäsion zwischen Spitze und Membran vernachlässigt wird. Bezieht man diesen Effekt in die Rechnungen mit ein, ändert sich das Resultat erheblich: Kraft-Abstands-Kurven sind nicht länger linear, Hysterese und nichtverschwindende Trennkräfte treten auf. Die Voraussagen der Rechnungen könnten in zukünftigen Experimenten dazu verwendet werden, Parameter wie die Biegesteifigkeit der Membran mit einer Auflösung im Nanometerbereich zu bestimmen. Wenn die Materialeigenschaften bekannt sind, können Probleme der Membranmechanik genauer betrachtet werden. Oberflächenvermittelte Wechselwirkungen sind in diesem Zusammenhang ein interessantes Beispiel. Mit Hilfe des oben erwähnten Spannungstensors können analytische Ausdrücke für die krümmungsvermittelte Kraft zwischen zwei Teilchen, die z. B. Proteine repräsentieren, hergeleitet werden. Zusätzlich wird das Gleichgewicht der Kräfte und Drehmomente genutzt, um mehrere Bedingungen an die Geometrie der Membran abzuleiten. Für den Fall zweier unendlich langer Zylinder auf der Membran werden diese Bedingungen zusammen mit Profilberechnungen kombiniert, um quantitative Aussagen über die Wechselwirkung zu treffen. Theorie und Experiment stoßen an ihre Grenzen, wenn es darum geht, die Relevanz von krümmungsvermittelten Wechselwirkungen in der biologischen Zelle korrekt zu beurteilen. In einem solchen Fall bieten Computersimulationen einen alternativen Ansatz: Die hier präsentierten Simulationen sagen voraus, dass Proteine zusammenfinden und Membranbläschen (Vesikel) bilden können, sobald jedes der Proteine eine Mindestkrümmung in der Membran induziert. Der Radius der Vesikel hängt dabei stark von der lokal aufgeprägten Krümmung ab. Das Resultat der Simulationen wird in dieser Arbeit durch ein approximatives theoretisches Modell qualitativ bestätigt.
Resumo:
Habitusbildung im Studium der Sozialpädagogik. Eine explorative Studie zur Strukturtypik studentischer Professionalisierungsprozesse Die qualitativ-empirische Studie untersucht die als studentischen und pädagogischen Habitus bezeichnete pädagogische Professionalisierung im Studium. Das zugrunde gelegte strukturtheoretische Modell einer professionalisierten sozialpädagogischen Praxis ist eine widersprüchliche Einheit von Theorie- und Fallverstehen. Schütze (1996) analysiert das im Kern paradoxale Verhältnis zwischen Professionellen und Klientel, die widersprüchliche Handlungslogik der Profession und die Konsequenzen ihrer herrschaftlicher Kontexte. In Oevermanns Skizze einer revidierten Theorie professionalisierten Handelns (1996) werden wissenschaftliches Verstehen und hermeneutisches Fallverstehen zur Grundlage des professionalisierten Handelns. Von besonderer Bedeutung ist Oevermanns Konzeption der stellvertretenden Deutung, der Deutung des latenten Sinns einer Interaktion, einer Handlung, einer latenten Sinnstrukur. Aus objektiv-hermeneutischer Sicht sind die Handlungsspielräume einer je konkreten Lebenspraxis durch Regeln gesetzt, bereits die Welt sozialer Regeln bestimmt Möglichkeiten und Folgen einer Handlung, nicht erst die Lebenspraxis. Die Kontrastierung von vier Fallrekonstruktionen mündet in der Formulierung zweier Strukturtypen. Beim Strukturtyp 1, „Scheitern der Habitusformation durch Verweigerung von Emergenz“, wird eine auf ein, maximal zwei sozialpädagogische Handlungsfelder gerichtete Berufskonzeption ausgeformt. Neue Inhalte, die sich nicht widerspruchsfrei in dieses minimalistische Konzept sozialer Praxis integrieren lassen, werden abgewehrt. Das Strukturpotential, das in dieser krisenhaften Übergangssituation angesprochen wird mit dem Anspruch, neue perzeptions- und handlungsleitende Sinnstrukturen zu bilden, stagniert in biografisch bewährten Bearbeitungsstrategien. Für die Fallstrukturgesetzlichkeit des Strukturtyps 2, „Krisenbearbeitung und Transformation biografietypischer Strukturen“, ist ein hohes Potential, in einem Prozess der Emergenz Krisen durch neue Handlungs- und Sinnstrukturen zu lösen, signifikant. Die gelingende Habitusformation vollzieht sich dort, wo diese emergenten Strukturen in die Vermitteltheit einer professionalisierten Routine überführt werden. Die Rückbindung der Strukturtypen an die Studienmodelle des „wissenschaftlich gebildeten Praktikers“ und des fallrekonstruktiven Modells fundiert die These, dass der durch die Einsozialisation in ein hermeneutisches Fallverstehen eröffnete Bildungsprozess vertiefte Kenntnisse um Lebensgesetzlichkeiten, Regelkenntnisse und eine entmystifizierte Haltung zur Theorie als einer „verwissenschaftlichten Rationalität“ vermittelt.
Resumo:
In this thesis a mathematical model was derived that describes the charge and energy transport in semiconductor devices like transistors. Moreover, numerical simulations of these physical processes are performed. In order to accomplish this, methods of theoretical physics, functional analysis, numerical mathematics and computer programming are applied. After an introduction to the status quo of semiconductor device simulation methods and a brief review of historical facts up to now, the attention is shifted to the construction of a model, which serves as the basis of the subsequent derivations in the thesis. Thereby the starting point is an important equation of the theory of dilute gases. From this equation the model equations are derived and specified by means of a series expansion method. This is done in a multi-stage derivation process, which is mainly taken from a scientific paper and which does not constitute the focus of this thesis. In the following phase we specify the mathematical setting and make precise the model assumptions. Thereby we make use of methods of functional analysis. Since the equations we deal with are coupled, we are concerned with a nonstandard problem. In contrary, the theory of scalar elliptic equations is established meanwhile. Subsequently, we are preoccupied with the numerical discretization of the equations. A special finite-element method is used for the discretization. This special approach has to be done in order to make the numerical results appropriate for practical application. By a series of transformations from the discrete model we derive a system of algebraic equations that are eligible for numerical evaluation. Using self-made computer programs we solve the equations to get approximate solutions. These programs are based on new and specialized iteration procedures that are developed and thoroughly tested within the frame of this research work. Due to their importance and their novel status, they are explained and demonstrated in detail. We compare these new iterations with a standard method that is complemented by a feature to fit in the current context. A further innovation is the computation of solutions in three-dimensional domains, which are still rare. Special attention is paid to applicability of the 3D simulation tools. The programs are designed to have justifiable working complexity. The simulation results of some models of contemporary semiconductor devices are shown and detailed comments on the results are given. Eventually, we make a prospect on future development and enhancements of the models and of the algorithms that we used.
Resumo:
Bei der amyotrophen Lateralsklerose 1 (ALS1) handelt es sich um eine altersabhängige Motoneuronenerkrankung, die durch Mutationen im Gen der Cu/Zn-Superoxid Dismutase (hSOD1mut) ausgelöst wird. Die toxischen Eigen¬schaften von hSOD1mut (z. B. Aggregations- oder oxidative Stress-Hypothese) und der Einfluss wildtypischer hSOD1 (hSOD1WT) auf den Krankheitsverlauf sind weithin ungeklärt. Das Ziel dieser Arbeit war es, die Auswirkungen von hSOD1mut-hSOD1WT-Heterodimeren im Vergleich zu mutanten Homodimeren auf die Pathogenese der ALS1 zu untersuchen. Nachdem gezeigt werden konnte, dass es in humanen Zellen in der Tat zu einer Bil¬dung hetero- und homodimerer mutanter hSOD1-Spezies kommt, wurden Dimerfusionsproteine aus zwei hSOD1-Monomeren generiert, die durch einen flexiblen Peptidlinker verbunden und C-terminal mit eGFP markiert waren. Neben hSOD1WT-WT wurden hSOD1mut-mut- und hSOD1mut-WT-Dimere mit vier verschiedenen hSOD1-Mu¬tanten untersucht. Die biochemische Charakterisierung zeigte, dass alle Dimere, die wildtyp-ähnliche hSOD1mut enthielten, eine Dismutaseaktivität aufwiesen. Im Gegensatz dazu war das Homodimer aus zwei metalldefizienten hSOD1G85R inaktiv, wobei interessanterweise hSOD1G85R mit hSOD1WT ein Dismutase-aktives Dimer bilden konnte. Sowohl in Zellkultursystemen als auch in einem C. elegans-Modell bildeten alle mutanten Homodimere vermehrt Aggregate im Vergleich zu den dazugehörigen Heterodimeren. Dieses Aggregationsverhalten korrelierte aber nicht mit der Toxizität der Dimerproteine in Überlebensassays und einer C. elegans Bewe¬gungs¬analyse. In diesen funktionellen Studien assoziierte die Toxizität der dimeren Fusionsproteine mit der enzy¬matischen Aktivität. In Übereinstimmung mit diesen Ergebnissen konnte gezeigt werden, dass hSOD1WT nicht in hSOD1mut-abhängigen Aggregaten vorkommt. Die Ergebnisse dieser Studie sprechen gegen die Aggregation als primäre toxische Eigen¬schaft der hSOD1mut und unterstützen die oxidative Stress-Hypothese. Dis¬mutase-inaktive hSOD1mut können eine untypische Enzymaktivität durch die Heterodimerisierung mit hSODWT erlangen, die auf diese Weise maßgeblich an der Pathogenese der ALS1 beteiligt sein könnte.
Resumo:
This thesis describes experiments which investigate ultracold atom ensembles in an optical lattice. Such quantum gases are powerful models for solid state physics. Several novel methods are demonstrated that probe the special properties of strongly correlated states in lattice potentials. Of these, quantum noise spectroscopy reveals spatial correlations in such states, which are hidden when using the usual methods of probing atomic gases. Another spectroscopic technique makes it possible to demonstrate the existence of a shell structure of regions with constant densities. Such coexisting phases separated by sharp boundaries had been theoretically predicted for the Mott insulating state. The tunneling processes in the optical lattice in the strongly correlated regime are probed by preparing the ensemble in an optical superlattice potential. This allows the time-resolved observation of the tunneling dynamics, and makes it possible to directly identify correlated tunneling processes.
Resumo:
Coupled-cluster theory provides one of the most successful concepts in electronic-structure theory. This work covers the parallelization of coupled-cluster energies, gradients, and second derivatives and its application to selected large-scale chemical problems, beside the more practical aspects such as the publication and support of the quantum-chemistry package ACES II MAB and the design and development of a computational environment optimized for coupled-cluster calculations. The main objective of this thesis was to extend the range of applicability of coupled-cluster models to larger molecular systems and their properties and therefore to bring large-scale coupled-cluster calculations into day-to-day routine of computational chemistry. A straightforward strategy for the parallelization of CCSD and CCSD(T) energies, gradients, and second derivatives has been outlined and implemented for closed-shell and open-shell references. Starting from the highly efficient serial implementation of the ACES II MAB computer code an adaptation for affordable workstation clusters has been obtained by parallelizing the most time-consuming steps of the algorithms. Benchmark calculations for systems with up to 1300 basis functions and the presented applications show that the resulting algorithm for energies, gradients and second derivatives at the CCSD and CCSD(T) level of theory exhibits good scaling with the number of processors and substantially extends the range of applicability. Within the framework of the ’High accuracy Extrapolated Ab initio Thermochemistry’ (HEAT) protocols effects of increased basis-set size and higher excitations in the coupled- cluster expansion were investigated. The HEAT scheme was generalized for molecules containing second-row atoms in the case of vinyl chloride. This allowed the different experimental reported values to be discriminated. In the case of the benzene molecule it was shown that even for molecules of this size chemical accuracy can be achieved. Near-quantitative agreement with experiment (about 2 ppm deviation) for the prediction of fluorine-19 nuclear magnetic shielding constants can be achieved by employing the CCSD(T) model together with large basis sets at accurate equilibrium geometries if vibrational averaging and temperature corrections via second-order vibrational perturbation theory are considered. Applying a very similar level of theory for the calculation of the carbon-13 NMR chemical shifts of benzene resulted in quantitative agreement with experimental gas-phase data. The NMR chemical shift study for the bridgehead 1-adamantyl cation at the CCSD(T) level resolved earlier discrepancies of lower-level theoretical treatment. The equilibrium structure of diacetylene has been determined based on the combination of experimental rotational constants of thirteen isotopic species and zero-point vibrational corrections calculated at various quantum-chemical levels. These empirical equilibrium structures agree to within 0.1 pm irrespective of the theoretical level employed. High-level quantum-chemical calculations on the hyperfine structure parameters of the cyanopolyynes were found to be in excellent agreement with experiment. Finally, the theoretically most accurate determination of the molecular equilibrium structure of ferrocene to date is presented.
Resumo:
Quantenchemische Untersuchungen von Atomen und Molekülen haben in den letzten Jahren durch die systematische Erweiterung der Methoden und Computerresourcen zunehmend für die Interpretation und Vorhersage experimenteller Ergebnisse an Bedeutung gewonnen. Relativistische Effekte in der Chemie werden zum Beispiel für die gelbe Farbe von Gold und den flüssigen Aggregatzustand von Quecksilber verantwortlich gemacht und müssen daher in quantenchemischen Rechnungen berücksichtigt werden. Relativistische Effekte sind bei leichten Elementen oft so klein, daß sie in vielen quantenchemischen Betrachtungen vernachlässigt werden. Dennoch sind es gerade diese Beiträge, die verbleibende Abweichungen von noch so genauen nichtrelativistischen Rechnungen von ebenso genauen experimentellen Ergebnissen ausmachen können. Relativistische Effekte können auf viele Arten in quantenchemischen Rechnungen berücksichtigt werden. Eine Möglichkeit ist die Störungstheorie. Ein derartiger Ansatz ist die Mass-velocity-Darwin-Näherung, ein anderer die Direkte Störungstheorie. Hier entspricht die relativistische Energiekorrektur erster Ordnung der ersten Ableitung der Energie nach einem relativistischen Störparameter. Für eine Bestimmung der Gleichgewichtsstruktur eines Moleküls müssen die Kräfte auf die Atomkerne bestimmt werden. Diese entsprechen einer ersten Ableitung der Gesamtenergie nach den Kernkoordinaten. Eine Einbeziehung der relativistischen Effekte auf diese Kräfte erfordert daher die gemischte zweite Ableitung der Energie nach dem relativistischen Störparameter und den Kernkoordinaten. Diese relativistischen Korrekturen wurden in dem quantenchemischen Programmpaket ACES2 implementiert. Ein Resultat dieser Arbeit ist, daß nun erstmalig eine Implementierung analytischer Gradienten für die Berechnung relativistischer Korrekturen zu Strukturparametern mit Hilfe der relativistischen Störungstheorie für den Coupled-Cluster-Ansatz bereit steht. Die Coupled-Cluster-Theorie eignet sich besonders gut für die hochgenaue Vorhersage von molekularen Eigenschaften, wie der Gleichgewichtsstruktur. Im Rahmen dieser Arbeit wurde die Basissatzabhängigkeit der relativistischen Beiträge zu Energien, Strukturparametern und harmonischen Schwingungsfrequenzen im Detail untersucht. Für die hier untersuchten Moleküle sind die relativistischen Effekte und Effekte aufgrund der Elektronenkorrelation nicht additiv, so verkürzt die Berücksichtigung relativistischer Effekte bei Hartree-Fock-Rechnungen die Bindung in den Hydrogenhalogeniden, während die Einbeziehung der Elektronenkorrelation durch CCSD(T)-Rechnungen zu einer verlängerten Bindung im Fluorwasserstoff und weniger stark ausgeprägten Korrekturen im Chlor- und Bromwasserstoff führt. Für die anderen hier untersuchten mehratomigen Moleküle findet sich kein einheitlicher Trend; dies unterstreicht die Notwendigkeit expliziter Rechnungen. Damit steht ein leistungsfähiges und vielseitiges Werkzeug für die Berechnung relativistischer Korrekturen auf verschiedenste molekulare Eigenschaften zur Verfügung, das mit modernen, systematisch verbesserbaren quantenchemischen Methoden verknüpft ist. Hiermit ist es möglich, hochgenaue Rechnungen zur Vorhersage und Interpretation von Experimenten durchzuführen.
Resumo:
Die vorliegende Arbeit ist motiviert durch biologische Fragestellungen bezüglich des Verhaltens von Membranpotentialen in Neuronen. Ein vielfach betrachtetes Modell für spikende Neuronen ist das Folgende. Zwischen den Spikes verhält sich das Membranpotential wie ein Diffusionsprozess X der durch die SDGL dX_t= beta(X_t) dt+ sigma(X_t) dB_t gegeben ist, wobei (B_t) eine Standard-Brown'sche Bewegung bezeichnet. Spikes erklärt man wie folgt. Sobald das Potential X eine gewisse Exzitationsschwelle S überschreitet entsteht ein Spike. Danach wird das Potential wieder auf einen bestimmten Wert x_0 zurückgesetzt. In Anwendungen ist es manchmal möglich, einen Diffusionsprozess X zwischen den Spikes zu beobachten und die Koeffizienten der SDGL beta() und sigma() zu schätzen. Dennoch ist es nötig, die Schwellen x_0 und S zu bestimmen um das Modell festzulegen. Eine Möglichkeit, dieses Problem anzugehen, ist x_0 und S als Parameter eines statistischen Modells aufzufassen und diese zu schätzen. In der vorliegenden Arbeit werden vier verschiedene Fälle diskutiert, in denen wir jeweils annehmen, dass das Membranpotential X zwischen den Spikes eine Brown'sche Bewegung mit Drift, eine geometrische Brown'sche Bewegung, ein Ornstein-Uhlenbeck Prozess oder ein Cox-Ingersoll-Ross Prozess ist. Darüber hinaus beobachten wir die Zeiten zwischen aufeinander folgenden Spikes, die wir als iid Treffzeiten der Schwelle S von X gestartet in x_0 auffassen. Die ersten beiden Fälle ähneln sich sehr und man kann jeweils den Maximum-Likelihood-Schätzer explizit angeben. Darüber hinaus wird, unter Verwendung der LAN-Theorie, die Optimalität dieser Schätzer gezeigt. In den Fällen OU- und CIR-Prozess wählen wir eine Minimum-Distanz-Methode, die auf dem Vergleich von empirischer und wahrer Laplace-Transformation bezüglich einer Hilbertraumnorm beruht. Wir werden beweisen, dass alle Schätzer stark konsistent und asymptotisch normalverteilt sind. Im letzten Kapitel werden wir die Effizienz der Minimum-Distanz-Schätzer anhand simulierter Daten überprüfen. Ferner, werden Anwendungen auf reale Datensätze und deren Resultate ausführlich diskutiert.
Resumo:
We obtain the exact time-dependent Kohn-Sham potentials Vks for 1D Hubbard chains, driven by a d.c. external field, using the time-dependent electron density and current density obtained from exact many-body time-evolution. The exact Vxc is compared to the adiabatically-exact Vad-xc and the “instantaneous ground state” Vigs-xc. The effectiveness of these two approximations is analyzed. Approximations for the exchange-correlation potential Vxc and its gradient, based on the local density and on the local current density, are also considered and both physical quantities are observed to be far outside the reach of any possible local approximation. Insight into the respective roles of ground-state and excited-state correlation in the time-dependent system, as reflected in the potentials, is provided by the pair correlation function.
Resumo:
Diese Arbeit analysiert den Zusammenhang zwischen politischen Institutionen und wirtschaftlichen Reformen. Die verbreitete Meinung nimmt an, dass ein hohes Maß an politischer Kontrolle und Beschränkungen, etwa durch ein föderales System oder eine zweite Parlamentskammer, die Reformfähigkeit eines Landes negativ beeinflusst. Grundlage dieser Annahme sind die Schlussfolgerungen aus der Vetospieler-Theorie von George Tsebelis. Anhand des Reformverlaufs postkommunistischer Staaten zeigt diese Arbeit jedoch, dass der Zusammenhang zwischen politischer Beschränkung und Reformen nicht linear, sondern quadratisch ist. Ein Mittelweg zwischen einer frei waltenden Exekutive und einem System restriktiver checks and balances garantiert damit die größtmöglichen Fortschritte bei wirtschaftlichen Reformen von der Planwirtschaft zur Marktwirtschaft.