331 resultados para Ergebnis


Relevância:

10.00% 10.00%

Publicador:

Resumo:

The traditional task of a central bank is to preserve price stability and, in doing so, not to impair the real economy more than necessary. To meet this challenge, it is of great relevance whether inflation is only driven by inflation expectations and the current output gap or whether it is, in addition, influenced by past inflation. In the former case, as described by the New Keynesian Phillips curve, the central bank can immediately and simultaneously achieve price stability and equilibrium output, the so-called ‘divine coincidence’ (Blanchard and Galí 2007). In the latter case, the achievement of price stability is costly in terms of output and will be pursued over several periods. Similarly, it is important to distinguish this latter case, which describes ‘intrinsic’ inflation persistence, from that of ‘extrinsic’ inflation persistence, where the sluggishness of inflation is not a ‘structural’ feature of the economy but merely ‘inherited’ from the sluggishness of the other driving forces, inflation expectations and output. ‘Extrinsic’ inflation persistence is usually considered to be the less challenging case, as policy-makers are supposed to fight against the persistence in the driving forces, especially to reduce the stickiness of inflation expectations by a credible monetary policy, in order to reestablish the ‘divine coincidence’. The scope of this dissertation is to contribute to the vast literature and ongoing discussion on inflation persistence: Chapter 1 describes the policy consequences of inflation persistence and summarizes the empirical and theoretical literature. Chapter 2 compares two models of staggered price setting, one with a fixed two-period duration and the other with a stochastic duration of prices. I show that in an economy with a timeless optimizing central bank the model with the two-period alternating price-setting (for most parameter values) leads to more persistent inflation than the model with stochastic price duration. This result amends earlier work by Kiley (2002) who found that the model with stochastic price duration generates more persistent inflation in response to an exogenous monetary shock. Chapter 3 extends the two-period alternating price-setting model to the case of 3- and 4-period price durations. This results in a more complex Phillips curve with a negative impact of past inflation on current inflation. As simulations show, this multi-period Phillips curve generates a too low degree of autocorrelation and too early turnings points of inflation and is outperformed by a simple Hybrid Phillips curve. Chapter 4 starts from the critique of Driscoll and Holden (2003) on the relative real-wage model of Fuhrer and Moore (1995). While taking the critique seriously that Fuhrer and Moore’s model will collapse to a much simpler one without intrinsic inflation persistence if one takes their arguments literally, I extend the model by a term for inequality aversion. This model extension is not only in line with experimental evidence but results in a Hybrid Phillips curve with inflation persistence that is observably equivalent to that presented by Fuhrer and Moore (1995). In chapter 5, I present a model that especially allows to study the relationship between fairness attitudes and time preference (impatience). In the model, two individuals take decisions in two subsequent periods. In period 1, both individuals are endowed with resources and are able to donate a share of their resources to the other individual. In period 2, the two individuals might join in a common production after having bargained on the split of its output. The size of the production output depends on the relative share of resources at the end of period 1 as the human capital of the individuals, which is built by means of their resources, cannot fully be substituted one against each other. Therefore, it might be rational for a well-endowed individual in period 1 to act in a seemingly ‘fair’ manner and to donate own resources to its poorer counterpart. This decision also depends on the individuals’ impatience which is induced by the small but positive probability that production is not possible in period 2. As a general result, the individuals in the model economy are more likely to behave in a ‘fair’ manner, i.e., to donate resources to the other individual, the lower their own impatience and the higher the productivity of the other individual. As the (seemingly) ‘fair’ behavior is modelled as an endogenous outcome and as it is related to the aspect of time preference, the presented framework might help to further integrate behavioral economics and macroeconomics.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Unternehmensumwelt, mit der sich Kreditinstitute heutzutage konfrontiert sehen und mit der sie sich harmonisieren müssen, ist durch tiefgreifende Veränderungen und eine fortschreitende Dynamik gekennzeichnet. Mit den sog. Non- und Nearbanks sind neue Wettbewerber in den Markt eingetreten, und die Subprime-Finanzkrise aus dem Jahr 2008 hat zu einer tiefgreifenden Vertrauenskrise bei den Konsumenten geführt. Die Möglichkeiten der Kreditinstitute, sich diesen Herausforderungen zu stellen, sind durch die angebotene Generaltauschware Geld, den fehlenden gesetzlichen Innovationsschutz sowie vergleichbare Vertriebsformen und Marktauftritte eher begrenzt. Es stellt sich somit die Frage, wie sich Kreditinstitute künftig nachhaltig im Wettbewerb behaupten können. Die Lösung wird im Konsumgüterbereich gesehen: Zur Überwindung der vorherrschenden technischen Produkthomogenität werden Marken dort erfolgreich als Strategie eingesetzt, um sich vom Wettbewerb zu differenzieren, den Kunden gezielt anzusprechen und preisliche Spielräume zu generieren. Der vorliegenden Dissertation liegen somit zwei zentrale Hypothesen zugrunde: H1) Im Bankbereich bestehen vergleichbare Sättigungseffekte und eine hohe Angebotshomogenität wie im Konsumgüterbereich. H2) Die Adaption von Markenführungs-konzepten aus dem Konsumgüterbereich generiert einen positiven Beitrag zur Profilierung, Differenzierung und Vertrauensbildung von Kreditinstituten. In einem deskriptiv-konzeptionellen Ansatz werden zunächst konstituierende Merkmale und Funktionen einer Marke erarbeitet. Mit Hilfe einer interdisziplinären Metaanalyse wird anschließend ein integratives holistisches Markenverständnis geschaffen und erklärt, wie und warum Marken funktionieren. Dabei wird insbesondere die Rolle der Marke als „Invisible Hand“ im gesellschaftlichen System gewürdigt, die die Handlungen der Individuen beeinflusst und dabei in einem zirkulär-kausalen Prozess von der Gesellschaft bzw. Zielgruppe selbst konstituiert wird. Mit dem Versuch, das Markenphänomen mit Hilfe der evolutorischen Ökonomik zu erklären, wird ferner Neuland betreten. Im Weiteren werden theoretische Konzepte der Markenführung diskutiert und bewertet. Auf Basis dieses neu geschaffenen Fundaments werden im Hauptteil der Arbeit sowohl Markenstrategien aus dem Konsumgüterbereich als auch Instrumente zur operativen Implementierung der Markenstrategie in einem diskursiven Ansatz mittels erarbeiteter Plausibilitätskriterien eingehend auf ihre Übertragbarkeit auf Kreditinstitute hin analysiert und bewertet. Als Ergebnis der Arbeit wurden H1 vollumfänglich und H2 mit Einschränkungen bestätigt. Diese Einschränkungen ergeben sich hauptsächlich dadurch, dass durch die Synchronität von Leistungserstellung und Leistungsinanspruchnahme eine Abkoppelung der Marke vom Unter-nehmen kaum darstellbar ist. Mehrmarkenstrategien sowie spitze Positionierungen sind bei den vorherrschenden Universalinstituten somit quasi nicht umsetzbar. Weitere Limitierungen resultieren aus der Vertrauensempfindlichkeit der Bankleistung, die Einschränkungen bei Markendehnungen (Produktlinien- und Transferstrategien) zur Folge hat. Die operativen Markeninstrumente aus dem Konsumgüterbereich hingegen sind weitestgehend anwendbar. Auch bei dem Einsatz der Controllinginstrumente zur Steuerung der Markenführung werden keine Einschränkungen gesehen. In einem Ausblick wird abschließend gezeigt, dass sich die Wettbewerbsintensität der Kreditinstitute nicht entspannen wird, es werden eher Tendenzen ihrer weiteren Verschärfung ausgemacht.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Since no physical system can ever be completely isolated from its environment, the study of open quantum systems is pivotal to reliably and accurately control complex quantum systems. In practice, reliability of the control field needs to be confirmed via certification of the target evolution while accuracy requires the derivation of high-fidelity control schemes in the presence of decoherence. In the first part of this thesis an algebraic framework is presented that allows to determine the minimal requirements on the unique characterisation of arbitrary unitary gates in open quantum systems, independent on the particular physical implementation of the employed quantum device. To this end, a set of theorems is devised that can be used to assess whether a given set of input states on a quantum channel is sufficient to judge whether a desired unitary gate is realised. This allows to determine the minimal input for such a task, which proves to be, quite remarkably, independent of system size. These results allow to elucidate the fundamental limits regarding certification and tomography of open quantum systems. The combination of these insights with state-of-the-art Monte Carlo process certification techniques permits a significant improvement of the scaling when certifying arbitrary unitary gates. This improvement is not only restricted to quantum information devices where the basic information carrier is the qubit but it also extends to systems where the fundamental informational entities can be of arbitary dimensionality, the so-called qudits. The second part of this thesis concerns the impact of these findings from the point of view of Optimal Control Theory (OCT). OCT for quantum systems utilises concepts from engineering such as feedback and optimisation to engineer constructive and destructive interferences in order to steer a physical process in a desired direction. It turns out that the aforementioned mathematical findings allow to deduce novel optimisation functionals that significantly reduce not only the required memory for numerical control algorithms but also the total CPU time required to obtain a certain fidelity for the optimised process. The thesis concludes by discussing two problems of fundamental interest in quantum information processing from the point of view of optimal control - the preparation of pure states and the implementation of unitary gates in open quantum systems. For both cases specific physical examples are considered: for the former the vibrational cooling of molecules via optical pumping and for the latter a superconducting phase qudit implementation. In particular, it is illustrated how features of the environment can be exploited to reach the desired targets.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Im Rahmen dieser Arbeit wird eine gemeinsame Optimierung der Hybrid-Betriebsstrategie und des Verhaltens des Verbrennungsmotors vorgestellt. Die Übernahme von den im Steuergerät verwendeten Funktionsmodulen in die Simulationsumgebung für Fahrzeuglängsdynamik stellt eine effiziente Applikationsmöglichkeit der Originalparametrierung dar. Gleichzeitig ist es notwendig, das Verhalten des Verbrennungsmotors derart nachzubilden, dass das stationäre und das dynamische Verhalten, inklusive aller relevanten Einflussmöglichkeiten, wiedergegeben werden kann. Das entwickelte Werkzeug zur Übertragung der in Ascet definierten Steurgerätefunktionen in die Simulink-Simulationsumgebung ermöglicht nicht nur die Simulation der relevanten Funktionsmodule, sondern es erfüllt auch weitere wichtige Eigenschaften. Eine erhöhte Flexibilität bezüglich der Daten- und Funktionsstandänderungen, sowie die Parametrierbarkeit der Funktionsmodule sind Verbesserungen die an dieser Stelle zu nennen sind. Bei der Modellierung des stationären Systemverhaltens des Verbrennungsmotors erfolgt der Einsatz von künstlichen neuronalen Netzen. Die Auswahl der optimalen Neuronenanzahl erfolgt durch die Betrachtung des SSE für die Trainings- und die Verifikationsdaten. Falls notwendig, wird zur Sicherstellung der angestrebten Modellqualität, das Interpolationsverhalten durch Hinzunahme von Gauß-Prozess-Modellen verbessert. Mit den Gauß-Prozess-Modellen werden hierbei zusätzliche Stützpunkte erzeugt und mit einer verminderten Priorität in die Modellierung eingebunden. Für die Modellierung des dynamischen Systemverhaltens werden lineare Übertragungsfunktionen verwendet. Bei der Minimierung der Abweichung zwischen dem Modellausgang und den Messergebnissen wird zusätzlich zum SSE das 2σ-Intervall der relativen Fehlerverteilung betrachtet. Die Implementierung der Steuergerätefunktionsmodule und der erstellten Steller-Sensor-Streckenmodelle in der Simulationsumgebung für Fahrzeuglängsdynamik führt zum Anstieg der Simulationszeit und einer Vergrößerung des Parameterraums. Das aus Regelungstechnik bekannte Verfahren der Gütevektoroptimierung trägt entscheidend zu einer systematischen Betrachtung und Optimierung der Zielgrößen bei. Das Ergebnis des Verfahrens ist durch das Optimum der Paretofront der einzelnen Entwurfsspezifikationen gekennzeichnet. Die steigenden Simulationszeiten benachteiligen Minimumsuchverfahren, die eine Vielzahl an Iterationen benötigen. Um die Verwendung einer Zufallsvariablen, die maßgeblich zur Steigerung der Iterationanzahl beiträgt, zu vermeiden und gleichzeitig eine Globalisierung der Suche im Parameterraum zu ermöglichen wird die entwickelte Methode DelaunaySearch eingesetzt. Im Gegensatz zu den bekannten Algorithmen, wie die Partikelschwarmoptimierung oder die evolutionären Algorithmen, setzt die neu entwickelte Methode bei der Suche nach dem Minimum einer Kostenfunktion auf eine systematische Analyse der durchgeführten Simulationsergebnisse. Mit Hilfe der bei der Analyse gewonnenen Informationen werden Bereiche mit den bestmöglichen Voraussetzungen für ein Minimum identifiziert. Somit verzichtet das iterative Verfahren bei der Bestimmung des nächsten Iterationsschrittes auf die Verwendung einer Zufallsvariable. Als Ergebnis der Berechnungen steht ein gut gewählter Startwert für eine lokale Optimierung zur Verfügung. Aufbauend auf der Simulation der Fahrzeuglängsdynamik, der Steuergerätefunktionen und der Steller-Sensor-Streckenmodelle in einer Simulationsumgebung wird die Hybrid-Betriebsstrategie gemeinsam mit der Steuerung des Verbrennungsmotors optimiert. Mit der Entwicklung und Implementierung einer neuen Funktion wird weiterhin die Verbindung zwischen der Betriebsstrategie und der Motorsteuerung erweitert. Die vorgestellten Werkzeuge ermöglichten hierbei nicht nur einen Test der neuen Funktionalitäten, sondern auch eine Abschätzung der Verbesserungspotentiale beim Verbrauch und Abgasemissionen. Insgesamt konnte eine effiziente Testumgebung für eine gemeinsame Optimierung der Betriebsstrategie und des Verbrennungsmotorverhaltens eines Hybridfahrzeugs realisiert werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Diese Arbeit weist Momentum-Renditen für europäische Aktien im Zeitraum von 1991 bis 2010 nach, die – je nach Top/Flop-Prozentsatz – vor Kosten zwischen 6 und 19% p.a. liegen. Gleichzeitig liegen mit hohen Standardabweichungen, negativen Schiefe-Werten und hohen Drawdowns drei wesentliche Risikofaktoren vor. Für die Kernuntersuchungen des Top/Flop-Wertes von 5% treten die höchsten Momentum-Renditen von mehr als 10% p.a. für Ranking-Perioden von 80 bis 100 und Holding-Perioden von 60 bis 90 Handelstagen auf. Grundsätzlich sind die extremsten Aktien der Ranking-Periode entscheidend für die Ausprägung des Momentum-Effekts. Gleichzeitig steigen mit zunehmender Eingrenzung des Top/Flop-Wertes die Risiken, was eine Erklärung hoher Momentum-Renditen aus Sicht der Risikoaversions-Theorie nahelegt. Auch die Berücksichtigung zusätzlicher Filterbedingungen (Gleitende Durchschnitte, Handelsvolumen, Low Volatility) ermöglicht leicht höhere Momentum-Renditen bei entsprechend höheren Risiken. Zwischen dem Momentum-Effekt und dem Auftreten von Kurslücken besteht dagegen kein klarer Zusammenhang. Für die praktische Anwendung sind Momentum-Strategien mit dynamischer Positionsverwaltung während der Haltedauer interessant. Untersucht wurden Strategien anhand der eigens programmierten Simulationsverfahren Stopout und Castout sowie eines kombinierten Verfahrens. Im Ergebnis sind – je nach Präferenz des Investors – das Castout- und das kombinierte Verfahren optimal. Für das Rebalancing der Portfolios empfiehlt es sich, zu den entsprechenden Terminen jeweils nur die Short-Seite auf den Startwert zurückzusetzen. Weiterhin zeigen die Untersuchungen, dass deutliche Long-Übergewichtungen bei Momentum-Strategien grundsätzlich von Vorteil sind. Potenzielle Verbesserungen der Ergebnisse können durch weitere Stopp-Abstände, eine Verringerung des Top/Flop-Wertes oder eine längere Ranking-Periode erzielt werden. Weiterhin sind für die Praxis Long-only-Strategien auf Basis von Doppelranking-Verfahren attraktiv, bei denen das Zweitranking nach Standardabweichung oder Rendite/Standardabweichungs-Ratio erfolgt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Pós-graduação em Letras - FCLAS

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In dieser Arbeit wird eine Messung des magnetischen Moments des Elektronsin wasserstoffähnlichem Kohlenstoff vorgestellt. Das Ergebnis derMessungen an einem einzelnen gespeicherten12C5+-Ionist: g = 2,001 041 596 4 (8)(6)(44). Der erste Fehler bezeichnet die statistischeUnsicherheit, der zweite Fehler die systematische Unsicherheit. Der letzteFehler resultiert aus der Unsicherheit des Verhältnisses der Massedes 12C5+-Ions und der des Elektrons. Die hohe Genauigkeitder Messung wurde durch die räumliche Trennung des Nachweises derAusrichtung des Spins und des Induzierens der spin-flips erreicht. DieMessung stellt die bisher genaueste Bestimmung eines atomaren g-Faktorsdar und bestätigt den theoretischen Wert der Göteborger Theoriegruppeauf 7*10-9. Zusammen mit diesen Rechnungen verifiziert sie dieBound-State-QED-Korrekturen genauer als 1%. Somit ist der g-Faktor desin12C5+ gebunden Elektrons neben Messungen der Lambshiftin schweren hochgeladenen Ionen der genaueste Test der Bound-State-QED.
Wird auf die Richtigkeit der Berechnung des g-Faktors des gebundenenElektrons vertraut, kann folgender Wert für die atomare Masse desElektrons gewonnen werden: me= 0,000 548 579 912 8 (15) u.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Polyphenylen-Dendrimere Alexander Josef Berresheim Zusammenfassung der Dissertation Die vorliegende Arbeit mit dem Thema 'Polyphenylen-Dendrimere' ist synthetisch orientiert und behandelt im Wesentlichen den Aufbau neuer Polyphenylen-Dendrimere durch die Anwendung wiederholter Diels-Alder- und Desilylierungs-Reaktionen. Diskutiert wird die Synthese der einzelnen Bausteine, die Synthese der verschiedenen Dendrimere sowie deren Charakterisierung. Außerdem wird die oxidative Cyclodehydrierung geeigneter Dendrimere zu polycyclischen aromatischen Kohlenwasserstoffen beschrieben. Die Synthese der Dendrimere beruht auf einer wiederholten Diels-Alder-Reaktion eines Tetraphenylcyclopentadienons mit einem aromatischen Acetylen. Durch die Variation des Kerns und des Verzweigungsbausteins werden die Wachstumsgrenzen, denen dieser Dendrimer-Typ unterliegt, demonstriert. Es wird gezeigt, dass ein Dendrimer, bei dessen Synthese 3,4-Di-[4-(tri-iso-propylsilylethinyl)phenyl]-2,5-diphenylcyclopentadienon als Verzweigungsbaustein verwendet wird, bis zur vierten Generation wachsen kann. Wird bei der Synthese 3,3',5,5'-Tetraethinylbiphenyl als Kern verwendet, entsteht ein Oligophenylen, das aus 302 Benzolringen besteht.Bei Dendrimeren, deren Synthese auf dem A4B-Baustein 2,3,4,5-Tetrakis-[4-(tri-iso-propylsilylethinyl)phenyl]cyclopentadienon beruht, hängt die höchste Generation, die monodispers hergestellt werden kann, von der Art des Kerns ab. Wird 1,4-Diethinylbenzol verwendet, lassen sich die ersten drei Generationen synthetisieren. Hat der Kern jedoch die Multiplizität 'vier' oder 'sechs' ist bereits bei der zweiten Generation das Ende des monodispersen Wachstums erreicht.Die Charakterisierung der Dendrimere zeigt, dass es sich um Nanopartikel mit einer stabilen Form handelt. Der Durchmesser wächst linear mit der Generation. In einem Fall war es möglich einen Einkristall zu erhalten, dessen Kristallstruktur ermittelt werden konnte. Hierbei zeigt sich, dass es zu einer hohen Einlagerung von Lösungsmitteln in der Festphase kommen kann. Dieses Ergebnis wurde auch durch gezielte Versuche zum Einlagerungsverhalten von Lösungsmitteln in der Festphase bestätigt.Der letzte Teil dieser Arbeit widmet sich der Möglichkeit, die Polyphenylen-Dendrimere zu großen zweidimensionalen Graphitausschnitten zu cyclodehydrieren. Es war generell möglich, polycyclische aromatische Kohlenwasserstoffe mit bis zu 306 Kohlenstoffatomen herzustellen. Es zeigt sich aber auch, dass mit zunehmender Größe des Aromaten, die Intensität der Nebenreaktionen zunimmt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

An dem Schwerionenspeicherring TSR (MPI für Kernphysik, Heidelberg) wurde ein 7 Li +-Ionenstrahl geringer Dichte durch RF-Bunchen und Laserkühlung präpariert.Die Phasenraumverteilung in dem Strahl wurde durch Laser- spektroskopie an Ionen im metastabilen Zustand untersucht. Ein umlaufsynchrones, zeitaufgelöstes Meßverfahren für das Fluoreszenzlicht ermöglichte die Bestimmung der räumlichen Struktur mit dieser rein optischen Methode.Durch einen speziellen Präparationsschritt wurden die Ionen im Grundzustand aus dem Speicherring entfernt. Der sonst dominierende Heizeffekt der strahlinternen Streuung war dadurch vernachlässigbar und es konnte eine Temperatur von 160 mK erreicht werden.Der präparierte Ionenstrahl bietet besondere Eigenschaften im Hinblick auf Präzisionsexperimente, bei denen mit möglichst ungestörten Ionen gearbeitet werden soll. Es wird gezeigt, daß die Phasenraumverteilung der Ionen nicht mehr durch Ion-Ion-Wechselwirkungen bestimmt ist und daß der verbleibende Heizmechanismus durch die Streuung am Restgas erklärt werden kann.1993 wurde durch Laserspektroskopie an 7 Li + im TSR die spezielle Relativitätstheorie im Hinblick auf die relativistische Zeitdilatation experimentell getestet. In diesem Zusammenhang wird das zu erwartende Ergebnis eines Experimentes diskutiert, das, basierend auf den in dieser Arbeit vorgestellten Verfahren, einen erneuten Test der relativistischen Zeitdilatation mit verbesserter Genauigkeit durchführen könnte.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ziel des NA48 Experiments ist die Messung der direkten CPVerletzungim System der neutralen Kaonen. NA48 misst gleichzeitig dieZerfaellekurzlebiger und langlebiger Kaonen in zwei geladene undneutralePionen. Der Parameter der direkten CP Verletzung wird durchdasDoppelverhaeltnis der vier Zerfallsraten bestimmt. DasExperiment unddie Analyse sind so gestaltet, dass sich systematischeEffekte imDoppelverhaeltnis der Zerfallsraten prinzipiell aufheben.DieBestimmung unvermeidlicher systematischer Abweichungen nimmteinenHauptteil der Dissertation ein. Fuer diese Analyse wurdendie Datender ersten Strahlzeit 1997 verwendet. Das Ergebnis dieserAnalysefuer den Parameter der direkten CP Verletzung ist (18.3 +/-4.6 +/- 5.8) * 10E-4.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

ZusammenfassungDie Bildung von mittelozeanischen Rückenbasalten (MORB) ist einer der wichtigsten Stoffflüsse der Erde. Jährlich wird entlang der 75.000 km langen mittelozeanischen Rücken mehr als 20 km3 neue magmatische Kruste gebildet, das sind etwa 90 Prozent der globalen Magmenproduktion. Obwohl ozeanische Rücken und MORB zu den am meisten untersuchten geologischen Themenbereichen gehören, existieren weiterhin einige Streit-fragen. Zu den wichtigsten zählt die Rolle von geodynamischen Rahmenbedingungen, wie etwa Divergenzrate oder die Nähe zu Hotspots oder Transformstörungen, sowie der absolute Aufschmelzgrad, oder die Tiefe, in der die Aufschmelzung unter den Rücken beginnt. Diese Dissertation widmet sich diesen Themen auf der Basis von Haupt- und Spurenelementzusammensetzungen in Mineralen ozeanischer Mantelgesteine.Geochemische Charakteristika von MORB deuten darauf hin, dass der ozeanische Mantel im Stabilitätsfeld von Granatperidotit zu schmelzen beginnt. Neuere Experimente zeigen jedoch, dass die schweren Seltenerdelemente (SEE) kompatibel im Klinopyroxen (Cpx) sind. Aufgrund dieser granatähnlichen Eigenschaft von Cpx wird Granat nicht mehr zur Erklärung der MORB Daten benötigt, wodurch sich der Beginn der Aufschmelzung zu geringeren Drucken verschiebt. Aus diesem Grund ist es wichtig zu überprüfen, ob diese Hypothese mit Daten von abyssalen Peridotiten in Einklang zu bringen ist. Diese am Ozeanboden aufgeschlossenen Mantelfragmente stellen die Residuen des Aufschmelz-prozesses dar, und ihr Mineralchemismus enthält Information über die Bildungs-bedingungen der Magmen. Haupt- und Spurenelementzusammensetzungen von Peridotit-proben des Zentralindischen Rückens (CIR) wurden mit Mikrosonde und Ionensonde bestimmt, und mit veröffentlichten Daten verglichen. Cpx der CIR Peridotite weisen niedrige Verhältnisse von mittleren zu schweren SEE und hohe absolute Konzentrationen der schweren SEE auf. Aufschmelzmodelle eines Spinellperidotits unter Anwendung von üblichen, inkompatiblen Verteilungskoeffizienten (Kd's) können die gemessenen Fraktionierungen von mittleren zu schweren SEE nicht reproduzieren. Die Anwendung der neuen Kd's, die kompatibles Verhalten der schweren SEE im Cpx vorhersagen, ergibt zwar bessere Resultate, kann jedoch nicht die am stärksten fraktionierten Proben erklären. Darüber hinaus werden sehr hohe Aufschmelzgrade benötigt, was nicht mit Hauptelementdaten in Einklang zu bringen ist. Niedrige (~3-5%) Aufschmelzgrade im Stabilitätsfeld von Granatperidotit, gefolgt von weiterer Aufschmelzung von Spinellperidotit kann jedoch die Beobachtungen weitgehend erklären. Aus diesem Grund muss Granat weiterhin als wichtige Phase bei der Genese von MORB betrachtet werden (Kapitel 1).Eine weitere Hürde zum quantitativen Verständnis von Aufschmelzprozessen unter mittelozeanischen Rücken ist die fehlende Korrelation zwischen Haupt- und Spuren-elementen in residuellen abyssalen Peridotiten. Das Cr/(Cr+Al) Verhältnis (Cr#) in Spinell wird im Allgemeinen als guter qualitativer Indikator für den Aufschmelzgrad betrachtet. Die Mineralchemie der CIR Peridotite und publizierte Daten von anderen abyssalen Peridotiten zeigen, dass die schweren SEE sehr gut (r2 ~ 0.9) mit Cr# der koexistierenden Spinelle korreliert. Die Auswertung dieser Korrelation ergibt einen quantitativen Aufschmelz-indikator für Residuen, welcher auf dem Spinellchemismus basiert. Damit kann der Schmelzgrad als Funktion von Cr# in Spinell ausgedrückt werden: F = 0.10×ln(Cr#) + 0.24 (Hellebrand et al., Nature, in review; Kapitel 2). Die Anwendung dieses Indikators auf Mantelproben, für die keine Ionensondendaten verfügbar sind, ermöglicht es, geochemische und geophysikalischen Daten zu verbinden. Aus geodynamischer Perspektive ist der Gakkel Rücken im Arktischen Ozean von großer Bedeutung für das Verständnis von Aufschmelzprozessen, da er weltweit die niedrigste Divergenzrate aufweist und große Transformstörungen fehlen. Publizierte Basaltdaten deuten auf einen extrem niedrigen Aufschmelzgrad hin, was mit globalen Korrelationen im Einklang steht. Stark alterierte Mantelperidotite einer Lokalität entlang des kaum beprobten Gakkel Rückens wurden deshalb auf Primärminerale untersucht. Nur in einer Probe sind oxidierte Spinellpseudomorphosen mit Spuren primärer Spinelle erhalten geblieben. Ihre Cr# ist signifikant höher als die einiger Peridotite von schneller divergierenden Rücken und ihr Schmelzgrad ist damit höher als aufgrund der Basaltzusammensetzungen vermutet. Der unter Anwendung des oben erwähnten Indikators ermittelte Schmelzgrad ermöglicht die Berechnung der Krustenmächtigkeit am Gakkel Rücken. Diese ist wesentlich größer als die aus Schweredaten ermittelte Mächtigkeit, oder die aus der globalen Korrelation zwischen Divergenzrate und mittels Seismik erhaltene Krustendicke. Dieses unerwartete Ergebnis kann möglicherweise auf kompositionelle Heterogenitäten bei niedrigen Schmelzgraden, oder auf eine insgesamt größere Verarmung des Mantels unter dem Gakkel Rücken zurückgeführt werden (Hellebrand et al., Chem.Geol., in review; Kapitel 3).Zusätzliche Informationen zur Modellierung und Analytik sind im Anhang A-C aufgeführt

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Einfluß der internen Architektur von Polymermikronetzwerken auf Struktur und Dynamik konzentrierter Kolloid-Dispersionen Kugelförmige Polymermikronetzwerk-Kolloide gehören zur Klasse der sogenannten Mikrogele. Dabei handelt es sich um kolloidale Modellsysteme, die durch ihre interne Vernetzungsdichte charakterisiert werden.In dieser Arbeit sollte untersucht werden, ob sich die Wechselwirkungen zwischen den Mikrogel-Kolloiden über ein repulsives Potential der Form U(r) = 1/rn beschreiben lassen und ob der Poten-tialexponent n von der Vernetzungsdichte abhängt. Dazu wurden vor allem die innere Architektur, das Phasenverhalten und der statische Strukturfaktor 1:10, 1:50, 1:72 und 1:100 vernetzter Polymer-Mikronetzwerk-Kolloide bis in den Bereich hochkonzentrierter Dispersionen mit den Mitteln der Kleinwinkelneutronenstreuung, der Digitalphotographie und der statischen Lichtstreuung untersucht. Polymeranalytische Untersuchungen ergaben einen bei der Synthese anfallenden Anteil von unver-netztem, freiem Polymer innerhalb der Mikronetzwerke, welcher sich beim Lösen aus den Netzwerken herausbewegte. Das freie Polymer spielte vor allem beim Phasenverhalten der untersuchten Teilchen eine große Rolle und verursachte bei den Untersuchungen der statischen Strukturfaktoren Abweichun-gen vom 'harte Kugel'-Verhalten. Als Ergebnis der Kleinwinkel-Neutronenstreuung konnte eine ab-nehmende Verteilungsdichte der Vernetzer innerhalb der Polymermikronetzwerke in Richtung der -Teilchenoberfläche nachgewiesen werden. Die damit verbundene Konformationsfreiheit der Polymer-segmente auf der Teilchenoberfläche (bis hin zu 'mushroom'-Strukturen) wurde als Grund dafür an-gesehen, daß sich die Resultate der untersuchten Mikrogele aller Vernetzungsdichten im wesentlichen auf 'harte Kugeln' skalieren lassen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In dieser interdisziplinären, translationswissenschaftlichen Studie wird die Integration von Curriculum und Evaluierung in der Dolmetscherausbildung theoretisch fundiert und im Rahmen einer Fallstudie empirisch untersucht. Dolmetschkompetenz wird als ein durch zweckgerechte und messgenaue (valid and reliable) Bewertungsmethoden dokumentiertes Ergebnis der Curriculumanwendung betrachtet. Definitionen, Grundlagen, Ansätze, Ausbildungs- und Lernziele werden anhand der Curriculumtheorie und Dolmetschwissenschaft beschrieben. Traditionelle und alternative Evaluierungsmethoden werden hinsichtlich ihrer Anwendbarkeit in der Dolmetscherausbildung erprobt. In der Fallstudie werden die Prüfungsergebnisse zweier Master-Studiengänge-MA Konferenzdolmetschen und MA Dolmetschen und Übersetzen-quantitativ analysiert. Die zur Dokumentation der Prüfungsergebnisse eingesetzte Bewertungsmethodik wird qualitativ untersucht und zur quantitativen Analyse in Bezug gesetzt. Die Fallstudie besteht aus 1) einer chi-square-Analyse der Abschlussprüfungsnoten getrennt nach Sprachkombination und Prüfungskategorie (n=260), 2) einer Umfrage unter den Jurymitgliedern hinsichtlich der Evaluierungsansätze, -verfahren, und -kriterien (n = 45; 62.22% Rücklaufrate); und 3) einer Analyse des ausgangssprachlichen Prüfungsmaterials ebenfalls nach Sprachkombination und Prüfungskategorie. Es wird nachgewiesen, dass Studierende im MA Dolmetschen und Übersetzen tendenziell schlechtere Prüfungsleistungen erbringen als Studierende im MA Konferenzdolmetschen. Die Analyseergebnisse werden jedoch als aussageschwach betrachtet aufgrund mangelnder Evaluierungsvalidität. Schritte zur Curriculum- und Evaluierungsoptimierung sowie ein effizienteres Curriculummodell werden aus den theoretischen Ansätzen abgeleitet. Auf die Rolle der Ethik in der Evaluierungsmethodik wird hingewiesen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die vorliegende Arbeit beschäftigt sich mit dem Einfluß von Kettenverzweigungen unterschiedlicher Topologien auf die statischen Eigenschaften von Polymeren. Diese Untersuchungen werden mit Hilfe von Monte-Carlo- und Molekular-Dynamik-Simulationen durchgeführt.Zunächst werden einige theoretische Konzepte und Modelle eingeführt, welche die Beschreibung von Polymerketten auf mesoskopischen Längenskalen gestatten. Es werden wichtige Bestimmungsgrößen eingeführt und erläutert, welche zur quantitativen Charakterisierung von Verzweigungsstrukturen bei Polymeren geeignet sind. Es wird ebenso auf die verwendeten Optimierungstechniken eingegangen, die bei der Implementierung des Computerprogrammes Verwendung fanden. Untersucht werden neben linearen Polymerketten unterschiedliche Topolgien -Sternpolymere mit variabler Armzahl, Übergang von Sternpolymeren zu linearen Polymeren, Ketten mit variabler Zahl von Seitenketten, reguläre Dendrimere und hyperverzweigte Strukturen - in Abhängigkeit von der Lösungsmittelqualität. Es wird zunächst eine gründliche Analyse des verwendeten Simulationsmodells an sehr langen linearen Einzelketten vorgenommen. Die Skalierungseigenschaften der linearen Ketten werden untersucht in dem gesamten Lösungsmittelbereich vom guten Lösungsmittel bis hin zu weitgehend kollabierten Ketten im schlechten Lösungsmittel. Ein wichtiges Ergebnis dieser Arbeit ist die Bestätigung der Korrekturen zum Skalenverhalten des hydrodynamischen Radius Rh. Dieses Ergebnis war möglich aufgrund der großen gewählten Kettenlängen und der hohen Qualität der erhaltenen Daten in dieser Arbeit, insbesondere bei den linearen ketten, und es steht im Widerspruch zu vielen bisherigen Simulations-Studien und experimentellen Arbeiten. Diese Korrekturen zum Skalenverhalten wurden nicht nur für die linearen Ketten, sondern auch für Sternpolymere mit unterchiedlicher Armzahl gezeigt. Für lineare Ketten wird der Einfluß von Polydispersität untersucht.Es wird gezeigt, daß eine eindeutige Abbildung von Längenskalen zwischen Simulationsmodell und Experiment nicht möglich ist, da die zu diesem Zweck verwendete dimensionslose Größe eine zu schwache Abhängigkeit von der Polymerisation der Ketten besitzt. Ein Vergleich von Simulationsdaten mit industriellem Low-Density-Polyäthylen(LDPE) zeigt, daß LDPE in Form von stark verzweigten Ketten vorliegt.Für reguläre Dendrimere konnte ein hochgradiges Zurückfalten der Arme in die innere Kernregion nachgewiesen werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Wirkungsgeschichte der Philosophie Nicolai Hartmanns zeigt, daß seine Ontologie sich als unfruchtbar erwiesen hat. Diese Geschichte zeigt aber auch, daß man seine Kategorialanalyse, die er auf diese Ontologie gründet, trotzdem nicht entbehren konnte. Hermann Weins Auseinandersetzung mit Hartmann ist in dieser Hinschit deshalb wichtig, weil er dabei versucht, die Kategorialanalyse neu zu begründen. Wein bestreit, daß Kategorialanalyse überhaupt auf Ontologie gegründet werden kann. Aus der Kritik der Hartmannschen Ontologie geht er dann unmittelbar zu einer philosophischen Kosmologie über, auf die er die Kategorialanalyse gründet. Im ersten Teil der Arbeit wird versucht, Weins Auseinandersetzung mit seinem Lehrer als eine immanent-fundamentale Kritik darzustellen. Da diese Kritik in Weins Werk nicht explizit zum Ausdruck kommt, wird der Versuch unternommen, diese als eine solche, die von der Überprüfung eines immanenten Kriteriums ausgehend eine fundamentale Annahme problematisiert, selbstständig zu rekonstruieren. Als ein solches Kriterium wird das sog. 'Genesiskriterium' behandelt, dessen Überprüfung zur Problematisierung und schließlich zur Zrückweisung von Hartmanns Homogenitätsthese führt, welche besagt, daß Seinszusammenhang homogen ist. Die Rekonstruktion im ersten Teil ermöglicht, Weins philosophische Kosmologie im zweiten Teil als das darzustellen, die zwar der Hartmannschen Ontologie kontrovers ist, die jedoch dasselbe intendiert wie diese: die Grundlegung einer materialen Philosophie. Diese Grundlegung versucht Wein dadurch, daß er das Verhältnis zwischen Seins- und Erkenntniskategorien weder erkenntnistheoretisch, noch ontologisch, sondern kosmologisch untersucht. Das Ergebnis ist, daß zwischen ihnen keine Identität, sondern Affinität besteht, was die Bedeutung der Gültigkeitsfrage relativiert und einer materialen Philosophie neue Wege öffnet. Im dritten Teil wird Weins Anthropologie als Beispiel für eine nunmehr wieder mögliche materiale Pholosophie dargestellt. Hervorgehoben wird ihr Verhältnis zur Kosmologie, das in dem Sinne eine Ergänzung ist, daß Kosmologie als die Lehre von Urordnung der Welt von Ordnungen in der Welt abstrahieren, d.h. immer abstrakt bleiben muß, wogegen Anthropologie eine Lehre vom menschlichen In-der-Welt-Sein, d.h. eine Lehre von Concreta ist.