123 resultados para Kritische Theorie


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die vorliegende Arbeit beschäftigt sich mit den Einflüssen visuell wahrgenommener Bewegungsmerkmale auf die Handlungssteuerung eines Beobachters. Im speziellen geht es darum, wie die Bewegungsrichtung und die Bewegungsgeschwindigkeit als aufgabenirrelevante Reize die Ausführung von motorischen Reaktionen auf Farbreize beeinflussen und dabei schnellere bzw. verzögerte Reaktionszeiten bewirken. Bisherige Studien dazu waren auf lineare Bewegungen (von rechts nach links und umgekehrt) und sehr einfache Reizumgebungen (Bewegungen einfacher geometrischer Symbole, Punktwolken, Lichtpunktläufer etc.) begrenzt (z.B. Ehrenstein, 1994; Bosbach, 2004, Wittfoth, Buck, Fahle & Herrmann, 2006). In der vorliegenden Dissertation wurde die Gültigkeit dieser Befunde für Dreh- und Tiefenbewegungen sowie komplexe Bewegungsformen (menschliche Bewegungsabläufe im Sport) erweitert, theoretisch aufgearbeitet sowie in einer Serie von sechs Reaktionszeitexperimenten mittels Simon-Paradigma empirisch überprüft. Allen Experimenten war gemeinsam, dass Versuchspersonen an einem Computermonitor auf einen Farbwechsel innerhalb des dynamischen visuellen Reizes durch einen Tastendruck (links, rechts, proximal oder distal positionierte Taste) reagieren sollten, wobei die Geschwindigkeit und die Richtung der Bewegungen für die Reaktionen irrelevant waren. Zum Einfluss von Drehbewegungen bei geometrischen Symbolen (Exp. 1 und 1a) sowie bei menschlichen Drehbewegungen (Exp. 2) zeigen die Ergebnisse, dass Probanden signifikant schneller reagieren, wenn die Richtungsinformationen einer Drehbewegung kompatibel zu den räumlichen Merkmalen der geforderten Tastenreaktion sind. Der Komplexitätsgrad des visuellen Ereignisses spielt dabei keine Rolle. Für die kognitive Verarbeitung des Bewegungsreizes stellt nicht der Drehsinn, sondern die relative Bewegungsrichtung oberhalb und unterhalb der Drehachse das entscheidende räumliche Kriterium dar. Zum Einfluss räumlicher Tiefenbewegungen einer Kugel (Exp. 3) und einer gehenden Person (Exp. 4) belegen unsere Befunde, dass Probanden signifikant schneller reagieren, wenn sich der Reiz auf den Beobachter zu bewegt und ein proximaler gegenüber einem distalen Tastendruck gefordert ist sowie umgekehrt. Auch hier spielt der Komplexitätsgrad des visuellen Ereignisses keine Rolle. In beiden Experimenten führt die Wahrnehmung der Bewegungsrichtung zu einer Handlungsinduktion, die im kompatiblen Fall eine schnelle und im inkompatiblen Fall eine verzögerte Handlungsausführung bewirkt. In den Experimenten 5 und 6 wurden die Einflüsse von wahrgenommenen menschlichen Laufbewegungen (freies Laufen vs. Laufbandlaufen) untersucht, die mit und ohne eine Positionsveränderung erfolgten. Dabei zeigte sich, dass unabhängig von der Positionsveränderung die Laufgeschwindigkeit zu keiner Modulation des richtungsbasierten Simon Effekts führt. Zusammenfassend lassen sich die Studienergebnisse gut in effektbasierte Konzepte zur Handlungssteuerung (z.B. die Theorie der Ereigniskodierung von Hommel et al., 2001) einordnen. Weitere Untersuchungen sind nötig, um diese Ergebnisse auf großmotorische Reaktionen und Displays, die stärker an visuell wahrnehmbaren Ereignissen des Sports angelehnt sind, zu übertragen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In früheren Experimenten konnte gezeigt werden, dass die sekundären Botenstoffe cAMP, cGMP und IP3 in der olfaktorischen Signaltransduktionskaskade bei Manduca sexta involviert sind. Während cGMP Perfusionen in die Antenne die Pheromonwahrnehmung tageszeitabhängig adaptierten, führten cAMP Perfusionen zu einer tageszeitabhängigen Sensitisierung, ähnlicher der von Octopamin (OA). Daher wurde hypothetisiert, dass eine tageszeitabhängige Oszillation antennaler OA Level sowie der intrazelluläre Kalziumkonzentration in einer Schwankung von sekundären Botenstoffen resultieren könnte. Diese Hypothese wurde mittels biochemischen Nachweißverfahren in der Antenne von M. sexta und Rhyparobia maderae überprüft. Tatsächlich konnten in der Antenne des Tabakschwärmers tageszeitabhängige Unterschiede in der OA-, cAMP- und IP3-, aber nicht in der cGMP Konzentration, nachgewiesen werden. Während die cAMP- und OA Oszillationen einander sehr ähnelten und die Maxima in der Paarungsphase aufzeigten, korrelierte der IP3 Verlauf sehr stark mit dem Flug- bzw. Fressverhalten. Diese Korrelationen konnten auch in der Madeira Schabe beobachtet werden, in der darüber hinaus gezeigt werden konnte, dass antennale cAMP- und IP3 Level von dem circadianen Uhrwerk gesteuert werden. Zudem wurde herausgefunden, dass OA die cAMP- und teilweise auch die IP3- Spiegel reguliert. Demgegenüber beeinflusste Kalzium die Konzentration aller untersuchten sekundären Botenstoffe. Daher wird angenommen, dass die intrazelluläre Kalziumkonzentration aber auch der antennale OA Level kritische Faktoren bei der Regelung der olfaktorischen Sensitivität sind. Da Oszillationen von sekundären Botenstoffen in mutmaßlichen, peripheren Schrittmacher nachgewiesen wurden, wurde untersucht, ob sie auch im circadianen Schrittmacher der Madeira Schabe oszillieren und ob das Neuropeptid pigment-dispersing factor (PDF), ein entscheidender Kopplungsfaktor des Uhrwerks in Insekten, diese Rhythmen generieren könnte. Es konnte gezeigt werden, dass PDF die cAMP Synthese steigert. Darüber hinaus wurden bimodale cAMP Oszillationen unter licht-dunkel Bedingungen beobachtet, welche unter konstanten Umweltbedingungen verblieben. Daher wird angenommen, dass PDF Freisetzung zelluläres cAMP erhöht über das das circadiane Uhrwerk synchronisiert wird.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In the theory of the Navier-Stokes equations, the proofs of some basic known results, like for example the uniqueness of solutions to the stationary Navier-Stokes equations under smallness assumptions on the data or the stability of certain time discretization schemes, actually only use a small range of properties and are therefore valid in a more general context. This observation leads us to introduce the concept of SST spaces, a generalization of the functional setting for the Navier-Stokes equations. It allows us to prove (by means of counterexamples) that several uniqueness and stability conjectures that are still open in the case of the Navier-Stokes equations have a negative answer in the larger class of SST spaces, thereby showing that proof strategies used for a number of classical results are not sufficient to affirmatively answer these open questions. More precisely, in the larger class of SST spaces, non-uniqueness phenomena can be observed for the implicit Euler scheme, for two nonlinear versions of the Crank-Nicolson scheme, for the fractional step theta scheme, and for the SST-generalized stationary Navier-Stokes equations. As far as stability is concerned, a linear version of the Euler scheme, a nonlinear version of the Crank-Nicolson scheme, and the fractional step theta scheme turn out to be non-stable in the class of SST spaces. The positive results established in this thesis include the generalization of classical uniqueness and stability results to SST spaces, the uniqueness of solutions (under smallness assumptions) to two nonlinear versions of the Euler scheme, two nonlinear versions of the Crank-Nicolson scheme, and the fractional step theta scheme for general SST spaces, the second order convergence of a version of the Crank-Nicolson scheme, and a new proof of the first order convergence of the implicit Euler scheme for the Navier-Stokes equations. For each convergence result, we provide conditions on the data that guarantee the existence of nonstationary solutions satisfying the regularity assumptions needed for the corresponding convergence theorem. In the case of the Crank-Nicolson scheme, this involves a compatibility condition at the corner of the space-time cylinder, which can be satisfied via a suitable prescription of the initial acceleration.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thema der vorliegenden Arbeit ist die Bestimmung von Basen von Räumen spezieller harmonischer 2-Koketten auf Bruhat-Tits-Gebäuden der PGL(3) über Funktionenkörpern. Hierzu wird der Raum der speziellen harmonischen 2-Koketten auf dem Bruhat-Tits-Gebäude der PGL(3) zunächst mit gewissen komplexen Linearkombinationen von 2-Simplizes des Quotientenkomplexes, sogenannten geschlossenen Flächen, identifiziert und anschließend durch verallgemeinerte Modulsymbole beschrieben. Die Darstellung der Gruppe der Modulsymbole durch Erzeuger und Relationen ermöglicht die Bestimmung einer endlichen Basis des Raums der speziellen harmonischen 2-Koketten. Die so gewonnenen Erkenntnisse können zur Untersuchung von Hecke-Operatoren auf speziellen harmonischen 2-Koketten genutzt werden. Mithilfe des hergeleiteten Isomorphismus zwischen dem Raum der speziellen harmonischen 2-Koketten und dem Raum der geschlossenen Flächen wird die Theorie der Hecke-Operatoren auf den Raum der geschlossenen Flächen übertragen. Dies ermöglicht die Berechnung von Abbildungsmatrizen der Hecke-Operatoren auf dem Raum der harmonischen 2-Koketten durch die Auswertung auf den geschlossenen Flächen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Ursachen für die Piraterie am Horn von Afrika seien an Land zu suchen, konstatieren Vertreter aus Politik, der medialen Öffentlichkeit und den Sozialwissenschaften einhellig, wo mit Somalia der zerfallene Staat par excellence liegt. Anlässlich des gegenwärtigen Konflikts setzt sich das Papier kritisch mit dem allgegenwärtigen Konzept des Staatszerfalls auseinander. Ausgehend von der Feststellung, dass empirische Befunde die somalische Piraterie betreffend Grundannahmen der gängigen Zerfallsdiagnose und der daraus resultierenden Problemlösungsstrategien in Frage stellen, wird am Fall Somalia die Erkenntnisreichweite des Staatszerfallskonzepts an sich ausgelotet. Hierzu wird zunächst eine Bestandsaufnahme der theoretischen und methodischen Grundannahmen der Staatszerfallsforschung vollzogen und auf Operationalisierungspropleme des Forschungsstrangs hingewiesen. Das Papier kommt zu dem Ergebnis, dass der Forschungsstrang erstens zu einem einseitigen Fokus auf gesellschaftsinterne Faktoren bei der Ursachenergründung von Zerfallsprozessen neigt; zweitens tendiert die Staatszerfallsforschung zu einem reduktionistischen Akteursverständnis und sie verzichtet auf eine Analyse historisch-konkreter Herrschaftsverhältnisse und drittens verfährt sie nach einem ‘single-catch-all’-Prinzip, was eine Tendenz zur Homogenisierung unterschiedlicher empirischer Erscheinungen zur Folge hat. Diese analytischen Engführungen und Vagheiten sind dem normativen und ungeprüften Transfer des modernen Staatsbegriffs in den globalen Süden geschuldet, ebenso wie dem eurozentristischen Prozessverständnis, was den theoretischen Implikationen des Staatszerfallskonzepts zugrunde liegt. Das Konzept bietet gleichzeitig eine äußerst flexible Legitimationsfolie für interessengeleitete Außenpolitiken bishin zu Militärinterventionen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Das hier frei verfügbare Skript und die Sammlung an Klausuren mit Musterlösungen aus den Jahren 2003 bis 2013 geht auf die gleichnamige Vorlesung im Bachelorstudiengang Informatik an der Universität Kassel zurück, die von Prof. Dr. Wegner bis zum Sommer 2012 angeboten wurde. Behandelt werden Theorie und Praxis relationaler Datenbanksysteme, einschließlich Schichtenarchitektur, Modellierung mittels ER-Diagrammen, funktionale Abhängigkeiten, Normalisierung, Armstrongsche Axiome, Relationenkalkül und dessen Realisierung in SQL, Transaktionskonzept. In der Regel wird man den Stoff ergänzen um praktische Übungen, in denen Studierende u. a. mit SQL auf dem vorhandenen Datenbank-System arbeiten.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

We are currently at the cusp of a revolution in quantum technology that relies not just on the passive use of quantum effects, but on their active control. At the forefront of this revolution is the implementation of a quantum computer. Encoding information in quantum states as “qubits” allows to use entanglement and quantum superposition to perform calculations that are infeasible on classical computers. The fundamental challenge in the realization of quantum computers is to avoid decoherence – the loss of quantum properties – due to unwanted interaction with the environment. This thesis addresses the problem of implementing entangling two-qubit quantum gates that are robust with respect to both decoherence and classical noise. It covers three aspects: the use of efficient numerical tools for the simulation and optimal control of open and closed quantum systems, the role of advanced optimization functionals in facilitating robustness, and the application of these techniques to two of the leading implementations of quantum computation, trapped atoms and superconducting circuits. After a review of the theoretical and numerical foundations, the central part of the thesis starts with the idea of using ensemble optimization to achieve robustness with respect to both classical fluctuations in the system parameters, and decoherence. For the example of a controlled phasegate implemented with trapped Rydberg atoms, this approach is demonstrated to yield a gate that is at least one order of magnitude more robust than the best known analytic scheme. Moreover this robustness is maintained even for gate durations significantly shorter than those obtained in the analytic scheme. Superconducting circuits are a particularly promising architecture for the implementation of a quantum computer. Their flexibility is demonstrated by performing optimizations for both diagonal and non-diagonal quantum gates. In order to achieve robustness with respect to decoherence, it is essential to implement quantum gates in the shortest possible amount of time. This may be facilitated by using an optimization functional that targets an arbitrary perfect entangler, based on a geometric theory of two-qubit gates. For the example of superconducting qubits, it is shown that this approach leads to significantly shorter gate durations, higher fidelities, and faster convergence than the optimization towards specific two-qubit gates. Performing optimization in Liouville space in order to properly take into account decoherence poses significant numerical challenges, as the dimension scales quadratically compared to Hilbert space. However, it can be shown that for a unitary target, the optimization only requires propagation of at most three states, instead of a full basis of Liouville space. Both for the example of trapped Rydberg atoms, and for superconducting qubits, the successful optimization of quantum gates is demonstrated, at a significantly reduced numerical cost than was previously thought possible. Together, the results of this thesis point towards a comprehensive framework for the optimization of robust quantum gates, paving the way for the future realization of quantum computers.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Since no physical system can ever be completely isolated from its environment, the study of open quantum systems is pivotal to reliably and accurately control complex quantum systems. In practice, reliability of the control field needs to be confirmed via certification of the target evolution while accuracy requires the derivation of high-fidelity control schemes in the presence of decoherence. In the first part of this thesis an algebraic framework is presented that allows to determine the minimal requirements on the unique characterisation of arbitrary unitary gates in open quantum systems, independent on the particular physical implementation of the employed quantum device. To this end, a set of theorems is devised that can be used to assess whether a given set of input states on a quantum channel is sufficient to judge whether a desired unitary gate is realised. This allows to determine the minimal input for such a task, which proves to be, quite remarkably, independent of system size. These results allow to elucidate the fundamental limits regarding certification and tomography of open quantum systems. The combination of these insights with state-of-the-art Monte Carlo process certification techniques permits a significant improvement of the scaling when certifying arbitrary unitary gates. This improvement is not only restricted to quantum information devices where the basic information carrier is the qubit but it also extends to systems where the fundamental informational entities can be of arbitary dimensionality, the so-called qudits. The second part of this thesis concerns the impact of these findings from the point of view of Optimal Control Theory (OCT). OCT for quantum systems utilises concepts from engineering such as feedback and optimisation to engineer constructive and destructive interferences in order to steer a physical process in a desired direction. It turns out that the aforementioned mathematical findings allow to deduce novel optimisation functionals that significantly reduce not only the required memory for numerical control algorithms but also the total CPU time required to obtain a certain fidelity for the optimised process. The thesis concludes by discussing two problems of fundamental interest in quantum information processing from the point of view of optimal control - the preparation of pure states and the implementation of unitary gates in open quantum systems. For both cases specific physical examples are considered: for the former the vibrational cooling of molecules via optical pumping and for the latter a superconducting phase qudit implementation. In particular, it is illustrated how features of the environment can be exploited to reach the desired targets.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Shareholdern, Mitarbeitern und Konsumenten kommt im Rahmen der Corporate Social Responsibility (CSR) eine zentrale Rolle zu. Nicht zuletzt aufgrund ihrer ökonomischen Bedeutung für Unternehmen und ihrer Einflussmöglichkeiten auf diese werden sie zu den mithin wichtigsten Stakeholdern gezählt. Innerhalb der unternehmensethischen Diskussion setzt sich dabei verstärkt die Sichtweise eines Business Case von CSR durch, demzufolge CSR generell und insbesondere bei diesen drei Stakeholdern an Bedeutung gewinnt und ein entsprechendes Engagement daher neben finanziellen auch zahlreiche immaterielle Vorteile bedingt. Betrachtet man die Studienlage allerdings genauer, bleibt zu fragen, inwieweit das gezeichnete positive Bild und die ihm zugrunde liegenden Annahmen tatsächlich zutreffend sind. Denn weder liegen ausreichend Studien vor, die sich mit den Prozessen auf der Mikro-Ebene befassen, noch spiegelt sich die postulierte und von Konsumenten in Befragungen geäußerte Kauf- und Zahlungsbereitschaft im Marktanteil ethischer Produkte und Dienstleistungen wider, was im Allgemeinen dann allerdings wiederum durch ein „attitude-behaviour-gap“ erklärt wird. Mit Blick auf ein Socially Responsible Investment (SRI) stellt sich die Sach- oder Marktlage zwar besser dar, doch wird gemeinhin stillschweigend und unhinterfragt davon ausgegangen, dass ein ethisches Investment per se ethisch sei. Die Arbeit setzt an diesen Punkten an und geht nach einer Klärung zentraler Begriffe der Frage nach der Relevanz und Wahrnehmung von CSR bei den drei Stakeholdern anhand eigener qualitativer Fallstudien empirisch nach; d. h. konkret, mittels einer Einzelfallstudie unter der Mitarbeiterschaft eines mittelständischen Unternehmens, einer Konsumentenbefragung zum Kleidungskauf und einer Einzelfallstudie zur Überprüfung der Praxis ethischen Investments anhand des als besonders „ethisch“ ausgewiesenen Ethik-Fonds von Schellhammer & Schattera. Im Endergebnis zeigt sich, dass berechtigte Zweifel an den vielfach postulierten positiven Entwicklungen und Effekten und damit auch der Sichtweise eines Business Case von CSR angebracht sind. Denn selbst der gewählte ethische Fonds kann nicht alle an ein derartiges Investment zu stellenden Kriterien zweifelsfrei erfüllen. In eine ähnlich kritische Richtung weisen auch die Befunde der Konsumentenstudie. Durch die Verwendung eines anderen Untersuchungsansatzes zeigt sich, dass für den Großteil der befragten Konsumenten ethische Aspekte in Wirklichkeit keine oder wenn, eine allenfalls sehr untergeordnete Rolle spielen. Entsprechend handelt es sich möglicherweise beim „attitude-behaviour-gap“ vielfach nur um eine Pseudo-Inkonsistenz, die, wie aufgezeigt wird, theoretisch und methodisch bedingt ist. Im Vergleich dazu fallen die Befunde der Mitarbeiterstudie zwar sehr positiv aus, verweisen jedoch auch auf einen allgemein vernachlässigten zentralen Aspekt des CSR-Engagements. So können die empirisch belegten positiven Effekte zwar bestätigt werden, doch zeigt sich, dass diese wesentlich an die Bedingung der Authentizität von CSR geknüpft zu sein scheinen. Die sich hieraus wie aus den anderen Studien ergebenden Konsequenzen und Fragen werden im Rahmen einer Zusammenfassung abschließend diskutiert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

1986 bis 1988 eintwickelte die Projektjektgruppe verfassungsverträgliche Technikgestaltung (provet) in einer konditionalen Prognose ein Szenario für die Entwicklung und Anwendung der Informationstechnik in Deutschland. Daraus wurden Thesen für die Verletzlichkeit der Gesellschaft und deren Folgen sowie Gestaltungsvorschläge abgeleitet, mit denen die Verletzlichkeit reduziert werden könne. Der Forschungsbericht "Die Verletzlichkeit der Informationsgesellschaft" wurde vor 25 Jahren publiziert. In dem vorliegenden Beitrag prüfen Mitglieder von provet, inwieweit das Szenario und die diesbezügliche angenommene Verletzlichkeit eingetreten sind, ob eine Gegensteuerung gegen zu viel Verletzlichkeit stattfand und welche Rolle die Gestaltungsvorschläge der Studie dabei spielten. Daraus lässt sich mittelbar auch erkennen, wie nützlich der methodische Ansatz der Technikfolgenforschung und die Gestaltungsvorschläge waren und heute sein können.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Diese Arbeit weist Momentum-Renditen für europäische Aktien im Zeitraum von 1991 bis 2010 nach, die – je nach Top/Flop-Prozentsatz – vor Kosten zwischen 6 und 19% p.a. liegen. Gleichzeitig liegen mit hohen Standardabweichungen, negativen Schiefe-Werten und hohen Drawdowns drei wesentliche Risikofaktoren vor. Für die Kernuntersuchungen des Top/Flop-Wertes von 5% treten die höchsten Momentum-Renditen von mehr als 10% p.a. für Ranking-Perioden von 80 bis 100 und Holding-Perioden von 60 bis 90 Handelstagen auf. Grundsätzlich sind die extremsten Aktien der Ranking-Periode entscheidend für die Ausprägung des Momentum-Effekts. Gleichzeitig steigen mit zunehmender Eingrenzung des Top/Flop-Wertes die Risiken, was eine Erklärung hoher Momentum-Renditen aus Sicht der Risikoaversions-Theorie nahelegt. Auch die Berücksichtigung zusätzlicher Filterbedingungen (Gleitende Durchschnitte, Handelsvolumen, Low Volatility) ermöglicht leicht höhere Momentum-Renditen bei entsprechend höheren Risiken. Zwischen dem Momentum-Effekt und dem Auftreten von Kurslücken besteht dagegen kein klarer Zusammenhang. Für die praktische Anwendung sind Momentum-Strategien mit dynamischer Positionsverwaltung während der Haltedauer interessant. Untersucht wurden Strategien anhand der eigens programmierten Simulationsverfahren Stopout und Castout sowie eines kombinierten Verfahrens. Im Ergebnis sind – je nach Präferenz des Investors – das Castout- und das kombinierte Verfahren optimal. Für das Rebalancing der Portfolios empfiehlt es sich, zu den entsprechenden Terminen jeweils nur die Short-Seite auf den Startwert zurückzusetzen. Weiterhin zeigen die Untersuchungen, dass deutliche Long-Übergewichtungen bei Momentum-Strategien grundsätzlich von Vorteil sind. Potenzielle Verbesserungen der Ergebnisse können durch weitere Stopp-Abstände, eine Verringerung des Top/Flop-Wertes oder eine längere Ranking-Periode erzielt werden. Weiterhin sind für die Praxis Long-only-Strategien auf Basis von Doppelranking-Verfahren attraktiv, bei denen das Zweitranking nach Standardabweichung oder Rendite/Standardabweichungs-Ratio erfolgt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Intensive, ultrakurze Laserpulse regen Festkörper in einen Zustand an, in dem die Elektronen hohe Temperaturen erlangen, während das Gitter kalt bleibt. Die heißen Elektronen beeinflussen das sog. Laser-angeregte interatomare Potential bzw. die Potentialenergiefläche, auf der die Ionen sich bewegen. Dieses kann neben anderen ultrakurzen Prozessen zu Änderungen der Phononfrequenzen (phonon softening oder phonon hardening) führen. Viele ultrakurze strukturelle Phänomene in Festkörpern hängen bei hohen Laseranregungen von Änderungen der Phononfrequenzen bei niedrigeren Anregungen ab. Um die Laser-bedingten Änderungen des Phononenspektrums von Festkörpern beschreiben zu können, haben wir ein auf Temperatur-abhängiger Dichtefunktionaltheorie basierendes Verfahren entwickelt. Die dramatischen Änderungen nach einer Laseranregung in der Potentialenergiefläche werden durch die starke Veränderung der Zustandsdichte und der Besetzungen der Elektronen hervorgerufen. Diese Änderungen in der Zustandsdichte und den Besetzungszahlen können wir mit unserer Methode berechnen, um dann damit das Verhalten der Phononen nach einer Laseranregung zu analysieren. Auf diese Art und Weise studierten wir den Einfluss einer Anregung mit einem intensiven, ultrakurzen Laserpuls auf repräsentative Phonon Eigenmoden in Magnesium, Kupfer und Aluminium. Wir stellten dabei in manchen Gitterschwingungen entweder eine Abnahme (softening) und in anderen eine Zunahme (hardening) der Eigenfrequenz fest. Manche Moden zeigten bei Variation der Laseranregungsstärke sogar beide Verhaltensweisen. Das eine Phonon-Eigenmode ein hardening und softening zeigen kann, wird durch das Vorhandensein von van Hove Singularitäten in der elektronischen Zustandsdichte des betrachteten Materials erklärt. Für diesen Fall stellt unser Verfahren zusammen mit der Sommerfeld-Entwicklung die Eigenschaften der Festkörper Vibrationen in Verbindung mit den Laser induzierten Veränderungen in den elektronischen Besetzungen für verschiedene Phonon-eingefrorene Atomkonfigurationen. Auch die absolute Größe des softening und hardening wurde berechnet. Wir nehmen an, dass unsere Theorie Licht in die Effekte der Laseranregung von verschiedenen Materialien bringt. Außerdem studierten wir mit Hilfe von Dichtefunktionaltheorie die strukturellen Material-Eigenschaften, die durch kurze XUV Pulse induziert werden. Warme dichte Materie in Ultrakurzpuls angeregten Magnesium wurde analysiert und verglichen mit den Ergebnissen bei durch Laser Anregung bedingten Änderungen. Unter Verwendung von elektronischer-Temperatur-abhängiger Dichtefunktionaltheorie wurden die Änderungen in den Bindungseigenschaften von warmen dichten Magnesium studiert. Wir stellten dabei beide Effekte, Verstärkung und Abschwächung von Bindungen, bei jeweils verschiedenen Phonon Eigenmoden von Magnesium auf Grund von der Erzeugung von Rumpflöchern und dem Vorhandensein von heißen Elektronen fest. Die zusätzliche Erzeugung von heißen Elektronen führt zu einer Änderung der Bindungscharakteristik, die der Änderung, die durch die bereits vorhandenen Rumpflöcher hervorgerufen wurde, entgegen wirkt. Die thermischen Eigenschaften von Nanostrukturen sind teilweise sehr wichtig für elektronische Bauteile. Wir studierten hier ebenfalls den Effekt einer einzelnen Graphen Lage auf Kupfer. Dazu untersuchten wir mit Dichtefunktionaltheorie die strukturellen- und Schwingungseigenschaften von Graphen auf einem Kupfer Substrat. Wir zeigen, dass die schwache Wechselwirkung zwischen Graphen und Kupfer die Frequenz der aus der Ebene gerichteten akustischen Phonon Eigenmode anhebt und die Entartung zwischen den aus der Ebene gerichteten akustischen und optischen Phononen im K-Punkt des Graphen Spektrums aufhebt. Zusätzlich führten wir ab initio Berechnungen zur inelastischen Streuung eines Helium Atoms mit Graphen auf einem Kuper(111) Substrat durch. Wir berechneten dazu das Leistungsspektrum, das uns eine Idee über die verschiedenen Gitterschwingungen des Graphene-Kuper(111) Systems gibt, die durch die Kollision des Helium Atom angeregt werden. Wir brachten die Positionen der Peaks im Leistungsspektrum mit den Phonon Eigenfrequenzen, die wir aus den statischen Rechnungen erhalten haben, in Beziehung. Unsere Ergebnisse werden auch verglichen mit den Ergebnissen experimenteller Daten zur Helium Streuung an Graphen-Kupfer(111) Oberflächen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this work, we present an atomistic-continuum model for simulations of ultrafast laser-induced melting processes in semiconductors on the example of silicon. The kinetics of transient non-equilibrium phase transition mechanisms is addressed with MD method on the atomic level, whereas the laser light absorption, strong generated electron-phonon nonequilibrium, fast heat conduction, and photo-excited free carrier diffusion are accounted for with a continuum TTM-like model (called nTTM). First, we independently consider the applications of nTTM and MD for the description of silicon, and then construct the combined MD-nTTM model. Its development and thorough testing is followed by a comprehensive computational study of fast nonequilibrium processes induced in silicon by an ultrashort laser irradiation. The new model allowed to investigate the effect of laser-induced pressure and temperature of the lattice on the melting kinetics. Two competing melting mechanisms, heterogeneous and homogeneous, were identified in our big-scale simulations. Apart from the classical heterogeneous melting mechanism, the nucleation of the liquid phase homogeneously inside the material significantly contributes to the melting process. The simulations showed, that due to the open diamond structure of the crystal, the laser-generated internal compressive stresses reduce the crystal stability against the homogeneous melting. Consequently, the latter can take a massive character within several picoseconds upon the laser heating. Due to the large negative volume of melting of silicon, the material contracts upon the phase transition, relaxes the compressive stresses, and the subsequent melting proceeds heterogeneously until the excess of thermal energy is consumed. A series of simulations for a range of absorbed fluences allowed us to find the threshold fluence value at which homogeneous liquid nucleation starts contributing to the classical heterogeneous propagation of the solid-liquid interface. A series of simulations for a range of the material thicknesses showed that the sample width we chosen in our simulations (800 nm) corresponds to a thick sample. Additionally, in order to support the main conclusions, the results were verified for a different interatomic potential. Possible improvements of the model to account for nonthermal effects are discussed and certain restrictions on the suitable interatomic potentials are found. As a first step towards the inclusion of these effects into MD-nTTM, we performed nanometer-scale MD simulations with a new interatomic potential, designed to reproduce ab initio calculations at the laser-induced electronic temperature of 18946 K. The simulations demonstrated that, similarly to thermal melting, nonthermal phase transition occurs through nucleation. A series of simulations showed that higher (lower) initial pressure reinforces (hinders) the creation and the growth of nonthermal liquid nuclei. For the example of Si, the laser melting kinetics of semiconductors was found to be noticeably different from that of metals with a face-centered cubic crystal structure. The results of this study, therefore, have important implications for interpretation of experimental data on the kinetics of melting process of semiconductors.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ziel dieser Dissertation ist es, eine Klasse interferometrischer Messgeräte zu charakterisieren und weiter zu entwickeln. Die Modulation der optischen Weglänge (OPLM) im Referenzarm eines interferometrischen Messsystems ist ein anpassungsfähiger Ansatz. Sie ist zur Messung von Oberflächenprofilen mit einer Auflösung bis in den sub-nm-Bereich bei einem Messbereich von bis zu 100 Mikrometer geeignet. Wird ein statisches Messobjekt gemessen, tritt durch die Modulation im Referenzarm am Detektor ein periodisches Interferenzmuster auf. Dies ist in der unten stehenden Abbildung schematisch dargestellt. Bei einer Veränderung des Abstandes zwischen Objekt und Messgerät kann aus der Phasen- und/oder Hüllkurvenverschiebung im Interferenzmuster die Abstandsänderung abgeleitet werden.Im Rahmen der Arbeit sind zwei funktionsfähige OPLM-Messsysteme entwickelt, aufgebaut und getestet worden. Diese demonstrieren, dass der OPLM-Ansatz ein breites Spektrum an Anwendungen durch eine optische Messung abdecken kann. Allerdings zeigen sich an den Messsystemen auch die Limitierungen des OPLM-Ansatzes. Die Systeme basieren auf einer Punktmessung mittels einer fasergekoppelten Sonde sowie auf einer linienförmigen Messung durch eine Zeilenkamera. Um eine hohe laterale Auflösung zu erzielen, wird die Zeilenkamera mit einem Mikroskop kombiniert. Damit flächenhaft gemessen werden kann, ist es notwendig, Messobjekt und Sensor zueinander zu verschieben. Daher wird eine Theorie entwickelt, unter welchen Randbedingungen bewegte Objekte von einem OPLM-Messsystem aufgelöst werden können. Die Theorie wird anschließend experimentell überprüft und bestätigt. Für die Auswertung der bei der Modulation der optischen Weglänge entstehenden Interferenzen existieren bereits einige erprobte Algorithmen, welche auf ihre Eignung hin untersucht und mit selbst entwickelten Algorithmen verglichen werden. Auch wird darauf eingegangen, welches die zentralen Herausforderungen bei der Planung von OPLM-Interferometern sind und wie sich insbesondere die Wahl des Aktors für die OPLM auf das gesamte Messsystem auswirkt. Bei den beiden Messsystemen werden jeweils wichtige Komponenten wie analoge Elektronik und Aktorik sowie ihre Funktionsweise erläutert. Es wird detailliert beschrieben, wie ein OPLM-Messsystem charakterisiert und kalibriert werden muss, um möglichst zuverlässige Messwerte zu liefern. Abschließend werden die Möglichkeiten der beiden entwickelten Systeme durch Beispielmessungen demonstriert, sowie ihre Messgenauigkeit charakterisiert.