119 resultados para Subjektive Theorie


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Das hier frei verfügbare Skript und die Sammlung an Klausuren mit Musterlösungen aus den Jahren 2003 bis 2013 geht auf die gleichnamige Vorlesung im Bachelorstudiengang Informatik an der Universität Kassel zurück, die von Prof. Dr. Wegner bis zum Sommer 2012 angeboten wurde. Behandelt werden Theorie und Praxis relationaler Datenbanksysteme, einschließlich Schichtenarchitektur, Modellierung mittels ER-Diagrammen, funktionale Abhängigkeiten, Normalisierung, Armstrongsche Axiome, Relationenkalkül und dessen Realisierung in SQL, Transaktionskonzept. In der Regel wird man den Stoff ergänzen um praktische Übungen, in denen Studierende u. a. mit SQL auf dem vorhandenen Datenbank-System arbeiten.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Climate change remains a major challenge for today’s and future societies due to its immense impacts on human lives and the natural environment. This thesis investigates the extent to which individuals are willing and prepared to voluntarily contribute to climate protection and to adjust to new climatic conditions in order to cope with the consequences of climate change and reduce the severity of potential negative impacts. The thesis thereby combines research in the fields of the private provision of environmental public goods and adaptation to climate change, which is still widely unconnected in the existing literature. The six contributions of this thesis mainly focus on microeconometric analyses using data from international surveys in China, Germany, and the USA. The main findings are: (i) A substantial share of individuals is willing to voluntarily contribute to climate protection and to adapt to climatic change. The engagement in both strategies is positively interrelated at the individual level and the analyses reveal hardly any evidence that adaptation activities crowd out individuals’ incentives to engage in climate protection. (ii) The main determinants of individuals’ adaptation activities seem to be the subjective risk perception as well as socio-economic and socio-demographic characteristics like age, gender, education, and income, while their climate protection efforts are found to be broadly motivated by financial advantages from these activities and additional immaterial benefits. (iii) The empirical findings also suggest a significantly positive relationship between certain climate protection activities. Substitutions are found to occur merely if one measure is perceived to be more effective in providing climate protection or if individuals have high environmental preferences. (iv) This thesis further reveals a common understanding of a (normatively) fair burden-sharing in international climate policy across citizens in China, Germany, and the USA. The highest preferences are found for the accountability principle.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

We are currently at the cusp of a revolution in quantum technology that relies not just on the passive use of quantum effects, but on their active control. At the forefront of this revolution is the implementation of a quantum computer. Encoding information in quantum states as “qubits” allows to use entanglement and quantum superposition to perform calculations that are infeasible on classical computers. The fundamental challenge in the realization of quantum computers is to avoid decoherence – the loss of quantum properties – due to unwanted interaction with the environment. This thesis addresses the problem of implementing entangling two-qubit quantum gates that are robust with respect to both decoherence and classical noise. It covers three aspects: the use of efficient numerical tools for the simulation and optimal control of open and closed quantum systems, the role of advanced optimization functionals in facilitating robustness, and the application of these techniques to two of the leading implementations of quantum computation, trapped atoms and superconducting circuits. After a review of the theoretical and numerical foundations, the central part of the thesis starts with the idea of using ensemble optimization to achieve robustness with respect to both classical fluctuations in the system parameters, and decoherence. For the example of a controlled phasegate implemented with trapped Rydberg atoms, this approach is demonstrated to yield a gate that is at least one order of magnitude more robust than the best known analytic scheme. Moreover this robustness is maintained even for gate durations significantly shorter than those obtained in the analytic scheme. Superconducting circuits are a particularly promising architecture for the implementation of a quantum computer. Their flexibility is demonstrated by performing optimizations for both diagonal and non-diagonal quantum gates. In order to achieve robustness with respect to decoherence, it is essential to implement quantum gates in the shortest possible amount of time. This may be facilitated by using an optimization functional that targets an arbitrary perfect entangler, based on a geometric theory of two-qubit gates. For the example of superconducting qubits, it is shown that this approach leads to significantly shorter gate durations, higher fidelities, and faster convergence than the optimization towards specific two-qubit gates. Performing optimization in Liouville space in order to properly take into account decoherence poses significant numerical challenges, as the dimension scales quadratically compared to Hilbert space. However, it can be shown that for a unitary target, the optimization only requires propagation of at most three states, instead of a full basis of Liouville space. Both for the example of trapped Rydberg atoms, and for superconducting qubits, the successful optimization of quantum gates is demonstrated, at a significantly reduced numerical cost than was previously thought possible. Together, the results of this thesis point towards a comprehensive framework for the optimization of robust quantum gates, paving the way for the future realization of quantum computers.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Since no physical system can ever be completely isolated from its environment, the study of open quantum systems is pivotal to reliably and accurately control complex quantum systems. In practice, reliability of the control field needs to be confirmed via certification of the target evolution while accuracy requires the derivation of high-fidelity control schemes in the presence of decoherence. In the first part of this thesis an algebraic framework is presented that allows to determine the minimal requirements on the unique characterisation of arbitrary unitary gates in open quantum systems, independent on the particular physical implementation of the employed quantum device. To this end, a set of theorems is devised that can be used to assess whether a given set of input states on a quantum channel is sufficient to judge whether a desired unitary gate is realised. This allows to determine the minimal input for such a task, which proves to be, quite remarkably, independent of system size. These results allow to elucidate the fundamental limits regarding certification and tomography of open quantum systems. The combination of these insights with state-of-the-art Monte Carlo process certification techniques permits a significant improvement of the scaling when certifying arbitrary unitary gates. This improvement is not only restricted to quantum information devices where the basic information carrier is the qubit but it also extends to systems where the fundamental informational entities can be of arbitary dimensionality, the so-called qudits. The second part of this thesis concerns the impact of these findings from the point of view of Optimal Control Theory (OCT). OCT for quantum systems utilises concepts from engineering such as feedback and optimisation to engineer constructive and destructive interferences in order to steer a physical process in a desired direction. It turns out that the aforementioned mathematical findings allow to deduce novel optimisation functionals that significantly reduce not only the required memory for numerical control algorithms but also the total CPU time required to obtain a certain fidelity for the optimised process. The thesis concludes by discussing two problems of fundamental interest in quantum information processing from the point of view of optimal control - the preparation of pure states and the implementation of unitary gates in open quantum systems. For both cases specific physical examples are considered: for the former the vibrational cooling of molecules via optical pumping and for the latter a superconducting phase qudit implementation. In particular, it is illustrated how features of the environment can be exploited to reach the desired targets.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Diese Arbeit weist Momentum-Renditen für europäische Aktien im Zeitraum von 1991 bis 2010 nach, die – je nach Top/Flop-Prozentsatz – vor Kosten zwischen 6 und 19% p.a. liegen. Gleichzeitig liegen mit hohen Standardabweichungen, negativen Schiefe-Werten und hohen Drawdowns drei wesentliche Risikofaktoren vor. Für die Kernuntersuchungen des Top/Flop-Wertes von 5% treten die höchsten Momentum-Renditen von mehr als 10% p.a. für Ranking-Perioden von 80 bis 100 und Holding-Perioden von 60 bis 90 Handelstagen auf. Grundsätzlich sind die extremsten Aktien der Ranking-Periode entscheidend für die Ausprägung des Momentum-Effekts. Gleichzeitig steigen mit zunehmender Eingrenzung des Top/Flop-Wertes die Risiken, was eine Erklärung hoher Momentum-Renditen aus Sicht der Risikoaversions-Theorie nahelegt. Auch die Berücksichtigung zusätzlicher Filterbedingungen (Gleitende Durchschnitte, Handelsvolumen, Low Volatility) ermöglicht leicht höhere Momentum-Renditen bei entsprechend höheren Risiken. Zwischen dem Momentum-Effekt und dem Auftreten von Kurslücken besteht dagegen kein klarer Zusammenhang. Für die praktische Anwendung sind Momentum-Strategien mit dynamischer Positionsverwaltung während der Haltedauer interessant. Untersucht wurden Strategien anhand der eigens programmierten Simulationsverfahren Stopout und Castout sowie eines kombinierten Verfahrens. Im Ergebnis sind – je nach Präferenz des Investors – das Castout- und das kombinierte Verfahren optimal. Für das Rebalancing der Portfolios empfiehlt es sich, zu den entsprechenden Terminen jeweils nur die Short-Seite auf den Startwert zurückzusetzen. Weiterhin zeigen die Untersuchungen, dass deutliche Long-Übergewichtungen bei Momentum-Strategien grundsätzlich von Vorteil sind. Potenzielle Verbesserungen der Ergebnisse können durch weitere Stopp-Abstände, eine Verringerung des Top/Flop-Wertes oder eine längere Ranking-Periode erzielt werden. Weiterhin sind für die Praxis Long-only-Strategien auf Basis von Doppelranking-Verfahren attraktiv, bei denen das Zweitranking nach Standardabweichung oder Rendite/Standardabweichungs-Ratio erfolgt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Intensive, ultrakurze Laserpulse regen Festkörper in einen Zustand an, in dem die Elektronen hohe Temperaturen erlangen, während das Gitter kalt bleibt. Die heißen Elektronen beeinflussen das sog. Laser-angeregte interatomare Potential bzw. die Potentialenergiefläche, auf der die Ionen sich bewegen. Dieses kann neben anderen ultrakurzen Prozessen zu Änderungen der Phononfrequenzen (phonon softening oder phonon hardening) führen. Viele ultrakurze strukturelle Phänomene in Festkörpern hängen bei hohen Laseranregungen von Änderungen der Phononfrequenzen bei niedrigeren Anregungen ab. Um die Laser-bedingten Änderungen des Phononenspektrums von Festkörpern beschreiben zu können, haben wir ein auf Temperatur-abhängiger Dichtefunktionaltheorie basierendes Verfahren entwickelt. Die dramatischen Änderungen nach einer Laseranregung in der Potentialenergiefläche werden durch die starke Veränderung der Zustandsdichte und der Besetzungen der Elektronen hervorgerufen. Diese Änderungen in der Zustandsdichte und den Besetzungszahlen können wir mit unserer Methode berechnen, um dann damit das Verhalten der Phononen nach einer Laseranregung zu analysieren. Auf diese Art und Weise studierten wir den Einfluss einer Anregung mit einem intensiven, ultrakurzen Laserpuls auf repräsentative Phonon Eigenmoden in Magnesium, Kupfer und Aluminium. Wir stellten dabei in manchen Gitterschwingungen entweder eine Abnahme (softening) und in anderen eine Zunahme (hardening) der Eigenfrequenz fest. Manche Moden zeigten bei Variation der Laseranregungsstärke sogar beide Verhaltensweisen. Das eine Phonon-Eigenmode ein hardening und softening zeigen kann, wird durch das Vorhandensein von van Hove Singularitäten in der elektronischen Zustandsdichte des betrachteten Materials erklärt. Für diesen Fall stellt unser Verfahren zusammen mit der Sommerfeld-Entwicklung die Eigenschaften der Festkörper Vibrationen in Verbindung mit den Laser induzierten Veränderungen in den elektronischen Besetzungen für verschiedene Phonon-eingefrorene Atomkonfigurationen. Auch die absolute Größe des softening und hardening wurde berechnet. Wir nehmen an, dass unsere Theorie Licht in die Effekte der Laseranregung von verschiedenen Materialien bringt. Außerdem studierten wir mit Hilfe von Dichtefunktionaltheorie die strukturellen Material-Eigenschaften, die durch kurze XUV Pulse induziert werden. Warme dichte Materie in Ultrakurzpuls angeregten Magnesium wurde analysiert und verglichen mit den Ergebnissen bei durch Laser Anregung bedingten Änderungen. Unter Verwendung von elektronischer-Temperatur-abhängiger Dichtefunktionaltheorie wurden die Änderungen in den Bindungseigenschaften von warmen dichten Magnesium studiert. Wir stellten dabei beide Effekte, Verstärkung und Abschwächung von Bindungen, bei jeweils verschiedenen Phonon Eigenmoden von Magnesium auf Grund von der Erzeugung von Rumpflöchern und dem Vorhandensein von heißen Elektronen fest. Die zusätzliche Erzeugung von heißen Elektronen führt zu einer Änderung der Bindungscharakteristik, die der Änderung, die durch die bereits vorhandenen Rumpflöcher hervorgerufen wurde, entgegen wirkt. Die thermischen Eigenschaften von Nanostrukturen sind teilweise sehr wichtig für elektronische Bauteile. Wir studierten hier ebenfalls den Effekt einer einzelnen Graphen Lage auf Kupfer. Dazu untersuchten wir mit Dichtefunktionaltheorie die strukturellen- und Schwingungseigenschaften von Graphen auf einem Kupfer Substrat. Wir zeigen, dass die schwache Wechselwirkung zwischen Graphen und Kupfer die Frequenz der aus der Ebene gerichteten akustischen Phonon Eigenmode anhebt und die Entartung zwischen den aus der Ebene gerichteten akustischen und optischen Phononen im K-Punkt des Graphen Spektrums aufhebt. Zusätzlich führten wir ab initio Berechnungen zur inelastischen Streuung eines Helium Atoms mit Graphen auf einem Kuper(111) Substrat durch. Wir berechneten dazu das Leistungsspektrum, das uns eine Idee über die verschiedenen Gitterschwingungen des Graphene-Kuper(111) Systems gibt, die durch die Kollision des Helium Atom angeregt werden. Wir brachten die Positionen der Peaks im Leistungsspektrum mit den Phonon Eigenfrequenzen, die wir aus den statischen Rechnungen erhalten haben, in Beziehung. Unsere Ergebnisse werden auch verglichen mit den Ergebnissen experimenteller Daten zur Helium Streuung an Graphen-Kupfer(111) Oberflächen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this work, we present an atomistic-continuum model for simulations of ultrafast laser-induced melting processes in semiconductors on the example of silicon. The kinetics of transient non-equilibrium phase transition mechanisms is addressed with MD method on the atomic level, whereas the laser light absorption, strong generated electron-phonon nonequilibrium, fast heat conduction, and photo-excited free carrier diffusion are accounted for with a continuum TTM-like model (called nTTM). First, we independently consider the applications of nTTM and MD for the description of silicon, and then construct the combined MD-nTTM model. Its development and thorough testing is followed by a comprehensive computational study of fast nonequilibrium processes induced in silicon by an ultrashort laser irradiation. The new model allowed to investigate the effect of laser-induced pressure and temperature of the lattice on the melting kinetics. Two competing melting mechanisms, heterogeneous and homogeneous, were identified in our big-scale simulations. Apart from the classical heterogeneous melting mechanism, the nucleation of the liquid phase homogeneously inside the material significantly contributes to the melting process. The simulations showed, that due to the open diamond structure of the crystal, the laser-generated internal compressive stresses reduce the crystal stability against the homogeneous melting. Consequently, the latter can take a massive character within several picoseconds upon the laser heating. Due to the large negative volume of melting of silicon, the material contracts upon the phase transition, relaxes the compressive stresses, and the subsequent melting proceeds heterogeneously until the excess of thermal energy is consumed. A series of simulations for a range of absorbed fluences allowed us to find the threshold fluence value at which homogeneous liquid nucleation starts contributing to the classical heterogeneous propagation of the solid-liquid interface. A series of simulations for a range of the material thicknesses showed that the sample width we chosen in our simulations (800 nm) corresponds to a thick sample. Additionally, in order to support the main conclusions, the results were verified for a different interatomic potential. Possible improvements of the model to account for nonthermal effects are discussed and certain restrictions on the suitable interatomic potentials are found. As a first step towards the inclusion of these effects into MD-nTTM, we performed nanometer-scale MD simulations with a new interatomic potential, designed to reproduce ab initio calculations at the laser-induced electronic temperature of 18946 K. The simulations demonstrated that, similarly to thermal melting, nonthermal phase transition occurs through nucleation. A series of simulations showed that higher (lower) initial pressure reinforces (hinders) the creation and the growth of nonthermal liquid nuclei. For the example of Si, the laser melting kinetics of semiconductors was found to be noticeably different from that of metals with a face-centered cubic crystal structure. The results of this study, therefore, have important implications for interpretation of experimental data on the kinetics of melting process of semiconductors.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ziel dieser Dissertation ist es, eine Klasse interferometrischer Messgeräte zu charakterisieren und weiter zu entwickeln. Die Modulation der optischen Weglänge (OPLM) im Referenzarm eines interferometrischen Messsystems ist ein anpassungsfähiger Ansatz. Sie ist zur Messung von Oberflächenprofilen mit einer Auflösung bis in den sub-nm-Bereich bei einem Messbereich von bis zu 100 Mikrometer geeignet. Wird ein statisches Messobjekt gemessen, tritt durch die Modulation im Referenzarm am Detektor ein periodisches Interferenzmuster auf. Dies ist in der unten stehenden Abbildung schematisch dargestellt. Bei einer Veränderung des Abstandes zwischen Objekt und Messgerät kann aus der Phasen- und/oder Hüllkurvenverschiebung im Interferenzmuster die Abstandsänderung abgeleitet werden.Im Rahmen der Arbeit sind zwei funktionsfähige OPLM-Messsysteme entwickelt, aufgebaut und getestet worden. Diese demonstrieren, dass der OPLM-Ansatz ein breites Spektrum an Anwendungen durch eine optische Messung abdecken kann. Allerdings zeigen sich an den Messsystemen auch die Limitierungen des OPLM-Ansatzes. Die Systeme basieren auf einer Punktmessung mittels einer fasergekoppelten Sonde sowie auf einer linienförmigen Messung durch eine Zeilenkamera. Um eine hohe laterale Auflösung zu erzielen, wird die Zeilenkamera mit einem Mikroskop kombiniert. Damit flächenhaft gemessen werden kann, ist es notwendig, Messobjekt und Sensor zueinander zu verschieben. Daher wird eine Theorie entwickelt, unter welchen Randbedingungen bewegte Objekte von einem OPLM-Messsystem aufgelöst werden können. Die Theorie wird anschließend experimentell überprüft und bestätigt. Für die Auswertung der bei der Modulation der optischen Weglänge entstehenden Interferenzen existieren bereits einige erprobte Algorithmen, welche auf ihre Eignung hin untersucht und mit selbst entwickelten Algorithmen verglichen werden. Auch wird darauf eingegangen, welches die zentralen Herausforderungen bei der Planung von OPLM-Interferometern sind und wie sich insbesondere die Wahl des Aktors für die OPLM auf das gesamte Messsystem auswirkt. Bei den beiden Messsystemen werden jeweils wichtige Komponenten wie analoge Elektronik und Aktorik sowie ihre Funktionsweise erläutert. Es wird detailliert beschrieben, wie ein OPLM-Messsystem charakterisiert und kalibriert werden muss, um möglichst zuverlässige Messwerte zu liefern. Abschließend werden die Möglichkeiten der beiden entwickelten Systeme durch Beispielmessungen demonstriert, sowie ihre Messgenauigkeit charakterisiert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Diese Lecture Note beinhaltet in Ergänzung zu den Elementaria drei Beiträge zur lehramts-orientierten elementaren Mathematik. Ein 1. Beitrag befasst sich mit der von Erich Chr. Wittmann kreierten Weihnachtsaufgabe 2015 zum EINS+EINS. Ein 2. Beitrag führt ein in die Theorie des Releaux-Dreiecks und allgemeinerer Gleichdicke unter Berücksichtigung ihrer technischen Bedeutung. Und schließlich ist eine 3. Beitrag der Einübung der Kreisgeometrie unter Einsatz der Software DYNA-GEO und gelenkmechanischer Aspekte sowie der Einübung des komplexen Rechnens und der Goniometrie gewidmet.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Harmonische Funktionen auf dem Bruhat-Tits-Gebäude der PGL(3) über Funktionenkörpern lassen sich als ein Analogon zu den auf der oberen Halbebene definierten klassischen Spitzenformen verstehen. An die Stelle des starken Abklingens der Spitzenformen tritt hier die Endlichkeit des Trägers modulo einer gewissen Untergruppe. Der erste Teil der vorliegenden Arbeit befaßt sich mit der Untersuchung und Charakterisierung dieses Trägers. Im weiteren Verlauf werden gewisse Konzepte der klassischen Theorie auf harmonische Funktionen übertragen. So wird gezeigt, daß diese sich ebenfalls als Fourierreihe darstellen lassen und es werden explizite Formeln für die Fourierkoeffizienten hergeleitet. Es stellt sich heraus, daß sich die Harmonizität in gewissen Relationen zwischen den Fourierkoeffizienten widerspiegelt und sich umgekehrt aus einem Satz passender Koeffizienten eine harmonische Funktion erzeugen läßt. Dies wird zur expliziten Konstruktion zweier quasi-harmonischer Funktionen genutzt, die ein Pendant zu klassischen Poincaré-Reihen darstellen. Abschließend werden Hecke-Operatoren definiert und Formeln für die Fourierkoeffizienten der Hecke-Transformierten einer harmonischen Funktion hergeleitet.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Der Körper in der Kunst ist grundsätzlich eine Darstellung der Rebellion. Die Body-Art der 1990er unterscheidet sich in ihren spezifischen Erscheinungsformen deutlich von der Happening- und Performancekunst ihrer Vorläuferbewegung in den siebziger Jahren (Manifest Body Art 1974, François Pluchart 1937-1988). Mit dem Titel BodyArt-X- erfolgt ein Hinweis auf die Betrachtung einer abgrenzbaren Künstlergeneration, die in ihren zwiespältigen Selbstkonstruktionen die zunehmenden medialen Einflüsse dokumentiert. Im Mittelpunkt der wissenschaftlichen Analyse steht die Körperkunst der neunziger Jahre und deren eigene ästhetische Formensprache. Die Polymorphie der permanenten Umgestaltung wird mit der unbekannten Variable –X- im Titel zum Ausdruck gebracht. Die wissenschaftliche Grundlage bilden die Negation und die beginnende Entmaterialisierung innerhalb der Moderne und Postmoderne.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Wer schon einmal für kurze Zeit spielenden Kindern zugeschaut hat, mag es als faszinierend empfunden haben, dass das gemeinsame Spiel manchmal „wie von selbst“ abzulaufen scheint. Durch eine intensive Auseinandersetzung mit dessen Theorie und gezielten Beobachtungen ist allerdings festzustellen, dass Spiel eigentlich gar kein „Kinderspiel“, sondern vielmehr eine komplexe Tätigkeit ist. Jedes Spiel weist eine in sich abgeschlossene eigene Wirklichkeit auf, welche sich von der äußeren allgemeingültigen Wirklichkeit abhebt (vgl. Bateson 2007, S. 198f; Oerter 1997, S. 117). Ein Spielrahmen ist vorhanden, der die Situation als Spiel definiert und dessen Grenzen festlegt (vgl. Goffman 1973, S. 74). Im gemeinsamen Spiel ist es deshalb notwendig, dass sich die Teilnehmer das situative Vorhandensein des spezifischen Rahmens und dessen Inhalt mit bestimmten Signalen anzeigen und ihre Auffassungen aufeinander abstimmen (vgl. Oerter 1997, S. 117). Die dafür verwendeten Mitteilungen sind metakommunikativ, d. h. sie geben Auskunft darüber, wie die Kommunikation selbst im Folgenden zu verstehen ist, nämlich immer vor dem Hintergrund, dass „nur gespielt wird“. Erst dadurch können die Mitspieler das Verhalten der anderen als gespielt oder echt einordnen, sodass Missverständnisse vermieden werden (vgl. Bateson 2007, S. 193ff, 206; Oerter 1997, S. 117). Es ist erstaunlich, wie dies Kindern teilweise nur mit wenigen Worten, Gesten oder Handlungen gelingt. Der obige Ausschnitt aus einem Beobachtungsprotokoll zum Spiel von zwei Grundschülern in der großen Pause zeigt, dass nicht nur für Außenstehende, sondern mitunter auch für die Kinder selbst, nicht immer eindeutig oder bewusst ist, wie dieser Vorgang vonstattengeht. Justus und Raphael stimmen zwar darin überein, dass sie gemeinsam ein Spiel gespielt haben, können dieses aber weder benennen, noch beschreiben. Trotzdem scheinen sie beide die gleiche Vorstellung vom Spielablauf und dessen Inhalt gehabt bzw. das Spiel gleichermaßen gerahmt zu haben und zu einer Übereinkunft diesbezüglich gekommen zu sein. Ebenso wie die große Pause zur Schule gehört, gehört zur großen Pause wiederum - zumindest in der Grundschule - das Spiel. Damit ist das Pausenspiel i. d. R. ein fester Bestandteil des Schulalltags eines Grundschülers. Wie bereits angedeutet, leisten die Kinder sogar dabei etwas, nämlich die gemeinsame Bildung und Erhaltung eines gemeinsamen Spielrahmens durch Interaktion. In dieser Arbeit wird deshalb der folgenden Frage nachgegangen: Wie stellen Grundschulkinder in der großen Pause einen gemeinsamen Spielrahmen her und wie erhalten sie diesen aufrecht? Die Beschäftigung mit dieser Frage ist insbesondere für (zukünftige) Lehrpersonen lohnenswert, denn sie kann den Blick auf das Pausenspiel ggf. insofern verändern, dass es mehr wertgeschätzt wird. Ziel dieser Arbeit ist es, Aussagen zu der den Spielrahmen betreffenden Praxis von Grundschulkindern in der großen Pause herauszubilden. Dazu werden zunächst das Spiel und dessen Rahmen theoretisch abgehandelt. Vor diesem Hintergrund soll die Frage weiterführend mit Hilfe von Szenen zur praktischen Umsetzung gemeinsamer Spiele, die im Rahmen einer empirischen Untersuchung im Feld tatsächlich beobachtet und dokumentiert wurden, beantwortet werden. Es wird also nicht das Ziel verfolgt, eine eigenständige Theorie aus den Daten abzuleiten, vielmehr soll die bestehende Theorie mit realen, authentischen Beispielen aus dem Pausenalltag von Grundschülern unterlegt und ergänzt werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nie zuvor war die Mobilität einzelner Personen höher als heute. Menschen arbeiten und leben nicht nur an verschiedenen Orten, sondern auch oft in verschiedenen Ländern. Binationaler Urbanismus untersucht die städtische Lebensweise von Menschen, die in einer zweiten Stadt eines zweiten Staates zu leben beginnen, ohne sich von der ersten Stadt zu verabschieden. Sie leben im ständigen Transit zwischen zwei Heimaten und zwei Ländern. Binationale Urbanisten kommen aus allen Schichten der Gesellschaft: von den gut ausgebildeten kosmopolitischen und kreativen Klassen bis hin zur Arbeiterklasse. Dabei scheinen sich die binationalen Urbanisten durch den kontinuierlichen Ortswechsel in einem Zustand zu befinden, der durch eine ständige Sehnsucht, bzw. einem ständigen Heimweh, nach der anderen Stadt geprägt ist. Der Autor interviewte in Deutschland lebende türkischstämmige Menschen, die regelmäßig zwischen Städten in Deutschland und der Türkei pendeln. Diese Menschen leben, sei es absichtlich und bewusst gewählt oder nicht, eine innovative städtische Lebensweise. Sie sind keine verwurzelten Bewohner ihres Gastlandes Deutschland, sondern tatsächlich extrem mobil und nutzen das Beste aus beiden Kulturen. Binationaler Urbanismus hat das Potenzial, eine der interessantesten Lebensformen des einundzwanzigsten Jahrhunderts zu werden. Demzufolge entwickelt dieses Buch eine Theorie eines Binationalen Urbanismus aus den geführten Interviews.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

We show that the theory of involutive bases can be combined with discrete algebraic Morse Theory. For a graded k[x0 ...,xn]-module M, this yields a free resolution G, which in general is not minimal. We see that G is isomorphic to the resolution induced by an involutive basis. It is possible to identify involutive bases inside the resolution G. The shape of G is given by a concrete description. Regarding the differential dG, several rules are established for its computation, which are based on the fact that in the computation of dG certain patterns appear at several positions. In particular, it is possible to compute the constants independent of the remainder of the differential. This allows us, starting from G, to determine the Betti numbers of M without computing a minimal free resolution: Thus we obtain a new algorithm to compute Betti numbers. This algorithm has been implemented in CoCoALib by Mario Albert. This way, in comparison to some other computer algebra system, Betti numbers can be computed faster in most of the examples we have considered. For Veronese subrings S(d), we have found a Pommaret basis, which yields new proofs for some known properties of these rings. Via the theoretical statements found for G, we can identify some generators of modules in G where no constants appear. As a direct consequence, some non-vanishing Betti numbers of S(d) can be given. Finally, we give a proof of the Hyperplane Restriction Theorem with the help of Pommaret bases. This part is largely independent of the other parts of this work.