283 resultados para Humanisierung der Arbeit


Relevância:

80.00% 80.00%

Publicador:

Resumo:

Diese Arbeit entstand vor dem Hintergrund der gesellschaftlichen und wirtschaftlichen Veränderungen in China seit den 90er Jahren des 20. Jhds und den damit einhergehenden Reformen im Bildungssystem. Insbesondere für die traditionell wenig angesehene Berufsbildung erfolgte politisch eine völlige Neubewertung, die viele Bemühungen ausgelöst hat, Schule und Unterricht so zu modernisieren, dass den Betrieben unter marktwirtschaftlichen Bedingungen in beruflichen Domainen qualifizierte Jugendliche zur Verfügung stehen und dass sich den Jugendlichen selbst Chancen auf dem Arbeitsmarkt bieten. Eine der diskutierten Reformlinien rückt ein didaktisches Konzept in den Vordergrund, dem ein konstruktivistisches Lernverständnis unterlegt ist und Schüler befähigen will, Zusammenhänge in ausgewählten Tätigkeitsfeldern zu erkennen und die in den Wissenschaften zu ihrer Modellierung verwendeten Konstrukte in ihrer Machart und Leistungsfähigkeit einzuschätzen. Überwunden werden soll in allen Reformansätzen das für das traditionelle Bildungssystem typische memorierende und reproduzierende Lernen. Andere Untersuchungen aber auch eigene Voruntersuchungen zeigen, dass ein Gelingen des intendierten didaktischen Wechsels stark davon abhängt, ob den Lehrkräften Lehrmittel zur Verfügung stehen, die ein verstehendes Lernen unterstützen und dafür Vorbilder liefern. Aus diesem Grunde werden in der Arbeit zahlreiche neuere Schulbuchproduktionen im kaufmännischen Bereich untersucht. Dabei wird auch der Vielfalt der Publikationswege und der Heterogenität im Verlagswesen Rechnung getragen. Für die qualitative Untersuchung werden vier unterschiedliche Gegenstandsbereiche festgelegt, die für wirtschaftsberufliche Curricula zentral sind, und jeweils auf ein typisches inhaltliches Beispiel fokussiert. Für die ausgewählten Gegenstandsbereiche – ökonomisch zentrale Konzepte/ Begriffe, ideale ökonomische Modelle, rechtliche Normen, prozedurales Wissen – werden zunächst jeweils mit Rückgriffen auf kognitive, lerntheoretische, methodologische und dogmengeschichtliche Theorien didaktische Möglichkeiten analysiert, eine verstehende Aneignung fachlicher Inhalte und Denkstile sowie beruflicher Kompetenzen begründet zu begünstigen. Daraus werden jeweils Gesichtspunkte gewonnen, die als Maßstab zur qualitativen Analyse der Schulbuchtexte herangezogen werden. Die Untersuchung der Texte zeigt quer durch die verschiedenen Gegenstandsbereiche und Textbeispiele, dass die Darstellungen durchgängig dem traditionellen Muster klassifikatorischer Informationsorganisation verhaftet bleiben, die eher synoptischen Gestaltungsinteressen folgt und Fragen des Lernens und der Kompetenzaneignung vernachlässigt. Damit bleiben die Schulbuchproduktionen, die vordergründig aktuelle und disziplinär moderne Themen aufgreifen, in ihrer Machart bislang weiter der Tradition verhaftet, memorierendes Lernen einzufordern, was den Zielen der Berufsbildungsreform völlig widerspricht. Das ist ein für den Reformprozess wesentlicher Befund, da den Schulbüchern dabei eine zentrale Rolle zukommt. Aus den Befunden werden Empfehlungen für die wesentlichen an der Lehrerausbildung beteiligten Institutionen abgeleitet.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Gegenstand der Arbeit ist ein journalistisches Unterrichtsprojekt zur Förderung einer politischen Medienbildung. Das Projekt wurde deutschlandweit in 20 Haupt- und Gesamtschulklassen mit rund 400 Schülern und Schülerinnen durchgeführt und qualitativ untersucht. Im theoretischen Teil werden Konzepte von Medienbildung, medienpädagogische Ansätze und Ergebnisse empirischer Untersuchungen vorgestellt, die für die Arbeit und das Projekt relevant waren. Kapitel 2 thematisiert das Phänomen „TV-Journalismus“ vor dem Hintergrund der Cultural Studies (v. a. Stuart Hall, Margret Lünenborg) und diskutiert es im Hinblick auf medienpädagogische Fragestellungen. Journalismus wird dabei als ein möglicher Weg gesehen, eine politische Bildung mit einer Medienbildung zu verknüpfen. Allerdings führen die Schwerpunkte Journalismus und Politik auch zu Schwierigkeiten bei der Umsetzung, wenn man bedenkt, dass sowohl journalistische Genres als auch Politik in der jugendlichen Lebenswelt keine maßgebliche Rolle spielen, wie aktuelle Jugendstudien zeigen (z. B. JIM- und Deutsche-Shell-Studien). Sinnvoll erscheint hier die Öffnung entsprechender Konzepte hin zu einem weiteren, lebensweltbezogenen Politik- und Journalismusverständnis, um Jugendlichen Bezugspunkte zu ihrer Alltagswelt zu bieten. Kapitel 3 und 4 stellen leitende theoretische Konzepte von Medienbildung/Medienkompetenz (etwa Winfried Marotzki, Manuela Pietraß) sowie medienpädagogische Ansätze (z. B. den handlungsorientierten, themenzentrierten Ansatz von Bernd Schorb) dar. „Medienbildung“ wird in der Arbeit verstanden als Beziehung des Menschen zu sich selbst und zur gegenständlichen und sozialen Welt, wie sie ihm medienvermittelt begegnet. Bildung ist dann das Ergebnis des kritisch-reflexiven Umgangs mit der medial vermittelten Welt. Eine Medienbildung umfasst dabei auch eine Medienkompetenz im Sinne von medienspezifischem Wissen und Fähigkeiten des Umgangs mit Medien. Eine „politische Medienbildung“ wird in Anlehnung an David Buckingham dann zum einen als ein kritisches „Lesen“ medialer Texte definiert, in welchen die soziale Welt vermittelt wird. Zum anderen bedeutet eine „politische Medienbildung“ auch die eigene Gestaltung medialer Texte und die Teilhabe an einer medialen Kultur. Kapitel 5 beschreibt die konkrete forschungsmethodische Herangehensweise: Das medienpädagogische Projekt wurde qualitativ im Hinblick auf eine Medienbildung untersucht. Anders als in bisherigen Medienkompetenz-Studien wurde nicht nach den Wissenszuwächsen und erlernten Fähigkeiten nach Projektende gefragt. Im Zentrum des Interesses standen die im Unterrichtsprojekt beobachteten Situationen und Prozesse einer reflexiven Auseinandersetzung mit journalistisch vermittelten Themen und Darstellungsweisen. Verschiedene Methoden und Datenquellen wurden miteinander kombiniert, um die Unterrichtsrealität angemessen erfassen zu können. Zu den Erhebungsmethoden gehörten etwa die Unterrichtsaufzeichnung, die Gruppendiskussion und das Sammeln von alltagskulturellem Material. Die dabei gewonnenen Daten wurden mit den Auswertungsverfahren der Text- und Bildanalyse untersucht. Die Ergebnisse folgen schließlich in Kapitel 6. Dieses wird im Hinblick auf die konkretisierten Forschungsfragen differenziert in: • Kapitel 6.1: Hier geht es um die Auseinandersetzung der Schüler/innen mit Wissen über Medien. Relevant sind hier Fragen nach einem Vorwissen von Jugendlichen über journalistische Gestaltungsmittel und wie die Schüler/innen ein solches Vorwissen im Kontext des Unterrichts einbrachten. • Kapitel 6.2: Diese Ergebnisse zeigen auf, wie sich die Jugendlichen mithilfe journalistischer Texte mit einem Thema auseinandersetzten, z. B. wie sie diese hinsichtlich ihrer Glaubwürdigkeit oder ihrer Darstellung bewerteten. • Kapitel 6.3: In diesem Kapitel finden sich Ergebnisse aus den Gruppenarbeiten, in welchen die Schüler/innen selbst ein mediales Konzept entwarfen. Die Aufzeichnungen in den Gruppen deckten auf, wie die Schüler/innen an diese Aufgabe herangingen, welche inhaltlichen Schwerpunkte sie setzten, wie sie Sichtweisen in der Gruppe aushandelten und welche formale Darstellungsweise sie planten. Die Kapitel 6.4 und 7 liefern eine Zusammenfassung der wichtigsten Erkenntnisse und eine kritische Diskussion, welche Chancen und Probleme ein journalistisches Projekt im Kontext der Schule und insbesondere für die Zielgruppe einer niedrigen Bildungszugehörigkeit mit sich bringt.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

English: The present thesis describes the synthesis of 1,1’-ferrocendiyl-based pyridylphosphine ligands, the exploration of their fundamental coordination chemistry and preliminary experiments with selected complexes aimed at potential applications. One main aspect is the synthesis of the bidentate ferrocene-based pyridylphosphine ligands 1-(Pyrid-2-yl)-1’-diphenylphosphinoferrocene, 1-(Pyrid-3-yl)-1’-diphenylphosphinoferrocene and 1-[(Pyrid-2-yl)methyl]-1’-diphenylphosphinoferrocene. A specific feature of these ligands is the ball-bearing like flexibility of the ferrocenebased backbone. An additional flexibility element is the rotation around the C–C single bonds. Consequently, the donor atoms can realise a wide range of positions with respect to each other and are therefore able to adapt to the coordination requirements of different metal centres. The flexibility of the ligand also plays a role in another key aspect of this work, which concerns the coordination mode, i. e. bridging vs. chelating. In addition to the flexibility, also the position of the donor atoms to each other is important. This is largely affected by the position of the pyridyl nitrogen (pyrid-2-yl vs. pyrid-3-yl) and the methylen group in 1-[(Pyrid-2-yl)methyl]-1’-diphenylphosphinoferrocene. Another interesting point is the combination of a soft phosphorus donor atom with a harder nitrogen donor atom, according to the HSAB principle. This combination generates a unique binding profile, since the pi-acceptor character of the P site is able to stabilise a metal centre in a low oxidation state, while the nitrogen sigma-donor ability can make the metal more susceptible to oxidative addition reactions. A P,N-donor combination can afford hemilabile binding profiles, which would be ideal for catalysis. Beyond 1,2-substituted ferrocene derivatives, which are quite successful in catalytic applications, 1,1’-derivatives are rather underrepresented. While a low-yield synthetic pathway to 1-(Pyrid-2-yl)-1’-diphenylphosphinoferrocene was already described in the literature [I. R. Butler, Organometallics 1992, 11, 74.], it was possible to find a new, improved and simplified synthetic pathway. Both other ligands were unknown prior to this work. Satisfactory results in the synthesis of 1-(Pyrid-3-yl)-1’-diphenylphosphinoferrocene could be achieved by working in analogy to the new synthetic procedure for 1-(Pyrid-2-yl)-1’-diphenylphosphinoferrocene. The synthesis of 1-[(Pyrid-2-yl)methyl]-1’-diphenylphosphinoferrocene has been handled by the group of Prof. Petr Stepnicka from Charles University, Prague, Czech Republic. The synthesis of tridentate ligands with an analogous heterodentate arrangement, was investigated briefly as a sideline of this study. The major part of this thesis deals with the fundamental coordination chemistry towards transition metals of the groups 10, 11 and 12. Due to the well-established catalytic properties of analogous palladium complexes, the coordination chemistry towards palladium (group 10) is of particular interest. The metals zinc and cadmium (group 12) are also of substantial importance because they are redox-inert in their divalent state. This is relevant in view of electrochemical investigations concerning the utilisation of the ligands as molecular redox sensors. Also mercury and the monovalent metals silver and gold (group 11) are included because of their rich coordination chemistry. It is essential to answer questions concerning aspects of the ligands’ coordination mode bearing in mind the HSAB principle.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Die vorliegende Arbeit wird aufzeigen, wie sich die Flucht auf das Leben eines verfolgten Kindes auswirken kann. Dazu soll das Leben vor, während und nach der Flucht anhand von fünf Autobiographien untersucht werden. Die Autobiographien beinhalten die Lebenserinnerungen von Juden, die das Dritte Reich als Kinder und Jugendliche erlebten. Die zu untersuchenden Texte stammen von den in Wien geborenen Autoren Ruth Klüger (‚weiter leben‘) und Egon Schwarz (‚keine Zeit für Eichendorff‘) und den in Berlin geborenen Autoren Ludwig Greve (‚Wo gehörte ich hin? Geschichte einer Jugend‘), George Wyland-Herzfelde (‚Glück gehabt‘) und Hellmut Stern (‚Saitensprünge‘). Alle Autoren mussten ihrer Heimat im Zeitraum von 1935 bis 1942 entfliehen um ihr Leben vor den angeordneten Brutalitäten des nationalsozialistischen Regimes zu retten. Mit vielen Jahren zeitlichem Abstand schrieben die Autoren ihre Lebenserinnerungen nieder. Sie blickten auf ihr Leben vor der Verfolgung zurück und berichten von ihrem ‚neuen‘ Leben danach. Die Wege, die die Autoren während der Flucht einschlugen, könnten unterschiedlicher nicht sein. Und doch eint sie eines: Das rastloses Leben während der Flucht und das Bedürfnis ihre erlebte Geschichte mit anderen Menschen zu teilen. Da sich die vorliegende Arbeit mit der Analyse von autobiographischen Dokumenten beschäftigt, ist es zunächst sinnvoll sich einen Überblick über das Material und den Forschungsbereich zu verschaffen, in dem diese anzusiedeln ist. Der Ausgangspunkt der folgenden Untersuchung lässt sich im Bereich der Erziehungswissenschaftlichen Biographieforschung finden. Daher soll zunächst erläutert werden, was generell unter den Begriffen ‚Biographie‘ und ‚Autobiographie‘ zu verstehen ist. Dies ist für das Verständnis um die Beschaffenheit des analysierten Materials von entscheidender Bedeutung, denn jeder Mensch ist im Grunde ein Experte der Autobiographieforschung. Was es mit dieser gewagten Vermutung auf sich hat, wird sich im Verlauf dieses Kapitels klären. In einem zweiten Schritt soll dann das Erkenntnisinteresse Erziehungswissenschaftlichen Biographieforschung näher erläutert werden. Da jede autobiographische Äußerung aufgrund von Lebenserfahrungen getätigt wird, soll der Frage nachgegangen werden, was Lebenserfahrungen eigentlich genau sind und warum Lebenserfahrungen von besonderem Interesse für die Biographieforschung sind. Dem allgemeinen Erkenntnisinteresse schließt sich nun das spezielle, auf den konkreten Fall dieser Arbeit bezogene Erkenntnisinteresse an, nämlich die ausgewählten Autobiographien auf ihren biographischen Wendepunkt, eine besondere Form der Lebenserfahrung also, hin zu untersuchen. In diesem Fall ist es selbstverständlich sich erst einmal darüber klar zu werden um was genau es sich bei einem biographischen Wendepunkt eigentlich handelt. Wenn man sich intensiver mit einem bestimmten wissenschaftlichen Forschungsfeld beschäftigt, so ist es unerlässlich sich auch mit dem Zustandekommen und der Entwicklung dieses Forschungsfeldes zu beschäftigen. Demzufolge sollen im vierten Teil der Arbeit einige Informationen zur Geschichte der Erziehungswissenschaftlichen Biographieforschung zusammengetragen werden. Die Beschäftigung mit durchgeführten Studien kann Aufschluss darüber geben, welche Felder im Bereich der Biographieforschung bereits untersucht wurden und welche Erkenntnisse von großer Bedeutung für die Erziehungswissenschaft waren und noch bis heute sind. Thematisch schließt sich dem zeitlichen Abriss der Geschichte ein kurzer Überblick über die aktuelle Forschungssituation an, in dem einige bedeutende Arbeiten kurz inhaltlich vorgestellt werden. Die Betrachtung aktueller Forschungsstände gibt Aufschluss über die gegenwärtigen Forschungsschwerpunkte der Biographieforschung, aber auch eine Übersicht über die gegenwärtig populärsten Techniken der Beschäftigung mit Biographien. Obwohl es sich bei der Erziehungswissenschaftlichen Biographieforschung um ein relativ junges Forschungsgebiet handelt, haben sich im Laufe der Jahre dennoch unterschiedliche Formen der Datenerhebung und Datenanalyse entwickelt. Die verschiedenen Möglichkeiten des Forschers sich Daten zu nähren und diese zu interpretieren sollen in zwei separaten Teilen dieser Arbeit erläutert werden. Diese beiden Teile sollen einen Überblick darüber geben, wie vielseitig der Umgang mit biographischen Materialien aussehen kann. Der erste der beiden Teile beschäftigt sich zunächst mit der Frage, wie der Forscher eigentlich an biographisches Material gelangt, welches er später auswerten wird. Im Forschungsbereich der Erziehungswissenschaftlichen Biographieforschung lassen sich drei große Bereiche der Datenerhebung unterscheiden, die sich nach dem Zustandekommen des Ausgangsmaterials richten. Dies sind die Dokumentanalyse, die Durchführung von Interviews und die teilnehmende Beobachtung. Alle drei Formen gilt es an dieser Stelle kurz zu erläutern. Bevor die Autobiographien nun auf ihren biographischen Wendepunkt hin untersucht werden können, ist es zunächst nötig zu beschreiben, in welcher Form die Autobiographien denn analysiert und interpretiert werden sollen. Die Interpretation der Autobiographien orientiert sich am Vorgehen der objektiven Hermeneutik, die in seinen Grundprinzipien vorgestellt und in Anbetracht des vorhandenen Ausgangsmaterials leicht abgewandelt gebraucht werden soll. Der nächste Schritt ist nun die Beschäftigung mit den Autobiographien selbst. Zunächst sollen diese in Kürze inhaltlich zusammengefasst werden um einen Überblick über den beschriebenen Handlungsverlauf zu gewährleisten. Desweiteren lassen sich im Anhang dieser Arbeit tabellarische Lebensläufe mit den wichtigsten Informationen zu jedem der Autoren finden. Nun sollen die Lebensbedingungen der Autoren vor der Flucht, während der Flucht und nach der Flucht untersucht werden. Jenen Äußerungen des Autors, die sich konkret auf die Fluchtvorbereitungen beziehen, wird besondere Aufmerksamkeit zuteil. Ebenso verhält es sich auch mit Ausführungen des Autors, die die Verarbeitung des Fluchterlebnisses thematisieren. Die Analyse der Autobiographien soll so nah wie möglich am Text erfolgen. Um die zitierten autobiographischen Äußerungen dennoch auch vor dem historischen Hintergrund wahrnehmen zu können, werden zusätzliche, die historischen Umstände erläuternde, Materialien mit in die Interpretation einbezogen. Nachdem zu jeder Autobiographie die wichtigsten Erfahrungen vor, während und nach der Flucht beschrieben und interpretiert wurden, wird ein Vergleich der Autobiographien anschließen. Der Vergleich soll anhand von zuvor festgelegten thematischen Feldern erfolgen. Die Flucht war für jeden der Autoren mit individuellen Veränderungen in Bezug auf ihr späteres Leben verbunden. Obwohl die Autobiographien auf den ersten Blick äußerst unterschiedlich erscheinen, lassen sich einige Gemeinsamkeiten, aber auch Unterschiede bezüglich der Erlebnisse vor, während und nach der Flucht finden, die es im Laufe des Vergleiches herauszuarbeiten gilt. Abschließend soll die Frage beantwortet werden, ob sich die Fluchterfahrungen der Autoren zu einer Gesamterfahrung zusammenfassen lassen, die alle teilen.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Im Kontext Globalen Lernens tauchen immer wieder außerschulische Lernpartner auf. Auch neue Lehrpläne und Schulgesetze betonen diese Kooperation zunehmend. Deshalb ist es Ziel dieser Arbeit, das Bildungsangebot des Tropengewächshauses (TGH) Witzenhausen, eine Einrichtung der Universität Kassel, als außerschulischen Lernort näher zu betrachten. Mit Biodiversität, Artenvielfalt und Ungleichheit zwischen Nord und Süd sind nur einige Themenfelder benannt, die im Kontext einer global orientierten Bildung stehen. Um Zusammenhänge der Umweltproblematik verstehen zu können, müssen SchülerInnen für ökologische Themen sensibilisiert werden. Diese Sensibilisierung sieht das TGH in seiner Bildungsarbeit als ein Ziel an. Die vorliegende Arbeit untersucht, inwieweit sich das Bildungskonzept des Gewächshauses an den Kriterien des Globalen Lernens orientiert. Dafür werden mehrere Parameter identifiziert, die auf ihre Umsetzung mit Schulklassen hin beobachtet werden. Kapitel 2 der Arbeit führt an den Begriff der Globalisierung heran und beschreibt damit die Ausgangslage Globalen Lernens. Des Weiteren umreißt es sowohl die Entwicklung des Bildungskonzepts als auch dessen Einbindung in die Schule. Das Schweizer Forum: „Schule für Eine Welt“ wird als einer der ersten Vertreter Globalen Lernens im deutschsprachigen Raum näher betrachtet. Die von der Kultusministerkonferenz formulierten Kompetenzen, mit denen SchülerInnen vertraut gemacht werden sollen, werden ebenfalls in diesem Kapitel erläutert. Das 3. Kapitel beschreibt drei wissenschaftliche Konzepte Globalen Lernens. Es liefert mit diesen theoretischen Ansätzen die Grundlage für die Untersuchung. Das darauf folgende Kapitel setzt sich mit der Konzeption und der praktischen Arbeit des Tropengewächshauses der Universität Kassel auseinander und beschreibt die zu untersuchende Rallye als Methode. Der 5. Teil dieser Arbeit stellt die praktische Beobachtung von sechs Rallyes und ihre Auswertung dar. Dazu beschreibt es ausgewählte Parameter und Indikatoren zur Analyse und Bewertung. Die Arbeit trennt ganz bewusst nicht zwischen Ergebnis- und Interpretationsteil, um den direkten Bezug zu halten und die Lesbarkeit zu erleichtern. Im Analyseteil wird gleichzeitig die Arbeit am TGH bewertet, positive Aspekte werden unterstrichen und mögliche Verbesserungsvorschläge gemacht. Als Fazit wird eine abschließende Gesamtbewertung gegeben. Eine Reflexion der eigenen Arbeit schließt sich daran an. Der letzte Teil der Arbeit fasst die wesentlichen Ergebnisse zusammen.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Die Debatte zwischen Kreationismus und Evolutionsbiologie wirft die Frage bezüglich einer möglichen Verhältnisbestimmung zwischen Naturwissenschaft und Religion im Allgemeinen und dem Umgang mit dieser Problematik in der Schule auf. Die vorliegende Arbeit hat daher neben naturwissenschaftlichen und kreationistischen Vorstellungen auch die theologische Sichtweise berücksichtigt, um die Frage zu klären, ob Naturwissenschaft und Religion eine eindeutige Entscheidung für eine der beiden Perspektiven verlangt oder unter welchen Bedingungen naturwissenschaftliche und religiöse Vorstellungen miteinander in Einklang gebracht werden könnten. In diesem Zusammenhang werden im zweiten Kapitel mögliche Verhältnisbestimmungen zwischen Naturwissenschaft und Theologie aus der Perspektive der Naturwissenschaft, der Perspektive des Kreationismus sowie der Perspektive der Theologie vorgestellt und voneinander unterschieden. Um den zweiten Teil der Fragestellung bezüglich der Umsetzung des Themas in der Schule zu bearbeiten erfolgt im dritten Kapitel zunächst eine Erläuterung der nationalen Bildungsstandards für das Fach Biologie, da sie bei der Entwicklung der in Kapitel fünf vorgestellten Unterrichtssequenz berücksichtigt werden. Kapitel vier beschäftigt sich mit den Zielen, der Vorgehensweise bei der Auswahl der Quellen, sowie der Besonderheit dieser Arbeit bezüglich der Sprache. Im fünften Kapitel schließt sich die bereits erwähnte Unterrichtssequenz an. Sie ermöglicht den Schülerinnen und Schülern einen rationalen, kriteriengeleiteten Vergleich der oben genannten Sichtweisen, um sie darüber hinaus zu einer sachlichen und fachlich fundierten Beurteilung der Diskussion um Evolutionsbiologie und Schöpfungsglaube zu befähigen. Eine Diskussion, in der Möglichkeiten und Grenzen der Arbeit besprochen werden, schließt sich an, bevor im letzten Kapitel die zentralen Aussagen zusammengefasst werden.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Kern der vorliegenden Arbeit ist die Erforschung von Methoden, Techniken und Werkzeugen zur Fehlersuche in modellbasierten Softwareentwicklungsprozessen. Hierzu wird zuerst ein von mir mitentwickelter, neuartiger und modellbasierter Softwareentwicklungsprozess, der sogenannte Fujaba Process, vorgestellt. Dieser Prozess wird von Usecase Szenarien getrieben, die durch spezielle Kollaborationsdiagramme formalisiert werden. Auch die weiteren Artefakte des Prozess bishin zur fertigen Applikation werden durch UML Diagrammarten modelliert. Es ist keine Programmierung im Quelltext nötig. Werkzeugunterstützung für den vorgestellte Prozess wird von dem Fujaba CASE Tool bereitgestellt. Große Teile der Werkzeugunterstützung für den Fujaba Process, darunter die Toolunterstützung für das Testen und Debuggen, wurden im Rahmen dieser Arbeit entwickelt. Im ersten Teil der Arbeit wird der Fujaba Process im Detail erklärt und unsere Erfahrungen mit dem Einsatz des Prozesses in Industrieprojekten sowie in der Lehre dargestellt. Der zweite Teil beschreibt die im Rahmen dieser Arbeit entwickelte Testgenerierung, die zu einem wichtigen Teil des Fujaba Process geworden ist. Hierbei werden aus den formalisierten Usecase Szenarien ausführbare Testfälle generiert. Es wird das zugrunde liegende Konzept, die konkrete technische Umsetzung und die Erfahrungen aus der Praxis mit der entwickelten Testgenerierung dargestellt. Der letzte Teil beschäftigt sich mit dem Debuggen im Fujaba Process. Es werden verschiedene im Rahmen dieser Arbeit entwickelte Konzepte und Techniken vorgestellt, die die Fehlersuche während der Applikationsentwicklung vereinfachen. Hierbei wurde darauf geachtet, dass das Debuggen, wie alle anderen Schritte im Fujaba Process, ausschließlich auf Modellebene passiert. Unter anderem werden Techniken zur schrittweisen Ausführung von Modellen, ein Objekt Browser und ein Debugger, der die rückwärtige Ausführung von Programmen erlaubt (back-in-time debugging), vorgestellt. Alle beschriebenen Konzepte wurden in dieser Arbeit als Plugins für die Eclipse Version von Fujaba, Fujaba4Eclipse, implementiert und erprobt. Bei der Implementierung der Plugins wurde auf eine enge Integration mit Fujaba zum einen und mit Eclipse auf der anderen Seite geachtet. Zusammenfassend wird also ein Entwicklungsprozess vorgestellt, die Möglichkeit in diesem mit automatischen Tests Fehler zu identifizieren und diese Fehler dann mittels spezieller Debuggingtechniken im Programm zu lokalisieren und schließlich zu beheben. Dabei läuft der komplette Prozess auf Modellebene ab. Für die Test- und Debuggingtechniken wurden in dieser Arbeit Plugins für Fujaba4Eclipse entwickelt, die den Entwickler bestmöglich bei der zugehörigen Tätigkeit unterstützen.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Die Fluoreszenzspektroskopie ist eine der wenigen Methoden, die eine Untersuchung von Zerfallsprozessen nach einer Anregung mit schmalbandiger Synchrotronstrahlung ermöglicht, wenn die Zerfallsprodukte nicht geladen sind. In der vorliegenden Arbeit wurden in erster Linie Anregungen des molekularen Wasserstoffs untersucht, die zur Erzeugung ungeladener aber angeregter Fragmente führten. Eine Bestimmung der absoluten Querschnitte für die drei möglichen Zerfallskanäle: Ionisation, Dissoziation und molekulare Fluoreszenz nach einer Anregung des Wasserstoffmoleküls im Anregungswellenlängenbereich zwischen 72,4 nm und 80 nm stand im ersten Teil der Arbeit im Vordergrund. Die oben erwähnten Zerfallskanäle und das Transmissionsspektrum wurden simultan aufgenommen und mit Hilfe des Lambert-Beerschen-Gesetzes absolut ermittelt. Die Verwendung der erhaltenen Querschnitte ermöglichte die Bestimmung der Dominanz der einzelnen Zerfallskanäle für 3p-D Pi-, 4p-D' Pi- und 5p-D’’ Pi-Zustände in Abhängigkeit von Vibrationsniveaus. Diese Zustände koppeln über eine nicht adiabatische Kopplung mit einem 2p-C Pi-Zustand, was zur Prädissoziation führt. Des Weiteren koppeln die angeregten Zustände zu höher liegenden Rydberg-Zuständen, damit wird eine starke Variation der Ionisationswahrscheinlichkeit in Abhängigkeit von Vibrationsniveaus verursacht. Die Stärke der Kopplung ist dabei entscheidend welcher der drei möglichen Zerfallswege dominant zur Relaxation des angeregten Zustandes beiträgt. Alle Werte wurden mit theoretisch ermittelten Daten aus MQDT- Berechnungen [Phys. Rev. A 82 (2010), 062511] verglichen und zeigten sehr gute Übereinstimmungen. Im zweiten Teil der Arbeit ist eine neue Apparatur für winkel- und zeitauflösende Photon-Photon-Koinzidenz entwickelt worden. Die zwei Off-Axis-Parabolspiegel, die das Herzstück der Apparatur bilden, parallelisieren die im Fokus abgestrahlte Emission des doppelt angeregten Wasserstoffmoleküls und projizieren diese auf jeweils einen Detektor. Die an zwei Strahlrohren bei BESSY II durchgeführten Messungen zeigten gute Übereinstimmungen mit den schon vorher veröffentlichten Daten: Messungen [J. Chem. Phys. 88 (1988), 3016] und theoretische Berechnungen [J. Phys. B: At Mol. Opt. Phys. 38 (2005), 1093-1105] der Koinzidenzrate in Abhängigkeit von der anregenden Strahlung. Durch die Bestimmung der gemessenen Zerfallszeit einzelner Prozesse konnten einzelne doppelt angeregte Zustände identifiziert werden.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Evolutionäre Algorithmen werden gerne für Optimierungsaufgaben mit sehr vielen Freiheitsgraden eingesetzt. Eine spezielle Konvergenzeigenschaft, daß nämlich der Rechenaufwand nur mit der Wurzel der Anzahl der Unbekannten steigt, prädestiniert sie dafür. Die evolutionären Algorithmen haben aber auch noch eine weitere interessante Eigenschaft: Von der Zielfunktion wird nur verlangt, daß sie monoton ist - nichts weiter. Speziell wird, im Gegensatz zu gradientenbasierten Verfahren, keinerlei Ableitung von der Zielfunktion benötigt. Dadurch können evolutionäre Algorithmen auch in solchen Fällen eingesetzt werden, in denen Ableitungen der Zielfunktion nicht oder nur schwierig zu beschaffen sind. Die evolutionären Algorithmen kommen deshalb mit so geringen Anforderungen an die Zielfunktion aus, weil nur absolute Bewertungen einzelner Punkte (hier Vektoren) im Lösungsraum durch die Zielfunktion vorgenommen werden. Dafür werden eine gewisse Anzahl Punkte gleichzeitig betrachtet. Im direkten Vergleich untereinander relativ günstig liegende Punkte werden für die weitere Rechnung übernommen, die anderen verworfen. Aus den Komponenten der übernommenen Punkte werden nun zufällig neue Punkte zusammengesetzt und ein wenig verschoben. Dann schließt sich der Kreis, indem diese neuen Punkte ebenfalls bewertet werden. Im Verlauf einer solchen Iteration konvergiert die Punktmenge in der Regel gegen ein Optimum. Oft kommt es gerade zu Beginn der Iteration zu schnellen Fortschritten. In dieser Arbeit wird ein Verfahren vorgestellt, bei dem mit Hilfe von evolutionären Algorithmen verbessernde Eingriffe in laufenden Echtzeitsystemen vorgenommen werden. Was gut oder schlecht ist, wird zu diesem Zweck über die Zielfunktion für die Optimierung definiert. Da von der Zielfunktion letztlich das Verhalten des Gesamtsystems abhängt, sollte sie sorgfältig ausgewählt werden. Die Eingriffe in das System sind zeitlich begrenzte Steuertrajektorien. Sie werden zusätzlich zur permanent wirkenden Regelung auf das System aufgebracht. Um die Anzahl der zu optimierenden Variablen in Grenzen zu halten, werden die Steuertrajektorien durch wenige Parameter repräsentiert. Da die Steuertrajektorien im voraus berechnet werden müssen, wird das Systemverhalten mittels eines Modells für eine gewisse, in der Zukunft liegende, Zeitspanne vorhergesagt. Wird die geforderte Qualität während dieser Zeitspanne unterschritten, kann so schon im Vorfeld ein Optimierungslauf des evolutionären Algorithmus durchgeführt werden. Allerdings ist die zur Verfügung stehende Rechenzeit von vornherein begrenzt. Daher ist es wesentlich, daß die mit evolutionären Algorithmen häufig assoziierte lange Rechenzeit nicht benötigt wird. Tatsächlich läßt sich unter Umständen mit wenig Rechenzeit auskommen. Erstens wird nur mit wenigen Variablen gerechnet, zweitens kommt es bei dem beschriebenen Verfahren - halbwegs gutmütige Systeme vorausgesetzt - gar nicht auf die letzte Nachkommastelle, sondern (ähnlich wie bei Sliding-Mode-Regelungen) mehr auf eine Tendenz an. Da evolutionäre Algorithmen aber gerade zu Beginn einer Iteration die größten Fortschritte in Richtung des Optimums machen, kann schon nach vergleichsweise wenigen Schritten eine deutliche Verbesserung der Gesamtsituation erreicht werden. Gerade um eine schnelle Konvergenz zu erreichen, sind die spezielle Ausprägung und die Parameter des evolutionären Algorithmus mit Bedacht zu wählen. Dafür werden im Rahmen der Arbeit einige Experimente durchgeführt. Anhand der Ergebnisse der Experimente können konkrete Empfehlungen für eine günstige Konfiguration des evolutionären Algorithmus gegeben werden. Um es vorwegzunehmen: Zuviel Aufwand beim evolutionären Algorithmus zu treiben, lohnt sich nicht. Schon mit einfachen Konfigurationen können gute Ergebnisse erzielt werden. Die einzige Maßnahme, die sich bei den Experimenten tatsächlich als vorteilhaft herausstellte, war die Aufteilung der Gesamtpopulation (betrachtete Punktmenge im Lösungsraum) in mehrere Subpopulationen. Schließlich wird noch ein Computerprogramm beschrieben, das die Arbeitsweise des vorgestellten Verfahrens am Bildschirm erlebbar macht. Die einzelnen Komponenten werden vom Programm während der Ausführung mit einigen wesentlichen Rechengrößen visualisiert. Der Betrachter erhält so einen besseren Eindruck vom Zusammenwirken der einzelnen Verfahrens-Teile.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Im Rahmen dieser Arbeit werden Modellbildungsverfahren zur echtzeitfähigen Simulation wichtiger Schadstoffkomponenten im Abgasstrom von Verbrennungsmotoren vorgestellt. Es wird ein ganzheitlicher Entwicklungsablauf dargestellt, dessen einzelne Schritte, beginnend bei der Ver-suchsplanung über die Erstellung einer geeigneten Modellstruktur bis hin zur Modellvalidierung, detailliert beschrieben werden. Diese Methoden werden zur Nachbildung der dynamischen Emissi-onsverläufe relevanter Schadstoffe des Ottomotors angewendet. Die abgeleiteten Emissionsmodelle dienen zusammen mit einer Gesamtmotorsimulation zur Optimierung von Betriebstrategien in Hybridfahrzeugen. Im ersten Abschnitt der Arbeit wird eine systematische Vorgehensweise zur Planung und Erstellung von komplexen, dynamischen und echtzeitfähigen Modellstrukturen aufgezeigt. Es beginnt mit einer physikalisch motivierten Strukturierung, die eine geeignete Unterteilung eines Prozessmodells in einzelne überschaubare Elemente vorsieht. Diese Teilmodelle werden dann, jeweils ausgehend von einem möglichst einfachen nominalen Modellkern, schrittweise erweitert und ermöglichen zum Abschluss eine robuste Nachbildung auch komplexen, dynamischen Verhaltens bei hinreichender Genauigkeit. Da einige Teilmodelle als neuronale Netze realisiert werden, wurde eigens ein Verfah-ren zur sogenannten diskreten evidenten Interpolation (DEI) entwickelt, das beim Training einge-setzt, und bei minimaler Messdatenanzahl ein plausibles, also evidentes Verhalten experimenteller Modelle sicherstellen kann. Zum Abgleich der einzelnen Teilmodelle wurden statistische Versuchs-pläne erstellt, die sowohl mit klassischen DoE-Methoden als auch mittels einer iterativen Versuchs-planung (iDoE ) generiert wurden. Im zweiten Teil der Arbeit werden, nach Ermittlung der wichtigsten Einflussparameter, die Model-strukturen zur Nachbildung dynamischer Emissionsverläufe ausgewählter Abgaskomponenten vor-gestellt, wie unverbrannte Kohlenwasserstoffe (HC), Stickstoffmonoxid (NO) sowie Kohlenmono-xid (CO). Die vorgestellten Simulationsmodelle bilden die Schadstoffkonzentrationen eines Ver-brennungsmotors im Kaltstart sowie in der anschließenden Warmlaufphase in Echtzeit nach. Im Vergleich zur obligatorischen Nachbildung des stationären Verhaltens wird hier auch das dynami-sche Verhalten des Verbrennungsmotors in transienten Betriebsphasen ausreichend korrekt darge-stellt. Eine konsequente Anwendung der im ersten Teil der Arbeit vorgestellten Methodik erlaubt, trotz einer Vielzahl von Prozesseinflussgrößen, auch hier eine hohe Simulationsqualität und Ro-bustheit. Die Modelle der Schadstoffemissionen, eingebettet in das dynamische Gesamtmodell eines Ver-brennungsmotors, werden zur Ableitung einer optimalen Betriebsstrategie im Hybridfahrzeug ein-gesetzt. Zur Lösung solcher Optimierungsaufgaben bieten sich modellbasierte Verfahren in beson-derer Weise an, wobei insbesondere unter Verwendung dynamischer als auch kaltstartfähiger Mo-delle und der damit verbundenen Realitätsnähe eine hohe Ausgabequalität erreicht werden kann.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Zusammenfassung: Ziel der Arbeit war ein Methodenvergleich zur Beurteilung der Milchqualität unterschiedlicher Herkünfte. Am Beispiel von Milchproben aus unterschiedlicher Fütterung sowie an Milchproben von enthornten bzw. horntragenden Kühen wurde geprüft, welche der angewendeten Methoden geeignet ist, die Vergleichsproben zu unterscheiden (Differenzierungsfähigkeit der Methoden) und inwieweit eine Qualitätsbeurteilung möglich ist (hinsichtlich Milchleistung, Fett-, Eiweiß-, Lactose- (=F,E,L), Harnstoff-gehalt und Zellzahl (=SCC), Säuerungseigenschaften (=SE), Fettsäuremuster (=FS-Muster), Protein- und Metabolit-Zusammensetzung (=Pr&M), Fluoreszenz-Anregungs-Spektroskopie-Eigenschaften (=FAS) und Steigbild-Merkmalen). Zusätzlich wurde vorab die Steigbildmethode (=SB-M) für das Produkt Rohmilch standardisiert und charakterisiert, um die Reproduzierbarkei der Ergebnisse sicherzustellen. Die Untersuchungen zur SB-M zeigten, dass es Faktoren gibt, die einen deutlichen Einfluß auf die Bildmerkmals-Ausprägung aufweisen. Dazu gehören laborseitig die Klimabedingungen in der Kammer, die Verdünnungsstufe der Probe, die Standzeiten der Vorverdünnung (Reaktionen mit der Luft, Alterung usw.), und tagesspezifisch auftretende Effekte, deren Ursache unbekannt ist. Probenseitig sind sehr starke tierindividuelle Effekte auf die Bildmerkmals-Ausprägung festzustellen, die unabhängig von Fütterung, Alter, Laktationsstadium und Genetik auftreten, aber auch Fütterungsbedingungen der Kühe lassen sich in der Bildmerkmals-Ausprägung wiederfinden. Die Art der Bildauswertung und die dabei berücksichtigten Bildmerkmale ist von großer Bedeutung für das Ergebnis. Die im Rahmen dieser Arbeit untersuchten 46 Probenpaare (aus den Fütterungsvergleichen (=FV) und zur Thematik der Hörner) konnten in 91% der Fälle korrekt gruppiert werden. Die Unterschiede konnten benannt werden. Drei FV wurden auf drei biologisch-dynamischen Höfen unter Praxis-Bedingungen durchgeführt (on-farm-Experimente). Es wurden jeweils zwei vergleichbare Gruppen à mindestens 11 Kühen gebildet, die im Cross-Over-Design gefüttert wurden, mit Probennahme am 14. und 21. Tag je Periode. Es wurden folgende FV untersucht: A: Wiesenheu vs. Kleegrasheu (=KG-Heu), B: Futterrüben (=FuR) vs. Weizen (Ergänzung zu Luzernegrasheu ad lib.), C: Grassilage vs. Grasheu. Bei Versuch A sind die Futtereffekte am deutlichsten, Gruppeneffekte sind gering. Die Milch der Wiesenheu-Variante hat weniger CLA’s und n3- FS und mehr mittellangkettige FS (MCT-FS), das Pr&M-Muster weist auf „Gewebereifung und Ausdifferenzierung“ vs. bei KG-Heu „Nährstoff-fülle, Wachstum und Substanz-Einlagerung und die SB zeigen fein ausdifferenzierte Bildmerkmale. Bei Versuch B sind die Futtereffekte ähnlich groß wie die Gruppeneffekte. Bei vergleichbarer Milchleistung weist die Milch der FuR-Variante höhere F- und E-Gehalte auf, sie säuert schneller und mehr, das FS-Muster weist auf eine „intensive“ Fütterung mit vermehrt MCT- FS, und die Pr&M-Untersuchungen charakterisieren sie mit „Eisentransport und Fetttröpfchenbildung“ vs. bei Weizen „mehr Abwehr-, Regulations- und Transportfunktion“ /. „mehr Lipidsynthese“. Die SB charakterisieren mit „große, kräftige Formen, verwaschen“ vs. „kleine, ausdifferenzierte Bildmerkmal“ für FuR vs. Weizen. Die FAS charakterisiert sie mit „Saftfutter-typisch“ vs. „Samentypisch“. Versuch C weist die geringsten Futtereffekt auf, und deutliche Gruppen- und Zeiteffekte. Milchleistung und F,E,L-Gehalte zeigen keinen Futtereffekt. Die Milch der Heu-Variante säuert schneller, und sie weist mehr SCT und MCT- FS auf. Pr&M-Untersuchungen wurden nicht durchgeführt. Die SB charakterisieren bei Heumilch mit „fein, zart, durchgestaltet, hell“, bei Silagemilch mit „kräftig, wäßrig-verwaschen, dunkler“. Die FAS kann keine konsistenten Unterschiede ermitteln. Der Horn-Einfluß auf die Milchprobe wurde an 34 Probenpaaren untersucht. Von 11 Höfen wurden je zwei möglichst vergleichbare Gruppen zusammengestellt, die sich nur im Faktor „Horn“ unterscheiden, und im wöchentlichen Abstand drei mal beprobt. F,E,L, SCC und SE der Proben sowie die FAS-Messungen weisen keine konsistenten signifikanten Unterschiede zwischen den Horn-Varianten auf. Pr&M weisen bei den untersuchten Proben (von zwei Höfen) auf Horneffekte hin: bei Eh eine Erhöhung von Immun-Abwehr-Funktionen, sowie einer Abnahme phosphorylierter C3- und C6-Metabolite und Beta-Lactoglobulin. Mit den SB ließen sich für die gewählten Merkmale (S-Größe und g.B.-Intensität) keine Horneffekte feststellen. FS, Pr&M-Muster sowie Harnstoffgehalt und SB (und z.T. Milchleistung) zeigten je FV ähnliche Effekt-Intensitäten für Futter-, Gruppen- und Zeiteffekte, und konnten die Cross-Over-Effekte gut wiedergeben. F- und E-Gehalte konnten neben tierindividuellen Effekten nur in FV B auch Futtereffekte aufzeigen. In FV C zeigten die SE der Proben den deutlichsten Futtereffekt, die anderen Methoden zeigten hier vorrangig Gruppen-Effekte, gefolgt von Futter- und Zeiteffekten. Die FAS zeigte den SB vergleichbare Ergebnisse, jedoch weniger sensibel reagierend. Die Interpretation von Qualitätsaspekten war bei konsistent differenzierbaren Proben (FV A, B, C) am fundiertesten mit Hilfe der FS möglich, da über die Synthese von FS und beeinflussende Faktoren schon vielfältige Erkenntnisse vorliegen. Das Pr&M-Muster war nach einer weiteren Methodenentwicklung bei der Deutung von Stoffwechselprozessen sehr hilfreich. Die FAS konnte z.T. eine zu der Fütterungsvariante passende Charakterisierung liefern. Für die SB-M fehlt es noch an Referenzmaterial, um Angaben zu Qualitätsaspekten zu machen, wenngleich Probenunterschiede aufgezeigt und Proben-Eigenschaften charakterisiert werden konnten.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Im Mittelpunkt der Arbeit steht die Frage, ob bei psychogenen Störungen Geschwistererfahrungen klinische Relevanz haben und ob die erfahrene Geschwisterposition und –konstellation auch im Erwachsenenalter psychodynamisch wirksam ist. Die Arbeit gliedert sich in drei Teile. Im ersten Teil werden in einem metatheoretischen Vorgehen psychoanalytische Konzepte, psychoanalytische Entwicklungstheorien aus der Objekt- und Selbstpsychologie und empirische Forschungsergebnisse zur Geschwisterbeziehung vorgestellt. Darauf aufbauend werden Annahmen formuliert, welche psychodynamischen Konflikte sich in einer pathologischen Entwicklung als psychische Störungen im Erwachsenenalter manifestieren können.Im zweiten Teil der Arbeit werden acht Einzelfälle psychoanalytischer Behandlungen von erwachsenen Patienten unterschiedlicher Geschwisterpositionen und -konstellationen dargestellt, die die in Teil 1 beschriebenen pathogenen Geschwistereinflüsse illustrieren. In den untersuchten Einzelfällen ist die erfahrene Geschwisterposition der Patienten konfliktbesetzt und psychodynamisch wirksam gewesen. Dabei haben die Erfahrungen mit den primären Objekten die Basis für die pathologische Beziehungsdynamik der Geschwister gebildet. Den dritten extra-klinisch empirischen Teil der Arbeit stellt eine explorative Pilotstudie dar, die ebenfalls das Ziel verfolgt, persistierende Geschwisterkonflikte in ihren langandauernden Effekten zu explorieren. Es handelt sich um eine Dokumentenanalyse von 215 Patientenakten aus einer psychosomatischen Klinik. Aus den Akten werden als Variablen ICD - und OPD - Diagnosen als auch inhaltsanalytisch ermittelte psychodynamische Konflikte herausgefiltert und mit den Variablen Geschwisterposition und –konstellation korreliert. Dabei wird erstens der Frage nachgegangen, ob es in den Akten von psychisch erkrankten Patienten zwischen Einzel- und Geschwisterkindern Unterschiede in Bezug auf die Diagnosen und hinsichtlich der formulierten psychodynamischen Konflikte gibt. Zweitens geht es um eine weitergehende Exploration dieser Variablen in Bezug auf die erfahrene Geschwisterposition bzw. –konstellation. Es zeigt sich, dass die ICD-10 Diagnostik aufgrund ihres deskriptiven Charakters und ihrer psychiatrischen Orientierung wenig brauchbar ist, diesbezügliche Hypothesen zu formulieren. Im Unterschied zur ICD-10 ergibt sich in Bezug auf die OPD-Diagnostik, besonders aber in Hinsicht auf die psychodynamischen Konflikte ein differenzierteres Bild. So sind z.B. Parentifizierung am häufigsten von Einzelkindern und Erstgeborenen benannt worden. Gleichzeitig berichten Patienten, die mit Geschwistern aufgewachsen sind, am stärksten von erlebtem emotionalem Mangel in der Familie. Unter Dominanzkonflikten leiden die Patienten am meisten, die als jüngstes Kind aufgewachsen sind. Bei Patienten mit der jüngsten und mittleren Geschwisterposition ist als weiteres Beispiel auffallend oft Altruismus ermittelt worden. Fazit der Arbeit ist, dass ungelöste Geschwisterkonflikte langandauernde Effekte haben können und dass - im Gegensatz zur Birth-Order-Forschung - die Variable der Geschwisterposition unter Berücksichtigung geschlechtsspezifischer Aspekte als ein intra- und interpsychisches dynamisches Geschehen begriffen werden kann.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Inhalt dieser Arbeit ist ein Verfahren zur numerischen Lösung der zweidimensionalen Flachwassergleichung, welche das Fließverhalten von Gewässern, deren Oberflächenausdehnung wesentlich größer als deren Tiefe ist, modelliert. Diese Gleichung beschreibt die gravitationsbedingte zeitliche Änderung eines gegebenen Anfangszustandes bei Gewässern mit freier Oberfläche. Diese Klasse beinhaltet Probleme wie das Verhalten von Wellen an flachen Stränden oder die Bewegung einer Flutwelle in einem Fluss. Diese Beispiele zeigen deutlich die Notwendigkeit, den Einfluss von Topographie sowie die Behandlung von Nass/Trockenübergängen im Verfahren zu berücksichtigen. In der vorliegenden Dissertation wird ein, in Gebieten mit hinreichender Wasserhöhe, hochgenaues Finite-Volumen-Verfahren zur numerischen Bestimmung des zeitlichen Verlaufs der Lösung der zweidimensionalen Flachwassergleichung aus gegebenen Anfangs- und Randbedingungen auf einem unstrukturierten Gitter vorgestellt, welches in der Lage ist, den Einfluss topographischer Quellterme auf die Strömung zu berücksichtigen, sowie in sogenannten \glqq lake at rest\grqq-stationären Zuständen diesen Einfluss mit den numerischen Flüssen exakt auszubalancieren. Basis des Verfahrens ist ein Finite-Volumen-Ansatz erster Ordnung, welcher durch eine WENO Rekonstruktion unter Verwendung der Methode der kleinsten Quadrate und eine sogenannte Space Time Expansion erweitert wird mit dem Ziel, ein Verfahren beliebig hoher Ordnung zu erhalten. Die im Verfahren auftretenden Riemannprobleme werden mit dem Riemannlöser von Chinnayya, LeRoux und Seguin von 1999 gelöst, welcher die Einflüsse der Topographie auf den Strömungsverlauf mit berücksichtigt. Es wird in der Arbeit bewiesen, dass die Koeffizienten der durch das WENO-Verfahren berechneten Rekonstruktionspolynome die räumlichen Ableitungen der zu rekonstruierenden Funktion mit einem zur Verfahrensordnung passenden Genauigkeitsgrad approximieren. Ebenso wird bewiesen, dass die Koeffizienten des aus der Space Time Expansion resultierenden Polynoms die räumlichen und zeitlichen Ableitungen der Lösung des Anfangswertproblems approximieren. Darüber hinaus wird die wohlbalanciertheit des Verfahrens für beliebig hohe numerische Ordnung bewiesen. Für die Behandlung von Nass/Trockenübergangen wird eine Methode zur Ordnungsreduktion abhängig von Wasserhöhe und Zellgröße vorgeschlagen. Dies ist notwendig, um in der Rechnung negative Werte für die Wasserhöhe, welche als Folge von Oszillationen des Raum-Zeit-Polynoms auftreten können, zu vermeiden. Numerische Ergebnisse die die theoretische Verfahrensordnung bestätigen werden ebenso präsentiert wie Beispiele, welche die hervorragenden Eigenschaften des Gesamtverfahrens in der Berechnung herausfordernder Probleme demonstrieren.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Spätestens seit der Formulierung der modernen Portfoliotheorie durch Harry Markowitz (1952) wird den aktiven Portfoliomanagementstrategien besondere Aufmerksamkeit in Wissenschaft und Anlagepraxis gewidmet. Diese Arbeit ist im Schnittstellenbereich zwischen neoklassischer Kapitalmarkttheorie und technischer Analyse angesiedelt. Es wird untersucht, inwieweit eine passive Buy&Hold-Strategie, die als einzige im Einklang mit der Effizienzmarkthypothese nach Fama (1970) steht, durch Verwendung von aktiven Strategien geschlagen werden kann. Der Autor präsentiert einen Wavelet-basierten Ansatz für die Analyse der Finanzzeitreihen. Die Wavelet-Transformation wird als ein mathematisches Datenaufbereitungstool herangezogen und ermöglicht eine Multiskalendarstellung einer Datenreihe, durch das Aufspalten dieser in eine Approximationszeitreihe und eine Detailszeitreihe, ohne dass dadurch Informationen verloren gehen. Diese Arbeit beschränkt sich auf die Verwendung der Daubechies Wavelets. Die Multiskalendarstellung dient als Grundlage für die Entwicklung von zwei technischen Indikatoren. Der Wavelet Stochastik Indikator greift auf die Idee des bekannten Stochastik-Indikators zurück und verwendet nicht mehr die Kurszeitreihe, sondern die Approximationszeitreihe als Input. Eine auf diesem Indikator basierende Investmentstrategie wird umfangreicher Sensitivitätsanalyse unterworfen, die aufzeigt, dass eine Buy&Hold-Strategie durchaus outperformt werden kann. Die Idee des Momentum-Indikators wird durch den Wavelet Momentum Indikator aufgegriffen, welcher die Detailszeitreihen als Input heranzieht. Im Rahmen der Sensitivitätsanalyse einer Wavelet Momentum Strategie wird jedoch die Buy&Hold -Strategie nicht immer geschlagen. Ein Wavelet-basiertes Prognosemodell verwendet ähnlich wie die technischen Indikatoren die Multiskalendarstellung. Die Approximationszeitreihen werden dabei durch das Polynom 2. Grades und die Detailszeitreihen durch die Verwendung der Sinusregression extrapoliert. Die anschließende Aggregation der extrapolierten Zeitreihen führt zu prognostizierten Wertpapierkursen. Kombinierte Handelsstrategien zeigen auf, wie Wavelet Stochastik Indikator, Wavelet Momentum Indikator und das Wavelet-basierte Prognosemodell miteinander verknüpft werden können. Durch die Verknüpfung einzelner Strategien gelingt es, die Buy&Hold-Strategie zu schlagen. Der letzte Abschnitt der Arbeit beschäftigt sich mit der Modellierung von Handelssystem-portfolios. Angestrebt wird eine gleichzeitige Diversifikation zwischen Anlagen und Strategien, die einer ständigen Optimierung unterworfen wird. Dieses Verfahren wird als ein systematischer, an bestimmte Optimierungskriterien gebundener Investmentprozess verstanden, mit welchem es gelingt, eine passive Buy&Hold-Strategie zu outperformen. Die Arbeit stellt eine systematische Verknüpfung zwischen der diskreten Wavelet Transformation und technisch quantitativen Investmentstrategien her. Es werden auch die Problemfelder der durchaus viel versprechenden Verwendung der Wavelet Transformation im Rahmen der technischen Analyse beleuchtet.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Nachdem sich in der Kolonialkrise von 1906 das Scheitern der ersten Periode deutscher Kolonialherrschaft (1885-1906) offenbarte, wurde Bernhard Dernburg die grundlegende Reorganisation der Kolonialpolitik anvertraut. Als Mann aus der Welt der Banken und Finanzen sollte er die stagnierende Entwicklung der Kolonien mit Hilfe von administrativen und wirtschaftlichen Reformmaßnahmen vorantreiben und gleichzeitig der indigenen Bevölkerung eine humane Behandlung zu garantieren. Um diese Ziele zu erreichen, verabschiedete er Reformen, die eine Rationalisierung und Humanisierung der Arbeiterpolitik vorsahen. Sowohl in der zeitgenössischen Literatur als auch in der aktuellen wissenschaftlichen Forschung wird der Amtsantritt Bernhard Dernburgs zum Leiter der Kolonialabteilung im Jahre 1906 als der „Beginn einer neuen humanen Ära“ deutscher Kolonialpolitik oder als „Wandel zum Besseren“ bezeichnet. Die Dissertation „Schwarzer Untertan versus Schwarzer Bruder. Bernhard Dernburgs Reformen in den Kolonien Deutsch-Ostafrika, Deutsch-Südwestafrika, Togo und Kamerun“ untersucht die Intention, Akzeptanz, Umsetzung und Auswirkung der reformatorischen Eingeborenenpolitik und klärt, ob die Beurteilung der Ära Dernburg (1906-1910) in der zeitgenössischen und aktuellen Forschung eine Berechtigung hat. Obwohl zumindest in der Theorie sein Konzept einer rationalen und humanen Kolonialpolitik sicherlich eine Abkehr von der bisher betriebenen Kolonialpolitik bedeutete, zeigt sich jedoch bei der Umsetzung der Reformen eine deutliche Diskrepanz zwischen Intention und Realität. Auch wenn zumindest die Bestrebung Dernburgs zur Verrechtlichung der indigenen Arbeitsverhältnisse gewürdigt werden sollte, so muss doch konstatiert werden, dass es in der „Ära Dernburg“ definitiv nicht zu einer grundlegenden Verbesserung der indigenen Lebenssituation in den deutschen Kolonien kam. Im Gegenteil, die Dernburgsche Reformpolitik beschleunigte vielmehr den Verelendungsprozess der indigenen Bevölkerung. In allen afrikanischen Kolonien verschlechterten sich mit der Intensivierung der Verwaltung die sozialen und menschlichen Beziehungen zwischen Afrikanern und Europäern. Vieles von dem, was Dernburg in seinem Programm propagierte, konnte nicht erreicht werden. Zwar führte Dernburg in Deutsch-Ostafrika, Deutsch-Südwestafrika und in Kamerun eine rechtlich bindende Arbeiterverordnung ein, jedoch unterschieden sich die Bestimmungen zum Teil erheblich voneinander, so dass von einer einheitlichen Modernisierung des kolonialen Arbeitsrechts nicht die Rede sein kann. Viele arbeitsrechtliche Bereiche, wie z.B. die Arbeiteranwerbung, Lohnzahlung, Minderjährigenschutz, Vertragsdauer, Arbeitszeit, Verpflegung und Unterkunft wurden nur unzureichend geregelt. Ähnlich negativ muss auch die Reformierung der Strafrechtspflege bewertet werden. Die Kodifizierung eines Eingeborenenstrafrechts scheiterte sowohl am Widerstand der lokalen Verwaltung als auch am Grundkonsens der Rechtmäßigkeit einer Rassenjustiz. Kolonialpolitik war auch in der „Ära Dernburg“ nichts anderes als „rohe Ausbeutungspolitik“, die zur Lösung der Arbeiterfrage beitragen sollte. Aber gerade hier, bei der Mobilisierung von afrikanischen Lohnarbeitern, war der Kolonialstaatssekretär nicht etwa mit einer „Arbeiterfürsorgepolitik“, sondern mit der Fortführung der Enteignungs- und Zwangsmaßnahmen erfolgreich gewesen. Insgesamt ist ein deutlicher Anstieg an afrikanischen Arbeitern in europäischen Unternehmen zu verzeichnen, was darauf schließen lässt, dass Dernburgs Verordnungen einen günstigen Einfluss auf die Arbeiterfrage ausgeübt haben. Obwohl nicht von einem grundlegenden Neuanfang der Kolonialpolitik gesprochen werden kann, sollte ebenso wenig bezweifelt werden, dass sich die deutsche Kolonialpolitik nicht unter Dernburg veränderte. Größere indigene Aufstände und Unruhen blieben aus, so dass während seiner Amtszeit eine systematische wirtschaftliche Erschließung der Kolonien beginnen konnte.