283 resultados para Humanisierung der Arbeit


Relevância:

90.00% 90.00%

Publicador:

Resumo:

Im Mittelpunkt der Dissertation stehen das Schutzgut ‚Landschaft’ sowie ‚Prognosemethoden in der Umweltprüfung’. Mit beiden Themenbereichen verbinden sich bereits heute ungelöste methodische Probleme, die mit der Umsetzung der Richtlinie zur Strategischen Umweltprüfung (SUP) zusätzlich komplexer und deren Lösung mithin anspruchsvoller werden. Dies hängt einerseits damit zusammen, dass eine gesetzeskonforme Gleichbehandlung aller Schutzgüter zunehmend eingefordert wird und gerade das Schutzgut ‚Landschaft’ in einer SUP methodisch besondere Aufmerksamkeit verlangt. Zum anderen führt die gängige planungsmethodische Diskussion allein nicht zu geeigneten Antworten auf o.g. Fragen, und es bedarf der Prüfung verschiedener Methodenbausteine, auch aus anderen Wissensgebieten, um – über ein eindimensionales Landschaftsverständnis einerseits und die bisher bekannten linearen Wirkungsprognosen andererseits hinaus gehend – mehrfach verknüpfte Prognoseschritte zur Anwendung in der SUP zu entwickeln, in denen das Schutzgut ‚Landschaft’ modellhaft für Bewertungsschritte nachvollziehbar abgebildet wird. Hierbei müssen entscheidungsrelevante Prognosezeiträume ebenso beachtet werden, wie in diesen Zeiträumen möglicherweise auftretende sekundäre, kumulative, synergetische, positive und negative Auswirkungen der zu beurteilenden Planung. Dieser Ziel- und Aufgabenstellung entsprechend erfolgt die theoretische Herangehensweise der Arbeit von zwei Seiten: 1. Die Funktionen und Stellung von Prognosen innerhalb der SUP wird erläutert (Kap. 2), und es wird der Frage nachgegangen, welche Anforderungen an Prognosemethoden zu stellen sind (Kap. 2.4) und welche Prognosemethoden in der SUP Verwendung finden bzw. finden können (Kap. 3). Der Schwerpunkt wird dabei auf die Anwendung der Szenariotechnik gelegt. 2. Es wird dargestellt wie Landschaft für Aufgaben der Landschaftsplanung und Umweltprüfung bisher üblicherweise erfasst und analysiert wird, um in Prognoseschritten handhabbar behandelt zu werden (Kap. 4). Beide Zugänge werden sodann zusammengeführt (Kap. 5), um am Beispiel einer Hochwasserschutzkonzeption im Rahmen der SUP Landschaftliche Prognosen zu erarbeiten. Die Prognose setzt methodisch mit der Beschreibung des zu verwendenden Landschaftsmodells und der Klärung des Modellzwecks ein. Bezugsbasis ist die Beschreibung des Charakters einzelner logisch hergeleiteter Landschaftseinheiten bzw. Landschaftsräume, die typisiert werden. Die Prognose selber unterscheidet zwischen der Abschätzung zu erwartender Landschaftsveränderungen im Sinne der ‚Status-quo-Prognose’ (einschließlich der Entwicklung von drei Szenarien möglicher Zukunftslandschaften bis 2030) und der Wirkungsabschätzungen verschiedener Maßnahmen bzw. Planungsalternativen und zwar zunächst raumunabhängig, und dann raumkonkret. Besondere Bedeutung bei den Wirkungsabschätzungen erhält die klare Trennung von Sach- und Wertebene, eine angemessene Visualisierung und die Dokumentation von Informationslücken und Unsicherheiten bei der Prognose. Diskutiert wird u.a. (Kap. 6) · die Bildung und Abgrenzung landschaftlicher Einheiten und Typen in Bezug zu der Aufgabe, landschaftliche Eigenart zu definieren und planerisch handhabbar und anwendbar zu bestimmen, · die Bedeutung angemessener Visualisierung zur Unterstützung von Beteiligungsverfahren und · die Bestimmung des so genannten ‚Raumwiderstandes’. Beigefügt sind zwei Karten des gesamten Bearbeitungsgebietes: Karte 1 „Landschaftstypen“, Karte 2 „Maßnahmentypen des Hochwasserschutzes mit möglichen Synergieeffekten für die Landschaft“.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Verschiedene Bedeutungen sind mit dem Begriff Mode verbunden. Mode ist nicht ausschließlich ein Synonym für Bekleidung. Vielmehr bezeichnet Mode den ständigen Wandel kollektiver Verhaltensweisen und bildet damit das Gegenstück zu Traditionen. Die Vergänglichkeit einer Mode ist ebenso Merkmal wie ein Verhalten, daß aus der Interaktion der Menschen resultiert. Mode läßt sich als exogener Schock modelliert oder durch endogene Prozesse erzeugt abbilden. Im synergetischen Modell erzeugen Personen auf der Makroebene bestimmte Ordner, die als Moden interpretiert werden können und an denen sich die Individuen wiederum orientieren. Neben einer umfassenden Betrachtung des Terminus Mode wird der Stand der sozial- und wirtschaftswissenschaftlichen Forschung zur Erklärung von Mode referiert. Ausgangspunkt der Dissertation ist das Fehlen eines ökonomischen Erklärungsansatzes der Mode, der unter Berücksichtigung der wesentlichsten Motive menschlichen Handelns die Vielseitigkeit dieses kollektiven Phänomens in einem mathematischen Modell abbildet. Ein solches Modell wird in der Arbeit entwickelt. Neben den sozial abhängigen Verhaltensweisen, die ein fundamentales Wesensmerkmal der Mode darstellen, gilt dem Aspekt der Neuheit im Kontext der Mode besondere Aufmerksamkeit. Auf das Problem, Neugierdeverhalten und Neuheit zu modellieren, wird detailliert eingegangen. Es ist weder Ziel der Arbeit, den Ursprung der inhaltlichen Ausgestaltung einer Mode zu identifizieren, noch die konkreten Entstehungszusammenhänge von Neuheit herauszuarbeiten. Vielmehr wird der Wirkungszusammenhang von Neuem im Kontext der Mode analysiert, um verschiedene Entstehungszusammenhänge von Mode darstellen zu können. Außerdem wird eine eigene empirische Studie zum Verhalten von Personen in bezug auf Kleidung und deren Neuartigkeit vorgestellt. Die Erhebungsdaten werden mit Hilfe der sogenannten Kohonenkarte klassifiziert, wobei insbesondere nichtlineare Zusammenhänge zwischen den Variablen berücksichtigt werden können. Im Rahmen eines synergetischen Erklärungsansatzes ist diese Karte deshalb von großem Interesse, weil sie sich selbst organisiert und deshalb dem synergetischen Erklärungsansatz modelladäquat ist.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Der Endocytoseweg in Dictyostelium verläuft über definierte endosomale Reifestadien. Dabei werden die reifenden Endosomen im letzten Stadium durch eine Schicht aus filamentösem Aktin umhüllt. Über die biologische Funktion dieser Aktin-Hülle ist derzeit wenig bekannt. Zum weiteren Erkenntnisgewinn sollten daher unterschiedliche Aktin-interagierende Proteine an die endosomale Aktin-Hülle dirigiert und die sich daraus ergebenden Folgen untersucht werden. Dabei wurde der in Drengk et al., 2003 beschriebene Ansatz aufgegriffen, in dem Proteine durch die Fusion an Vacuolin an die späte endosomale Membran transportiert wurden. Die endosomale Lokalisation von DAip1 bewirkte den vollständigen Verlust der endosomalen Aktin-Hülle, ohne dabei das restliche zelluläre Cytoskelett zu beeinträchtigen. Dabei wird die Depolymerisation vermutlich über die nachgewiesene Interaktion von DAip1 mit dem Aktin-depolymerisierenden Protein Cofilin bewirkt. Einhergehend damit trat eine Aggregation der betroffenen Kompartimente, eine Verzögerung des endocytotischen Transits, sowie eine verstärkte Retention lysosomaler Enzyme auf. Diese Ergebnisse ließen auf eine Funktion der endosomalen Aktin-Hülle als Fusionsinhibitor oder in der Regulation von Recycling-Prozessen an späten Endosomen schließen. Die Verlängerung der endosomalen Verweilzeit des den Arp2/3-Komplex negativ regulierenden Proteins Coronin bewirkte dagegen keine offensichtlichen Veränderungen in den betroffenen Zellen. Diese Beoachtung könnte ein Indiz dafür sein, dass nach der Ausbildung der Aktin-Hülle keine weiteren essentiellen Arp2/3-abhängigen mehr an der endosomalen Membran auftreten. Die endosomale Lokalisation des Aktin-Crosslinkers ABP34 induzierte ebenfalls keine Abweichungen vom Wildtyp-Verhalten. Hierbei besteht allerdings die Möglichkeit, dass die Aktivität des Proteins durch die bereits zuvor beschriebene Calcium-Sensitivität beeintächtigt vorliegt. Eine Verstärkung der endosomalen Hülle konnte trotz der Verwendung unterschiedlicher Ansätze nicht hervorgerufen werden. Offensichtlich wirkt die zusätzliche Expression zentraler Regulatoren der Aktin-Polymerisation in der Zelle cytotoxisch. Die Bindung von VASP an die endosomale Membran bewirkte in den Zellen die Ausbildung voluminöser, cytoplasmatischer „Aktin-Bälle“. Diese riefen in den betroffenen Zellen Defekte in unterschiedlichen Aktin-abhängigen Prozessen, wie der Phago- und Pinocytose, sowie der Cytokinese hervor. Dabei gehen die beobachteten Veränderungen vermutlich auf die nachgewiesene Störung im Gleichgewicht zwischen G- und F-Aktin zurück. Obwohl die Aktin-Bälle an der endosomalen Membran entstehen, weisen sie nach vollendeter Entstehung keine inneren oder äußeren Membranen mehr auf und nehmen nicht mehr aktiv am endocytotischen Geschehen teil. Die nähere Charakterisierung offenbarte große Ähnlichkeit zu den mit unterschiedlichen neurodegenerativen Erkrankungen assoziierten Hirano-Bodies. Über das beobachtbare Lokalisationsverhalten der unterschiedlichen im ersten Teil der Arbeit eingesetzten Vacuolin-Hybridproteine ließ sich die Stärke der Lokalisationsinformationen der fusionierten Aktin-interagierenden Proteine miteinander vergleichen. Dies wurde verwendet, um die einzelnen Proteine gemäß ihres Targeting-Potenzials hierarchisch anzuordnen. Im zweiten Teil der Arbeit wurden dieser Hierarchie die beiden cytoplasmatischen Targeting-Signale für Peroxisomen (PTS1) und den Zellkern (SV40-NLS) hinzugefügt. Der vorgenommene Vergleich dieser in vivo gewonnen Daten aus Dictyostelium mit unterschiedlichen in vitro-Bindungsstudien mit homologen Proteinen anderer Organismen zeigte eine erstaunlich gute Übereinstimmung. Diese Beobachtung lässt auf vergleichbare Targeting-Affinitäten innerhalb der Eukaryoten schließen und belegt, dass die zelluläre Lokalisation eines Proteins relativ sicher anhand der in ihm vorhandenen Bindungs-Affinitäten vorhergesagt werden kann. Durch die Kombination der in vivo- und in vitro-Daten war es auch ohne Kenntnis des Oligomerisierungsgrades und des Interaktionspartners erstmals möglich, die Bindungsstärke von Vacuolin an der endosomalen Membran auf einen definierten Bereich einzugrenzen.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

In dieser Arbeit werden zwei Aspekte bei Randwertproblemen der linearen Elastizitätstheorie untersucht: die Approximation von Lösungen auf unbeschränkten Gebieten und die Änderung von Symmetrieklassen unter speziellen Transformationen. Ausgangspunkt der Dissertation ist das von Specovius-Neugebauer und Nazarov in "Artificial boundary conditions for Petrovsky systems of second order in exterior domains and in other domains of conical type"(Math. Meth. Appl. Sci, 2004; 27) eingeführte Verfahren zur Untersuchung von Petrovsky-Systemen zweiter Ordnung in Außenraumgebieten und Gebieten mit konischen Ausgängen mit Hilfe der Methode der künstlichen Randbedingungen. Dabei werden für die Ermittlung von Lösungen der Randwertprobleme die unbeschränkten Gebiete durch das Abschneiden mit einer Kugel beschränkt, und es wird eine künstliche Randbedingung konstruiert, um die Lösung des Problems möglichst gut zu approximieren. Das Verfahren wird dahingehend verändert, dass das abschneidende Gebiet ein Polyeder ist, da es für die Lösung des Approximationsproblems mit üblichen Finite-Element-Diskretisierungen von Vorteil sei, wenn das zu triangulierende Gebiet einen polygonalen Rand besitzt. Zu Beginn der Arbeit werden die wichtigsten funktionalanalytischen Begriffe und Ergebnisse der Theorie elliptischer Differentialoperatoren vorgestellt. Danach folgt der Hauptteil der Arbeit, der sich in drei Bereiche untergliedert. Als erstes wird für abschneidende Polyedergebiete eine formale Konstruktion der künstlichen Randbedingungen angegeben. Danach folgt der Nachweis der Existenz und Eindeutigkeit der Lösung des approximativen Randwertproblems auf dem abgeschnittenen Gebiet und im Anschluss wird eine Abschätzung für den resultierenden Abschneidefehler geliefert. An die theoretischen Ausführungen schließt sich die Betrachtung von Anwendungsbereiche an. Hier werden ebene Rissprobleme und Polarisationsmatrizen dreidimensionaler Außenraumprobleme der Elastizitätstheorie erläutert. Der letzte Abschnitt behandelt den zweiten Aspekt der Arbeit, den Bereich der Algebraischen Äquivalenzen. Hier geht es um die Transformation von Symmetrieklassen, um die Kenntnis der Fundamentallösung der Elastizitätsprobleme für transversalisotrope Medien auch für Medien zu nutzen, die nicht von transversalisotroper Struktur sind. Eine allgemeine Darstellung aller Klassen konnte hier nicht geliefert werden. Als Beispiel für das Vorgehen wird eine Klasse von orthotropen Medien im dreidimensionalen Fall angegeben, die sich auf den Fall der Transversalisotropie reduzieren lässt.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

In Folge der Ergebnisse der PISA und IGLU Studien ist das Thema Diagnose und individuelle Förderung in die öffentliche Diskussion geraten. Vor diesem Hintergrund richtet sich im Herbst 2002 die Aufmerksamkeit der Arbeitsgruppe Wollring auf ein mathematikdidaktisches empirisches Forschungsprojekt in Australien: Early Numeracy Research Project (ENRP) (Clarke et al. 2002). Eine Besonderheit dieses Projektes besteht in der Eins-zu-eins-Situation zwischen Lehrer und Schüler bei einem Interview über Mathematik. Dieses Projekt bildet den Ausgangspunkt der vorliegenden Arbeit. Im ersten Kapitel wird das australische Projekt sowie seine Umsetzung in Deutschland vorgestellt. Ziel des Projektes ist es, die individuellen mathematischen Performanzen von Grund-schulkindern mit Hilfe eines Interviews in einer Eins-zu-eins-Situation des Schülers mit dem Lehrer (Schüler-Interview) zu erheben und damit mathematikdidaktische Orientierungshilfen für den Unterricht zu liefern. Das Schüler-Interview bestimmt den Lernstandort eines Kindes, der als Ausgangspunkt für eine Diagnose dienen kann. Daher werden unterschiedlichen Sichtweisen der Disziplinen – Psychologie, Medizin, Pädagogik, Sonderpädagogik und Fachdidaktik – in Hinblick auf den Begriff „Diagnose“ diskutiert. Die Durchführung von Schüler-Interviews kann neben ihrem diagnostischen Wert auch eine Bedeutung für die Professionalisierung von Lehrern einnehmen, da sie die Lehrer herausfordert, sich mit den Denk- und Lösungswege von Kindern aller Leistungsniveaus intensiv auseinanderzusetzen. In einer Studie von Steinberg et al. (2004, p. 238) wird deutlich, dass dieses Wissen des Lehrers sowohl als ein Index der Veränderung als auch als ein Mechanismus zur Veränderung des Unterrichts dient. In dieser Arbeit werden über den Zeitraum eines Jahres der Umgang der Lehrer mit dem Führen von Schüler-Interviews und den von ihnen daraus gewonnenen Erkenntnissen ausgewertet. Dabei werden mit den Lehrern nach einem halben und nach einem Jahr Erprobung mehrerer von ihnen selbst geführter Schüler-Interviews je ein Interview mit der Forscherin geführt, um herauszufinden, in welchen verschiedenen Bereichen das Führen von Schüler-Interviews den einzelnen Lehrern Unterstützung bietet. Die erhobenen Daten werden qualitativ mit Hilfe der Grounded Theory ausgewertet. Im empirischen Teil der Arbeit werden drei, der am Projekt beteiligten, Lehrerinnen in Form von Fallstudien vorgestellt und ausgewertet. Bei der Lehrerin, die Mathematik nicht als Fach studiert hat, besteht vor allem ein eigener Lernzuwachs in der Sicht auf Mathematik. Zu Beginn der Untersuchung hatte sie laut ihrer eigenen Aussagen eine eher ergebnisorientierte Sicht auf die Mathematik. Die Aussagen der drei Lehrerinnen beruhen auf einzelnen Schülern und ihren Besonderheiten. Im Laufe der Studie verallgemeinern sie ihre Erkenntnisse und beginnen Konsequenzen für ihren Unterricht aus den Schüler-Interviews zu folgern, wie sie in den abschließenden Interviews berichten. Das Schüler-Interview scheint dem Lehrer einen geschützten Raum zu bieten, um die Reflexion über die mathematischen Performanzen seiner Schüler und seinen eigenen Unterricht anzuregen, ohne ihn bloßzustellen und ohne ihm Vorschriften zu machen. Nach der einjährigen Erprobung von Schüler-Interviews betonen alle drei Lehrerinnen größeren Wert auf prozessorientiertes Mathematiklernen zu legen. Sie berichten, dass sie die Performanzen der Kinder stärker kompetenzorientiert wahrnehmen. Jedoch haben sie Schwierigkeiten, die für sich selbst gewonnene Transparenz über die mathematischen Performanzen des interviewten Kindes, den Schülern mitzuteilen und ihnen ermutigende Rückmeldungen zu geben. Außerdem können die Lehrer die problematischen mathematischen Bereiche der Schüler zwar beschreiben, sehen sich laut ihrer eigenen Aussage aber nicht in der Lage mit den Schülern daran zu arbeiten und sie angemessen zu för-dern. Selbst nach den ausführlichen Analysen der ausgewählten Lehrerinnen bleibt unklar, ob und in welcher Weise sie die Erkenntnisse aus dem Führen der Schüler-Interviews für ihren Unterricht nutzen. Laut der Aussage zweier beteiligter Lehrerinnen sollten Lehrer offen und interessiert sein und sich bereitwillig mit ihren eigenen Kompetenzen auseinandersetzen, damit das Führen von Schüler-Interviews für die Lehrer selbst und für die Schüler einen besonderen Nutzen besitzt. Um diese Auseinandersetzung stärker anzuregen und zu vermeiden, dass sich im Schüler-Interview mit dem Kind nicht die Einstellungen des Lehrers gegenüber den Leistungen des Schülers widerspiegeln, könnten sie vor Beginn des Führens von Schüler-Interviews verstärkt in der Ausbildung ihrer Interviewkompetenzen unterstützt und geschult werden. Obwohl sich die Lehrer zuerst Freiräume schaffen mussten, in denen sie trotz ihres Zeitmangels Schüler interviewen konnten, bietet das Führen von Schüler-Interviews die Chance, den Ist-Zustand der Schülerperformanzen in den mathematischen Bereichen Zahlen, Größen und Raum zu erfassen.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Mit der Verwirklichung ,Ökologischer Netzwerke‘ werden Hoffnungen zum Stopp des Verlustes der biologischen Vielfalt verknüpft. Sowohl auf gesamteuropäischer Ebene (Pan-European Ecological Network - PEEN) als auch in den einzelnen Staaten entstehen Pläne zum Aufbau von Verbundsystemen. Im föderalen Deutschland werden kleinmaßstäbliche Biotopverbundplanungen auf Landesebene aufgestellt; zum nationalen Biotopverbund bestehen erste Konzepte. Die vorliegende Arbeit ist auf diese überörtlichen, strategisch vorbereitenden Planungsebenen ausgerichtet. Ziele des Verbunds sind der Erhalt von Populationen insbesondere der gefährdeten Arten sowie die Ermöglichung von Ausbreitung und Wanderung. Aufgrund fehlender Datengrundlagen zu den Arten und Populationen ist es nicht ohne weiteres möglich, die Konzepte und Modelle der Populationsökologie in die überörtlichen Planungsebenen zu übertragen. Gemäß der o.g. Zielstellungen sollte sich aber die Planung von Verbundsystemen an den Ansprüchen der auf Verbund angewiesenen Arten orientieren. Ziel der Arbeit war die Entwicklung einer praktikablen GIS-gestützten Planungshilfe zur größtmöglichen Integration ökologischen Wissens unter der Bedingung eingeschränkter Informationsverfügbarkeit. Als Grundlagen dazu werden in Übersichtsform zunächst die globalen, europäisch-internationalen und nationalen Rahmenbedingungen und Anforderungen bezüglich des Aufbaus von Verbundsystemen zusammengestellt. Hier sind die Strategien zum PEEN hervorzuheben, die eine Integration ökologischer Inhalte insbesondere durch die Berücksichtigung räumlich-funktionaler Beziehungen fordern. Eine umfassende Analyse der landesweiten Biotopverbundplanungen der BRD zeigte die teilweise erheblichen Unterschiede zwischen den Länderplanungen auf, die es aktuell nicht ermöglichen, ein schlüssiges nationales Konzept zusammenzufügen. Nicht alle Länder haben landesweite Biotopverbundplanungen und Landeskonzepte, bei denen dem geplanten Verbund die Ansprüche von Arten zugrunde gelegt werden, gibt es nur ansatzweise. Weiterhin wurde eine zielgerichtete Eignungsprüfung bestehender GIS-basierter Modelle und Konzepte zum Verbund unter Berücksichtigung der regelmäßig in Deutschland verfügbaren Datengrundlagen durchgeführt. Da keine integrativen regelorientierten Ansätze vorhanden waren, wurde der vektorbasierte Algorithmus HABITAT-NET entwickelt. Er arbeitet mit ,Anspruchstypen‘ hinsichtlich des Habitatverbunds, die stellvertretend für unterschiedliche ökologische Gruppen von (Ziel-) Arten mit terrestrischer Ausbreitung stehen. Kombiniert wird die Fähigkeit zur Ausbreitung mit einer Grobtypisierung der Biotopbindung. Die wichtigsten Grundlagendaten bilden die jeweiligen (potenziellen) Habitate von Arten eines Anspruchstyps sowie die umgebende Landnutzung. Bei der Bildung von ,Lebensraumnetzwerken‘ (Teil I) werden gestufte ,Funktions- und Verbindungsräume‘ generiert, die zu einem räumlichen System verknüpft sind. Anschließend kann die aktuelle Zerschneidung der Netzwerke durch Verkehrstrassen aufgezeigt werden, um darauf aufbauend prioritäre Abschnitte zur Wiedervernetzung zu ermitteln (Teil II). Begleitend wird das Konzept der unzerschnittenen Funktionsräume (UFR) entworfen, mit dem die Indikation von Habitatzerschneidung auf Landschaftsebene möglich ist. Diskutiert werden schließlich die Eignung der Ergebnisse als kleinmaßstäblicher Zielrahmen, Tests zur Validierung, Vergleiche mit Verbundplanungen und verschiedene Setzungen im GIS-Algorithmus. Erläuterungen zu den Einsatzmöglichkeiten erfolgen beispielsweise für die Bereiche Biotopverbund- und Landschaftsplanung, Raumordnung, Strategische Umweltprüfung, Verkehrswegeplanung, Unterstützung des Konzeptes der Lebensraumkorridore, Kohärenz im Schutzgebietssystem NATURA 2000 und Aufbau von Umweltinformationssystemen. Schließlich wird ein Rück- und Ausblick mit der Formulierung des weiteren Forschungsbedarfs verknüpft.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Numerische Urteile wie Schätzungen oder Prognosen sind anfällig für Ankereffekte. Ein in eine Entscheidungssituation willkürlich eingeführter numerischer Wert – der Anker – beeinflusst oft das Urteil im Sinne einer Assimilation des Urteils an diesen Wert. Bei Kaufentscheidungen fließt das Ergebnis eines Vergleichs des Produktpreises mit einem Referenzpreis, einem numerischen Wert, in die Kaufentscheidung mit ein. Unter Orientierung an die Prospekttheorie von Kahneman & Tversky kann dieser Referenzpreis in Form eines implementierten Ankers variiert werden. Die vorgelegte interdisziplinäre Arbeit wendet psychologisches Fachwissen in den Wirtschaftswissenschaften an. Sie beschäftigt sich mit den Möglichkeiten bei telefonischen Verkaufsgesprächen, gezielt Anker zu Erhöhung der Verkaufsquote einzusetzen. Der Anker wird in drei unterschiedlichen Experimenten entweder durch den Preis eines zusätzlich angebotenen Produkts, durch das Einbringen eines belanglos scheinenden numerischen Wertes, wie die Anzahl an bereits getätigten Anrufen, oder in Form einer Schätzfrage in das Verkaufsgespräch implementiert. Es wird dabei festgestellt, dass durch einen im Vergleich zum verkaufenden Produkt höheren numerischen Wert, dem Anker, die Verkaufsquote erhöht werden kann. Das Neuartige an der Arbeit liegt vor allem im Aufzeigen der Einfachheit solcher ökonomisch effektiver Ankersetzungen in Verkaufsgesprächen. Willkürlich in eine Kaufsituation eingeführte numerische Werte können - analog zu ihrem Einfluss in Urteilssituationen - auch Kaufentscheidungen in einem realen Markt beeinflussen.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Die Dissertation beschäftigt sich aus interdisziplinärer (musikwissenschaftlicher, literaturwissenschaftlicher und theologischer) Sicht mit den Biographien Brechts und Weills und ihrem bekanntesten gemeinsamen Werk, der Dreigroschenoper. Im ersten Teil werden anhand von Selbstäußerungen in Briefen und Tagebüchern die Biographien beider Künstler mit Blick auf Spuren von religiöser Biographie, Frömmigkeit und argumentativer Auseinandersetzung mit ihrer jeweiligen Heimatreligion – für Brecht das Christentum und für Weill das Judentum – untersucht. Die in der Forschung pauschal gehaltene These von einer intensiven religiösen Sozialisation beider Künstler ist zwar gerechtfertigt und vor allem für Brecht bekannt, stellt aber nur einen Ausgangspunkt für differenziertere Untersuchungen dar. Dazu gehört es religiöse Existenz als bedeutenden und künstlerisch wirksamen Bestandteil von Persönlichkeitsentwicklung zu verstehen. Religiöse Existenz darf nicht, wie es fast durchgängig in der Forschung zu Brecht und Weill geschieht, auf eine affirmative Grundhaltung begrenzt werden, auch dürfen nicht christliche und jüdische Sozialisation gleichgesetzt werden. Daher sind auch die in der Arbeit gewonnenen exemplarischen Einblicke in Glaubensvorstellungen und Lebenspraxis von Juden und Christen im ausgehenden Kaiserreich und in der Weimarer Republik von besonderer Bedeutung. Auch reicht die bloße Feststellung einer intensiven religiösen Sozialisation nicht aus um wirklich zu beschreiben, was sie jeweils – etwa die Schabbatpraxis im Hause Weill oder Brechts Zweifel am Christentum während der Krankheit seines Vaters – bedeuten und bewirken kann. Mit der in der Dissertation vorgenommenen differenzierten Sichtung von Biographie wird weder die „Moderation“ der eigenen Biographie durch die Künstler außer Acht gelassen noch das künstlerische Werk der Biographie untergeordnet. Es wird vielmehr in der Verknüpfung der mehrdimensionalen Bezugssysteme das geschichtliche und damit auch das biographische Werden eines Werkes gleichzeitig als Charakteristikum seiner Ästhetik verstanden. Für die religiöse Dimension der Dreigroschenoper gilt ähnliches wie für die Sicht auf die religiösen Sozialisationen. Einige der offensichtlichen Anspielungen auf religiöse Kontexte gelten als bekannt. Dabei werden aber Tiefendimensionen und Ambivalenzen vernachlässigt, welche bei der Verwendung der zumeist biblischen Spuren mitschwingen und die auch für die Künstler mitschwingen konnten (Buch Rut, Passion Jesu etc.). An diesem Punkt setzt die Untersuchung im zweiten Teil der Arbeit ein, welche die versteckten, verdeckten oder nur oberflächlich untersuchten Spuren religiöser Konnotation in der Dreigroschenoper ermittelt und wieder verständlich macht. Brecht war nicht Theologe und schon gar nicht Exeget war, er war aber als Literat und als christlich sozialisierter Künstler in der Lage, kontextuelle Zusammenhänge, innerbiblische Verweise und Leerstellen biblischer Texte zu erkennen. Daher ist es für die Interpretation der Dreigroschenoper auch wesentlich, biblische Hintergründe und ausgewählte theologische Erkenntnisse heranzuziehen. Durch den Rückgriff auf Biblisches und damit auf jüdische und christliche Tradition wird nicht nur die Komplexität der Dreigroschenoper verdeutlicht, sondern gleichsam rückwirkend die Komplexität biblischer Theologie sichtbar. Der Komponist darf bei diesem künstlerischen Verarbeitungsprozess religiöser Kontexte nicht verdrängt werden. Die Frage nach religiös semantisierbarer Musik ist trotz aller Schwierigkeiten notwendig. Der Blick auf Weills Biographie, sein Aufwachsen im Hause eines jüdischen Kantors, seine Kenntnis der Synagogalmusik, seine künstlerische Verbundenheit mit Gustav Mahler, seine Kenntnis von Orgelmusik, Chorälen und den bachschen Passion und seine Selbstreflexion über sich als Künstler, der Jude war, fordert in dieser Hinsicht eine differenzierte und funktionale Sicht auf religiöse Semantik in der Musik. In der Dreigroschenoper spiegeln sich Säkularisierungsprozesse wider, doch bleibt trotz dieser Prozesse ein Bewusstsein für die religiösen Traditions- und Erklärungsmuster erhalten. Dieses gilt es wieder zu erschließen, da es untrennbar zum Werk, zur Werkästhetik und damit zu seinem Verständnis gehört. Die Dreigroschenoper verdeutlicht darüber hinaus, dass die religiöse Dimension noch in der Distanzierung bedeutsam bleibt. Auch daran wird erkennbar, wie sehr eine Gesellschaft von Voraussetzungen lebt, die sie nicht selbst hergestellt hat. Die Dreigroschenoper kann somit heute auch zu einem Lehrstück für kulturelle Codes werden.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Hintergrund und Ziel: Ausgehend von einem Forschungsdefizit im Bereich von Performance-Tests, das von der Arbeitsgruppe um Bührlen et al. (2002) gekennzeichnet wurde, war es das Ziel der Arbeit einen Performance-Tests of lower limb activities (Polla) zu validieren. Methode: In einer Längsschnittstudie wurden die Ergebnisse einer sechswöchigen physiotherapeutischen Behandlung an einem 19-75jährigem orthopädisch-traumatologisch orientierten Patientenkollektiv (n=81) mit dem Polla und dem SF-36 Fragebogen erfasst. Ergebnisse: Die Ergebnisse machen eine gute Absicherung der Teststatistik deutlich. Bei ausgezeichneter Intrarater- (n=29) sowie guter Interrater-Reliabilität (n=32) weist die Konsistenzanalyse eine zufrieden stellende Zuverlässigkeit auf. Die Kriteriumsvalidität macht moderate Zusammenhänge zwischen dem Polla und den Dimensionen Schmerz, Körperliche Rollenfunktion und Körperliche Funktionsfähigkeit des SF-36 deutlich. Über die Standardized Response Mean zeigen die Instrumente eine große Änderungssensitivität, die nur für den Polla auch zum Follow-up (n=26) gilt. Schlussfolgerung: Der Polla ist ein kostenloses Testverfahren mit hoher praktischer Relevanz, wobei aus zeitökonomischen Gründen eine modifizierte Form des Polla mit nur zehn Items und einem gemessenen Test zu empfehlen ist.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Im Rahmen der Arbeit wird ein Unterrichtskonzept für den Leistungskurs Stochastik in der gymnasialen Oberstufe vorgestellt, bei welchem Computersimulationen und Lernumgebungen mit der Software FATHOM über das gesamte Kurshalbjahr unterstützend eingesetzt werden. Der experimentelle Zugang zur Wahrscheinlichkeit ergänzt den theoretischen Zugang und soll im Sinn eines handlungsorientierten Lernens die Motivation der Schülerinnen und Schüler fördern. Das Unterrichtskonzept enthält drei Schwerpunktsetzungen: • Einstieg in den Stochastikkurs mit Simulationen • Binomialverteilung • Das Testen von Hypothesen Die Arbeit konzentriert sich in der Darstellung und der Analyse auf den Einstieg in den Stochastikkurs mit Simulationen und computergestützten Lernumgebungen. Der Erwerb der Simulations- und Fathomkompetenzen in der Einstiegsphase wird auf inhaltlicher Seite verknüpft mit dem Wahrscheinlichkeitsbegriff, mit dem Gesetz der großen Zahl, sowie mit weiteren stochastischen Grundlagen. Das Unterrichtskonzept zum Einstieg in das Kurshalbjahr Stochastik wird ausführlich vorgestellt, zu den beiden anderen genannten Schwerpunkten werden die entwickelten Unterrichtskonzepte knapp erläutert. Die ausführlich kommentierten Unterrichtsmaterialien zu allen drei Schwerpunkten sind als Band 2 der KaDiSto-Schriftenreihe publiziert. Im Rahmen unterrichtlicher Erprobungen wurden verschiedene empirische Untersuchungen durchgeführt. Bei diesen Untersuchungen liegt ein Schwerpunkt auf der Transkriptanalyse von Videos des Bildschirmgeschehens und der simultan hierzu aufgenommenen verbalen Kommunikation während der Schülerarbeitsphasen am Computer. Diese Videos ermöglichen tiefer gehende Einblicke in die Kompetenzentwicklung der Schülerinnen und Schüler, in auftretende Probleme bei der Erstellung der Computersimulationen und in den Umgang der Schülerinnen und Schüler mit den Aufgabenstellungen. Die Analyse ausgewählter Transkriptausschnitte wird eingebettet in die Schilderung des Unterrichtsverlaufs auf der Basis von Unterrichtsprotokollen. Weiter wird die Bearbeitung einer komplexen Simulationsaufgabe in einer notenrelevanten Klausur nach Abschluss der Einstiegsphase analysiert. Es werden die Ergebnisse eines Eingangstests vor Beginn der Einstiegsphase und eines Ausgangstests im Anschluss an die Einstiegsphase geschildert. Ergänzend werden die Ergebnisse einer Schülerbefragung vorgestellt. Zum Abschluss der Arbeit wird eine Gesamtbetrachtung des Unterrichtskonzepts vorgenommen, bei der die Stärken aber auch zentrale Probleme des Konzepts beschrieben und teilweise verallgemeinert werden. Aus diesen Betrachtungen werden weitere Entwicklungsmöglichkeiten des geschilderten Projekts abgeleitet. Die Arbeit verfolgt einen stark unterrichtspraktischen Ansatz. Das methodische Vorgehen ist im Bereich einer Design-Research-Studie angesiedelt. Der Autor selber ist Lehrer an dem Kasseler Oberstufengymnasium Jacob-Grimm-Schule und hat über einen längeren Zeitraum im Rahmen einer Abordnung in der Arbeitsgruppe Mathematik-Didaktik der Universität Kassel mitgearbeitet. Die Arbeit stellt die Dissertation des Verfassers dar, die an der Universität Kassel von Prof. Dr. Rolf Biehler betreut wurde. Sie ist identisch mit der Erstveröffentlichung 2008 im Franzbecker Verlag, Hildesheim, der der elektronischen Veröffentlichung im Rahmen von KaDiSto zugestimmt hat

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Im Rahmen der Untersuchung wurde aufgezeigt, welchen Stellenwert die sozial-kommunikative Kompetenz neben den übrigen Basiskompetenzen der personalen Kompetenz, Methoden- und Fachkompetenz und der Aktivitäts- und umsetzungsbezogenen Kompetenz für den "Erfolg" von Versicherungsberatern hat. Das Forschungsfeld wurde auf den Arbeitsbereich des Versicherungsberaters eingegrenzt, wobei besonderes Augenmerk auf seine diversen Fähigkeiten und Fertigkeiten im Kundenkontakt gelegt wurde. Als erstes Ziel der Untersuchung galt es soziale Kompetenz theoretisch zu erheben und durch die Erkenntnisse zu einer für die Arbeit passenden Arbeitsdefinition zu gelangen. In welchem Zusammenhang diese Größe mit dem „Erfolg“ von Versicherungsberatern steht, wurde als zweites Hauptziel der Arbeit empirisch geprüft. Dazu wurden in einer Vorstudie die für die Beratertätigkeit relevanten Aspekte anhand der qualitativen Forschungsmethode des problemzentrierten Interviews mit 11 Kunden und 11 Beratern unterschiedlichen Alters, Bildung und Organisationszugehörigkeit erhoben, die Aussagen dem Kompetenzatlas von Heyse&Erpenbeck (2004) zugeordnet und die Daten mit dem Datenverarbeitungsprogramm MAXQDA reduktiv frequenzanalytisch ausgewertet. Ein Fragebogen, der alle Aspekte der Befragung beinhaltet, wurde erstellt, erprobt und durch den Adjektiv-Ratingbogen von SYMLOG und dem Bochumer Inventar zur berufsbezogenen Persönlichkeitsbeschreibung (BIP) erweitert. 45 Versicherungsberater von drei unterschiedlichen Versicherungsunternehmen in Österreich wurden mittels der Forschungsmethode des 360° Feedbacks untersucht, wobei neben der Selbsteinschätzung die Fremdeinschätzung vom unmittelbaren Vorgesetzten, zwei Arbeitskollegen und drei Kunden eingeholt wurde. Die Beurteilung des „Erfolges“ durch den Vorgesetzten schloss die Erhebungsphase ab. Bei den Auswertungen der Fragebögen konnten unterschiedliche Einschätzungstendenzen bei den sehr erfolgreichen Versicherungsberatern und den wenig erfolgreichen bei der Beurteilung ihres Arbeitsverhaltens, ihres sozialen Interaktionsverhaltens und ihrer berufsbezogenen Persönlichkeitsbeschreibung aufgezeigt werden. Weiters wurden die Bedeutung der Schulungsmaßnahmen, die Versicherungsprodukte und das Image der Unternehmen für einen Verkaufsabschluss untersucht. Die Bedeutung der Arbeit für die Praxis erschließt sich vor allem in der Hilfestellung für die wenig erfolgreichen Versicherungsberater.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Die traditionellen Empathiekonzepte (z. B. Rogers, Kohut), die in der Psychotherapie bis heute maßgebend sind, werden einer gründlichen Überprüfung unterzogen. Dabei ergeben sich drei wesentliche Kritikpunkte: (1) Empathische Vorgänge in der Psychotherapie werden als einseitige Prozesse verstanden; der Therapeut fühlt sich in die Klientin ein, nicht auch umgekehrt. (2) Empathie wird in Cartesianischer Tradition schwerpunktmäßig als kognitive Leistung gesehen; ein körperloser Geist vergegenwärtigt sich die mentalen Inhalte eines anderen. (3) Das traditionelle Empathieverständnis ist individualistisch: Therapeutin und Klient halten sich demnach scheinbar im luftleeren Raum auf. Es sieht so aus, als existiere kein Kontext, der sie umgibt. So einseitig, wie ihre Beziehung gedacht wird, so abgetrennt, wie ihr Körper von ihrem Geist zu sein scheint, so unverbunden sind sie scheinbar mit dem Rest der Welt. Aus diesen drei Kritikpunkten folgt die Notwendigkeit, den Empathiebegriff der Psychotherapie zu erweitern, d. h. (a) Empathie als gegenseitigen Prozess der Beteiligten zu begreifen, (b) ihre tiefe Verwurzelung in der Leiblichkeit des Menschen zu berücksichtigen und (c) ihre Einbettung in die Dynamiken einer gemeinsamen Situation im Rahmen eines kulturellen Kontextes einzubeziehen. Mit Rückgriff auf neuere Untersuchungsergebnisse aus der Entwicklungspsychologie (z. B. Emde, Hobson, Meltzoff, Stern, Trevarthen), der Sozial- und Emotionspsychologie (z. B. Chartrand, Ekman, Goleman, Hatfield, Holodynski), der sozialen Neurowissenschaften (z. B. Damasio, Gallese, Iacoboni, LeDoux, Rizzolatti), aber auch mit Hilfe der Erkenntnisse aus der klassischen (Husserl, Merleau- Ponty, Edith Stein) und der Neuen Phänomenologie (Schmitz) sowie aus symbolischem Interaktionismus (Mead) und aus der kulturhistorischen Schule (Vygotskij) werden diese drei bislang wenig beleuchteten Dimensionen der Empathie betrachtet. ad a) Die Gegenseitigkeit empathischer Vorgänge in der Psychotherapie wird anhand des entwicklungspsychologischen Konzepts des social referencing erläutert und untersucht: Kleinkinder, die in eine unbekannte bzw. unsichere Situation geraten (z. B. im Experiment mit der "visuellen Klippe"), orientieren sich an den nonverbalen Signalen ihrer Bezugspersonen, um diese Situation zu bewältigen. Dabei erfasst die Mutter die Situation des Kindes, versucht ihm ihre Stellungnahme zu seiner Situation zu übermitteln, und das Kind begreift die Reaktion der Mutter als Stellungnahme zu seiner Situation. ad b) Die Körperlichkeit bzw. Leiblichkeit der Einfühlung manifestiert sich in vielfältigen Formen, wie sie von der Psychologie, der Phänomenologie und den Neurowissenschaften erforscht werden. Das kulturübergreifende Erkennen des Gesichtsausdrucks von Basisemotionen ist hier ebenso zu nennen wie die Verhaltensweisen des motor mimicry, bei dem Menschen Körperhaltungen und – bewegungen ihrer Bezugspersonen unwillkürlich imitieren; des Weiteren das unmittelbare Verstehen von Gesten sowie die Phänomene der „Einleibung“, bei denen die körperliche Situation des Anderen (z. B. eines stürzenden Radfahrers, den man beobachtet) am eigenen Leib mitgefühlt wird; und außerdem die Entdeckung der „Spiegelneurone“ und anderer neuronaler Strukturen, durch die Wahrgenommenes direkt in analoge motorische Aktivität übersetzt wird. ad c) Intersubjektivitätstheoretische Überlegungen, Konzepte wie „dyadisch erweiterter Bewusstseinszustand“ (Tronick) und „gemeinsame Situation“ (Gurwitsch, Schmitz) verweisen auf die Bedeutung überindividueller, ‚emergenter’ Dimensionen, die für die Verständigung zwischen Menschen wichtig sind. Sie folgen gestaltpsychologischen Prinzipien („Das Ganze ist mehr und anders als die Summe seiner Teile.“), die mit Hilfe von Gadamers Begriff des „Spiels“ analysiert werden. Am Ende der Arbeit stehen die Definition eines neuen Empathiebegriffs, wie er sich aus den vorangegangenen Überlegungen ergibt, sowie eine These über die psychotherapeutische Wirkweise menschlicher Einfühlung, die durch weitere Forschungen zu überprüfen wäre.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Nach einem einleitenden ersten Kapitel wird im zweiten Kapitel der Stand der Technik für Regelungs- und Monitoringsysteme mit vernetzten Systemen dargestellt. Daraus wird die Motivation zur Entwicklung neuer, kostengünstiger Systeme abgeleitet. Im dritten Kapitel folgt eine Darstellung der verschiedenen Arten marktverfügbarer Embedded Systems und dafür geeigneter Betriebs­systeme. Anforderungen an verteilte Regelungssysteme, unterschiedliche Strukturen dieser Systeme und deren Vor- und Nachteile sind Gegenstand des vierten Kapitels. Anhand von Beispielen aus den Bereichen Erzeugungsmanagement für den Betrieb von KWK-Anlagen, Energieverbrauchsmonitoring und Smart-Metering wird der Einsatz von verteilten Regelungs- und Monitoringsystemen im fünften Kapitel dargestellt. Im folgenden sechsten Kapitel wird die Bedeutung normierter Kommunikation für den Einsatz in verteilten Systemen sowie dafür vorhandene Standards aus der elektrischen Energieversorgungstechnik und der Automatisierungstechnik behandelt. Der Stand der Internet-Technik für verteilte Systeme ist Gegenstand des siebten Kapitels. Dabei werden zunächst die verschiedenen drahtlosen und drahtgebundenen Kommunikationsmedien vorgestellt und ihre Eigenschaften und die Rand­bedingungen für ihren Einsatz erörtert. Ebenso werden technische Probleme beim Einsatz der Internet-Technik aufgezeigt und Lösungsmöglichkeiten für diese Probleme dargestellt. Es folgt eine Übersicht von Netzwerkdiensten, die für den Betrieb von verteilten Systemen notwendig sind. Außerdem werden Techniken zur Überwachung von verteilten Systemen behandelt. Kapitel acht zeigt Sicherheitsrisiken bei der Nutzung des Internets auf und bewertet verschiedene Techniken zur Absicherung des Netzwerkverkehrs. Kapitel neun stellt ein Internet-basiertes Client-Server-System zur Online-Visualisierung von Anlagendaten im Webbrowser mit Hilfe von Java-Applets und XML-RPC vor. Die Visualisierung von Anlagendaten auf Mobiltelefonen mit Hilfe des Wireless Application Protocol sowie die dafür notwendige Software und Infrastruktur ist Gegenstand des zehnten Kapitels. Im elften Kapitel wird eine neuartige Software für die Simulation von dezentralen Energiesystemen und deren Regelungs­systemen auf Basis von virtuellen Maschinen, virtuellen Netzwerken und einer thermischen Simulationsumgebung vorgestellt sowie deren Anwendung für die Reglerentwicklung erklärt. Verschiedene Techniken für die Installation von Betriebssystemen und Software für die Embedded Systems eines verteilten Systems werden im Kapitel zwölf untersucht. Im Kapitel 13 werden verschiedene Technologien zur Konfiguration und Parametrierung von Regelungssystemen in der industriellen Prozess- und Fertigungs­automatisierung hinsichtlich ihrer Eignung für dezentrale Energiesysteme analysiert. Anschließend wird eine Software zur Installation und Parametrierung von Monitoringsystemen sowie der dazugehörigen Infrastruktur vorgestellt. Kapitel 14 beschäftigt sich mit Anforderungen an die Hardware für verteilte Systeme und mit Maßnahmen zur Erhöhung der Betriebs- und der Datensicherheit. Im 15. Kapitel werden die in den bisherigen Kapiteln vorgestellten Techniken anhand eines großen verteilten Monitoringsystems und anhand eines Power Flow and Power Quality Management Systems auf Basis von verteilten Embedded Systems evaluiert. Kapitel 16 fasst die Ergebnisse der Arbeit zusammen und enthält einen Ausblick auf zukünftige Entwicklungen.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Jedes Land besitzt eigentümliche Charakteristika, die aus der Geschichte, internen Faktoren, politischen Umwälzungsprozessen sowie externen Interventionen hervorgehen. Somit weisen Entwicklungs- und Demokratieprozesse jeweils länder- oder regionalspezifische Ausprägungen auf, die eine Übersetzung der allgemeinen Erfahrungen auf den Einzelfall erfordert. Um eine Einzelfallanalyse vornehmen zu können wurde für das Promotionsvorhaben Nicaragua herausgegriffen, welches in seiner jüngeren Geschichte gravierende soziale und politische Umwälzungsprozesse erfahren hat und durch externe Intervention in seinem Demokratisierungsprozess beeinflusst wurde. Die genaue Betrachtung des nicaraguanischen Entwicklungs- und Demokratieprozesses zeigt jedoch, dass – trotz vorhandener demokratischer Strukturen, formaler Umsetzung institutioneller Rahmenbedingungen und hinreichender Gesetzesgrundlagen - eine breite politische Teilhabe und ein sozioökonomisch innergesellschaftlicher Ausgleich kaum nennenswert stattfinden. Trotz der Macht der Akteure tragen sie wenig aus im Sinne der Umverteilung von Macht und Ressourcen, trotz der Etablierung demokratischer Institutionen funktioniert innerhalb dieser keine Umsetzung horizontaler Gewaltenkontrolle oder erkennbare Gewaltenteilung. Auf Grundlage dieser Beobachtung liegt der Fokus der Arbeit auf der Darstellung von herrschaftsanalytischen und endogenen Faktoren und damit auf der Untersuchung der endogenen Kontextbedingung von Demokratieentwicklung. Der spezielle Fokus des Promotionsvorhabens wird auf die Kontextualisierung von Klientelismus, Korruption und das Handeln der Eliten gelegt - wie beeinflussen diese informellen Macht- und Regelsysteme die demokratisch-formalen Mechanismen und welche Auswirkungen haben sie auf die Generierung von sozialer und gesellschaftlicher Gleichheit bzw. Ungleichheit im Demokratisierungsprozess (1979 – 2009) Nicaraguas. Und, wie systemimmanent ist die politische und gesellschaftliche Tradierung von Korruption und Klientelismus in Nicaragua? Eine qualitative empirische Erhebung, die die Between-Method-Triangulation nutzte, in der Leitfaden-Interviews, eine teilnehmende Beobachtung und die Analyse themenrelevanter Materialien und quantitativer Studien kombiniert wurden, und die theoretische und begriffliche Auseinandersetzung mit Demokratietheorie und Herrschaftsanalyse (Korruption, Klientelismus, Elite) bilden die methodischen und theoretischen Grundlagen zur Bearbeitung der Fragestellung. Als Ergebnis gilt festzuhalten, dass informelle Herrschaftsmuster (Korruption und Klientelismus) unabhängig von politischen & ökonomischen Konfigurationen feste Konstanten der gesellschaftlichen Entwicklung Nicaraguas waren, sie wiesen eine Tiefenstruktur auf, die eine bemerkenswerte Beharrungs- und Reproduktionskraft besaß und zeigten eine auffällige Kontinuität im politischen Wandel. Die sozialökonomische Machtbasis der Elite war trotz Umverteilungsprozesse ungebrochen. Der Übergang von den Sandinisten zu den neuen Regierungen führte nicht zu einem Machtverlust der Eliten, sondern zu einer Machtverschiebung. Es waren dominante exklusive Herrschaftsmuster privater Einflussnahme nachzuweisen. Autokratische Cliquen, paktierte Machtübergriffe und korrupte Machenschaften unterliefen den Demokratisierungsprozess und unterminierten eine gerechte soziale und gesellschaftliche Entwicklung. Es konnte eine prägende Beziehung zwischen informellen Herrschaftsmustern und politischer Teilhabe aufgezeigt werden. Das demokratische Entwicklungsmodell lief unter diesen Umständen Gefahr, in einer institutionellen und informellen Autokratie zu münden. Die Demokratietheorien bilden die Demokratiekonfiguration Nicaraguas und die gesellschaftliche Exklusion durch die sozioökonomische Dimension nicht ab. Für die Forschungsperspektive erschließt sich daraus die Forderung, das liberale Demokratiemodell zu überdenken und dem universellen Leitbild der linearen und normativen Entwicklung eine reale Gegenständlichkeit der Länder entgegenzustellen. Krisen sollten als Ausdruck von politischer Herrschaft und asymmetrische Herrschaftsmuster als inhärente Herrschaftsmechanismen analysiert werden. Der Demokratietheorie sollte eine Herrschaftsanalyse an die Seite gestellt, politische Gleichheit mit sozialer Teilhabe gekoppelt werden.