12 resultados para Kaluza-Klein
em Universitätsbibliothek Kassel, Universität Kassel, Germany
Resumo:
The rise of the English novel needs rethinking after it has been confined to the "formal realism" of Defoe, Richardson, and Fielding (Watt, 1957), to "antecedents, forerunners" (Schlauch, 1968; Klein, 1970) or to mere "prose fiction" (McKillop, 1951; Davis, Richetti, 1969; Fish, 1971; Salzman, 1985; Kroll, 1998). My paper updates a book by Jusserand under the same title (1890) by proving that the social and moral history of the long prose genre admits no strict separation of "novel" and "romance", as both concepts are intertwined in most fiction (Cuddon, Preston, 1999; Mayer, 2000). The rise of the novel, seen in its European context, mainly in France and Spain (Kirsch, 1986), and equally in England, was due to the melting of the nobility and high bourgeoisie into a "meritocracy", or to its failure, to become the new bearer of the national culture, around 1600. (Brink, 1998). My paper will concentrate on Euphues (1578), a negative romance, Euphues and His England (1580), a novel of manners, both by Lyly; Arcadia (1590-93) by Sidney, a political roman à clef in the disguise of a Greek pastoral romance; The Unfortunate Traveller (1594) by Nashe, the first English picaresque novel, and on Jack of Newbury (1596-97) by Deloney, the first English bourgeois novel. My analysis of the central values in these novels will prove a transition from the aristocratic cardinal virtues of WISDOM, JUSTICE, COURAGE, and HONOUR to the bourgeois values of CLEVERNESS, FAIR PLAY, INDUSTRY, and VIRGINITY. A similar change took place from the Christian virtues of LOVE, FAITH, HOPE to business values like SERVICE, TRUST, and OPTIMISM. Thus, the legacy of history proves that the main concepts of the novel of manners, of political romance, of picaresque and middle-class fiction were all developed in the time of Shakespeare.
Resumo:
Im Informationszeitalter erhalten die Neuen Medien eine immer größer werdende Bedeutung. Lange Zeit galten gedruckte Informationen – häufig in Form von Büchern und Zeitschriften – als eigentliche Informationsquelle in den Bibliotheken. Mehr und mehr nehmen jedoch mittlerweile auch multimediale Anwendungen breiteren Raum ein, gilt es doch, sich den veränderten Lese- und insbesondere Informationsgewohnheiten anzupassen. Insbesondere sollen elektronische Informationsquellen und digitale Literatur erschlossen und bereitgestellt werden. Im Zuge dieser Entwicklung wurde durch die hessische Ministerin für Wissenschaft und Kunst am 11.11.1998 in der Gesamthochschulbibliothek Kassel eine neugeschaffene Multi-Media-Thek (MMT) eröffnet. In dieser Multimediathek sollen die Bibliotheksbenutzer die Möglichkeit erhalten, die Neuen Medien zu erkunden und gewinnbringend für ihre Fragestellungen einzusetzen. Neben den mittlerweile weiter verbreiteten Internetarbeitsplätzen haben die Benutzer Gelegenheit, an speziell ausgestatteten Arbeitsplätzen Audio- und Videoanwendungen zu testen. Die zur Verfügung stehenden Arbeitsplätze sind plattformübergreifend gestaltet, neben Windows NT-Rechnern können Macintosh-, Java- und Linux-Rechner benutzt werden. Alle PC-Systeme verfügen über hochauflösende Grafik- und Soundkarten, allerdings müssen zum Abhören von Audio-Medien, DVD’s oder Multimedia-CD’s entsprechende Kopfhörer aufgesetzt werden. Über WinCenter können auch auf Linux- und Macintosh-Rechnern CD-Applikationen aus dem GHB-internen CD-Server angewählt werden. Zur Auswahl stehen derzeit 140 Datenbanken, die zudem ergänzt werden durch entsprechende Datenbankzugriffe auf den Silverplatter-Server der GHB. In separaten Klein-Arbeitsräumen können Audio-Cassetten und Video-Bänder benutzt werden. Natürlich lassen sich auch herkömmliche Dias und Microfiches in den Räumen der MMT betrachten und Ausdrucke über den Reader-Printer bzw. über das Bibliotheksnetz auf einen zentralen Benutzer-Drucker (OCE-Drucksystem mit Entgeldregelung) machen. Als Auslegestelle für DIN-Normen kann im DIN-Katalog über Internet recherchiert und das Ergebnis der Recherche direkt im DIN-Bestand angesehen werden. In einem speziell eingerichteten Macintosh-Pool sind mittels Scanner, Grafikbearbeitungssoftware und OCR-Möglichkeit weitere Bedingungen für multimediales Arbeiten geschaffen. Sie sollen bei entsprechendem Bedarf um digitale Bildbearbeitung (Photo, Video) gegebenenfalls ergänzt werden. Die Bibliothek bietet in den Räumen der Multimediathek entsprechende Schulungen zur effektiven Nutzung der Rechnerausstattung an.
Resumo:
Untersuchung von Schichtsystemen für die magneto-optische Datenspeicherung mit Hilfe der Kerr-Mikroskopie Dissertation von Stephan Knappmann, Universität Gh Kassel, 2000 Im Rahmen dieser Arbeit wurde ein modifiziertes Kerr-Mikroskop aufgebaut und für eine neuartige Untersuchungsmethode von gekoppelten magnetischen Schichten angewendet. Damit können Schichtsysteme untersucht werden, bei denen die eine Schicht eine temperaturabhängige Reorientierung der Magnetisierung von in-plane zu senkrecht zeigt. Derartige Schichten sind für zukünftige magnetooptische Speichertechniken interessant, da sie für die magnetisch induzierte Superauflösung (MSR) eingesetzt werden können. Zunächst wurde ein Ganzfeld-Kerr-Mikroskop aufgebaut und durch einen zusätzlichen Strahlengang erweitert. Da die Proben lokal geheizt werden sollten, wurde der Strahl eines Diodenlasers (l = 780 nm) in den Strahlengang eingekoppelt, durch das Mikroskopobjektiv auf die Probe fokussiert und nach der Reflexion vollständig aus dem Strahlengang entfernt. Dies war deshalb wichtig, da Domänenbilder aufgenommen werden sollten, während die Schichten lokal geheizt werden. Mit diesem Aufbau ist es möglich, den magnetooptischen Ausleseprozeß in MSR Systemen mikroskopisch zu simulieren. Dies wurde am Beispiel einer Doppelschicht demonstriert. Dieses Schichtsystem besteht aus einer Speicherschicht mit senkrechter Magnetisierung (TbFeCo) und einer Ausleseschicht mit temperaturabhängiger Reorientierung (GdFeCo). Damit ist dieses Schichtsystem für eine spezielle MSR Technik (CAD-MSR) geeignet. Dabei wird im heißen Bereich des laserinduzierten Temperaturprofils die Information aus der Speicherschicht in die Ausleseschicht kopiert, so daß eine Apertur gebildet wird, die nur von der Temperaturverteilung abhängt. Bei diesem Schichtsystem konnte gezeigt werden, daß sich durch ein Magnetfeld die Aperturwirkung deutlich verbessern läßt. Dieses Ergebnis läßt sich auf alle Schichten übertragen, bei denen die Reorientierung der Magnetisierung durch allmähliche Drehung erfolgt. Die wesentlichen Ergebnisse der Domänenbeobachtungen an der TbFeCo/GdFeCo-Doppelschicht konnten durch Simulationen mit Hilfe eines einfachen Modells bestätigt werden. Ein weiterer Schwerpunkt der Arbeit lag in der Untersuchung von Vielfachschichten. Es wurden Tb/Fe-Vielfachschichten mit einer Modulationswellenlänge von 1,5 - 5 nm durch Kathodenzerstäubung hergestellt und magnetisch charakterisiert. Die natürlichen Domänen-strukturen zeigten eine starke Abhängigkeit von dem Verhältnis der Tb- und Fe-Schichtdicken. Die Erklärung kann durch das Wechselspiel von magnetostatischer Energie EMS und Domänenwandenergie EDW gegeben werden. In der Nähe des Kompensationspunktes ist EMS klein und EDW dominiert. Als Folge bilden sich zirkulare Domänen. Mit der Entfernung vom Kompensationspunkt steigt EMS und es wird eine verzweigte Domänenstruktur favorisiert. Thermomagnetische Schreibexperimente an einer ausgewählten Tb/Fe-Vielfachschicht haben ergeben, daß sich bei kleinen Schreib-Magnetfeldern Subdomänenstrukturen ausbilden können. In der Praxis ist ein solcher Subdomänenzustand unerwünscht, da er zu einem erhöhten Ausleserauschen führen würde. Der Effekt läßt sich durch ein höheres Magnetfeld oder eine höhere Kompensationstemperatur (höhere Tb-Konzentration) vermeiden. Schließlich wurde demonstriert, daß nach kleinen Änderungen mit dem Mikroskop Domänen in longitudinaler Konfiguration abgebildet werden können. Da die Kerr-Drehungen hier kleiner sind als im polaren Fall, mußten verschiedene Verfahren der Bildverarbeitung angewendet werden, um den magnetischen Kontrast zu vergrößern. Neben der bekannten Subtraktion eines Referenzbildes wurde ein neues Verfahren zur weiteren Verbesserung der Domänenbilder angewendet, wobei zwei Referenzbilder mit entgegengesetzter Magnetisierung benötigt werden.
Resumo:
Die vorliegende Untersuchung analysiert die Eignung der "Spechtgemeinschaft" als ökologische Indikatorengruppe und formuliert vor dem Hintergrund der Ergebnisse Forderungen und Empfehlungen für einen "spechtgerechten" Umgang mit Wäldern. Die Habitatnutzung von sieben Spechtarten beim Nahrungserwerb wurde über einen Zeitraum von zwei Jahren in urwaldartigen und forstlich genutzten Beständen verschiedener Waldgesellschaften systematisch beobachtet. Das Untersuchungsgebiet ist der Bialowieza-Wald im äußersten Osten Polens, wo in enger räumlicher Nachbarschaft Natur- und Wirtschaftswaldflächen bearbeitet werden konnten. Die Beobachtungen erfolgten zwischen Anfang März 1999 und Ende Februar 2001 und wurden zu allen Jahreszeiten durchgeführt. Vier der insgesamt sechs Probeflächen repräsentieren die wichtigste Laubwaldgesellschaft des Gebietes, das Tilio-Carpinetum, die übrigen zwei die wichtigste Nadelwaldgesellschaft, das Peucedano-Pinetum. Die Hälfte der zwischen 42 und 54 ha großen Probeflächen lag im streng geschützten Urwaldreservat des Bialowieza-Nationalparkes, die übrigen in forstlich genutzten Waldbeständen. Zusätzlich wurde ein 2,5 km langes Transekt durch bewirtschafteten Erlen-Eschen-Auenwald und sehr naturnahen Erlenbruch bearbeitet. Die Probeflächen wurden in ein Raster aus 50x50m großen Quadranten unterteilt. Zur Beobachtung der Spechte beim Nahrungserwerb erfolgten 21 Begehungen je Probefläche bzw. Transekt. Die Probeflächen wurden dazu auf parallelen Linien mit Abständen von je 100m begangen, Startpunkt und Startrichtung wurden variiert. Zur Charakterisierung der Vegetation und Bestandesstruktur erfolgten Erhebungen zur Baumartenzusammensetzung, Größenklassenverteilung der Bäume, Totholzanteil und Krautvegetation. 1332 Beobachtungen von Spechten beim Nahrungserwerb konnten ausgewertet werden. Der Buntspecht wurde in allen Flächen am häufigsten gesehen. Mittel-, Weißrücken- und Kleinspecht wurden überwiegend in den Tilio-Carpineten beobachtet, in den Naturwäldern häufiger als in den bewirtschafteten Beständen. Der Dreizehenspecht wurde im Nadelwald und stärker mit Fichten durchmischtem Laubwald angetroffen. Bei Schwarz- und Grauspecht konnte keine klare Vorliebe für bestimmte Waldgesellschaften ermittelt werden. Der Buntspecht ernährte sich vor allem im Herbst und Winter überwiegend von fetthaltigen Samen und wurde dann meist beim Bearbeiten von Fichten- oder Kiefernzapfen in Schmieden beobachtet. Der Mittelspecht suchte als "Sammelspecht" seine Nahrung vor allem an den Oberflächen der Stämme und Äste. Klein-, Weißrücken-, Dreizehen- und Schwarzspecht traten als Hackspechte in Erscheinung. Die wenigen Daten zum Grauspecht reichen nicht zur Ermittlung der bevorzugten Nahrungserwerbstechnik aus. Bei Bunt-, Mittel- und Weißrückenspecht konnte eine deutliche Vorliebe für die Stieleiche als Nahrungsbaum nachgewiesen werden. Der Dreizehenspecht ist jedoch die einzige der beobachteten Arten mit einer weitgehenden Spezialisierung auf eine bestimmte Baumart, er nutzte in allen Waldgesellschaften meist die Fichte. Insgesamt bevorzugten die Spechte Bäume mit großen Stammdurchmessern, beim Kleinspecht ist diese Vorliebe allerdings nur schwach ausgeprägt. Totholz wurde von Weißrücken-, Dreizehen- und Kleinspecht bei der Nahrungssuche bevorzugt, vom Mittelspecht jedoch nur gelegentlich genutzt. Beim Buntspecht zeigte der Totholz-Nutzungsanteil erhebliche Unterschiede zwischen verschiedenen Baumarten. Liegendes Totholz spielte in den Tilio-Carpineten im Vergleich zu stehendem Totholz und toten Teilen lebender Bäume nur eine geringe Rolle für Nahrung suchende Spechte.
Resumo:
Die in dieser Arbeit durchgeführten Untersuchungen zeigen, daß es möglich ist, komplexe thermische Systeme, unter Verwendung der thermisch-, elektrischen Analogien, mit PSpice zu simulieren. Im Mittelpunkt der Untersuchungen standen hierbei Strangkühlkörper zur Kühlung von elektronischen Bauelementen. Es konnte gezeigt werden,daß alle Wärmeübertragungsarten, (Wärmeleitung, Konvektion und Wärmestrahlung) in der Simulation berücksichtigt werden können. Für die Berechnung der Konvektion wurden verschiedene Methoden hergeleitet. Diese gelten zum einen für verschiedene Kühlkörpergeometrien, wie z.B. ebene Flächen und Kühlrippenzwischenräume, andererseits unterscheiden sie sich, je nachdem, ob freie oder erzwungene Konvektion betrachtet wird. Für die Wärmestrahlung zwischen den Kühlrippen wurden verschiedenen Berechnungsmethoden entwickelt. Für die Simulation mit PSpice wurde die Berechnung der Wärmestrahlung zwischen den Kühlrippen vereinfacht. Es konnte gezeigt werden, daß die Fehler, die durch die Vereinfachung entstehen, vernachlässigbar klein sind. Für das thermische Verhalten einer zu kühlenden Wärmequelle wurde ein allgemeines Modell entworfen. Zur Bestimmung der Modellparameter wurden verschiedene Meßverfahren entwickelt. Für eine im Fachgebiet Elektromechanik entwickelte Wärmequelle zum Test von Kühlvorrichtungen wurde mit Hilfe dieser Meßverfahren eine Parameterbestimmung durchgeführt. Die Erstellung des thermischen Modells eines Kühlkörpers für die Simulation in PSpice erfordert die Analyse der Kühlkörpergeometrie. Damit diese Analyse weitestgehend automatisiert werden kann, wurden verschiedene Algorithmen unter Matlab entwickelt. Es wurde ein Algorithmus entwickelt, der es ermöglicht, den Kühlkörper in Elementarzellen zu zerlegen, die für die Erstellung des Simulationsmodells benötigt werden. Desweiteren ist es für die Simulation notwendig zu wissen, welche der Elementarzellen am Rand des Kühlkörpers liegen, welche der Elementarzellen an einem Kühlrippenzwischenraum liegen und welche Kühlkörperkanten schräg verlaufen. Auch zur Lösung dieser Aufgaben wurden verschiedene Algorithmen entwickelt. Diese Algorithmen wurden zu einem Programm zusammengefaßt, das es gestattet, unterschiedliche Strangkühlkörper zu simulieren und die Simulationsergebnisse in Form der Temperaturverteilung auf der Montagefläche des Kühlkörpers grafisch darzustellen. Es können stationäre und transiente Simulationen durchgeführt werden. Desweiteren kann der thermische Widerstand des Kühlkörpers RthK als Funktion der Verlustleistung der Wärmequelle dargestellt werden. Zur Verifikation der Simulationsergebnisse wurden Temperaturmessungen an Kühlkörpern durchgeführt und mit den Simulationsergebnissen verglichen. Diese Vergleiche zeigen, daß die Abweichungen im Bereich der Streuung der Temperaturmessung liegen. Das hier entwickelte Verfahren zur thermischen Simulation von Strangkühlkörpern kann somit als gut bewertet werden.
Resumo:
Die vorliegende Arbeit ist Teil eines Verbund-Forschungsprojektes mit dem Ziel, eine Präzisions-Bodenbearbeitung in Abhängigkeit von verschiedenen Bodenparametern sowie dem Bodenbedeckungsgrad zu realisieren. Ziel dieses Teilprojektes war die Bereitstellung einer Online-Messung des Bedeckungsgrades, um die Bearbeitungsintensität während der Feldüberfahrt regeln zu können: Ein Kamerasensor vorne am Schlepper ermittelt die Bodenbedeckung und ein Tiefen-Sollwert wird an das Regelsystem eines Gerätes zur teilfächenspezifischen Bodenbearbeitung ausgegeben. Da unter Feldbedingungen Methoden zur Bedeckungsgradmessung nur relativ zueinander verglichen werden können, wurde zunächst ein Laborvergleich mit wohldefinierten Bodenbedeckungen durchgeführt, um die prinzipiellen Stärken und Schwächen von Bildanalyse sowie zwei visuellen Methoden (Gitterraster-Methode und „Meterstick-Methode“) zu ermitteln: • Eine visuelle Methode, die auf einer begrenzten Anzahl von einfachen Stichprobenbeobachtungen beruht (Gitter), überschätzte den Bedeckungsgrad systematisch, wobei dieser Effekt unter Feldbedingungen vermutlich klein gegenüber der bekannten Schwankungsbreite zwischen Messungen verschiedener Beobachter ist. • Eine visuelle Methode, die auch Größe und Orientierung des Strohs berücksichtigt (Meterstick), lieferte präzise mittlere Messwerte. Diese Methode war die mit Abstand arbeitsaufwändigste. • Nach einer einfachen Korrektur des Abbildungsfehlers des Kameraobjektivs war auch die Bildverarbeitungs-Methode in der Lage, die bekannten tatsächlichen Bedeckungsgrade exakt darzustellen, bei gleichzeitig der geringsten Schwankungsbreite der Messwerte. Die Online-Messung der Bodenbedeckung durch Ernterückstände ist bisher jedoch ungelöst. Obwohl in früheren Untersuchungen Texturmerkmale oder Farbunterschiede erfolgreich genutzt wurden, um den Bedeckungsgrad zu bestimmen, wird eine Bedienperson zur interaktiven Festlegung bestimmter Parameter benötigt. Um den Prototypen eines onlinefähigen Kamerasensors zu entwickeln, wurden geeignete Ausrüstung und Bedingungen zur Bildaufnahme untersucht und verschiedene Auswertealgorithmen mit Hilfe einer wissenschaftlichen Bildanalysesoftware geschrieben und getestet: • Da im Nahinfraroten zwischen ca. 800 und 1400 nm der größte Intensitäts-Kontrast zwischen Stroh und Boden besteht wurde zur Bildaufnahme eine Schwarz-Weiss-CCD-Kamera mit aufgesetztem Infrarotfilter gewählt. Eine Diffusor-Box sorgte für homogene Beleuchtungsbedingungen. • Zwei auf Kantendetektion und automatischer Schwellwertsetzung basierende Versionen („A“ und „B“) eines „klassischen“ Segmentierungsalgorithmus wurden geschrieben. Durch einen iterativen Ansatz konnten geeignete Thresholding-Verfahren abhängig von der Größenordnung der Bodenbedeckung verwendet werden. Die zur Online-Regelung der Bearbeitungstiefe nötige Beschränkung der Prozesslaufzeit auf ca. 1000 ms/Bild konnte eingehalten werden. • Eine alternative automatisierbare Kontrollmethode wurde entwickelt, welche Merkmale der Grauwerthistogramme der Stroh/Boden-Bilder auswertet (Algorithmus „C“). Dieser Ansatz ist nochmals deutlich schneller als eine Bildsegmentierung (ca. 5 – 10 Bilder/s). • Der Sensor wurde an einem Quad montiert und die Bodenbedeckung auf drei Testfeldern untersucht. Zwischen den Messergebnissen eines Algorithmus vom Typ A/B und dem Ansatz C wurde eine Pearson-Korrelation von 0,967 für die Messwertegesamtheit gefunden. • Auf Versuchsparzellen mit definiert aufgebrachten Strohmengen (ein weiteres Teil-projekt) wurden an GPS-referenzierten Punkten Bilder mit dem Sensor aufgenommen und Referenzmessungen mit der visuellen Gitterraster-Methode durchgeführt. Zwischen der Bildverarbeitung (A, B) und dem Gitter ergaben sich befriedigende Pearson-Korrelationen im Bereich von 0,7 – 0,8. Allerdings waren für hohe Bedeckungen die Ergebnisse des Sensors meist signifikant niedrigere als der Mittelwert von drei das Gitter auszählenden Personen. Eine Kontrolle mit Ansatz C ergab, dass die Histogramm-Merkmale der einzelnen Bilder deutlich besser mit den per Bildverarbeitung ermittelten Bedeckungsgraden korrelierten als mit den Gittermessungen. – Insgesamt erwies sich die schnelle Bildverarbeitung als geeignet für den Einsatz als neue Referenzmethode zur Messung der Bodenbedeckung durch Ernterückstände. • Da der Aufbau des Sensors ohne die Diffusor-Box praxisgerechter ist, besteht weiterer Forschungsbedarf in Bezug auf die dann auftretenden Probleme durch stark wechselnde Beleuchtung und Schattenwurf. • In einem letzten Schritt wurde der Kamerasensor erfolgreich in ein bereits entwickeltes System zur teilflächenspezifischen Bodenbearbeitung an der Universität Kiel integriert. Eine Regelung der Arbeitstiefe durch den Kamerasensor war problemlos möglich, allerdings gilt es noch belastbare Kriterien für die Vorgabe von Tiefen-Sollwerten in Abhängigkeit vom Bedeckungsgrad zu entwickeln.
Resumo:
Seit Januar 2007 und sind in Nicaragua wieder die Sandinisten unter dem ehemaligen Revolutionsführer Daniel Ortega in der Regierungsverantwortung. Am 12. und 13. Juni 2009 veranstalteten das NicaNetz - Freiwilligen-Netzwerk Nicaragua e.V. und das Entwicklungspolitische Netzwerk Hessen in Kooperation mit dem Fachgebiet für Internationale und intergesellschaftliche eine Fachtagung, um gemeinsam mit ExpertInnen aus Wissenschaft, Solidaritätsbewegung und Entwicklungszusammenarbeit einen differenzierten Blick auf die politische, soziale und wirtschaftliche Entwicklung Nicaraguas zu werfen. Das vorliegende OneWorld Perspective Working Paper vertieft die auf der Tagung begonnene Diskussion. Anschließend an einleitende Beiträge zur Geschichte des Sandinismus und konkreten Projekterfahrungen aus der Solidaritäs- und Entwicklungszusammenarbeit, befassen sich die AutorInnen mit den Themenfeldern Entwicklungspolitische Praxis, Zentrale Konfliktfelder sowie Wirtschafts- und Sozialpolitik.
Resumo:
Ziel dieser Arbeit ist es, die Methode der theologischen Gespräche mit Schülern auch außerhalb einer künstlich geschaffenen Unterrichtssituation anzuwenden und im besten Fall in das normale Unterrichtsgeschehen einfließen zu lassen. Dies soll dazu führen, dass diese Methode ihren experimentellen Charakter ein Stück weit verliert und wie oft von teilnehmenden Religionslehrern angemerkt, von nun an einen Platz im regulären Unterricht haben werde. Die Ziele solcher Gespräche, die in einem späteren Punkt explizit erläutert werden, sollen geringfügig modifiziert werden, so dass man sie erfolgreich von Kleingruppen auf Großgruppen übertragen kann. Gleichzeitig soll dabei jedoch auch weiterhin der Lehrplan berücksichtigt werden, den es im regulären Unterricht einzuhalten gilt. Es soll gezeigt werden, dass auch oder vor allem unter den Richtlinien des Lehrplans vorgegebene Inhalte und Kompetenzen mit dem theologischen Gespräch vereinbar sind. Um die Lehrziele optimal erfüllen zu können, werden einige ausgewählte Methoden, die vorrangig in den theologischen Gesprächen genutzt werden, analysiert und auf ihre Tauglichkeit in Klein-, vor allem aber in Großgruppen hin untersucht. Es soll jedoch nicht nur eine Bewertung dieser Methoden vorgenommen werden, sondern zusätzlich sollen bisherige Erfahrungen miteinfließen und damit das Bild unterschiedlicher Möglichkeiten in theologischen Gesprächen abrunden. Unter anderem werden zur Verdeutlichung Transkripte genutzt, um Unterschiede in der Dynamik der verschiedenen Gruppen am Praxisbeispiel zu verdeutlichen. Die Erfahrungen und Reflexionen des unternommenen qualitativen Vergleichs werden anschließend in Form von persönlichen Hinweisen im letzten Abschnitt ergänzt und zusammengefasst. Ziel dieser Hinweise ist es, Lehrkräften praktische Hilfen an die Hand zu geben, die sich der Aufgabe der theologischen Gespräche im regulären Unterricht in einer Großgruppe stellen möchten.
Resumo:
Lobbyisten versuchen vermehrt Einfluss auf Schulen auszuüben. So berichtete das ZDF in seinem Magazin „frontal21“ darüber, wie Wirtschaftslobbyisten sich an Schulen engagieren. Diese versuchen Inhalte zu setzen und damit den Unterricht nachhaltig zu beeinflussen. So fordert beispielsweise das wirtschaftsnahe Institut für Ökonomische Bildung (IÖB) ein eigenständiges Unterrichtsfach „Wirtschaft“, um die vermeintlichen „[Wissens]lücke der Allgemeinbildung“ der Schülerinnen und Schüler (SuS) zu schließen (vgl. IÖB o.J., S. 16). Kritiker befürchten hingegen, dass ein Unterrichtsfach „Wirtschaft“ ein Fach sein wird, in dem ökonomische Themengebiete einseitig behandelt werden (vgl. Hedtke 2011, S. 14). Dies ist nur ein Beispiel, wie eine Lobbygruppe versucht, die eigenen Interessen im Bildungssektor mit Hilfe der Politik durchzusetzen. Lobbyismus in der Schule besitzt aber noch weitere Instrumente um Einfluss auszuüben. Diese Arbeit setzt sich mit kostenlos zur Verfügung gestellten Unterrichtsmaterialien Dritter, als ein mögliches Instrument der Einflussnahme, auseinander. Es wird untersucht, inwiefern angebotene Materialien einen manipulativen Charakter besitzen und wie transparent die Herausgeber auftreten. Dabei werden exemplarisch von drei unterschiedlichen Anbietern Unterrichtsmaterialien recherchiert, analysiert und anhand eines zuvor erstellten Beurteilungsleitfadens bewertet. Dies geschieht unter der Berücksichtigung des eigenen Anspruchs der Anbieter. Der thematische Schwerpunkt wird auf das Thema Mindestlohn gelegt, da diese Thematik sehr aktuell ist und immer wieder zu kontroversen Debatten in der Öffentlichkeit führt. Um eine Vielfallt an Positionen darzustellen, wird zur Analyse jeweils ein Anbieter aus dem arbeitnehmernahen, arbeitgebernahen und öffentlichen Lager ausgewählt. Das Themengebiet ist eines der wenigen, bei dem es zu einer Materialangebotsüberschneidung von allen drei Anbietern kommt.