123 resultados para Königliche Lyceum und Gymnasium zu Aschaffenburg.
Resumo:
Erfolgskontrollen für Agrarumweltprogramme bezogen sich bisher meistens auf einzelne Flächen oder auf programmbezogene, großräumige Evaluationen. Es wurde jedoch kaum untersucht, wie sich die Maßnahmen auf die Entwicklung einzelner Naturräume auswirken. Auch gab es keine Studien, welche die Wechselwirkungen zwischen den Beweggründen der Landnutzer auf der ei-nen- sowie Landnutzung und Vegetation auf der anderen Seite interpretierten. Die Dissertation Wirkungen von Extensivierungs- und Vertragsnaturschutzprogrammen auf die Entwick-lung einer »gerade noch aktuellen Agrarlandschaft« hat diese Lücke geschlossen. Sie erklärt, welche Bedeutung die hessischen Programme HELP und HEKUL für den hohen Anteil naturschutzfachlich wertvollen Grünlands im Rommeroder Hügel-land westlich des Meißner haben. Untersuchungsgegenstand waren die Grünlandvegetation und die landwirtschaftlichen Betriebe mit ihren Menschen und deren Beweggründen. Diese Inhalte er-forderten eine Vorgehensweise, die sowohl sozialwissenschaftliche als auch naturwissenschaftliche Methoden einbindet, um Bezüge zwischen Betrieben und Grünlandvegetation zu er-kennen. Umfangreiche pflanzensoziologische Untersuchungen und Interviews der Betriebsleiter waren Grundlage für eine Schlagdatenbank und weitergehende Auswertungen. Die Interpretation vegetationskundlicher Erhebungen im Kontext betrieblicher Entscheidungen und Beweggründe erforderte es, althergebrachte Ansätze in neuer Form zu verknüpfen. Die Bewertung der Programmwirkungen stützte sich auf die Schlagdatenbank und auf vier Szena-rien zur zukünftigen Gebietsentwicklung bei unterschiedlichen Programmfortschreibungen. Zur Darstellung von Erhebungen und Ergebnissen entstand eine Vielzahl thematischer Karten. Der überdurchschnittlich hohe Anteil naturschutzfachlich bedeutsamer Grünlandtypen auf den Programmflächen und die Interpretation der Szenarien belegten eine hohe Wirksamkeit von HELP und HEKUL im Gebiet. Nicht nur auf den Vertragsnaturschutzflächen des HELP, sondern auch auf dem HEKUL-Grünland sind naturschutzfachlich bedeutende Vegetationstypen überproportional vertreten. Die vier Szenarien ließen erkennen, dass eine Beschränkung des HELP auf Schutzgebiete, eine Abschaffung der HEKUL-Grünlandextensivierung oder gar eine ersatzlose Strei-chung beider Programme zu erheblichen Verschlechterungen der naturschutzfachlichen Situation führen würde. Gleichzeitig war festzustellen, dass es ohne die landwirtschaftlich schwierigen natur-räumlichen Verhältnisse sowie eine eher großteilige Agrarstruktur mit überdurchschnittlich flächen-starken und wirtschaftlich stabilen Vollerwerbsbetrieben keine so deutlichen Programmwirkungen gegeben hätte. Auch die Tatsache, dass viele Landwirte eine intensive Landwirtschaft aus innerer Überzeugung ablehnen und mit einer erheblich geringeren Stickstoffintensität wirtschaften als es HEKUL verlangt, wirkte verstärkend. Die große Bedeutung individueller Beweggründe einzelner Betriebsleiter wurde auch in den engen Beziehungen einzelner Grünland-Pflanzengesellschaften zu bestimmten Betriebstypen und sogar einzelnen Höfen sichtbar, deren Beschreibung und Interpretation wichtige Erkenntnisse zu den so-zioökonomischen Voraussetzungen verschiedener Vegetationstypen lieferte. Für die zukünftige Entwicklung der hessischen Agrarumweltförderung empfiehlt die Dissertation eine Einführung und bevorzugte Anwendung ergebnisorientierter Honorierungsverfahren, eine bessere Berücksichtigung des gering gedüngten Grünlands über eine differenzierte Förderung sehr extensiver Düngeregime, eine stärkere Modularisierung des Gesamtprogramms und eine Durchführung aller Maßnahmen im Vertragsverfahren. Die betriebszweigbezogene Grünlandextensivierung sollte zukünftig in Kulissen angeboten werden, in denen ein verstärktes Wechseln von Betrieben in die Mindestpflege nach DirektZahlVerpflV zu erwarten ist.
Resumo:
Der Kempter Wald ist aufgrund seiner großflächigen prioritären Lebensräume - den Hoch- und Übergangsmooren - aber auch den landesweit selten gewordenen und durch Nutzungsaufgabe bedrohten Streuwiesen und Flachmoorgesellschaften ein Landschaftsraum von herausragender naturschutzfachlicher Bedeutung. Ausgehend von der nach wie vor aktuellen Debatte um die Schutzgebietsausweisung im Kempter Wald wurde auf dem Gebiet der Marktgemeinde Unterthingau und der Gemeinde Kraftisried die vorhandene Grünlandvegetation auf Feuchtstandorten im Kempter Wald vegetationskundlich erfasst mit der Absicht, auf der Grundlage dieser Untersuchung exemplarisch ein Entwicklungskonzept für die Streu- und Feuchtwiesen zu erarbeiten. Erfasst wurden auf der Grundlage von insgesamt über 170 Vegetationsaufnahmen nach BRAUN-BLANQUET (1965) neben mehrschnittigem Wirtschaftsgrünland auf Feuchtstandorten ein- und zweischnittig genutzte Bachdistel-Wiesen, Pfeifengraswiesen in zwei unterschiedlichen Ausbildungen, Flachmoorgesellschaften auf eher basischen Standorten – das Davallseggen-Quellmoor – sowie im Kontaktbereich der Moore gelegene Kleinseggenrieder auf bodensauren Standorten - der Herzblatt-Braunseggensumpf. Sowohl in den Pfeifengraswiesen als auch in den Kleinseggensümpfen kennzeichnen Blöcke mit Fettwiesenarten in den Vegetationstabellen einen streuwiesenuntypischen Frühschnitt der Flächen im Sommer. Ein Grundkennartengerüst der jeweiligen Gesellschaften ist aber trotzdem bislang noch erhalten geblieben. Im zweiten Teil der Untersuchung wird ein Konzept für eine zukünftige Entwicklung der Streu- und Feuchtwiesennutzung vorgestellt. Das Entwicklungskonzept greift den hohen Stellenwert der offenen Flächen für die Naherholung und den Tourismus auf und versucht auf der Grundlage der beiden Bewertungsfaktoren „Arten- und Biotopschutz“ und „Erholungsnutzung“ Prioritäten für eine zukünftige Entwicklung herauszuarbeiten. So wird im Bereich der Haupterschließungswege der Erhalt der artenreichen Streu- und Feuchtwiesen als vorrangig erachtet. In abgelegenen, z. T. von Wald eingeschlossenen Streuwiesen oder im Randbereich der Hochmoore, kann dagegen für den Fall, dass eine Fortsetzung der Bewirtschaftung aufgrund ausbleibender Fördermittel gefährdet ist, eine natürliche Sukzession zugelassen werden. Isoliert inmitten intensiv genutzter Grünlandflächen gelegene Streuwiesen können sich bei Nutzungsaufgabe zu Feuchtwäldchen oder Feldgehölzen weiterentwickeln. Hinsichtlich der Streuwiesenpflege sollten die Schnittzeitpunkte insgesamt flexibler gehandhabt werden. Nasse Kleinseggenrieder können auch durch eine Mahd in größeren Zeitabständen von 2 bis 5 Jahren erhalten werden. In Randbereichen der Hochmoore sollte in Streuwiesenbrachen in größeren Zeitabständen (10 bis 20 Jahre) auflaufender Gehölzbestand entfernt werden um den Offenlandcharakter für bestimmte Tierartengruppen zu erhalten. In der Beweidung der Streuwiesen wird für Gebiete wie dem Kempter Wald keine realistische Alternative gesehen. Bei der großen Anzahl an Eigentümern und Pächtern ist die Organisation der Beweidung äußerst schwierig. Die Offenhaltung durch Beweidung erfordert außerdem eine gezielte Weideführung sowie die Nachmahd nicht abgefressener Nassbereiche. Eine Kosteneinsparung durch Beweidung erscheint daher eher unwahrscheinlich. Als ergänzende Maßnahmen werden für brachfallende Streuwiesen die Anlage von Kleingewässern sowie der Rückbau von Entwässerungsgräben vorgeschlagen.
Resumo:
Die empirische Studie untersucht das Wechselspiel zwischen der fachbezogenen Sprachentwicklung und dem Fachlernen von Schülerinnen und Schülern bei der Einführung in den Kraftbegriff. Sie betrachtet also sowohl sprachliche wie auch kognitive Aspekte des Lernens in der Mechanik. Dafür wurde ein Unterrichtskonzept entwickelt, das den Gebrauch des Fachwortes Kraft in der Wissenschaft und in der alltäglichen Sprache besonders thematisiert. Dieses Unterrichtskonzept basiert auf Empfehlungen und Ergebnissen der Kognitionspsychologie, Linguistik, Philosophie, Sprachlehrforschung und der Didaktiken der Physik und der Fremdsprachen. Im Rahmen des Unterrichts wurden die Schülerinnen und Schüler mit zwei Aufgabentypen konfrontiert: Beim ersten Aufgabentyp waren die Lerner aufgefordert, den Kraftbegriff so zu verwenden, wie es einer fachsprachlich angemessenen Form entspräche, etwa um die Bewegung eines Zuges zu beschreiben. Aufgaben des zweiten Typs sahen vor, dass die Schülerinnen und Schüler kurze Texte danach klassifizierten, ob sie der Alltagssprache oder der Fachsprache angehörten. Diese als Metadiskurs bezeichnete Form der Auseinandersetzung mit sprachlichen Aspekten verhalf den Schülerinnen und Schülern zu einer Gelegenheit, ihr eigenes Verständnis des Kraftbegriffs zu thematisieren. Weiter lieferte der Metadiskurs wichtige Hinweise darauf, ob die Schülerinnen und Schüler sich bei ihren Beurteilungen eher auf formal-sprachliche oder inhaltliche Aspekte der Sprache bezogen. Für die Datenerhebung wurden alle Unterrichtsstunden videografiert und transkribiert. Zusammen mit schriftlichen Arbeitsergebnissen und Tests stand ein umfangreicher Datensatz zur Verfügung, für dessen Auswertung ein inhaltsanalytisches Verfahren Anwendung fand. Die Ergebnisse zeigen, dass das Lernen im Fach Physik bestimmte Ähnlichkeiten mit dem Lernen einer Fremdsprache zeigt: Wenn die Schülerinnen und Schüler den Kraftbegriff fachsprachlich verwenden sollen, sehen sie sich oft einer Alternativentscheidung gegenüber. Entweder sie versuchen, einer fachsprachlichen Form zu gehorchen und verlieren dabei den Inhalt aus den Augen, oder sie konzentrieren sich auf den Inhalt, drücken sich dabei aber in ihrer Alltagssprache aus und folgen Alltagskonzepten, die weit entfernt von den fachlich intendierten liegen. Ähnliche Beobachtungen kann man im Sprachunterricht machen, wenn Schüler eine neue grammatische Regel einüben: Sie konzentrieren sich entweder auf die neu zu erlernende Regel, oder aber auf den Inhalt des Gesagten, wobei sie die grammatische Regel, die an sich Gegenstand der Übung ist, verletzen. Meistens fällt diese Entscheidung derart, dass die Konzentration auf den Inhalt des Gesagten gerichtet ist, nicht oder wenig auf seine Form. Im Unterschied zum Sprachunterricht ist der Physikunterricht allerdings nicht nur darauf gerichtet, fachsprachlich angemessene Formen einzuüben, sondern insbesondere darauf, den Blick für neue und ungewohnte Konzepte zu öffnen. Damit müssen die Schülerinnen und Schüler hier häufig sprachliche und kognitive Hürden zur selben Zeit bewältigen. Die detaillierte Analyse des Metadiskurses zeigt, dass das Problem des Nebeneinanders zweier unterschiedlicher Anforderung entschäft werden kann: Während die Schüler im Metadiskurs unterschiedliche Aspekte der Sprache diskutieren, sind sie eher in der Lage, sowohl formale wie inhaltsbezogene Merkmale der Sprache wahrzunehmen. Der Text referiert weitere Parallelen zwischen dem Physikunterricht und dem Fremdsprachenlernen, sodass die Auffassung gerechtfertigt ist, dass die Fremdsprachendidaktik als Ideenlieferantin dafür dienen kann, neue Verbesserungsmöglichkeiten für den Physikunterricht aufzufinden.
Resumo:
In Folge der Ergebnisse der PISA und IGLU Studien ist das Thema Diagnose und individuelle Förderung in die öffentliche Diskussion geraten. Vor diesem Hintergrund richtet sich im Herbst 2002 die Aufmerksamkeit der Arbeitsgruppe Wollring auf ein mathematikdidaktisches empirisches Forschungsprojekt in Australien: Early Numeracy Research Project (ENRP) (Clarke et al. 2002). Eine Besonderheit dieses Projektes besteht in der Eins-zu-eins-Situation zwischen Lehrer und Schüler bei einem Interview über Mathematik. Dieses Projekt bildet den Ausgangspunkt der vorliegenden Arbeit. Im ersten Kapitel wird das australische Projekt sowie seine Umsetzung in Deutschland vorgestellt. Ziel des Projektes ist es, die individuellen mathematischen Performanzen von Grund-schulkindern mit Hilfe eines Interviews in einer Eins-zu-eins-Situation des Schülers mit dem Lehrer (Schüler-Interview) zu erheben und damit mathematikdidaktische Orientierungshilfen für den Unterricht zu liefern. Das Schüler-Interview bestimmt den Lernstandort eines Kindes, der als Ausgangspunkt für eine Diagnose dienen kann. Daher werden unterschiedlichen Sichtweisen der Disziplinen – Psychologie, Medizin, Pädagogik, Sonderpädagogik und Fachdidaktik – in Hinblick auf den Begriff „Diagnose“ diskutiert. Die Durchführung von Schüler-Interviews kann neben ihrem diagnostischen Wert auch eine Bedeutung für die Professionalisierung von Lehrern einnehmen, da sie die Lehrer herausfordert, sich mit den Denk- und Lösungswege von Kindern aller Leistungsniveaus intensiv auseinanderzusetzen. In einer Studie von Steinberg et al. (2004, p. 238) wird deutlich, dass dieses Wissen des Lehrers sowohl als ein Index der Veränderung als auch als ein Mechanismus zur Veränderung des Unterrichts dient. In dieser Arbeit werden über den Zeitraum eines Jahres der Umgang der Lehrer mit dem Führen von Schüler-Interviews und den von ihnen daraus gewonnenen Erkenntnissen ausgewertet. Dabei werden mit den Lehrern nach einem halben und nach einem Jahr Erprobung mehrerer von ihnen selbst geführter Schüler-Interviews je ein Interview mit der Forscherin geführt, um herauszufinden, in welchen verschiedenen Bereichen das Führen von Schüler-Interviews den einzelnen Lehrern Unterstützung bietet. Die erhobenen Daten werden qualitativ mit Hilfe der Grounded Theory ausgewertet. Im empirischen Teil der Arbeit werden drei, der am Projekt beteiligten, Lehrerinnen in Form von Fallstudien vorgestellt und ausgewertet. Bei der Lehrerin, die Mathematik nicht als Fach studiert hat, besteht vor allem ein eigener Lernzuwachs in der Sicht auf Mathematik. Zu Beginn der Untersuchung hatte sie laut ihrer eigenen Aussagen eine eher ergebnisorientierte Sicht auf die Mathematik. Die Aussagen der drei Lehrerinnen beruhen auf einzelnen Schülern und ihren Besonderheiten. Im Laufe der Studie verallgemeinern sie ihre Erkenntnisse und beginnen Konsequenzen für ihren Unterricht aus den Schüler-Interviews zu folgern, wie sie in den abschließenden Interviews berichten. Das Schüler-Interview scheint dem Lehrer einen geschützten Raum zu bieten, um die Reflexion über die mathematischen Performanzen seiner Schüler und seinen eigenen Unterricht anzuregen, ohne ihn bloßzustellen und ohne ihm Vorschriften zu machen. Nach der einjährigen Erprobung von Schüler-Interviews betonen alle drei Lehrerinnen größeren Wert auf prozessorientiertes Mathematiklernen zu legen. Sie berichten, dass sie die Performanzen der Kinder stärker kompetenzorientiert wahrnehmen. Jedoch haben sie Schwierigkeiten, die für sich selbst gewonnene Transparenz über die mathematischen Performanzen des interviewten Kindes, den Schülern mitzuteilen und ihnen ermutigende Rückmeldungen zu geben. Außerdem können die Lehrer die problematischen mathematischen Bereiche der Schüler zwar beschreiben, sehen sich laut ihrer eigenen Aussage aber nicht in der Lage mit den Schülern daran zu arbeiten und sie angemessen zu för-dern. Selbst nach den ausführlichen Analysen der ausgewählten Lehrerinnen bleibt unklar, ob und in welcher Weise sie die Erkenntnisse aus dem Führen der Schüler-Interviews für ihren Unterricht nutzen. Laut der Aussage zweier beteiligter Lehrerinnen sollten Lehrer offen und interessiert sein und sich bereitwillig mit ihren eigenen Kompetenzen auseinandersetzen, damit das Führen von Schüler-Interviews für die Lehrer selbst und für die Schüler einen besonderen Nutzen besitzt. Um diese Auseinandersetzung stärker anzuregen und zu vermeiden, dass sich im Schüler-Interview mit dem Kind nicht die Einstellungen des Lehrers gegenüber den Leistungen des Schülers widerspiegeln, könnten sie vor Beginn des Führens von Schüler-Interviews verstärkt in der Ausbildung ihrer Interviewkompetenzen unterstützt und geschult werden. Obwohl sich die Lehrer zuerst Freiräume schaffen mussten, in denen sie trotz ihres Zeitmangels Schüler interviewen konnten, bietet das Führen von Schüler-Interviews die Chance, den Ist-Zustand der Schülerperformanzen in den mathematischen Bereichen Zahlen, Größen und Raum zu erfassen.
Resumo:
Überblick über die Arbeit: "Die Notwendigkeit deutscher Kinderfernseh- und -filmproduktion ist unbestritten. Sie sind die Voraussetzung dafür, dass Kinder im Fernsehen ihre eigene Lebenswirklichkeit wiederfinden und zur Reflexion dieser Wirklichkeit angeregt werden."(Rosenbaum 2000) Kinderfernsehexperten wie Uwe Rosenbaum (Landessenderdirektor des Südwestrundfunks Rheinland-Pfalz) oder Armin Maiwald (Geschäftsführer der Flash Filmstudio GmbH, Produzent und Regisseur vieler Sachgeschichten der Sendung mit der Maus) vertreten die Meinung, dass in Deutschland mehr Kinderprogramm mit Kindern produziert werden müsse, die in Deutschland wohnen. Sie sind dabei auch der Meinung, Realprogramm sei qualitativ hochwertiger und damit für Kinder besser, als einseitiges, triviales Zeichentrickprogramm. Der Teil 1 greift diesen Diskurs auf und beschreibt ihn. Einen Beitrag zu diesem Diskurs möchte die Frageleisten, welche Darstellungsformen von Welt vom expliziten Kinderfernsehen angeboten werden und welche davon Kinder bevorzugen. Das Material einer systematischen Fernsehprogrammanalyse, die von den Nutzungspräferenzen der Kinder ausgeht, kann dabei helfen. Dabei konzentriere ich mich auf die zwei Aspekte "Animation" und "real", da der Diskurs Realfilm als qualitativ hochwertig ansieht und Animation in dieser Hinsicht das genaue Gegenteil darstellt. Dabei ist ein zentrales Ergebnis der Analyse, dass sich die Nutzungspräferenzen der Jungen und Mädchen in bezug auf realitätsnahes Programm sehr unterscheiden: Jungen sehen eher Zeichentrickprogramm und Mädchen sehen eher Realformate wie z.B. Soap-Operas. Das legt nahe, die Diskussion um Realitätsnähe im Kinderfernsehen aus geschlechterspezifischer Sicht zu betrachten und die Fragestellung der Arbeit dahingehend neu zu formulieren. Der zweite Teil der Arbeit sortiert zunächst die Begriffe "Realitätsnähe", "Realfilm" und "Zeichentrick", die im ersten Teil eingeführt wurden und trennt sie von einander. Die "Jährliche Bestandsaufnahme zum Kinderfernsehen - qualitative und quantitative Fernsehprogrammanalyse in der Sicht der Kinder" dient dazu, im Kinderfernsehen die Spuren des Diskurses wieder zu finden. Die systematische Suche nach solchen Programmen macht es nötig, mit Hilfe operationalisierter Begriffe, Fernsehprogramm zu kodieren. Dabei bieten sich bereits vorhandene Kodes zur Realitätsnähe an. Für die Auswertung sind zudem auch Zugänge über weitere Kodes wie z.B. Information/ Unterhaltung oder Fiction/ Non-Fiction möglich. Die Ansätze in Teil 1 und 2 waren bis dahin umgangssprachliche Formulierungen, deshalb folgt im dritten Teil der Arbeit ein Exkurs in die Theorie, um den Begriff der Realitätsnähe im Fernsehen theoretisch zu begründen und um Realfilm und Animation theoretisch zu beschreiben. Zwei Themenfelder sind hierbei wesentlich: Das erste Themenfeld behandelt die Wirklichkeitskonstruktion im Fernsehen mit den Autoren Alfred Schütz, Thomas Luckmann und Jürgen Fritz. Das Wesentliche in diesem Abschnitt ist der Versuch Realfilm und Zeichentrick als geschlossene Sinngebiete wie "reale Welt" und "Spielwelt" zu verstehen, da geschlossenen Sinngebieten spezifische, eigene Erlebnis- und Erkenntnisstile zugrunde liegen. Fazit dieser Überlegung ist, dass Realfilm und Zeichentrick einander nicht über- oder untergeordnet sind, sondern formal nebeneinander mit unterschiedlichen Erkenntnis- und Erlebnisstilen in Erscheinung treten, bzw. in ihnen unterschiedliche Erlebnis- und Erkenntnisstile angelegt sind. Das zweite Themenfeld widmet sich der von David Buckingham so genannten "Perceived Reality", die nach der Wahrnehmung der Kinder von Wirklichkeit im Fernsehen fragt. Dabei geht es um die Frage, wie Kinder die Realität des Fernsehens beurteilen. Ein Fazit ist hierbei, dass Kinder an Fernsehsendungen keine allgemeingültige Messlatte anlegen, um die Realitätsnähe zu bestimmen, sondern Kinder handeln die Realitätsnähe von Sendungen und deren Bewertung in sozialen Kontexten mit Peers und Erwachsenen je nach Situation aus. Der vierte Teil der Arbeit wertet die Kodierung aus dem zweiten Teil aus und präsentiert Ergebnisse. In diesem Teil werden verschiedene Auswertungsverfahren ausprobiert, um Muster in der Rezeption und im Ein- und Ausschaltverhalten der Kinder in bezug auf Realitätsnähe zu finden. Nachdem Überblick über das Angebot an realitätsnahem Kinderfernsehprogramm, folgt die Auswertung der Nutzung des Kinderprogramms. Hierbei steht die Frage im Vordergrund, in welchem Ausmaß Kinder realitätsnahe Programme nutzen und welche geschlechterspezifischen Unterschiede es in der Nutzung Formate "Animation" und "real" gibt. Im Groben werden in diesem Kapitel zahlreiche Listen präsentiert, Sendungen beschrieben und vor allem unterschiedliche Altersgruppen sowie Geschlechter berücksichtigt. Eines der auffälligsten Merkmale wird sein, dass Jungen in Bezug auf die eingangs eröffneten Begriffe andere Präferenzen und Fernsehnutzungsmuster zeigen als Mädchen. Im Gegensatz zu Mädchen sehen die Jungen eher weniger Realprogramm und eher mehr Animationsprogramm. Kinder im Fernsehen stehen stellvertretend für Muster und Typen von Kindern der realen Welt. Das legitimiert anhand der Typologie der Kinder nach Freizeitmustern , nach diesen Kindertypen im Fernsehen und bei den Zuschauern zu suchen. Ein Ergebnis bestätigte die Beobchtung, dass Mädchen neben Realprogramm auch Zeichentrick sehen, und Jungen nur Zeichentrick. Anhand der bis dort gewonnenen Ergebnisse und zweier Beispiele aus dem Schulalltag folgt abschließend in Teil 5 ein pädagogisches Fazit. Der Umgang von Jungen mit Medien wird häufig problematisiert und so wie es sich in den Ergebnissen dieser und anderer Arbeiten wie der PISA2000-Studie oder in der Typologie der Freizeitmuster darstellt, könnte man durchaus den Eindruck gewinnen, dass Jungen eine schwierige Beziehung zu Medien haben. Deshalb muss man sich vermutlich zunächst eingestehen, dass Jungen eher Zeichentrick und Mädchen eher Soaps gucken, um danach Jungen emphatisch in Bezug auf ihre Mediennutzungsmuster zu begegnen und ihre Vorlieben nicht zu trivialisieren oder zu verurteilen. Das hat pädagogische Bedeutung für die Schule, wie die beiden Beispiele zeigen.
Resumo:
In der vorliegenden Arbeit wird die Konzeption und Realisierung der Persistenz-, Verteilungs- und Versionierungsbibliothek CoObRA 2 vorgestellt. Es werden zunächst die Anforderungen an ein solches Rahmenwerk aufgenommen und vorhandene Technologien für dieses Anwendungsgebiet vorgestellt. Das in der neuen Bibliothek eingesetzte Verfahren setzt Änderungsprotokolle beziehungsweise -listen ein, um Persistenzdaten für Dokumente und Versionen zu definieren. Dieses Konzept wird dabei durch eine Abbildung auf Kontrukte aus der Graphentheorie gestützt, um die Semantik von Modell, Änderungen und deren Anwendung zu definieren. Bei der Umsetzung werden insbesondere das Design der Bibliothek und die Entscheidungen, die zu der gewählten Softwarearchitektur führten, eingehend erläutert. Dies ist zentraler Aspekt der Arbeit, da die Flexibilität des Rahmenwerks eine wichtige Anforderung darstellt. Abschließend werden die Einsatzmöglichkeiten an konkreten Beispielanwendungen erläutert und bereits gemachte Erfahrungen beim Einsatz in CASE-Tools, Forschungsanwendungen und Echtzeit-Simulationsumgebungen präsentiert.
Resumo:
In dem Modellprojekt WAWiP wurde ein Verfahren entwickelt und erprobt, das die Anrechnung von vorgängig erworbenen Kompetenzen und Qualifikationen im Bereich der Gesundheits- und Pflegewissenschaften auf Studiengänge ermöglichen soll. Mit der gleichzeitigen Erfassung, Bewertung und Anrechnung sowohl formal als auch nicht formal und informell erworbener Kompetenzen sollen flexible Übergänge geschaffen und Redundanzen an der Schnittstelle des beruflichen und hochschulischen Bildungssystems minimiert werden. Zugleich soll die Qualität des Studienabschlusses sichergestellt werden. Als Bezugsrahmen wird der Europäische Qualifikationsrahmen (EQR) genutzt, der in seiner Beschreibung und Hierarchisierung von Kompetenzniveaus die Möglichkeit eröffnet, Bildungsangebote ungeachtet der anbietenden Institution prospektiv zu klassifizieren und zu akkreditieren, als auch dazu dienen kann, erworbene Kompetenzen Studienmodulen zuzuordnen und somit transparent und "anrechnungsfähig" zu machen.
Resumo:
Die Verbindung von Wohnarchitektur und Lebensstil der Bewohner wurde in der Architektur bisher kaum analysiert und systematisiert. Selbst in den klassischen Lehrbüchern der Gebäudelehre fehlt in der Regel eine definierte Auffassung des Lebensstils der Bewohner als Einflussparameter für Architektur. Es sind vorwiegend implizite, verkürzte oder nur sehr persönliche Vorstellungen vom Lebensstil zukünftiger Nutzer, die in die Architektur eingehen. Mit der vorliegenden Arbeit wird die Beziehung zwischen Lebensstil, Atmosphäre und architektonischem Programm im Kontext von Wohnarchitektur theoretisch, konzeptionell und an Hand eigener empirischer Analysen expliziert. Lebensstil wird dabei als Resultat eines Kräftefelds zwischen Individuum und Gesellschaft begriffen, also dem Zusammenwirken von individuellen und gesellschaftlichen Bedingungen, die sich in konkreten räumlichen Gegebenheiten vollziehen. Die theoretischen und empirischen Analysen erbrachten, dass eine Verknüpfung von Lebensstil und Architektur auf einer Ebene stattfinden sollte, die ihre inhaltliche Verschneidung erlaubt. Das heißt, dass weder „fertige“ Lebensstiltypen, wie in der soziologischen Lebensstilforschung üblich, noch Wohn(haus)typologien herangezogen werden sollten. Vielmehr sollten die Lebensstilparameter in ihre strukturellen Einzelteile zerlegt und dechiffriert werden, da fertige Typenbeschreibungen oft nur assoziative Verbindungen erzeugen und schwer in räumliche Dimensionen transferierbar sind. Die Entwicklung und Erforschung der Lebensstilparameter stellt im vorliegenden Ansatz die Voraussetzung zur Generierung von Wohnarchitektur unter dem Fokus des Lebensstils dar. Hierzu wurden sog. Integrative Lebensstil-Architektur-Parameter erarbeitet. Diese Parameter sind als Einzeldimensionen konzipiert und ermöglichen so eine freie Kombination und Schwerpunktsetzung durch den Architekten. Dadurch lässt sich Architektur im Sinne des Lebensstils beschreiben und analysieren. Neben der Analyse von Architektur an Hand der Parameter kann ihnen aber auch eine generative Gestaltungskraft in der Architektur zugesprochen werden, woraus eine zielgerichtetere Harmonisierung von Lebensstil und Architektur zu erwarten ist.
Resumo:
Die vorliegende Dissertation betrachtet institutionsinterne lokale (Critical-)Incident-Reporting-Systeme ((C)IRS) als eine Möglichkeit zum Lernen aus Fehlern und unerwünschten kritischen Ereignissen (sogenannte Incidents) im Krankenhaus. Die Notwendigkeit aus Incidents zu lernen, wird im Gesundheitswesen bereits seit den 1990er Jahren verstärkt diskutiert. Insbesondere risikoreichen Organisationen, in denen Incidents fatale Konsequenzen haben können, sollten umfassende Strategien erarbeiten, die sie vor Fehlern und unerwünschten Ereignissen schützen und diese als Lernpotenzial nutzen können. Dabei können lokale IRS als ein zentraler Bestandteil des Risikomanagements und freiwillige Dokumentationssysteme im Krankenhaus ein Teil dieser Strategie sein. Sie können eine Ausgangslage für die systematische Erfassung und Auswertung von individuellen Lerngelegenheiten und den Transfer zurück in die Organisation schaffen. Hierfür sind eine lernförderliche Gestaltung, Implementierung und Einbettung lokaler IRS eine wichtige Voraussetzung. Untersuchungen über geeignete lerntheoretisch fundierte und wirkungsvolle IRS-Modelle und empirische Daten fehlen bisher im deutschsprachigen Raum. Einen entsprechenden Beitrag leistet die vorliegende Fallstudie in einem Schweizer Universitätsspital (800 Betten, 6.100 Mitarbeitende). Zu diesem Zweck wurde zuerst ein Anforderungsprofil an lernförderliche IRS aus der Literatur abgeleitet. Dieses berücksichtigt zum einen literaturbasierte Kriterien für die Gestaltung und Nutzung aus der IRS-Literatur, zum anderen die aus der Erziehungswissenschaft und Arbeitspsychologie entlehnten Gestaltungsbedingungen und Erfolgskriterien an organisationales Lernen. Das Anforderungsprofil wurde in drei empirischen Teilstudien validiert und entsprechend adaptiert. In der ersten empirischen Teilstudie erfolgte eine Standortbestimmung der lokalen IRS. Die Erhebung erfolgte in vier Kliniken mittels Dokumentenanalyse, leitfadengestützter Interviews (N=18), sieben strukturierter Gruppendiskussionen und teilnehmender Beobachtungen über einen Zeitraum von 22 Monaten. Erfolgskritische IRS-Merkmale wurden identifiziert mit dem Ziel einer praxisgerechten lernförderlichen Systemgestaltung und Umsetzung von Incident Reporting unter Betrachtung von organisationalen Rahmenbedingungen, Lernpotenzialen und Barrieren. Die zweite Teilstudie untersuchte zwei Fallbeispiele organisationalen Lernens mittels Prozessbegleitung, welche zu einem verwechslungssicheren Design bei einem Medizinalprodukt und einer verbesserten Patientenidentifikation in Zusammenhang mit Blutentnahmen führten. Für das organisationale Lernen im Spital wurden dabei Chancen, Barrieren und Gestaltungsansätze abgeleitet, wie erwünschte Veränderungen und Lernen unter Nutzung von IRS initiiert werden können und dabei ein besseres Gesundheitsresultat erreicht werden kann. Die dritte Teilstudie überprüfte, inwiefern die Nutzung und Implementierung lokaler IRS mittels einer Mitarbeitervollbefragung zur Sicherheitskultur gefördert werden kann. Hierfür wurde eine positive Interaktion, zwischen einer starken Sicherheitskultur und der Bereitschaft ein IRS zu implementieren und Incidents zu berichten, angenommen. Zum Einsatz kam eine deutschsprachige Version des Hospital Survey on Patient Safety Culture (Patientensicherheitsklimainventar) mit einem Rücklauf von 46.8% (2.897 gültige Fragebogen). In 23 von 37 Kliniken führte laut einer Nachbefragung die Sicherheitskulturbefragung zum Implementierungsentscheid. Dies konnte durch Monitoring der IRS-Nutzung bestätigt werden. Erstmals liegen mit diesen Studien empirische Daten für eine wirkungsvolle und lernförderliche Gestaltung und Umsetzung von lokalen IRS am Beispiel einer Schweizer Gesundheitsorganisation vor. Die Ergebnisse der Arbeit zeigen Chancen und Barrieren für IRS als Berichts- und Lernsysteme im Krankenhaus auf. Als Resultat unsachgemäss gestalteter und implementierter IRS konnte dabei vor allem Lernverhinderung infolge IRS aufgezeigt werden. Blinder Aktionismus und eine fehlende Priorisierung von Patientensicherheit, unzureichende Kompetenzen, Qualifikationen und Ressourcen führten dabei zur Schaffung neuer Fehlerquellen mit einer Verstärkung des Lernens erster Ordnung. Eine lernförderliche Gestaltung und Unterhaltung der lokalen IRS, eingebettet in eine klinikumsweite Qualitäts- und Patientensicherheitsstrategie, erwiesen sich hingegen als wirkungsvoll im Sinne eines organisationalen Lernens und eines kontinuierlichen Verbesserungsprozesses. Patientensicherheitskulturbefragungen erwiesen sich zudem bei entsprechender Einbettung als effektives Instrument, um die Implementierung von IRS zu fördern. Zwölf Thesen zeigen in verdichteter Form auf, welche Gestaltungsprinzipien für IRS als Instrument des organisationalen Lernens im Rahmen des klinischen Risikomanagements und zur Förderung einer starken Patientensicherheitskultur zu berücksichtigen sind. Die Erkenntnisse aus den empirischen Studien münden in ein dialogorientiertes Rahmenmodell organisationalen Lernens unter Nutzung lokaler IRS. Die Arbeit zeigt damit zum einen Möglichkeiten für ein Lernen auf den verschiedenen Ebenen der Organisation auf und weist auf die Notwendigkeit einer (Re-)Strukturierung der aktuellen IRS-Diskussion hin.
Rissbildung und Zugtragverhalten von mit Stabstahl und Fasern bewehrtem Ultrahochfesten Beton (UHPC)
Resumo:
Ultrahochfester Beton (UHPC) ist ein sehr gefügedichter zementgebundener Werkstoff, der sich nicht nur durch eine hohe Druckfestigkeit, sondern auch durch einen hohen Widerstand gegen jede Form physikalischen oder chemischen Angriffs auszeichnet. Duktiles Nachbruchverhalten bei Druckversagen wird meist durch die Zugabe dünner kurzer Fasern erreicht. In Kombination mit konventioneller Betonstahl- oder Spannbewehrung ermöglicht UHPC die Ausführung sehr schlanker, weitgespannter Konstruktionen und eröffnet zugleich neue Anwendungsgebiete, wie zum Beispiel die flächenhafte Beschichtung von Brückendecks. Durch das Zusammenwirken kontinuierlicher Bewehrungselemente und diskontinuierlich verteilter kurzer Fasern ergeben sich unter Zugbeanspruchung Unterschiede gegenüber dem bekannten Stahl- und Spannbeton. In der vorliegenden Arbeit wird hierzu ein Modell entwickelt und durch eine umfangreiche Versuchsreihe abgesichert. Ausgangspunkt sind experimentelle und theoretische Untersuchungen zum Verbundverhalten von Stabstählen in einer UHPC-Matrix und zum Einfluss einer Faserzugabe auf das Reiß- und Zugtragverhalten von UHPC. Die Modellbildung für UHPC-Zugelemente mit gemischter Bewehrung aus Stabstahl und Fasern erfolgt auf der Grundlage der Vorgänge am diskreten Riss, die daher sehr ausführlich behandelt werden. Für den elastischen Verformungsbereich der Stabbewehrung (Gebrauchslastbereich) kann damit das Last-Verformungs-Verhalten für kombiniert bewehrte Bauteile mechanisch konsistent unter Berücksichtigung des bei UHPC bedeutsamen hohen Schwindmaßes abgebildet werden. Für die praktische Anwendung wird durch Vereinfachungen ein Näherungsverfahren abgeleitet. Sowohl die theoretischen als auch die experimentellen Untersuchungen bestätigen, dass der faserbewehrte UHPC bei Kombination mit kontinuierlichen Bewehrungselementen selbst kein verfestigendes Verhalten aufweisen muss, um insgesamt verfestigendes Verhalten und damit eine verteilte Rissbildung mit sehr keinen Rissbreiten und Rissabständen zu erzielen. Diese Beobachtungen können mit Hilfe der bisher zur Verfügung stehenden Modelle, die im Wesentlichen eine Superposition isoliert ermittelter Spannungs-Dehnungs-Beziehungen des Faserbetons und des reinen Stahls vorsehen, nicht nachvollzogen werden. Wie die eigenen Untersuchungen zeigen, kann durch ausreichend dimensionierte Stabstahlbewehrung zielgerichtet und ohne unwirtschaftlich hohe Fasergehalte ein gutmütiges Verhalten von UHPC auf Zug erreicht werden. Die sichere Begrenzung der Rissbreiten auf deutlich unter 0,1 mm gewährleistet zugleich die Dauerhaftigkeit auch bei ungünstigen Umgebungsbedingungen. Durch die Minimierung des Material- und Energieeinsatzes und die zu erwartende lange Nutzungsdauer lassen sich so im Sinne der Nachhaltigkeit optimierte Bauteile realisieren.
Resumo:
Die Arbeit beschäftigt sich mit didaktischen Aspekten einer neuen Aufgabenkultur und mit ihrem Kern, den Modellierungsaufgaben. Im ersten Teil der Dissertation wird ein Überblick über ausgewählte Theorien und empirische Ergebnisse aus den Bereichen Lehr-Lernforschung, Problemlöseforschung, kognitive Psychologie sowie Allgemeindidaktik und den Fachdidaktiken gegeben. Es zeigt sich, dass Schüler-Schwierigkeiten und Schüler-Strategien eine bedeutende Rolle für den Lernprozess spielen, jedoch bei den Modellierungsaufgaben nicht ausreichend erforscht sind. Ziel der vorliegenden Arbeit ist es, Schüler-Schwierigkeiten und -Strategien bei der Bearbeitung von Modellierungsaufgaben empirisch zu erfassen, mit kognitiven Lern- und Problemlösetheorien zu verbinden und erste Bausteine einer Didaktik der Aufgabenkultur zu entwerfen. Drei zentrale Fragestellungen sind dabei: 1. Welche Schwierigkeiten haben Schüler beim Bearbeiten von Modellierungsaufgaben? 2. Welche Strategien wenden sie bei der Aufgabenbearbeitung an? 3. Welche didaktischen Konsequenzen können aufgrund der Antworten auf die erste und zweite Frage für die Didaktik der neuen Aufgabenkultur gezogen werden? Die Analyse der Bearbeitung von drei Modellierungsaufgaben durch vier Neuntklässler unterschiedlicher Kompetenzstufen (12 Fälle) mit Hilfe der Grounded Theory erfolgte hypothesenorientiert und erbrachte folgende Ergebnisse: Die Schüler-Schwierigkeiten bei der Bearbeitung der Modellierungsaufgaben lassen sich in drei Tätigkeitsbereiche aufschlüsseln: (1) die Aufgabe lesen und verstehen, (2) den Zusammenhang zwischen Gegebenheiten der Situation und mathematischer Lösungsstruktur verstehen sowie (3) Umformung mathematischer Strukturen, Ausführung der Rechenoperationen und Interpretieren der Ergebnisse. In den genannten Tätigkeitsbereichen wurden jeweils erfolgversprechende Strategien wie z.B. die Organisationsstrategie „Zeichnen und Beschriften einer Skizze“, die kooperative Strategie „Wechsel zwischen individueller Konstruktion und kooperativer Ko-Konstruktion“ oder die metakognitive Strategie „Planung“ identifiziert und ihre Ausführung dokumentiert. Aus den empirischen Analysen lässt sich eine Reihe von wichtigen Stichpunkten nennen, die einen bedeutsamen Bestandteil der Didaktik einer neuen Aufgabenkultur bilden. Wichtige Stichworte dazu sind die Einbettung der Aufgaben in Lernumgebungen, der Einbezug kooperativer Strategien, ein neues Verständnis von Lehrerinterventionen, das Diagnose und lernbegleitende Unterstützung stärker akzentuiert, Selbstregulierung und Individualisierung, Problem- und Lernprozessorientierung im Unterricht. Wird der letzte Punkt genau analysiert, zeigt sich, dass es zur erfolgreichen Lernprozessgestaltung notwendig ist, längerfristig die Zielperspektive, unter der die Schüler Aufgaben bearbeiten, zu verändern. Beim Bearbeiten der Aufgaben sollen Schülerhandlungen, statt sich nur auf die Lösung einer Aufgabe zu beschränken, auf den individuellen Erwerb von Wissen, Kompetenzen und Strategien ausgerichtet werden (Prozess-Ergebnis-Orientierung). Erreicht werden soll die Prozess-Ergebnis-Orientierung durch eine bessere strategische Durcharbeitung des Unterrichts, der gleichermaßen das Ausschöpfen des Potentials für die Selbststeuerung des Lernens bei den Schülern sowie die dafür notwendige Weiterentwicklung des diagnostischen und unterstützenden Handelns von Lehrerinnen und Lehrern betont.
Resumo:
Ziel dieser Arbeit war es, die Bedeutung des C und N mit Herkunft aus der Rhizodeposition für das mikrobielle Wachstum und den C- und N-Umsatz in der Rhizosphäre in Abhängigkeit von der Entfernung zur Wurzel zu untersuchen. Dazu wurde als wesentliche methodische Voraussetzung ein künstliches Rhizosphärensystem entwickelt, um die durch die Rhizodeposite induzierten Prozesse an der Grenzfläche zwischen Wurzeloberfläche und Boden zu untersuchen. Dieses eingesetzte Rhizosphärensystem wurde nach einem Vorbild eines in schon vielfältigen Untersuchungen der Rhizosphäre eingesetzten Systems von GAHOONIA und NIELSEN (1991) konzipiert. Zur Verfolgung der pflanzlichen C- und N-Rhizodeposition im Boden wurden 13C- und 15N-Tracer-Isotopen-Techniken zur Isotopenmarkierung der Testpflanzen eingesetzt. Zur Probenahme des Rhizosphärenbodens in räumlichen Abstand zur künstlichen Rhizoplane wurde eine Schneidvorrichtung nach FITZ et al. (2003) eingesetzt, die es ermöglicht frische Bodenproben in definiertem Abstand zur künstlichen Rhizoplane zu schneiden. Das Rhizosphärensystem wurde in 13C- und 15N-Doppelmarkierungsexperimenten mit Lolium perenne, Triticum aestivum und Avena sativa eingesetzt.Das unterschiedliche Ansprechen der mikrobiellen Gemeinschaft auf den Substrateintrag in unterschiedlicher Entfernung zur Wurzel zeigte komplexe Wechselwirkungen in Bezug auf das mikrobielle Wachstum, den mikrobiellen Umsatz, den Substrateintrag aus der Rhizodeposition und den stimulierten Abbau der nativen organischen Bodensubstanz. Der Eintrag von Rhizodepositen stellt daher eine bedeutende Funktion in der Regulation der mikrobiellen Biomasse und der Prozesse des Umsatzes der organischen Bodensubstanz während und wahrscheinlich bis nach der Vegetationsperiode dar. Die simultane Verfolgung von Rhizodepositions-C und -N im Boden und deren Funktionen innerhalb der Rhizosphäre, gerade im Hinblick auf die mikrobielle Biomasse und den Umsatz der organischen Substanz im Boden, führt zu einem besseren Verständnis der komplexen wechselseitigen Prozesse zwischen Pflanze und Boden.
Resumo:
Niedrige Milchpreise setzen die deutschen Milchbauern unter Kostendruck und veranlassen sie, die Laktationsleistung der Kühe zu erhöhen. Im Zusammenhang mit weiteren Milchleistungssteigerungen kommt einer wiederkäuergerechten Fütterung im Hinblick auf die Vermeidung gesundheitlicher Risiken eine besondere Bedeutung zu. Ziel des Forschungsvorhabens war es, eine Messmethode zur Bestimmung von Fress- und Wiederkäuaktivitäten zu entwickeln, welche die bisherigen methodischen Unzulänglichkeiten überwindet und ermöglicht den qualitativen und quantitativen Einfluss tierindividueller, fütterungsbedingter und leistungsbezogener Faktoren zu erfassen. Hierzu wurde der Prototyp eines Messsystem entwickelt, das in einem Messhalfter integriert wurde. Das Messsystem beinhaltet einen Sensor zur Erfassung der Kaubewegungen, einen Datenlogger für die Speicherung der Messdaten, ein Akkupack zur Energieversorgung, und eine Auswertungssoftware für die automatische Analyse der erfassten Messdaten. Zwecks Überprüfung des Prototypen unter Praxisbedingungen wurden im Rahmen eines Fütterungsversuches Messungen der Fress- und Wiederkäuaktivität durchgeführt. Die Anwendung des Prototypen auf dem Versuchsbetrieb deckte die folgenden methodischen Unzulänglichkeiten auf: - elektromagnetische Störfelder, hervorgerufen durch die auf den Versuchsbetrieb verwendeten Wiegetröge zur Erfassung der Futteraufnahme, - Fehlmessungen aufgrund verrutschender Halfter, bedingt durch die große Variation in den Schädelmaßen der Versuchstiere, - keine hinreichende Differenzierung der einzelnen Verhaltenstypen bei schnell aufeinanderfolgenden unterschiedlichen Verhaltensmustern. Die aufgetretenen elektrischen Probleme konnten mittels einer verbesserten Abschirmung gegen elektromagnetische Felder behoben werden. Fehlmessungen aufgrund sich verschiebender Halfter konnten durch eine Änderung des Halfterdesigns verringert werden. Es war jedoch nicht möglich, diese Störgröße gänzlich zu beseitigen. Ebenso war es nicht möglich, die Differenzierung der einzelnen Verhaltenstypen bei schnell aufeinanderfolgenden unterschiedlichen Verhaltensmustern mittels einer Änderung im Auswertealgorithmus zu verbessern. Um diesen beiden Problemen Rechnung zu tragen, wurden die Ergebnisse der Auswertungssoftware mittels einer Sichtkontrolle der Messwertkurven validiert. Nach der Validierung verblieben für die statistische Auswertung folgende Messergebnisse: - Anzahl auswertbarer Einzeltiere: 9 - Anzahl auswertbarer Messtage: 73 - Anzahl auswertbarer Wiederkäuphasen: 512 - Anzahl auswertbarer Fressphasen: 676 - Anzahl auswertbarer Einzelboli: 11.347 In der statistischen Auswertung wurden Korrelation der Charakteristika der Wiederkäuboli: Länge des Bolus in Sekunden, Anzahl der Kauschläge pro Bolus und der Frequenz der Kauschläge pro Sekunde und Bolus, der Wiederkäuphasen: Länge der Wiederkäuphasen in Minuten, Anzahl Boli in der Wiederkäuphase und die Anzahl der Kauschläge in der Wiederkäuphase und der Wiederkäudauer pro Tag (in Minuten) mit den erfassten Einflussfaktoren: tierindividuelle Parameter, Milchparameter und Fütterungsparameter berechnet. Um wechselseitige Beziehungen der Einflussfaktoren untereinander besser darstellen zu können, wurde im nächsten Schritt eine multiple lineare Regression durchgeführt. Zur Erfassung der Gewichtung der Einflussfaktoren wurde als dritte statistische Methode eine Regressionsbaumanalyse berechnet. Die Charakteristika der Wiederkäuboli wiesen eine große tierindividuelle Variation zwischen den Einzeltieren auf. Die Milchkühe käuten im Mittel 46 ± 12 Sekunden wieder und vollzogen in dieser Zeit 60 ± 25 Kauschläge bei einer mittleren Kauschlagfrequenz von 1,3 ± 0,4 Kauschlägen pro Sekunde. Die größte tierindividuelle Variation mit 53,1 % wies der Parameter Anzahl der Kauschläge pro Bolus auf. Die Frequenz der Kauschläge pro Bolus wurde in hohem Maße von der Anzahl der Kauschläge pro Bolus beeinflusst (R² = 0,71) und nur in geringem Maße von der Länge des Bolus (R² = 0,21). Das geringe Bestimmtheitsmaß der multiplen Regression der Länge des Bolus (R² = 0,18) deutet auf eine sehr geringe Beeinflussung durch alle erfassten Einflussfaktoren hin. Ebenso wie die Charakteristika der Wiederkäuboli wiesen die Charakteristika der Wiederkäuphasen eine hohe inter- und intraindividuelle Variation (>45%) und bei allen Versuchstieren eine hohe Korrelation der Charakteristika untereinander auf (r = 0,74 bis r =0,98). In der Regressionsanalyse konnte keiner der geprüften Einflussfaktoren einen nennenswerten Erklärungswert liefern. Die Variationen in der Länge der Wiederkäuphasen, Anzahl der Boli pro Phase und der Anzahl der Kauschläge pro Phase wurden weder von der Fütterung, noch vom Tier oder der Milchleistung in nennenswerter Weise geprägt. Eine Beurteilung dieser Einflussfaktoren anhand der Beobachtung einzelner Wiederkäuphasen ist somit nicht möglich. Die Fress- und Wiederkäudauer pro Tag wiesen eine große tierindividuelle Variation auf (37,9 % bzw. 29,0 %). Bei beiden Verhaltensweisen ist die intraindividuelle Variation geringer als die interindividuelle Variation (Fressdauer: 37,9 zu 23,6 %; Wiederkäudauer: 29,0 zu 9%). Der geringe Wert des intraindividuellen Variationskoeffizienten der Wiederkäudauer pro Tag legt eine starke tierindividuelle Determinierung der Wiederkäuaktivität nahe.
Resumo:
Zusammenfassung zur Inaugural-Dissertation: Von „weiblichen Vollmenschen“ und Klassenkämpferinnen – Frauengeschichte und Frauenleitbilder in der proletarischen Frauenzeitschrift „Die Gleichheit“ (1891-1923). Die wissenschaftliche Bedeutung, die der SPD-Frauenzeitschrift „Die Gleichheit“ (1891-1923) als Quelle der Geschichte der Frauenbewegung zukommt, spiegelt sich weder in Darstellungen zur Geschichte der SPD noch in der Geschichtsschreibung der deutschen Frauenbewegung wider. Auch ist die „Gleichheit“, Presseorgan der organisierten proletarischen Frauenbewegung Deutschlands und der Sozialistischen Fraueninternationale, bisher kaum Gegenstand einer umfassenden publizistischen Analyse gewesen. Es galt daher, zumindest das Hauptblatt der „Gleichheit“, die an ihr beteiligten Personen, ihre Strukturen und ihr Selbstverständnis möglichst detailliert und anhand publizistischer Kriterien darzustellen. Wandlungen ihres Erscheinungsbildes, ihrer editorischen und personellen Strukturen oder ihres Seitenumfangs markieren entscheidende Wendepunkte der deutschen Politik während des deutschen Kaiserreichs und der Weimarer Republik. Ihr Niveau lag deutlich über dem einer allgemeinen Frauenzeitschrift, eines Mitteilungs- oder Unterhaltungsblattes. Ihr Ziel war es, sowohl politisches Schulungsblatt für die engagierten Genossinnen als auch Agitationsmittel für die indifferenten Proletarierinnen zu sein. Inwieweit sie mit dieser Zielsetzung erfolgreich war, kann jedoch selbst die große Zahl ihrer Abonnements (der Höchststand lag 1914 bei 124.000 Exemplaren) nicht validieren. Tatsächlich ließ gerade der von ihrer langjährigen Redakteurin Clara Zetkin (1857-1933) angestrebte hohe intellektuelle Anspruch die „Gleichheit“ jedoch nicht zu einem Medium der Massen werden. Im Mai 1917 entschied sich der SPD-Parteivorstand, der dem Burgfrieden abträglichen, konsequent sozialistischen und internationalistischen Haltung Zetkins keine öffentliche Plattform mehr zu geben und entließ sie aus der Redaktion. Die Leitung der „Gleichheit“, die auch bis zu diesem Zeitpunkt durchaus keine „One-Woman-Show“ war, oblag schließlich bis zu ihrem letztmaligen Erscheinen im September 1923 noch einigen weiteren Redakteurinnen und Redakteuren (Marie Juchacz (1879-1956), Heinrich Schulz (1872-1932), Clara Bohm-Schuch (1879-1936), Elli Radtke-Warmuth (?-?) und Mathilde Wurm (1874-1935)). Deren Tätigkeit für die „Gleichheit“ wurde jedoch bisher kaum wissenschaftlich reflektiert. Dies gilt auch für die ausgesprochen internationale Zusammensetzung oder die männlichen Mitglieder des MitarbeiterInnenstabes. Indem sie sich selbst in der Tradition und als Teil eines Netzwerkes deutscher Frauenöffentlichkeit („Die Frauen-Zeitung“ (1849-1852), „Die Staatsbürgerin“ (1886) und „Die Arbeiterin“ (1890-1891)) sah und indem sie besonders mittels frauengeschichtlicher und frauenbiographischer Inhalte das Selbstbewusstsein ihrer Leserinnen zu fördern versuchte, betrieb die „Gleichheit“ gezielt Frauengeschichtsschreibung. Zahlreiche Artikel porträtieren Frauen aus Geschichte und Gegenwart und stellen in ihrem elaborierten Stil „Typen“ bzw. „Vorbilder“ dar. Um die Frage beantworten zu können, welche Frauen der Geschichte und welche ihrer Charaktereigenschaften von der „Gleichheit“ als vorbildlich für Sozialdemokratinnen erachtet wurden, wurden die biographischen Artikel zu 173 Frauen nach Analyse ihrer Inhalte und ihres Duktus vier Frauenleitbildern zugeordnet. Die Kategorisierung der einzelnen Frauenleitbilder „weiblicher Vollmensch“, „sozialistische Mutter“, „sozialistische Ehefrau“ und „Klassenkämpferin“ lehnt sich wiederum an den von Zetkin bereits 1898 veröffentlichten Artikel „Nicht Haussklavin, nicht Mannweib, weiblicher Vollmensch” (Die Gleichheit, Jg. 08/ Nr. 02/ 19.11.1898/ S. 1.) an. Sämtliche frauenbiographischen Artikel appellieren an die „Gleichheit“-Leserinnen, die oft selbst gesetzten Grenzen ihrer Handlungs – und Entwicklungsmöglichkeiten zu sprengen. Die sich daraus ableitenden Identifikationsangebote waren somit nicht auf dem Reissbrett entworfen, sondern basierten auf geschichtlicher Erfahrung und antizipierendem Bewusstsein. Diese Leitbilder versuchten, Realität und Utopie miteinander zu verbinden und konnten daher kaum frei von Widersprüchen sein. Wie die „Gleichheit“ selbst, so blieben auch ihre Ansätze politischer Frauenbildung teilweise zwischen revolutionärem Umsturz und traditioneller Kontinuität gefangen. Indem sich die „Gleichheit“ historischer Vorbilder bediente, machte sie jedoch konkrete Ansprüche geltend: Sie forderte den weiblichen Anteil an Geschichte, an politischer Macht und am öffentlichen Bewusstsein.
Resumo:
In genannter Schrift soll versucht werden, einen aus der Kantschen und Fichteschen Erkenntnistheorie erfolgenden allgemeinen Zusammenhang herzustellen zwischen dem kategorialen Denken hinsichtlich Denken und Anschauen und dem Problem von Raum und Zeit, wie es sich mit der Entwicklung der modernen Physik durch die Relativitäts- und Quantentheorie deutlich aufdrängt. Es wird gezeigt, dass F.W.J. Schelling grundlegende Lösungsansätze hierzu bereitstellt, welche auf dem Gebiet der Logik, der Epistomologie und Naturphilosophie in der Nachfolge von Kant, Fichte und Spinoza stattfinden, jedoch weit über seine Zeit hinausreichen. Diese Ansätze werden von Schelling selbst unter den Begriff einer „Identität der Identität und Differenz“ gesetzt. In der genannten Dissertation sollen Denkbewegungen dargestellt werden, die eine Anbindung der Schellingschen Naturphilosophie an die sich mit den genannten unterschiedlichen Theorien bzw. deren problematischer Vereinheitlichung beschäftigende Physik zu erreichen versuchen. Der formelle Aufbau der Arbeit gehorcht der inhaltlichen Struktur dieser Anbindungsbemühung, insofern unterstellt wird, dass diese rein nur aus einem dialektischen Denken (sowohl in der Erkenntnistheorie, als auch Naturphilosophie) heraus überhaupt erreicht werden kann. So werden sowohl die Tätigkeiten des Verstandes als die des Anschauens in ihrem Zusammenspiel, wie aber auch die Verstandes- und Anschauungstätigkeiten an sich selbst betrachtet, dialektisch vermittelt dargestellt, was innerhalb der formellen Deduktion der Kantschen Kategorien und der korrespondierenden Anschauungsformen selbst durchgeführt wird. Schellings Intention seines späteren Denkens, die philosophischen Probleme auf die Geschichtlichkeit, die Freiheit und den Erfahrungsbezug des Menschen zu beziehen, wird nicht als Gegenposition zu den frühen Ansätze der Logik und Transzendentalphilosophie gedeutet, sondern selbst als Endpunkt einer dialektischen Entwicklung des Schellingschen Denkens gefasst. Dies ergibt folgenden formellen Aufbau der Arbeit: Zunächst wird in einem einleitenden Abschnitt über die Aufgabe der Philosophie selbst und ihrer Darstellbarkeit im Zusammenhang mit der Hegel-Schelling-Kontroverse gearbeitet, um Schelling als adäquaten Bezugspunkt für unsere moderne Diskussion auf der methodischen und sprachlichen Ebene einzuführen. Im Hauptteil werden die wesentlichen Momente der für Schelling wichtigen Transzendentalphilosophie der Jahrhundertwende dargestellt, um diese dann an den späteren phänomenologisch-epistemologischen Ansätzen zu spiegeln. Von der theoretischen Seite kommend werden die Hauptmomente der praktischen Philosophie Schellings aufgezeigt, um dann den Menschen in einem dritten Schritt Symbol der Ununterschiedenheit von logischen und freien Tätigkeiten bzw. von Leib und Seele zu deuten. Diese Resultate bleiben zunächst einmal liegen, um in dem zweiten Hauptabschnitt auf grundlegende naturphilosophische Voraussetzungen und Resultate derjenigen Physik einzugehen, welche die prinzipiellen Verständnisschwierigkeiten der Physik des frühen 20. Jahrhundert in die heutige kosmologische und atomistische Diskussion mitbringt. Der dritte Hauptabschnitt stellt den Versuch dar, Schellings Naturphilosophie an symptomatische Anschauungen der Physik heranzuführen, um ihn als zeitgenössischen Kritiker einzuführen, wie aber auch als einen, der bestimmte moderne naturwissenschaftliche bzw. physikalische Resultate im Besonderen vorwegzunehmen vermochte. Die Einführung seiner Philosophie in aktuelle naturphilosophische Diskussion wird als unabdingbare Voraussetzung zu einem zukünftigen Verständnis des Natur, des Kosmos´ und des Menschen gefordert.