679 resultados para Lehr-Lern-Prozess
Resumo:
Der Hamburger Schulversuch EARA (Erprobung neu strukturierter Ausbildungsformen im Rahmen des Ausbildungskonsenses 2007-2010“) wurde durch in Konsortium der Universität Hamburg evaluiert und wissenschaftlich begleitet. Die Schulversuchsevaluation gliederte sich in einen summativen und einen formativen Teil (vgl. EARA 2012, 11 f.). Im Rahmen der formativen Evaluation wurden intensive curriculare Entwicklungsarbeiten geleistet, die durch eine enge Kooperation von wissenschaftlicher Begleitung und Projektschulen geprägt waren. Dieser Beitrag stellt die theoretischen Grundlagen der gemeinsamen Curriculumentwicklung im Schulversuch EARA dar. Diese sind umfassend in der Kooperation mit der beruflichen Schule für Büro und Personalmanagement Bergedorf für das Berufsbild Kaufleute für Bürokommunikation umgesetzt worden. In diesem Beitrag werden zunächst zentrale Herausforderungen der schulnahen Curriculumentwicklung im Kontext des Lernfeldansatzes dargestellt, um dann im zweiten Abschnitt die im Schulversuch EARA zum Tragen gekommenen Lösungsansätze zu beschreiben. Die spezifischen Herausforderungen waren (1) eine veränderte curriculare Entwicklungslogik, (2) die notwendige curriculare Rekonstruktion von Lernfeldern, (3) die Schwierigkeiten prozessübergreifender Kompetenzentwicklung und (4) die geforderte Verknüpfung von Prozess- und Systemperspektive in den Lernsituationen. Die Lösungsvorschläge für diese Herausforderungen münden im Konzept der Hamburger Kompetenzmatrix und werden am Beispiel von Ergebnissen aus dem Projekt EARA dargestellt. Der Beitrag endet mit der Bilanzierung von Erfolgen und Desideraten.
Resumo:
Die Produktion von Astaxanthin mittels Haematococcus pluvialis ist eines der wichtigsten Fachgebiete der Mikroalgen Biotechnologie. Kommerzielles Interesse ist zurückzuführen auf dessen Anwendungen als Pigment in der Tierzucht und neuerdings auch im Bereich des Gesundheitswesens, begründet auf seiner starken anti-oxidativen Wirkung. Allerdings begrenzen die Herausforderungen in der industriellen Produktion von H. pluvialis, in Bezug auf den Metabolismus der Alge wie gleichermaßen auch die Kultivierungsstrategie, immer noch den Markt für natürliches Astaxanthin. Die derzeit gängigen Kultivationstechnologien basieren auf Suspensionssystemen, welche weitgehende Nachteile mit sich führen, wie hoher Wasser-, Energie und Technikaufwand. Diese Probleme können durch die Anwendung einer immobilisierten Kultivation vermieden werden, weshalb diesem Verfahren immer mehr Aufmerksamkeit zu Teil wird. In dieser Arbeit wurde H. pluvialis als immobilisierte Kultur in einem Twin-Layer PSBR verwendet. Insgesamt wurden 26 verschiedene Arten von H. pluvialis gefunden, die als Biofilm wachsen und Astaxanthin produzieren konnten, wobei der Stamm CCAC 0125 zur weiteren Optimierung des Prozesses ausgewählt wurde. Biomasse und Astaxanthin Produktion stiegen zunehmenden in Abhängigkeit zu der Lichtintensität, bis einschließlich 1,015 µmol Photonen m-2 s-1, ohne Anzeichen von Photoinhibition. Maximale Biomasse Produktivität von 19.4 g m-2 d-1 wurde unter starken Lichtverhältnissen verzeichnet. Nährstofflimitierungen und Salinität unterstützen die Astaxanthin Produktion hinderten allerdings das Wachstum der Biomasse. Nichtdestotrotz, wurde die höchste Astaxanthin Produktivität von 0.507 g m-2 d-1 mit einem Biomasseanteil von 3.5% in der Trockenmasse durch starke Belichtung sowie Stickstoff- und Phosphatmangel erreicht. Diese Ergebnisse bestärken die Verwendung der immobilisierten Kultivation von H. pluvialis als Alternative zu den derzeitigen Technologien. Die Verknüpfung von hoher Biomasse mit der Produktion von Astaxanthin bei starkem Lichtintensitäten wurde nur durch die Anordnung in einem Biofilm ermöglicht. Es kann einen Durchbruch in der kommerziellen Herstellung von H. pluvialis darstellen, da hierbei das Vorziehen der Kulturen bei geringen Licht entfällt, was wiederum den derzeit verwendeten komplexen Zwei-Stufen Prozess stark vereinfacht.
Resumo:
Die vorliegende Arbeit nahm sich vor, das Bild des Afroamerikaners in jeweils zwei kubanischen und brasilianischen Romanen des 19. Jahrhunderts zu analysieren: El negro Francisco, Cecilia Valdés, A escrava Isaura und O mulato. Das Hauptziel war es, zu untersuchen, wie das Bild des Afroabstammenden von den Autoren angeeignet und instrumentalisiert wurde, um Veränderungen in ihren Gesellschaften zu erzielen. Darüber hinaus, versuchte man darzustellen, wie der Afroamerikaner und seine Kultur aus dem kubanischen und brasilianischen nationalen Projekt ausgeschlossen wurden. Zunächst wurden die Haupttheorien über die Konstruktion von Auto- und Heterostereotypen vorgestellt und auf die Relevanz der Stereotypenbildung im kolonialen Kontext hingewiesen. Daraufhin wurde der historische Kontext der Sklaverei und der Abolition in Kuba und in Brasilien dargelegt. Auf diese Basis wurden die Werke analysiert. Im letzten Kapitel wurde auf die Resultate der Fragestellungen eingegangen, die die vorliegende Arbeit geleitet haben. Solche wie: Welche Bilder der Weißen und der Schwarzen wurden in den Werken kreiert? Wie positioniert sich der Autor bezüglich der Abolition und der Vermischung der Ethnien? Welche Bedeutung hatten die ethnischen Diskurse im kubanischen und brasilianischen kollektiven Gedächtnis des 19. Jahrhunderts? Es konnte gezeigt werden, dass das Bild des Afroamerikaners in den Romanen verwendet wurde, um die Zukunft der eigenen Nation zu projizieren, von der der Schwarze nur ein Teil werden könnte, wenn er die weiße Kultur und Hautfarbe annehmen würde, das heißt, wenn er sich dem Prozess eines physischen und kulturellen „branqueamento“ unterziehen würde. Die abolitionistische Narrative, auch wenn sie nach außen hin dem Schwarzen zu verteidigen scheint, trug in Wahrheit zur Fixierung und Perpetuierung der ethnischen Stereotype bei, die die Schwarzen in den marginalen Sphären der Gesellschaft verewigten und die Macht in den Händen der Weißen konsolidierten.
Resumo:
Gesetze müssen verständlich sein, so die Forderung, sie können aber nach der herrschenden Lehre diese Anforderung nicht erfüllen, da ihre Bedeutung nicht in der geforderten Weise bestimmt sein kann, wie die Auslegungstätigkeit in der Anwendung zeigt. Der Aufsatz beschäftigt sich mit der Frage, wie unter diesen Umständen Verständlichkeit bei der Versprachlichung von Gesetzesnormen möglich ist. Voraussetzung für eine Antwort sind präzisierte Vorstellungen über die Prozesse des Verstehens, die Verständlichkeit von Texten und den Zusammenhang zwischen Verstehen, Bedeutung und Auslegung. 1. Die Bedeutung von Texten zeigt sich im Verstehen. Verstehen ist ein konstruktiver, inferenzieller Prozess, in dem anhand des Wortlautes mit Hilfe von prototypischen Annahmen, Sachwissen, Situationswissen und inferenziellen Regeln u. a. ein mentales Modell von Sachverhalten und Bewertungen der Relevanz der Informationen im gegebenen Kontext hergestellt werden. Die sprachliche Bedeutung eines Textes ist selbst kein Abbild eines Sachverhaltes, sondern eine Konstruktionsanweisung, ein solches Abbild in der Form eines mentalen Modells herzustellen. 2. Gesetzesaussagen sind normative generell-abstrakte Aussagen. Generell-abstrakte Aussagen zu verstehen, bedeutet, eine Menge von familienähnlichen mentalen Modellen entsprechend den sprachlichen und sachlichen Vorgaben rekonstruieren zu können. 3. Es gibt nicht ein einziges Verstehen, sondern Abstufungen des Verstehens zwischen relativ vagem und relativ präzisem Verstehen und zwischen punktuellem Verstehen und Erkennen der möglichen Schlussfolgerungen aus einer Aussage. Laienverstehen und professionelles, präzises Verstehen und Begreifen können in Konflikt zueinander stehen, müssen aber nicht, soweit das Laienverstehen in wesentlichen Aspekten kompatibler Teil des professionellen Verstehens ist. 4. Verstehen ist Arbeit mit einem Aufwand. Verständlichkeit entspricht dem Aufwand, der erforderlich ist, um einen Text zu verstehen. Der Aufwand hängt von der Sachkenntnis der Interpretin, von der Abstraktheit und Komplexität der vermittelten Information der Aussage und der sprachlichen Gestaltung ab. 5. Wer einen Inhalt wie eine Gesetzesnorm zu versprachlichen hat, muss vom vorgegebenen Inhalt und den textspezifischen und sachlichen Vorgaben ausgehen und kann diese nur begrenzt beeinflussen. Ein gegebene Information kann vom Inhalt so sachspezifisch und komplex sein, dass sie nicht beliebig leicht (d.h. allgemein-) verständlich formuliert werden kann. Gestaltbar ist dagegen die Textform. Die Aufgabe besteht darin, die Textform so zu gestalten, dass sie allgemeinen pragmatischen und kognitiven Verstehensregeln entspricht und die kognitiven Verstehensprozeduren in der Konstruktion mentaler Modelle unterstützt. Stichwörter sind Transparenz, Ikonizität, Erkennbarkeit der Relevanz der Inhaltselemente, Vermeidung von Konflikten mit der Allgemeinsprache. 6. Der Einwand der Unbestimmtheit (und entsprechend der Unverständlichkeit) von Gesetzestexten betrifft die Aufgabenstellung der Gesetzesredaktion nicht direkt. Das Verstehen eines Gesetzestextes bei seiner Formulierung und die Auslegung sind zwei unterschiedliche Vorgänge in unterschiedlichen Zusammenhängen. Ein Gesetzestext (der Normtext in der Terminologie der Strukturierenden Rechtslehre) setzt eine allgemeine Norm innerhalb eines allgemeinen Erwartungshorizonts. Auch wenn er eine Vielzahl von potenziellen konkreten (fiktiven) Anwendungsfällen als mentalen Modellen zu rekonstruieren erlaubt, sind unter den vorgegebenen Voraussetzungen die Regeln dieser Rekonstruktionen grundsätzlich (bei angemessener Formulierung) bestimmt. Auslegung ist demgegenüber Herstellung einer Rechtsnorm für den konkreten Fall auf der Grundlage von generell-abstrakten Normtexten. Der konkrete Fall ist individuell und hat von seinem Wesen her keinen Zusammenhang mit einer generell-abstrakten Norm. Die individuell-konkrete Rechtsnorm kann durch inferenzielle Ableitung einer Einzelnorm aus dem generellen Normtext hergeleitet und begründet werden; dies entspricht dem Resultat von gewöhnlichen Verstehensprozeduren, ist aber ebenfalls eine inferenziell gesteuerte Konstruktion einer neuen Norm. In vielen Fällen ist die Rechtsnorm aber das Resultat von Inferenzen aus einer Vielzahl von Normtexten und sonstigen Inputdaten wie Relevanzkriterien und nicht eine direkte Konkretisierung einer einzelnen bestimmten generell-abstrakten Norm. Die vielzitierte Unbestimmtheit von Normtexten in der Anwendung ist nicht Reflex der Unbestimmtheit der Bedeutung eines generell-abstrakten Normtextes als solchen, sondern der vielfältigen Vermitteltheit einer konkreten Rechtsnorm aus je nach Situation unterschiedlichen Vorgaben.
Resumo:
Rezension von: Angela Bolland: Forschendes und biografisches Lernen. Das Modellprojekt Forschungswerkstatt in der Lehrerbildung. Bad Heilbrunn: Klinkhardt 2011 (406 S.; ISBN 978-3-7815-1517-8)
Resumo:
Rezension von: Karl-Oswald Bauer / Andreas Bohn / Pierre Kemna / Niels Logemann: Pädagogische Qualität messen. Ein Handbuch. Münster/ New York/ München/ Berlin: Waxmann 2010 (184 S.; ISBN 978-3-8309-2415-9)
Resumo:
Die in dem Band versammelten bildungshistorischen Studien aus der Primarschulforschung befassen sich in nationaler und internationaler Perspektive mit dem Konstrukt des Schulwissens. Im Interessensfokus steht zum einen das Schulwissen über Kinder, welches die Schülerinnen und Schüler selbst beschreibt, zum anderen das als vermittlungswürdig und -bedürftig ausgezeichnete Schulwissen für Kinder. Zum Schulwissen über Kinder erstrecken sich die Untersuchungen u.a. auf dessen professionsrelevante Aussagen über ideales und defizitäres Verhalten von Primarschulkindern wie über deren schulbedingte Gesundheitsgefährdungen. Weiterhin wird unter Problematisierung der schulhistorisch gepflegten Antithese von Kind und Curriculum das in curricularen Ordnungen verdeckt eingelagerte Wissen über Kinder identifiziert. Zum Schulwissen für Kinder analysieren die Beiträge u.a. dessen konfessionsbedingte Differenzen, die Inhalte und Formate seiner medialen Präsentation und rekonstruieren die vom vermittelten Wissen erwarteten politischen und pädagogischen Wirkungseffekte. Zudem werden die schulischen und außerschulischen Bedingungen zur Durchsetzung neuen Schulwissens im historischen Prozess untersucht. (DIPF/Orig.)
Resumo:
Die Studierenden haben eine wichtige Rolle bei der erfolgreichen Implementierung von ICT-Anwendungen im Studium gespielt. Ende 2002 nutzen nahezu 90% der Studierenden in Göttingen PC- und Internetanwendungen als unentbehrliche Arbeitswerkzeuge im Studium, darüber hinaus stellen sie wesentliche (Hardware-) Ressourcen. Entwicklungsstrategien für intensivere Formen mediengestützten Lernens können auf diese Ressourcen aufbauen. Die Ergebnisse der vorgestellten Studie belegen dies, sie weisen aber gleichzeitig darauf hin, wie stark die bisher weitgehend auf Eigeninitiative der Studierenden basierende Einführung von PC und Internetanwendungen im Studium deren Erwartungen und Anforderungen auch gegenüber neuen, internetbasierten Lehr- und Lernformen prägt. Positive Einstellungen gegenüber neuen Anwendungen resultieren aus der Erfahrung mit PC und Internet als effizientes, nützliches Arbeitswerkzeug im Studium. Indifferente oder negative Einstellungen gegenüber (zukünftigen) PC- und Internetanwendungen beziehen sich auf solche Anwendungen, die grundlegende Veränderungen der Präsenzlehre oder der persönlichen Kooperations- und Kommunikationsstrukturen zur Folge haben könnten. Zustimmung finden aber auch Anwendungen, von denen die Studierenden den Ausgleich von Defiziten der (Präsenz-) Lehre erwarten, z.B. durch ergänzende Lernmaterialien, bessere Studienorganisation oder zusätzliche Kontaktmöglichkeiten. (DIPF/Orig.)
Lernmanagement-Systeme mit Konzept einsetzen – Lehrende und Studierende beim Online-Lernen begleiten
Resumo:
Um die Nutzung digitaler Medien in der Lehre zu erleichtern, hat die Hochschule Ostwestfalen-Lippe ein Konzept entwickelt, mit dem Lehrende durch wissenschaftliche und studentische „eTutoren“ und Studierende durch studentische „eMentoren“ bei der Nutzung digitaler Medien im Lehr-/Lernprozess unterstützt werden. Ein zentraler Bestandteil des Modells ist die Nutzung des Learning-Management Systems ILIAS. Im folgenden Beitrag werden auf der Basis einiger grundsätzlicher Überlegungen zur Veränderung der Hochschullehre durch digitale Medien (1) zunächst die Konzepte des eTutoring und eMentoring kurz vorgestellt (2) und dann erläutert, wie das 5-Stufen-Modell für Online-Kurse von Gilly Salmon (3) für die konkreten Bedingungen an der Hochschule OWL angepasst wurde und von den eTutoren und eMentoren zur Unterstützung von Lehrenden und Studierenden genutzt wird (4). Der Beitrag schließt mit einem Fazit der bisherigen Erfahrungen (5).
Resumo:
Jede Lernumgebung muss ein Gleichgewicht von drei Anforderungen sicherstellen: Inhaltsvermittlung, Förderung von Aktivitäten der Studierenden und Unterstützung von lern- und arbeitsbezogenen Interaktionen. Auf dem Hintergrund von Ansätzen zu Task-Technology-Fit und zu Prozessverlusten bei Gruppenleistung wird ein Workflow-basiertes Modell einer Lern- und Arbeitsumgebung für kooperatives und kollaboratives Lernen und Arbeiten in der Psychologie und den empirischen Sozialwissenschaften zur Erreichung dieser Ziele vorgelegt. Es wird gezeigt, wie rezeptionsorientierte Lernvorgänge, die durch Lernprogramme angeregt werden, durch Funktionalitäten von Kooperation ergänzt werden können. Ferner wird gezeigt, wie produktionsorientierte Lernvorgänge durch kollaborative Lernprojekte gefördert werden können, welche die Lern- und Arbeitsschritte in einer studentischen Arbeitsgruppe unterstützen. Die Nutzung eines geteilten Arbeitsbereichs sowohl für Aktivitäten im Lernprogramm als auch im Lernprojekt werden diskutiert.(DIPF/Orig.)
Resumo:
Am Institut für Arbeitswissenschaft und Betriebsorganisation (ifab) Universität Karlsruhe wird zurzeit das Projekt LIVE-Fab (Lernen in der virtuellen Fabrik) gemeinsam mit der Fachhochschule Landshut, Fachbereich Maschinenbau, durchgeführt. Dieses Projekt wird vom Bundesministerium für Bildung und Forschung (BMBF) im Rahmen des Programms „Neue Medien in der Bildung“ gefördert. Das Ziel des Projektes ist die Entwicklung eines anschaulichen Lehr- und Lernmodells für eine Fabrik als funktionierendes Ganzes. Dazu soll im Rechner eine Modellfabrik mit den Bereichen Wareneingang, Fertigung, Montage und Qualitätssicherung abgebildet werden. Die Fabrik mit ihren Anlagen (Maschinen, Transportsysteme etc.) und Materialflüsse soll in einem 3D-Modell visuell erfassbar sein. Die Grundlagen zur Schaffung einer virtuell funktionierenden Produktion einschließlich Anlagenplanung, Arbeitsvorbereitung, die Mechanismen, Kundenbestellungen und Qualitätsmanagement sollen in einzelnen Fallstudien den Studierenden vermittelt werden. Den Studierenden aus den Fachbereichen Maschinenbau, Wirtschaftsingenieurwesen, Elektrotechnik und Betriebswirtschaft mit technischer Ausrichtung soll mit der virtuellen Fabrik ein Werkzeug an die Hand gegeben werden, mit dem sie die komplexen, ineinander verzahnten Vorgänge eines Produktionsprozesses besser verstehen lernen. Dies bedeutet, dass in der virtuellen Fabrik die inhaltlichen Aspekte mehrerer vorgelagerter Vorlesungen kombiniert werden und dadurch ein Verbund zum Verständnis der Produktionsprozesse geschaffen wird.(DIPF/Orig.)
Resumo:
WikiWikiWebs sind ein asynchrones webbasiertes Kommunikationsinstrument, das vergleichbar mit Diskussionsforen, Weblogs und anderen CSCW1-Umgebungen in verschiedenen Szenarien einsetzbar ist. Es basiert auf zwei zentralen Prinzipien: „Jeder kann jeden Text ändern“ und „Strukturen entstehen bottom-up durch Verlinkung.“ Als Lernumgebungen können WikiWikiWebs zentrale Kommunikationsplattformen für asynchrone, ortsverteilte Veranstaltungen sein oder veranstaltungsbegleitend die Kommunikation über die Präsenzveranstaltungen hinaus ausdehnen. Idealerweise verändern WikiWikiWebs die Textproduktion hin zu einem kooperativen Prozess, der selbst organisierendes Lernen in Arbeitsgruppen begünstigt. Anhand von drei Anwendungsszenarien werden Bedingungen und Möglichkeiten eines solchen Lernens diskutiert. Die Ergebnisse zeigen, dass WikiWikiWebs kollaboratives Lernen und Arbeiten unter geeigneten Einsatzbedingungen ermöglichen, aber nicht von selbst herbeiführen.(DIPF/Orig.)
Resumo:
Mit dem Einsatz der neuen Medien, insbesondere des Internet, im Bereich des Lehrens und Lernens werden – auch nach dem Abklingen der ersten Euphorie – hohe Erwartungen verbunden. Dabei spielen neue, pädagogisch interessante Nutzungsmöglichkeiten, aber auch wirtschaftliche Interessen eine wesentliche Rolle. Die damit verbundenen Fragen (z.B. nach der Sicherung von Qualität und Gewährleistung von Rentabilität) führen zu einem steigenden Interesse an Metadaten zur Beschreibung von telematischen Lehr-/Lernmaterialien (zum Begriff „telematisch“ vgl. Zimmer, 1997, S. 111). Der folgende Beitrag befasst sich mit Erwartungen und Schwierigkeiten bei der Entwicklung und dem Einsatz pädagogischer Metadaten. Im Anschluss an eine kurze allgemeine Darstellung der Funktion von Metadaten wird unter Rückgriff auf Vorschläge verschiedener Gremien zur Bestimmung pädagogischer Metadaten gezeigt, welche Probleme bei deren Findung, Benennung und Implementierung auftreten: So stellen sich z.B. Fragen nach der interkulturellen Übertragbarkeit, nach den unterschiedlichen Perspektiven von Contentanbietern und Lernenden sowie auch die grundsätzliche Frage nach der Möglichkeit der Standardisierung pädagogischer Kategorien. Anhand des Praxisbeispiels der Virtuellen Fachhochschule für Technik, Informatik und Wirtschaft werden projekttypische Entwicklungsstufen von (pädagogischen) Metadaten dargestellt. Vorschläge zur Lösung der beschriebenen Probleme und ein Ausblick mit Forschungsfragen schließen den Beitrag ab.(DIPF/Orig.)
Resumo:
International audience
Resumo:
Gestiegene Erwartungen an die pädagogische und organisationsbezogene Qualität elementarpädagogischer Einrichtungen stellen neue Anforderungen an Personal und Organisationen in diesem Bildungssegment. Im Rahmen einer durch die Robert Bosch Stiftung Stuttgart geförderten Expertentagung wurden auf der Grundlage eines Diskussionspapiers verschiedene Modelle einer Organisationsentwicklung im Elementarbereich vorgestellt und diskutiert. Hierbei wurde deutlich, dass bislang keine unabhängigen und etablierten Modelle existieren. Die Expertinnen konnten sich in Form von Impulsreferaten oder nachträglich eingereichten Statements in den Prozess einbringen. Die Publikation dokumentiert sowohl die Recherche als auch den Diskussionsprozess. Zudem sind die Statements der Expertinnen und Experten einbezogen. Ziel ist es, das Thema schrittweise weiter zu bearbeiten und zunächst Best Practice Beispiele auszumachen und gemeinsam mit der Praxis ein passendes Modell der Organisationsentwicklung zu erarbeiten. Die Ergebnisse sollen didaktisch so aufbereitet werden, dass Sie in Form von Fallstudien in die Aus- und Weiterbildung einfließen können. (DIPF/Autorinnen)