49 resultados para Lehr-Lern-Prozess
Resumo:
Das Interesse an Online-Vorlesungen, -Vorträgen oder -Präsentationen für E-Learning hat deutlich zugenommen. Hierfür gibt es eine Reihe von Gründen, die mit neuen Formen der Produktion und Distribution von Online-Vorlesungen zusammenhängen. Mit der Verfügbarkeit von Rapid-Authoring-Werkzeugen wird der Workflow für die Erstellung und den Einsatz von Online-Vorlesungen erleichtert und flexibilisiert. Hierbei ist zu beobachten, dass durch die Vielzahl der Möglichkeiten im Workflow zunehmend individuelle Rahmenbedingungen und Anforderungen berücksichtigt werden können. Der folgende Beitrag beschreibt diese Veränderungen. Er fasst die Optionen im Prozess der Produktion und Distribution von Online-Vorträgen im Internet zusammen. Ein solcher Überblick über das Themengebiet ist erforderlich für das Herausarbeiten eines individuellen Workflows. Hierzu werden Entscheidungskriterien für die Auswahl von Werkzeugen und Plattformen dargestellt und die mediendidaktischen Implikationen diskutiert.
Resumo:
Additive Manufacturing durch Aufschmelzen von Metallpulvern hat sich auf breiter Front als Herstellverfahren, auch für Endprodukte, etabliert. Besonders für die Variante des Selective Laser Melting (SLM) sind Anwendungen in der Zahntechnik bereits weit verbreitet und der Einsatz in sensitiven Branchen wie der Luftfahrt ist in greifbare Nähe gerückt. Deshalb werden auch vermehrt Anstrengungen unternommen, um bisher nicht verarbeitete Materialien zu qualifizieren. Dies sind vorzugsweise Nicht-Eisen- und Edelmetalle, die sowohl eine sehr hohe Reflektivität als auch eine sehr gute Wärmeleitfähigkeit aufweisen – beides Eigenschaften, die die Beherrschung des Laser-Schmelzprozesses erschweren und nur kleine Prozessfenster zulassen. Die Arbeitsgruppe SLM des Lehr- und Forschungsgebietes Hochleistungsverfahren der Fertigungstechnik hat sich unter der Randbedingung einer kleinen und mit geringer Laserleistung ausgestatteten SLM Maschine der Aufgabe gewidmet und am Beispiel von Silber die Parameterfelder für Einzelspuren und wenig komplexe Geometrien systematisch untersucht. Die Arbeiten wurden von FEM Simulationen begleitet und durch metallographische Untersuchungen verifiziert. Die Ergebnisse bilden die Grundlage zur schnellen Parameterfindung bei komplexen Geometrien und bei Veränderungen der Zusammensetzung, wie sie bei zukünftigen Legierungen zu erwarten sind. Die Ergebnisse werden exemplarisch auf unterschiedliche Geometrien angewandt und entsprechende Bauteile gezeigt.
Resumo:
Generative Fertigungsverfahren haben sich in den letzten Jahren als effektive Werkzeuge für die schnelle Entwicklung von Produkten nahezu beliebiger Komplexität entwickelt. Gleichzeitig wird gefordert, die Reproduzierbarkeit der Bauteile und auch seriennahe bzw. seriengleiche Eigenschaften zu gewährleisten. Die Vielfalt und der Umfang der Anwendungen sowie die große Anzahl verschiedener generativer Fertigungsverfahren verlangen adäquate Qualitätsüberwachungs- und Qualitätskontrollsysteme. Ein Lösungsansatz für die Qualitätsbewertung von generativen Fertigungsverfahren besteht in der Einführung eines Kennzahlensystems. Hierzu müssen zunächst Anforderungsprofile und Qualitätsmerkmale für generativ hergestellte Bauteile definiert werden, welche durch Prüfkörpergeometrien abgebildet und mit Hilfe von Einzelkennzahlen klassifiziert werden. In Rahmen der durchgeführten Untersuchungen wurde die Qualitätsbewertung anhand von Prüfkörpergeometrien am Beispiel des Laser-Sinterprozesses qualifiziert. Durch Beeinflussung der Prozessparameter, d.h. der gezielten Einbringung von Störgrößen, welche einzeln oder in Kombination zu unzulässigen Qualitätsschwankungen führen können, ist es möglich, die Qualität des Produktes zu beurteilen. Die Definition von Einzelkennzahlen, die eine Steuerung und Kontrolle sowie eine Vorhersage potentieller Fehler ermöglicht, bietet hierbei essentielle Möglichkeiten zur Qualitätsbewertung. Eine Zusammenführung zu einem gesamtheitlichen Kennzahlensystem soll zum einen den Prozess auf Grundlage der definierten Anforderungsprofile bewerten und zum anderen einen direkten Zusammenhang der ausgewählten Störgrößen und Prozessgrößen herleiten, um vorab eine Aussage über die Bauteilqualität treffen zu können.
Resumo:
Das Additive Manufacturing gewinnt im Bereich der Medizintechnik zur Herstellung von Prototypen bis hin zu Endprodukten zunehmend an Bedeutung. Ein großes Hemmnis stellen allerdings die relativ hohen Fertigungskosten dar. Hier bietet der verstärkte Einsatz der 3D-Drucktechnologie (3D Printing) ein erhebliches Potential zur Reduktion der Kosten. Aus dieser Motivation heraus wurde ein 3D-Druckverfahren zur Herstellung biokompatibler, sterilisierbarer Kunststoffmodelle entwickelt. Beim 3D-Druck-Verfahren handelt es sich um einen pulverbasierten Prozess zur schichtweisen Herstellung von Modellen direkt aus Computerdaten. Dabei werden dünne Schichten eines Pulvers auf eine Grundplatte aufgebracht, die dann durch gezielte Binderzugabe entsprechend des aktuellen Bauteilquerschnitts verfestigt werden. Ausgangsmaterial für diesen Prozess ist ein Granulatgemisch auf Basis von PMMA (Polymethylmethacrylat). Als Binderflüssigkeit wird ein Lösungsmittel eingesetzt. Die 3D gedruckten Modelle werden nach einer entsprechenden Trocknungszeit im Pulverbett entpackt und warmgelagert, um das Abdampfen des Lösungsmittels zu beschleunigen. Der Nachweis der Biokompatibilität der hergestellten Modelle erfolgte durch einen Test nach DIN EN ISO 10993-5. In Kooperation mit Anwendern wurden verschiedene Anwendungsbeispiele wie Bohrschablonen, Otoplastiken, Gebissmodelle und Modelle für die präoperative Planung realisiert und charakterisiert.
Resumo:
Manuelle Kommissioniersysteme sind aufgrund ihrer Flexibilität weit verbreitet, jedoch treten bei diesen auch vermehrt Kommissionierfehler auf, die weitreichende Folgen haben können. Deshalb werden zu Beginn des Beitrags die Auswirkungen und Ursachen von Kommissionierfehlern betrachtet. Der Fokus des Beitrags liegt auf der Darlegung von Möglichkeiten zur Fehlervermeidung. Dabei wird ein ganzheitlicher Ansatz verfolgt, der Maßnahmen aus den Handlungsfeldern Technik, Prozess, Organisation und Motivation umfasst. Als Ausblick auf zukünftige technische Hilfsmittel zur Fehlervermeidung wird das Augmented-Reality-unterstützte System Pick-by-Vision aus der Forschung vorgestellt, das wesentliche Vorteile existierender Techniken der Informationsbereitstellung vereinigt.
Resumo:
Ein auf Basis von Prozessdaten kalibriertes Viskositätsmodell wird vorgeschlagen und zur Vorhersage der Viskosität einer Polyamid 12 (PA12) Kunststoffschmelze als Funktion von Zeit, Temperatur und Schergeschwindigkeit angewandt. Im ersten Schritt wurde das Viskositätsmodell aus experimentellen Daten abgeleitet. Es beruht hauptsächlich auf dem drei-parametrigen Ansatz von Carreau, wobei zwei zusätzliche Verschiebungsfaktoren eingesetzt werden. Die Temperaturabhängigkeit der Viskosität wird mithilfe des Verschiebungsfaktors aT von Arrhenius berücksichtigt. Ein weiterer Verschiebungsfaktor aSC (Structural Change) wird eingeführt, der die Strukturänderung von PA12 als Folge der Prozessbedingungen beim Lasersintern beschreibt. Beobachtet wurde die Strukturänderung in Form einer signifikanten Viskositätserhöhung. Es wurde geschlussfolgert, dass diese Viskositätserhöhung auf einen Molmassenaufbau zurückzuführen ist und als Nachkondensation verstanden werden kann. Abhängig von den Zeit- und Temperaturbedingungen wurde festgestellt, dass die Viskosität als Folge des Molmassenaufbaus exponentiell gegen eine irreversible Grenze strebt. Die Geschwindigkeit dieser Nachkondensation ist zeit- und temperaturabhängig. Es wird angenommen, dass die Pulverbetttemperatur einen Molmassenaufbau verursacht und es damit zur Kettenverlängerung kommt. Dieser fortschreitende Prozess der zunehmenden Kettenlängen setzt molekulare Beweglichkeit herab und unterbindet die weitere Nachkondensation. Der Verschiebungsfaktor aSC drückt diese physikalisch-chemische Modellvorstellung aus und beinhaltet zwei zusätzliche Parameter. Der Parameter aSC,UL entspricht der oberen Viskositätsgrenze, wohingegen k0 die Strukturänderungsrate angibt. Es wurde weiterhin festgestellt, dass es folglich nützlich ist zwischen einer Fließaktivierungsenergie und einer Strukturänderungsaktivierungsenergie für die Berechnung von aT und aSC zu unterscheiden. Die Optimierung der Modellparameter erfolgte mithilfe eines genetischen Algorithmus. Zwischen berechneten und gemessenen Viskositäten wurde eine gute Übereinstimmung gefunden, so dass das Viskositätsmodell in der Lage ist die Viskosität einer PA12 Kunststoffschmelze als Folge eines kombinierten Lasersinter Zeit- und Temperatureinflusses vorherzusagen. Das Modell wurde im zweiten Schritt angewandt, um die Viskosität während des Lasersinter-Prozesses in Abhängigkeit von der Energiedichte zu berechnen. Hierzu wurden Prozessdaten, wie Schmelzetemperatur und Belichtungszeit benutzt, die mithilfe einer High-Speed Thermografiekamera on-line gemessen wurden. Abschließend wurde der Einfluss der Strukturänderung auf das Viskositätsniveau im Prozess aufgezeigt.
Resumo:
Wie lässt sich die Qualität des Lernens, Lehrens und Prüfens durch den Einsatz neuer Medien steigern? Übertragen auf die Komponenten und Bausteine des E-Education-Prozesses heißt das: - Mit welchen digitalen Materialien und Komponenten ist eine effiziente computergestützte Inhaltserschließung möglich? - Mit welcher Organisationsform der Lehre kann ein maximaler Qualitätsgewinn für die traditionelle Präsenzlehre erzielt werden? - Wie lassen sich traditionelle Prüfungsformen durch digitale Medien bereichern und mit technischer Hilfe auswerten? - Wie müssen digitale Inhalte beschaffen sein, um einen Mehrwert für den Lehr- und Lernprozess, möglicherweise in Selbstlernszenarien, zu erzielen? - Wie muss eine Lernplattformaufgebaut sein, um E-Education in ihrer gesamten Breite zu unterstützen und eine hohe Akzeptanz zu erreichen? Die Autoren sind Hauptakteure des Marburger „Linguistik Engineering Teams“, das in sich das gesamte Know-How für die Entwicklung und Nutzung verschiedener Lehr- und Lernszenarien vereinigt: von der Konzeption über die Programmierung bis hin zur Nutzung in allen denkbaren Varianten. Ihr Buch ist ein Leitfaden, der aufzeigt, wie mit einem komplexen E-Education-System nicht nur Qualitäts-, sondern auch Kapazitätsgewinne sowie erhebliche Aufwandsreduktionen erreicht werden können.
Resumo:
Der vorliegende Übersichtsartikel betrachtet Mobile Learning aus einer pädagogisch-psychologischen und didaktischen Perspektive. Mobile Learning (M-Learning), das seit Mitte der 1990er in unterschiedlichsten Kontexten Einzug in den Bildungssektor hielt, ist ein dynamisches und interdisziplinäres Feld. Dynamisch, weil M-Learning durch die rasche Entwicklung im Bereich der Informations- und Kommunikationstechnologie, wie kaum ein anderes Forschungsfeld, einem derart großen Wandel unterworfen ist. Interdisziplinär, weil durch das Zusammentreffen von mobiler Technik und Lernen auch unterschiedliche Fachdisziplinen betroffen sind. Die verschiedenen Sichtweisen und auch die Komplexität des Feldes haben dazu geführt, dass bis heute keine einheitliche Definition des Begriffs besteht. Ziel dieses Übersichtsartikels ist es, den aktuellen Forschungsstand aus didaktischer und pädagogisch-psychologischer Sicht aufzuzeigen. Dazu werden zunächst wichtige Komponenten des M-Learning-Begriffs herausgearbeitet und daran anschließend didaktisch bedeutsame theoretische Ansätze und Modelle vorgestellt sowie kritisch betrachtet. Basierend auf dieser theoretischen Ausgangslage wird dann ein Rahmen gezeichnet, der verdeutlichen soll, wo empirische Forschung aus didaktischer und pädagogisch-psychologischer Sicht ansetzen kann. Entsprechende empirische Studien werden ebenfalls vorgestellt, um einen Eindruck des aktuellen empirischen Forschungsstandes zu geben. Dies alles soll als Ausgangspunkt für den zukünftigen Forschungsbedarf dienen.
Resumo:
Massive Open Online Courses (MOOCs) bezeichnen Kurse, die online stattfinden und auf Grund fehlender Zugangsbeschränkungen und kostenfreien Zugangs sehr hohe Teilnehmerzahlen erreichen. Der erste MOOC wurde 2011 durch Sebastian Thrun, Professor für Informatik an der Stanford University, zum Thema der Künstlichen Intelligenz angeboten und hatte 160.000 Teilnehmende. In der Folge wurden MOOCs als die revolutionäre Lehr-/Lerninnovation gepriesen, immer mehr Unternehmen gründeten MOOCs-Plattformen. Seit Ende 2012 bieten auch in Deutschland erste Institutionen eigene Plattformen mit MOOCs an. Man unterscheidet im Wesentlichen zwei Varianten – xMoocs und cMOOCs: xMoocs bieten auf Video aufgezeichnete Vorlesungen, die durch Tests und Fragen unterbrochen und zu denen Aufgaben ausgeteilt werden. Sie werden ergänzt durch Foren. cMOOCs orientieren sich eher an der Form eines Seminars oder Workshops, in ihnen können die Teilnehmenden die Inhalte selbst miterarbeiten und -gestalten. Um die Potenziale, aber auch die Schwächen der MOOCs bewerten zu können, bedarf es aber einer differenzierten Betrachtung, als sie bisher stattgefunden hat. Dieser Band stellt Erfahrungsberichte und Beispiele aus deutschen Hochschulen oder mit deutscher Beteiligung vor und reflektiert das Phänomen der MOOCs unter didaktischen, historischen und bildungspolitischen Aspekten.
Resumo:
Das vorgestellte Buch zeigt ein grosses Spektrum didaktischer Methoden, die sich trotz des Titels nicht nur für die Wirtschaftswissenschaften und nicht nur für Hochschulen eignen. Zum Teil stellen die Herausgeberinnen auch unkonventionelle Ansätze dar. Die vorliegende Rezension konzentriert sich auf jene vorgestellten Methoden, die elektronische Medien einbeziehen.
Resumo:
Teaching is a dynamic activity. It can be very effective, if its impact is constantly monitored and adjusted to the demands of changing social contexts and needs of learners. This implies that teachers need to be aware about teaching and learning processes. Moreover, they should constantly question their didactical methods and the learning resources, which they provide to their students. They should reflect if their actions are suitable, and they should regulate their teaching, e.g., by updating learning materials based on new knowledge about learners, or by motivating learners to engage in further learning activities. In the last years, a rising interest in ‘learning analytics’ is observable. This interest is motivated by the availability of massive amounts of educational data. Also, the continuously increasing processing power, and a strong motivation for discovering new information from these pools of educational data, is pushing further developments within the learning analytics research field. Learning analytics could be a method for reflective teaching practice that enables and guides teachers to investigate and evaluate their work in future learning scenarios. However, this potentially positive impact has not yet been sufficiently verified by learning analytics research. Another method that pursues these goals is ‘action research’. Learning analytics promises to initiate action research processes because it facilitates awareness, reflection and regulation of teaching activities analogous to action research. Therefore, this thesis joins both concepts, in order to improve the design of learning analytics tools. Central research question of this thesis are: What are the dimensions of learning analytics in relation to action research, which need to be considered when designing a learning analytics tool? How does a learning analytics dashboard impact the teachers of technology-enhanced university lectures regarding ‘awareness’, ‘reflection’ and ‘action’? Does it initiate action research? Which are central requirements for a learning analytics tool, which pursues such effects? This project followed design-based research principles, in order to answer these research questions. The main contributions are: a theoretical reference model that connects action research and learning analytics, the conceptualization and implementation of a learning analytics tool, a requirements catalogue for useful and usable learning analytics design based on evaluations, a tested procedure for impact analysis, and guidelines for the introduction of learning analytics into higher education.
Resumo:
Fehlende Grundkenntnisse in der Mathematik zählen zu den größten Hindernissen für einen erfolgreichen Start in ein Hochschulstudium. Studienanfänger in einem MINT-Studium bringen inzwischen deutlich unterschiedliche Vorrausetzungen mit: „Mathe-Angst“ gilt als typisches Phänomen und der Übergang in ein selbstbestimmtes Lernverhalten stellt eine große Herausforderung dar. Diese Fall-Studie beschreibt, wie mit Hilfe einer Mathe-App bereits zu Beginn des Studiums aktives Lernen unterstützt und selbstbestimmtes Lernen eingeübt werden kann. Das neue Kurskonzept mit App-Unterstützung stößt an der Hochschule Offenburg auf breite Akzeptanz. Der mobile BYOD-Ansatz ermöglicht Lern-Szenarien, die über PC- bzw.- Laptop-gebundene eLearning-Lösungen nicht realisierbar sind. Der Inhalt des MassMatics-Vorbereitungskurs orientiert sich am Mindestanforderungskatalog des cosh-Arbeitskreises für den Übergang Schule-Hochschule. In der Zwischenzeit wurde der App-gestützte Kurs mit seinen über 500 Aufgaben von mehr als 1000 Studierenden besucht.
Resumo:
Unterstützungssysteme für die Programmierausbildung sind weit verbreitet, doch gängige Standards für den Austausch von allgemeinen (Lern-) Inhalten und Tests erfüllen nicht die speziellen Anforderungen von Programmieraufgaben wie z. B. den Umgang mit komplexen Einreichungen aus mehreren Dateien oder die Kombination verschiedener (automatischer) Bewertungsverfahren. Dadurch können Aufgaben nicht zwischen Systemen ausgetauscht werden, was aufgrund des hohen Aufwands für die Entwicklung guter Aufgaben jedoch wünschenswert wäre. In diesem Beitrag wird ein erweiterbares XML-basiertes Format zum Austausch von Programmieraufgaben vorgestellt, das bereits von mehreren Systemen prototypisch genutzt wird. Die Spezifikation des Austauschformats ist online verfügbar [PFMA].
Resumo:
Die Dissertationsschrift widmet sich der Erforschung des Online-Lernens mittels Weblogs unter Anwendung der E-Portfolio Methode als einer seit mehreren Jahren verstärkt aufkommenden Lern- und Präsentationsform im Bildungskontext. Über mehrere Lehrveranstaltungen des Studiengangs "Angewandte Medien- und Kommunikationswissenschaft" an der Technischen Universität Ilmenau hinweg wurden drei Fallstudien gebildet. Innerhalb dieser wurde das Führen von eigenen E-Portfolio Blogs durch Studierende über einen Zeitraum von etwa drei Jahren evaluiert. Als Evaluationsziel wurde anhand spezifischer Fragestellungen ermittelt, wie das damit einhergehende selbstgesteuert-konnektive Lernen zu entsprechendem Erfolg führen kann. Hierbei wurde insbesondere die Teildimension Medienkompetenz im Spannungsfeld von Lernaktivität, Wissenserwerb und Informations-/Wissensmanagement betrachtet sowie weitere intervenierende Variablen, wie zum Beispiel Aufwand oder Akzeptanz, berücksichtigt. Inhaltlich wurden zunächst begriffliche Grundlagen dargestellt, die Nutzung von E-Portfolios in Theorie und Praxis beschrieben, Medienkompetenz-Ansätze detailliert aufgezeigt sowie in den Kontext von E-Portfolios gebracht und schließlich eine umfangreiche Analyse des Forschungsstandes aufbereitet. Diese gingen mit Erkenntnissen aus einer qualitativen Vorstudie in Form von fünf leitfadengestützten Experteninterviews einher. Die darauf aufbauende Hauptstudie widmete sich anschließend der Erhebung und Auswertung quantitativer Daten anhand von Online-Befragungen mit den Studierenden zu fünf Zeitpunkten aus intra- und interindividueller Perspektive. Als markanteste empirische Erkenntnis der Arbeit kann festgehalten werden, dass es durch das selbstgesteuert-konnektive Lernen mit E-Portfolio Blogs zu einer nachhaltigen Förderung der Medienkompetenz kommt, die sich auch in signifikanten Zusammenhängen mit den anderen Teildimensionen und intervenierenden Variablen widerspiegelt. Darüber hinaus bieten sich aber auch Potenziale für eine steigende Lernaktivität, einen ansteigenden Wissenserwerb und ein verbessertes Informations-/Wissensmanagement, die es aber noch weiterführend zu erforschen gilt. Demgegenüber können allerdings der entstehende und kontinuierlich hohe Aufwand sowie die erforderliche (Eigen-) Motivation als entscheidende Herausforderungen dieser Lernmethode identifiziert werden.