38 resultados para semantische Aufbereitung


Relevância:

60.00% 60.00%

Publicador:

Resumo:

Lehrvideos erfreuen sich dank aktueller Entwicklungen im Bereich der Online-Lehre (Videoplattformen, MOOCs) auf der einen Seite und einer riesigen Auswahl sowie einer einfachen Produktion und Distribution auf der anderen Seite großer Beliebtheit bei der Wissensvermittlung. Trotzdem bringen Videos einen entscheidenden Nachteil mit sich, welcher in der Natur des Datenformats liegt. So sind die Suche nach konkreten Sachverhalten in einem Video sowie die semantische Aufbereitung zur automatisierten Verknüpfung mit weiteren spezifischen Inhalten mit hohem Aufwand verbunden. Daher werden die lernerfolg-orientierte Selektion von Lehrsegmenten und ihr Arrangement zur auf Lernprozesse abgestimmten Steuerung gehemmt. Beim Betrachten des Videos werden unter Umständen bereits bekannte Sachverhalte wiederholt bzw. können nur durch aufwendiges manuelles Spulen übersprungen werden. Selbiges Problem besteht auch bei der gezielten Wiederholung von Videoabschnitten. Als Lösung dieses Problems wird eine Webapplikation vorgestellt, welche die semantische Aufbereitung von Videos hin zu adaptiven Lehrinhalten ermöglicht: mittels Integration von Selbsttestaufgaben mit definierten Folgeaktionen können auf Basis des aktuellen Nutzerwissens Videoabschnitte automatisiert übersprungen oder wiederholt und externe Inhalte verlinkt werden. Der präsentierte Ansatz basiert somit auf einer Erweiterung der behavioristischen Lerntheorie der Verzweigten Lehrprogramme nach Crowder, die auf den Lernverlauf angepasste Sequenzen von Lerneinheiten beinhaltet. Gleichzeitig werden mittels regelmäßig eingeschobener Selbsttestaufgaben Motivation sowie Aufmerksamkeit des Lernenden nach Regeln der Programmierten Unterweisung nach Skinner und Verstärkungstheorie gefördert. Durch explizite Auszeichnung zusammengehöriger Abschnitte in Videos können zusätzlich die enthaltenden Informationen maschinenlesbar gestaltet werden, sodass weitere Möglichkeiten zum Auffinden und Verknüpfen von Lerninhalten geschaffen werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Hintergrund: Seit Mitte der 1990er Jahre findet ein Stellenabbau in Krankenhäusern statt, von dem insbesondere auch der Pflegedienst betroffen ist. Obwohl die Tatsache seit längerem bekannt ist, fehlt es noch an einer gründlichen Analyse und Aufbereitung der verfügbaren Daten, um sich ein fundiertes Bild über den Umfang, die Entwicklung, Ursachen und Auswirkungen machen zu können. Methoden: Primäre Datengrundlage sind die Daten der Krankenhausstatistik sowie der Gesundheitsausgabenrechnung des Statistisches Bundesamtes. Ergebnisse: Die Analyse führt zu dem Ergebnis, dass zwischen 1995 und 2005 insgesamt ca. 104.000 Vollzeitstellen für nicht-ärztliches Personal in Allgemeinkrankenhäusern abgebaut wurden. Der ärztliche Dienst wurde hingegen um ca. 19.000 Vollkräfte ausgebaut. Im Saldo ergibt dies einen Gesamtstellenabbau von ca. 85.000 Vollkräften. Der größte Teil des Stellenabbaus entfiel mit ca. 44.000 Vollzeitstellen auf den Pflegedienst. Im Jahr 2005 lag die Zahl der Vollkräfte im Pflegedienst der Allgemeinkrankenhäuser um 13,7 % unter dem Wert des Jahres 1995 und sogar noch unter dem Wert des Jahres 1991, als über einen Pflegenotstand in Krankenhäusern gesellschaftlich diskutiert wurde. Eine Analyse der Kostendaten der Allgemeinkrankenhäuser zeigt, dass der Stellenabbau im Pflegedienst nicht allein durch die Budgetdeckelung und Einführung des DRG-Systems erklärt werden kann. Mehr als die Hälfte des Stellenabbaus wäre auf Grund der allgemeinen Budgetentwicklung nicht erforderlich gewesen, sondern erfolgte offenbar, um im Rahmen einer internen Umverteilung Mittel für andere Zwecke freizusetzen. Gewinner der internen Umverteilung war der ärztliche Dienst. Vor dem Hintergrund der Ergebnisse zahlreicher internationaler Studien muss davon ausgegangen werden, dass der Stellenabbau bereits negative Auswirkungen auf die Qualität der Patientenversorgung hat. Die Ergebnisse internationaler Forschung zu diesem Thema weisen darauf hin, dass eine niedrigere Personalbesetzung in Pflegedienst das Risiko erhöht, als Patient im Krankenhaus eine schwerwiegende Komplikation zu erleiden oder sogar zu versterben. Schlussfolgerungen: Es besteht dringender Handlungsbedarf, da sich die Personalbesetzung des Pflegedienstes in Allgemeinkrankenhäusern seit mehr als 10 Jahren in einer Abwärtsspirale befindet und mit weiterem Stellenabbau zu rechnen ist.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La version intégrale de cette thèse est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (www.bib.umontreal.ca/MU).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In diesem Bericht werden die Ergebnisse und Fortschritte des Forschungsprojekts ADDOaction vorgestellt. Durch die Entwicklung in den letzten Jahrzehnten wurde das Internet zu einer wichtigen Infrastruktur für Geschäftsprozesse. Beliebige Anwendungen können als Dienste angeboten und übers Internet den Kunden online zur Verfügung gestellt werden. Eine flexible Dienstarchitektur ist dabei durch einen gewissen Grad an Dynamik gekennzeichnet, wo Dienste angepasst, ausgetauscht oder entfernt werden können und eventuell gleichzeitig von verschiedenen Anbietern bereitgestellt werden können. Dienste müssen dabei sowohl die funktionalen als auch die nicht-funktionalen Quality of Service (QoS) Anforderungen der Klienten erfüllen, um Kundenzufriedenheit garantieren zu können. Die Vielzahl der angebotenen Dienste und die unterschiedlichen Anforderungen der Klienten machen eine manuelle Entdeckung und ein manuelles Management der Dienste praktisch unmöglich. ADDOaction adressiert genau diese Probleme einer dienstorientierten Architektur und liefert innovative Lösungen von der automatischen Entdeckung von Diensten bis hin zur Überwachung und zum Management von Diensten zur Laufzeit.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Einhergehend mit der Entwicklung und zunehmenden Verfügbarkeit des Internets hat sich die Art der Informationsbereitstellung und der Informationsbeschaffung deutlich geändert. Die einstmalige Trennung zwischen Publizist und Konsument wird durch kollaborative Anwendungen des sogenannten Web 2.0 aufgehoben, wo jeder Teilnehmer gleichsam Informationen bereitstellen und konsumieren kann. Zudem können Einträge anderer Teilnehmer erweitert, kommentiert oder diskutiert werden. Mit dem Social Web treten schließlich die sozialen Beziehungen und Interaktionen der Teilnehmer in den Vordergrund. Dank mobiler Endgeräte können zu jeder Zeit und an nahezu jedem Ort Nachrichten verschickt und gelesen werden, neue Bekannschaften gemacht oder der aktuelle Status dem virtuellen Freundeskreis mitgeteilt werden. Mit jeder Aktivität innerhalb einer solchen Applikation setzt sich ein Teilnehmer in Beziehung zu Datenobjekten und/oder anderen Teilnehmern. Dies kann explizit geschehen, indem z.B. ein Artikel geschrieben wird und per E-Mail an Freunde verschickt wird. Beziehungen zwischen Datenobjekten und Nutzern fallen aber auch implizit an, wenn z.B. die Profilseite eines anderen Teilnehmers aufgerufen wird oder wenn verschiedene Teilnehmer einen Artikel ähnlich bewerten. Im Rahmen dieser Arbeit wird ein formaler Ansatz zur Analyse und Nutzbarmachung von Beziehungsstrukturen entwickelt, welcher auf solchen expliziten und impliziten Datenspuren aufbaut. In einem ersten Teil widmet sich diese Arbeit der Analyse von Beziehungen zwischen Nutzern in Applikationen des Social Web unter Anwendung von Methoden der sozialen Netzwerkanalyse. Innerhalb einer typischen sozialen Webanwendung haben Nutzer verschiedene Möglichkeiten zu interagieren. Aus jedem Interaktionsmuster werden Beziehungsstrukturen zwischen Nutzern abgeleitet. Der Vorteil der impliziten Nutzer-Interaktionen besteht darin, dass diese häufig vorkommen und quasi nebenbei im Betrieb des Systems abfallen. Jedoch ist anzunehmen, dass eine explizit angegebene Freundschaftsbeziehung eine stärkere Aussagekraft hat, als entsprechende implizite Interaktionen. Ein erster Schwerpunkt dieser Arbeit ist entsprechend der Vergleich verschiedener Beziehungsstrukturen innerhalb einer sozialen Webanwendung. Der zweite Teil dieser Arbeit widmet sich der Analyse eines der weit verbreitetsten Profil-Attributen von Nutzern in sozialen Webanwendungen, dem Vornamen. Hierbei finden die im ersten Teil vorgestellten Verfahren und Analysen Anwendung, d.h. es werden Beziehungsnetzwerke für Namen aus Daten von sozialen Webanwendungen gewonnen und mit Methoden der sozialen Netzwerkanalyse untersucht. Mithilfe externer Beschreibungen von Vornamen werden semantische Ähnlichkeiten zwischen Namen bestimmt und mit jeweiligen strukturellen Ähnlichkeiten in den verschiedenen Beziehungsnetzwerken verglichen. Die Bestimmung von ähnlichen Namen entspricht in einer praktischen Anwendung der Suche von werdenden Eltern nach einem passenden Vornamen. Die Ergebnisse zu der Analyse von Namensbeziehungen sind die Grundlage für die Implementierung der Namenssuchmaschine Nameling, welche im Rahmen dieser Arbeit entwickelt wurde. Mehr als 35.000 Nutzer griffen innerhalb der ersten sechs Monate nach Inbetriebnahme auf Nameling zu. Die hierbei anfallenden Nutzungsdaten wiederum geben Aufschluss über individuelle Vornamenspräferenzen der Anwender. Im Rahmen dieser Arbeit werden diese Nutzungsdaten vorgestellt und zur Bestimmung sowie Bewertung von personalisierten Vornamensempfehlungen verwendet. Abschließend werden Ansätze zur Diversifizierung von personalisierten Vornamensempfehlungen vorgestellt, welche statische Beziehungsnetzwerke für Namen mit den individuellen Nutzungsdaten verknüpft.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Enterprise-Resource-Planning-Systeme (ERP-Systeme) bilden für die meisten mittleren und großen Unternehmen einen essentiellen Bestandteil ihrer IT-Landschaft zur Verwaltung von Geschäftsdaten und Geschäftsprozessen. Geschäftsdaten werden in ERP-Systemen in Form von Geschäftsobjekten abgebildet. Ein Geschäftsobjekt kann mehrere Attribute enthalten und über Assoziationen zu anderen Geschäftsobjekten einen Geschäftsobjektgraphen aufspannen. Existierende Schnittstellen ermöglichen die Abfrage von Geschäftsobjekten, insbesondere mit Hinblick auf deren Attribute. Die Abfrage mit Bezug auf ihre Position innerhalb des Geschäftsobjektgraphen ist jedoch über diese Schnittstellen häufig nur sehr schwierig zu realisieren. Zur Vereinfachung solcher Anfragen können semantische Technologien, wie RDF und die graphbasierte Abfragesprache SPARQL, verwendet werden. SPARQL ermöglicht eine wesentlich kompaktere und intuitivere Formulierung von Anfragen gegen Geschäftsobjektgraphen, als es mittels der existierenden Schnittstellen möglich ist. Die Motivation für diese Arbeit ist die Vereinfachung bestimmter Anfragen gegen das im Rahmen dieser Arbeit betrachtete SAP ERP-System unter Verwendung von SPARQL. Zur Speicherung von Geschäftsobjekten kommen in ERP-Systemen typischerweise relationale Datenbanken zum Einsatz. Die Bereitstellung von SPARQL-Endpunkten auf Basis von relationalen Datenbanken ist ein seit längerem untersuchtes Gebiet. Es existieren verschiedene Ansätze und Tools, welche die Anfrage mittels SPARQL erlauben. Aufgrund der Komplexität, der Größe und der Änderungshäufigkeit des ERP-Datenbankschemas können solche Ansätze, die direkt auf dem Datenbankschema aufsetzen, nicht verwendet werden. Ein praktikablerer Ansatz besteht darin, den SPARQL-Endpunkt auf Basis existierender Schnittstellen zu realisieren. Diese sind weniger komplex als das Datenbankschema, da sie die direkte Abfrage von Geschäftsobjekten ermöglichen. Dadurch wird die Definition des Mappings erheblich vereinfacht. Das ERP-System bietet mehrere Schnittstellen an, die sich hinsichtlich des Aufbaus, der Zielsetzung und der verwendeten Technologie unterscheiden. Unter anderem wird eine auf OData basierende Schnittstelle zur Verfügung gestellt. OData ist ein REST-basiertes Protokoll zur Abfrage und Manipulation von Daten. Von den bereitgestellten Schnittstellen weist das OData-Interface gegenüber den anderen Schnittstellen verschiedene Vorteile bei Realisierung eines SPARQL-Endpunktes auf. Es definiert eine Abfragesprache und einen Link-Adressierungsmechanismus, mit dem die zur Beantwortung einer Anfrage benötigten Service-Aufrufe und die zu übertragende Datenmenge erheblich reduziert werden können. Das Ziel dieser Arbeit besteht in der Entwicklung eines Verfahrens zur Realisierung eines SPARQL-Endpunktes auf Basis von OData-Services. Dazu wird zunächst eine Architektur vorgestellt, die als Grundlage für die Implementierung eines entsprechenden Systems dienen kann. Ausgehend von dieser Architektur, werden die durch den aktuellen Forschungsstand noch nicht abgedeckten Bereiche ermittelt. Nach bestem Wissen ist diese Arbeit die erste, welche die Abfrage von OData-Schnittstellen mittels SPARQL untersucht. Dabei wird als Teil dieser Arbeit ein neuartiges Konzept zur semantischen Beschreibung von OData-Services vorgestellt. Dieses ermöglicht die Definition von Abbildungen der von den Services bereitgestellten Daten auf RDF-Graphen. Aufbauend auf den Konzepten zur semantischen Beschreibung wird eine Evaluierungssemantik erarbeitet, welche die Auflösung von Ausdrücken der SPARQL-Algebra gegen semantisch annotierte OData-Services definiert. Dabei werden die Daten aller OData-Services ermittelt, die zur vollständigen Abarbeitung einer Anfrage benötigt werden. Zur Abfrage der relevanten Daten wurden Konzepte zur Erzeugung der entsprechenden OData-URIs entwickelt. Das vorgestellte Verfahren wurde prototypisch implementiert und anhand zweier Anwendungsfälle für die im betrachteten Szenario maßgeblichen Servicemengen evaluiert. Mit den vorgestellten Konzepten besteht nicht nur die Möglichkeit, einen SPARQL-Endpunkt für ein ERP-System zu realisieren, vielmehr kann jede Datenquelle, die eine OData-Schnittstelle anbietet, mittels SPARQL angefragt werden. Dadurch werden große Datenmengen, die bisher für die Verarbeitung mittels semantischer Technologien nicht zugänglich waren, für die Integration mit dem Semantic Web verfügbar gemacht. Insbesondere können auch Datenquellen, deren Integration miteinander bisher nicht oder nur schwierig möglich war, über Systeme zur föderierten Abfrage miteinander integriert werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Das hier frei verfügbare Skript und die Sammlung an Klausuren mit Musterlösungen aus den Jahren 2006 bis 2015 geht auf die gleichnamige Vorlesung im Bachelorstudiengang Informatik an der Universität Kassel zurück, die von Prof. Dr. Wegner und ab 2012 von Dr. Schweinsberg angeboten wurde. Behandelt werden die Grundlagen der eXtensible Markup Language, die sich als Datenaustauschsprache etabliert hat. Im Gegensatz zu HTML erlaubt sie die semantische Anreicherung von Dokumenten. In der Vorlesung wird die Entwicklung von XML-basierten Sprachen sowie die Transformierung von XML-Dokumenten mittels Stylesheets (eXtensible Stylesheet Language XSL) behandelt. Ebenfalls werden die DOM-Schnittstelle (Document Object Model) und SAX (Simple API for XML) vorgestellt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Realisierung des 3He-Kreislaufs zur 3He-Magnet-Resonanz-Tomographie In der vorliegenden Dissertation wurde ein 3He-Kreislauf für die 3He-Magnet-Resonanz-Tomographie realisiert. Dazu wurde eine einfache Methode entwickelt, mit deren Hilfe es möglich ist,die Kernspinpolarisation von hyperpolarisiertem 3He bei hohen Drucken zu bestimmen.Bei einem Druck von ca. 3 bar konnte die Polarisation bis auf einen relativen Fehlervon etwa 5 % genau bestimmt werden. Zum Transport des polarisierten 3He wurden Magnetfelder konstruiert, die in einem Volumenbis zu V = 13,8 l ein homogenes Führungsfeld bereitstellen. Diese besitzen eineabschirmende Wirkung auf äußere Felder, und die benötigten magnetischen Flußdichten vonetwa 8 Gauá werden durch Permanentmagneten erzeugt. Bei geschwindigkeitsgewichteten Untersuchungen an zylindrischen Phantomen und Probandenkonnte laminare Strömung von 3He-Luftgemischen mit der Methode der 3He-vMRT bestimmtwerden. Bei zweidimensionalen Untersuchungen ließen sich laminare Strömungsprofile mitihren absoluten, ortsabhängigen Geschwindigkeiten ermitteln, während eindimensionalenMessungen ebenfalls laminare Strömungsprofile zeigten. Mit einer eigens entwickelten He-Aufbereitung wurden bis zu 95,8 % des eingeatmetenHeliums aus dem ausgeatmeten Gas zurückgewonnen. Der Anfangsgehalt an Helium betrugetwa 2 % und konnte um mehr als 6 Größenordnungen angereichert werden. Die Gasreinheitreichte aus, um eine erneute Polarisation des 3He zu ermöglichen. Die erreichteMaximalpolarisation lag dabei nur geringfügig unter der mit originalem 3He.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In contrast to formal semantics, the conjunction and is nonsymmetrical in pragmatics. The events in Marc went to bed and fell asleep seem to have occurred chronologically although no explicit time reference is given. As the temporal interpretation appears to be weaker in Mia ate chocolate and drank milk, it seems that the kind and nature of events presented in a context influences the interpretation of the conjunction. This work focuses on contextual influences on the interpretation of the German conjunction und (‘and’). A variety of theoretic approaches are concerned with whether and contributes to the establishment of discourse coherence via pragmatic processes or whether the conjunction has complex semantic meaning. These approaches are discussed with respect to how they explain the temporal and additive interpretation of the conjunction and the role of context in the interpre-tation process. It turned out that most theoretic approaches do not consider the importance of different kinds of context in the interpretation process.rnIn experimental pragmatics there are currently only very few studies that investigate the inter-pretation of the conjunction. As there are no studies that investigate contextual influences on the interpretation of und systematically or investigate preschoolers interpretation of the con-junction, research questions such as How do (preschool) children interpret ‘und’? and Does the kind of events conjoined influence children’s and adults’ interpretation? are yet to be answered. Therefore, this dissertation systematically investigates how different types of context influence children’s interpretation of und. Three auditory comprehension studies were conducted in German. Of special interest was whether and how the order of events introduced in a context contributes to the temporal read-ing of the conjunction und. Results indicate that the interpretation of und is – at least in Ger-man – context-dependent: The conjunction is interpreted temporally more often when events that typical occur in a certain order are connected (typical contexts) compared to events with-out typical event order (neutral contexts). This suggests that the type of events conjoined in-fluences the interpretation process. Moreover, older children and adults interpret the conjunc-tion temporally more often than the younger cohorts if the conjoined events typically occur in a certain order. In neutral contexts, additive interpretations increase with age. 5-year-olds reject reversed order statements more often in typical contexts compared to neutral contexts. However, they have more difficulties with reversed order statements in typical contexts where they perform at chance level. This suggests that not only the type of event but also other age-dependent factors such as knowledge about scripts influence children’s performance. The type of event conjoined influences children’s and adults’ interpretation of the conjunction. There-fore, the influence of different event types and script knowledge on the interpretation process does not only have to be considered in future experimental studies on language acquisition and pragmatics but also in experimental pragmatics in general. In linguistic theories, context has to be given a central role and a commonly agreed definition of context that considers the consequences arising from different event types has to be agreed upon.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Im Baugewerbe fallen jährlich mehrere Millionen Tonnen an Baureststoffen an, die nach erfolgter Aufbereitung als Recycling-Baustoffe erneut verwendet werden können. Allerdings besteht Unklarheit hinsichtlich der Stofffreisetzung aus Recycling-Materialien sowie der Parameter, die zur Beurteilung im Wesentlichen heranzuziehen sind. Des Weiteren gilt es der Frage nachzugehen, welche Laborversuche eine realistische Prognose zum Stoffaustrag unter Freilandbedingungen ermöglichen. Ein Ergebnisvergleich aus Feld- und Laborversuchen mit Recycling-Materialien zeigt, dass weder Ammoniumnitrat-Extraktion, pH-stat Versuch noch S4- und Modifizierter S4-Test genauere Prognosen zum Stoffaustrag unter Freilandbedingungen ermöglichen. Mit einem Langzeit-Standtest sowie Schüttelversuchen mit unterschiedlichen Wasser/Feststoff-Verhältnissen lässt sich der Einfluss durch verschiedene Korngrößen sowie Materialabrieb besser kontrollieren. Diese Versuchskombination erlaubt Rückschlüsse auf die Löslichkeit und Verfügbarkeit von Stoffen in den Recycling-Materialien. Die Ergebnisse aus Säulenversuchen weisen auf eine gute Vergleichbarkeit mit den Feldversuchen hin, was sich an denselben vorherrschenden Prozessen bei der Freisetzung für eine Reihe von Stoffen zeigt. Bei mehreren Stoffen treten ähnliche Konzen-trationshöchstwerte bei Säulen- und Feldversuch auf, ebenso zeigt der Vergleich aufsummierter Massenanteile für den Säulenversuch, dass bei einer Reihe von Stoffen eine grobe Abschätzbarkeit für eine Langzeitprognose unter Freilandbedingungen existiert. Als wesentliche Parameter für die Stofffreisetzung aus den Recycling-Materialien sind neben CO2-Einfluss und pH-Wert ebenfalls Temperatureinfluss, Material-Heterogenität sowie einzusetzende Korngröße anzusehen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Additive, pulverbasierte Schichtbauverfahren, wie das Selektive Masken- oder La-sersintern, ermöglichen die Fertigung von komplexen Bauteilen ohne Werkzeug und Form. Aufgrund der hohen, verarbeitungsbedingten Bauraumtemperaturen kommt es während der Verarbeitung zu physikalischem und thermisch-oxidativem Abbau der eingesetzten Kunststoffpulver. Das im Bauraum nicht aufgeschmolzene Material, der so genannte Partcake, kann nach dem Bauprozess vom fertigen Bauteil entfernt und für weitere Bauprozesse verwendet werden. Zur Realisierung reproduzierbarer Bau-teileigenschaften ist jedoch eine Aufbereitung („Refreshen“) des Partcake-Pulvers notwendig. Im Rahmen des Beitrags werden Erkenntnisse zum Alterungsverhalten von Kunst-stoffpulvern vorgestellt. In einem Modellversuch wurde der Verarbeitungsprozess für PA12-Pulver nachgestellt und somit verschiedene Alterungsstufen generiert. Beson-deres Augenmerk wurde auf den Einfluss einer Materialvorbehandlung gelegt. Die gealterten Pulver wurden physikalisch und thermoanalytisch hinsichtlich ihrer verar-beitungsrelevanten Materialeigenschaften untersucht.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Web 2.0 und soziale Netzwerke gaben erste Impulse für neue Formen der Online-Lehre, welche die umfassende Vernetzung von Objekten und Nutzern im Internet nachhaltig einsetzen. Die Vielfältigkeit der unterschiedlichen Systeme erschwert aber deren ganzheitliche Nutzung in einem umfassenden Lernszenario, das den Anforderungen der modernen Informationsgesellschaft genügt. In diesem Beitrag wird eine auf dem Konnektivismus basierende Plattform für die Online-Lehre namens “Wiki-Learnia” präsentiert, welche alle wesentlichen Abschnitte des lebenslangen Lernens abbildet. Unter Einsatz zeitgemäßer Technologien werden nicht nur Nutzer untereinander verbunden, sondern auch Nutzer mit dedizierten Inhalten sowie ggf. zugehörigen Autoren und/oder Tutoren verknüpft. Für ersteres werden verschiedene Kommunikations-Werkzeuge des Web 2.0 (soziale Netzwerke, Chats, Foren etc.) eingesetzt. Letzteres fußt auf dem sogenannten “Learning-Hub”-Ansatz, welcher mit Hilfe von Web-3.0-Mechanismen insbesondere durch eine semantische Metasuchmaschine instrumentiert wird. Zum Aufzeigen der praktischen Relevanz des Ansatzes wird das mediengestützte Juniorstudium der Universität Rostock vorgestellt, ein Projekt, das Schüler der Abiturstufe aufs Studium vorbereitet. Anhand der speziellen Anforderungen dieses Vorhabens werden der enorme Funktionsumfang und die große Flexibilität von Wiki-Learnia demonstriert.