21 resultados para selbstorganisiertes Lernen

em ArchiMeD - Elektronische Publikationen der Universität Mainz - Alemanha


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Die zentrale Untersuchungsfrage lautet: Welche Voraussetzungen müssen Kinder mitbringen, um Lernsoftware optimal nutzen zu können? Diese Frage wurde anhand der Voraussetzung „Leseverständnis“, als Basiskompetenz, sowie darüber hinausgehenden Voraussetzungen, „Interesse“ und „PC-Erfahrung“, untersucht. Die Studie „Lesen am Computer“ (LaC) betrachtete erstmals die effiziente Nutzung von Informationsquellen. Das Verhältnis von Print- und Hypertext-Lesekompetenz sowie Einflussfaktoren wurden hierbei erkundet. Es handelte sich um eine Zusatzstudie zur Internationalen Grundschul-Leseuntersuchung (IGLU) bzw. zur Erhebung „Kompetenzen und Einstellungen von Schülerinnen und Schülern (KESS). Die vorliegende Arbeit stellt eine quantitative Studie dar, wobei qualitative Methoden die Aussagen unterstützen. Es wurde das Leseverständnis von Mädchen und Jungen einer Hamburger Grundschule gemessen. Unter Berücksichtigung der Faktoren „Interesse am Thema und/oder Lernsoftware“ sowie „PC-Erfahrung“ wurde das Leseverständnis zum Multimediaverständnis in Beziehung gesetzt. Darüber hinaus wurden die Rezeptionsprozesse beobachtet und einzelne Fallbeispiele zur Interpretation herangezogen. Die Untersuchung hat gezeigt, dass die wichtigste Basisqualifikation beim Lernen mit neuen Medien ein gutes Leseverständnis ist und die Mädchen zum einen über ein besseres Leseverständnis und zum anderen über ein besseres Multimediaverständnis als die Jungen verfügen. Des Weiteren konnte dargelegt werden, dass sich die PC-Praxis eines Kindes nicht zwangsläufig mit seinen Fertigkeiten im Programm deckt und eine gute PC-Praxis hauptsächlich bei Kindern mit einem mäßigen Leseverständnis förderlich ist. Es lässt sich außerdem festhalten, dass die meisten Kinder Interesse am Thema aufweisen und dies überwiegend mit einem guten Leseverständnis und einem überdurchschnittlichen Multimediaverständnis gekoppelt ist. Die Hauptaufgaben des Unterrichts beziehen sich folglich auf das Arrangement von Lernprozessen. Die Einteilung in Rezeptionstypen ist eine wesentliche Aufgabe, um dementsprechend Teams zu bilden und Defizite auszugleichen. Ferner müssen Kinder mit einem guten bzw. mäßigen Leseverständnis unterschiedlich gefördert werden.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Vor dem Hintergrund sich wandelnder (medialer) Lebenswelten von Schülerinnen und Schülern gewinnen Bestimmungsversuche um medienpädagogische Handlungskompetenzen von Lehrpersonen an Bedeutung. Der Erwerb medienpädagogischer Kompetenz, verstanden als dynamisches Zusammenspiel von domänenspezifischem Wissen und anwendungsorientiertem Können, wird in der vorliegenden Arbeit als wesentliches Lernziel der medienpädagogischen (Aus-)Bildung bestimmt. Als ein Weg zur Förderung medienpädagogischer Handlungskompetenz wird von der Autorin auf der Folie konstruktivistischer Vorstellungen über das Lehren und Lernen die Methode der Problemorientierung vorgeschlagen. Im ersten Teil der Arbeit werden Modelle und Konzepte diskutiert, die Bausteine für ein Modell medienpädagogischer Kompetenz liefern. Im zweiten Teil wird eine empirische Untersuchung zum Erwerb medienpädagogischer Handlungskompetenz auf der Basis eines von der Autorin erarbeiteten Modells vorgestellt und die Ergebnisse diskutiert. Eine kompetenztheoretische Annäherung erfolgt auf der Basis zweier Konzepte. Dies sind die Ausführungen zu einem Konzept kommunikativer Kompetenz nach Jürgen Habermas sowie dessen Überführung in die Medienpädagogik durch Dieter Baacke. Ferner wird die rezente bildungspolitische Kompetenzdebatte in Anbindung an Franz E. Weinert analysiert. Es folgt eine Zusammenschau über die methodischen Konzepte zur Erfassung von Kompetenzen in der Erziehungswissenschaft und deren Anwendbarkeit für die medienpädagogische Kompetenzforschung. Die gegenwärtig vorliegenden Entwürfe zu einer inhaltlichen Bestimmung medienpädagogischer Kompetenzen werden besprochen (Sigrid Blömeke, Werner Sesink, International Society for Technology in Education). Im Rekurs auf konstruktivistische lerntheoretische Überlegungen erfährt das problemorientierte Lernen beim Aufbau von Kompetenzen eine enorme Aufwertung. In der Arbeit wird insbesondere den Arbeiten von David Jonassen zu einer konstruktivistisch-instruktionistischen Herangehensweise bei der Gestaltung problemorientierter Lernumgebungen eine große Bedeutung zugesprochen (vgl. auch Ansätze des Goal-based Scenarios/Roger Schank und des Learning by Design/Janet Kolodner). Im zweiten Teil wird die Interventionsstudie im Kontrollgruppendesign vorgestellt. Anhand eines Modells medienpädagogischer Kompetenz, dass auf den Dimensionen Wissen einerseits und Können andererseits basiert, wurden Studierende (n=59) in einem Pre-Posttestverfahren auf diese Dimensionen getestet. Die Studierenden der Interventionsgruppe (n=30) arbeiteten über ein Semester mit einer problemorientierten Lernanwendung, die Studierenden der Kontrollgruppe (n=29) in einem klassischen Seminarsetting. Hauptergebnis der Untersuchung ist es, das die Intervention zu einem messbaren Lernerfolg beim medienpädagogischen Können führte. In der Diskussion der Ergebnisse werden Empfehlungen zur Gestaltung problemorientierter Lernumgebungen formuliert. Die Chancen einer Orientierung an problemorientierten Lernsettings für das Lernen an Hochschulen werden herausgestellt.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Die Arbeit behandelt das Problem der Skalierbarkeit von Reinforcement Lernen auf hochdimensionale und komplexe Aufgabenstellungen. Unter Reinforcement Lernen versteht man dabei eine auf approximativem Dynamischen Programmieren basierende Klasse von Lernverfahren, die speziell Anwendung in der Künstlichen Intelligenz findet und zur autonomen Steuerung simulierter Agenten oder realer Hardwareroboter in dynamischen und unwägbaren Umwelten genutzt werden kann. Dazu wird mittels Regression aus Stichproben eine Funktion bestimmt, die die Lösung einer "Optimalitätsgleichung" (Bellman) ist und aus der sich näherungsweise optimale Entscheidungen ableiten lassen. Eine große Hürde stellt dabei die Dimensionalität des Zustandsraums dar, die häufig hoch und daher traditionellen gitterbasierten Approximationsverfahren wenig zugänglich ist. Das Ziel dieser Arbeit ist es, Reinforcement Lernen durch nichtparametrisierte Funktionsapproximation (genauer, Regularisierungsnetze) auf -- im Prinzip beliebig -- hochdimensionale Probleme anwendbar zu machen. Regularisierungsnetze sind eine Verallgemeinerung von gewöhnlichen Basisfunktionsnetzen, die die gesuchte Lösung durch die Daten parametrisieren, wodurch die explizite Wahl von Knoten/Basisfunktionen entfällt und so bei hochdimensionalen Eingaben der "Fluch der Dimension" umgangen werden kann. Gleichzeitig sind Regularisierungsnetze aber auch lineare Approximatoren, die technisch einfach handhabbar sind und für die die bestehenden Konvergenzaussagen von Reinforcement Lernen Gültigkeit behalten (anders als etwa bei Feed-Forward Neuronalen Netzen). Allen diesen theoretischen Vorteilen gegenüber steht allerdings ein sehr praktisches Problem: der Rechenaufwand bei der Verwendung von Regularisierungsnetzen skaliert von Natur aus wie O(n**3), wobei n die Anzahl der Daten ist. Das ist besonders deswegen problematisch, weil bei Reinforcement Lernen der Lernprozeß online erfolgt -- die Stichproben werden von einem Agenten/Roboter erzeugt, während er mit der Umwelt interagiert. Anpassungen an der Lösung müssen daher sofort und mit wenig Rechenaufwand vorgenommen werden. Der Beitrag dieser Arbeit gliedert sich daher in zwei Teile: Im ersten Teil der Arbeit formulieren wir für Regularisierungsnetze einen effizienten Lernalgorithmus zum Lösen allgemeiner Regressionsaufgaben, der speziell auf die Anforderungen von Online-Lernen zugeschnitten ist. Unser Ansatz basiert auf der Vorgehensweise von Recursive Least-Squares, kann aber mit konstantem Zeitaufwand nicht nur neue Daten sondern auch neue Basisfunktionen in das bestehende Modell einfügen. Ermöglicht wird das durch die "Subset of Regressors" Approximation, wodurch der Kern durch eine stark reduzierte Auswahl von Trainingsdaten approximiert wird, und einer gierigen Auswahlwahlprozedur, die diese Basiselemente direkt aus dem Datenstrom zur Laufzeit selektiert. Im zweiten Teil übertragen wir diesen Algorithmus auf approximative Politik-Evaluation mittels Least-Squares basiertem Temporal-Difference Lernen, und integrieren diesen Baustein in ein Gesamtsystem zum autonomen Lernen von optimalem Verhalten. Insgesamt entwickeln wir ein in hohem Maße dateneffizientes Verfahren, das insbesondere für Lernprobleme aus der Robotik mit kontinuierlichen und hochdimensionalen Zustandsräumen sowie stochastischen Zustandsübergängen geeignet ist. Dabei sind wir nicht auf ein Modell der Umwelt angewiesen, arbeiten weitestgehend unabhängig von der Dimension des Zustandsraums, erzielen Konvergenz bereits mit relativ wenigen Agent-Umwelt Interaktionen, und können dank des effizienten Online-Algorithmus auch im Kontext zeitkritischer Echtzeitanwendungen operieren. Wir demonstrieren die Leistungsfähigkeit unseres Ansatzes anhand von zwei realistischen und komplexen Anwendungsbeispielen: dem Problem RoboCup-Keepaway, sowie der Steuerung eines (simulierten) Oktopus-Tentakels.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Im Forschungsgebiet der Künstlichen Intelligenz, insbesondere im Bereich des maschinellen Lernens, hat sich eine ganze Reihe von Verfahren etabliert, die von biologischen Vorbildern inspiriert sind. Die prominentesten Vertreter derartiger Verfahren sind zum einen Evolutionäre Algorithmen, zum anderen Künstliche Neuronale Netze. Die vorliegende Arbeit befasst sich mit der Entwicklung eines Systems zum maschinellen Lernen, das Charakteristika beider Paradigmen in sich vereint: Das Hybride Lernende Klassifizierende System (HCS) wird basierend auf dem reellwertig kodierten eXtended Learning Classifier System (XCS), das als Lernmechanismus einen Genetischen Algorithmus enthält, und dem Wachsenden Neuralen Gas (GNG) entwickelt. Wie das XCS evolviert auch das HCS mit Hilfe eines Genetischen Algorithmus eine Population von Klassifizierern - das sind Regeln der Form [WENN Bedingung DANN Aktion], wobei die Bedingung angibt, in welchem Bereich des Zustandsraumes eines Lernproblems ein Klassifizierer anwendbar ist. Beim XCS spezifiziert die Bedingung in der Regel einen achsenparallelen Hyperquader, was oftmals keine angemessene Unterteilung des Zustandsraumes erlaubt. Beim HCS hingegen werden die Bedingungen der Klassifizierer durch Gewichtsvektoren beschrieben, wie die Neuronen des GNG sie besitzen. Jeder Klassifizierer ist anwendbar in seiner Zelle der durch die Population des HCS induzierten Voronoizerlegung des Zustandsraumes, dieser kann also flexibler unterteilt werden als beim XCS. Die Verwendung von Gewichtsvektoren ermöglicht ferner, einen vom Neuronenadaptationsverfahren des GNG abgeleiteten Mechanismus als zweites Lernverfahren neben dem Genetischen Algorithmus einzusetzen. Während das Lernen beim XCS rein evolutionär erfolgt, also nur durch Erzeugen neuer Klassifizierer, ermöglicht dies dem HCS, bereits vorhandene Klassifizierer anzupassen und zu verbessern. Zur Evaluation des HCS werden mit diesem verschiedene Lern-Experimente durchgeführt. Die Leistungsfähigkeit des Ansatzes wird in einer Reihe von Lernproblemen aus den Bereichen der Klassifikation, der Funktionsapproximation und des Lernens von Aktionen in einer interaktiven Lernumgebung unter Beweis gestellt.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In der vorliegenden Arbeit wurden die durch Training induzierten motorischen Gedächtnisleistungen der Taufliege Drosophila melanogaster beim Überklettern von acht symmetrisch verteilten Lücken auf einem rotierenden Ring untersucht. Durch den auf sie einwirkenden optischen Fluss der vorbeiziehenden äußeren Umgebung wurden die Fliegen angeregt, diesem optomotorischen Reiz entgegenzuwirken und die Lücken laufend zu überqueren. Durch Training verbessert und langfristig gelernt wird die kompensatorische Lückenüberquerung X+ gegen die Rotation. In der aus diesem Training erhaltenen Lernkurve war eine überdurchschnittlich hohe Leistungsverbesserung nach einem einzigen Trainingslauf mit einem zeitlichen Bestand von ca. 40 Minuten abzulesen, um danach vom motorischen Gedächtnisspeicher trainierter Fliegen nicht mehr abgerufen werden zu können. Nach einer Ruhephase von einem bis mehreren Tagen wurden die Fliegen auf mögliche Langzeitlernleistungen untersucht und diese für verschiedene Intervalle nachgewiesen. Sowohl die Leistungsverbesserung während des Trainings, als auch der Lerneffekt nach 24h bleiben in mutanten rutabaga2080 sowie rut1 Fliegen aus. Betroffen ist das Gen der Adenylylzyklase I, ein Schlüsselprotein der cAMP-Signalkaskade, die u.a. im olfaktorischen und visuellen Lernen gebraucht wird. Damit ergab sich die Möglichkeit die motorischen Gedächtnisformen durch partielle Rettung zu kartieren. Die motorische Gedächtniskonsolidierung ist schlafabhängig. Wie sich herausstellte, benötigen WTB Fliegen nur eine Dunkelphase von 10h zwischen einem ersten Trainingslauf und einem Testlauf um signifikante Leistungssteigerungen zu erzielen. In weiterführenden Versuchen wurden die Fliegen nachts sowie tagsüber mit einer LED-Lampe oder in einer Dunkelkammer, mit einem Kreisschüttler oder einer Laborwippe depriviert, mit dem Ergebnis, dass nur jene Fliegen ihre Leistung signifikant gegenüber einem ersten Trainingslauf verbessern konnten, welche entweder ausschließlich der Dunkelheit ausgesetzt waren oder welchen die Möglichkeit gegeben wurde, ein Gedächtnis zunächst in einer natürlichen Schlafphase zu konsolidieren (21Uhr bis 7Uhr MEZ). In weiteren Experimenten wurden die experimentellen Bedingungen entweder während des Trainings oder des Tests auf eine Fliege und damit verbunden auf eine erst durch das Training mögliche motorische Gedächtniskonsolidierung einwirken zu können, untersucht. Dazu wurden die Experimentparameter Lückenweite, Rotationsrichtung des Lückenringes, Geschwindigkeit des Lückenringes sowie die Verteilung der acht Lücken auf dem Ring (symmetrisch, asymmetrisch) im Training oder beim Gedächtnisabruf im Testlauf verändert. Aus den Ergebnissen kann geschlussfolgert werden, dass die Lückenweite langzeitkonsolidiert wird, die Rotationsrichtung kurzzeitig abgespeichert wird und die Drehgeschwindigkeit motivierend auf die Fliegen wirkt. Die symmetrische Verteilung der Lücken auf dem Ring dient der Langzeitkonsolidierung und ist als Trainingseingang von hoher Wichtigkeit. Mit Hilfe verschiedener Paradigmen konnten die Leistungsverbesserungen der Fliegen bei Abruf eines Kurz- bzw. Langzeitgedächtnisses hochauflösend betrachtet werden (Transfer). Die Konzentration, mit der eine WTB Fliege eine motorische Aufgabe - die Überquerung von Lücken entgegengesetzt der Rotationsrichtung - durchführt, konnte mit Hilfe von Distraktoreizen bestimmt werden. Wie sich herausstellte, haben Distraktoren einen Einfluss auf die Erfolgsquote einer Überquerung, d.h. mit zunehmender Distraktionsstärke nahm die Wahrscheinlichkeit einer Lückenüberquerung ab. Die Ablenkungsreize wirkten sich weiterhin auf die Vermessung einer Lücke aus, in dem entweder "peering"-artigen Bewegungen im Training durchgeführt wurden oder je nach Reizstärke ausschließlich nur jene Lücken vermessen wurden, welche auch überquert werden sollten.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die vorliegende Arbeit beschreibt die Wirkung von Hyperforin, einem Johanniskraut-Inhaltsstoff, auf das zentrale cholinerge System. Da der HACU Na+-abhängig operiert und Hyperforin den transmembranären Na+-Gradienten verringert, wurde an Rattenkortex-Synaptosomen in vitro geprüft, ob der HACU durch Hyperforin gehemmt wird. Es wurde gefunden, dass Hyperforin den HACU mit einer Hemmkonstante IC50 von 8.5 µM inhibiert. Da die de novo-ACh-Synthese direkt HACU-Aktivitäts-abhängig ist, wurde in vivo mittels Mikrodialyse-Technik verifziert, ob die cholinerge Transmission beeinflusst wird. Lokale Infusionen von 100 µM Hyperforin in das Striatum resultierten in einer Reduktion der ACh-Freisetzung bei parallelem Ch-Spiegel-Anstieg bedingt durch die HACU-Inhibition. Infusionen niedrigerer Konzentration (10 und 30 µM) führten hingegen zu einer konzentrations-abhängigen Stimulation der ACh-Freisetzung bei simultaner Ch-Spiegel-Senkung. Systemische Applikation von 1 und 10 mg/kg i.p. resultierten in einer verstärkten ACh-Freisetzung im Striatum und im Hippokampus; diese Dosen führen zu therapeutisch relevanten Plasmaspiegeln. Die Ergebnisse im Striatum und im Hippokampus erklären die motilitätsverringernden Effekte im Tierexperiment bzw. die benignen Effekte in Verhaltensmodellen für Lernen und Gedächtnis. Die vergleichende Analyse der Mikrodialyse-Experimente ergab, dass eine antidepressive Johanniskraut-Begleitmedikation bei Parkinson ungünstig, jedoch Alzheimer günstig zu bewerten ist.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Somatostatin ist ein Molekül mit multifunktinonellem Charakter, dem Neurotransmitter-, Neuromodulator- und (Neuro)-Hormoneigenschaften zugeschrieben werden. Gemäß seiner ubiquitären Verteilung in Geweben beeinflusst es Stoffwechsel- und Entwicklungsprozesse, bis hin zu Lern-und Gedächtnisleistungen. Diese Wirkungen resultieren aus dem lokalen und zeitlichen Zusammenspiel eines Liganden und fünf G-Protein gekoppelter Rezeptoren (SSTR1-5). Zur Charakterisierung der biologischen Bedeutung des Somatostatin-Systems im Gesamtorganismus wurde eine Mutationsanalyse einzelner Systemkomponenten durchgeführt. Sie umfaßte die Inaktivierung der Gene für das Somatostatin-Präpropeptid und die der Rezeptoren SSTR3 und SSTR4 durch Gene Targeting. Die entsprechenden Ausfallmutationen belegen: Weder die Rezeptoren 3 und 4, noch Somatostatin sind für das Überleben des Organismus unter Standardhaltungsbedingungen notwendig. Die entsprechenden Mauslinien zeigen keine unmittelbar auffälligen Einschränkungen ihrer Biologie. Die Somatostatin-Nullmaus wurde zum Hauptgegenstand einer detaillierten Untersuchung aufgrund der übergeordneten Position des Liganden in der Signalkaskade und verfügbaren Hinweisen zu seiner Funktion. Folgende Schlußfolgerungen konnten nach eingehender Analyse gezogen werden: Der Ausfall des Somatostatin-Gens hat erhöhte Plasmakonzentrationen an Wachstumshormon (GH) zur Konsequenz. Dies steht im Einklang mit der Rolle Somatostatins als hemmender Faktor der Wachstumshormon-Freisetzung, die in der Mutante aufgehoben ist. Durch die Somatostatin-Nullmaus wurde zudem deutlich: Somatostatin interagiert als wesentliches Bindeglied zwischen der Wachstums- und Streßachse. Permanent erhöhte Corticosteron-Werte in den Mutanten implizieren einen negativen tonischen Einfluß für die Sekretion von Glukocorticoiden in vivo. Damit zeigt die Knockout-Maus, daß Somatostatin normalerweise als ein entscheidendes inhibierendes Kontrollelement der Steroidfreisetzung fungiert. Verhaltensversuche offenbarten ein Defizit im motorischen Lernen. Somatostatin-Nullmäuse bleiben im Lernparadigma “Rotierender Stabtest” hinter ihren Artgenossen zurück ohne aber generell in Motorik oder Koordination eingeschränkt zu sein. Diese motorischen Lernvorgänge sind von einem funktionierenden Kleinhirn abhängig. Da Somatostatin und seine Rezeptoren kaum im adulten, wohl aber im sich entwickelnden Kleinhirn auftreten, belegt dieses Ergebnis die Funktion transient in der Entwicklung exprimierter Neuropeptide – eine lang bestehende, aber bislang experimentell nicht nachgewiesene Hypothese. Die Überprüfung weiterer physiologischer Parameter und Verhaltenskategorien unter Standard-Laborbedingunggen ergab keine sichtbaren Abweichungen im Vergleich zu Wildtyp-Mäusen. Damit steht nun ein Tiermodell zur weiterführenden Analyse für die Somatostatin-Forschung bereit: In endokrinologischen, elektrophysiologischen und verhaltens-biologischen Experimenten ist nun eine unmittelbare Korrelation selektiv mit dem Somatostatin-Peptid bzw. mit den Rezeptoren 3 und 4 aber auch in Kombination der Ausfallmutationen nach entsprechenden Kreuzungen möglich.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die vorliegende Arbeit beschäftigt sich mit der Entwicklung eines Funktionsapproximators und dessen Verwendung in Verfahren zum Lernen von diskreten und kontinuierlichen Aktionen: 1. Ein allgemeiner Funktionsapproximator – Locally Weighted Interpolating Growing Neural Gas (LWIGNG) – wird auf Basis eines Wachsenden Neuralen Gases (GNG) entwickelt. Die topologische Nachbarschaft in der Neuronenstruktur wird verwendet, um zwischen benachbarten Neuronen zu interpolieren und durch lokale Gewichtung die Approximation zu berechnen. Die Leistungsfähigkeit des Ansatzes, insbesondere in Hinsicht auf sich verändernde Zielfunktionen und sich verändernde Eingabeverteilungen, wird in verschiedenen Experimenten unter Beweis gestellt. 2. Zum Lernen diskreter Aktionen wird das LWIGNG-Verfahren mit Q-Learning zur Q-LWIGNG-Methode verbunden. Dafür muss der zugrunde liegende GNG-Algorithmus abgeändert werden, da die Eingabedaten beim Aktionenlernen eine bestimmte Reihenfolge haben. Q-LWIGNG erzielt sehr gute Ergebnisse beim Stabbalance- und beim Mountain-Car-Problem und gute Ergebnisse beim Acrobot-Problem. 3. Zum Lernen kontinuierlicher Aktionen wird ein REINFORCE-Algorithmus mit LWIGNG zur ReinforceGNG-Methode verbunden. Dabei wird eine Actor-Critic-Architektur eingesetzt, um aus zeitverzögerten Belohnungen zu lernen. LWIGNG approximiert sowohl die Zustands-Wertefunktion als auch die Politik, die in Form von situationsabhängigen Parametern einer Normalverteilung repräsentiert wird. ReinforceGNG wird erfolgreich zum Lernen von Bewegungen für einen simulierten 2-rädrigen Roboter eingesetzt, der einen rollenden Ball unter bestimmten Bedingungen abfangen soll.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Diese Arbeit ist der Versuch einer Bestandsaufnahme der Diskussion um die Rolle des Fachs Eth¬nologie in den allgemeinbildenden Schulen. Eine solche Übersicht zu den im deutschsprachigen Raum veröffentlichten Beiträgen lag bis dahin noch nicht vor. Sie reicht zurück bis zum Ende des 19. Jahrhunderts. Im vorliegenden Papier wurden die grundlegenden Argumentationen dargelegt, mit denen Fachvertreter und -vertreterinnen ein völkerkundliches/ethnologisches Engagement in den Schulen, in Schulbüchern und bei der Lehrerausbildung forderten. Mit einem historisch vertieften Vergleich dieser Argumentationen wurde angestrebt, Kontinuitäten und Brüche in der Diskussion darzustellen. Diese Perspektive ermöglichte zum einen die Darstel¬lung von älteren und kaum mehr rezipierten Beiträgen in einem größeren Rahmen, zum anderen jedoch auch eine Kritik der vorliegenden, oft nur vordergründig verschiedenen Ansätze. Im Schlusskapitel stellte der Autor essentialistische/relativistische und universalistische Ansätze gegenüber und formulierte darauf basierend Ausgangspunkte eines weiteren schulischen Engagements im Rahmen einer vergleichenden Sozialwissenschaft Ethnologie. Im Anhang der Arbeit befindet sich eine chronologische Biblioghraphie all jener Beiträge, die Ethnologen und Ethnologinnen zur Integration ihres Fachs in die Schulen verfassten.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This study examines the case of Vietnam and uses the method of process tracing to explore the sources of foreign policy choice and change. Foreign policy is derived from grand strategy, which refers to the full package of a state’s domestic and foreign policies. I argue that a state’s grand strategy results from the interaction of four factors—its society’s historical experience, social motivation, international power, and political contest among domestic groups. Grand strategies emerge as a response to perceived shifts in the balance of international economic, political, and military power. However, this is not to say that international pressures and incentives are translated into foreign policy. Rather, pressures and incentives are given meaning by worldviews, which reflect a society’s historical experiences of its place in the international system at traumatic junctures of its encounter with the outside world. Strategic changes in foreign policy follow what I call the “strategic algorithm,” which incorporates four major mechanisms—balancing against threat, bandwagoning with power, learning, and survival by transformation. This case study generates hypotheses for a theory of strategic choice, a theory of foreign policy transformation, and a theory of grand strategy emergence.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die bei Lern- und Gedächtnisvorgängen ablaufenden neurobiologischen Prozesse sind in ihrer Funktion bis heute nur unzureichend verstanden, wobei besonders die Rolle der lernabhängigen Genexpression unklar ist. Wiederholungen im Lernprozess fördern die Bildung von stabilen Gedächtnisinhalten. Die Lerneffiktivität kann hierbei durch lernfreie Zeitintervalle, insbesondere durch eingeschobene Schalfperioden, zusätzlich gesteigert werden. Entsprechend kann man den mehrtägigen Morris Water Maze (MWM)-Test mit einer verborgenen Plattform als einen mehrstufigen räumlichen Lernprozess bezeichnen. Dieser Test ist Hippokampus-abhängig und produziert Langzeitgedächtnisspuren in Nagern. Für diese Studie wurden FVB/NxC57Bl/6-Mäuse der F1-Generation über vier Tage in der MWM trainiert, das Erlernte in einem Probe Trial an Tag 5 überprüft und die Tiere gemäß ihrer Lernleistung in die beiden Gruppen „gute“ und „schlechte Lerner“ eingeteilt. Eine Analyse der hippokampalen Expression von Kandidatengenen per Microarray und Real-Time PCR erfolgte eine, sechs beziehungsweise 24 Stunden nach dem jeweils letzten Trainingslauf eines Tages. Durch den Vergleich von Schwimmkontrollen mit Test-naiven Mäusen wurde eine gleichgeschaltete, mit dem impliziten Lernen der MWM-Erfahrung der Tiere assoziierte unspezifische Genexpression festgestellt. Beim Vergleich der Schwimmkontrollen (ohne Plattform) mit den trainierten Tieren (verborgene Plattform mit konstanter Lokalisation) wurde in guten Lernern zu bestimmten Zeitpunkten eine Hochregulation von Genen, die mit Lernen und Gedächtnis (PP1, Kibra), neuronaler Aktivität (mt-CO1), Epigenetik (Dnmt3a, Dnmt3b) und neurodegenerativen Erkrankungen (Mapt, Sorl1) assoziiert sind, gefunden. Im Hippokampus der schlechten Lerner wurde eine im Vergleich zu den guten Lernern gesteigerte Synthese der mRNA von Genen festgestellt, die mit Lernen und Gedächtnis (Reelin, PP1, Kibra), Epigenetik (Dnmt1, Dnmt3a, Dnmt3b) und neurodegenerativen Erkrankungen (Mapt, Sorl1, APP) in Zusammenhang stehen. Diese Studie liefert somit den bisher ersten Hinweis, dass während eines mehrtägigen MWM-Lernprozesses eine abnormal erhöhte de novo-mRNA-Synthese mit verminderter Lernleistung in Zusammenhang steht.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die heutige Verfügbarkeit der molekularen Bildgebung ermöglicht einen signifikanten Einfluss auf die Diagnostik und die Therapiekontrolle von neurodegenerativen Erkrankungen, die unter anderem durch Fehlsteuerungen im GABAergen System auftreten können. Die Visualisierung und Quantifizierung des GABAA-alpha5-Subtyps durch PET könnte dabei zu einem besseren Verständnis von Erkrankungen wie Alzheimer und traumatischen Neurosen (emotionales Langzeitgedächtnis) beitragen. Ferner eröffnen GABAA/alpha5-subtypselektive Liganden die Möglichkeit, wesentliche Grundlagen der elementaren Vorgänge von Lernen und Erinnern zu untersuchen. 7,8,9,10-Tetrahydro-(7,10-ethan)-1,2,4-triazol[3,4-alpha]phthalazine stellen sich als vielverspre-chende Leitstrukturen zur Entwicklung neuer 18F-markierter alpha5-subtypselektiver GABAA-Rezeptorliganden für die PET dar. Um diese neuartigen Substanzen hinsichtlich ihrer Potenz als GABAA-alpha5-subtypselektive Radioliganden zu verifizieren, wurden zunächst die entsprechenden 19F-Derivate TC07-TC12 synthetisiert. Diese Referenzverbindungen wurden in Rezeptor-bindungsassays und in Autoradiographien mit [3H]Ro 15-4513 als zu verdrängender Radioligand evaluiert. In beiden Experimenten als auch in in vivo-Verdrängungsexperimenten an Ratten konnte eine hohe Affinität im nanomolaren Bereich als auch eine hohe Selektivität bezüglich der GABAA/alpha5-Untereinheit für einige der dargestellten Referenzverbindungen nachgewiesen werden. Gemäß diesen vielversprechenden Ergebnissen wurden verschiedene Markie-rungsvorläufer für eine 18F-Direktmarkierung der relevantesten Substanz TC07 in einer mehrstufigen organischen Synthese dargestellt. Die anschließende 18F-Markierung erfolgte über eine nukleophile Substitution mit [18F]Fluorid. Die Reaktionsparameter wurden hinsichtlich Reaktionstemperatur und dauer, Markierungsvorläuferkonzentration, Basenabhängigkeit und verschiedenen Markierungsmethoden optimiert. Daraus resultierend konnte [18F]TC07 mit bis zu 45 % radiochemischer Ausbeute erhalten werden. Die zerfallskorrigierte, gesamtradiochemische Ausbeute von nca [18F]TC07 in isotonischer NaCl-Lösung betrug 15 %. Basierend auf den bisher erhaltenen Ergebnissen wurde der Radioligand in in vitro-, ex vivo- und in vivo µPET-Experimenten evaluiert. Die zunächst durchgeführten in vitro-Experimente deuteten auf eine homogene Verteilung der Aktivität hin und zeigten keine spezifische Anreicherung. Diese Ergebnisse wurden sowohl in ex vivo- als auch in in vivo-µPET-Studien bestätigt. Auch hier konnte nur eine niedrige Aktivitätsanreicherung, eine homogene Verteilung im gesamten Gehirn und keine Übereinstimmung mit der bekannten GABAA/alpha5-Subtypverteilung gefunden werden. Eine im Anschluss durchgeführte Metabolismusstudie zeigte eine langsame Metabolisierungsrate des [18F]TC07 und auch eine Organverteilungsstudie zeigte keine außergewöhnlichen Anreicherungen. Aus den erhaltenen Ergebnissen kann geschlossen werden, dass der Radioligand [18F]TC07 kein geeigneter Tracer zur in vivo-Visualisierung der alpha5-Untereinheit des GABAA-Rezeptors ist.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Entstehung eines Marktpreises für einen Vermögenswert kann als Superposition der einzelnen Aktionen der Marktteilnehmer aufgefasst werden, die damit kumulativ Angebot und Nachfrage erzeugen. Dies ist in der statistischen Physik mit der Entstehung makroskopischer Eigenschaften vergleichbar, die von mikroskopischen Wechselwirkungen zwischen den beteiligten Systemkomponenten hervorgerufen werden. Die Verteilung der Preisänderungen an Finanzmärkten unterscheidet sich deutlich von einer Gaußverteilung. Dies führt zu empirischen Besonderheiten des Preisprozesses, zu denen neben dem Skalierungsverhalten nicht-triviale Korrelationsfunktionen und zeitlich gehäufte Volatilität zählen. In der vorliegenden Arbeit liegt der Fokus auf der Analyse von Finanzmarktzeitreihen und den darin enthaltenen Korrelationen. Es wird ein neues Verfahren zur Quantifizierung von Muster-basierten komplexen Korrelationen einer Zeitreihe entwickelt. Mit dieser Methodik werden signifikante Anzeichen dafür gefunden, dass sich typische Verhaltensmuster von Finanzmarktteilnehmern auf kurzen Zeitskalen manifestieren, dass also die Reaktion auf einen gegebenen Preisverlauf nicht rein zufällig ist, sondern vielmehr ähnliche Preisverläufe auch ähnliche Reaktionen hervorrufen. Ausgehend von der Untersuchung der komplexen Korrelationen in Finanzmarktzeitreihen wird die Frage behandelt, welche Eigenschaften sich beim Wechsel von einem positiven Trend zu einem negativen Trend verändern. Eine empirische Quantifizierung mittels Reskalierung liefert das Resultat, dass unabhängig von der betrachteten Zeitskala neue Preisextrema mit einem Anstieg des Transaktionsvolumens und einer Reduktion der Zeitintervalle zwischen Transaktionen einhergehen. Diese Abhängigkeiten weisen Charakteristika auf, die man auch in anderen komplexen Systemen in der Natur und speziell in physikalischen Systemen vorfindet. Über 9 Größenordnungen in der Zeit sind diese Eigenschaften auch unabhängig vom analysierten Markt - Trends, die nur für Sekunden bestehen, zeigen die gleiche Charakteristik wie Trends auf Zeitskalen von Monaten. Dies eröffnet die Möglichkeit, mehr über Finanzmarktblasen und deren Zusammenbrüche zu lernen, da Trends auf kleinen Zeitskalen viel häufiger auftreten. Zusätzlich wird eine Monte Carlo-basierte Simulation des Finanzmarktes analysiert und erweitert, um die empirischen Eigenschaften zu reproduzieren und Einblicke in deren Ursachen zu erhalten, die zum einen in der Finanzmarktmikrostruktur und andererseits in der Risikoaversion der Handelsteilnehmer zu suchen sind. Für die rechenzeitintensiven Verfahren kann mittels Parallelisierung auf einer Graphikkartenarchitektur eine deutliche Rechenzeitreduktion erreicht werden. Um das weite Spektrum an Einsatzbereichen von Graphikkarten zu aufzuzeigen, wird auch ein Standardmodell der statistischen Physik - das Ising-Modell - auf die Graphikkarte mit signifikanten Laufzeitvorteilen portiert. Teilresultate der Arbeit sind publiziert in [PGPS07, PPS08, Pre11, PVPS09b, PVPS09a, PS09, PS10a, SBF+10, BVP10, Pre10, PS10b, PSS10, SBF+11, PB10].

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This thesis concerns artificially intelligent natural language processing systems that are capable of learning the properties of lexical items (properties like verbal valency or inflectional class membership) autonomously while they are fulfilling their tasks for which they have been deployed in the first place. Many of these tasks require a deep analysis of language input, which can be characterized as a mapping of utterances in a given input C to a set S of linguistically motivated structures with the help of linguistic information encoded in a grammar G and a lexicon L: G + L + C → S (1) The idea that underlies intelligent lexical acquisition systems is to modify this schematic formula in such a way that the system is able to exploit the information encoded in S to create a new, improved version of the lexicon: G + L + S → L' (2) Moreover, the thesis claims that a system can only be considered intelligent if it does not just make maximum usage of the learning opportunities in C, but if it is also able to revise falsely acquired lexical knowledge. So, one of the central elements in this work is the formulation of a couple of criteria for intelligent lexical acquisition systems subsumed under one paradigm: the Learn-Alpha design rule. The thesis describes the design and quality of a prototype for such a system, whose acquisition components have been developed from scratch and built on top of one of the state-of-the-art Head-driven Phrase Structure Grammar (HPSG) processing systems. The quality of this prototype is investigated in a series of experiments, in which the system is fed with extracts of a large English corpus. While the idea of using machine-readable language input to automatically acquire lexical knowledge is not new, we are not aware of a system that fulfills Learn-Alpha and is able to deal with large corpora. To instance four major challenges of constructing such a system, it should be mentioned that a) the high number of possible structural descriptions caused by highly underspeci ed lexical entries demands for a parser with a very effective ambiguity management system, b) the automatic construction of concise lexical entries out of a bulk of observed lexical facts requires a special technique of data alignment, c) the reliability of these entries depends on the system's decision on whether it has seen 'enough' input and d) general properties of language might render some lexical features indeterminable if the system tries to acquire them with a too high precision. The cornerstone of this dissertation is the motivation and development of a general theory of automatic lexical acquisition that is applicable to every language and independent of any particular theory of grammar or lexicon. This work is divided into five chapters. The introductory chapter first contrasts three different and mutually incompatible approaches to (artificial) lexical acquisition: cue-based queries, head-lexicalized probabilistic context free grammars and learning by unification. Then the postulation of the Learn-Alpha design rule is presented. The second chapter outlines the theory that underlies Learn-Alpha and exposes all the related notions and concepts required for a proper understanding of artificial lexical acquisition. Chapter 3 develops the prototyped acquisition method, called ANALYZE-LEARN-REDUCE, a framework which implements Learn-Alpha. The fourth chapter presents the design and results of a bootstrapping experiment conducted on this prototype: lexeme detection, learning of verbal valency, categorization into nominal count/mass classes, selection of prepositions and sentential complements, among others. The thesis concludes with a review of the conclusions and motivation for further improvements as well as proposals for future research on the automatic induction of lexical features.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Eine wichtige Voraussetzung für das Verständnis der Spezifizierungsmechanismen unterschiedlicher Zelltypen im embryonalen Gehirn ist die detaillierte Kenntnis des neuroektodermalen Ursprungs seiner neuralen Stammzellen (Neuroblasten, NB), sowie der Morphologie und zellulären Komposition der daraus hervorgehenden Zellstammbäume (ZSBe). In der vorliegenden Arbeit wurde die Entstehung und Topologie von 21 embryonalen ZSBen im anteriorsten Gehirnteil, dem Protocerebrum, charakterisiert, mit besonderem Fokus auf solche ZSBe, die den Pilzkörper konstituieren. Pilzkörper sind prominente, paarige Neuropilzentren, die eine wichtige Rolle bei der Verarbeitung olfaktorischer Informationen, beim Lernen und bei der Gedächtnisbildung spielen. In dieser Arbeit konnte erstmalig die Embryonalentwicklung der Pilzkörper ab dem Zeitpunkt der Entstehung ihrer NBen im procephalen Neuroektoderm (pNE), bis hin zum funktionellen Gehirnzentrum in der frühen Larve auf Ebene individueller ZSBe bzw. einzelner Neurone beschrieben werden. Mittels der klonalen Di-Markierungstechnik konnte ich zeigen, dass die vier NBen der Pilzkörper (PKNBen) jeder Gehirnhemisphäre innerhalb des NE aus dem ventralen Bereich der mitotischen Domäne B (δB) hervorgehen. Ein in diesem Bereich liegendes proneurales Feld beherbergt etwa 10-12 Zellen, die alle das Potential haben sich zu PKNBen zu entwickeln. Des Weiteren zeigen diese Untersuchungen, dass die PKNBen (und weitere NBen der δB) aus benachbarten NE-Zellen hervorgehen. Dieser Befund impliziert, dass der Mechanismus der lateralen Inhibition in diesem Bereich des NE keine Rolle spielt. Weiterhin stellte sich heraus, dass jeder PKNB eine ihm eigene Position im sich entwickelnden Pilzkörperkortex besetzt und eine spezifische Kombination der Transkriptionsfaktoren Dachshund, Eyeless und Retinal homeobox exprimiert. Dadurch konnte jeder der vier PKNBen in den betreffenden frühembryonalen NB-Karten einem der ca. 105 NBen pro Gehirnhemisphäre zugeordnet werden. Die PKNBen bringen individuelle ZSBe hervor, die Pilzkörper-intrinsische γ-Neurone beinhalten, aber auch jeweils charakteristische Sets an Interneuronen, die nicht am Aufbau des Pilzkörpers beteiligt sind. Diese verschiedenen Neuronentypen entstehen in einer zeitlichen Abfolge, die für jeden PKNBen spezifisch ist. Ihre embryonalen ZSBe sind aber nicht nur durch individuelle Sets an frühgeborenen ni-Neuronen charakterisiert, sondern auch durch spezifische Unterschiede in der Anzahl ihrer γ-Neurone, welche jedoch, wie ich zeigen konnte, nicht durch Apoptose reguliert wird. Weiterhin konnte ich zeigen, dass γ-Neurone, in einer PKNB Klon-abhängigen Weise, spezifische Unterschiede in der räumlich-zeitlichen Innervation des Pedunkels, der Calyx und der Loben aufweisen. Im Weiteren wurde die Expression verschiedener molekularer Marker in diesen ZSBen charakterisiert, u.a. die Expression verschiedener Gal4-Fliegenstämme, und solcher Transkriptionsfaktoren, die eine wichtige Rolle bei der temporären Spezifizierung im VNS spielen. So werden hb, Kr, pdm1 auch in Nachkommenzellen der PKNBen exprimiert und haben möglicherweise eine Funktion bei ihrer temporären Spezifizierung. Diese Arbeit gibt auch erstmalig Einblick in die vollständige spätembryonale/frühlarvale Morphologie anderer protocerebraler Gehirnzellstammbäume aus δB und δ1. Die Beschreibungen dieser ZSBe beinhalten Angaben zu deren Zellzahl, Zelltypen, der Lage der ZSBe im Gehirn, axonalen/dendritischen Projektionsmustern sowie dem Entstehungsort des NBen.