102 resultados para Lernen durch Lehren

em ArchiMeD - Elektronische Publikationen der Universität Mainz - Alemanha


Relevância:

90.00% 90.00%

Publicador:

Resumo:

Die Arbeit behandelt das Problem der Skalierbarkeit von Reinforcement Lernen auf hochdimensionale und komplexe Aufgabenstellungen. Unter Reinforcement Lernen versteht man dabei eine auf approximativem Dynamischen Programmieren basierende Klasse von Lernverfahren, die speziell Anwendung in der Künstlichen Intelligenz findet und zur autonomen Steuerung simulierter Agenten oder realer Hardwareroboter in dynamischen und unwägbaren Umwelten genutzt werden kann. Dazu wird mittels Regression aus Stichproben eine Funktion bestimmt, die die Lösung einer "Optimalitätsgleichung" (Bellman) ist und aus der sich näherungsweise optimale Entscheidungen ableiten lassen. Eine große Hürde stellt dabei die Dimensionalität des Zustandsraums dar, die häufig hoch und daher traditionellen gitterbasierten Approximationsverfahren wenig zugänglich ist. Das Ziel dieser Arbeit ist es, Reinforcement Lernen durch nichtparametrisierte Funktionsapproximation (genauer, Regularisierungsnetze) auf -- im Prinzip beliebig -- hochdimensionale Probleme anwendbar zu machen. Regularisierungsnetze sind eine Verallgemeinerung von gewöhnlichen Basisfunktionsnetzen, die die gesuchte Lösung durch die Daten parametrisieren, wodurch die explizite Wahl von Knoten/Basisfunktionen entfällt und so bei hochdimensionalen Eingaben der "Fluch der Dimension" umgangen werden kann. Gleichzeitig sind Regularisierungsnetze aber auch lineare Approximatoren, die technisch einfach handhabbar sind und für die die bestehenden Konvergenzaussagen von Reinforcement Lernen Gültigkeit behalten (anders als etwa bei Feed-Forward Neuronalen Netzen). Allen diesen theoretischen Vorteilen gegenüber steht allerdings ein sehr praktisches Problem: der Rechenaufwand bei der Verwendung von Regularisierungsnetzen skaliert von Natur aus wie O(n**3), wobei n die Anzahl der Daten ist. Das ist besonders deswegen problematisch, weil bei Reinforcement Lernen der Lernprozeß online erfolgt -- die Stichproben werden von einem Agenten/Roboter erzeugt, während er mit der Umwelt interagiert. Anpassungen an der Lösung müssen daher sofort und mit wenig Rechenaufwand vorgenommen werden. Der Beitrag dieser Arbeit gliedert sich daher in zwei Teile: Im ersten Teil der Arbeit formulieren wir für Regularisierungsnetze einen effizienten Lernalgorithmus zum Lösen allgemeiner Regressionsaufgaben, der speziell auf die Anforderungen von Online-Lernen zugeschnitten ist. Unser Ansatz basiert auf der Vorgehensweise von Recursive Least-Squares, kann aber mit konstantem Zeitaufwand nicht nur neue Daten sondern auch neue Basisfunktionen in das bestehende Modell einfügen. Ermöglicht wird das durch die "Subset of Regressors" Approximation, wodurch der Kern durch eine stark reduzierte Auswahl von Trainingsdaten approximiert wird, und einer gierigen Auswahlwahlprozedur, die diese Basiselemente direkt aus dem Datenstrom zur Laufzeit selektiert. Im zweiten Teil übertragen wir diesen Algorithmus auf approximative Politik-Evaluation mittels Least-Squares basiertem Temporal-Difference Lernen, und integrieren diesen Baustein in ein Gesamtsystem zum autonomen Lernen von optimalem Verhalten. Insgesamt entwickeln wir ein in hohem Maße dateneffizientes Verfahren, das insbesondere für Lernprobleme aus der Robotik mit kontinuierlichen und hochdimensionalen Zustandsräumen sowie stochastischen Zustandsübergängen geeignet ist. Dabei sind wir nicht auf ein Modell der Umwelt angewiesen, arbeiten weitestgehend unabhängig von der Dimension des Zustandsraums, erzielen Konvergenz bereits mit relativ wenigen Agent-Umwelt Interaktionen, und können dank des effizienten Online-Algorithmus auch im Kontext zeitkritischer Echtzeitanwendungen operieren. Wir demonstrieren die Leistungsfähigkeit unseres Ansatzes anhand von zwei realistischen und komplexen Anwendungsbeispielen: dem Problem RoboCup-Keepaway, sowie der Steuerung eines (simulierten) Oktopus-Tentakels.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Die Frage wie großmotorische Bewegungen gelernt werden beschäftigt nicht nur Sportler, Trainer und Sportlehrer sondern auch Ärzte und Physiotherapeuten. Die sportwissenschaftlichen Teildisziplinen Bewegungs- und Trainingswissenschaft versuchen diese Frage sowohl im Sinne der Grundlagenforschung (Wie funktioniert Bewegungslernen?) als auch hinsichtlich der praktischen Konsequenzen (Wie lehrt man Bewegungen?) zu beantworten. Innerhalb dieser Themenfelder existieren Modelle, die Bewegungslernen als gezielte und extern unterstützte Ausbildung zentralnervöser Bewegungsprogramme verstehen und solche, die Lernen als Selbstorganisationsprozess interpretieren. Letzteren ist das Differenzielle Lernen und Lehren (Schöllhorn, 1999) zuzuordnen, das die Notwendigkeit betont, Bewegungen durch die Steigerung der Variationen während der Aneignungsphase zu lernen und zu lehren. Durch eine Vielzahl an Variationen, so die Modellannahme, findet der Lernende ohne externe Vorgaben selbstorganisiert ein individuelles situatives Optimum. Die vorliegende Arbeit untersucht, welchen Einfluss Variationen verschiedener Art und Größe auf die Lern- und Aneignungsleistung großmotorischer Bewegungen haben und in wie fern personenübergreifende Optima existieren. In zwei Experimenten wird der Einfluss von räumlichen (Bewegungsausführung, Bewegungsergebnis) und zeitlichen Variationen (zeitliche Verteilung der Trainingsreize) auf die Aneignungs- und Lernleistung großmotorischer sportlicher Bewegungen am Beispiel zweier technischer Grundfertigkeiten des Hallenhockeys untersucht. Die Ergebnisse der Experimente stützen die bisherige Befundlage zum Differenziellen Lernen und Lehren, wonach eine Zunahme an Variation in der Aneignungsphase zu größeren Aneignungs- und Lernleistungen führt. Zusätzlich wird die Annahme bestätigt, dass ein Zusammenhang von Variationsbereich und Lernrate in Form eines Optimaltrends vorliegt. Neu sind die Hinweise auf die Dynamik von motorischen Lernprozessen (Experiment 1). Hier scheinen individuelle Faktoren (z. B. die Lernbiografie) als auch die Phase im Lernprozess (Aneignung, Lernen) Einfluss zu haben auf den Umfang und die Struktur eines für die optimale Adaptation notwendigen Variationsbereichs. Darüber hinaus weisen die Befunde auf verschiedene Aneignungs- und Lerneffekte aufgrund alleiniger Variation der zeitlichen Verteilung bei ansonsten gleichen Trainingsreizen hin (Experiment 2). Für zukünftige Forschungsarbeiten zum Erlernen großmotorischer Bewegungen und für die sportliche Praxis dürfte es daher erkenntnisreich sein, die Historie der intrinsischen Dynamik der lernenden Systeme stärker zu berücksichtigen. Neben Fragestellungen für die Grundlagenforschung zum (Bewegungs-)Lernen ließen sich hieraus unmittelbar praxisrelevante Erkenntnisse darüber ableiten, wie Bewegungslernprozesse mittels verschiedener Variationsbereiche strukturiert und gesteuert werden könnten.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

This thesis concerns artificially intelligent natural language processing systems that are capable of learning the properties of lexical items (properties like verbal valency or inflectional class membership) autonomously while they are fulfilling their tasks for which they have been deployed in the first place. Many of these tasks require a deep analysis of language input, which can be characterized as a mapping of utterances in a given input C to a set S of linguistically motivated structures with the help of linguistic information encoded in a grammar G and a lexicon L: G + L + C → S (1) The idea that underlies intelligent lexical acquisition systems is to modify this schematic formula in such a way that the system is able to exploit the information encoded in S to create a new, improved version of the lexicon: G + L + S → L' (2) Moreover, the thesis claims that a system can only be considered intelligent if it does not just make maximum usage of the learning opportunities in C, but if it is also able to revise falsely acquired lexical knowledge. So, one of the central elements in this work is the formulation of a couple of criteria for intelligent lexical acquisition systems subsumed under one paradigm: the Learn-Alpha design rule. The thesis describes the design and quality of a prototype for such a system, whose acquisition components have been developed from scratch and built on top of one of the state-of-the-art Head-driven Phrase Structure Grammar (HPSG) processing systems. The quality of this prototype is investigated in a series of experiments, in which the system is fed with extracts of a large English corpus. While the idea of using machine-readable language input to automatically acquire lexical knowledge is not new, we are not aware of a system that fulfills Learn-Alpha and is able to deal with large corpora. To instance four major challenges of constructing such a system, it should be mentioned that a) the high number of possible structural descriptions caused by highly underspeci ed lexical entries demands for a parser with a very effective ambiguity management system, b) the automatic construction of concise lexical entries out of a bulk of observed lexical facts requires a special technique of data alignment, c) the reliability of these entries depends on the system's decision on whether it has seen 'enough' input and d) general properties of language might render some lexical features indeterminable if the system tries to acquire them with a too high precision. The cornerstone of this dissertation is the motivation and development of a general theory of automatic lexical acquisition that is applicable to every language and independent of any particular theory of grammar or lexicon. This work is divided into five chapters. The introductory chapter first contrasts three different and mutually incompatible approaches to (artificial) lexical acquisition: cue-based queries, head-lexicalized probabilistic context free grammars and learning by unification. Then the postulation of the Learn-Alpha design rule is presented. The second chapter outlines the theory that underlies Learn-Alpha and exposes all the related notions and concepts required for a proper understanding of artificial lexical acquisition. Chapter 3 develops the prototyped acquisition method, called ANALYZE-LEARN-REDUCE, a framework which implements Learn-Alpha. The fourth chapter presents the design and results of a bootstrapping experiment conducted on this prototype: lexeme detection, learning of verbal valency, categorization into nominal count/mass classes, selection of prepositions and sentential complements, among others. The thesis concludes with a review of the conclusions and motivation for further improvements as well as proposals for future research on the automatic induction of lexical features.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Vor dem Hintergrund sich wandelnder (medialer) Lebenswelten von Schülerinnen und Schülern gewinnen Bestimmungsversuche um medienpädagogische Handlungskompetenzen von Lehrpersonen an Bedeutung. Der Erwerb medienpädagogischer Kompetenz, verstanden als dynamisches Zusammenspiel von domänenspezifischem Wissen und anwendungsorientiertem Können, wird in der vorliegenden Arbeit als wesentliches Lernziel der medienpädagogischen (Aus-)Bildung bestimmt. Als ein Weg zur Förderung medienpädagogischer Handlungskompetenz wird von der Autorin auf der Folie konstruktivistischer Vorstellungen über das Lehren und Lernen die Methode der Problemorientierung vorgeschlagen. Im ersten Teil der Arbeit werden Modelle und Konzepte diskutiert, die Bausteine für ein Modell medienpädagogischer Kompetenz liefern. Im zweiten Teil wird eine empirische Untersuchung zum Erwerb medienpädagogischer Handlungskompetenz auf der Basis eines von der Autorin erarbeiteten Modells vorgestellt und die Ergebnisse diskutiert. Eine kompetenztheoretische Annäherung erfolgt auf der Basis zweier Konzepte. Dies sind die Ausführungen zu einem Konzept kommunikativer Kompetenz nach Jürgen Habermas sowie dessen Überführung in die Medienpädagogik durch Dieter Baacke. Ferner wird die rezente bildungspolitische Kompetenzdebatte in Anbindung an Franz E. Weinert analysiert. Es folgt eine Zusammenschau über die methodischen Konzepte zur Erfassung von Kompetenzen in der Erziehungswissenschaft und deren Anwendbarkeit für die medienpädagogische Kompetenzforschung. Die gegenwärtig vorliegenden Entwürfe zu einer inhaltlichen Bestimmung medienpädagogischer Kompetenzen werden besprochen (Sigrid Blömeke, Werner Sesink, International Society for Technology in Education). Im Rekurs auf konstruktivistische lerntheoretische Überlegungen erfährt das problemorientierte Lernen beim Aufbau von Kompetenzen eine enorme Aufwertung. In der Arbeit wird insbesondere den Arbeiten von David Jonassen zu einer konstruktivistisch-instruktionistischen Herangehensweise bei der Gestaltung problemorientierter Lernumgebungen eine große Bedeutung zugesprochen (vgl. auch Ansätze des Goal-based Scenarios/Roger Schank und des Learning by Design/Janet Kolodner). Im zweiten Teil wird die Interventionsstudie im Kontrollgruppendesign vorgestellt. Anhand eines Modells medienpädagogischer Kompetenz, dass auf den Dimensionen Wissen einerseits und Können andererseits basiert, wurden Studierende (n=59) in einem Pre-Posttestverfahren auf diese Dimensionen getestet. Die Studierenden der Interventionsgruppe (n=30) arbeiteten über ein Semester mit einer problemorientierten Lernanwendung, die Studierenden der Kontrollgruppe (n=29) in einem klassischen Seminarsetting. Hauptergebnis der Untersuchung ist es, das die Intervention zu einem messbaren Lernerfolg beim medienpädagogischen Können führte. In der Diskussion der Ergebnisse werden Empfehlungen zur Gestaltung problemorientierter Lernumgebungen formuliert. Die Chancen einer Orientierung an problemorientierten Lernsettings für das Lernen an Hochschulen werden herausgestellt.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Im Forschungsgebiet der Künstlichen Intelligenz, insbesondere im Bereich des maschinellen Lernens, hat sich eine ganze Reihe von Verfahren etabliert, die von biologischen Vorbildern inspiriert sind. Die prominentesten Vertreter derartiger Verfahren sind zum einen Evolutionäre Algorithmen, zum anderen Künstliche Neuronale Netze. Die vorliegende Arbeit befasst sich mit der Entwicklung eines Systems zum maschinellen Lernen, das Charakteristika beider Paradigmen in sich vereint: Das Hybride Lernende Klassifizierende System (HCS) wird basierend auf dem reellwertig kodierten eXtended Learning Classifier System (XCS), das als Lernmechanismus einen Genetischen Algorithmus enthält, und dem Wachsenden Neuralen Gas (GNG) entwickelt. Wie das XCS evolviert auch das HCS mit Hilfe eines Genetischen Algorithmus eine Population von Klassifizierern - das sind Regeln der Form [WENN Bedingung DANN Aktion], wobei die Bedingung angibt, in welchem Bereich des Zustandsraumes eines Lernproblems ein Klassifizierer anwendbar ist. Beim XCS spezifiziert die Bedingung in der Regel einen achsenparallelen Hyperquader, was oftmals keine angemessene Unterteilung des Zustandsraumes erlaubt. Beim HCS hingegen werden die Bedingungen der Klassifizierer durch Gewichtsvektoren beschrieben, wie die Neuronen des GNG sie besitzen. Jeder Klassifizierer ist anwendbar in seiner Zelle der durch die Population des HCS induzierten Voronoizerlegung des Zustandsraumes, dieser kann also flexibler unterteilt werden als beim XCS. Die Verwendung von Gewichtsvektoren ermöglicht ferner, einen vom Neuronenadaptationsverfahren des GNG abgeleiteten Mechanismus als zweites Lernverfahren neben dem Genetischen Algorithmus einzusetzen. Während das Lernen beim XCS rein evolutionär erfolgt, also nur durch Erzeugen neuer Klassifizierer, ermöglicht dies dem HCS, bereits vorhandene Klassifizierer anzupassen und zu verbessern. Zur Evaluation des HCS werden mit diesem verschiedene Lern-Experimente durchgeführt. Die Leistungsfähigkeit des Ansatzes wird in einer Reihe von Lernproblemen aus den Bereichen der Klassifikation, der Funktionsapproximation und des Lernens von Aktionen in einer interaktiven Lernumgebung unter Beweis gestellt.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In der vorliegenden Arbeit wurden die durch Training induzierten motorischen Gedächtnisleistungen der Taufliege Drosophila melanogaster beim Überklettern von acht symmetrisch verteilten Lücken auf einem rotierenden Ring untersucht. Durch den auf sie einwirkenden optischen Fluss der vorbeiziehenden äußeren Umgebung wurden die Fliegen angeregt, diesem optomotorischen Reiz entgegenzuwirken und die Lücken laufend zu überqueren. Durch Training verbessert und langfristig gelernt wird die kompensatorische Lückenüberquerung X+ gegen die Rotation. In der aus diesem Training erhaltenen Lernkurve war eine überdurchschnittlich hohe Leistungsverbesserung nach einem einzigen Trainingslauf mit einem zeitlichen Bestand von ca. 40 Minuten abzulesen, um danach vom motorischen Gedächtnisspeicher trainierter Fliegen nicht mehr abgerufen werden zu können. Nach einer Ruhephase von einem bis mehreren Tagen wurden die Fliegen auf mögliche Langzeitlernleistungen untersucht und diese für verschiedene Intervalle nachgewiesen. Sowohl die Leistungsverbesserung während des Trainings, als auch der Lerneffekt nach 24h bleiben in mutanten rutabaga2080 sowie rut1 Fliegen aus. Betroffen ist das Gen der Adenylylzyklase I, ein Schlüsselprotein der cAMP-Signalkaskade, die u.a. im olfaktorischen und visuellen Lernen gebraucht wird. Damit ergab sich die Möglichkeit die motorischen Gedächtnisformen durch partielle Rettung zu kartieren. Die motorische Gedächtniskonsolidierung ist schlafabhängig. Wie sich herausstellte, benötigen WTB Fliegen nur eine Dunkelphase von 10h zwischen einem ersten Trainingslauf und einem Testlauf um signifikante Leistungssteigerungen zu erzielen. In weiterführenden Versuchen wurden die Fliegen nachts sowie tagsüber mit einer LED-Lampe oder in einer Dunkelkammer, mit einem Kreisschüttler oder einer Laborwippe depriviert, mit dem Ergebnis, dass nur jene Fliegen ihre Leistung signifikant gegenüber einem ersten Trainingslauf verbessern konnten, welche entweder ausschließlich der Dunkelheit ausgesetzt waren oder welchen die Möglichkeit gegeben wurde, ein Gedächtnis zunächst in einer natürlichen Schlafphase zu konsolidieren (21Uhr bis 7Uhr MEZ). In weiteren Experimenten wurden die experimentellen Bedingungen entweder während des Trainings oder des Tests auf eine Fliege und damit verbunden auf eine erst durch das Training mögliche motorische Gedächtniskonsolidierung einwirken zu können, untersucht. Dazu wurden die Experimentparameter Lückenweite, Rotationsrichtung des Lückenringes, Geschwindigkeit des Lückenringes sowie die Verteilung der acht Lücken auf dem Ring (symmetrisch, asymmetrisch) im Training oder beim Gedächtnisabruf im Testlauf verändert. Aus den Ergebnissen kann geschlussfolgert werden, dass die Lückenweite langzeitkonsolidiert wird, die Rotationsrichtung kurzzeitig abgespeichert wird und die Drehgeschwindigkeit motivierend auf die Fliegen wirkt. Die symmetrische Verteilung der Lücken auf dem Ring dient der Langzeitkonsolidierung und ist als Trainingseingang von hoher Wichtigkeit. Mit Hilfe verschiedener Paradigmen konnten die Leistungsverbesserungen der Fliegen bei Abruf eines Kurz- bzw. Langzeitgedächtnisses hochauflösend betrachtet werden (Transfer). Die Konzentration, mit der eine WTB Fliege eine motorische Aufgabe - die Überquerung von Lücken entgegengesetzt der Rotationsrichtung - durchführt, konnte mit Hilfe von Distraktoreizen bestimmt werden. Wie sich herausstellte, haben Distraktoren einen Einfluss auf die Erfolgsquote einer Überquerung, d.h. mit zunehmender Distraktionsstärke nahm die Wahrscheinlichkeit einer Lückenüberquerung ab. Die Ablenkungsreize wirkten sich weiterhin auf die Vermessung einer Lücke aus, in dem entweder "peering"-artigen Bewegungen im Training durchgeführt wurden oder je nach Reizstärke ausschließlich nur jene Lücken vermessen wurden, welche auch überquert werden sollten.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nanopartikel durch Strukturfixierung mizellarer Assoziate aus amphiphilen, endgruppenfunktionalisierten Diblockcopolymeren Zwei unterschiedliche Diblockcopolymersysteme mit Molmassen unterhalb von Mw = 10 000 g/mol wurden über anionische Polymerisation synthetisiert. Ein hetero-telecheles a,w-Poly(dimethylsiloxan)-b-Poly(ethylenoxid) (PDMS-PEO) Diblockcopolymer wurde mit einer Methacrylatendgruppe am PDMS und entweder einer Benzyl-, Hydroxy- oder Carboxylatendgruppe am PEO funktionalisiert. Ein Poly(butadien)-b-Poly(ethylenoxid) (PB-PEO) Diblockcopolymer wurde am PEO ebenfalls entweder mit einer Benzyl-, Hydroxy- oder Carboxylatendgruppe funktionalisiert. In selektiven Lösungsmitteln wie Wasser oder Methanol bilden beide Diblockcopolymersysteme supramolekulare Strukturen mit sphärischer, zylindrischer oder toroider Geometrie aus, die mit statischer und dynamischer Lichtstreuung in Lösung und mit Rasterkraftmikroskopie (AFM) und Transmissionselektronenmikroskopie (TEM) auf der Oberfläche untersucht wurden. Durch Zusatz eines Vernetzers und Initiators wurden die selbstassoziierenden Mizellen des PDMS-PEO Diblockcopolymers permanent durch radikalische Polymerisation mit UV-Licht fixiert. Mizellen des PB-PEO Diblockcopolymers wurden über Bestrahlung mit gamma-Strahlen permanent fixiert. Die Untersuchung der resultierenden Nanopartikel beider Diblockcopolymersysteme mit AFM und TEM zeigte, daß diese sogar in nicht selektiven Lösungsmitteln wie Tetrahydrofuran formstabil bleiben.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

ZusammenfassungDie selbstkondensierende Gruppenübertragungspolymerisation von 2-[(2-Methyl-1-triethylsiloxy-1-propenyl)oxy]ethyl-methacrylat (MTSHEMA) und die Copolymerisation mit Methylmethacrylat und tert-Butylmethacrylat wurde untersucht. Da MTSHEMA eine polymerisierbare Methacryloyl-Einheit und eine zur Initiierung einer Gruppenübertragungspolymerisation befähigte Silylketenacetal-Einheit besitzt, führt die Homopolymerisation zu hyperverzweigten und die Copolymerisation zu hochverzweigten Polymeren.Bei der Homopolymerisation von MTSHEMA konnten nur niedrige Molekulargewichte erreicht werden. Dies wird auf Nebenreaktionen der aktiven Kettenenden zurückgeführt, welche die Carbonylgruppen nucleophil angreifen und, mit der Doppelbindung Kern-Einheit reagieren. Die Copolymerisation mit Methylmethacrylat verlauft ohne Nebenreaktionen. Durch die Variation des molaren Verhältnisses von MTSHEMA zu den Comonomeren war es möglich, das Molekulargewicht, den Verzweigungsgrad und dadurch die Viskosität in Lösung zu kontrollieren. Die Bestimmung der Molekulargewichtsverteilung sämtlicher Polymere erfolgte durch Kopplung der Gelpermeationschromatographie mit einem Viskositätsdetektor und einem Vielwinkel Lichtstreu-Photometer. Die aus dem Vergleich der Viskositäten und Trägheitsradien ermittelten Schrumpfungspa-rameter lassen Schlüsse auf den Verzweigungsgrad zu.Nach den Ergebnissen der viskoelastischen Spektroskopie folgt das Verhalten der verzweigten Polymere in der Schmelze der Rouse-Theorie und deutet damit auf die Abwesenheit von Verschlaufungen hin.Durch die Copolymerisation mit tert-Butylmethacrylat und MTSHEMA konnte hochverzweigtes Poly(tert-butylmethacrylat) synthetisiert werden. Die Verseifung dieser Polymere ergab verzweigte Polymethacrylsäure.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Generierung und Transduktion wachstumsnegativer Signale durch den Contactinhibin-RezeptorDie kontaktabhängige Wachstumshemmung, Kontaktinhibition, basierend auf der Interaktion von Contactinhibin (Ci) und seinem Rezeptor (CiR), reguliert das Zellwachstum. Ziel dieser Arbeit war die Aufklärung der Signalweiterleitung über den CiR.Der transformierende Wachstumsfaktor TGF-beta führt in den meisten Zelltypen wie die Kontaktinhibition zum Zellzyklusstopp in der G1-Phase. Um mögliche Interaktionen der beiden Signalkaskaden zu untersuchen, wurden humane Keratinozyten (HaCaT) mit einem dominant-negativen TGF-beta-Rezeptor Typ II stabil transfiziert. Das Ausschalten des TGF-beta-Signalweges resultierte in einer erhöhten Sättigungsdichte und Aufhebung der Kontaktinhibition. Die durch Kontaktinhibition induzierte Zunahme der Expression der TGF-beta-mRNA bestätigte die mögliche Interaktion der beiden Signalwege.In einem weiteren Ansatz sollte die Proteinkinase C (PKC) als möglicher Second Messenger der Kontaktinhibition untersucht werden. Die Herunterregulierung der PKC-Isoformen alpha, delta, epsilon und mu nach Langzeit-Behandlung mit 12-O-Tetradecanoylphorbol-13-acetat führte in humanen Fibroblasten (FH109) zu einer Reduktion der Kontaktinhibition. Nur durch Inkubation mit dem spezifischen Inhibitor der delta-Isoform Rottlerin konnte die Kontaktinhibition vollständig aufgehoben werden. Eine Beteiligung der PKC-delta in die Kontaktinhibition wurde dadurch bestätigt, daß sowohl die Stärke ihrer Proteinexpression als auch ihre intrazelluläre Verteilung über Zell-Zellkontakte reguliert wurde. Außerdem führte die transiente Transfektion von Maus-Fibroblasten, NIH3T3, mit einer dominant-negativen Mutante der PKC-delta zu einem transformierten Phänotyp.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In der vorliegenden Arbeit erfolgten Oberflächenmodifizierungen durch Polymere nach zwei Ansätzen. Dies war zum einen ein Ansatz, bei dem die Oberflächen mit Diblockcopolymeren versehen wurden. Diese bestanden aus einem Ankerblock, der starke Wechselwirkungen mit der Oberfläche zeigt, und einem Bojenblock, der gezielte Eigenschaften trägt. Zum anderen erfolgten Modifizierungen durch auf Plasmaschichten verankerte Homopolymere. Beide Ansätze erfolgten auf zwei Substraten von unterschiedlichen Eigenschaften. Diese waren das Siliciumoxid, für das Modifizierungen durch radikalische in-situ Oberflächenpolymerisation, und das Poly(ethylen-stat-norbornen), für das Modifizierungen durch ex-situ dargestellte Polymere gewählt wurden. Beim ersten Ansatz zur Modifizierung der Siliciumoxidoberfläche ermöglichte ein adsorbierter Poly(e-caprolacton)-Makroinitiator die Oberflächenpolymerisation hin zu oberflächenverankertem Poly(e-caprolacton)-block-poly(alkyl(meth)acrylat). Beim zweiten Ansatz erfolgte die Abscheidung von plasmapolymerisiertem Allylamin, die Immobilisierung des Azoinitiators 4,4’-Azobis(4-cyanopentansäurechlorid) und die nachfolgende Oberflächenpolymerisation von Methylmethacrylat oder Styrol. Beim ersten Modifizierungsansatz der Poly(ethylen-stat-norbornen)-Oberfläche sollte diese mit thermisch interdiffundierten Poly(ethylen-alt-propylen)-block-poly(dimethylsiloxan) versehen werden. Trotz erfolgreicher Synthese wurde gezeigt, daß keine Interdiffusion stattfand. Im zweiten Modifizierungsansatz wurde die Oberfläche mit aus einem Hexamethyldisiloxan/Sauerstoff-Plasma abgeschiedenem reinem Siliciumoxid beschichtet, woran sich die Adsorption von Poly(dimethylsiloxan) anschloß. Damit konnten die hohen Haftreibungskräfte gegenüber Halogenbutylgummi erfolgreich beseitigt werden.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Der Sauerstoffsensor FNR (Fumarat-Nitratreduktase-Regulator) von Escherichia coli spielt eine wichtige Rolle beim Umschalten vom aeroben zum anaeroben Stoffwechsel. FNR ist ein Transkriptionsregulator, der im aktiven Zustand ein [4Fe4S]-Zentrum besitzt. Bei Kontakt mit Sauerstoff zerfällt das [4Fe4S]- zu einem [2Fe2S]-Zentrum und führt zum Verlust der Aktivität von FNR. Die Reaktionen, die zum Aufbau des [4Fe4S]-Zentrums und der reduktiven Aktivierung von aerob und anaerob isoliertem apoFNR führen, wurden in vivo und in vitro untersucht. Die Einfluß in vivo von Glutathion auf die Funktion von FNR und die Rolle von Glutathion beim Aufbau des [4Fe4S]-Zentrums in gereinigtem apoFNR zeigen die wichtige Bedeutung von Glutathion bei der de novo Assemblierung von [4Fe4S]FNR und bei der reduktiven Aktivierung von sauerstoff-inaktiviertem FNR. Die energetischen Parameter von E. coli und ihre Änderungen beim Übergang vom aeroben zum anaeroben Stoffwechsel wurden untersucht. Das elektrochemische Protonenpotential delta-p über der Cytoplasmamembran wurde im Gleichgewichtszustand in der aeroben Atmung und anaeroben Nitrat-, Fumarat- und Dimethylsulfoxid-Atmung bestimmt. Delta-p betrug in der aeroben Atmung -160 mV, in der anaeroben Atmung sank delta-p entgegen früheren Vermutungen lediglich um 20 mV. Die geringen Änderungen von delta-p können deshalb vermutlich nicht als regulatorisches Signal für das Umschalten vom aeroben zum anaeroben Stoffwechsel genutzt werden.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In Gesteinen, die bei schwach- bis mittelgradiger Metamorphose deformiert wurden, sind Mikrostrukturen, wie z.B. undulöse Auslöschung, Subkörner und kristallographische Regelungen, typisch. Sie werden i.a. als das Resultat eines kristallplastischen Deformationsprozesses interpretiert. Das häufige Auftreten dieser Strukturen führte zu der Annahme, daß kristallplastische Deformationsprozesse zu den dominierenden duktilen Deformationsmechanismen während der Erdkrustendeformation gehören.Die vorliegende Arbeit beschäftigt sich mit Experimenten, bei denen die zeitabhängige kata-klastische Deformation polykristalliner, kompaktierter Aggregatproben des sehr gut löslichen, elastisch/spröden Salzes Natriumchlorat (NaClO3) untersucht wurde. Dieses Salz wurde als Analogmaterial gesteinsbildender Minerale wie Quarz und Feldspat ausgewählt. Es wurde nun untersucht, ob und in welcher Weise spröde Deformationsmechanismen in Anwesenheit von Wasser scheinbar kristall-plastische Mikrostrukturen hervorrufen können.Aus den Versuchen ergibt sich nun die Folgerung, daß scheinbar kristallplastisch erzeugte Mikrostrukturen wie Subkörner auch durch spröde zeitunabhängige Risse und subkritische (langsame) Kataklase entstehen können. Diese Erkenntnisse sind wichtig für das rheologische Verhalten der Erdkruste und somit auch für Modellierungen der Erdkrustendeformation. Ihre Betrachtung und Übertragung auf die Deformationsstrukturen der natürlich deformierten kontinentalen, oberkrustalen Gesteine der Erde würde die Interpretation der Mikrostrukturen in diesen Bereichen stark ändern. Dies hätte eine wesentliche Änderung auf den Verlauf der Gesteinsfestigkeitskurven in den Spannungsprofilen der Erdoberkruste zur Folge.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ein metallfreies Reaktionssystem mit Bis(triphenylphosphoranyliden)ammonium-Kationen als Gegenionen sowie das Additiv Lithium-2-methoxyethoxid wurden auf ihre Eignung zur anionischen Synthese von Blockcopolymeren mit (Meth)acrylatsegmenten bei moderaten Temperaturen im Strömungsrohr-Reaktor untersucht. Das metallfreie System ist zur lebenden Polymerisation von Methacrylaten in THF mit engen Molekulargewichtsverteilungen bei Reaktionszeiten < 1 s bis zu Temperaturen von 0 °C geeignet. In Gegenwart von Metallionen (Li+) findet eine Verlangsamung der Polymerisation unter Verlust der Reaktionskontrolle statt, Lithiumenolate verursachen nun breite, multimodale Molekulargewichtsverteilungen. Eine lebende Polymerisation von Acrylaten ist nicht möglich, massenspektroskopische Untersuchungen der Produkte weisen auf einen komplexen Reaktionsmechanismus mit Abbruch- und Übertragungsreaktionen hin. Die Synthese von Poly(styrol)-block-Poly(1,4-butadien)-block-Poly(methylmethacrylat)-Copolymeren in Toluol ist mit Lithium-2-methoxyethoxid als Additiv für die MMA-Polymerisation bei moderaten Mischtemperaturen (T < 0 °C) im Strömungsrohr-Reaktor möglich, die Effektivität des Wechselschritts von Polybutadien zu PMMA beträgt im Durchschnitt ca. 50 %. Untersuchungen verschiedener Reaktionsparameter, wie z.B. der Endfunktionalisierung des Polybutadiens mit 1,1-Diphenylethylen und der Temperatur während der Verkappung und der MMA-Polymerisation, geben keine eindeutigen Hinweise auf die Ursache dieses Phänomens. MALDI-TOF-Massenspektren des unreagierten Polybutadien Precursors zeigen die Anlagerung von 1-3 Molekülen Methylmethacrylat und keinen Abbruch durch Backbiting, was auf die Ausbildung stabiler Aggregate hindeutet.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Bei Nierenzellkarzinomen (NZK), wie auch bei vielen anderen Tumoren konnte eine reduzierte Expression der Klasse I Haupthistokompatibilitäts-Komplexe (MHC Klasse I) nachgewiesen werden, die assoziiert sein kann mit der gestörten Expression oder Funktion von Komponenten der Antigenprozessierung. Eine verminderte Erkennung solcher Tumore durch zytotoxische T-Lymphozyten und ein Zusammenhang mit einem Fortschreiten der Erkrankung führte zu der Annahme, daß es sich bei diesen Störungen um "immune escape"-Mechanismen handelt. Um die Bedeutung des heterodimeren Peptidtransporters TAP ("transporter associated with antigen processing") für die Immunogenität von Nierenzellkarzinomen zu untersuchen, wurde im Rahmen dieser Arbeit erstmals der stabile Gentransfer des humanen TAP1A-Gens in Nierenzellkarzinom-Zellen erfolgreich durchgeführt.
Dies konnte durch die Optimierung der Transfektionsmethode und des verwendeten Plasmid-Vektors erreicht werden. Die Transfektionen wurden mit Hilfe der Rechteck-Impuls-Elektroporation unter spezifischen, in der Arbeit etablierten Bedingungen durchgeführt. Der CMV-regulierte TAP-Expressions-Vektor wurde dahingehend verbessert, daß durch die Einführung einer IRES ("internal ribosomal entry site") Sequenz eine bicistronische m-RNS transkribiert wird, die sowohl das TAP1-Transgen als auch den Neomycin-Selektionsmarker enthält.
Es konnte nach klonaler Selektion eine stabile, aber unter den sieben getesteten Klonen heterogene Transkription der transgenen TAP1-mRNS nachgewiesen werden. In der Protein-Expression zeigten 5/7 der TAP1A-positive Klone eine mindestens zweifache Induktion der TAP1-Expression. In 2/7 dieser TAP1A-positive Klone war die TAP1-Überexpression mit einer Erhöhung der MHC Klasse I-Expression und selektiver Induktion des HLA-A2-Moleküls in der Durchflußzytometrie verbunden. Eine Quantifizierung des Peptidtransportes ergab je nach verwendetem Modellpeptid eine geringe oder gar keine Erhöhung der Transportrate in den TAP1-Transfektanden gegenüber Kontrollzellen. Ebenfalls konnte in Zytotoxizitäts-Analysen mit einer autologen T-Zellinie eine Erhöhung der spezifischen Lyse nicht gezeigt werden. Jedoch wurden im Zellkultur-Überstand dieser Zytotoxizitäts-Analysen bei einigen TAP1A-positive Transfektanden gegenüber mock transfizierten-Kontrollzellen deutlich erhöhte Werte des Tumornekrose-Faktor-alpha (TNF-alpha) gemessen, was als Maß einer T-Zell-Aktivierung gilt. Diese Ergebnisse sind konsistent mit einer ebenfalls deutlich gesteigerten T-Zell-Proliferation in Anwesenheit von TAP1A-positive Transfektanden.
Die alleinige stabile Überexpression von TAP1 in Nierenzellkarzinomzellen kann somit zu einer Modulation der MHC Klasse I-Expression und der T-Zell-Reaktivität führen. Das weist darauf hin, daß eine starke, konstitutive TAP1-Expression eine grundlegende Voraussetzung für eine effiziente Antigenprozessierung und Immunantwort darstellt und die Immuntoleranz gegenüber NZK durch stabilen TAP1-Gentransfer beinflußbar ist. Eine denkbare klinische Anwendung dieser Technik ist die Herstellung einer Tumorantigen-präsentierenden Zellvakzine, die eine T-Zell-Anergie gegenüber NZK durchbrechen könnte.
Schlüsselwörter: TAP, MHC, Antigenprozessierung, Tumorimmunologie, Gentransfer

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Die vorliegende Arbeit beschreibt die Wirkung von Hyperforin, einem Johanniskraut-Inhaltsstoff, auf das zentrale cholinerge System. Da der HACU Na+-abhängig operiert und Hyperforin den transmembranären Na+-Gradienten verringert, wurde an Rattenkortex-Synaptosomen in vitro geprüft, ob der HACU durch Hyperforin gehemmt wird. Es wurde gefunden, dass Hyperforin den HACU mit einer Hemmkonstante IC50 von 8.5 µM inhibiert. Da die de novo-ACh-Synthese direkt HACU-Aktivitäts-abhängig ist, wurde in vivo mittels Mikrodialyse-Technik verifziert, ob die cholinerge Transmission beeinflusst wird. Lokale Infusionen von 100 µM Hyperforin in das Striatum resultierten in einer Reduktion der ACh-Freisetzung bei parallelem Ch-Spiegel-Anstieg bedingt durch die HACU-Inhibition. Infusionen niedrigerer Konzentration (10 und 30 µM) führten hingegen zu einer konzentrations-abhängigen Stimulation der ACh-Freisetzung bei simultaner Ch-Spiegel-Senkung. Systemische Applikation von 1 und 10 mg/kg i.p. resultierten in einer verstärkten ACh-Freisetzung im Striatum und im Hippokampus; diese Dosen führen zu therapeutisch relevanten Plasmaspiegeln. Die Ergebnisse im Striatum und im Hippokampus erklären die motilitätsverringernden Effekte im Tierexperiment bzw. die benignen Effekte in Verhaltensmodellen für Lernen und Gedächtnis. Die vergleichende Analyse der Mikrodialyse-Experimente ergab, dass eine antidepressive Johanniskraut-Begleitmedikation bei Parkinson ungünstig, jedoch Alzheimer günstig zu bewerten ist.