175 resultados para Selbst gesteuertes Lernen
em ArchiMeD - Elektronische Publikationen der Universität Mainz - Alemanha
Resumo:
Die zentrale Untersuchungsfrage lautet: Welche Voraussetzungen müssen Kinder mitbringen, um Lernsoftware optimal nutzen zu können? Diese Frage wurde anhand der Voraussetzung „Leseverständnis“, als Basiskompetenz, sowie darüber hinausgehenden Voraussetzungen, „Interesse“ und „PC-Erfahrung“, untersucht. Die Studie „Lesen am Computer“ (LaC) betrachtete erstmals die effiziente Nutzung von Informationsquellen. Das Verhältnis von Print- und Hypertext-Lesekompetenz sowie Einflussfaktoren wurden hierbei erkundet. Es handelte sich um eine Zusatzstudie zur Internationalen Grundschul-Leseuntersuchung (IGLU) bzw. zur Erhebung „Kompetenzen und Einstellungen von Schülerinnen und Schülern (KESS). Die vorliegende Arbeit stellt eine quantitative Studie dar, wobei qualitative Methoden die Aussagen unterstützen. Es wurde das Leseverständnis von Mädchen und Jungen einer Hamburger Grundschule gemessen. Unter Berücksichtigung der Faktoren „Interesse am Thema und/oder Lernsoftware“ sowie „PC-Erfahrung“ wurde das Leseverständnis zum Multimediaverständnis in Beziehung gesetzt. Darüber hinaus wurden die Rezeptionsprozesse beobachtet und einzelne Fallbeispiele zur Interpretation herangezogen. Die Untersuchung hat gezeigt, dass die wichtigste Basisqualifikation beim Lernen mit neuen Medien ein gutes Leseverständnis ist und die Mädchen zum einen über ein besseres Leseverständnis und zum anderen über ein besseres Multimediaverständnis als die Jungen verfügen. Des Weiteren konnte dargelegt werden, dass sich die PC-Praxis eines Kindes nicht zwangsläufig mit seinen Fertigkeiten im Programm deckt und eine gute PC-Praxis hauptsächlich bei Kindern mit einem mäßigen Leseverständnis förderlich ist. Es lässt sich außerdem festhalten, dass die meisten Kinder Interesse am Thema aufweisen und dies überwiegend mit einem guten Leseverständnis und einem überdurchschnittlichen Multimediaverständnis gekoppelt ist. Die Hauptaufgaben des Unterrichts beziehen sich folglich auf das Arrangement von Lernprozessen. Die Einteilung in Rezeptionstypen ist eine wesentliche Aufgabe, um dementsprechend Teams zu bilden und Defizite auszugleichen. Ferner müssen Kinder mit einem guten bzw. mäßigen Leseverständnis unterschiedlich gefördert werden.
Resumo:
Vor dem Hintergrund sich wandelnder (medialer) Lebenswelten von Schülerinnen und Schülern gewinnen Bestimmungsversuche um medienpädagogische Handlungskompetenzen von Lehrpersonen an Bedeutung. Der Erwerb medienpädagogischer Kompetenz, verstanden als dynamisches Zusammenspiel von domänenspezifischem Wissen und anwendungsorientiertem Können, wird in der vorliegenden Arbeit als wesentliches Lernziel der medienpädagogischen (Aus-)Bildung bestimmt. Als ein Weg zur Förderung medienpädagogischer Handlungskompetenz wird von der Autorin auf der Folie konstruktivistischer Vorstellungen über das Lehren und Lernen die Methode der Problemorientierung vorgeschlagen. Im ersten Teil der Arbeit werden Modelle und Konzepte diskutiert, die Bausteine für ein Modell medienpädagogischer Kompetenz liefern. Im zweiten Teil wird eine empirische Untersuchung zum Erwerb medienpädagogischer Handlungskompetenz auf der Basis eines von der Autorin erarbeiteten Modells vorgestellt und die Ergebnisse diskutiert. Eine kompetenztheoretische Annäherung erfolgt auf der Basis zweier Konzepte. Dies sind die Ausführungen zu einem Konzept kommunikativer Kompetenz nach Jürgen Habermas sowie dessen Überführung in die Medienpädagogik durch Dieter Baacke. Ferner wird die rezente bildungspolitische Kompetenzdebatte in Anbindung an Franz E. Weinert analysiert. Es folgt eine Zusammenschau über die methodischen Konzepte zur Erfassung von Kompetenzen in der Erziehungswissenschaft und deren Anwendbarkeit für die medienpädagogische Kompetenzforschung. Die gegenwärtig vorliegenden Entwürfe zu einer inhaltlichen Bestimmung medienpädagogischer Kompetenzen werden besprochen (Sigrid Blömeke, Werner Sesink, International Society for Technology in Education). Im Rekurs auf konstruktivistische lerntheoretische Überlegungen erfährt das problemorientierte Lernen beim Aufbau von Kompetenzen eine enorme Aufwertung. In der Arbeit wird insbesondere den Arbeiten von David Jonassen zu einer konstruktivistisch-instruktionistischen Herangehensweise bei der Gestaltung problemorientierter Lernumgebungen eine große Bedeutung zugesprochen (vgl. auch Ansätze des Goal-based Scenarios/Roger Schank und des Learning by Design/Janet Kolodner). Im zweiten Teil wird die Interventionsstudie im Kontrollgruppendesign vorgestellt. Anhand eines Modells medienpädagogischer Kompetenz, dass auf den Dimensionen Wissen einerseits und Können andererseits basiert, wurden Studierende (n=59) in einem Pre-Posttestverfahren auf diese Dimensionen getestet. Die Studierenden der Interventionsgruppe (n=30) arbeiteten über ein Semester mit einer problemorientierten Lernanwendung, die Studierenden der Kontrollgruppe (n=29) in einem klassischen Seminarsetting. Hauptergebnis der Untersuchung ist es, das die Intervention zu einem messbaren Lernerfolg beim medienpädagogischen Können führte. In der Diskussion der Ergebnisse werden Empfehlungen zur Gestaltung problemorientierter Lernumgebungen formuliert. Die Chancen einer Orientierung an problemorientierten Lernsettings für das Lernen an Hochschulen werden herausgestellt.
Resumo:
Die Arbeit behandelt das Problem der Skalierbarkeit von Reinforcement Lernen auf hochdimensionale und komplexe Aufgabenstellungen. Unter Reinforcement Lernen versteht man dabei eine auf approximativem Dynamischen Programmieren basierende Klasse von Lernverfahren, die speziell Anwendung in der Künstlichen Intelligenz findet und zur autonomen Steuerung simulierter Agenten oder realer Hardwareroboter in dynamischen und unwägbaren Umwelten genutzt werden kann. Dazu wird mittels Regression aus Stichproben eine Funktion bestimmt, die die Lösung einer "Optimalitätsgleichung" (Bellman) ist und aus der sich näherungsweise optimale Entscheidungen ableiten lassen. Eine große Hürde stellt dabei die Dimensionalität des Zustandsraums dar, die häufig hoch und daher traditionellen gitterbasierten Approximationsverfahren wenig zugänglich ist. Das Ziel dieser Arbeit ist es, Reinforcement Lernen durch nichtparametrisierte Funktionsapproximation (genauer, Regularisierungsnetze) auf -- im Prinzip beliebig -- hochdimensionale Probleme anwendbar zu machen. Regularisierungsnetze sind eine Verallgemeinerung von gewöhnlichen Basisfunktionsnetzen, die die gesuchte Lösung durch die Daten parametrisieren, wodurch die explizite Wahl von Knoten/Basisfunktionen entfällt und so bei hochdimensionalen Eingaben der "Fluch der Dimension" umgangen werden kann. Gleichzeitig sind Regularisierungsnetze aber auch lineare Approximatoren, die technisch einfach handhabbar sind und für die die bestehenden Konvergenzaussagen von Reinforcement Lernen Gültigkeit behalten (anders als etwa bei Feed-Forward Neuronalen Netzen). Allen diesen theoretischen Vorteilen gegenüber steht allerdings ein sehr praktisches Problem: der Rechenaufwand bei der Verwendung von Regularisierungsnetzen skaliert von Natur aus wie O(n**3), wobei n die Anzahl der Daten ist. Das ist besonders deswegen problematisch, weil bei Reinforcement Lernen der Lernprozeß online erfolgt -- die Stichproben werden von einem Agenten/Roboter erzeugt, während er mit der Umwelt interagiert. Anpassungen an der Lösung müssen daher sofort und mit wenig Rechenaufwand vorgenommen werden. Der Beitrag dieser Arbeit gliedert sich daher in zwei Teile: Im ersten Teil der Arbeit formulieren wir für Regularisierungsnetze einen effizienten Lernalgorithmus zum Lösen allgemeiner Regressionsaufgaben, der speziell auf die Anforderungen von Online-Lernen zugeschnitten ist. Unser Ansatz basiert auf der Vorgehensweise von Recursive Least-Squares, kann aber mit konstantem Zeitaufwand nicht nur neue Daten sondern auch neue Basisfunktionen in das bestehende Modell einfügen. Ermöglicht wird das durch die "Subset of Regressors" Approximation, wodurch der Kern durch eine stark reduzierte Auswahl von Trainingsdaten approximiert wird, und einer gierigen Auswahlwahlprozedur, die diese Basiselemente direkt aus dem Datenstrom zur Laufzeit selektiert. Im zweiten Teil übertragen wir diesen Algorithmus auf approximative Politik-Evaluation mittels Least-Squares basiertem Temporal-Difference Lernen, und integrieren diesen Baustein in ein Gesamtsystem zum autonomen Lernen von optimalem Verhalten. Insgesamt entwickeln wir ein in hohem Maße dateneffizientes Verfahren, das insbesondere für Lernprobleme aus der Robotik mit kontinuierlichen und hochdimensionalen Zustandsräumen sowie stochastischen Zustandsübergängen geeignet ist. Dabei sind wir nicht auf ein Modell der Umwelt angewiesen, arbeiten weitestgehend unabhängig von der Dimension des Zustandsraums, erzielen Konvergenz bereits mit relativ wenigen Agent-Umwelt Interaktionen, und können dank des effizienten Online-Algorithmus auch im Kontext zeitkritischer Echtzeitanwendungen operieren. Wir demonstrieren die Leistungsfähigkeit unseres Ansatzes anhand von zwei realistischen und komplexen Anwendungsbeispielen: dem Problem RoboCup-Keepaway, sowie der Steuerung eines (simulierten) Oktopus-Tentakels.
Resumo:
Im Forschungsgebiet der Künstlichen Intelligenz, insbesondere im Bereich des maschinellen Lernens, hat sich eine ganze Reihe von Verfahren etabliert, die von biologischen Vorbildern inspiriert sind. Die prominentesten Vertreter derartiger Verfahren sind zum einen Evolutionäre Algorithmen, zum anderen Künstliche Neuronale Netze. Die vorliegende Arbeit befasst sich mit der Entwicklung eines Systems zum maschinellen Lernen, das Charakteristika beider Paradigmen in sich vereint: Das Hybride Lernende Klassifizierende System (HCS) wird basierend auf dem reellwertig kodierten eXtended Learning Classifier System (XCS), das als Lernmechanismus einen Genetischen Algorithmus enthält, und dem Wachsenden Neuralen Gas (GNG) entwickelt. Wie das XCS evolviert auch das HCS mit Hilfe eines Genetischen Algorithmus eine Population von Klassifizierern - das sind Regeln der Form [WENN Bedingung DANN Aktion], wobei die Bedingung angibt, in welchem Bereich des Zustandsraumes eines Lernproblems ein Klassifizierer anwendbar ist. Beim XCS spezifiziert die Bedingung in der Regel einen achsenparallelen Hyperquader, was oftmals keine angemessene Unterteilung des Zustandsraumes erlaubt. Beim HCS hingegen werden die Bedingungen der Klassifizierer durch Gewichtsvektoren beschrieben, wie die Neuronen des GNG sie besitzen. Jeder Klassifizierer ist anwendbar in seiner Zelle der durch die Population des HCS induzierten Voronoizerlegung des Zustandsraumes, dieser kann also flexibler unterteilt werden als beim XCS. Die Verwendung von Gewichtsvektoren ermöglicht ferner, einen vom Neuronenadaptationsverfahren des GNG abgeleiteten Mechanismus als zweites Lernverfahren neben dem Genetischen Algorithmus einzusetzen. Während das Lernen beim XCS rein evolutionär erfolgt, also nur durch Erzeugen neuer Klassifizierer, ermöglicht dies dem HCS, bereits vorhandene Klassifizierer anzupassen und zu verbessern. Zur Evaluation des HCS werden mit diesem verschiedene Lern-Experimente durchgeführt. Die Leistungsfähigkeit des Ansatzes wird in einer Reihe von Lernproblemen aus den Bereichen der Klassifikation, der Funktionsapproximation und des Lernens von Aktionen in einer interaktiven Lernumgebung unter Beweis gestellt.
Resumo:
In der vorliegenden Arbeit wurden die durch Training induzierten motorischen Gedächtnisleistungen der Taufliege Drosophila melanogaster beim Überklettern von acht symmetrisch verteilten Lücken auf einem rotierenden Ring untersucht. Durch den auf sie einwirkenden optischen Fluss der vorbeiziehenden äußeren Umgebung wurden die Fliegen angeregt, diesem optomotorischen Reiz entgegenzuwirken und die Lücken laufend zu überqueren. Durch Training verbessert und langfristig gelernt wird die kompensatorische Lückenüberquerung X+ gegen die Rotation. In der aus diesem Training erhaltenen Lernkurve war eine überdurchschnittlich hohe Leistungsverbesserung nach einem einzigen Trainingslauf mit einem zeitlichen Bestand von ca. 40 Minuten abzulesen, um danach vom motorischen Gedächtnisspeicher trainierter Fliegen nicht mehr abgerufen werden zu können. Nach einer Ruhephase von einem bis mehreren Tagen wurden die Fliegen auf mögliche Langzeitlernleistungen untersucht und diese für verschiedene Intervalle nachgewiesen. Sowohl die Leistungsverbesserung während des Trainings, als auch der Lerneffekt nach 24h bleiben in mutanten rutabaga2080 sowie rut1 Fliegen aus. Betroffen ist das Gen der Adenylylzyklase I, ein Schlüsselprotein der cAMP-Signalkaskade, die u.a. im olfaktorischen und visuellen Lernen gebraucht wird. Damit ergab sich die Möglichkeit die motorischen Gedächtnisformen durch partielle Rettung zu kartieren. Die motorische Gedächtniskonsolidierung ist schlafabhängig. Wie sich herausstellte, benötigen WTB Fliegen nur eine Dunkelphase von 10h zwischen einem ersten Trainingslauf und einem Testlauf um signifikante Leistungssteigerungen zu erzielen. In weiterführenden Versuchen wurden die Fliegen nachts sowie tagsüber mit einer LED-Lampe oder in einer Dunkelkammer, mit einem Kreisschüttler oder einer Laborwippe depriviert, mit dem Ergebnis, dass nur jene Fliegen ihre Leistung signifikant gegenüber einem ersten Trainingslauf verbessern konnten, welche entweder ausschließlich der Dunkelheit ausgesetzt waren oder welchen die Möglichkeit gegeben wurde, ein Gedächtnis zunächst in einer natürlichen Schlafphase zu konsolidieren (21Uhr bis 7Uhr MEZ). In weiteren Experimenten wurden die experimentellen Bedingungen entweder während des Trainings oder des Tests auf eine Fliege und damit verbunden auf eine erst durch das Training mögliche motorische Gedächtniskonsolidierung einwirken zu können, untersucht. Dazu wurden die Experimentparameter Lückenweite, Rotationsrichtung des Lückenringes, Geschwindigkeit des Lückenringes sowie die Verteilung der acht Lücken auf dem Ring (symmetrisch, asymmetrisch) im Training oder beim Gedächtnisabruf im Testlauf verändert. Aus den Ergebnissen kann geschlussfolgert werden, dass die Lückenweite langzeitkonsolidiert wird, die Rotationsrichtung kurzzeitig abgespeichert wird und die Drehgeschwindigkeit motivierend auf die Fliegen wirkt. Die symmetrische Verteilung der Lücken auf dem Ring dient der Langzeitkonsolidierung und ist als Trainingseingang von hoher Wichtigkeit. Mit Hilfe verschiedener Paradigmen konnten die Leistungsverbesserungen der Fliegen bei Abruf eines Kurz- bzw. Langzeitgedächtnisses hochauflösend betrachtet werden (Transfer). Die Konzentration, mit der eine WTB Fliege eine motorische Aufgabe - die Überquerung von Lücken entgegengesetzt der Rotationsrichtung - durchführt, konnte mit Hilfe von Distraktoreizen bestimmt werden. Wie sich herausstellte, haben Distraktoren einen Einfluss auf die Erfolgsquote einer Überquerung, d.h. mit zunehmender Distraktionsstärke nahm die Wahrscheinlichkeit einer Lückenüberquerung ab. Die Ablenkungsreize wirkten sich weiterhin auf die Vermessung einer Lücke aus, in dem entweder "peering"-artigen Bewegungen im Training durchgeführt wurden oder je nach Reizstärke ausschließlich nur jene Lücken vermessen wurden, welche auch überquert werden sollten.
Resumo:
In diesem Arbeitspapier will ich zur künftigen Forschung über soziale Stratifikation in Afrika beitragen, indem ich die theoretischen Implikationen und empirischen Herausforderungen der Konzepte "Elite" und "Mittelklasse" untersuche. Diese Konzepte stammen aus teilweise miteinander konkurrierenden Theorietraditionen. Außerdem haben Sozialwissenschaftler und Historiker sie zu verschiedenen Zeiten und mit Bezug auf verschiedene Regionen unterschiedlich verwendet. So haben Afrikaforscher und -forscherinnen soziale Formationen, die in anderen Teilen der Welt als Mittelklasse kategorisiert wurden, meist als Eliten aufgefasst und tun dies zum Teil noch heute. Elite und Mittelklasse sind aber nicht nur Begriffe der sozialwissenschaftlichen Forschung, sondern zugleich Kategorien der sozialen und politischen Praxis. Die Art und Weise, wie Menschen diese Begriffe benutzen, um sich selbst oder andere zu beschreiben, hat wiederum Rückwirkungen auf sozialwissenschaftliche Diskurse und umgekehrt. Das Arbeitspapier setzt sich mit beiden Aspekten auseinander: mit der Geschichte der theoretischen Debatten über Elite und Mittelklasse und damit, was wir aus empirischen Studien über die umstrittenen Selbstverortungen sozialer Akteure lernen können und über ihre sich verändernden Auffassungen und Praktiken von Elite- oder Mittelklasse-Sein. Weil ich überzeugt bin, dass künftige Forschung zu sozialer Stratifikation in Afrika außerordentlich viel von einer historisch und regional vergleichenden Perspektive profitieren kann, analysiert dieses Arbeitspapier nicht nur Untersuchungen zu afrikanischen Eliten und Mittelklassen, sondern auch eine Fülle von Studien zur Geschichte der Mittelklassen in Europa und Nordamerika sowie zu den neuen Mittelklassen im Globalen Süden.
Resumo:
In der vorliegenden Dissertation wird ein Körpergrößengedächtnis untersucht. Es wird dargestellt, wie diese Information über die Reichweite der Fliege beim Lückenklettern unter kotrollierten Umweltbedingungen erworben und prozessiert wird. Zusätzlich wird geklärt, welche biochemischen Signale benötigt werden, um daraus ein lang anhalten-des Gedächtnis zu formen. Adulte Fliegen sind in der Lage, ihre Körperreichweite zu lernen. Naive Fliegen, die in der Dunkelheit gehalten wurden, versuchen erfolglos, zu breite Lücken zu überqueren, während visuell erfahrene Fliegen die Kletterversuche an ihre Körpergröße anpassen. Erfahrene kleine Fliegen scheinen Kenntnis ihres Nachteils zu haben. Sie kehren an Lückenbreiten um, welche ihre größeren Artgenos-sen durchaus noch versuchen. Die Taufliegen lernen die größenabhängige Reichweite über die visuelle Rückmeldung während des Laufens (aus Parallaxenbewegung). Da-bei reichen 15 min in strukturierter, heller Umgebung aus. Es gibt keinen festgelegten Beginn der sensiblen Phase. Nach 2 h ist das Gedächtnis jedoch konsolidiert und kann durch Stress nicht mehr zerstört oder durch sensorische Eingänge verändert werden. Dunkel aufgezogene Fliegen wurden ausgewählten Streifenmustern mit spezifischen Raumfrequenzen ausgesetzt. Nur die Insekten, welche mit einem als „optimal“ klassi-fizierten Muster visuell stimuliert wurden, sind in der Lage, die Körperreichweite einzu-schätzen, indem die durchschnittliche Schrittlänge in Verbindung mit der visuellen Wahrnehmung gebracht wird. Überraschenderweise ist es sogar mittels partieller Kompensation der Parallaxen möglich, naive Fliegen so zu trainieren, dass sie sich wie kleinere Exemplare verhalten. Da die Experimente ein Erlernen der Körperreich-weite vermuten lassen, wurden lernmutante Stämme beim Lückenüberwinden getes-tet. Sowohl die Ergebnisse von rut1- und dnc1-Mutanten, als auch das defizitäre Klet-tern von oc1-Fliegen ließ eine Beteiligung der cAMP-abhängigen Lernkaskade in der Protocerebralbrücke (PB) vermuten. Rettungsexperimente der rut1- und dnc1-Hinter-gründe kartierten das Gedächtnis in unterschiedliche Neuronengruppen der PB, wel-che auch für die visuelle Ausrichtung des Kletterns benötigt werden. Erstaunlicher-weise haben laterale lokale PB-Neurone und PFN-Neurone (Projektion von der PB über den fächerförmigen Körper zu den Noduli) verschiedene Erfordernisse für cAMP-Signale. Zusammenfassend weisen die Ergebnisse darauf hin, dass hohe Mengen an cAMP/PKA-Signalen in den latero-lateralen Elementen der PB benötigt werden, wäh-rend kolumnäre PFN-Neurone geringe oder keine Mengen an cAMP/PKA erfordern. Das Körperreichweitengedächtnis ist vermutlich das am längsten andauernde Ge-dächtnis in Drosophila. Wenn es erst einmal konsolidiert ist hält es länger als drei Wo-chen.rnAußerdem kann die Fruchtliege Drosophila melanogaster trainiert werden, die kom-plexe motorische Aufgabe des Lückenkletterns zu optimieren. Die trainierten Fliegen werden erfolgreicher und schneller beim Überqueren von Lücken, welche größer sind als sie selbst. Dabei existiert eine Kurzeitkomponente (STM), die 40 min nach dem ersten Training anhält. Nach weiteren vier Trainingsdurchläufen im Abstand von 20 min wird ein Langzeitgedächtnis (LTM) zum Folgetag geformt. Analysen mit Mutati-onslinien wiesen eine Beteiligung der cAMP-abhängigen Lernkaskade an dieser Ge-dächtnisform auf. Rettungsexperimente des rut2080-Hintergrunds kartierten sowohl das STM, als auch das LTM in PFN-Neuronen. Das STM kann aber ebenso in den alpha- und beta- Loben der Pilzkörper gerettet werden.rnLetztendlich sind wildtypische Fliegen sogar in der Lage, sich an einen Verlust eines Mittelbeintarsuses und dem einhergehenden Fehlen des Adhäsionsorgans am Tarsusende anzupassen. Das Klettern wird zwar sofort schlechter, erholt sich aber bis zum Folgetag wieder auf ein normales Niveau. Dieser neue Zustand erfordert ein Ge-dächtnis für die physischen Möglichkeiten, die nur durch plastische Veränderungen im Nervensystem des Insekts erreicht werden können.
Resumo:
In dieser Arbeit wird eine neue Methode zur Berechnung derLebensdauern von Ortho-Positronium in Polymerenbeschrieben. Zur Auswertung vonPositronium-Annihilations-Experimenten wurde bislang eineinfaches Modell verwendet, dessen Gültigkeit im Falle vonPolymeren fragwürdig ist. Durch ein verbessertes Modell wirdeine realistischere Beschreibung der Lebensdauernmöglich. Mit verschiedenen quantenmechanischen Methoden wirdeine Näherung für das Wechselwirkungspotential desPositroniums mit der Polymermatrix bestimmt. DieElektronendichte im Polymer wird mit quantenchemischenRechnungen ermittelt, während die Polymerstruktur selbst mitMolekulardynamik-Simulationen auf atomistis cher Ebeneberechnet wird. Die Pfad-integral-Monte-Carlo-Methodegestattet es dann, die Aufenthaltswahrscheinlichkeit unddaraus die Lebensdauer von Ortho-Positronium in den zumfreien Volumen gehörenden Löchern im Polymer zuberechnen. Diese werden mit Ergebnissen ausPositroniu-Annihilations-Experimenten verglichen. Wenn sieübereinstimmen, läßt sich schließen, daß diezugrundeliegenden simulierten Polymerkonfigurationen inBezug auf das freie Volumen ein realistisches Abbild desrealen Polymers sind. Da die Positionen der Atome in der Simulation bekannt sind,wird das freie Volumen mit der Gittermethode bestimmt undmit einem Clusteralgorithmus zu Löchern zusammengefaßt, diedann geometrisch analysiert werden. So können Informationenüber Gestalt, Größe und Verteilung der Löcher gewonnenwerden, die weit über das bislang verwendete Standardmodellhinausgehen. Es zeigt sich, daß einige der Annahmen desStandardmodells nicht erfüllt sind. Die Möglichkeiten des neuen Verfahrens werden an Polystyrolund Bisphenol-A-Polycarbonat demonstriert. ExperimentelleLebensdauerspektren können gut reproduziert werden. Eswurden umfangreiche Analysen des freien Volumensdurchgeführt. Im Falle des Polystyrols wurde auch seineTemperaturabhängigkeit untersucht. Des weiteren werden Simulationen zur Diffusion vonKohlendioxid in Polystyrol bei verschiedenen Temperaturenund Drücken präsentiert. Die Berechnung vonDiffusionskoeffizienten in NpT-Simulationen wird diskutiert;es wird eine Methode dargestellt, die die Berechnung derVerschiebung der Teilchen in ungefalteten Koordinatenerlaubt, auch wenn die Größe der Simulationszellefluktuiert, weil eine automatische Druckkontrolle verwendetwird. Damit werden Diffusionskoeffizientenermittelt. Außerdem wird der Frage nachgegangen, welcheLöcher die Kohlendioxidmoleküle besetzen. Dies ist von derexperimentellen Seite interessant, weil häufig gasbeladenePolymere durch Positronium untersucht werden, um dieAnzahldichte der Löcher zu bestimmen; diese wird wiederumbenötigt, um aus dem mittleren Volumen eines Loches dasgesamte freie Volumen zu berechnen.
Resumo:
Die Zielsetzung der Arbeit war die Darstellung von Polyindenofluorenen PIF, einer neuen Klasse konjugierter Polymere, die aus Dihydroindenofluoren-Untereinheiten aufgebaut und formal an den Methylenbrücken über exocyclische Doppelbindungen verknüpft sind.Am Anfang stand die Ausarbeitung eines allgemeinen Synthesekonzeptes zum Aufbau von Polymeren mit sterisch gehinderten Doppelbindungen. Mit der Kupplung von geminalen Dichloriden mit Übergangsmetallverbindungen als Reduktionsmittel wurde eine vielversprechende neue Polyolefinierungsmethode gefunden. Diese Synthesemethode zeichnet sich durch eine einfache Durchführung, synthetisch leicht zugängliche Edukte und neutrale Reaktionsbedingungen aus. Es lassen sich selbst bei gespannten Olefinen sehr gute Ausbeuten erzielen. Drei strukturisomere Dihydroindenofluorene wurden als potentielle Strukturbausteine untersucht, die sich durch die Stellung der Methylenbrücken bezüglich des zentralen Phenylrings unterscheiden. Die resultierenden Polymerstrukturen wurden als para-, meta- und ortho-Poly(indenofluorene) bezeichnet.Das Poly(para-indenofluoren) pPIF wurde als ein hochmolekulares und strukturdefiniertes Polymer erhalten. Die über Molekulargewichtsanalyse (GPC) erhaltenen Polymerisationsgrade ergaben Werte von bis zu 55 Wiederholungseinheiten. Die längstwellige Absorptionsbande von pPIF liegt bei circa 800 nm, was einer Bandlücke von 1.45 eV enspricht. Darüberhinaus zeichnet sich pPIF durch eine hohe chemische Stabilität und sehr hohe Löslichkeit aus. Durch den kleinen Bandabstand ließen sich interessante nichtlineare-optische (NLO) Effekte und eine hohe Photoleitfähigkeit erwarten. Da diese Effekte von materialwissenschaftlichem Interesse sind, wurden detailierte Untersuchungen dieser Eigenschaften vorgenommen. Das Poly(meta-indenofluoren) mPIF konnte mit einem Polymerisationsgrad von circa 13 Wiederholungseinheiten dargestellt werden. Bedingt durch die meta-Verknüpfung, die keine Konjugation über den zentralen Phenylring erlaubt, liegt das Absorptionsmaximum, im Vergleich zu pPIF blauverschoben bei 437 nm.Bei Poly(ortho-indenofluoren) oPIF scheiterten alle Versuche zum Aufbau eines Polymers, was mit den, im Vergleich zu pPIF und mPIF, noch stärker gespannten Doppelbindungen zwischen den Indenofluorenen, sprich Untereinheiten, erklärt werden kann. An strukturdefinierten Modellverbindungen von pPIF konnte gezeigt werden, daß eine Konvergenz der elektronischen Eigenschaften beim Nonamer noch nicht erreicht ist. Bei der Auftragung von 1/n gegen Eabs wird, nach linearer Extrapolation, ein Wert von circa 18 für die effe
Resumo:
Der evolutionär älteste Tierstamm der Metazoa, die Schwämme (Porifera), bietet sich als Modellorganismus zur Untersuchung der Selbst/Fremd-Erkennung an. Diese Unterscheidung wurde bei der Evolution von einzelligen zu mehrzelligen Tieren wichtig. Schwämme besitzen ein angeborenes Immunsystem. Ob sie auch Vorläufer der Immunrezeptoren aufweisen, sollte in dieser Arbeit untersucht werden. Einen ersten Schritt stellte die Identifizierung weiterer Gene mit Immunglobulin-ähnlichen Domänen dar. Mit der Isolierung der beiden 'Schwamm-Adhäsionsmoleküle' GCSAML und GCSAMS durch ein Homologiescreening ist dies gelungen. Die Beteiligung dieser Moleküle an einer Immunantwort wurde mit Hilfe von Transplantationsexperimenten untersucht. Die Gewebe von Autotransplantaten fusionierten, während es bei Allotransplantaten zu einer Abstoßung des eingesetzten Gewebes kam. Durch Immunfluoreszenz-Untersuchungen sowohl an Geodia cydonium- als auch an Suberites domuncula-Zellen konnte gezeigt werden, daß Moleküle mit Immunglobulin-ähnlichen Domänen an den Transplantationsprozessen beteiligt sind. Northern Blot-Analysen zeigten die Beteiligung speziell von GCSAML an der Autotransplantation. Western Blot-Analysen bestätigten diese Ergebnisse und weiteten sie auf Allotransplantationen aus. Beide GCSAM-Gene können der Immunglobulin-Superfamilie zugeordnet werden. GCSAML kann durch die Existenz des sogenannten ITIM-Motives weiter in die spezielle Klasse der inhibitorischen Rezeptoren gruppiert werden und stellt damit einen Vorläufer der Immunrezeptoren dar.
Resumo:
Poröse Medien spielen in der Hydrosphäre eine wesentliche Rolle bei der Strömung und beim Transport von Stoffen. In diesem Raum finden komplexe Prozesse statt: Advektion, Kon-vektion, Diffusion, hydromechanische Dispersion, Sorption, Komplexierung, Ionenaustausch und Abbau. Die strömungsmechanischen- und die Transportverhältnisse in porösen Medien werden direkt durch die Geometrie des Porenraumes selbst und durch die Eigenschaften der transportierten (oder strömenden) Medien bestimmt. In der Praxis wird eine Vielzahl von empirischen Modellen verwendet, die die Eigenschaften des porösen Mediums in repräsentativen Elementarvolumen wiedergeben. Die Ermittlung der in empirischen Modellen verwendeten Materialparameter erfolgt über Labor- oder Feldbestimmungsmethoden. Im Rahmen dieser Arbeit wurde das Computer-modell PoreFlow entwickelt, welches die hydraulischen Eigenschaften eines korngestützten porösen Mediums aus der mikroskopischen Modellierung des Fluidflusses und Transportes ableitet. Das poröse Modellmedium wird durch ein dreidimensionales Kugelpackungsmodell, zusam-mengesetzt aus einer beliebigen Kornverteilung, dargestellt. Im Modellporenraum wird die Strömung eines Fluids basierend auf einer stationären Lösung der Navier-Stokes-Gleichung simuliert. Die Ergebnisse der Modellsimulationen an verschiedenen Modellmedien werden mit den Ergebnissen von Säulenversuchen verglichen. Es zeigt sich eine deutliche Abhängigkeit der Strömungs- und Transportparameter von der Porenraumgeometrie sowohl in den Modell-simulationen als auch in den Säulenexperimenten.
Resumo:
Zusammenfassung Das ventrale Nervensystem (vNS) von Drosophila melanogaster entsteht aus zwei verschiedenen Populationen von Vorläufern, den mesektodermalen oder Mittellinien (ML)-Vorläufern und den neuroektodermalen Vorläufern oder Neuroblasten (NBs). Beide Populationen unterscheiden sich in vielen Aspekten, wie z.B. Genexpression, Teilungsverhalten und Zellstammbaum. Die ca. 30 NBs pro Hemisegment delaminieren als Einzelzellen aus dem Neuroektoderm und bilden ein invariantes subepidermales Muster in der neu entstandenen neuralen Zellschicht aus. Sie sind dort aufgrund ihrer Lage und der Expression spezifischer molekularer Marker individuell identifizierbar. Um die Mechanismen zu verstehen, die zur Determination und Differenzierung von ZNS Zellen führen, ist es eine Grundvoraussetzung, die Zellstammbäume aller Vorläufer zu kennen. Unter Verwendung des lipophilen in vivo Fluoreszenzfarbstoffs DiI wurden in früheren Arbeiten die Zellstammbäume der ML-Vorläufer und von 17 NBs, die aus der ventralen Hälfte des Neuroektoderms stammten, beschrieben. In der hier vorgelegten Arbeit wurden die Zellstammbäume von 13 NBs, die aus dem dorsalen Teil des Neuroektoderms delaminierten, beschrieben und 12 davon identifizierten Vorläufern zugeordnet. Darüber hinaus wurde ein bisher nicht beschriebener NB (NB 1-3) identifiziert und anhand morphologischer und molekularer Kriterien charakterisiert. Insgesamt produzierten die NBs ca. 120 Neurone und 22 bis 27 Gliazellen pro Hemineuromer, die in eine systematische Terminologie eingefügt wurden. Insgesamt besteht damit ein Neuromer des embryonalen vNS von Drosophila aus ca. 700 Neuronen (350 pro Hemineuromer) und 60 Gliazellen (30 pro Hemineuromer), die von NBs abstammen. Hinzu kommen ca. 12 ML-Neurone und 2 bis 4 ML-Glia pro Neuromer. Damit stammten die meisten Gliazellen im embryonalen vNS von Drosophila von NBs ab, die aus dem dorsalen Neuroektoderm hervorgingen. Zwei dieser NBs hatten ausschließlich gliale Nachkommen (NB 6-4A, GP) und fünf generierten sowohl Glia als auch Neurone (NBs 1-3, 2-5, 5-6, 6-4T, 7-4). Die übrigen sieben Zellstammbäume (NBs 2-4, 3-3, 3-5, 4-3, 4-4, 5-4, Klon y) waren rein neuronal. Es war ferner möglich, das bereits bekannte laterale Cluster von even-skipped exprimierenden Zellen (EL) dem Stammbaum von NB 3-3 zuzuordnen. Zusammen mit den zuvor beschriebenen Klonen sind damit mehr als 90% der thorakalen und abdominalen Zellstammbäume im embryonalen vNS von Drosophila bekannt. Darüber hinaus sind zuvor identifizierte Neurone und die meisten Gliazellen einem bestimmten Stammbaum zugeordnet und damit mit einer ontogenetischen Geschichte versehen. Dieser komplette Datensatz liefert eine Grundlage für die Interpretation mutanter Phänotypen und für zukünftige Untersuchungen über die Festlegung von Zellschicksalen und die Differenzierung von Zellen. Dies könnte dazu beitragen, das Verhältnis zwischen Herkunft der Zelle, Genexpression und Zellfunktion besser zu verstehen. Die wesentliche Funktion neuronaler Zellen ist die Integration und Weiterleitung von elektrischen Signalen. Mithin ist die Ausbildung elektrischer Eigenschaften (Elektrogenese) ein wesentlicher Aspekt der neuronalen Entwicklung. Um dabei zelltypspezifische Unterschiede zu finden, ist die Arbeit an definierten Zellpopulationen eine zwingende Voraussetzung. Es wurde daher hier ein in vitro System verwendet, das die selektive Kultivierung identifizierter embryonaler Vorläufer unter verschiedenen Bedingungen erlaubt. Da die Zellstammbäume der ML-Vorläufer besonders einfach sind und die ML-Zellen zudem in vielen Aspekten von den neuroektodermalen Zellen verschieden sind (s.o.), wurden die ML-Neurone als erstes Modellsystem ausgewählt. Unter Verwendung der Patch-clamp Technik wurden die in dieser definierten Zellpopulation auftretenden Ionenströme detailliert beschrieben. ML-Neurone exprimierten zumindest zwei verschiedene Typen von spannungsgesteuerten K+-Strömen (IA und IK), einen spannungsabhängigen Na+-Strom und zwei spannungsgesteuerte Ca(Ba)2+-Ströme. Darüber hinaus reagierten sie auf die Neurotransmitter ACh und GABA. Die meisten Ionenströme in den ML-Neuronen waren, trotz ihrer ontogenetischen Besonderheit, annähernd identisch mit denen, die in anderen Drosophila-Neuronen gefunden wurden. Ihnen fehlte allerdings eine anhaltende Komponente des Na+-Stroms, und sie waren homogen in ihrer Aktivität. Selbst bei anhaltender elektrischer Stimulation generierten sie immer nur ein Aktionspotential. Sie sind daher möglicherweise spezifisch hinsichtlich ihrer Signalleitungseigenschaften. Interessanterweise zeigte sich durch Verwendung verschiedener Kulturbedingungen, daß die Expression der spannungsgesteuerten K+-Kanäle weitgehend zellautonom erfolgte, während die Expression der anderen Ströme stark durch das Vohandensein von Neuritenkontakten beeinflußt wurde. Vorläufige Untersuchungen lassen darauf schließen, daß der involvierte molekulare Mechanismus unabhängig von synaptischer Transmission ist. In einer Art 'Ausblick' wurde schließlich die Validität von in vitro Ableitungen durch Analyse spannungsgesteuerter K+-Ströme in einer neuen in situ Präparation geprüft, die verschiedene Bereiche des Drosophila-ZNS für elektrophysiologische Untersuchungen zugänglich macht. Damit ist ein experimentelles System etabliert, daß den direkten Vergleich von in vitro und in situ Daten an definierten Zellpopulationen ermöglichen sollte.
Resumo:
Kurzfassung Zielsetzung der vorliegenden Arbeit war eine hydrogeologische Untersuchung zur Herkunftsbestimmung der Grundwässer im Raum Alzey/Rheinhessen. Ein erster Anlaß zu weiteren Untersuchungen war durch erhöhte Schwermetallgehalte in den Rohwässern gegeben. Im Alzeyer Raum können Kluftgrundwasserleiter (Rotliegendes und z.T. verkarstetes Kalktertiär) sowie Porengrundwasserleiter (Tertiäre Meeressande und Ablagerungen des Quartärs) unterschieden werden. Aufgrund der Lösungsinhalte ergibt sich eine Typisierung in erdalkalische Hydrogenkarbonatwässer bzw. Austauschwässer, bei denen Erdalkalien durch Alkalien ersetzt wurden. Mit verschiedenen Grundwassermodellierungen konnten mögliche 'Grundwasserneubildungs-Pfade' aufgezeigt werden. Die 1996 durchgeführte Herabsetzung des Arsengrenzwertes zwang viele Versorgungsunternehmen weitere Verfahrenstechniken zur Grundwasseraufbereitung anzuwenden. Es zeigten sich erhebliche Schwierigkeiten bei der Umsetzung der EU-Wasserrahmenrichtlinie bezogen auf das lokale Untersuchungsgebiet Alzey. Schwermetallmobilisationen im Untergrund können aufgrund anthropogen eingetragener Nitrate im sonst reduzierenden Milieu ermöglicht werden. Mittels Tritium- und FCKW-Analysen konnten Alter bzw. Verweilzeiten der Wässer bestimmt werden. Zusammen mit den Werten von Deuterium und Sauerstoff-18, Schwefel-34 und Sauerstoff-18 aus dem im Wasser gelösten Sulfat und Stickstoff-15 und Sauerstoff-18 aus dem im Wasser gelösten Nitrat, konnten Aussagen über Änderungen im Aquifermilieu getroffen werden. Es zeigte sich, daß selbst bei einem völligen Stop des Düngemitteleintrages, die Schwermetallmobilisationen in Grundwässern im Bereich Rheinhessisches Hügelland innerhalb der nächsten 30 Jahre nicht abnehmen werden.
Resumo:
In dieser Dissertation stellen wir einen neuen Ansatz zurModellierungvon Polymersystemen vor. Es werden (von methodischer Seiteher) zweiautomatisierte Iterationschemata dazu eingeführt,Kraftfeldparametermesoskopischer Polymersysteme systematisch zu optimieren:DasSimplex-Verfahren und das Struktur-Differenzen-Verfahren. Sowerdendiejenigen Freiheitsgrade aus Polymersystemen eliminiert,die einehohe Auflösung erfordern, was die Modellierung größerersystemeermöglicht. Nach Tests an einfachen Flüssigkeiten werdenvergröberteModelle von drei prototypischen Polymeren (Polyacrylsäure,Polyvinylalkohol und Polyisopren) in unterschiedlichenUmgebungen(gutes Lösungsmittel und Schmelze) entwickelt und ihrVerhalten aufder Mesoskala ausgiebig geprüft. Die zugehörige Abbildung(vonphysikalischer Seite her) so zu gestalten, daß sie dieunverwechselbaren Charakteristiken jedes systems auf diemesoskopischeLängenskala überträgt, stellt eine entscheidende Anforderungan dieautomatisierten Verfahren dar. Unsere Studien belegen, daß mesoskopische Kraftfeldertemperatur- unddichtespezifisch sind und daher bei geändernden Bedingungennachoptimiert werden müssen. Gleichzeitig läßt sichabschätzen, beiwelchen Umgebungsbedingungen dies noch nicht notwendig wird.In allenFällen reichen effektive Paarpotentiale aus, einrealistischesmesoskopisches Modell zu konstruieren. VergröberteSimulationenwerden im Falle der Polyacrylsäure erfolgreich gegenexperimentelleLichtstreudaten getestet. Wir erzielen für Molmassen bis zu300000g/mol eine hervorragende Übereinstimmung für denhydrodynamischenRadius. Unsere Ergebnisse erklären auch Korrekturen zudessenVerhalten als Funktion der Kettenlänge ('Skalenverhalten'). Im Fallevon Polyisopren untersuchen wir sowohl statische als auchdynamischeGrößen und stellen klare Unterschiede unserer Ergebnisse zudeneneines einfachen semi-flexiblen Mesoskalenmodells fest. InderProteinforschung werden aus Datenbanken gewonnene effektivePaarwechselwirkungen dazu verwendet, die freie Energie einesneuensystems vorherzusagen. Wir belegen in einem Exkurs mittelsGittersimulationen, daß es selbst in einfachsten Fällennicht gelingt,dies auch nur qualitativ korrekt zu bewerkstelligen.
Resumo:
Die vorliegende Arbeit beschäftigt sich mit Rubinen der drei derzeit bedeutendsten Vorkommen in Nord-Vietnam, mit ihrer Entstehung, ihrer Charakterisierung, ihrem Edelsteinpotential und ihren Materialeigenschaften im Kontext mit handelsüblichen Synthesen. Zur Erstellung der hierfür erforderlichen Datenbanken wurden sowohl phasenanalytische wie chemisch-analytische als auch spektroskopische Methoden benutzt und die Ergebnisse mit den Erkenntnissen klassischer gemmologischer Untersuchungsmethoden interpretiert. Die natürlichen Bildungsbedingungen der Rubine werden der granulit-faziellen Metamorphose der Day Nui Con Voi - Zone innerhalb der Red River Ailao Shan - Region Südostasiens zugerechnet. Marmore, Gneise und Mobilisationszonen zwischen sehr unterschiedlichen Gesteinen sind dabei zu Trägern von oxidischen Edelsteinmineralen wie Rubin und Spinell geworden, gleichzeitig entstandene Magmatite führen silikatische Edelsteinminerale wie Turmalin und Topas.Mit IR-, Ramanspektroskopie, Elektronstrahl-Mikrosonde und Edelsteinmikroskop werden Kaolinit, Boehmit, Glimmer, Diaspor, Calcit, Zirkon, Turmalin, Graphit, Rutil als charakterisierende Mineraleinschlüsse in vietnamesischen Rubinen bestimmt. Die chemische Zusammensetzung vietnamesischer und synthetischer Rubine wurde mit der Elektronenstrahl-Mikrosonde untersucht. Die vietnamesischen Rubine von Yen Bai, Luc Yen und Nghe An sind aufgrund spezieller Spurenelement-Kombinationen und auch durch Absolutgehalte bestimmter Elemente relativ sicher von Synthesen jeglicher Art zu unterscheiden; selbst die qualitativ besten Synthesen (Douros), die mit klassischen Methoden nur schwer als solche zu identifizieren sind, können von hochwertigen natürlichen Rubinen differenziert werden. Polarisierte Absorptionsspektren vietnamesischer Rubine zeigen die typischen Banden des Cr3+ in der Kristallstruktur des Rubins bei 17953 cm-1; 24570 cm-1 (E?c) sowie 17985 cm-1 und 25125 cm-1 (E//c). Sie entsprechen den Spinübergängen 4A2g?4T2g(4F) und 4A2g?4T1g(4F); eine zu beobachtende Verschiebung der Spektrenkante bei 32500 cm-1 zu 35000 cm-1 nach Temperaturbehandlung wird wahrscheinlich von V3+ verursacht. Mit Laser-Fluoreszenzspektroskopie wurden polarisierte Emissionsspektren von ausgewählten Rubinen mit spezieller Spurenelementchemie aufgenommen; dabei konnte die Schwächung der Fluoreszenzintensität von Cr durch Fe festgestellt werden. Die Emissionsspektren bestehen aus dem charakteristischen Chromdublett (R1 und R2 Linien bei etwa 693 nm und 694 nm), Seitenbanden in Stoke und anti Stoke-Bereich und n-Linien, die auf die Emission benachbarter, farbwirksamer Ionenpaare zurückzuführen sind. Das Verhältnis der Intensitäten der n-Linien bei 702 nm und 705 nm zu den Seitenbandenlinien bei 713 nm zeigt im untersuchten Cr3+-Konzentrationsbereich eine nahezu lineare Abhängigkeit zur Cr3+-Konzentration, unabhängig von der Anregungswellenlänge und der Fe-Konzentration. Die in vietnamesischen Rubinen häufig vorkommenden blauen Farbzonen werden durch elektronische Wechselwirkung von Fe2+/Fe3+ und Fe2+/Ti4+ -Kombinationen verursacht und können für den Edelstein schadlos durch geeignete Temperaturbehandlung eliminiert werden.