4 resultados para Learning by Doing
em ArchiMeD - Elektronische Publikationen der Universität Mainz - Alemanha
Resumo:
Sekundäres organisches Aerosol (SOA) ist ein wichtiger Bestandteil von atmosphärischen Aerosolpartikeln. Atmosphärische Aerosole sind bedeutsam, da sie das Klima über direkte (Streuung und Absorption von Strahlung) und indirekte (Wolken-Kondensationskeime) Effekte beeinflussen. Nach bisherigen Schätzungen ist die SOA-Bildung aus biogenen Kohlenwasserstoffen global weit wichtiger als die SOA-Bildung aus anthropogenen Kohlenwasserstoffen. Reaktive Kohlenwasserstoffe, die in großen Mengen von der Vegetation emittiert werden und als die wichtigsten Vorläufersubstanzen für biogenes SOA gelten, sind die Terpene. In der vorliegenden Arbeit wurde eine Methode entwickelt, welche die Quantifizierung von aciden Produkten der Terpen-Oxidation ermöglicht. Die Abscheidung des größenselektierten Aerosols (PM 2.5) erfolgte auf Quarzfilter, die unter Zuhilfenahme von Ultraschall mittels Methanol extrahiert wurden. Nach Aufkonzentrierung und Lösungsmittelwechsel auf Wasser sowie Standardaddition wurden die Proben mit einer Kapillar-HPLC-ESI-MSn-Methode analysiert. Das verwendete Ionenfallen-Massenspektrometer (LCQ-DECA) bietet die Möglichkeit, Strukturaufklärung durch selektive Fragmentierung der Qasimolekülionen zu betreiben. Die Quantifizierung erfolgte teilweise im MS/MS-Modus, wodurch Selektivität und Nachweisgrenze verbessert werden konnten. Um Produkte der Terpen-Oxidation zu identifizieren, die nicht als Standards erhältlich waren, wurden Ozonolysexperimente durchgeführt. Dadurch gelang die Identifizierung einer Reihe von Oxidationsprodukten in Realproben. Neben schon bekannten Produkten der Terpen-Oxidation konnten einige Produkte erstmals in Realproben eindeutig als Produkte des α Pinens nachgewiesen werden. In den Proben der Ozonolyseexperimente konnten auch Produkte mit hohem Molekulargewicht (>300 u) nachgewiesen werden, die Ähnlichkeit zeigen zu den als Dimeren oder Polymeren in der Literatur bezeichneten Substanzen. Sie konnten jedoch nicht in Feldproben gefunden werden. Im Rahmen von 5 Messkampagnen in Deutschland und Finnland wurden Proben der atmosphärischen Partikelphase genommen. Die Quantifizierung von Produkten der Oxidation von α-Pinen, β-Pinen, 3-Caren, Sabinen und Limonen in diesen Proben ergab eine große zeitliche und örtliche Variationsbreite der Konzentrationen. Die Konzentration von Pinsäure bewegte sich beispielsweise zwischen etwa 0,4 und 21 ng/m³ während aller Messkampagnen. Es konnten stets Produkte verschiedener Terpene nachgewiesen werden. Produkte einiger Terpene eignen sich sogar als Markersubstanzen für verschiedene Pflanzenarten. Sabinen-Produkte wie Sabinsäure können als Marker für die Emissionen von Laubbäumen wie Buchen oder Birken verwendet werden, während Caren-Produkte wie Caronsäure als Marker für Nadelbäume, speziell Kiefern, verwendet werden können. Mit den quantifizierten Substanzen als Marker wurde unter zu Hilfenahme von Messungen des Gehaltes an organischem und elementarem Kohlenstoff im Aerosol der Anteil des sekundären organischen Aerosols (SOA) errechnet, der von der Ozonolyse der Terpene stammt. Erstaunlicherweise konnten nur 1% bis 8% des SOA auf die Ozonolyse der Terpene zurückgeführt werden. Dies steht im Gegensatz zu der bisherigen Meinung, dass die Ozonolyse der Terpene die wichtigste Quelle für biogenes SOA darstellt. Gründe für diese Diskrepanz werden in der Arbeit diskutiert. Um die atmosphärischen Prozesse der Bildung von SOA vollständig zu verstehen, müssen jedoch noch weitere Anstrengungen unternommen werden.
Resumo:
Vor dem Hintergrund sich wandelnder (medialer) Lebenswelten von Schülerinnen und Schülern gewinnen Bestimmungsversuche um medienpädagogische Handlungskompetenzen von Lehrpersonen an Bedeutung. Der Erwerb medienpädagogischer Kompetenz, verstanden als dynamisches Zusammenspiel von domänenspezifischem Wissen und anwendungsorientiertem Können, wird in der vorliegenden Arbeit als wesentliches Lernziel der medienpädagogischen (Aus-)Bildung bestimmt. Als ein Weg zur Förderung medienpädagogischer Handlungskompetenz wird von der Autorin auf der Folie konstruktivistischer Vorstellungen über das Lehren und Lernen die Methode der Problemorientierung vorgeschlagen. Im ersten Teil der Arbeit werden Modelle und Konzepte diskutiert, die Bausteine für ein Modell medienpädagogischer Kompetenz liefern. Im zweiten Teil wird eine empirische Untersuchung zum Erwerb medienpädagogischer Handlungskompetenz auf der Basis eines von der Autorin erarbeiteten Modells vorgestellt und die Ergebnisse diskutiert. Eine kompetenztheoretische Annäherung erfolgt auf der Basis zweier Konzepte. Dies sind die Ausführungen zu einem Konzept kommunikativer Kompetenz nach Jürgen Habermas sowie dessen Überführung in die Medienpädagogik durch Dieter Baacke. Ferner wird die rezente bildungspolitische Kompetenzdebatte in Anbindung an Franz E. Weinert analysiert. Es folgt eine Zusammenschau über die methodischen Konzepte zur Erfassung von Kompetenzen in der Erziehungswissenschaft und deren Anwendbarkeit für die medienpädagogische Kompetenzforschung. Die gegenwärtig vorliegenden Entwürfe zu einer inhaltlichen Bestimmung medienpädagogischer Kompetenzen werden besprochen (Sigrid Blömeke, Werner Sesink, International Society for Technology in Education). Im Rekurs auf konstruktivistische lerntheoretische Überlegungen erfährt das problemorientierte Lernen beim Aufbau von Kompetenzen eine enorme Aufwertung. In der Arbeit wird insbesondere den Arbeiten von David Jonassen zu einer konstruktivistisch-instruktionistischen Herangehensweise bei der Gestaltung problemorientierter Lernumgebungen eine große Bedeutung zugesprochen (vgl. auch Ansätze des Goal-based Scenarios/Roger Schank und des Learning by Design/Janet Kolodner). Im zweiten Teil wird die Interventionsstudie im Kontrollgruppendesign vorgestellt. Anhand eines Modells medienpädagogischer Kompetenz, dass auf den Dimensionen Wissen einerseits und Können andererseits basiert, wurden Studierende (n=59) in einem Pre-Posttestverfahren auf diese Dimensionen getestet. Die Studierenden der Interventionsgruppe (n=30) arbeiteten über ein Semester mit einer problemorientierten Lernanwendung, die Studierenden der Kontrollgruppe (n=29) in einem klassischen Seminarsetting. Hauptergebnis der Untersuchung ist es, das die Intervention zu einem messbaren Lernerfolg beim medienpädagogischen Können führte. In der Diskussion der Ergebnisse werden Empfehlungen zur Gestaltung problemorientierter Lernumgebungen formuliert. Die Chancen einer Orientierung an problemorientierten Lernsettings für das Lernen an Hochschulen werden herausgestellt.
Synthetische Glycopeptide mit Sulfatyl-Lewis X-Struktur als potenzielle Inhibitoren der Zelladhäsion
Resumo:
Zelladhäsionsprozesse sind von großer Bedeutung für zahlreiche biologische Prozesse, wie etwa die Immunantwort, die Wundheilung und die Embryogenese. Außerdem spielen sie eine entscheidende Rolle im Verlauf inflammatorischer Prozesse. An der Zelladhäsion sind verschiedene Klassen von Adhäsionsmolekülen beteiligt. Die erste leichte „rollende“ Adhäsion von Leukozyten am Ort einer Entzündung wird durch die Selektine vermittelt. Diese binden über die Kohlenhydrat-Strukturen Sialyl-Lewisx und Sialyl-Lewisa über eine calciumabhängige Kohlenhydrat-Protein-Bindung an ihre spezifischen Liganden und vermitteln so den ersten Zellkontakt, bevor andere Adhäsionsmoleküle (Cadherine, Integrine) die feste Adhäsion und den Durchtritt durch das Endothel bewirken. Bei einer pathogenen Überexpression der Selektine kommt es jedoch zu zahlreichen chronischen Erkrankungen wie z. B. rheumatoider Arthritis, Erkrankungen der Herzkranzgefäße oder dem Reperfusions-syndrom. Außerdem wird eine Beteiligung der durch die Selektine vermittelten Zellkontakte bei der Metastasierung von Karzinomzellen angenommen. Ein Ansatzpunkt für die Behandlung der oben genannten Erkrankungen ist die Gabe löslicher kompetitiver Inhibitoren für die Selektine. Ziel der Arbeit war die Modifikation des Sialyl-Lewisx-Leitmotivs zur Steigerung der metabolischen Stabilität und dessen Einbau in die Peptidsequenz aus der für die Bindung verantwortlichen Domäne des endogenen Selektin-Liganden PSGL-1. Dazu wurden mit einer modifizierten Lewisx-Struktur glycosylierte Aminosäurebausteine dargestellt (Abb.1). Die Verwendung von Arabinose und des Sulfatrestes anstelle von Fusose und Sialinsäure sollte außerdem zu einer gesteigerten metabolischen Stabilität des synthetischen Liganden beitragen. Die so erhaltenen Glycosylaminosäuren sollten nun in die Festphasenpeptidsynthese eingesetzt werden. Aufgrund der großen säurelabilität konnte hier nicht auf das Standartverfahren (Wang-Harz, Abspaltung mit TFA) zurückgegriffen werden. Deshalb kam ein neuartiges UV-labiles Ankersystem zum Einsatz. Dazu wurde ein Protokoll für die Synthese und Abspaltung von Peptiden an diesem neuen System entwickelt. Daran gelang die Synthese des nichtglycosylierten Peptidrückgrats sowie eines mit der dem sulfatierten Lewisx-Motiv versehenen Glycopeptids. Ein vierfach sulfatiertes Glycopeptid, welches durch den Einsatz von im Vorfeld chemisch sulfatierer Tyrosin-Bausteinen dargestellt werden sollte, konnte massenspektrometrisch nachgewiesen werden.
Resumo:
This thesis concerns artificially intelligent natural language processing systems that are capable of learning the properties of lexical items (properties like verbal valency or inflectional class membership) autonomously while they are fulfilling their tasks for which they have been deployed in the first place. Many of these tasks require a deep analysis of language input, which can be characterized as a mapping of utterances in a given input C to a set S of linguistically motivated structures with the help of linguistic information encoded in a grammar G and a lexicon L: G + L + C → S (1) The idea that underlies intelligent lexical acquisition systems is to modify this schematic formula in such a way that the system is able to exploit the information encoded in S to create a new, improved version of the lexicon: G + L + S → L' (2) Moreover, the thesis claims that a system can only be considered intelligent if it does not just make maximum usage of the learning opportunities in C, but if it is also able to revise falsely acquired lexical knowledge. So, one of the central elements in this work is the formulation of a couple of criteria for intelligent lexical acquisition systems subsumed under one paradigm: the Learn-Alpha design rule. The thesis describes the design and quality of a prototype for such a system, whose acquisition components have been developed from scratch and built on top of one of the state-of-the-art Head-driven Phrase Structure Grammar (HPSG) processing systems. The quality of this prototype is investigated in a series of experiments, in which the system is fed with extracts of a large English corpus. While the idea of using machine-readable language input to automatically acquire lexical knowledge is not new, we are not aware of a system that fulfills Learn-Alpha and is able to deal with large corpora. To instance four major challenges of constructing such a system, it should be mentioned that a) the high number of possible structural descriptions caused by highly underspeci ed lexical entries demands for a parser with a very effective ambiguity management system, b) the automatic construction of concise lexical entries out of a bulk of observed lexical facts requires a special technique of data alignment, c) the reliability of these entries depends on the system's decision on whether it has seen 'enough' input and d) general properties of language might render some lexical features indeterminable if the system tries to acquire them with a too high precision. The cornerstone of this dissertation is the motivation and development of a general theory of automatic lexical acquisition that is applicable to every language and independent of any particular theory of grammar or lexicon. This work is divided into five chapters. The introductory chapter first contrasts three different and mutually incompatible approaches to (artificial) lexical acquisition: cue-based queries, head-lexicalized probabilistic context free grammars and learning by unification. Then the postulation of the Learn-Alpha design rule is presented. The second chapter outlines the theory that underlies Learn-Alpha and exposes all the related notions and concepts required for a proper understanding of artificial lexical acquisition. Chapter 3 develops the prototyped acquisition method, called ANALYZE-LEARN-REDUCE, a framework which implements Learn-Alpha. The fourth chapter presents the design and results of a bootstrapping experiment conducted on this prototype: lexeme detection, learning of verbal valency, categorization into nominal count/mass classes, selection of prepositions and sentential complements, among others. The thesis concludes with a review of the conclusions and motivation for further improvements as well as proposals for future research on the automatic induction of lexical features.