33 resultados para Systematische Instruktionsdesign
em Universitätsbibliothek Kassel, Universität Kassel, Germany
Resumo:
Bewegt man sich als Studentin oder Student in psychologischen, medizinischen oder pädagogischen Studiengängen, ist häufig eine systematische Literaturrecherche unerlässlich, um sich über den neuesten Forschungsstand in einem bestimmten Themenfeld zu informieren oder sich in ein neues Thema beispielsweise für die Abschlussarbeit einzuarbeiten. Literaturrecherchen sind zentraler Bestandteil jeden wissenschaftlichen Arbeitens. Die recherchierten Literaturangaben und Quellen bilden die Bausteine, auf denen die Darstellung des Wissens in Hausarbeiten, Magister-, Diplomarbeiten und später Doktorarbeiten basiert. In Form von Quellenangaben, z.B. durch indirekte oder direkte Zitate oder Paraphrasierungen werden Bezugnahmen auf die bereits vorhandene Literatur transparent gemacht. Häufig genügt ein Blick auf eine Literaturliste um zu erkennen, wie Literatur gesucht und zusammengestellt wurde. Wissenschaftliches Arbeiten unterscheidet sich von künstlerischem Arbeiten durch seine Systematik und intersubjektive Nachvollziehbarkeit. Diese Systematik sollte bereits bei der Literaturrecherche beginnen und sich am Ende der Arbeit in der Literaturliste widerspiegeln. Auch wenn in einer Magister-, Diplom- und noch weniger in einer Hausarbeit die gesamte, gefundene Literatur verwendet wird, sondern nur eine sehr kleine Auswahl in die Arbeit einfließt, ist es anstrebenswert, sich über die möglichen Suchstrategien im Einzelnen klar zu werden und sich systematisch durch den Berg von Literatur(einträgen) nach einer Recherche zu einer einschlägigen und begründeten Auswahl vorzuarbeiten. Hier stellen die schnell wachsenden Wissensbestände eine besondere Herausforderung an Studierende und Wissenschaftler. Die Recherche am „Zettelkasten‟ in der Bibliothek ist durch die Online-Recherche ersetzt worden. Wissenschaftliche Literatur wird heute in erster Linie digital gesucht, gefunden und verwaltet. Für die Literatursuche steht eine Vielfalt an Suchmaschinen zur Verfügung. Doch welche ist die richtige? Und wie suche ich systematisch? Wie dokumentiere ich meine Suche? Wie komme ich an die Literatur und wie verwalte ich die Literatur? Diese und weitere Fragen haben auch wir uns gestellt und für alle Studierenden der Fächer Psychologie, Psychoanalyse, Medizin und Pädagogik diese Handreichung geschrieben. Sie will eine Hilfe bei der konkreten Umsetzung einer Literaturrecherche sein.
Resumo:
Die stereoskopische 3-D-Darstellung beruht auf der naturgetreuen Präsentation verschiedener Perspektiven für das rechte und linke Auge. Sie erlangt in der Medizin, der Architektur, im Design sowie bei Computerspielen und im Kino, zukünftig möglicherweise auch im Fernsehen, eine immer größere Bedeutung. 3-D-Displays dienen der zusätzlichen Wiedergabe der räumlichen Tiefe und lassen sich grob in die vier Gruppen Stereoskope und Head-mounted-Displays, Brillensysteme, autostereoskopische Displays sowie echte 3-D-Displays einteilen. Darunter besitzt der autostereoskopische Ansatz ohne Brillen, bei dem N≥2 Perspektiven genutzt werden, ein hohes Potenzial. Die beste Qualität in dieser Gruppe kann mit der Methode der Integral Photography, die sowohl horizontale als auch vertikale Parallaxe kodiert, erreicht werden. Allerdings ist das Verfahren sehr aufwendig und wird deshalb wenig genutzt. Den besten Kompromiss zwischen Leistung und Preis bieten präzise gefertigte Linsenrasterscheiben (LRS), die hinsichtlich Lichtausbeute und optischen Eigenschaften den bereits früher bekannten Barrieremasken überlegen sind. Insbesondere für die ergonomisch günstige Multiperspektiven-3-D-Darstellung wird eine hohe physikalische Monitorauflösung benötigt. Diese ist bei modernen TFT-Displays schon recht hoch. Eine weitere Verbesserung mit dem theoretischen Faktor drei erreicht man durch gezielte Ansteuerung der einzelnen, nebeneinander angeordneten Subpixel in den Farben Rot, Grün und Blau. Ermöglicht wird dies durch die um etwa eine Größenordnung geringere Farbauflösung des menschlichen visuellen Systems im Vergleich zur Helligkeitsauflösung. Somit gelingt die Implementierung einer Subpixel-Filterung, welche entsprechend den physiologischen Gegebenheiten mit dem in Luminanz und Chrominanz trennenden YUV-Farbmodell arbeitet. Weiterhin erweist sich eine Schrägstellung der Linsen im Verhältnis von 1:6 als günstig. Farbstörungen werden minimiert, und die Schärfe der Bilder wird durch eine weniger systematische Vergrößerung der technologisch unvermeidbaren Trennelemente zwischen den Subpixeln erhöht. Der Grad der Schrägstellung ist frei wählbar. In diesem Sinne ist die Filterung als adaptiv an den Neigungswinkel zu verstehen, obwohl dieser Wert für einen konkreten 3-D-Monitor eine Invariante darstellt. Die zu maximierende Zielgröße ist der Parameter Perspektiven-Pixel als Produkt aus Anzahl der Perspektiven N und der effektiven Auflösung pro Perspektive. Der Idealfall einer Verdreifachung wird praktisch nicht erreicht. Messungen mit Hilfe von Testbildern sowie Schrifterkennungstests lieferten einen Wert von knapp über 2. Dies ist trotzdem als eine signifikante Verbesserung der Qualität der 3-D-Darstellung anzusehen. In der Zukunft sind weitere Verbesserungen hinsichtlich der Zielgröße durch Nutzung neuer, feiner als TFT auflösender Technologien wie LCoS oder OLED zu erwarten. Eine Kombination mit der vorgeschlagenen Filtermethode wird natürlich weiterhin möglich und ggf. auch sinnvoll sein.
Resumo:
Den Schwerpunkt dieser Dissertation bildet zum einen die Entwicklung eines theoretischen Modells zur Beschreibung des Strukturbildungsprozesses in organisch/anorganischen Doppelschichtsystemen und zum anderen die Untersuchung der Übertragbarkeit dieser theoretisch gewonnenen Ergebnisse auf reale Systeme. Hierzu dienen systematische experimentelle Untersuchungen dieses Phänomens an einem Testsystem. Der Bereich der selbstorganisierenden Systeme ist von hohem wissenschaftlichen Interesse, erlaubt er doch die Realisierung von Strukturen, die nicht den Begrenzungen heutiger Techniken unterliegen, wie etwa der Beugung bei lithographischen Verfahren. Darüber hinaus liefert ein vertieftes Verständnis des Strukturbildungsprozesses auch eine Möglichkeit, im Falle entsprechender technischer Anwendungen Instabilitäten innerhalb der Schichtsysteme zu verhindern und somit einer Degradation der Bauteile entgegenzuwirken. Im theoretischen Teil der Arbeit konnte ein Modell im Rahmen der klassischen Elastizitätstheorie entwickelt werden, mit dessen Hilfe sich die Entstehung der Strukturen in Doppelschichtsystemen verstehen läßt. Der hier gefundene funktionale Zusammenhang zwischen der Periode der Strukturen und dem Verhältnis der Schichtdicken von organischer und anorganischer Schicht, wird durch die experimentellen Ergebnisse sehr gut bestätigt. Die Ergebnisse zeigen, daß es technologisch möglich ist, über die Vorgabe der Schichtdicke in einem Materialsystem die Periodizität der entstehenden Strukturen vorzugeben. Darüber hinaus liefert das vorgestellte Modell eine Stabilitätsbedingung für die Schichtsysteme, die es ermöglicht, zu jedem Zeitpunkt die dominierende Mode zu identifizieren. Ein Schwerpunkt der experimentellen Untersuchungen dieser Arbeit liegt auf der Strukturbildung innerhalb der Schichtsysteme. Das Testsystem wurde durch Aufbringen einer organischen Schicht - eines sog. Molekularen Glases - auf ein Glassubstrat realisiert, als Deckschicht diente eine Siliziumnitrid-Schicht. Es wurden Proben mit variierenden Schichtdicken kontrolliert erwärmt. Sobald die Temperatur des Schichtsystems in der Größenordnung der Glasübergangstemperatur des jeweiligen organischen Materials lag, fand spontan eine Strukturbildung auf Grund einer Spannungsrelaxation statt. Es ließen sich durch die Wahl einer entsprechenden Heizquelle unterschiedliche Strukturen realisieren. Bei Verwendung eines gepulsten Lasers, also einer kreisförmigen Wärmequelle, ordneten sich die Strukturen konzentrisch an, wohingegen sich ihre Ausrichtung bei Verwendung einer flächenhaften Heizplatte statistisch verteilte. Auffällig bei allen Strukturen war eine starke Modulation der Oberfläche. Ferner konnte in der Arbeit gezeigt werden, daß sich durch eine gezielte Veränderung der Spannungsverteilung innerhalb der Schichtsysteme die Ausrichtung der Strukturen (gezielt) manipulieren ließen. Unabhängig davon erlaubte die Variation der Schichtdicken die Realisierung von Strukturen mit einer Periodizität im Bereich von einigen µm bis hinunter zu etwa 200 nm. Die Kontrolle über die Ausrichtung und die Periodizität ist Grundvoraussetzung für eine zukünftige technologische Nutzung des Effektes zur kontrollierten Herstellung von Mikro- bzw. Nanostrukturen. Darüber hinaus konnte ein zunächst von der Strukturbildung unabhängiges Konzept eines aktiven Sensors für die optische Raster-Nahfeld-Mikroskopie vorgestellt werden, das das oben beschriebene System, bestehend aus einem fluoreszierenden Molekularen Glas und einer Siliziumnitrid-Deckschicht, verwendet. Erste theoretische und experimentelle Ergebnisse zeigen das technologische Potential dieses Sensortyps.
Resumo:
Die relativistische Multikonfigurations Dirac-Fock (MCDF) Methode ist gegenwärtig eines der am häufigsten benutzten Verfahren zur Berechnung der elektronischen Struktur und der Eigenschaften freier Atome. In diesem Verfahren werden die Wellenfunktionen ausgewählter atomarer Zustände als eine Linearkombination von sogenannten Konfigurationszuständen (CSF - Configuration State Functions) konstruiert, die in einem Teilraum des N-Elektronen Hilbert-Raumes eine (Vielteilchen-)Basis aufspannen. Die konkrete Konstruktion dieser Basis entscheidet letzlich über die Güte der Wellenfunktionen, die üblicherweise mit Hilfe einer Variation des Erwartungswertes zum no-pair Dirac-Coulomb Hamiltonoperators gewonnen werden. Mit Hilfe von MCDF Wellenfunktionen können die dominanten relativistischen und Korrelationseffekte in freien Atomen allgemein recht gut erfaßt und verstanden werden. Außer der instantanen Coulombabstoßung zwischen allen Elektronenpaaren werden dabei auch die relativistischen Korrekturen zur Elektron-Elektron Wechselwirkung, d.h. die magnetischen und Retardierungsbeiträge in der Wechselwirkung der Elektronen untereinander, die Ankopplung der Elektronen an das Strahlungsfeld sowie der Einfluß eines ausgedehnten Kernmodells erfaßt. Im Vergleich mit früheren MCDF Rechnungen werden in den in dieser Arbeit diskutierten Fallstudien Wellenfunktionsentwicklungen verwendet, die um 1-2 Größenordnungen aufwendiger sind und daher systematische Untersuchungen inzwischen auch an Atomen mit offenen d- und f-Schalen erlauben. Eine spontane Emission oder Absorption von Photonen kann bei freien Atomen theoretisch am einfachsten mit Hilfe von Übergangswahrscheinlichkeiten erfaßt werden. Solche Daten werden heute in vielen Forschungsbereichen benötigt, wobei neben den traditionellen Gebieten der Fusionsforschung und Astrophysik zunehmend auch neue Forschungsrichtungen (z.B. Nanostrukturforschung und Röntgenlithographie) zunehmend ins Blickfeld rücken. Um die Zuverlässigkeit unserer theoretischen Vorhersagen zu erhöhen, wurde in dieser Arbeit insbesondere die Relaxation der gebundenen Elektronendichte, die rechentechnisch einen deutlich größeren Aufwand erfordert, detailliert untersucht. Eine Berücksichtigung dieser Relaxationseffekte führt oftmals auch zu einer deutlich besseren Übereinstimmung mit experimentellen Werten, insbesondere für dn=1 Übergänge sowie für schwache und Interkombinationslinien, die innerhalb einer Hauptschale (dn=0) vorkommen. Unsere in den vergangenen Jahren verbesserten Rechnungen zu den Wellenfunktionen und Übergangswahrscheinlichkeiten zeigen deutlich den Fortschritt bei der Behandlung komplexer Atome. Gleichzeitig kann dieses neue Herangehen künftig aber auch auf (i) kompliziertere Schalensstrukturen, (ii) die Untersuchung von Zwei-Elektronen-ein-Photon (TEOP) Übergängen sowie (iii) auf eine Reihe weiterer atomarer Eigenschaften übertragen werden, die bekanntermaßen empflindlich von der Relaxation der Elektronendichte abhängen. Dies sind bspw. Augerzerfälle, die atomare Photoionisation oder auch strahlende und dielektronische Rekombinationsprozesse, die theoretisch bisher nur selten überhaupt in der Dirac-Fock Näherung betrachtet wurden.
Resumo:
Die "Einführung in die stochastische Simulation mit Fathom" führt in die Simulation mit der Computersoftware Fathom ein und entstand im Rahmen meines Dissertationsprojekts. Voraussetzung sind elementare Grundkenntnisse in dieser Software, z.B. für die Analyse von eindimensionalen Daten. Die Arbeit basiert auf einer ausführlichen Analyse stochastischer Situationen, die als Zufallsexperimente modelliert werden können. Sie wurde ursprünglich für Studenten der Veranstaltung "Elementare Stochastik" an der Universität Kassel didaktisch aufbereitet. Sie ist aber auch für alle Lehrenden und Lernenden an Schule und Hochschule gedacht, die die stochastische Simulation mit Fathom erlernen wollen. Das Dokument dient dazu, eine systematische Anleitung zum Erstellen eigener Simulationen zu geben. Eine didaktische Hilfestellung bietet dazu das dreigegliederte Simulationskonzept: 1. Festlegen des stochastischen Modell, 2. Erstellen eines Simulationsplans und 3. Realisierung in FATHOM. Verschiedene Simulationsarten werden ausführlich an einem Beispiel vorgestellt und können in Arbeitsumgebungen selbst erzeugt werden. Die Erstellung der Arbeit wurde mit Mitteln des BLK-Projektes Netzwerk Wissenschaftliche Weiterbildung für Lehramtsberufe (NWWL) an der Universität Kassel gefördert.
Resumo:
Allgegenwärtige Datenverarbeitung wird die Verwirklichungsbedingungen für das Grundrecht auf informationelle Selbstbestimmung so verändern, dass dessen Schutzprogramm, wie es im geltenden Datenschutzrecht umgesetzt ist, nicht mehr greifen wird. Daher ist es dringend notwendig, dieses Schutzprogramm so fortzuentwickeln, dass es den neuen Risiken gerecht wird. Dies darf jedoch nicht isoliert in eigenen gesetzlichen Vorschriften erfolgen, sondern muss sich einbetten in eine systematische Modernisierung des gesamten Datenschutzrechts. Der Beitrag benennt diese Aufgabe (I.), stellt die neuen Herausforderungen dar (II.) und zeigt, wie eine adäquate Fortentwicklung des Datenschutzrechts möglich wäre (III.).
Resumo:
Zusammenfassung (deutsch) Seit den 1980iger Jahren wächst die Bedeutung der sog. Bildschaffenden Methoden für die Bestimmung der Qualität ökologischer Produkte. Zu diesen Methoden gehört die Biokristallisation, Steigbild und Rundfilter-Chromatographie. Die Ergebnisse dieser Methoden sind Bilder, die anhand definierter Kriterien ausgewertet werden. Bei der Biokristallisation sind es mehr oder weniger geordnete Kristallisationen auf einer Glasplatte, bei dem Steigbild zweidimensionale Strukturen auf Chromatographiepapier. In der Vergangenheit wurden die Bilder von Spezialisten ausgewertet, die nach einer längeren Schulung produktspezifische Kriterien entwickelt hatten. Im Gegensatz zur Dünnschicht-Chromatographie, wo der einzelne Stoff von der Matrix separiert wird, ist das Ziel beim Steigbild, Strukturen der möglichst ganzen Probe zu erzeugen. Die Methode wurde von Kolisko in den 1929iger Jahren entwickelt, wobei eine Kombination aus Chromatographieprozess und Metallkomplexreaktionen genutzt wurde. Die Firma WALA entwickelte die Methode für die Kontrolle ihrer Produkte und setze Silbernitrat und Eisensulfat ein. Bisher wurde die Methode qualitativ beschreibend ausgewertet, wobei einzelne Bildelemente und deren Interaktion beschrieben wurden. Deshalb musste für die vorliegende Arbeit Auswertungsmethoden entwickelt werden, mit denen auch eine statistische Bearbeitung der Ergebnisse möglich ist (nominale Unterscheidung von proben anhand der Bilder). Die Methode wurde bisher in einer Reihe von Studien eingesetzt (u.a. die Unterscheidung von Produktionsweisen). Obwohl die Bilder nur qualitativ ausgewertet wurden, konnten geschulte Prüfpersonen Proben aus verschiedenen Anbausystemen anhand der Bilder trennen. Die Ergebnisse wurden aber nicht so dokumentiert, dass sie den Erfordernissen internationaler Standardnormen für Laboratorien genügten. Deshalb mussten für diese Arbeit zunächst die Prozeduren dokumentiert und eine systematische Untersuchung zu den Einflussgrößen durchgeführt werden. Dazu wurde die visuelle Bildauswertung entwickelt und standardisiert. Die visuelle Bildauswertung basiert auf morphologischen Kriterien der Bilder von den untersuchten Weizen- und Möhrenproben. Ein Panel aus geschulten Personen entwickelte dann die Kriterien und legte sie anhand von Referenzbildern fest. Die Bilder der vorliegenden Arbeit wurden mit der einfach beschreibenden Prüfung ausgewertet, wie sie aus der sensorischen Prüfung von Lebensmitteln übernommen werden konnte. Mit geschulten und ungeschulten Prüfpersonen wurden Weizenproben und verschiedene Möhrensäfte mit der sog. Dreiecksprüfung ausgewertet (von ISO 4120). Alle Laborprozeduren wurden dokumentiert. Mit der Anwendung dieser Prozeduren wurden Vergleichsversuche mit Laboren in Dänemark und Holland (BRAD, LBI) durchgeführt. Die Ergebnisse waren sowohl für Weizen- als auch für Möhrenproben vergleichbar, wobei alle drei Labore zwischen jeweils zwei Proben unterscheiden konnten. Die systematische Untersuchung zu den Einflussgrößen zeigte, dass das Unterscheidungsvermögen der Methode vor allem von den klimatischen Bedingungen während der Steigphasen beeinflusst wird. Auch die Präkonditionierung der Papiere hat einen großen Einfluss, während die Wasserqualität (ultra-filtriert, de-ionisiert, destilliert) eine untergeordnete Bedeutung hat. Für Weizen- und Möhrenproben wurde sowohl die Wiederholbarkeit als auch die Reproduzierbarkeit getestet. Die Unterschiede in den Bildern der verschiedenen Proben waren dabei immer größer als die Variation durch Proben- und Bildwiederholung und das Labor. Die so charakterisierte Methode wurde auf kodierte Proben von definierten Feldversuchen und auf Marktproben (Paarvergleich von Anbausystemen ökologisch und konventionell) angewandt, wobei als Ergebnis mehr als 90% der Proben mit der einfach beschreibenden Prüfung anhand der Bilder unterschieden werden konnten. Die Auswertung mit der Dreiecksprüfung zeigte, dass sowohl Sorten und Verarbeitungsschritte (Saft) als auch Anbauweisen signifikant getrennt wurden. Darüber hinaus wurde die Methode auch erfolgreich auf Apfelproben angewandt. Weitere Untersuchungen müssen zeigen, ob sich das Potential der Methode, verschiedene Fragen wie die Authentizitätsprüfung von Lebensmitteln verifizieren lassen.
Resumo:
Überblick über die Arbeit: "Die Notwendigkeit deutscher Kinderfernseh- und -filmproduktion ist unbestritten. Sie sind die Voraussetzung dafür, dass Kinder im Fernsehen ihre eigene Lebenswirklichkeit wiederfinden und zur Reflexion dieser Wirklichkeit angeregt werden."(Rosenbaum 2000) Kinderfernsehexperten wie Uwe Rosenbaum (Landessenderdirektor des Südwestrundfunks Rheinland-Pfalz) oder Armin Maiwald (Geschäftsführer der Flash Filmstudio GmbH, Produzent und Regisseur vieler Sachgeschichten der Sendung mit der Maus) vertreten die Meinung, dass in Deutschland mehr Kinderprogramm mit Kindern produziert werden müsse, die in Deutschland wohnen. Sie sind dabei auch der Meinung, Realprogramm sei qualitativ hochwertiger und damit für Kinder besser, als einseitiges, triviales Zeichentrickprogramm. Der Teil 1 greift diesen Diskurs auf und beschreibt ihn. Einen Beitrag zu diesem Diskurs möchte die Frageleisten, welche Darstellungsformen von Welt vom expliziten Kinderfernsehen angeboten werden und welche davon Kinder bevorzugen. Das Material einer systematischen Fernsehprogrammanalyse, die von den Nutzungspräferenzen der Kinder ausgeht, kann dabei helfen. Dabei konzentriere ich mich auf die zwei Aspekte "Animation" und "real", da der Diskurs Realfilm als qualitativ hochwertig ansieht und Animation in dieser Hinsicht das genaue Gegenteil darstellt. Dabei ist ein zentrales Ergebnis der Analyse, dass sich die Nutzungspräferenzen der Jungen und Mädchen in bezug auf realitätsnahes Programm sehr unterscheiden: Jungen sehen eher Zeichentrickprogramm und Mädchen sehen eher Realformate wie z.B. Soap-Operas. Das legt nahe, die Diskussion um Realitätsnähe im Kinderfernsehen aus geschlechterspezifischer Sicht zu betrachten und die Fragestellung der Arbeit dahingehend neu zu formulieren. Der zweite Teil der Arbeit sortiert zunächst die Begriffe "Realitätsnähe", "Realfilm" und "Zeichentrick", die im ersten Teil eingeführt wurden und trennt sie von einander. Die "Jährliche Bestandsaufnahme zum Kinderfernsehen - qualitative und quantitative Fernsehprogrammanalyse in der Sicht der Kinder" dient dazu, im Kinderfernsehen die Spuren des Diskurses wieder zu finden. Die systematische Suche nach solchen Programmen macht es nötig, mit Hilfe operationalisierter Begriffe, Fernsehprogramm zu kodieren. Dabei bieten sich bereits vorhandene Kodes zur Realitätsnähe an. Für die Auswertung sind zudem auch Zugänge über weitere Kodes wie z.B. Information/ Unterhaltung oder Fiction/ Non-Fiction möglich. Die Ansätze in Teil 1 und 2 waren bis dahin umgangssprachliche Formulierungen, deshalb folgt im dritten Teil der Arbeit ein Exkurs in die Theorie, um den Begriff der Realitätsnähe im Fernsehen theoretisch zu begründen und um Realfilm und Animation theoretisch zu beschreiben. Zwei Themenfelder sind hierbei wesentlich: Das erste Themenfeld behandelt die Wirklichkeitskonstruktion im Fernsehen mit den Autoren Alfred Schütz, Thomas Luckmann und Jürgen Fritz. Das Wesentliche in diesem Abschnitt ist der Versuch Realfilm und Zeichentrick als geschlossene Sinngebiete wie "reale Welt" und "Spielwelt" zu verstehen, da geschlossenen Sinngebieten spezifische, eigene Erlebnis- und Erkenntnisstile zugrunde liegen. Fazit dieser Überlegung ist, dass Realfilm und Zeichentrick einander nicht über- oder untergeordnet sind, sondern formal nebeneinander mit unterschiedlichen Erkenntnis- und Erlebnisstilen in Erscheinung treten, bzw. in ihnen unterschiedliche Erlebnis- und Erkenntnisstile angelegt sind. Das zweite Themenfeld widmet sich der von David Buckingham so genannten "Perceived Reality", die nach der Wahrnehmung der Kinder von Wirklichkeit im Fernsehen fragt. Dabei geht es um die Frage, wie Kinder die Realität des Fernsehens beurteilen. Ein Fazit ist hierbei, dass Kinder an Fernsehsendungen keine allgemeingültige Messlatte anlegen, um die Realitätsnähe zu bestimmen, sondern Kinder handeln die Realitätsnähe von Sendungen und deren Bewertung in sozialen Kontexten mit Peers und Erwachsenen je nach Situation aus. Der vierte Teil der Arbeit wertet die Kodierung aus dem zweiten Teil aus und präsentiert Ergebnisse. In diesem Teil werden verschiedene Auswertungsverfahren ausprobiert, um Muster in der Rezeption und im Ein- und Ausschaltverhalten der Kinder in bezug auf Realitätsnähe zu finden. Nachdem Überblick über das Angebot an realitätsnahem Kinderfernsehprogramm, folgt die Auswertung der Nutzung des Kinderprogramms. Hierbei steht die Frage im Vordergrund, in welchem Ausmaß Kinder realitätsnahe Programme nutzen und welche geschlechterspezifischen Unterschiede es in der Nutzung Formate "Animation" und "real" gibt. Im Groben werden in diesem Kapitel zahlreiche Listen präsentiert, Sendungen beschrieben und vor allem unterschiedliche Altersgruppen sowie Geschlechter berücksichtigt. Eines der auffälligsten Merkmale wird sein, dass Jungen in Bezug auf die eingangs eröffneten Begriffe andere Präferenzen und Fernsehnutzungsmuster zeigen als Mädchen. Im Gegensatz zu Mädchen sehen die Jungen eher weniger Realprogramm und eher mehr Animationsprogramm. Kinder im Fernsehen stehen stellvertretend für Muster und Typen von Kindern der realen Welt. Das legitimiert anhand der Typologie der Kinder nach Freizeitmustern , nach diesen Kindertypen im Fernsehen und bei den Zuschauern zu suchen. Ein Ergebnis bestätigte die Beobchtung, dass Mädchen neben Realprogramm auch Zeichentrick sehen, und Jungen nur Zeichentrick. Anhand der bis dort gewonnenen Ergebnisse und zweier Beispiele aus dem Schulalltag folgt abschließend in Teil 5 ein pädagogisches Fazit. Der Umgang von Jungen mit Medien wird häufig problematisiert und so wie es sich in den Ergebnissen dieser und anderer Arbeiten wie der PISA2000-Studie oder in der Typologie der Freizeitmuster darstellt, könnte man durchaus den Eindruck gewinnen, dass Jungen eine schwierige Beziehung zu Medien haben. Deshalb muss man sich vermutlich zunächst eingestehen, dass Jungen eher Zeichentrick und Mädchen eher Soaps gucken, um danach Jungen emphatisch in Bezug auf ihre Mediennutzungsmuster zu begegnen und ihre Vorlieben nicht zu trivialisieren oder zu verurteilen. Das hat pädagogische Bedeutung für die Schule, wie die beiden Beispiele zeigen.
Resumo:
Das Protein Orb2, welches zum Xenopus CPEB homolog ist, erfüllt während der Spermatogenese von Drosophila melanogaster eine wesentliche Funktion. Das teilweise Ausschalten von orb2 führt zu Störungen in der Individualisierung der Spermatiden, Veränderung in der Morphologie und Lokalisation der Spermatidenkerne und damit verbunden zu männlicher Sterilität. Der weit gestreute Phänotyp spricht für eine regulatorische Funktion des Proteins, wie es aufgrund der Homologie zu CPEB zu erwarten ist. Orb2 mutante Weibchen zeigen dagegen keinen Phänotyp. Die Sterilität konnte mit spezifischen Rettungskonstrukten rückgängig gemacht werden, wobei die beiden Proteinformen in ihrer Funktion höchstwahrscheinlich äquivalent sind, da eine größere Menge an kleinem Protein das Fehlen des größeren ausgleichen kann. Beide Proteinformen lokalisieren in fast alle Stadien der Spermatogenese, wobei nur das kleinere auch in reifen Spermien persistiert. Zur Untersuchung der regulatorischen Funktion des Proteins Orb2 wurden zunächst drei mögliche Protein-Interaktionskandidaten analysiert. Obwohl ähnliche mutante Phänotypen in Gap und Cup ausgelöst wurden, lässt sich eine Interaktion bis jetzt mit diesen Kandidaten weder ausschließen noch bestätigen. Daneben zeigte das Protein Tob eine ähnliche Lokalisierung und einen deutlich ähnlicheren mutanten Phänotyp, wie er für Orb2 beschrieben wurde. Besonders auffällig ist die Lokalisation der Tob mRNA an die Spermatidenenden und die Verringerung der Transkriptmenge in der orb2-Mutante. Ob dieser Phänotyp durch den Verlust der regulatorischen Funktion von Orb2 hervorgerufen wird oder durch den späten Zeitpunkt der Transkription bedingt ist, muß in späteren Experimenten geklärt werden. Mit Hilfe eines Co-Immunpräzipitations-Experimentes wurde nach weiteren Proteininteraktionspartnern sowie nach Ziel-mRNAs gesucht, die durch Orb2 reguliert werden könnten. Dabei ergaben die massenspektrometrischen Analysen zwar Proteine, die mit der Translation selbst in Zusammenhang stehen, sowie einige regulatorische RNA-bindende Proteine, wiesen aber auch in Gestalt eines häufig nachgewiesenen Anhangsdrüsenproteins auf deutliche systematische Probleme hin. Auf genetischem Wege war bereits der Nachweis gelungen, dass die Protamine und mst77F, die strukturelle Komponenten der kompaktierten Kern-DNA sind, durch Orb2 in ihrer Translation reprimiert werden. Dieses Ergebnis wurde zum Teil bestätigt durch den Nachweis der Protamin mRNAs in den Eluaten aus dem Co-Immunpräzipitationsexperiment. Damit konnte zum ersten Mal in der Drosophila Spermatogenese das regulatorische Protein zu einer translationskontrollierten mRNA identifiziert werden.
Resumo:
In dieser Studie wird am Beispiel des "Felsbergs bei Reichenbach" und des Odenwälder Felsenmeers dokumentiert, dass auch in ausgewiesenen Naturschutzgebieten wirtschaftliche Nutzungen häufig die Schutzziele in den Hintergrund drängen. Den "harten" fremdenverkehrswirtschaftlichen Ausbauplänen wird ein auf Sanften Tourismus zielendes Entwicklungskonzept mit dem Leitbild "Felsenmeer im Buchenurwald" entgegen gesetzt.
Resumo:
Unternehmen konkurrieren in einem globalen Wettbewerb um den Transfer neuer Technologien in erfolgreiche Geschäftsmodelle. Aus diesem Grund stehen sie zunehmend der Herausforderung gegenüber, technologische Potenziale frühzeitig zu identifizieren, zu bewerten und Strategien für das Erschließen dieser Potenziale zu entwickeln. Dies ist zentraler Gegenstand der Vorausschau und Planung neuer Technologiepfade. In der vorliegenden Arbeit wird gemeinsam mit vier Unternehmen ein Leitfaden für die Strategiefindung, Entwicklung und Kommerzialisierung neu aufkommender Technologien entwickelt und angewendet. Den Ausgangspunkt der Arbeit bildet eine systematische Aufarbeitung des Forschungsstandes der Vorausschau und Planung neuer Technologien. Anschließend wird ein Beschreibungsmodell der Entstehung neuer Technologiepfade in technologiebasierten Innovationssystemen entwickelt. Auf Basis dieses Modells werden unterschiedliche Kategorien von Einflussfaktoren definiert, die als Analyserahmen für die neu entstehende Technologie dienen. Auf Basis der in der Literatur dokumentierten Abläufe, Teamstrukturen und Methoden (z.B. Roadmaps, Szenarien, Datenbankanalysen) wird ein sechsstufiger Ansatz für die Durchführung der Vorausschau und Planung neuer Technologiepfade konzipiert. Dieser Ansatz wird in vier Firmen für die Vorausschau und Planung neuer Technologien angewendet. Die untersuchten Technologien lassen sich den Feldern Biotechnologie, Nanotechnologie, Umwelttechnologie und Sensorik zuordnen. Zentrales Ergebnis der Arbeit ist ein entsprechend der Erfahrungen in den Unternehmen angepasster Ansatz für die Vorausschau und Planung neuer Technologiepfade. Dieser Ansatz ist in Abhängigkeit von Unternehmens- und Technologiecharakteristika für die weitere Anwendung konkretisiert. Dabei finden die zu beteiligenden Organisationseinheiten, zu betrachtende Einflussfaktoren sowie anwendbare Methoden besondere Berücksichtigung. Die Arbeit richtet sich an Personen in Führungspositionen im Bereich des strategischen Technologiemanagements sowie der Forschung und Entwicklung in Unternehmen, die Strategien für neu aufkommende Technologien entwickeln. Weiterhin sind die Ergebnisse der Arbeit für Wissenschaftler auf dem Gebiet der Methoden zur Vorausschau und Strategieentwicklung für neue Technologien von Interesse.