94 resultados para stochastischer Prozess


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mit der Einführung der Bildungsstandards für den mittleren Schulabschluss im Fach Physik ist vor allem der Prozess der Erkenntnisgewinnung stärker in den Mittelpunkt didaktischer und unterrichtlicher Arbeit gerückt. Damit erhält insbesondere das Experiment eine noch größere Rolle für den naturwissenschaftlichen Unterricht als ihm bereits vor der Einführung zukam. Im erkenntnistheoretischen Sinn gilt es neben der Entwicklung von Fragestellungen als eine der zentralen naturwissenschaftlichen Arbeitsweisen in der Physik. Ein besonderes Potential für den Physikunterricht bietet in diesem Zusammenhang das Schülerexperiment, dem trotz umstrittener Wirksamkeit zahlreiche Vorzüge zugeschrieben werden können. Neben der Förderung von praktischen experimentellen Fähigkeiten zählen dazu vor allem die Einführung in naturwissenschaftliche Denk- und Arbeitsprozesse und die Steigerung der Motivation bei den Lernenden. Um als Lehrperson konkret mit den auftretenden Problemen im Unterricht umgehen zu können und die Schülerinnen und Schüler angesichts wachsender Heterogenität individuell fördern zu können, ist es jedoch unerlässlich, über die Bandbreite der Schwierigkeiten Bescheid zu wissen und diese wiederum bei der Unterrichtsplanung zu berücksichtigen. Daher sollen im Rahmen dieser Arbeit Schüler-Versuchsprotokolle im Hinblick auf mögliche Schwierigkeiten der Lernenden analysiert werden. Die auszuwertenden Protokolle sind bereits im Rahmen des DiSiE-Projektes der Universität Kassel, das sich mit der Diagnose von Schülerschwierigkeiten beim eigenständigen Experimentieren beschäftigt, entstanden und wurden von Schülerinnen und Schüler während der Bearbeitung einer Experimentieraufgabe zum Hook’schen Gesetz angefertigt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Fähigkeit, geschriebene Texte zu verstehen, d.h. eine kohärente mentale Repräsentation von Textinhalten zu erstellen, ist eine notwendige Voraussetzung für eine erfolgreiche schulische und außerschulische Entwicklung. Es ist daher ein zentrales Anliegen des Bildungssystems Leseschwierigkeiten frühzeitig zu diagnostizieren und mithilfe zielgerichteter Interventionsprogramme zu fördern. Dies erfordert ein umfassendes Wissen über die kognitiven Teilprozesse, die dem Leseverstehen zugrunde liegen, ihre Zusammenhänge und ihre Entwicklung. Die vorliegende Dissertation soll zu einem umfassenden Verständnis über das Leseverstehen beitragen, indem sie eine Auswahl offener Fragestellungen experimentell untersucht. Studie 1 untersucht inwieweit phonologische Rekodier- und orthographische Dekodierfertigkeiten zum Satz- und Textverstehen beitragen und wie sich beide Fertigkeiten bei deutschen Grundschüler(inne)n von der 2. bis zur 4. Klasse entwickeln. Die Ergebnisse legen nahe, dass beide Fertigkeiten signifikante und eigenständige Beiträge zum Leseverstehen leisten und dass sich ihr relativer Beitrag über die Klassenstufen hinweg nicht verändert. Darüber hinaus zeigt sich, dass bereits deutsche Zweitklässler(innen) den Großteil geschriebener Wörter in altersgerechten Texten über orthographische Vergleichsprozesse erkennen. Nichtsdestotrotz nutzen deutsche Grundschulkinder offenbar kontinuierlich phonologische Informationen, um die visuelle Worterkennung zu optimieren. Studie 2 erweitert die bisherige empirische Forschung zu einem der bekanntesten Modelle des Leseverstehens—der Simple View of Reading (SVR, Gough & Tunmer, 1986). Die Studie überprüft die SVR (Reading comprehension = Decoding x Comprehension) mithilfe optimierter und methodisch stringenter Maße der Modellkonstituenten und überprüft ihre Generalisierbarkeit für deutsche Dritt- und Viertklässler(innen). Studie 2 zeigt, dass die SVR einer methodisch stringenten Überprüfung nicht standhält und nicht ohne Weiteres auf deutsche Dritt- und Viertklässler(innen) generalisiert werden kann. Es wurden nur schwache Belege für eine multiplikative Verknüpfung von Dekodier- (D) und Hörverstehensfertigkeiten (C) gefunden. Der Umstand, dass ein beachtlicher Teil der Varianz im Leseverstehen (R) nicht durch D und C aufgeklärt werden konnte, deutet darauf hin, dass das Modell nicht vollständig ist und ggf. durch weitere Komponenten ergänzt werden muss. Studie 3 untersucht die Verarbeitung positiv-kausaler und negativ-kausaler Kohärenzrelationen bei deutschen Erst- bis Viertklässler(inne)n und Erwachsenen im Lese- und Hörverstehen. In Übereinstimmung mit dem Cumulative Cognitive Complexity-Ansatz (Evers-Vermeul & Sanders, 2009; Spooren & Sanders, 2008) zeigt Studie 3, dass die Verarbeitung negativ-kausaler Kohärenzrelationen und Konnektoren kognitiv aufwändiger ist als die Verarbeitung positiv-kausaler Relationen. Darüber hinaus entwickelt sich das Verstehen beider Kohärenzrelationen noch über die Grundschulzeit hinweg und ist für negativ-kausale Relationen am Ende der vierten Klasse noch nicht abgeschlossen. Studie 4 zeigt und diskutiert die Nützlichkeit prozess-orientierter Lesetests wie ProDi- L (Richter et al., in press), die individuelle Unterschiede in den kognitiven Teilfertigkeiten des Leseverstehens selektiv erfassen. Hierzu wird exemplarisch die Konstruktvalidität des ProDi-L-Subtests ‚Syntaktische Integration’ nachgewiesen. Mittels explanatorischer Item- Repsonse-Modelle wird gezeigt, dass der Test Fertigkeiten syntaktischer Integration separat erfasst und Kinder mit defizitären syntaktischen Fertigkeiten identifizieren kann. Die berichteten Befunde tragen zu einem umfassenden Verständnis der kognitiven Teilfertigkeiten des Leseverstehens bei, das für eine optimale Gestaltung des Leseunterrichts, für das Erstellen von Lernmaterialien, Leseinstruktionen und Lehrbüchern unerlässlich ist. Darüber hinaus stellt es die Grundlage für eine sinnvolle Diagnose individueller Leseschwierigkeiten und für die Konzeption adaptiver und zielgerichteter Interventionsprogramme zur Förderung des Leseverstehens bei schwachen Leser(inne)n dar.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Kern der vorliegenden Arbeit ist die Modellierung komplexer Webapplikationen mit dem Story-Driven-Modeling Ansatz.Ziel ist es hierbei,die komplette Applikation allein durch die Spezifikation von Modellen zu entwickeln. Das händische Erstellen von Quelltext ist nicht notwendig. Die vorliegende Arbeit zeigt sowohl den Forschungsweg, der die angestrebte Modellierung von Webapplikationen ermöglicht, als auch die resultierenden Ergebnisse auf. Zur Unterstützung des Entwicklungsprozesses wird weiterhin ein modellgetriebener Softwareentwicklungsprozess vorgestellt, der die Modellierung einer Webapplikation von der Aufnahme der Anforderungen, bis zur abschließenden Erzeugung des Quelltextes durch Codegenerierung aus den spezifizierten Modellen, abdeckt. Für den definierten Prozess wird ferner Werkzeugunterstützung innerhalb der Fujaba Toolsuite bereitgestellt. Im Rahmen der vorliegenden Arbeit wurde die bestehede Toolsuite hierzu um alle zur Prozessunterstützung notwendigen Werkzeuge erweitert. Darüber hinaus wurden im Rahmen der vorliegenden Arbeit die in Fujaba bestehenden Werkzeuge erweitert, um neben den klassischen Möglichkeiten zur Modellierung komplexer Java-Applikationen auch die Erzeugung von Webapplikationen zu ermöglichen. Neben der genauen Beschreibung des Entwicklungsprozesses werden im Rahmen dieser Arbeit die entstehenden Webapplikationen mit ihren spezifischen Eigenschaften genau beschrieben. Zur Erzeugung dieser Applikationen wird neben dem Entwicklungsprozess die Diagrammart der Workflowdiagramme eingeführt und beschrieben. Diese Diagramme dienen der Abbildung des intendierten Userworkflows der Applikation im Rahmen der Anforderungsanalyse und stellen im weiteren Entwicklungsverlauf ein dediziertes Entwicklungsartefakt dar. Basierend auf den Workflowdiagrammen werden sowohl die grafische Benutzerschnittstelle der Webapplikation beschrieben, als auch ein Laufzeitsystem initialisiert, welches basierend auf den im Workflowdiagramm abgebildeten Abläufen die Anwendung steuert. Dieses Laufzeitsystem wurde im Rahmen der vorliegenden Arbeit entwickelt und in der Prozessunterstützung verankert. Alle notwendigen Änderungen und Anpassungen und Erweiterungen an bereits bestehenden Teilen der Fujaba Toolsuite werden unter dem Aspekt der Erstellung clientseitiger Datenmodelle einer Webapplikation genau beschrieben und in Verbindung mit den zu erfüllenden Voraussetzungen erläutert. In diesem Zusammenhang wird ebenfalls beschrieben, wie Graphtransformationen zur Umsetzung von Businesslogik auf der Clientseite einer Webapplikation eingesetzt werden können und auf welche Weise Datenmodelländerungen zwischen unterschiedlichen Clients synchronisiert werden können. Insgesamt zeigt die vorliegende Arbeit einen Weg auf, den bestehenden Ansatz des StoryDriven-Modeling für die Erzeugung von Webapplikationen einzusetzen. Durch die im Rahmen dieser Arbeit beschriebene Herangehensweise werden hierbei gleichzeitig Webbrowser zu einer neuen Klasse von Graphersetzungs-Engines erweitert, indem Graphtransformationen innerhalb der Ajax-Engine des Browsers ausgeliefert und ausgeführt werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die vorliegende Arbeit untersucht die Integrierbarkeit von Photodioden und zugehörigen Signalvorverarbeitungen mit dem preisgünstigen Standard-0,5-µm-Prozess bzw. 0,35-µm-CMOS-Prozess. Als Pilotanwendung wurde die Realisierung eines flexiblen Ortfrequenzfilters vorgesehen, der durch die Verschaltung und die Wichtung von integrierten Photodioden gebildet wird. Mit einem integrierten optoelektronischen Bauteil (Opto-ASIC) sollte die Funktionaliät eines CORREVIT®-Sensors (der Firma Corrsys 3D Sensors) aus Prismengitter, Feldlinse, Photodioden und Vorverstärker nachgebildet und seine Funktionalität erweitert werden. Dazu sollte dieser Opto-ASIC eine Photodiodenzeile enthalten, die im Unterschied zu dem bestehenden CORREVIT®-Sensor durch die programmierbare Verschaltung und die Wichtung der Signale der Photodioden unterschiedliche Ortsfrequenz-Bandpassfilter erzeugen sollte, um unterschiedliche Gitterkonstanten (Ortsfrequenzen) zur optimalen Anpassung des Sensors an die jeweilige Oberfläche realisieren zu können. Neue Ortsfrequenzfilter können mehrere Fehlereinflüsse handelsüblicher Sensoren größtenteils vermeiden. Dazu sollten die Filter symmetrisch sein und die Summen ihrer Wichtungen sollten zu Null werden. Die Photodioden als Elementarbauteile der Ortsfilter werden genau untersucht und optimiert, da die Eigenschaften der Photodioden die Qualität der Messsignale stark beeinflussen. Mit einem neuen entwickelten Messverfahren lässt sich die lokale Empfindlichekeit auf dem ASIC mit einer Auflösung ab 0,5 µm messen. Durch diese Messungen konnte die optimale Geometrie festgelegt werden. Es konnte gezeigt werden, dass die Empfindlichkeit der Photodioden in den Randbereichen (lateraler Bereich) erheblich höher ist als im Tiefenbereich (vertikaler Bereich). Es wurde deshalb vorgeschlagen, die Photodioden, die dann abhängig von der Struktur als Fingerdiode oder geschlitzte Diode bezeichnet wurden, in viele Teilflächen zu unterteilen. Zur Realisierung des Ortsfrequenzfilters wurde ein Schaltungssystem zur Signalverarbeitung und Verschaltung der Photodioden entwickelt. Dieser Schaltkreis setzt sich aus Transimpedanzverstärker, Diffenzverstärker, Schalter und einem Schieberegister zusammen.