37 resultados para Datenanalyse


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Obwohl die funktionelle Magnetresonanztomographie (fMRI) interiktaler Spikes mit simultaner EEG-Ableitung bei Patienten mit fokalen Anfallsleiden seit einigen Jahren zur Lokalisation beteiligter Hirnstrukturen untersucht wird, ist sie nach wie vor eine experimentelle Methode. Um zuverlässig Ergebnisse zu erhalten, ist insbesondere die Verbesserung des Signal-zu-Rausch-Verhältnisses in der statistischen Bilddatenauswertung von Bedeutung. Frühere Untersuchungen zur sog. event-related fMRI weisen auf einen Zusammenhang zwischen Häufigkeit von Einzelreizen und nachfolgender hämodynamischer Signalantwort in der fMRI hin. Um einen möglichen Einfluss der Häufigkeit interiktaler Spikes auf die Signalantwort nachzuweisen, wurden 20 Kinder mit fokaler Epilepsie mit der EEG-fMRI untersucht. Von 11 dieser Patienten konnten die Daten ausgewertet werden. In einer zweifachen Analyse mit dem Softwarepaket SPM99 wurden die Bilddaten zuerst ausschließlich je nach Auftreten interiktaler Spikes der „Reiz“- oder „Ruhe“-Bedingung zugeordnet, unabhängig von der jeweiligen Anzahl der Spikes je Messzeitpunkt (on/off-Analyse). In einem zweiten Schritt wurden die „Reiz“- Bedingungen auch differenziert nach jeweiliger Anzahl einzelner Spikes ausgewertet (häufigkeitskorrelierte Analyse). Die Ergebnisse dieser Analysen zeigten bei 5 der 11 Patienten eine Zunahme von Sensitivität und Signifikanzen der in der fMRI nachgewiesenen Aktivierungen. Eine höhere Spezifität konnte hingegen nicht gezeigt werden. Diese Ergebnisse weisen auf eine positive Korrelation von Reizhäufigkeit und nachfolgender hämodynamischer Antwort auch bei interiktalen Spikes hin, welche für die EEG-fMRI nutzbar ist. Bei 6 Patienten konnte keine fMRI-Aktivierung nachgewiesen werden. Mögliche technische und physiologische Ursachen hierfür werden diskutiert.

Relevância:

20.00% 20.00%

Publicador:

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ziel dieses Beitrages ist die Analyse der Anwendung empirischer Tests in der deutschsprachigen Sportpsychologie. Die Ergebnisse vergleichbarer Analysen, bspw. in der Psychologie, zeigen, dass zwischen Anforderungen aus Testkonzepten und empirischer Realität Unterschiede existieren, die bislang für die Sportpsychologie nicht beschrieben und bewertet worden sind. Die Jahrgänge 1994–2007 der Zeitschrift für Sportpsychologie (früher psychologie und sport) wurden danach untersucht, ob Forschungsfragen formuliert, welche Stichprobenart gewählt, welches Testkonzept verwendet, welches Signifikanzniveau benutzt und ob statistische Probleme diskutiert wurden. 83 Artikel wurden von zwei unabhängigen Bewertern nach diesen Aspekten kategorisiert. Als Ergebnis ist festzuhalten, dass in der sportpsychologischen Forschung überwiegend eine Mischung aus Fishers Signifikanztesten sowie Neyman-Pearsons-Hypothesentesten zur Anwendung kommt,das sogenannte „Hybrid-Modell” oder „Null-Ritual”. Die Beschreibung der Teststärke ist kaum zu beobachten. Eine zeitliche Analyse der Beiträge zeigt, dass vor allem die Benutzung von Effektgrößen in den letzten Jahren zugenommen hat. Abschließend werden Ansätze zur Verbesserung und der Vereinheitlichung der Anwendung empirischer Tests vorgeschlagen und diskutiert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die in den Betrieben häufig mit hohem gerätetechnischen und organisatorischem Aufwand installierten EDV-gestützten Informationssysteme zur Planung und Steuerung des Fertigungsprozesses genügen im allgemeinen nicht den an sie gestellten Anforderungen. Die Gründe dafür liegen in der Hauptsache in einem falschen Modellansatz und der mangelnden Datenqualität der eingesetzten Daten, verbunden mit einer unzureichenden Rückkopplung zwischen Vorgabe und Rückmeldung. Hinzu kommen das Fehlen geeigneter Aussagen (Kenngrößen) zur gezielten Beeinflussung des Prozesses und Akzeptanzprobleme der Mitarbeiter beim Umgang mit der EDV. Die genannten Schwachstellen geben die Richtung der Zielsetzung dieser Arbeit vor. Dieses Ziel bestand zunächst darin, eine Methode zu entwickeln, mit der die Anforderungen an die in einem Industriebetrieb zur Planung, Steuerung und Überwachung verwendeten Daten zu formulieren sind, um dann eine anforderungsgerechte Abstimmung dieser Daten im betrieblichen Datenfluß im Sinne eines kybernetischen Regelkreises vorzunehmen und Aussagen über die betrieblichen Zielgrößen zu erhalten. Aus der Vielzahl betrieblicher Vorgänge und Funktionsbereiche wurde der Fertigungsprozeß bei der Werkstättenfertigung im Produktionsbetrieb deshalb ausgewählt, weil hier in der Praxis wegen der Komplexität der Abläufe die höchsten Anforderungen an die Daten gestellt werden und deshalb auch die meisten Probleme bei der Erfüllung dieser Anforderungen auftreten. Außerdem ist die Fertigung nach dem Werkstättenprinzip am häufigsten in der Praxis anzutreffen. Als erstes war es nötig, die zeitlichen, quantitativen und qualitativen Anforderungen an die Daten aus einer Vielzahl durchgeführter Schwachstellenanalysen herauszuarbeiten und zu definieren. Die nächste Aufgabe bestand darin, die Einflußgrößen auf die Datenanforderungen, hier unterteilt in innere (datumsbezogene) und äußere (prozeßbezogene) zu bestimmen und in ihren Auswirkungen zu untersuchen. Die Betrachtung der Einflußgrößen ergab, daß die Aufgabe und die Verwendung des Datums im Prozeß für die Ermittlung der Anforderungen exakt bestimmt werden müssen. Aus diesem Grund war der Prozeß primär- und sekundärseitig in Abhängigkeit der Aufgabenstellung ausführlich zu beschreiben. Die Einflüsse der Aufbauorganisation waren ebenso wie die der Ablauforganisation zu berücksichtigen, darunter fielen auch die Auswirkungen der Automatisierungsansätze, z.B. durch den Einsatz flexibler Fertigungssysteme im Primärprozeß. Der Ansatz, von dem hier ausgegangen wurde, baut sich deshalb im ersten Schritt der vorgeschlagenen Vorgehensweise auf dem Modell eines Produktionssystems auf, das aus den Erkenntnissen von in mehreren Firmen durchgeführten Prozeßanalysen entwickelt wurde. In diesem Modell ist der Datenfluß und organisatorische Ablauf im Fertigungsprozeß in Matrixform festgehalten. Für jedes einzelne Prozeßdatum sind in der Matrix, bezogen auf die Aufgabenstellung, detailliert die Verwendungs- und Verflechtungsbeziehungen aufgezeichnet. Im zweiten Schritt erfolgt auf der Grundlage dieses Modells eine bedarfsgerechte Prozeßdatenauswahl. Die zeitliche Struktur des Datenflusses im Prozeß wird in Schritt drei mit Hilfe eines Ereignis-Zeitgraphens dargestellt. Die eigentliche zeitliche, quantitative und qualitative Anforderungsermittlung findet im vierten und gleichzeitig letzten Schritt anhand einer dafür entworfenen Datenanforderungsliste statt. Die Ergebnisse dieser anforderungsgerechten Datenanalyse nach der hier entwikkelten Systematik können in vielerlei Hinsicht Verwendung finden. Im Hinblick auf die eingangs genannten Problemstellungen sind beispielsweise folgende Einsatzmöglichkeiten denkbar und an Beispielen im einzelnen erläutert. - Verbesserung der Datenqualität - Rückkopplung im Sinne des kybernetischen Regelkreismodells - Bilden von Prozeßkenngrößen - Transparenz der EDV-Prozeßabläufe

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Der vorliegende Band ist unter der Betreuung von Rolf Biehler am Fachbereich Mathematik/Informatik der Universität Kassel als Wissenschaftliche Hausarbeit für das 1. Staatsexamen entstanden. Die Förderung von Datenkompetenz in den Klassen 1 – 6 ist ein in der deutschsprachigen didaktischen Literatur kaum beachtetes Thema. In der vorliegenden Arbeit wird die umfangreiche englischsprachige Literatur zu diesem Thema erschlossen und ausgewertet, um der Fragestellung, wie sich Datenkompetenz entwickelt und wie man diese Entwicklung im Unterricht geeignet fördern kann, nachzugehen. Alle Phasen im Prozess der Datenanalyse werden dabei aufgegriffen: Die Wahl einer Fragestellung und die Erhebung von Daten, die Organisation und graphische Darstellung sowie die Beschreibung und Interpretation von Daten mithilfe statistischer Verfahren. Die innovative Werkzeugsoftware TinkerPlots (http://www.keypress.com/x5715.xml) wird im Hinblick auf die Möglichkeit, Datenkompetenz zu fördern untersucht, und exemplarische Unterrichtsideen werden damit konkretisiert. Intention der Arbeit ist, einen Beitrag dazu zu leisten, dass der Stellenwert von Datenkompetenz in den Klassen 1-6 neu überdacht wird.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Im Rahmen der Arbeit wird den Fragen nachgegangen, inwiefern der Konsum von Öko-Lebensmitteln in Familien mit Kindern im zeitlichen Verlauf Veränderungen unterliegt und worin Veränderungen im Öko-Lebensmittelkonsum in Familien mit Kindern begründet sind. Aus den hierzu gewonnenen Erkenntnissen werden Schlussfolgerungen für die Konsumentenforschung und das Marketing von Öko-Produkten gezogen. Theoretische Grundlage stellen der Familienzyklus sowie Forschungsergebnisse zum Konsumentenverhalten in Familien und zum Konsum von Öko-Lebensmitteln in Familien dar. Für die empirische Bearbeitung der Forschungsfragen wurde ein qualitatives Forschungsdesign gewählt. Der Forschungsprozess gliederte sich in drei Wellen der Datenerhebung und -auswertung. Im Rahmen dessen wurden Eltern mithilfe problemzentrierter Interviews zur Entwicklung des Öko-Konsums in ihren Familien befragt. Die Interviews wurden computergestützt und in Anlehnung an die Kodierprozeduren offenes und axiales Kodieren der Grounded Theory ausgewertet. Ergebnis der Datenanalyse sind drei Zusammenhangsmodelle, die zu einer Erklärung von Veränderungen im Öko-Lebensmittelkonsum von Familien beitragen. Veränderungen können demnach erstens in einer Erhöhung der Konsumintensität während einer Schwangerschaft bestehen. Als Bedingungen hierfür konnten ein verstärktes Bewusstsein für Öko-Produkte, die körperliche Konstitution der Mutter sowie die Unterstützung durch die soziale Umwelt identifiziert werden. Weitere Bedingungen stellen Lebensmittelskandale sowie eine gute Verfügbarkeit von Öko-Produkten dar. Handlungsstrategien der Eltern beziehen sich auf das Wohlergehen des noch ungeborenen Kindes (Förderung der Gesundheit, Erhalten der zukünftigen Lebenswelt, Orientierung für die spätere Ernährung des Kindes) sowie auf das Wohlergehen der werdenden Mutter (Förderung der Gesundheit, Förderung des Wohlbefindens, Umgang mit schwangerschaftsbedingten Beschwerden). Zweitens können Veränderungen des Öko-Lebensmittelkonsums in einer Erhöhung der Konsumintensität ab dem Zeitpunkt der Umstellung der Ernährung eines Kindes auf eine Beikosternährung bestehen. Bedingungen hierfür sind eine verstärkte Beachtung von Öko-Produkten, die körperliche Konstitution des Kindes, die Abstimmung von Familien- und Baby-Kost, der Austausch mit und die Unterstützung durch die soziale Umwelt sowie der Wunsch von Eltern, einen Beitrag zum Öko-Landbau zu liefern. Bedingungen können außerdem eine gute Verfügbarkeit von Öko-Produkten sowie der Einfluss von Medien darstellen. Handlungsstrategien der Eltern beziehen sich auf die Ernährung des Kindes (Förderung der Gesundheit, Förderung der Geschmackssozialisation) und auf die Ernährung der restlichen Familie (effiziente Beschaffung und Verwendung von Lebensmitteln, Förderung des Wohlbefindens der Eltern). Drittens können Veränderungen im Öko-Lebensmittelkonsum in Familien in einem Rückgang der Konsumintensität während des Übergangs von Kindern ins Jugendalter bestehen. Bedingungen hierfür bestehen in der Konsequenz, mit der Eltern konventionellen Lebensmittelwünschen ihrer Kinder nachgeben, in der Beurteilung von Lebensmitteln durch die Eltern sowie in der Intensität, mit der Kinder ihre Wünsche einfordern. Handlungsstrategien der Eltern sind darauf ausgerichtet Kindern einen Wunsch zu erfüllen, sich gegenüber diesen liberal zu verhalten, Konflikte mit Kindern zu vermeiden oder diese ihre eigenen Erfahrungen sammeln zu lassen. Die Ergebnisse tragen zu einer theoretischen Fundierung des Zusammenhangs zwischen Familienzyklus und dem Öko-Lebensmittelkonsum in Familien bei und zeigen, dass dieser ein sinnvolles theoretisches Bezugssystem für Veränderungen der Konsumintensität von Öko-Produkten darstellt. Für die Konsumentenforschung tragen die Ergebnisse zu einem differenzierten Verständnis von Ober- und Untergrenzen von Familienzyklusstadien bei. Es zeigt sich weiterhin, dass Veränderungen des Öko-Konsums unter anderem unter dem Einfluss der sozialen Umwelt stehen. Im Hinblick auf das Marketing kann insbesondere geschlussfolgert werden, dass bei bestimmten Produktkategorien die Bedürfnisse jugendlicher Zielgruppen verstärkt berücksichtigt werden sollten. Zur Bindung junger Familien ist darauf hinzuwirken, einen Mehraufwand bei der Beschaffung von Öko-Produkten auszuschließen. Für die Ansprache der Zielgruppe Schwangere erscheinen Kommunikationsbotschaften geeignet, die sich auf das Wohlbefinden von Kind und Mutter und auf Nachhaltigkeitsaspekte beziehen. Eltern mit Kindern im Übergang zu einer Beikosternährung könnten gezielt durch Kommunikationsbotschaften angesprochen werden, die in Zusammenhang mit der Förderung der Gesundheit und der Geschmacksozialisation von Kindern stehen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Das vorliegende Dokument ist in einem Gemeinschaftsprojekt der Universität Kassel und der Elisabeth-Knipping-Schule Kassel entstanden. Im Rahmen der fachbezogenen schulpraktischen Stu-dien für das Fach Mathematik ist eine Unterrichtsreihe zur Beschreibenden Statistik mit Softwareein-satz für die Fachoberschule Klasse 11 entwickelt und umgesetzt worden. Dieses Dokument fasst Ideen, Materialien und didaktische Kommentare der durchgeführten Unterrichtsreihe in aufbereiteter Form zusammen. Viele der konzeptionellen Ansätze und Unterrichtsideen beruhen auf Vorarbeiten der Kassel-Paderborner Arbeitsgruppe „Interaktive Stochastik mit FATHOM“ von Prof. Dr. Rolf Biehler, Fakultät EIM, Universität Paderborn (bis 28.02.2009 Universität Kassel). Der Fokus dieser Arbeit liegt darin, Schülern der Fachoberschule die Erfahrung eines komplet-ten statistischen Untersuchungsprozesses mit Softwareeinsatz zu ermöglichen. Die Werkzeugsoftware FATHOM wurde 2006 ins Deutsche adaptiert. Seit 2008 ist eine multimediale Lernumgebung für diese Software verfügbar, die durch Tobias Hofmann, Mitglied der Arbeitsgruppe, entwickelt wurde. Im Vorfeld der Unterrichtsreihe erheben die Schüler Daten durch eine Online-Umfrage, für deren Inhalte sie mit verantwortlich sind. Zu Beginn der Unterrichtsreihe erwerben die Schüler über sechs Doppelstunden hinweg grundlegende Kenntnisse in der Datenanalyse mit der Werkzeugsoftware FATHOM anhand von Beispieldatensätzen. Dabei geht der Erwerb händischer Kompetenzen in der Datenanalyse einher mit dem Erlernen der Datendarstellung und Datenauswertung mit FATHOM. In der sich anschließenden Projektphase analysieren die Schüler in Gruppenarbeit die von ihnen erhobenen Daten. Sie lernen selbstständig Fragen zu formulieren und entsprechende Hypothesen aufzustellen sowie erhobene Daten sinnvoll darzustellen und geeignet auszuwerten. Aufgrund ihrer Analyse sollten Schüler in der Lage sein, eigenständig Antworten auf ihre eingangs gestellten Fragen und Hypothesen zu formulieren. Für das Vorstellen ihrer Datenanalyse erstellen die Schüler eine Präsentation mit einer dafür geeigneten Software. Sie lernen dabei auch das Kommunizieren und Argumentieren vor der eigenen Lerngruppe. Für jede Unterrichtseinheit in dieser Unterrichtsreihe gibt es einen Steckbrief, der den Inhalt des Unterrichts und die verfügbaren Materialien in Stichworten enthält. Desweiteren wird in jede Un-terrichtseinheit durch einen Didaktischen Kommentar eingeführt, der die grundlegende didaktische Idee charakterisiert und einen möglichen Ablauf der jeweiligen Unterrichtseinheit skizziert. Alle Mate-rialien, wie Arbeitsblätter, Folien, Übungen, Lösungen, Datensätze, Präsentationen, Projekte, Tests und Klausuren, sind im Ordner Materialien verfügbar.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die vorliegende Arbeit wird aufzeigen, wie sich die Flucht auf das Leben eines verfolgten Kindes auswirken kann. Dazu soll das Leben vor, während und nach der Flucht anhand von fünf Autobiographien untersucht werden. Die Autobiographien beinhalten die Lebenserinnerungen von Juden, die das Dritte Reich als Kinder und Jugendliche erlebten. Die zu untersuchenden Texte stammen von den in Wien geborenen Autoren Ruth Klüger (‚weiter leben‘) und Egon Schwarz (‚keine Zeit für Eichendorff‘) und den in Berlin geborenen Autoren Ludwig Greve (‚Wo gehörte ich hin? Geschichte einer Jugend‘), George Wyland-Herzfelde (‚Glück gehabt‘) und Hellmut Stern (‚Saitensprünge‘). Alle Autoren mussten ihrer Heimat im Zeitraum von 1935 bis 1942 entfliehen um ihr Leben vor den angeordneten Brutalitäten des nationalsozialistischen Regimes zu retten. Mit vielen Jahren zeitlichem Abstand schrieben die Autoren ihre Lebenserinnerungen nieder. Sie blickten auf ihr Leben vor der Verfolgung zurück und berichten von ihrem ‚neuen‘ Leben danach. Die Wege, die die Autoren während der Flucht einschlugen, könnten unterschiedlicher nicht sein. Und doch eint sie eines: Das rastloses Leben während der Flucht und das Bedürfnis ihre erlebte Geschichte mit anderen Menschen zu teilen. Da sich die vorliegende Arbeit mit der Analyse von autobiographischen Dokumenten beschäftigt, ist es zunächst sinnvoll sich einen Überblick über das Material und den Forschungsbereich zu verschaffen, in dem diese anzusiedeln ist. Der Ausgangspunkt der folgenden Untersuchung lässt sich im Bereich der Erziehungswissenschaftlichen Biographieforschung finden. Daher soll zunächst erläutert werden, was generell unter den Begriffen ‚Biographie‘ und ‚Autobiographie‘ zu verstehen ist. Dies ist für das Verständnis um die Beschaffenheit des analysierten Materials von entscheidender Bedeutung, denn jeder Mensch ist im Grunde ein Experte der Autobiographieforschung. Was es mit dieser gewagten Vermutung auf sich hat, wird sich im Verlauf dieses Kapitels klären. In einem zweiten Schritt soll dann das Erkenntnisinteresse Erziehungswissenschaftlichen Biographieforschung näher erläutert werden. Da jede autobiographische Äußerung aufgrund von Lebenserfahrungen getätigt wird, soll der Frage nachgegangen werden, was Lebenserfahrungen eigentlich genau sind und warum Lebenserfahrungen von besonderem Interesse für die Biographieforschung sind. Dem allgemeinen Erkenntnisinteresse schließt sich nun das spezielle, auf den konkreten Fall dieser Arbeit bezogene Erkenntnisinteresse an, nämlich die ausgewählten Autobiographien auf ihren biographischen Wendepunkt, eine besondere Form der Lebenserfahrung also, hin zu untersuchen. In diesem Fall ist es selbstverständlich sich erst einmal darüber klar zu werden um was genau es sich bei einem biographischen Wendepunkt eigentlich handelt. Wenn man sich intensiver mit einem bestimmten wissenschaftlichen Forschungsfeld beschäftigt, so ist es unerlässlich sich auch mit dem Zustandekommen und der Entwicklung dieses Forschungsfeldes zu beschäftigen. Demzufolge sollen im vierten Teil der Arbeit einige Informationen zur Geschichte der Erziehungswissenschaftlichen Biographieforschung zusammengetragen werden. Die Beschäftigung mit durchgeführten Studien kann Aufschluss darüber geben, welche Felder im Bereich der Biographieforschung bereits untersucht wurden und welche Erkenntnisse von großer Bedeutung für die Erziehungswissenschaft waren und noch bis heute sind. Thematisch schließt sich dem zeitlichen Abriss der Geschichte ein kurzer Überblick über die aktuelle Forschungssituation an, in dem einige bedeutende Arbeiten kurz inhaltlich vorgestellt werden. Die Betrachtung aktueller Forschungsstände gibt Aufschluss über die gegenwärtigen Forschungsschwerpunkte der Biographieforschung, aber auch eine Übersicht über die gegenwärtig populärsten Techniken der Beschäftigung mit Biographien. Obwohl es sich bei der Erziehungswissenschaftlichen Biographieforschung um ein relativ junges Forschungsgebiet handelt, haben sich im Laufe der Jahre dennoch unterschiedliche Formen der Datenerhebung und Datenanalyse entwickelt. Die verschiedenen Möglichkeiten des Forschers sich Daten zu nähren und diese zu interpretieren sollen in zwei separaten Teilen dieser Arbeit erläutert werden. Diese beiden Teile sollen einen Überblick darüber geben, wie vielseitig der Umgang mit biographischen Materialien aussehen kann. Der erste der beiden Teile beschäftigt sich zunächst mit der Frage, wie der Forscher eigentlich an biographisches Material gelangt, welches er später auswerten wird. Im Forschungsbereich der Erziehungswissenschaftlichen Biographieforschung lassen sich drei große Bereiche der Datenerhebung unterscheiden, die sich nach dem Zustandekommen des Ausgangsmaterials richten. Dies sind die Dokumentanalyse, die Durchführung von Interviews und die teilnehmende Beobachtung. Alle drei Formen gilt es an dieser Stelle kurz zu erläutern. Bevor die Autobiographien nun auf ihren biographischen Wendepunkt hin untersucht werden können, ist es zunächst nötig zu beschreiben, in welcher Form die Autobiographien denn analysiert und interpretiert werden sollen. Die Interpretation der Autobiographien orientiert sich am Vorgehen der objektiven Hermeneutik, die in seinen Grundprinzipien vorgestellt und in Anbetracht des vorhandenen Ausgangsmaterials leicht abgewandelt gebraucht werden soll. Der nächste Schritt ist nun die Beschäftigung mit den Autobiographien selbst. Zunächst sollen diese in Kürze inhaltlich zusammengefasst werden um einen Überblick über den beschriebenen Handlungsverlauf zu gewährleisten. Desweiteren lassen sich im Anhang dieser Arbeit tabellarische Lebensläufe mit den wichtigsten Informationen zu jedem der Autoren finden. Nun sollen die Lebensbedingungen der Autoren vor der Flucht, während der Flucht und nach der Flucht untersucht werden. Jenen Äußerungen des Autors, die sich konkret auf die Fluchtvorbereitungen beziehen, wird besondere Aufmerksamkeit zuteil. Ebenso verhält es sich auch mit Ausführungen des Autors, die die Verarbeitung des Fluchterlebnisses thematisieren. Die Analyse der Autobiographien soll so nah wie möglich am Text erfolgen. Um die zitierten autobiographischen Äußerungen dennoch auch vor dem historischen Hintergrund wahrnehmen zu können, werden zusätzliche, die historischen Umstände erläuternde, Materialien mit in die Interpretation einbezogen. Nachdem zu jeder Autobiographie die wichtigsten Erfahrungen vor, während und nach der Flucht beschrieben und interpretiert wurden, wird ein Vergleich der Autobiographien anschließen. Der Vergleich soll anhand von zuvor festgelegten thematischen Feldern erfolgen. Die Flucht war für jeden der Autoren mit individuellen Veränderungen in Bezug auf ihr späteres Leben verbunden. Obwohl die Autobiographien auf den ersten Blick äußerst unterschiedlich erscheinen, lassen sich einige Gemeinsamkeiten, aber auch Unterschiede bezüglich der Erlebnisse vor, während und nach der Flucht finden, die es im Laufe des Vergleiches herauszuarbeiten gilt. Abschließend soll die Frage beantwortet werden, ob sich die Fluchterfahrungen der Autoren zu einer Gesamterfahrung zusammenfassen lassen, die alle teilen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Das Beurteilen von Schülerleistungen, das Erfassen ihrer unterschiedlichen Lernvoraussetzungen und das Beobachten und Beurteilen von Schülerlernprozessen stellen wichtige Handlungsroutinen im Alltag von Lehrkräften dar. Dem gegenüber steht die Tatsache, dass sich noch bis vor einigen Jahren nur wenige Arbeiten und Projekte explizit mit der Diagnosekompetenz von angehenden und praktizierenden Lehrkräften beschäftigt haben. Die vorliegende Arbeit, die ein Teilprojekt innerhalb eines größeren interdisziplinären Projektes zur Diagnosekompetenz von Lehramtsstudierenden darstellt, möchte einen Beitrag leisten zur Debatte um die diagnostische Kompetenz. Ihr Hauptaugenmerk richtet sie dabei auf die diagnostische Kompetenz von Biologie-Lehramtsstudierenden im Bereich der naturwissenschaftlichen Erkenntnisgewinnung. Im Zuge der notwenigen theoretischen Konzeptionierung präsentiert die Arbeit einen im Gesamtprojekt erarbeiteten Vorschlag für eine Modellierung der (fachbezogenen) Diagnosekompetenz von Lehramtsstudierenden. Ergänzend dazu findet im Rahmen der Arbeit eine Klärung der in der Forschungsliteratur oftmals uneinheitlich benutzten Begrifflichkeiten zur diagnostischen Kompetenz statt. Weiterhin wird ein Vergleich von verschiedenen in der Literatur verwendeten Konzeptualisierungsansätzen vorgenommen. Da in der Forschungsliteratur keine geeigneten Instrumente zum Erfassen der hier im Speziellen betrachteten diagnostischen Kompetenz vorlagen, mussten diese im Rahmen der Arbeit neu entwickelt werden. Ein wesentlicher Ansatz dabei war eine Unterscheidung von status- und prozessdiagnostischen Kompetenzen und die Entwicklung entsprechend geeigneter Erhebungsinstrumente. Die neu entwickelten Testinstrumente wurden bei zwei Studierenden-Jahrgängen an verschiedenen Zeitpunkten im Verlauf ihres Studiums eingesetzt. Im Test zur Messung ihrer statusdiagnostischen Kompetenzen hatten die Studierenden Schülerlösungen aus dem Bereich der naturwissenschaftlichen Erkenntnisgewinnung zu analysieren und zu beurteilen. Dabei zeigte sich als ein zentraler Befund, dass die Probanden das Leistungsniveau der Schülerlösungen umso schlechter korrekt beurteilen konnten, je höher es war. Weiterhin wurde deutlich, dass die diagnostische Kompetenz der Lehramtsstudierenden für die typischen Teilschritte im Rahmen der Erkenntnisgewinnung unterschiedlich hoch ausgeprägt ist. So fiel es ihnen am leichtesten, die Schülerlösungen zum Teilschritt „Datenanalyse“ zu beurteilen, wohingegen sie deutlich größere Schwierigkeiten hatten, das Leistungsniveau der Schülerlösungen zum Teilschritt „Planen einer Untersuchung“ korrekt einzuschätzen. Im Test zum Erfassen der prozessdiagnostischen Fähigkeiten der Studierenden wurde ihnen ein Experimentierprozess zweier Schüler vorgelegt. Auffällig in Bezug auf ihre diagnostische Kompetenz waren die massiven Schwierigkeiten beim Beurteilen des Schülerumgangs mit den Variablen. Im Vergleich der status- und prozessdiagnostischen Fähigkeiten erwies sich die Prozessdiagnostik als die für die Studierenden schwierigere Tätigkeit. Ein wesentliches Plus in Bezug auf das Gewinnen von Informationen über die diagnostische Kompetenz brachte der Einsatz von Videoanalysen zusätzlich zu den beschriebenen paper-pencil basierten Testinstrumenten. Über eine Analyse der Testbearbeitungsprozesse der Studierenden wurde untersucht, aus welchen Beweggründen und auf Basis welcher Annahmen diese zu ihren diagnostischen Urteilen gekommen waren. Mit Hilfe der auf diese Weise gewonnenen prozessbezogenen Informationen war es möglich, die spezifischen Schwierigkeiten der Studierenden beim Diagnostizieren genauer herauszuarbeiten. Neben den genannten Untersuchungen zu den Ausprägungen von diagnostischer Kompetenz im Bereich Erkenntnisgewinnung wurden im Rahmen der Arbeit auch ihre postulierten Bedingungsfaktoren untersucht: das fachmethodische Vorwissen der Studierenden und ihr Wissenschaftsverständnis. Nur für ersteres konnte ein wenngleich geringer, aber doch signifikanter Zusammenhang festgestellt werden. Ergänzend zum Blick auf die möglichen Bedingungsfaktoren wurden auch Zusammenhänge zwischen der diagnostischen Kompetenz und verschiedenen ausgewählten Personen- und Kontextvariablen untersucht (z.B. die von den Studierenden gewählte Lehramtsform, ihre Fächerkombination, ihr Geschlecht und ihre Abiturnote). Von allen untersuchten Variablen erwies sich die von den Studierenden gewählte Lehramtsform als derjenige Faktor, der den wenngleich ebenfalls nur schwachen, aber doch durchgängig vorhandensten Zusammenhang aufwies. Zusätzlich zu der (objektiven) Erfassung der diagnostischen Kompetenzen mit Hilfe der Messinstrumente präsentiert die Arbeit Ergebnisse zum Verlauf der subjektiven Selbsteinschätzungen der Studierenden hinsichtlich ihres diagnostischen Wissens. Es zeigte sich, dass die Studierenden das Studium für die Ausbildung ihrer diagnostischen Kompetenz als weniger hilfreich empfinden als für den Aufbau der anderen Bereiche ihres Professionswissens. Die Arbeit endet mit einem Fazit zu den Testinstrument-Entwicklungen und den in den verschiedenen Untersuchungen gewonnenen Befunden, verbunden mit einem Ausblick auf mögliche Implikationen für die Lehrerausbildung und sich anschließende Forschungsvorhaben.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The measurement of feed intake, feeding time and rumination time, summarized by the term feeding behavior, are helpful indicators for early recognition of animals which show deviations in their behavior. The overall objective of this work was the development of an early warning system for inadequate feeding rations and digestive and metabolic disorders, which prevention constitutes the basis for health, performance, and reproduction. In a literature review, the current state of the art and the suitability of different measurement tools to determine feeding behavior of ruminants was discussed. Five measurement methods based on different methodological approaches (visual observance, pressure transducer, electrical switches, electrical deformation sensors and acoustic biotelemetry), and three selected measurement techniques (the IGER Behavior Recorder, the Hi-Tag rumination monitoring system and RumiWatchSystem) were described, assessed and compared to each other within this review. In the second study, the new system for measuring feeding behavior of dairy cows was evaluated. The measurement of feeding behavior ensues through electromyography (EMG). For validation, the feeding behavior of 14 cows was determined by both the EMG system and by visual observation. The high correlation coefficients indicate that the current system is a reliable and suitable tool for monitoring the feeding behavior of dairy cows. The aim of a further study was to compare the DairyCheck (DC) system and two additional measurement systems for measuring rumination behavior in relation to efficiency, reliability and reproducibility, with respect to each other. The two additional systems were labeled as the Lely Qwes HR (HR) sensor, and the RumiWatchSystem (RW). Results of accordance of RW and DC to each other were high. The last study examined whether rumination time (RT) is affected by the onset of calving and if it might be a useful indicator for the prediction of imminent birth. Data analysis referred to the final 72h before the onset of calving, which were divided into twelve 6h-blocks. The results showed that RT was significantly reduced in the final 6h before imminent birth.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Nichtlineare Zeitreihenanalyse konnte in den letzten Jahren im Rahmen von Laborexperimenten ihre prinzipelle Brauchbarkeit beweisen. Allerdings handelte es sich in der Regel um ausgewählte oder speziell konstruierte nichtlineare Systeme. Sieht man einmal von der Überwachung von Prozessen und Produkten ab, so sind Anwendungen auf konkrete, vorgegebene dynamische Probleme im industriellen Bereich kaum bekannt geworden. Ziel dieser Arbeit war es, an Hand von zwei Problemen aus der technischen Praxis zu untersuchen, ob die Anwendung des kanonischen Schemas der Nichtlinearen Zeitreihenanalyse auch dort zu brauchbaren Resultaten führt oder ob Modifikationen (Vereinfachungen oder Erweiterungen) notwendig werden. Am Beispiel der Herstellung von optischen Oberflächen durch Hochpräzisionsdrehbearbeitung konnte gezeigt werden, daß eine aktive Störungskompensation in Echtzeit mit einem speziell entwickelten nichtlinearen Vorhersagealgorithmus möglich ist. Standardverfahren der Nichtlinearen Zeitreihenanalyse beschreiten hier den allgemeinen, aber sehr aufwendigen Weg über eine möglichst vollständige Phasenraumrekonstruktion. Das neue Verfahren verzichtet auf viele der kanonischen Zwischenschritte. Dies führt zu einererheblichen Rechenzeitersparnis und zusätzlich zu einer wesentlich höheren Stabilität gegenüber additivem Meßrauschen. Mit den berechneten Vorhersagen der unerwünschten Maschinenschwingungen wurde eine Störungskompensation realisiert, die die Oberflächengüte des bearbeiteten Werkstücks um 20-30% verbesserte. Das zweite Beispiel betrifft die Klassifikation von Körperschallsignalen, die zur Überwachung von Zerspansprozessen gemessen werden. Diese Signale zeigen, wie auch viele andere Prozesse im Bereich der Produktion, ein hochgradig nichtstationäres Verhalten. Hier versagen die Standardverfahren der Nichtlinearen Datenanalyse, die FT- bzw. AAFT-Surrogate benutzen. Daher wurde eine neue Klasse von Surrogatdaten zum Testen der Nullhypothese nichtstationärer linearer stochastischer Prozesse entwickelt, die in der Lage ist, zwischen deterministischen nichtlinear chaotischen und stochastischen linearen nichtstationären Zeitreihen mit change points zu unterscheiden. Damit konnte gezeigt werden, daß die untersuchten Köperschallsignale sich statistisch signifikant einer nichtstationären stochastischen Folge von einfachen linearen Prozessen zuordnen lassen und eine Interpretation als nichtlineare chaotische Zeitreihe nicht erforderlich ist.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Nichtlineare Dynamik verallgemeinert Aussagen über dynamische Systeme durch Abstraktion von konkreten Systemen. In der Technik sind Maschinen dagegen sehr konkret und die Behandlung auftretender Probleme mit Methoden der theoretischen Physik ist nicht trivial. Diese Arbeit versucht einige der Schwierigkeiten einer technischen Anwendung der nichtlinearen Theorie zu lokalisieren. Am Beispiel von vier Klassen von Modellansätzen, werden Anwendungsschnittstellen beleuchtet und systematisiert. Die Anwendung von Modellen, die explizit auf bekannten physikalischen Gesetzmäßigkeiten aufbauen, findet Grenzen in der Anzahl der Freiheitsgrade und den Nebenbedingungen konkreter Systeme. Solche Modelle liefern jedoch wichtige Hinweise auf die Vielfalt der nichtlinearen Phänomene und tragen zu ihrem Verständnis bei. Daher sind sie für die Konstruktionspraxis wichtig. Es werden typisch nichtlineare Phänomene und ihre zugrundeliegenden Mechanismen vorgestellt und klassifiziert, sowie grundsätzliche Probleme der Berechenbarkeit analytisch formulierter Modelle betrachtet. Eine zweite Schnittstelle bieten die Darstellungen des Systemverhaltens als überlagerung spezieller Funktionen, diez.B. Symmetrieeigenschaften des betrachteten Systems besonders deutlich widerspiegeln. Gegenüber der klassischen Fourierzerlegung nach Frequenz und Phase bringt die Analyse nach Detaillierungsgrad und Position von Waveletfunktionen wichtige Vorteile für die nichtlineare zustandsraumbasierte Datenanalyse. Viele Verfahren der Nichtlinearen Datenanalyse beruhen auf metrischen Eigenschaften der dynamischen Systeme. Als dritte Gruppe werden demgegenüber topologische Methoden beleuchtet. Die Konstruktion von Simplexen aus Zeitreihen mittels der Zeitversatzmethode ist die Grundlage für eine Triangulation der Zustandsräume. Die Methoden, z.B. Templateverfahren, die auf der Einbettung von eindimensionalen Trajektorien in den R^3 basieren, lassen sich hingegen nicht einfach auf hochdimensionale Zustandsmannigfaltigkeiten anwenden. Schließlich werden stochastische Aspekte behandelt. Schwankungen des Systemverhaltens können auf Schwankungen der Anfangswerte und/oder auf Schwankungen der eigentlichen Systemdynamik beruhen. Die Einordnung des konkreten Anwendungsfalles setzt jedoch ein sicheres Verständnis stochastischer Prozesse voraus. Am Beispiel der Rekonstruktion der stochastischen Dynamik über eine eindimensionale Fokker-Planck-Gleichung zeigen sich deutlich die praktischen Grenzen solcher Ansätze.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Monte Carlo-Simulationen zum kritischen Verhalten dünnerIsing-Filme Dünne Ising-Filme können als vereinfachtes Modell zurBeschreibung von binären Mischungen oder von Flüssigkeitenin schlitzartigen Kapillaren dienen. Infolge dereingeschränkten Geometrie unterscheidet sich das kritischeVerhalten dieser Systeme signifikant von dem einesBulk-Systems, es kommt zu einem Crossover von zwei- zudreidimensionalem kritischen Verhalten. Zusätzlichverschiebt sich der Phasenübergang in den ungesättigtenBereich, ein Effekt, der als 'capillary condensation'bezeichnet wird. In der vorliegenden Arbeit wurden die kritischenEigenschaften von Ising-Filmen im Rahmen einer MonteCarlo-Simulation untersucht. Zur Verbesserung der Effizienzwurde ein Cluster-Algorithmus verwendet, der um einenGhost-Spin-Term zur Behandlung der Magnetfelder erweitertwar. Bei der Datenanalyse kamen moderneMulti-Histogramm-Techniken zur Anwendung. Für alle untersuchten Schichtdicken konnten kritischeTemperatur und Magnetfeld sehr präzise bestimmt werden. DieSkalenhypothese von Fisher und Nakanishi, die dieVerschiebung des kritischen Punktes gegenüber seinesBulk-Wertes beschreibt, wurde sowohl für Systeme mit freienOberflächen als auch für Systeme mit schwachemOberflächenfeld bestätigt. Der Wert des Gap-Exponenten derOberfläche wurde mit $Delta_1$=0.459(13) in Übereinstimmungmit den Literaturwerten abgeschätzt. Die Observablen Magnetisierung und magnetischeSuszeptibilität sowie deren auf die Oberfläche bezogenenEntsprechungen zeigen kein reines zweidimensionaleskritisches Verhalten. Zu ihrer Beschreibung in der Nähe deskritischen Punktes wurden effektive Exponenten für dieeinzelnen Schichtdicken bestimmt.