223 resultados para Untersuchung


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ziel der vorliegenden Arbeit ist das Studium des Einflusses mineralischer Stoffe bei dem Vergasungsprozess von Biomasse um Grundlagen zur Verbesserung der Technologie mit experimentellen Methoden zu schaffen. Als Katalysator wird der mineralische Anteil oder Asche, Dolomit und Braunkohlenkoks den Kaffeeschalen, Ölpalmschalen oder Buchenholz zu gemischt. Als Vergasungsmittel wird Wasserdampf benutzt. Als experimentellen Anlagen werden eine Thermowaage und ein Drehrohrreaktor eingesetzt. Zur Vergasung im Drehrohrreaktor wurden Versuche mit Gemischen aus Dolomit und Buchenholz durchgeführt. Variierte Versuchsparameter waren der Massestrom, die Wasserdampfkonzentration, die Temperatur, der Kalzinierungsgrad des Dolomits, die Kontaktzeit zwischen Gas und Partikeln und die Verweilzeit. Durch die Variation des Massestroms wurden unterschiedliche Schütthöhen erreicht, wodurch das Verhältnis zwischen aktiver und passiver Zone in der Schüttung verändert wird. Die Prozessvariablen wurden so eingestellt, dass längs der Reaktorlänge als Bewegungsformen Stürzen, Stürzen-Gleiten und diskontinuierliches Gleiten auftreten. Zur Variation der Kontaktzeit zwischen den Partikeln und der Gas-Atmosphäre wurde ein Einbau mit sechs ebenen Wendeblechen durchgeführt. Die Ergebnisse der Versuche belegen, dass der katalytische Einfluss des Dolomits einen bedeutenden Effekt bei der Verminderung der Teerbeladung der Produkte hat. Die Wendebleche führten zu einer Steigerung der Gaserzeugung unter bedeutender Verminderung des Teergehalts, besonders in Anwesenheit von Dolomit. In der gegenwärtigen Untersuchung wurde die neuronale Netz-Methode benutzt, um die Beziehungen zwischen den Variabeln, die den Prozess beeinflussen, zu analysieren.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Forschungsarbeit beschäftigt sich schwerpunktmäßig mit der Ausbildung von Bodengewölben über punkt- und linienförmigen Auflagerungen und der Stabilisierung des Gewölbebereiches durch horizontale Bewehrungseinlagen aus Geokunststoffen. Während das Tragverhalten entsprechender Bodengewölbe unter ruhenden Belastungen bereits wissenschaftlich erforscht ist untersucht die Dissertation vornehmlich das Gewölbeverhalten unter nichtruhenden Belastungen. Da die Gewölbemodelle primär im Verkehrswegebau als geokunststoffbewehrte Erdschichten über Pfahlelementen (GEP) ausgeführt werden, ist für die Praxis die Untersuchung der Auswirkung einer nichtruhenden Belastung (Verkehrslast) von besonderer Bedeutung. Methodisch wurden umfangreiche großmaßstäbliche Modellversuche (Maßstab 1:3) zur Gewölbeausbildungen am Pfahlrasterausschnitt sowie am Dammquerschnitt mit Berücksichtigung der Böschungssituation vorgenommen. Die Modellversuche wurden in einer differenzierten numerischen Analyse mit der Methode der finiten Elemente (FEM) verifiziert. Die zyklischen FEM-Modelle basierten dabei auf einem zyklisch-viskoplastischen Stoffansatz. Aufbauend auf den Modellversuchsergebnissen wurden schließlich modifizierte analytische Berechnungsansätze entwickelt. Zusammenfassend kann es bei zyklischen Beanspruchungen im unbewehrten System zu einer Gewölberückbildung und zu erhöhten Systemverformungen kommen. Die Größe der Gewölberückbildung ist abhängig von der Überdeckungshöhe, der Belastungsfrequenz, der Lastzyklenzahl sowie der zyklischen Belastungsamplitude in Relation zur statischen Überlagerungsspannung. Mit abnehmender Höhe, zunehmender Frequenz, zunehmender Zyklenzahl und Belastungsamplitude tritt eine Gewölbereduktion verstärkt ein. Eine erhöhte Primärspannung kann dazu führen, dass die Bodengewölbe überdrückt werden und dadurch gegenüber zyklischer Beanspruchung stabiler sind. Auch bei Anordnung von Bewehrungslagen sind ähnliche Effekte zu beobachten wie im unbewehrten Fall. Mit zunehmender zyklischer Beanspruchung behindern die eingebauten Geokunststoffe allerdings die Ausbildung der Scherfugen, reduzieren dadurch die Setzungen, erhöhen die Lastumlagerung auf die Pfähle und stabilisieren dadurch das System. Aus den Modellversuchen wurde ein vereinfachter Ansatz für die vorhandenen analytischen Berechnungsverfahren in Form eines Gewölbereduktionsfaktors k abgeleitet, mit dem näherungsweise auch für praktische Fälle eine erste Abschätzung der Gewölbereduktion infolge nichtruhender Belastung möglich ist. Ergänzend zu dem Hauptthema der Gewölbeausbildung unter nichtruhenden Lasten unter-sucht die Forschungsarbeit die allgemeine Verwendbarkeit der FEM-Methode zur Berechnung eines GEP-Systems unter ruhender und nichtruhender Belastung, beurteilt die derzeit gültigen Spreizdruckansätze sowie den derzeitigen Verankerungsnachweis für eingelegte Geokunststofflagen und untersucht die Lastabtragung im Geogitter bei dreieckrasterförmiger Lagerung.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die weltweit agierenden sozialen Investitionsfonds haben ihren konzeptionellen Ursprung in dem 1986 erstmals in Bolivien implementierten Sozialen Notstandsfond. Der Fonds hatte die schnelle und fokussierte soziale Abfederung der unter der “Ägide“ der internationalen Finanzorganisationen im bolivianischen Kontext seit 1985 umgesetzten neoliberalen Strukturanpassungsprogramme zum Ziel. Resultierend aus den überwiegend positiven Erfahrungen der ersten Fondsgeneration und der im Verlauf der letzten zwei Dekaden stetigen Weiterentwicklung der nationalen Fondsstruktur kommt dem bolivianischen Modell im Hinblick auf die zukünftige Ausgestaltung von Sozialfondsstrukturen bis heute eine besondere Bedeutung zu. Anhand der verschiedenen bolivianischen Sozialfondsgenerationen fokussiert das vorliegende working paper die Interaktionen und Interdependenzen, die sich innerhalb der internationalen, der nationalen und der lokalen Ebene abzeichnen. So lässt sich im Kontext des bolivianischen Sozialfonds ein beachtlicher Kompetenztransfer zugunsten der internationalen Ebene konstatieren, der durchaus als “Denationalisierung“ der nationalen Sozialpolitik beschrieben werden kann. Gleichzeitig zeigt die vorliegende Untersuchung, dass die nationale Ebene diese Neuverteilung traditionell nationalstaatlicher Verantwortungsbereiche sowohl über Legitimationsgewinne als auch politische Gestaltungsspielräume partiell zu kompensieren vermochte. Mit Blick auf die lokale Ebene dominierten indes klassische top-down-Logiken. Die lokale Ebene trat somit weniger als gestaltender Akteur, denn als passiver Adressat sozialpolitischer Prioritätensetzungen auf.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Am Beginn des 21. Jahrhundert gilt die ökologische Krise nach wie vor als ein existenzgefährdendes Problem der Menschheit. Schelling war vor nahezu 200 Jahren der erste und in dieser Entschiedenheit der einzige Denker, der auf die Bedrohung aufmerksam gemacht hat, die von einer Absolutsetzung der menschlichen Subjektivität ausgeht. Es ist das Ziel der genannten Schrift, Grundidee und -struktur der Naturphilosophie Schellings zu analysieren und die Überwindungsmöglichkeit der ökologischen Krise im Ausgang seiner Naturphilosophie zu finden. Mit Schellings Konzept der Natur als Subjekt könnte die Frage nach der Überwindungsmöglichkeit der ökologischen Krise und dem von der Philosophie hier zu leistenden Beitrag präzisiert werden. Deshalb ist das Hauptanliegen dieser Untersuchung, ob Schellings Konzept eine Alternative zu unserem heutigen Naturverständnis sein kann. Angesichts dieser neuen Fragestellung und der mit ihr verbundenen Aufgabe, einen prinzipiell anderen Begriff von Natur zu gewinnen, sind seine frühen naturphilosophischen Schriften für die in der Arbeit anvisierte Fragestellung besonders aufschlussreich und dienen daher auch als Quelle und Grundlage für die folgende Untersuchung. Die genannte Schrift gliedert sich in vier Kapitel. Im ersten Kapitel wird das Absolute als Zentralprinzip der Schellingschen Philosophie erörtert. Die Kontinuität seiner ganzen Philosophie beruht auf dem Prinzip des Absoluten. Im zweiten Kapitel werden die Anfänge der Schellingschen Naturphilosophie untersucht. Zuerst wird Kants Kritik der Urteilskraft als Vorstudien zu Schellings Begriff einer sich selbst organisierenden und hervorbringenden Natur herausgearbeitet. Und dann wird dargelegt, wie Schelling seine Naturkonzeption in der Auseinandersetzung mit Fichte aus grundsätzlichen philosophischen Überlegungen ableitet. Im dritten Kapitel stehen Grundidee und -struktur der früheren Naturphilosophie Schellings im Zentrum der Analyse. Vor allem setze ich mich unter Berücksichtigung seiner organisch-ganzheitlichen Naturauffassung mit dem Verständnis von Natur als Subjekt und Produktivität ausführlich auseinander, um die Überwindungsmöglichkeit der ökologischen Krise zu bedenken. Schellings Einwand gegen die mechanistische Naturauffassung erklärt sich aus seinem Begriff der Natur als Subjekt. Dieser Begriff hängt unmittelbar mit der Idee der Natur als Organismus zusammen. Die Natur ist ein sich selbst organisierendes Ganzes und ihre dynamische Enzwicklung vollzieht sich durch ihre eigenen Potenzen. Das vierte Kapitel setzt sich mit der Kernfrage auseinander, welche Bedeutung Schellings Naturphilosophie für die Überwindung der ökologischen Krise hat und wie die vermeintliche Aktualität seiner Naturphilosophie zu erklären ist. Hier wird Schellings Naturphilosophie im Sinne eines Rezeptes gegen die ökologische Krise als der Versuch der Begründung eines anderen Naturbegriffs und einer neuen Natur-Ethik interpretiert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In der vorliegenden Arbeit wird ein am Strengths-Modell orientiertes Case Management-Projekt zur Prozess- und Ergebnisoptimierung der bereits bestehenden ambulanten gerontopsychiatrischen Versorgungsstruktur untersucht. Dazu arbeitete eine Krankenpflegerin mit psychiatrischer Fachausbildung in einer Berliner Sozialstation auf Basis einer professionellen Beziehung für 4-6 Wochen bei Klientinnen mit gerontopsychiatrischen Problemlagen, erstellte ein Assessment, leistete notwendige Unterstützung zunächst selbst, vermittelte gestützt auf die eigenen Erfahrungen weiterführende Dienste, leitete diese Dienste an, zog sich dann aus dem direkten Kontakt mit den Klientinnen zurück und blieb beratend für die weiterführenden Dienste verfügbar. Zur Untersuchung des Projekts wurden qualitative und quantitative Verfahren eingesetzt. Zur Beschreibung der Inhalte wurden die für jede Klientin verfasste Dokumentation und die Ergebnisse von grob strukturierten Interviews mit der Case Managerin, angelehnt an eine reduzierte Form der Methode Grounded Theory, in einem iterativen Prozess analysiert. In einem zweiten Schritt wurde dann untersucht, inwieweit die einzelnen Arbeitsinhalte des Case Managements die sozial-räumlichdingliche Umweltanpassung und Proaktivität der Klientinnen unterstützten. Die Wirkungen des Projektes auf Kognition, Aktivitäten des täglichen Lebens (ADL), Instrumentelle Aktivitäten des täglichen Lebens (IADL), Stimmung sowie soziales und störendes Verhalten wurden mittels eines standardisierten Fragebogens mit einem quasi-experimentellen prospektiven Untersuchungsdesign analysiert. Zur Analyse der subjektiven Wirkung des Projektes auf Angehörige wurden in den Ergebnissen von grob strukturierten Interviews mittels eines iterativen Prozesses Themen identifiziert. Die Klientinnen (n=11) erhielten durchschnittlich 23 Stunden Case Management. Neben den typischen Case Management-Aufgaben führte die Case Managerin, basierend auf den Gewohnheiten, Interessen und Selbsteinschätzungen der Klientinnen, therapeutische und pflegerische Maßnahmen durch und unterstützte dabei die sozial-dinglichräumliche Umweltanpassung und Proaktivität der Klientinnen. Zusätzlich wurden Hauspflegerinnen von der Case Managerin individuell in der Wohnung von Klientinnen hinsichtlich der Kommunikation mit und Unterstützung der Proaktivität von Klientinnen angeleitet. Die Hauspflegerinnen führten die von der Case Managerin eingeleiteten Maßnahmen erfolgreich fort. Bei den Klientinnen zeigten sich signifikante Verbesserungen in Gedächtnis, Stimmung, IADL-Funktionen und Sozialverhalten, aber nicht in ADL-Funktionen und störendem Verhalten. Diese Verbesserungen wurden subjektiv von den Angehörigen (n=7) bestätigt. Zusätzlich empfanden Angehörige eine zeitliche aber keine psychische Entlastung. Mit diesem Projekt wurde gezeigt, dass ein zeitlich begrenztes klientenzentriertes Case Management kognitive, soziale und emotionale Funktionen von gerontopsychiatrisch Erkrankten verbessert, Angehörige zeitlich entlastet und dass Hauspflegerinnen bei entsprechender Anleitung die vom Case Management eingeleiteten Maßnahmen fortführen können. In Folgestudien mit größerem Umfang sollten diese Ergebnisse überprüft werden um dann zu entscheiden, ob dieser Ansatz geeignet ist, die ambulante gerontopsychiatrische Versorgung gemeindenah zu verbessern.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mit ansteigenden Jahresmilchleistungen werden die Kühe einer hohen metabolischen Belastung ausgesetzt, die bei einer suboptimalen Gestaltung der Lebensbedingungen mit einer Erhöhung der Inzidenzrate von Faktorenkrankheiten einhergehen kann. Im Vordergrund der Untersuchungen stand die Frage, inwieweit metabolische Belastungszustände von Milchkühen in der Phase des Puerperiums und in Abhängigkeit von der Milchleistung sowie Belastungen durch eine klinische Erkrankung zu Beginn der Laktation mit Hilfe von Parametern der immunologischen Abwehr und der Reaktion des Immunsystems auf eine Challenge dargestellt werden können. In die Untersuchung wurden insgesamt 68 klinisch gesunde sowie 20 klinisch erkrankte Milchkühe der Rasse Holstein Friesian einbezogen. Die Untersuchungen erfolgten in den Zeiträumen 10-21 Tage sowie 14-15 Wochen nach der Kalbung. Dazu wurden an jeweils drei Untersuchungstagen (Tag 0, 2, 7) Blutproben aus der Vena jugularis entnommen. Zur Stimulierung des unspezifischen Immunsystems wurde in beiden Versuchszeiträumen an den Untersuchungstagen 0 und 2 der Paramunitätsinducer Zylexis® appliziert. Ferner wurde den Kühen zu Beginn der Laktation der Tollwutimpfstoff Rabisin® verabreicht. Für die Auswertung wurden die untersuchten Milchkühe in Gruppen unterteilt. Die klinisch gesunden Kühe wurden anhand der nach Fett und Eiweiß korrigierten 305-Tage-Leistung in die Gruppe M = mittleres Leistungsniveau (Milchmengenleistung 6.500-8.990 kg) und die Gruppe H = hohes Leistungsniveau (Milchmengenleistung 9.000-12.500 kg) aufgeteilt. Die klinisch erkrankten Kühe wurden in der Gruppe K zusammengefasst. Zur Beurteilung der Immunabwehr wurden die Parameter Phagozytoseaktivität der isolierten Neutrophilen Granulozyten, die Vollblutbakterizidie, die Lymphozytenproliferation mit den Mitogenen ConA, PHA und PWM sowie die spezifische Antikörperbildung gegen Tollwut untersucht. Anhand der Parameter Phagozytoseaktivität, Vollblutbakterizidie und Lymphozytenproliferation wurde zusätzlich die Reaktion auf die Challenge mit dem Paramunitätsinducer Zylexis® überprüft. Zur Erfassung der metabolischen Belastungszustände wurden verschiedene Stoffwechselparameter und hämatologische Parameter erfasst. Zu Beginn der Laktation konnten bei den Kühen in der mittleren und hohen Leistungsgruppe signifikant höhere Konzentrationen an ß-Hydroxybuttersäure und Freien Fettsäuren im Vergleich zu der Laktationsmitte festgestellt werden. Die Kühe mit einem hohen Leistungsniveau zeigten darüber hinaus eine signifikant höhere Bilirubinkonzentration am Laktationsanfang gegenüber der Laktationsmitte. Die mittlere Konzentration der freien Fettsäuren lag bei den Kühen in beiden Leistungsgruppen oberhalb des Referenzbereiches und wies auf eine negative Energiebilanz zu Laktationsbeginn hin. Die mittleren Konzentrationen bzw. Enzymaktivitäten der Parameter Cholesterol, Harnstoff, AST, GLDH, γ-GT, Gesamtprotein, Kalzium und Phosphor wiesen in der Laktationsmitte signifikant höhere Werte als am Laktationsanfang auf. Dabei lagen die mittleren Enzymaktivitäten von AST und GLDH sowie die Konzentrationen von Harnstoff und Gesamtprotein in der Laktationsmitte oberhalb des Referenzbereiches. Die untersuchten Stoffwechselparameter wurden durch die Challenge mit einem Paramunitätsinducer nicht signifikant beeinflusst. Hinsichtlich der Immunparameter zeigten die Milchkühe mit einem mittleren Leistungsniveau in Abhängigkeit vom Laktationszeitpunkt zu Beginn der Laktation eine signifikant höhere Phagozytoseaktivität gegenüber der Laktationsmitte (p < 0,05). Die Gruppe mit einem hohen Leistungsniveau wies dagegen keine signifikanten Unterschiede in der Phagozytoseaktivität zwischen den beiden Untersuchungszeiträumen auf. Bei den Immunparametern Vollblutbakterizidie und Lymphozytenproliferation konnten bei den Kühen beider Gruppen keine signifikanten Unterschiede in Abhängigkeit vom Laktationszeitpunkt festgestellt werden. Im Hinblick auf die Milchleistung wiesen die Kühe in den beiden Leistungsgruppen am Untersuchungstag 0 weder zu Beginn noch in der Mitte der Laktation signifikante Unterschiede bezüglich der untersuchten Immunparameter auf. Nach der Challenge durch den Paramunitätsinducer reagierten einzig die Kühe mit einer mittleren Leistung zu Beginn der Laktation auf die Challenge mit einer signifikanten Reduzierung der mittleren Phagozytoseaktivität von Tag 0 zu Tag 2 (p < 0,05). Bei den weiteren untersuchten Immunparametern konnten weder bei den Kühen mit einer mittleren noch mit einer hohen Leistung eine signifikante Reaktion auf die Challenge nachgewiesen werden. Die klinisch erkrankten Kühe zeigten im Vergleich zu den klinisch gesunden Kühen keine unterschiedlichen Konzentrationen bzw. Aktivitäten der untersuchten Stoffwechselparameter. Auch konnten anhand der immunologischen Parameter und der Reaktion auf die Challenge keine Unterschiede zwischen den klinisch gesunden Kühen festgestellt werden. Die in der vorliegenden Untersuchung geprüften metabolischen Belastungen konnten weder anhand der Immunparameter noch durch die Reaktion der Immunparameter auf eine Challenge dargestellt werden. Es wird geschlussfolgert, dass das immunologische Reaktionsvermögen nicht geeignet ist, um als Indikator für Belastungszustände bei der Milchkuh herangezogen zu werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mit einer Virtuellen Organisation können Flexibilität, Schnelligkeit, Innovationsfähigkeit, Internationalität, Qualität und Effizienz erreicht werden. All dies sind Anforderungen, die Bildungsanbieter heutzutage zwingend erfüllen müssen, um im Wettbewerb bestehen zu können. Die Arbeit geht daher der Frage nach, ob die Virtuelle Organisation eine sinnvolle Organisationsvariante für Bildungsanbieter sein kann bzw. welches Ausmaß an Virtualität sinnvoll sein kann: Der Bildungsanbieter als Netzwerk aus einer koordinierenden Programmzentrale und spezialisierten Anbietern von Lehrleistungen, die situativ in den Bildungsbetrieb einbezogen werden? Im Fokus der Untersuchung steht die Managementausbildung, die angeboten wird von Institutionen des tertiären Bildungssektors und Anbietern berufsbezogener Weiterbildung. Zur Beantwortung der Kernfrage werden zunächst Kriterien erarbeitet, die beschreiben, wann eine Virtuelle Organisation generell Sinn macht. Diese beziehen sich in erster Linie auf die Eigenschaften des von der Organisation hergestellten Produktes. Daher wird im nächsten Schritt eine Produktstruktur für die Managementausbildung hergeleitet, die später mit den Eignungskriterien für die Virtuelle Organisation abgeglichen werden kann. Die Soll-Produktstruktur für die Managementausbildung wird basierend auf dem typischen Karriereverlauf einer Fach- und Führungskraft entwickelt. Ergebnis ist eine Differenzierung des Gesamtkonstrukts Managementausbildung in die Produkte Grundlagenstudium, Vertiefungsstudium und Weiterbildung. Die Eigenschaften der Managementausbildungsprodukte werden untersucht und den Eignungskriterien der Virtuellen Organisation gegenüber gestellt, um so zu einer Aussage über die Virtualisierungsfähigkeit der einzelnen Produkte zu gelangen. Abschließend wird für jedes Produkt der Managementausbildung eine Virtualisierungsvision entwickelt und die Implikationen für die verschiedenen Anbieter von Managementausbildung werden aufgezeigt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Zusammenfassung (deutsch) Seit den 1980iger Jahren wächst die Bedeutung der sog. Bildschaffenden Methoden für die Bestimmung der Qualität ökologischer Produkte. Zu diesen Methoden gehört die Biokristallisation, Steigbild und Rundfilter-Chromatographie. Die Ergebnisse dieser Methoden sind Bilder, die anhand definierter Kriterien ausgewertet werden. Bei der Biokristallisation sind es mehr oder weniger geordnete Kristallisationen auf einer Glasplatte, bei dem Steigbild zweidimensionale Strukturen auf Chromatographiepapier. In der Vergangenheit wurden die Bilder von Spezialisten ausgewertet, die nach einer längeren Schulung produktspezifische Kriterien entwickelt hatten. Im Gegensatz zur Dünnschicht-Chromatographie, wo der einzelne Stoff von der Matrix separiert wird, ist das Ziel beim Steigbild, Strukturen der möglichst ganzen Probe zu erzeugen. Die Methode wurde von Kolisko in den 1929iger Jahren entwickelt, wobei eine Kombination aus Chromatographieprozess und Metallkomplexreaktionen genutzt wurde. Die Firma WALA entwickelte die Methode für die Kontrolle ihrer Produkte und setze Silbernitrat und Eisensulfat ein. Bisher wurde die Methode qualitativ beschreibend ausgewertet, wobei einzelne Bildelemente und deren Interaktion beschrieben wurden. Deshalb musste für die vorliegende Arbeit Auswertungsmethoden entwickelt werden, mit denen auch eine statistische Bearbeitung der Ergebnisse möglich ist (nominale Unterscheidung von proben anhand der Bilder). Die Methode wurde bisher in einer Reihe von Studien eingesetzt (u.a. die Unterscheidung von Produktionsweisen). Obwohl die Bilder nur qualitativ ausgewertet wurden, konnten geschulte Prüfpersonen Proben aus verschiedenen Anbausystemen anhand der Bilder trennen. Die Ergebnisse wurden aber nicht so dokumentiert, dass sie den Erfordernissen internationaler Standardnormen für Laboratorien genügten. Deshalb mussten für diese Arbeit zunächst die Prozeduren dokumentiert und eine systematische Untersuchung zu den Einflussgrößen durchgeführt werden. Dazu wurde die visuelle Bildauswertung entwickelt und standardisiert. Die visuelle Bildauswertung basiert auf morphologischen Kriterien der Bilder von den untersuchten Weizen- und Möhrenproben. Ein Panel aus geschulten Personen entwickelte dann die Kriterien und legte sie anhand von Referenzbildern fest. Die Bilder der vorliegenden Arbeit wurden mit der einfach beschreibenden Prüfung ausgewertet, wie sie aus der sensorischen Prüfung von Lebensmitteln übernommen werden konnte. Mit geschulten und ungeschulten Prüfpersonen wurden Weizenproben und verschiedene Möhrensäfte mit der sog. Dreiecksprüfung ausgewertet (von ISO 4120). Alle Laborprozeduren wurden dokumentiert. Mit der Anwendung dieser Prozeduren wurden Vergleichsversuche mit Laboren in Dänemark und Holland (BRAD, LBI) durchgeführt. Die Ergebnisse waren sowohl für Weizen- als auch für Möhrenproben vergleichbar, wobei alle drei Labore zwischen jeweils zwei Proben unterscheiden konnten. Die systematische Untersuchung zu den Einflussgrößen zeigte, dass das Unterscheidungsvermögen der Methode vor allem von den klimatischen Bedingungen während der Steigphasen beeinflusst wird. Auch die Präkonditionierung der Papiere hat einen großen Einfluss, während die Wasserqualität (ultra-filtriert, de-ionisiert, destilliert) eine untergeordnete Bedeutung hat. Für Weizen- und Möhrenproben wurde sowohl die Wiederholbarkeit als auch die Reproduzierbarkeit getestet. Die Unterschiede in den Bildern der verschiedenen Proben waren dabei immer größer als die Variation durch Proben- und Bildwiederholung und das Labor. Die so charakterisierte Methode wurde auf kodierte Proben von definierten Feldversuchen und auf Marktproben (Paarvergleich von Anbausystemen ökologisch und konventionell) angewandt, wobei als Ergebnis mehr als 90% der Proben mit der einfach beschreibenden Prüfung anhand der Bilder unterschieden werden konnten. Die Auswertung mit der Dreiecksprüfung zeigte, dass sowohl Sorten und Verarbeitungsschritte (Saft) als auch Anbauweisen signifikant getrennt wurden. Darüber hinaus wurde die Methode auch erfolgreich auf Apfelproben angewandt. Weitere Untersuchungen müssen zeigen, ob sich das Potential der Methode, verschiedene Fragen wie die Authentizitätsprüfung von Lebensmitteln verifizieren lassen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The consumers are becoming more concerned about food quality, especially regarding how, when and where the foods are produced (Haglund et al., 1999; Kahl et al., 2004; Alföldi, et al., 2006). Therefore, during recent years there has been a growing interest in the methods for food quality assessment, especially in the picture-development methods as a complement to traditional chemical analysis of single compounds (Kahl et al., 2006). The biocrystallization as one of the picture-developing method is based on the crystallographic phenomenon that when crystallizing aqueous solutions of dihydrate CuCl2 with adding of organic solutions, originating, e.g., from crop samples, biocrystallograms are generated with reproducible crystal patterns (Kleber & Steinike-Hartung, 1959). Its output is a crystal pattern on glass plates from which different variables (numbers) can be calculated by using image analysis. However, there is a lack of a standardized evaluation method to quantify the morphological features of the biocrystallogram image. Therefore, the main sakes of this research are (1) to optimize an existing statistical model in order to describe all the effects that contribute to the experiment, (2) to investigate the effect of image parameters on the texture analysis of the biocrystallogram images, i.e., region of interest (ROI), color transformation and histogram matching on samples from the project 020E170/F financed by the Federal Ministry of Food, Agriculture and Consumer Protection(BMELV).The samples are wheat and carrots from controlled field and farm trials, (3) to consider the strongest effect of texture parameter with the visual evaluation criteria that have been developed by a group of researcher (University of Kassel, Germany; Louis Bolk Institute (LBI), Netherlands and Biodynamic Research Association Denmark (BRAD), Denmark) in order to clarify how the relation of the texture parameter and visual characteristics on an image is. The refined statistical model was accomplished by using a lme model with repeated measurements via crossed effects, programmed in R (version 2.1.0). The validity of the F and P values is checked against the SAS program. While getting from the ANOVA the same F values, the P values are bigger in R because of the more conservative approach. The refined model is calculating more significant P values. The optimization of the image analysis is dealing with the following parameters: ROI(Region of Interest which is the area around the geometrical center), color transformation (calculation of the 1 dimensional gray level value out of the three dimensional color information of the scanned picture, which is necessary for the texture analysis), histogram matching (normalization of the histogram of the picture to enhance the contrast and to minimize the errors from lighting conditions). The samples were wheat from DOC trial with 4 field replicates for the years 2003 and 2005, “market samples”(organic and conventional neighbors with the same variety) for 2004 and 2005, carrot where the samples were obtained from the University of Kassel (2 varieties, 2 nitrogen treatments) for the years 2004, 2005, 2006 and “market samples” of carrot for the years 2004 and 2005. The criterion for the optimization was repeatability of the differentiation of the samples over the different harvest(years). For different samples different ROIs were found, which reflect the different pictures. The best color transformation that shows efficiently differentiation is relied on gray scale, i.e., equal color transformation. The second dimension of the color transformation only appeared in some years for the effect of color wavelength(hue) for carrot treated with different nitrate fertilizer levels. The best histogram matching is the Gaussian distribution. The approach was to find a connection between the variables from textural image analysis with the different visual criteria. The relation between the texture parameters and visual evaluation criteria was limited to the carrot samples, especially, as it could be well differentiated by the texture analysis. It was possible to connect groups of variables of the texture analysis with groups of criteria from the visual evaluation. These selected variables were able to differentiate the samples but not able to classify the samples according to the treatment. Contrarily, in case of visual criteria which describe the picture as a whole there is a classification in 80% of the sample cases possible. Herewith, it clearly can find the limits of the single variable approach of the image analysis (texture analysis).

Relevância:

10.00% 10.00%

Publicador:

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In dieser Arbeit werden zwei Aspekte bei Randwertproblemen der linearen Elastizitätstheorie untersucht: die Approximation von Lösungen auf unbeschränkten Gebieten und die Änderung von Symmetrieklassen unter speziellen Transformationen. Ausgangspunkt der Dissertation ist das von Specovius-Neugebauer und Nazarov in "Artificial boundary conditions for Petrovsky systems of second order in exterior domains and in other domains of conical type"(Math. Meth. Appl. Sci, 2004; 27) eingeführte Verfahren zur Untersuchung von Petrovsky-Systemen zweiter Ordnung in Außenraumgebieten und Gebieten mit konischen Ausgängen mit Hilfe der Methode der künstlichen Randbedingungen. Dabei werden für die Ermittlung von Lösungen der Randwertprobleme die unbeschränkten Gebiete durch das Abschneiden mit einer Kugel beschränkt, und es wird eine künstliche Randbedingung konstruiert, um die Lösung des Problems möglichst gut zu approximieren. Das Verfahren wird dahingehend verändert, dass das abschneidende Gebiet ein Polyeder ist, da es für die Lösung des Approximationsproblems mit üblichen Finite-Element-Diskretisierungen von Vorteil sei, wenn das zu triangulierende Gebiet einen polygonalen Rand besitzt. Zu Beginn der Arbeit werden die wichtigsten funktionalanalytischen Begriffe und Ergebnisse der Theorie elliptischer Differentialoperatoren vorgestellt. Danach folgt der Hauptteil der Arbeit, der sich in drei Bereiche untergliedert. Als erstes wird für abschneidende Polyedergebiete eine formale Konstruktion der künstlichen Randbedingungen angegeben. Danach folgt der Nachweis der Existenz und Eindeutigkeit der Lösung des approximativen Randwertproblems auf dem abgeschnittenen Gebiet und im Anschluss wird eine Abschätzung für den resultierenden Abschneidefehler geliefert. An die theoretischen Ausführungen schließt sich die Betrachtung von Anwendungsbereiche an. Hier werden ebene Rissprobleme und Polarisationsmatrizen dreidimensionaler Außenraumprobleme der Elastizitätstheorie erläutert. Der letzte Abschnitt behandelt den zweiten Aspekt der Arbeit, den Bereich der Algebraischen Äquivalenzen. Hier geht es um die Transformation von Symmetrieklassen, um die Kenntnis der Fundamentallösung der Elastizitätsprobleme für transversalisotrope Medien auch für Medien zu nutzen, die nicht von transversalisotroper Struktur sind. Eine allgemeine Darstellung aller Klassen konnte hier nicht geliefert werden. Als Beispiel für das Vorgehen wird eine Klasse von orthotropen Medien im dreidimensionalen Fall angegeben, die sich auf den Fall der Transversalisotropie reduzieren lässt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Der Kempter Wald ist aufgrund seiner großflächigen prioritären Lebensräume - den Hoch- und Übergangsmooren - aber auch den landesweit selten gewordenen und durch Nutzungsaufgabe bedrohten Streuwiesen und Flachmoorgesellschaften ein Landschaftsraum von herausragender naturschutzfachlicher Bedeutung. Ausgehend von der nach wie vor aktuellen Debatte um die Schutzgebietsausweisung im Kempter Wald wurde auf dem Gebiet der Marktgemeinde Unterthingau und der Gemeinde Kraftisried die vorhandene Grünlandvegetation auf Feuchtstandorten im Kempter Wald vegetationskundlich erfasst mit der Absicht, auf der Grundlage dieser Untersuchung exemplarisch ein Entwicklungskonzept für die Streu- und Feuchtwiesen zu erarbeiten. Erfasst wurden auf der Grundlage von insgesamt über 170 Vegetationsaufnahmen nach BRAUN-BLANQUET (1965) neben mehrschnittigem Wirtschaftsgrünland auf Feuchtstandorten ein- und zweischnittig genutzte Bachdistel-Wiesen, Pfeifengraswiesen in zwei unterschiedlichen Ausbildungen, Flachmoorgesellschaften auf eher basischen Standorten – das Davallseggen-Quellmoor – sowie im Kontaktbereich der Moore gelegene Kleinseggenrieder auf bodensauren Standorten - der Herzblatt-Braunseggensumpf. Sowohl in den Pfeifengraswiesen als auch in den Kleinseggensümpfen kennzeichnen Blöcke mit Fettwiesenarten in den Vegetationstabellen einen streuwiesenuntypischen Frühschnitt der Flächen im Sommer. Ein Grundkennartengerüst der jeweiligen Gesellschaften ist aber trotzdem bislang noch erhalten geblieben. Im zweiten Teil der Untersuchung wird ein Konzept für eine zukünftige Entwicklung der Streu- und Feuchtwiesennutzung vorgestellt. Das Entwicklungskonzept greift den hohen Stellenwert der offenen Flächen für die Naherholung und den Tourismus auf und versucht auf der Grundlage der beiden Bewertungsfaktoren „Arten- und Biotopschutz“ und „Erholungsnutzung“ Prioritäten für eine zukünftige Entwicklung herauszuarbeiten. So wird im Bereich der Haupterschließungswege der Erhalt der artenreichen Streu- und Feuchtwiesen als vorrangig erachtet. In abgelegenen, z. T. von Wald eingeschlossenen Streuwiesen oder im Randbereich der Hochmoore, kann dagegen für den Fall, dass eine Fortsetzung der Bewirtschaftung aufgrund ausbleibender Fördermittel gefährdet ist, eine natürliche Sukzession zugelassen werden. Isoliert inmitten intensiv genutzter Grünlandflächen gelegene Streuwiesen können sich bei Nutzungsaufgabe zu Feuchtwäldchen oder Feldgehölzen weiterentwickeln. Hinsichtlich der Streuwiesenpflege sollten die Schnittzeitpunkte insgesamt flexibler gehandhabt werden. Nasse Kleinseggenrieder können auch durch eine Mahd in größeren Zeitabständen von 2 bis 5 Jahren erhalten werden. In Randbereichen der Hochmoore sollte in Streuwiesenbrachen in größeren Zeitabständen (10 bis 20 Jahre) auflaufender Gehölzbestand entfernt werden um den Offenlandcharakter für bestimmte Tierartengruppen zu erhalten. In der Beweidung der Streuwiesen wird für Gebiete wie dem Kempter Wald keine realistische Alternative gesehen. Bei der großen Anzahl an Eigentümern und Pächtern ist die Organisation der Beweidung äußerst schwierig. Die Offenhaltung durch Beweidung erfordert außerdem eine gezielte Weideführung sowie die Nachmahd nicht abgefressener Nassbereiche. Eine Kosteneinsparung durch Beweidung erscheint daher eher unwahrscheinlich. Als ergänzende Maßnahmen werden für brachfallende Streuwiesen die Anlage von Kleingewässern sowie der Rückbau von Entwässerungsgräben vorgeschlagen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Am Beispiel der in der Wetterau gelegenen Reichsgrafschaft Solms-Rödelheim werden in der Dissertation die Existenzbedingungen der kleinen und kleinsten selbstständigen Reichsstände im Heiligen Römischen Reich Deutscher Nation der Frühen Neuzeit untersucht. Erkenntnisleitend ist dabei die Frage, ob und wie solche Territorien nicht nur trotz wiederkehrender Existenzbedrohungen bis zum Ende des Alten Reichs überleben konnten, sondern durch welche Strategien es ihnen gelang, dabei teilweise recht erfolgreich zu sein, wobei sich Erfolg durch politische Stabilität und wirtschaftliche Effizienz äußern konnte. Diese Frage rückt die zahlreichen kleinen Stände in den Fokus, nachdem diese lange Zeit marginalisiert und als bloße Objekte im Spiel der mächtigen Fürsten angesehen wurden. Insofern füllt sie eine bis heute evidente Lücke in der historischen Forschung zu frühneuzeitlicher Landesherrschaft, aber auch zum Funktionieren des Reichs als Verbund von Hoch-adelsherrschaften insgesamt. Zu ihrer Beantwortung werden zunächst systematisch die territorialen und rechtlichen Grundlagen reichsgräflicher Herrschaft herausgearbeitet, die aus einer größeren Zahl einzelner Rechts- und Herrschaftstitel zusammengesetzt waren. Die Herrschaft der Reichsgrafen unterschied sich also im 18. Jahrhundert deutlich von derjenigen der meisten Fürsten, die oft eine autonome und einheitliche Landeshoheit hatten herausbilden können. Die verstreut liegenden Gebiete, auf die sie sich bezog, wurden durch eine wirtschaftliche und herrschaftliche Administration verwaltet, die trotz kleiner Dimensionen als auf der Höhe der Zeit befindlich und leistungsfähig bezeichnet werden kann. Sowohl Herrschaft als auch Ökonomie waren dabei jederzeit stark auf die Person des regierenden Reichsgrafen ausge-richtet, weshalb in der Dissertation der Begriff „personale Ökonomie“ analog zur geläufigen „personalen Herrschaft“ entwickelt wird. Die schmale territoriale Basis konnte im späten 17. und im 18. Jahrhundert auf verschiedenen Wegen erweitert werden. Durch eine rigidere Kontrolle über die Weitergabe durch Vererbung durch die Durchsetzung der Primogenitur gelang es zudem, eine neuerliche Zersplitterung beim Tod eines Regenten weitgehend zu verhindern. Dass dies jedoch nicht die Lösung aller Probleme bedeutete, zeigt die Untersuchung der Position des Sekundogenitus, die – insbesondere wenn er der Erbe eines verfeindeten Bruders war – große Bedeutung für die Entwicklung einer Reichsgrafschaft gewinnen konnte. Im letzten Kapitel schließlich rückt das in der Dissertation entwickelte Konzept der „Herrschaft durch Delegation“ in den Mittelpunkt. Danach funktionierte eine Landesherrschaft kleiner und kleinster Reichsstände angesichts der großen Herausforderungen bei gleichzeitig geringer Macht und vergleichsweise wenig leistungsfähiger Verwaltungen dann besonders gut, wenn die Landesherren darauf verzichteten, alle ihnen prinzipiell zustehenden Rechte selbst auszuüben, sondern sie statt dessen an Dritte delegierten. Für die Reichsgrafen von Solms-Rödelheim wird herausgearbeitet, dass besonders Haus und Familie, Ständische Bündnissysteme wie der Wetterauer Grafenverein, der Oberrheinische Reichskreis und innerterritoriale Mediatgewalten, hier v.a. die Gemeinden, große Bedeutung als Träger delegierter Herrschaft besaßen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In Folge der Ergebnisse der PISA und IGLU Studien ist das Thema Diagnose und individuelle Förderung in die öffentliche Diskussion geraten. Vor diesem Hintergrund richtet sich im Herbst 2002 die Aufmerksamkeit der Arbeitsgruppe Wollring auf ein mathematikdidaktisches empirisches Forschungsprojekt in Australien: Early Numeracy Research Project (ENRP) (Clarke et al. 2002). Eine Besonderheit dieses Projektes besteht in der Eins-zu-eins-Situation zwischen Lehrer und Schüler bei einem Interview über Mathematik. Dieses Projekt bildet den Ausgangspunkt der vorliegenden Arbeit. Im ersten Kapitel wird das australische Projekt sowie seine Umsetzung in Deutschland vorgestellt. Ziel des Projektes ist es, die individuellen mathematischen Performanzen von Grund-schulkindern mit Hilfe eines Interviews in einer Eins-zu-eins-Situation des Schülers mit dem Lehrer (Schüler-Interview) zu erheben und damit mathematikdidaktische Orientierungshilfen für den Unterricht zu liefern. Das Schüler-Interview bestimmt den Lernstandort eines Kindes, der als Ausgangspunkt für eine Diagnose dienen kann. Daher werden unterschiedlichen Sichtweisen der Disziplinen – Psychologie, Medizin, Pädagogik, Sonderpädagogik und Fachdidaktik – in Hinblick auf den Begriff „Diagnose“ diskutiert. Die Durchführung von Schüler-Interviews kann neben ihrem diagnostischen Wert auch eine Bedeutung für die Professionalisierung von Lehrern einnehmen, da sie die Lehrer herausfordert, sich mit den Denk- und Lösungswege von Kindern aller Leistungsniveaus intensiv auseinanderzusetzen. In einer Studie von Steinberg et al. (2004, p. 238) wird deutlich, dass dieses Wissen des Lehrers sowohl als ein Index der Veränderung als auch als ein Mechanismus zur Veränderung des Unterrichts dient. In dieser Arbeit werden über den Zeitraum eines Jahres der Umgang der Lehrer mit dem Führen von Schüler-Interviews und den von ihnen daraus gewonnenen Erkenntnissen ausgewertet. Dabei werden mit den Lehrern nach einem halben und nach einem Jahr Erprobung mehrerer von ihnen selbst geführter Schüler-Interviews je ein Interview mit der Forscherin geführt, um herauszufinden, in welchen verschiedenen Bereichen das Führen von Schüler-Interviews den einzelnen Lehrern Unterstützung bietet. Die erhobenen Daten werden qualitativ mit Hilfe der Grounded Theory ausgewertet. Im empirischen Teil der Arbeit werden drei, der am Projekt beteiligten, Lehrerinnen in Form von Fallstudien vorgestellt und ausgewertet. Bei der Lehrerin, die Mathematik nicht als Fach studiert hat, besteht vor allem ein eigener Lernzuwachs in der Sicht auf Mathematik. Zu Beginn der Untersuchung hatte sie laut ihrer eigenen Aussagen eine eher ergebnisorientierte Sicht auf die Mathematik. Die Aussagen der drei Lehrerinnen beruhen auf einzelnen Schülern und ihren Besonderheiten. Im Laufe der Studie verallgemeinern sie ihre Erkenntnisse und beginnen Konsequenzen für ihren Unterricht aus den Schüler-Interviews zu folgern, wie sie in den abschließenden Interviews berichten. Das Schüler-Interview scheint dem Lehrer einen geschützten Raum zu bieten, um die Reflexion über die mathematischen Performanzen seiner Schüler und seinen eigenen Unterricht anzuregen, ohne ihn bloßzustellen und ohne ihm Vorschriften zu machen. Nach der einjährigen Erprobung von Schüler-Interviews betonen alle drei Lehrerinnen größeren Wert auf prozessorientiertes Mathematiklernen zu legen. Sie berichten, dass sie die Performanzen der Kinder stärker kompetenzorientiert wahrnehmen. Jedoch haben sie Schwierigkeiten, die für sich selbst gewonnene Transparenz über die mathematischen Performanzen des interviewten Kindes, den Schülern mitzuteilen und ihnen ermutigende Rückmeldungen zu geben. Außerdem können die Lehrer die problematischen mathematischen Bereiche der Schüler zwar beschreiben, sehen sich laut ihrer eigenen Aussage aber nicht in der Lage mit den Schülern daran zu arbeiten und sie angemessen zu för-dern. Selbst nach den ausführlichen Analysen der ausgewählten Lehrerinnen bleibt unklar, ob und in welcher Weise sie die Erkenntnisse aus dem Führen der Schüler-Interviews für ihren Unterricht nutzen. Laut der Aussage zweier beteiligter Lehrerinnen sollten Lehrer offen und interessiert sein und sich bereitwillig mit ihren eigenen Kompetenzen auseinandersetzen, damit das Führen von Schüler-Interviews für die Lehrer selbst und für die Schüler einen besonderen Nutzen besitzt. Um diese Auseinandersetzung stärker anzuregen und zu vermeiden, dass sich im Schüler-Interview mit dem Kind nicht die Einstellungen des Lehrers gegenüber den Leistungen des Schülers widerspiegeln, könnten sie vor Beginn des Führens von Schüler-Interviews verstärkt in der Ausbildung ihrer Interviewkompetenzen unterstützt und geschult werden. Obwohl sich die Lehrer zuerst Freiräume schaffen mussten, in denen sie trotz ihres Zeitmangels Schüler interviewen konnten, bietet das Führen von Schüler-Interviews die Chance, den Ist-Zustand der Schülerperformanzen in den mathematischen Bereichen Zahlen, Größen und Raum zu erfassen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Im ersten Kapitel dieser Arbeit, dem theoretischen Rahmen, erhalten die Ergebnisse der Fernsehprogrammanalyse ihre theoretische Grundlage. Anhand von Beispielen aus der alltäglichen Mediennutzung von Kindern werden die in der Einleitung entfalteten Annahmen über Orientierungsbedürfnisse von Kindern nochmals aufgegriffen. Diese Orientierungsbedürfnisse werden als Selbstschutzbedürfnisse definiert und es werden Strategien aufgezeigt, die Kinder entwickeln, um diesen Selbstschutz aufrecht zu erhalten. Die Kompetenzen, die Kinder im Umgang mit Medien in ihrem privaten Alltag entwickelt haben, spielen dabei eine Rolle, aber auch die Fähigkeit, vorgegebene Strukturen der Medien und im Umgang mit ihnen zu durchschauen, zu reflektieren und gezielt für ihre eigenen Bedürfnisse einzusetzen. Als Vertreter eines pädagogischen Verständnisses von Medienkompetenz, das Mediennutzer als vor allem im gesellschaftlichen Kontext handlungsfähig denkt, wird Dieter Baacke im zweiten Theorieteil angeführt. Seine vier Dimensionen von Medienkompetenz bildeten die Ausgangsposition für die qualitative Fernsehprogrammanalyse. Unter dem Vorzeichen kultureller Handlungsfähigkeit wird im dritten Teil der Theorie der Versuch unternommen, den theoretischen Rahmen für die Analyse von Programmangeboten abzustecken, die „anders“ sind als andere. Wesentlich dabei ist der Gedanke, sich mit Mitteln der Dekonstruktion und Eigeninterpretation durchschaubar zu machen. Solche Angebote können als Chance für Mediennutzer begriffen werden, Differenzerfahrungen fruchtbar für sich und andere zu gestalten und zu nutzen. Die methodische Vorgehensweise bei der qualitativen Fernsehprogrammanalyse und Operationalisierung der Fragestellung sind in Kapitel zwei beschrieben. Ausgehend von dem Versuch, Dieter Baackes vier Dimensionen von Medienkompetenz zur Operationalisierung der Fragestellung heranzuziehen, wurde während des Zeitraums von zwei Jahren versucht, „Medienkompetenz“ als kodierbare Variable zu definieren und Sendungen qualitativ darauf zu untersuchen, ob sie Elemente enthalten, die Kinder dabei unterstützen, das Fernsehprogrammangebot und andere Medien zu ordnen und zu (er)klären und es den Zuschauern ermöglichen, darin zu manövrieren. Das Datenmaterial zu dieser Untersuchung stammt aus dem Forschungsprojekt „Jährliche Bestandsaufnahme zum Kinderfernsehen – qualitative und quantitative Fernsehprogrammanalyse in der Sicht der Kinder“ der Medienpädagogik der Universität Kassel. In mehreren Schritten wird verdeutlicht, wie die Kategorienbildung zur Einordnung der analysierten Programme und Programmelemente erfolgte. Die qualitative Fernsehprogrammanalyse teilt sich in zwei Kapitel: In Kapitel drei wird das exemplarische Programmangebot innerhalb der in Kapitel eins und zwei beschriebenen Kategorien „Regeln geben“, „Regeln anwenden“ und „Regeln brechen“ diskutiert. Die Analyse bezieht sich dabei auf das Fernsehprogrammangebot aus den Jahren 2000 bis 2003. Kapitel vier ist eine Auskopplung aus der ersten Kategorie des dritten Kapitels „Regeln geben“ und widmet sich den „orientierenden Elementen“, also Programmangeboten, die hinweisenden und werbenden Charakter haben. Solche Elemente, auch wenn sie aus Sicht der Programmanbieter für das Programm werben sollen, strukturieren das Fernsehprogramm zum einen intramedial, zum anderen bieten sie über diese inhaltlich und zeitlich strukturierenden Elemente den Zuschauer Bezugspunkte, die Zuschauer als Freiraum zum Navigieren nutzen können. Dieser Teil, das Programmangebot an orientierenden Elementen, wird in erster Linie aufgrund des Umfangs der Ausarbeitung in einem eigenen Kapitel behandelt. Zum anderen würde sich diese Trennung aber auch aufgrund der Tatsache rechtfertigen lassen, dass die Elemente, die als orientierenden Elemente bezeichnet werden, als intramediale Verweisstrukturen auf das Fernsehprogramm selbst verweisen, die in Kapitel drei behandelten Sendungen hingegen eher einen expliziten Alltagsbezug der Mediennutzer aufweisen. In Kapitel fünf, dem Fazit, werden die zentralen Ergebnisse der Fernsehprogrammanalyse zusammengefasst. In Bezug auf die Fragestellung „Fördert Fernsehen Medienkompetenz?“ und den theoretischen Rahmen, der dieser Arbeit zugrunde liegt, werden die Angebote des Fernsehen für Orientierungsbedürfnisse der Zuschauer betrachtet und mögliche Konsequenzen formuliert.