24 resultados para : Spanende Bearbeitung
em Universitätsbibliothek Kassel, Universität Kassel, Germany
Resumo:
In der Praxis kommt es bei der spanenden Bearbeitung immer wieder zu großen Standwegunterschieden identischer Werkzeuge bei vordergründig identischen Bearbeitungsrandbedingungen. Insbesondere bei Fertigungsschritten, die das Bohren als Vorbearbeitung erfordern, kommt es gelegentlich zu atypischen Verschleißerscheinungen, die auf das Entstehen einer Neuhärtezone an der Werkstückoberfläche beim Bohren zurückgeführt werden. Grundsätzlich sind Randzonenveränderungen eine Folge der mechanischen und thermischen Beanspruchung bei der Bearbeitung. Beim Eindringen des Schneidkeils kommt es zu Kornverzerrungen, welche die Werkstückhärte bis in eine Tiefe von 40 bis 80 µm erhöhen können. Überdies wird die Randzone des Werkstücks durch den Bearbeitungsvorgang und den Spantransport erhitzt und durch den Kühlschmierstoff bzw. die so genannte Selbstabschreckung im Anschluss sehr schnell abgekühlt. So kann es in Abhängigkeit der Randbedingungen zu Gefügeänderungen mit härtesteigernder (Sekundärabschreckung) oder härtemindernder (Anlasseffekte) Wirkung kommen. Nicht zuletzt beeinflussen beide Beanspruchungsarten auch das Ausmaß der Eigenspannungen in der Werkstückoberfläche. In dieser Arbeit werden die beim Kernlochbohren erzeugten Randzonenveränderungen sowie die Standzeit von Folgebearbeitungswerkzeugen, wie Gewindebohrern und Gewindeformern, und deren Abhängigkeit vom Verschleißzustand des Kernlochbohrers untersucht. Weiterhin werden mit Hilfe einer Energiebilanz die Anteile herausgefiltert, die primär die Eigenschaften der Bohrungsrandzone beeinflussen. Dies geschieht mit Hilfe einer mathematischen Modellierung des Bohrprozesses, in der die Einflüsse der Schneidkantengeometrie, der Schneidkantenverrundung, der Schneidkantenfase sowie des Freiflächenverschleißes berücksichtigt werden.
Resumo:
Zur Senkung von Kosten werden in vielen Unternehmen Dienstleistungen, die nicht zur Kernkompetenz gehören, an externe Dienstleister ausgelagert. Dieser Prozess wird auch als Outsourcing bezeichnet. Die dadurch entstehenden Abhängigkeiten zu den externen Dienstleistern werden mit Hilfe von Service Level Agreements (SLAs) vertraglich geregelt. Die Aufgabe des Service Level Managements (SLM) ist es, die Einhaltung der vertraglich fixierten Dienstgüteparameter zu überwachen bzw. sicherzustellen. Für eine automatische Bearbeitung ist daher eine formale Spezifikation von SLAs notwendig. Da der Markt eine Vielzahl von unterschiedlichen SLM-Werkzeugen hervorgebracht hat, entstehen in der Praxis Probleme durch proprietäre SLA-Formate und fehlende Spezifikationsmethoden. Daraus resultiert eine Werkzeugabhängigkeit und eine limitierte Wiederverwendbarkeit bereits spezifizierter SLAs. In der vorliegenden Arbeit wird ein Ansatz für ein plattformunabhängiges Service Level Management entwickelt. Ziel ist eine Vereinheitlichung der Modellierung, so dass unterschiedliche Managementansätze integriert und eine Trennung zwischen Problem- und Technologiedomäne erreicht wird. Zudem wird durch die Plattformunabhängigkeit eine hohe zeitliche Stabilität erstellter Modelle erreicht. Weiteres Ziel der Arbeit ist, die Wiederverwendbarkeit modellierter SLAs zu gewährleisten und eine prozessorientierte Modellierungsmethodik bereitzustellen. Eine automatisierte Etablierung modellierter SLAs ist für eine praktische Nutzung von entscheidender Relevanz. Zur Erreichung dieser Ziele werden die Prinzipien der Model Driven Architecture (MDA) auf die Problemdomäne des Service Level Managements angewandt. Zentrale Idee der Arbeit ist die Definition von SLA-Mustern, die konfigurationsunabhängige Abstraktionen von Service Level Agreements darstellen. Diese SLA-Muster entsprechen dem Plattformunabhängigen Modell (PIM) der MDA. Durch eine geeignete Modelltransformation wird aus einem SLA-Muster eine SLA-Instanz generiert, die alle notwendigen Konfigurationsinformationen beinhaltet und bereits im Format der Zielplattform vorliegt. Eine SLA-Instanz entspricht damit dem Plattformspezifischen Modell (PSM) der MDA. Die Etablierung der SLA-Instanzen und die daraus resultierende Konfiguration des Managementsystems entspricht dem Plattformspezifischen Code (PSC) der MDA. Nach diesem Schritt ist das Managementsystem in der Lage, die im SLA vereinbarten Dienstgüteparameter eigenständig zu überwachen. Im Rahmen der Arbeit wurde eine UML-Erweiterung definiert, die eine Modellierung von SLA-Mustern mit Hilfe eines UML-Werkzeugs ermöglicht. Hierbei kann die Modellierung rein graphisch als auch unter Einbeziehung der Object Constraint Language (OCL) erfolgen. Für die praktische Realisierung des Ansatzes wurde eine Managementarchitektur entwickelt, die im Rahmen eines Prototypen realisiert wurde. Der Gesamtansatz wurde anhand einer Fallstudie evaluiert.
Resumo:
Die vorliegende Arbeit beschäftigt sich mit der Ermittlung der beim Thermofließlochformen entstehenden Temperaturen. Im Rahmen dieser Arbeit wurden die Temperaturen während des Bearbeitungsprozesses mittels der berührungslosen Temperaturmesssysteme Pyrometer und Thermografiekamera in Abhängigkeit von Werkstoffsorte, Werkstoffdicke und Werkzeuggeometrie untersucht. Die Untersuchung beinhaltet die Auswertung der Ergebnisse unter Anwendung einer statistischen Versuchsplanung und -auswertung, den Vergleich der gewonnenen Temperaturen und Temperaturverläufe sowie die Darstellung einiger Vor- und Nachteile der eingesetzten Temperaturmesssysteme. Als Voraussetzung zu einer berührungslosen Temperaturmessung mit diesen Messsystemen fand weiterhin eine experimentelle Ermittlung der Emissionsgrade der untersuchten Werkstoffe statt. Abschließend wurde ein Zusammenhang zwischen der während der Bearbeitung entstehenden Prozesstemperaturen und der Momente untersucht.
Resumo:
Spinnenseide gehört zu den stabilsten bekannten Polymerverbindungen. Spinnfäden können bis auf das Dreifache ihrer ursprünglichen Länge gedehnt werden, bevor sie reißen, und dabei mit rund 160 MJ/m³ mehr als dreimal soviel Energie absorbieren wie die stärkste synthetisch hergestellte Faser Kevlar (50 MJ/m³). Dabei weisen Spinnfäden mit 2 bis 5 Mikrometer nur ein Zehntel des Durchmessers eines menschlichen Haares auf. Das präzise, berührungslose Bearbeiten von Spinnenseide ist für verschiedene technische Anwendungen interessant, insbesondere wenn dabei ihre außergewöhnlichen Eigenschaften erhalten bleiben. Könnten die von Natur aus dünnen Seidenfäden gezielt in ihrem Durchmesser verringert werden, so wären sie unter anderem in der Mikroelektronik einzusetzen. Hier könnten sie als Trägermaterial für eine dünne, elektrisch leitfähige Schicht fungieren. Man erhielte Nanodrähte, die auch in mechanisch besonders belasteten Mikroelektronikbauteilen (MEMS) Verwendung finden könnten. In dieser Arbeit wird die Verwendung der laserinduzierten Ablation zur gezielten Bearbeitung von Haltefäden der Schwarzen Witwe (Latrodectus hesperus) beschrieben. Eingesetzt wurde ein VUV-Excimerlaser vom Typ LPF 205 (Lambda-Physik, Göttingen) mit einer Wellenlänge von 157 nm und einer Pulsdauer von 18 ns. Eine berührungslose Laserbearbeitung bei 157 nm erlaubt einen effizienten und präzisen Abtrag von Material durch Ablation aufgrund der geringen optischen Eindringtiefe von unter 100 nm oberhalb einer Schwellenfluenz (Energie/Fläche) von Φth=29 mJ/cm², ohne dabei das umgebende Material thermisch zu beeinträchtigen. Parallel zur Ablation setzt allerdings eine wellenförmige Oberflächenstrukturierung auf der Faseroberfläche ein, wodurch die mechanische Belastbarkeit der Faser entscheidend geschwächt wird. Die Ursache hierfür liegt im Abbau materialbedingter Spannungsfelder („stress release“) innerhalb einer durch das Laserlicht induzierten dünnen Schmelzschicht. Im Rahmen dieser Arbeit ist es nun gelungen, diese Strukturen durch einen anschließenden Glättungsprozeß zu entfernen. Dabei wird auf der bestrahlten Oberfläche mittels Laserlichts eine glatte Ablation erzielt. Mit feinerer Abstufung dieser Prozeßschritte konnte der Durchmesser des verwendeten Spinnenseidefadens zum Teil um 70 Prozent bis auf ca. 750 nm verringert werden. Durch Zugfestigkeitsexperimente wurde belegt, daß die mechanischen Eigenschaften der so bearbeiteten Spinnenseide weitgehend erhalten bleiben. Die im Rahmen dieser Arbeit angewandte Methode erlaubt somit eine präzise Laserablation von Spinnenseide und ähnlichen hochabsorbierenden Materialien, ohne deren Kernsubstanz in ihrer Beschaffenheit zu verändern.
Resumo:
Zusammenfassung (deutsch) Seit den 1980iger Jahren wächst die Bedeutung der sog. Bildschaffenden Methoden für die Bestimmung der Qualität ökologischer Produkte. Zu diesen Methoden gehört die Biokristallisation, Steigbild und Rundfilter-Chromatographie. Die Ergebnisse dieser Methoden sind Bilder, die anhand definierter Kriterien ausgewertet werden. Bei der Biokristallisation sind es mehr oder weniger geordnete Kristallisationen auf einer Glasplatte, bei dem Steigbild zweidimensionale Strukturen auf Chromatographiepapier. In der Vergangenheit wurden die Bilder von Spezialisten ausgewertet, die nach einer längeren Schulung produktspezifische Kriterien entwickelt hatten. Im Gegensatz zur Dünnschicht-Chromatographie, wo der einzelne Stoff von der Matrix separiert wird, ist das Ziel beim Steigbild, Strukturen der möglichst ganzen Probe zu erzeugen. Die Methode wurde von Kolisko in den 1929iger Jahren entwickelt, wobei eine Kombination aus Chromatographieprozess und Metallkomplexreaktionen genutzt wurde. Die Firma WALA entwickelte die Methode für die Kontrolle ihrer Produkte und setze Silbernitrat und Eisensulfat ein. Bisher wurde die Methode qualitativ beschreibend ausgewertet, wobei einzelne Bildelemente und deren Interaktion beschrieben wurden. Deshalb musste für die vorliegende Arbeit Auswertungsmethoden entwickelt werden, mit denen auch eine statistische Bearbeitung der Ergebnisse möglich ist (nominale Unterscheidung von proben anhand der Bilder). Die Methode wurde bisher in einer Reihe von Studien eingesetzt (u.a. die Unterscheidung von Produktionsweisen). Obwohl die Bilder nur qualitativ ausgewertet wurden, konnten geschulte Prüfpersonen Proben aus verschiedenen Anbausystemen anhand der Bilder trennen. Die Ergebnisse wurden aber nicht so dokumentiert, dass sie den Erfordernissen internationaler Standardnormen für Laboratorien genügten. Deshalb mussten für diese Arbeit zunächst die Prozeduren dokumentiert und eine systematische Untersuchung zu den Einflussgrößen durchgeführt werden. Dazu wurde die visuelle Bildauswertung entwickelt und standardisiert. Die visuelle Bildauswertung basiert auf morphologischen Kriterien der Bilder von den untersuchten Weizen- und Möhrenproben. Ein Panel aus geschulten Personen entwickelte dann die Kriterien und legte sie anhand von Referenzbildern fest. Die Bilder der vorliegenden Arbeit wurden mit der einfach beschreibenden Prüfung ausgewertet, wie sie aus der sensorischen Prüfung von Lebensmitteln übernommen werden konnte. Mit geschulten und ungeschulten Prüfpersonen wurden Weizenproben und verschiedene Möhrensäfte mit der sog. Dreiecksprüfung ausgewertet (von ISO 4120). Alle Laborprozeduren wurden dokumentiert. Mit der Anwendung dieser Prozeduren wurden Vergleichsversuche mit Laboren in Dänemark und Holland (BRAD, LBI) durchgeführt. Die Ergebnisse waren sowohl für Weizen- als auch für Möhrenproben vergleichbar, wobei alle drei Labore zwischen jeweils zwei Proben unterscheiden konnten. Die systematische Untersuchung zu den Einflussgrößen zeigte, dass das Unterscheidungsvermögen der Methode vor allem von den klimatischen Bedingungen während der Steigphasen beeinflusst wird. Auch die Präkonditionierung der Papiere hat einen großen Einfluss, während die Wasserqualität (ultra-filtriert, de-ionisiert, destilliert) eine untergeordnete Bedeutung hat. Für Weizen- und Möhrenproben wurde sowohl die Wiederholbarkeit als auch die Reproduzierbarkeit getestet. Die Unterschiede in den Bildern der verschiedenen Proben waren dabei immer größer als die Variation durch Proben- und Bildwiederholung und das Labor. Die so charakterisierte Methode wurde auf kodierte Proben von definierten Feldversuchen und auf Marktproben (Paarvergleich von Anbausystemen ökologisch und konventionell) angewandt, wobei als Ergebnis mehr als 90% der Proben mit der einfach beschreibenden Prüfung anhand der Bilder unterschieden werden konnten. Die Auswertung mit der Dreiecksprüfung zeigte, dass sowohl Sorten und Verarbeitungsschritte (Saft) als auch Anbauweisen signifikant getrennt wurden. Darüber hinaus wurde die Methode auch erfolgreich auf Apfelproben angewandt. Weitere Untersuchungen müssen zeigen, ob sich das Potential der Methode, verschiedene Fragen wie die Authentizitätsprüfung von Lebensmitteln verifizieren lassen.
Resumo:
Im Rahmen der Arbeit wird ein Unterrichtskonzept für den Leistungskurs Stochastik in der gymnasialen Oberstufe vorgestellt, bei welchem Computersimulationen und Lernumgebungen mit der Software FATHOM über das gesamte Kurshalbjahr unterstützend eingesetzt werden. Der experimentelle Zugang zur Wahrscheinlichkeit ergänzt den theoretischen Zugang und soll im Sinn eines handlungsorientierten Lernens die Motivation der Schülerinnen und Schüler fördern. Das Unterrichtskonzept enthält drei Schwerpunktsetzungen: • Einstieg in den Stochastikkurs mit Simulationen • Binomialverteilung • Das Testen von Hypothesen Die Arbeit konzentriert sich in der Darstellung und der Analyse auf den Einstieg in den Stochastikkurs mit Simulationen und computergestützten Lernumgebungen. Der Erwerb der Simulations- und Fathomkompetenzen in der Einstiegsphase wird auf inhaltlicher Seite verknüpft mit dem Wahrscheinlichkeitsbegriff, mit dem Gesetz der großen Zahl, sowie mit weiteren stochastischen Grundlagen. Das Unterrichtskonzept zum Einstieg in das Kurshalbjahr Stochastik wird ausführlich vorgestellt, zu den beiden anderen genannten Schwerpunkten werden die entwickelten Unterrichtskonzepte knapp erläutert. Die ausführlich kommentierten Unterrichtsmaterialien zu allen drei Schwerpunkten sind als Band 2 der KaDiSto-Schriftenreihe publiziert. Im Rahmen unterrichtlicher Erprobungen wurden verschiedene empirische Untersuchungen durchgeführt. Bei diesen Untersuchungen liegt ein Schwerpunkt auf der Transkriptanalyse von Videos des Bildschirmgeschehens und der simultan hierzu aufgenommenen verbalen Kommunikation während der Schülerarbeitsphasen am Computer. Diese Videos ermöglichen tiefer gehende Einblicke in die Kompetenzentwicklung der Schülerinnen und Schüler, in auftretende Probleme bei der Erstellung der Computersimulationen und in den Umgang der Schülerinnen und Schüler mit den Aufgabenstellungen. Die Analyse ausgewählter Transkriptausschnitte wird eingebettet in die Schilderung des Unterrichtsverlaufs auf der Basis von Unterrichtsprotokollen. Weiter wird die Bearbeitung einer komplexen Simulationsaufgabe in einer notenrelevanten Klausur nach Abschluss der Einstiegsphase analysiert. Es werden die Ergebnisse eines Eingangstests vor Beginn der Einstiegsphase und eines Ausgangstests im Anschluss an die Einstiegsphase geschildert. Ergänzend werden die Ergebnisse einer Schülerbefragung vorgestellt. Zum Abschluss der Arbeit wird eine Gesamtbetrachtung des Unterrichtskonzepts vorgenommen, bei der die Stärken aber auch zentrale Probleme des Konzepts beschrieben und teilweise verallgemeinert werden. Aus diesen Betrachtungen werden weitere Entwicklungsmöglichkeiten des geschilderten Projekts abgeleitet. Die Arbeit verfolgt einen stark unterrichtspraktischen Ansatz. Das methodische Vorgehen ist im Bereich einer Design-Research-Studie angesiedelt. Der Autor selber ist Lehrer an dem Kasseler Oberstufengymnasium Jacob-Grimm-Schule und hat über einen längeren Zeitraum im Rahmen einer Abordnung in der Arbeitsgruppe Mathematik-Didaktik der Universität Kassel mitgearbeitet. Die Arbeit stellt die Dissertation des Verfassers dar, die an der Universität Kassel von Prof. Dr. Rolf Biehler betreut wurde. Sie ist identisch mit der Erstveröffentlichung 2008 im Franzbecker Verlag, Hildesheim, der der elektronischen Veröffentlichung im Rahmen von KaDiSto zugestimmt hat
Resumo:
Jedes Land besitzt eigentümliche Charakteristika, die aus der Geschichte, internen Faktoren, politischen Umwälzungsprozessen sowie externen Interventionen hervorgehen. Somit weisen Entwicklungs- und Demokratieprozesse jeweils länder- oder regionalspezifische Ausprägungen auf, die eine Übersetzung der allgemeinen Erfahrungen auf den Einzelfall erfordert. Um eine Einzelfallanalyse vornehmen zu können wurde für das Promotionsvorhaben Nicaragua herausgegriffen, welches in seiner jüngeren Geschichte gravierende soziale und politische Umwälzungsprozesse erfahren hat und durch externe Intervention in seinem Demokratisierungsprozess beeinflusst wurde. Die genaue Betrachtung des nicaraguanischen Entwicklungs- und Demokratieprozesses zeigt jedoch, dass – trotz vorhandener demokratischer Strukturen, formaler Umsetzung institutioneller Rahmenbedingungen und hinreichender Gesetzesgrundlagen - eine breite politische Teilhabe und ein sozioökonomisch innergesellschaftlicher Ausgleich kaum nennenswert stattfinden. Trotz der Macht der Akteure tragen sie wenig aus im Sinne der Umverteilung von Macht und Ressourcen, trotz der Etablierung demokratischer Institutionen funktioniert innerhalb dieser keine Umsetzung horizontaler Gewaltenkontrolle oder erkennbare Gewaltenteilung. Auf Grundlage dieser Beobachtung liegt der Fokus der Arbeit auf der Darstellung von herrschaftsanalytischen und endogenen Faktoren und damit auf der Untersuchung der endogenen Kontextbedingung von Demokratieentwicklung. Der spezielle Fokus des Promotionsvorhabens wird auf die Kontextualisierung von Klientelismus, Korruption und das Handeln der Eliten gelegt - wie beeinflussen diese informellen Macht- und Regelsysteme die demokratisch-formalen Mechanismen und welche Auswirkungen haben sie auf die Generierung von sozialer und gesellschaftlicher Gleichheit bzw. Ungleichheit im Demokratisierungsprozess (1979 – 2009) Nicaraguas. Und, wie systemimmanent ist die politische und gesellschaftliche Tradierung von Korruption und Klientelismus in Nicaragua? Eine qualitative empirische Erhebung, die die Between-Method-Triangulation nutzte, in der Leitfaden-Interviews, eine teilnehmende Beobachtung und die Analyse themenrelevanter Materialien und quantitativer Studien kombiniert wurden, und die theoretische und begriffliche Auseinandersetzung mit Demokratietheorie und Herrschaftsanalyse (Korruption, Klientelismus, Elite) bilden die methodischen und theoretischen Grundlagen zur Bearbeitung der Fragestellung. Als Ergebnis gilt festzuhalten, dass informelle Herrschaftsmuster (Korruption und Klientelismus) unabhängig von politischen & ökonomischen Konfigurationen feste Konstanten der gesellschaftlichen Entwicklung Nicaraguas waren, sie wiesen eine Tiefenstruktur auf, die eine bemerkenswerte Beharrungs- und Reproduktionskraft besaß und zeigten eine auffällige Kontinuität im politischen Wandel. Die sozialökonomische Machtbasis der Elite war trotz Umverteilungsprozesse ungebrochen. Der Übergang von den Sandinisten zu den neuen Regierungen führte nicht zu einem Machtverlust der Eliten, sondern zu einer Machtverschiebung. Es waren dominante exklusive Herrschaftsmuster privater Einflussnahme nachzuweisen. Autokratische Cliquen, paktierte Machtübergriffe und korrupte Machenschaften unterliefen den Demokratisierungsprozess und unterminierten eine gerechte soziale und gesellschaftliche Entwicklung. Es konnte eine prägende Beziehung zwischen informellen Herrschaftsmustern und politischer Teilhabe aufgezeigt werden. Das demokratische Entwicklungsmodell lief unter diesen Umständen Gefahr, in einer institutionellen und informellen Autokratie zu münden. Die Demokratietheorien bilden die Demokratiekonfiguration Nicaraguas und die gesellschaftliche Exklusion durch die sozioökonomische Dimension nicht ab. Für die Forschungsperspektive erschließt sich daraus die Forderung, das liberale Demokratiemodell zu überdenken und dem universellen Leitbild der linearen und normativen Entwicklung eine reale Gegenständlichkeit der Länder entgegenzustellen. Krisen sollten als Ausdruck von politischer Herrschaft und asymmetrische Herrschaftsmuster als inhärente Herrschaftsmechanismen analysiert werden. Der Demokratietheorie sollte eine Herrschaftsanalyse an die Seite gestellt, politische Gleichheit mit sozialer Teilhabe gekoppelt werden.
Resumo:
Gewindebohren ist ein spanabhebendes Innengewinde-Fertigungsverfahren. Der Prozess des Gewindebohrens ist technologisch hoch anspruchsvoll, da der Span zwischen Bauteil und Werkzeug entgegen der Vorschubrichtung abgeführt werden muss. Die Bearbeitung von schwer zerspanbaren Werkstoffen führt zu steigenden Anforderungen an den Gewindebohrer, insbesondere an dessen Schneidkanten. Diese Arbeit beschreibt die technologischen und werkzeugspezifischen Belastungszustände unterschiedlicher Gewindebohrer, die bei der Bearbeitung der Werkstoffe γ-Titanaluminid, 42CrMo4 (höher vergütet) und GJV-400 auftreten. Die Ermittlung der Schneidkantenbelastung erfolgt methodisch anhand von konventionellen Zerspanungsversuchen, FEM-Analysen, Analogie-Experimenten sowie einer 3D-CAD-Parameterstudie. Die unterschiedlichen Ergebnisse fließen in eine leistungssteigernde Werkzeugmodifikation ein, die zu einer Erhöhung der Standzeit führt.
Resumo:
In der Mathematikdidaktik gibt es die weit verbreitete Auffassung, durch die Verwendung von Simulationen Lernprozesse zu unterstützen. Dies hat mich im Rahmen meiner Dissertation dazu bewogen, erstens eine Werkzeuganalyse des Simulationspotentials der Software Fathom durchzuführen und zweitens exemplarische Analysen dazu, wie Lernende mit der Software arbeiten. Bei der Werkzeuganalyse standen vor allem folgende zwei Fragen im Mittelpunkt: Was bietet die Software an Simulationspotential? Wie gut und leicht lassen sich Zufallsexperimente in Fathom realisieren? Dieses Wissen ist für die praktische Anwendung der Software und die diagnostische Kompetenz der Lehrkräfte, die Schüler bei der Arbeit mit der Software unterstützen wollen, essentiell. Mit dieser Werkzeuganalyse wurde ein allgemeineres Instrument entwickelt, mit dem man das Simulationspotential auch anderer Werkzeugsoftware wie Excel, Tinkerplots oder den TI-Nspire systematisch analysieren könnte. Im zweiten Teil werden die Ergebnisse einer Fallstudie zur Kompetenz von Studierenden beim Bearbeiten von stochastischen Simulations- und Modellierungsproblemen vorgestellt. Die insgesamt aufwendige Analyse von Mikroprozessen macht sehr viel relevante und wichtige Details im Umgang von Studierenden mit Simulationsaufgaben erkennbar. Auch ist als Ergebnis der Studie nicht nur einfach ein differenziertes Bild der Kompetenzen von Studierenden anzusehen. Vielmehr liegt ein wesentlicher Beitrag auch in der Konzeptualisierung unterschiedlicher Kompetenzen und ihrer Wechselwirkung, wie sie bei der Bearbeitung von mathematischen Aufgaben mit dem Computer auftreten.
Resumo:
Im Rahmen der Arbeit wird den Fragen nachgegangen, inwiefern der Konsum von Öko-Lebensmitteln in Familien mit Kindern im zeitlichen Verlauf Veränderungen unterliegt und worin Veränderungen im Öko-Lebensmittelkonsum in Familien mit Kindern begründet sind. Aus den hierzu gewonnenen Erkenntnissen werden Schlussfolgerungen für die Konsumentenforschung und das Marketing von Öko-Produkten gezogen. Theoretische Grundlage stellen der Familienzyklus sowie Forschungsergebnisse zum Konsumentenverhalten in Familien und zum Konsum von Öko-Lebensmitteln in Familien dar. Für die empirische Bearbeitung der Forschungsfragen wurde ein qualitatives Forschungsdesign gewählt. Der Forschungsprozess gliederte sich in drei Wellen der Datenerhebung und -auswertung. Im Rahmen dessen wurden Eltern mithilfe problemzentrierter Interviews zur Entwicklung des Öko-Konsums in ihren Familien befragt. Die Interviews wurden computergestützt und in Anlehnung an die Kodierprozeduren offenes und axiales Kodieren der Grounded Theory ausgewertet. Ergebnis der Datenanalyse sind drei Zusammenhangsmodelle, die zu einer Erklärung von Veränderungen im Öko-Lebensmittelkonsum von Familien beitragen. Veränderungen können demnach erstens in einer Erhöhung der Konsumintensität während einer Schwangerschaft bestehen. Als Bedingungen hierfür konnten ein verstärktes Bewusstsein für Öko-Produkte, die körperliche Konstitution der Mutter sowie die Unterstützung durch die soziale Umwelt identifiziert werden. Weitere Bedingungen stellen Lebensmittelskandale sowie eine gute Verfügbarkeit von Öko-Produkten dar. Handlungsstrategien der Eltern beziehen sich auf das Wohlergehen des noch ungeborenen Kindes (Förderung der Gesundheit, Erhalten der zukünftigen Lebenswelt, Orientierung für die spätere Ernährung des Kindes) sowie auf das Wohlergehen der werdenden Mutter (Förderung der Gesundheit, Förderung des Wohlbefindens, Umgang mit schwangerschaftsbedingten Beschwerden). Zweitens können Veränderungen des Öko-Lebensmittelkonsums in einer Erhöhung der Konsumintensität ab dem Zeitpunkt der Umstellung der Ernährung eines Kindes auf eine Beikosternährung bestehen. Bedingungen hierfür sind eine verstärkte Beachtung von Öko-Produkten, die körperliche Konstitution des Kindes, die Abstimmung von Familien- und Baby-Kost, der Austausch mit und die Unterstützung durch die soziale Umwelt sowie der Wunsch von Eltern, einen Beitrag zum Öko-Landbau zu liefern. Bedingungen können außerdem eine gute Verfügbarkeit von Öko-Produkten sowie der Einfluss von Medien darstellen. Handlungsstrategien der Eltern beziehen sich auf die Ernährung des Kindes (Förderung der Gesundheit, Förderung der Geschmackssozialisation) und auf die Ernährung der restlichen Familie (effiziente Beschaffung und Verwendung von Lebensmitteln, Förderung des Wohlbefindens der Eltern). Drittens können Veränderungen im Öko-Lebensmittelkonsum in Familien in einem Rückgang der Konsumintensität während des Übergangs von Kindern ins Jugendalter bestehen. Bedingungen hierfür bestehen in der Konsequenz, mit der Eltern konventionellen Lebensmittelwünschen ihrer Kinder nachgeben, in der Beurteilung von Lebensmitteln durch die Eltern sowie in der Intensität, mit der Kinder ihre Wünsche einfordern. Handlungsstrategien der Eltern sind darauf ausgerichtet Kindern einen Wunsch zu erfüllen, sich gegenüber diesen liberal zu verhalten, Konflikte mit Kindern zu vermeiden oder diese ihre eigenen Erfahrungen sammeln zu lassen. Die Ergebnisse tragen zu einer theoretischen Fundierung des Zusammenhangs zwischen Familienzyklus und dem Öko-Lebensmittelkonsum in Familien bei und zeigen, dass dieser ein sinnvolles theoretisches Bezugssystem für Veränderungen der Konsumintensität von Öko-Produkten darstellt. Für die Konsumentenforschung tragen die Ergebnisse zu einem differenzierten Verständnis von Ober- und Untergrenzen von Familienzyklusstadien bei. Es zeigt sich weiterhin, dass Veränderungen des Öko-Konsums unter anderem unter dem Einfluss der sozialen Umwelt stehen. Im Hinblick auf das Marketing kann insbesondere geschlussfolgert werden, dass bei bestimmten Produktkategorien die Bedürfnisse jugendlicher Zielgruppen verstärkt berücksichtigt werden sollten. Zur Bindung junger Familien ist darauf hinzuwirken, einen Mehraufwand bei der Beschaffung von Öko-Produkten auszuschließen. Für die Ansprache der Zielgruppe Schwangere erscheinen Kommunikationsbotschaften geeignet, die sich auf das Wohlbefinden von Kind und Mutter und auf Nachhaltigkeitsaspekte beziehen. Eltern mit Kindern im Übergang zu einer Beikosternährung könnten gezielt durch Kommunikationsbotschaften angesprochen werden, die in Zusammenhang mit der Förderung der Gesundheit und der Geschmacksozialisation von Kindern stehen.
Resumo:
To increase the organic matter (OM) content in the soil is one main goal in arable soil management. The adoption of tillage systems with reduced tillage depth and/or frequency (reduced tillage) or of no-tillage was found to increase the concentration of soil OM compared to conventional tillage (CT; ploughing to 20-30 cm). However, the underlying processes are not yet clear and are discussed contradictorily. So far, few investigations were conducted on tillage systems with a shallow tillage depth (minimum tillage = MT; maximum tillage depth of 10 cm). A better understanding of the interactions between MT implementation and changes in OM transformation in soils is essential in order to evaluate the possible contribution of MT to a sustainable management of arable soils. The objectives of the present thesis were (i) to compare OM concentrations, microbial biomass, water-stable aggregates, and particulate OM (POM) between CT and MT soils, (ii) to estimate the temporal variability of water-stable aggregate size classes occurring in the field and the dynamics of macroaggregate (>250 µm) formation and disruption under controlled conditions, (iii) to investigate whether a lower disruption or a higher formation rate accounts for a higher occurrence of macroaggregates under MT compared to CT, (iv) to determine which fraction is the major agent for storing the surplus of OM found under MT compared to CT, and (v) to observe the early OM transformation after residue incorporation in different tillage systems simulated. Two experimental sites (Garte-Süd and Hohes Feld) near Göttingen, Germany, were investigated. Soil type of both sites was a Haplic Luvisol. Since about 40 years, both sites receive MT by a rotary harrow (to 5-8 cm depth) and CT by a plough (to 25 cm depth). Surface soils (0-5 cm) and subsoils (10-20 cm) of two sampling dates (after fallow and directly after tillage) were investigated for concentrations of organic C (Corg) and total N (N), different water-stable aggregate size classes, different density fractions (for the sampling date after fallow only), microbial biomass, and for biochemically stabilized Corg and N (by acid hydrolysis; for the sampling date after tillage only). In addition, two laboratory incubations were performed under controlled conditions: Firstly, MT and CT soils were incubated (28 days at 22°C) as bulk soil and with destroyed macroaggregates in order to estimate the importance of macroaggregates for the physical protection of the very labile OM against mineralization. Secondly, in a microcosm experiment simulating MT and CT systems with soil <250 µm and with 15N and 13C labelled maize straw incorporated to different depths, the mineralization, the formation of new macroaggregates, and the partitioning of the recently added C and N were followed (28 days at 15°C). Forty years of MT regime led to higher concentrations of microbial biomass and of Corg and N compared to CT, especially in the surface soil. After fallow and directly after tillage, a higher proportion of water-stable macroaggregates rich in OM was found in the MT (36% and 66%, respectively) than in the CT (19% and 47%, respectively) surface soils of both sites (data shown are of the site Garte-Süd only). The subsoils followed the same trend. For the sampling date after fallow, no differences in the POM fractions were found but there was more OM associated to the mineral fraction detected in the MT soils. A large temporal variability was observed for the abundance of macroaggregates. In the field and in the microcosm simulations, macroaggregates were found to have a higher formation rate after the incorporation of residues under MT than under CT. Thus, the lower occurrence of macroaggregates in CT soils cannot be attributed to a higher disruption but to a lower formation rate. A higher rate of macroaggregate formation in MT soils may be due to (i) the higher concentrated input of residues in the surface soil and/or (ii) a higher abundance of fungal biomass in contrast to CT soils. Overall, as a location of storage of the surplus of OM detected under MT compared to CT, water-stable macroaggregates were found to play a key role. In the incubation experiment, macroaggregates were not found to protect the very labile OM against mineralization. Anyway, the surplus of OM detected after tillage in the MT soil was biochemically degradable. MT simulations in the microcosm experiment showed a lower specific respiration and a less efficient translocation of recently added residues than the CT simulations. Differences in the early processes of OM translocation between CT and MT simulations were attributed to a higher residue to soil ratio and to a higher proportion of fungal biomass in the MT simulations. Overall, MT was found to have several beneficial effects on the soil structure and on the storage of OM, especially in the surface soil. Furthermore, it was concluded that the high concentration of residues in the surface soil of MT may alter the processes of storage and decomposition of OM. In further investigations, especially analysis of the residue-soil-interface and of effects of the depth of residue incorporation should be emphasised. Moreover, further evidence is needed on differences in the microbial community between CT and MT soils.
Resumo:
Die Arbeit beschäftigt sich mit didaktischen Aspekten einer neuen Aufgabenkultur und mit ihrem Kern, den Modellierungsaufgaben. Im ersten Teil der Dissertation wird ein Überblick über ausgewählte Theorien und empirische Ergebnisse aus den Bereichen Lehr-Lernforschung, Problemlöseforschung, kognitive Psychologie sowie Allgemeindidaktik und den Fachdidaktiken gegeben. Es zeigt sich, dass Schüler-Schwierigkeiten und Schüler-Strategien eine bedeutende Rolle für den Lernprozess spielen, jedoch bei den Modellierungsaufgaben nicht ausreichend erforscht sind. Ziel der vorliegenden Arbeit ist es, Schüler-Schwierigkeiten und -Strategien bei der Bearbeitung von Modellierungsaufgaben empirisch zu erfassen, mit kognitiven Lern- und Problemlösetheorien zu verbinden und erste Bausteine einer Didaktik der Aufgabenkultur zu entwerfen. Drei zentrale Fragestellungen sind dabei: 1. Welche Schwierigkeiten haben Schüler beim Bearbeiten von Modellierungsaufgaben? 2. Welche Strategien wenden sie bei der Aufgabenbearbeitung an? 3. Welche didaktischen Konsequenzen können aufgrund der Antworten auf die erste und zweite Frage für die Didaktik der neuen Aufgabenkultur gezogen werden? Die Analyse der Bearbeitung von drei Modellierungsaufgaben durch vier Neuntklässler unterschiedlicher Kompetenzstufen (12 Fälle) mit Hilfe der Grounded Theory erfolgte hypothesenorientiert und erbrachte folgende Ergebnisse: Die Schüler-Schwierigkeiten bei der Bearbeitung der Modellierungsaufgaben lassen sich in drei Tätigkeitsbereiche aufschlüsseln: (1) die Aufgabe lesen und verstehen, (2) den Zusammenhang zwischen Gegebenheiten der Situation und mathematischer Lösungsstruktur verstehen sowie (3) Umformung mathematischer Strukturen, Ausführung der Rechenoperationen und Interpretieren der Ergebnisse. In den genannten Tätigkeitsbereichen wurden jeweils erfolgversprechende Strategien wie z.B. die Organisationsstrategie „Zeichnen und Beschriften einer Skizze“, die kooperative Strategie „Wechsel zwischen individueller Konstruktion und kooperativer Ko-Konstruktion“ oder die metakognitive Strategie „Planung“ identifiziert und ihre Ausführung dokumentiert. Aus den empirischen Analysen lässt sich eine Reihe von wichtigen Stichpunkten nennen, die einen bedeutsamen Bestandteil der Didaktik einer neuen Aufgabenkultur bilden. Wichtige Stichworte dazu sind die Einbettung der Aufgaben in Lernumgebungen, der Einbezug kooperativer Strategien, ein neues Verständnis von Lehrerinterventionen, das Diagnose und lernbegleitende Unterstützung stärker akzentuiert, Selbstregulierung und Individualisierung, Problem- und Lernprozessorientierung im Unterricht. Wird der letzte Punkt genau analysiert, zeigt sich, dass es zur erfolgreichen Lernprozessgestaltung notwendig ist, längerfristig die Zielperspektive, unter der die Schüler Aufgaben bearbeiten, zu verändern. Beim Bearbeiten der Aufgaben sollen Schülerhandlungen, statt sich nur auf die Lösung einer Aufgabe zu beschränken, auf den individuellen Erwerb von Wissen, Kompetenzen und Strategien ausgerichtet werden (Prozess-Ergebnis-Orientierung). Erreicht werden soll die Prozess-Ergebnis-Orientierung durch eine bessere strategische Durcharbeitung des Unterrichts, der gleichermaßen das Ausschöpfen des Potentials für die Selbststeuerung des Lernens bei den Schülern sowie die dafür notwendige Weiterentwicklung des diagnostischen und unterstützenden Handelns von Lehrerinnen und Lehrern betont.
Resumo:
Seit der Gründung der Ökologischen Landbaubewegung wird über eine angepasste Bodenbearbeitung diskutiert. Konservierende Bodenbearbeitungssysteme scheinen zwar dem Prinzip des Erhalts und der Förderung der Bodenfruchtbarkeit am ehesten gerecht zu werden, wurden bislang vor allem auf Grund der Unkrautregulierung im Ökolandbau abgelehnt. Anhand von vier Methoden (Literaturrecherche, Feldversuch, Umfrage und Experteninterviews) werden die unterschiedlichen Aspekte der konservierenden Bodenbearbeitung in der Praxis des Ökolandbaus untersucht. In dem dreijährigen Feldversuch wurde das Mulchsaatverfahren nach Getreide mit zwei verschiedenen Bearbeitungstiefen (5-7 cm und 13-15 cm) zur Zwischenfrucht mit dem Pflugeinsatz (25 cm) verglichen. Dabei zeigt sich, dass bei der tiefen Bearbeitung mit dem Grubber der für einen nennenswerten Erosionsschutz notwendige Bedeckungsgrad von 30 % nicht zuverlässig erreicht wird. Gleichzeitig sprechen die geringen Unterschiede in den Trockenmasseerträgen der flachen und tiefen Grubbervarianten für eine flachere Bearbeitung. Die Ergebnisse der Umfrage zur Bodenbearbeitung, die 367 Ökobauern beantworteten, zeigen, dass die Mehrheit der Betriebe (56%) bei der Grundbodenbearbeitung den Pflug einsetzt. 6% der befragten Ökobauern geben an ohne Pflug zu wirtschaften. Etwa 40 % der befragten Ökobauern verzichten zumindest einmal in ihrer Fruchtfolge auf den Pflug. Die Experteninterviews von drei Ökobauern verdeutlichen die unterschiedlichen Maßnahmen der konservierenden Bodenbearbeitung. Ein komplexes System wird erkennbar, das sich durch langjährige Erfahrung der Landwirte entwickelt hat. Anhand der Ergebnisse ist eine konservierende Bodenbearbeitung im Ökolandbau möglich und im Sinne der Förderung der Bodenfruchtbarkeit auch als notwendig zu bezeichnen. Allerdings ist dabei die Bodenbearbeitung nicht isoliert zu betrachten. Im Konzept der konservierenden Bodenbearbeitung sind Entscheidungen in vielen Teilbereichen des Ökobetriebs zum Erfolg notwendig.
Resumo:
In der bereits vorhandenen Literatur wird berichtet, dass der Lernerfolg von Schülern bei der Bearbeitung von Aufgaben im Physikunterricht sowie ihre Art der Aufgabenbearbeitung maßgeblich von den in den Aufgaben vorgegebenen Zielen abhängen. Außerdem wird dem Vorwissen der Schüler eine entscheidende Rolle beim Lernerfolg zugesprochen. Zentrale Anliegen der hier vorliegenden Studie sind es, diese Ergebnisse auf eine computerbasierte Experimentierumgebung zum Federpendel in der Oberstufe zu übertragen. Es wird außerdem untersucht, inwiefern der Lernerfolg bei der Beschäftigung mit der Experimentierumgebung von der Art der Aufgabenbearbeitung abhängt. Zum Zweck der Lernerfolgsmessung sowie der Bestimmung des Vorwissens wurden Testaufgaben entwickelt, mit deren Hilfe das Wissen der Schüler vor und nach dem Einsatz der Multimedia-Aufgaben ermittelt werden konnte. Die Art der Aufgabenbearbeitung jedes Schülers wurde mit Hilfe der Analyse und anschließenden Kategorisierung von Bildschirmvideos, die die Arbeit mit der Experimentierumgebung dokumentieren, sowie durch den Einsatz eines Fragebogens bestimmt. Als zentrales Ergebnis dieser Studie ist festzuhalten, dass sich die in der Literatur zu findenden Aussagen nicht vollends auf die verwendete computerbasierte Experimentierumgebung übertragen lassen. Vielmehr scheint es Hinweise darauf zu geben, dass neben den Zielvorgaben und der Art der Aufgabenbearbeitung noch weitere Faktoren entscheidenden Einfluss auf den Lernerfolg der Schüler bei der Bearbeitung von Multimedia-Aufgaben ausüben.