992 resultados para Soziale Arbeit


Relevância:

10.00% 10.00%

Publicador:

Resumo:

In dieser Arbeit wurden zum einen die Auswirkungen mineralischer und organischer Düngung und zum anderen der Einfluss reduzierter Bodenbearbeitung (Kreiselegge) im Vergleich zum Einsatz des Wendepfluges auf die Nährstoffspeicherung der mikrobiellen Biomasse untersucht. Dabei wurde deutlich, dass sowohl organische Düngung als auch die reduzierte Bodenbearbeitung zu einer Erhöhung des organischen Kohlenstoffs (Corg), des Stickstoff-Gesamtgehalts (N) und des mikrobiellen Biomasse Kohlenstoffs (Cmik) und Stickstoffs (Nmik) führten. Der Einsatz organischer Dünger wies darüber hinaus höhere Gehalte an Schwefel (S) auf, während der Einsatz der Kreiselegge auch den mikrobiellen Biomasse Phosphor (Pmik) gegenüber der Pflugvariante erhöhte. Des Weiteren zeigten die Untersuchungen des pilzlichen Biomarkers Ergosterol einen signifikant höheren Gehalt mit mineralischer Düngung plus Strohrückführung und beim Einsatz des Wendepfluges im Vergleich zu organischer Düngung und reduzierter Bodenbearbeitung. Dies führte sowohl bei mineralischer Düngung als auch bei dem Einsatz des Wendepfluges zu einem signifikant höheren Ergosterol/Cmik-Quotienten, der bei hohen Werten auf einen höheren Anteil saprotropher Pilze an der gesamten mikrobiellen Gemeinschaft schließen lässt. Im Zusammenhang mit der Möglichkeit saprotropher Pilze, ihre Schwefelinkorporation um 130% zu steigern, zeigten sich höhere Gehalte des mikrobiellen Schwefels unter mineralischer Düngung und des Einsatzes des Wendepflugs, bei denen der Anteil saprotropher Pilze erhöht war. Dies führte zu einem geringeren C/Smik-Quotienten, der somit als Maß für eine Veränderung der mikrobiellen Gemeinschaft herangezogen werden kann. Des Weiteren ließ sich feststellen, dass trotz eines erhöhten Pilzanteils an der mikrobiellen Gemeinschaft unter Pflugbearbeitung und mineralischer Düngung die Substratnutzungseffizienz, die durch Pilze gewöhnlich erhöht wird, hier nicht gesteigert wurde. Somit lässt sich festhalten, dass sowohl organische Düngung als auch der Einsatz der Kreiselegge mit reduzierter Bodenbearbeitung zu einer Erhöhung Bodenfruchtbarkeit erhaltender Messgrößen, wie Corg, N, Cmik und Nmik führten. Das Bodenmaterial beider Langzeitversuche wurde nach den Laboruntersuchungen mit flüssigem Stickstoff schockgefroren und anschließend gefriergetrocknet, um mittels Nahinfrarot Spektroskopie (NIRS) und unterschiedlichen Berechnungsverfahren die Bodeneigenschaften vorherzusagen. Die Messgrößen des pH-Werts, Corg, N, P, S, K, Mg, Mn, Fe, Al wurden mit NIRS in einer exzellenten Vorhersagegüte bestimmt, während die Vorhersage von Cmik, Nmik und dem Ergosterol/Cmik-Quotienten nur zu einer annähernd quantitativen Bestimmung führte. Die unterschiedlichen Berechnungen mittels Kreuzvalidierung und separater Kalibrierung/Validierung zeigten zwar, dass die Kreuzvalidierung zu einer höheren Anzahl erfolgreich vorhergesagter Parameter führte, diese jedoch nicht zur Erstellung einer Kalibrationsdatenbank herangezogen werden kann, da hier nur eine geschlossene Population betrachtet wird. Die unterschiedlichen Selektionsverfahren zeigten nur einen geringen Einfluss auf die Vorhersagegenauigkeit. Während die Aufteilung des Datensatzes in einen kleineren, homogeneren Datensatz der einzelnen Standorte zu keiner besseren Vorhersagegüte im Vergleich zum Gesamtdatensatz führte. Daher bleibt festzuhalten, dass NIRS vor allem für die Vorhersage der Grundmessgrößen wie Corg, den Gesamtgehalten und Cmik und Nmik Einsatz finden kann, während für die erfolgreiche Vorhersage für weitere mikrobielle Biomasse-Parameter noch Forschungsbedarf besteht, wie z.B. zur Probenvorbereitung.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Im Rahmen dieser Dissertation wurden die Dynamik und die Kommunikation innerhalb der mikrobiellen Population der Rhizosphäre von Deutschem Weidelgras (Lolium perenne) untersucht, welches auf einer teilweise rekultivierten Rückstandshalde der Kaliindustrie wuchs. Um die niederschlagsbedingte Auswaschung von Salzen zu reduzieren, wird die Rückstandshalde des Kaliwerks Sigmundshall (in Bokeloh bei Hannover) schrittweise mit dem technogenen Abdecksubstrat REKAL/SAV ummantelt. Dieses weist eine hohe Standfestigkeit und Wasserspeicherkapazität auf und kann zudem begrünt werden, wofür als Pionierpflanze Lolium perenne dient. Durch diese Rekultivierung wird Niederschlag besser gespeichert und über Evapotranspiration wieder in die Luft abgegeben, was letztendlich die Bildung von Salzwasser vermindert. Da das Abdecksubstrat neben alkalischem pH-Wert auch teilweise hohe Schwermetallkonzentrationen aufweist, sollte in der vorliegenden Arbeit erstmals die mikrobielle Rhizosphären-Gemeinschaft in diesem extremen Habitat mittels einer kulturunabhängigen Methode erforscht werden. Zudem wurden erste Untersuchungen angestellt, ob im Substrat die zelldichte-abhängige bakterielle Kommunikation (Quorum Sensing) nachgewiesen werden kann. Mittels extrahierter Gesamt-DNA wurde anhand der 16S rDNA die Analyse des „Terminalen Restriktonsfragmentlängenpolymorphismus“ (TRFLP) verwendet, um die komplexe bakterielle Rhizosphären-Gemeinschaft unter zeitlichen und lokalen Aspekten zu vergleichen. Auftretende Veränderungen bei den bakteriellen Populationen der jeweiligen Proben wurden durch eine Zu- oder Abnahme der auch als Ribotypen bezeichneten terminalen Restriktionsfragmente (TRF) erfasst. Hierbei zeigten sich am Südhang der Halde während der Sommermonate der Jahre 2008 und 2009 zwar Schwankungen in den bakteriellen Gemeinschaftsprofilen, es lagen jedoch keine eindeutigen Dynamiken vor. Im Vergleich zum Südhang der Halde wies der Nordhang eine höhere Ribotyp-Diversität auf, was mit der fortgeschritteneren Rekultivierung dieses Haldenabschnitts zusammenhängen könnte. Zusätzlich wurden Bakterien aus der Rhizosphäre von Lolium perenne isoliert und mithilfe der Biosensoren Agrobacterium tumefaciens A136 pCF218 pCF372 und Chromobacterium violaceum CV026 auf die Produktion von N-Acylhomoserinlactonen (AHLs) überprüft. Diese AHLs werden von Gram-negativen Mikroorganismen als Signalmoleküle verwendet, um ihre Genexpression zelldichteabhängig zu kontrollieren. Von den 47 getesteten Gram-negativen Rhizosphärenisolaten konnten nur bei einem reproduzierbar AHL-Moleküle mithilfe des Reporterstamms A. tumefaciens nachgewiesen werden. Der AHL-Produzent wurde als Pseudomonas fluorescens identifiziert. Mittels dünnschichtchromatographischer Analysen konnten die extrahierten bakteriellen AHL-Moleküle den N-Octanoyl-L-homoserinlactonen zugeordnet werden.

Relevância:

10.00% 10.00%

Publicador:

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In dieser Arbeit werden mithilfe der Likelihood-Tiefen, eingeführt von Mizera und Müller (2004), (ausreißer-)robuste Schätzfunktionen und Tests für den unbekannten Parameter einer stetigen Dichtefunktion entwickelt. Die entwickelten Verfahren werden dann auf drei verschiedene Verteilungen angewandt. Für eindimensionale Parameter wird die Likelihood-Tiefe eines Parameters im Datensatz als das Minimum aus dem Anteil der Daten, für die die Ableitung der Loglikelihood-Funktion nach dem Parameter nicht negativ ist, und dem Anteil der Daten, für die diese Ableitung nicht positiv ist, berechnet. Damit hat der Parameter die größte Tiefe, für den beide Anzahlen gleich groß sind. Dieser wird zunächst als Schätzer gewählt, da die Likelihood-Tiefe ein Maß dafür sein soll, wie gut ein Parameter zum Datensatz passt. Asymptotisch hat der Parameter die größte Tiefe, für den die Wahrscheinlichkeit, dass für eine Beobachtung die Ableitung der Loglikelihood-Funktion nach dem Parameter nicht negativ ist, gleich einhalb ist. Wenn dies für den zu Grunde liegenden Parameter nicht der Fall ist, ist der Schätzer basierend auf der Likelihood-Tiefe verfälscht. In dieser Arbeit wird gezeigt, wie diese Verfälschung korrigiert werden kann sodass die korrigierten Schätzer konsistente Schätzungen bilden. Zur Entwicklung von Tests für den Parameter, wird die von Müller (2005) entwickelte Simplex Likelihood-Tiefe, die eine U-Statistik ist, benutzt. Es zeigt sich, dass für dieselben Verteilungen, für die die Likelihood-Tiefe verfälschte Schätzer liefert, die Simplex Likelihood-Tiefe eine unverfälschte U-Statistik ist. Damit ist insbesondere die asymptotische Verteilung bekannt und es lassen sich Tests für verschiedene Hypothesen formulieren. Die Verschiebung in der Tiefe führt aber für einige Hypothesen zu einer schlechten Güte des zugehörigen Tests. Es werden daher korrigierte Tests eingeführt und Voraussetzungen angegeben, unter denen diese dann konsistent sind. Die Arbeit besteht aus zwei Teilen. Im ersten Teil der Arbeit wird die allgemeine Theorie über die Schätzfunktionen und Tests dargestellt und zudem deren jeweiligen Konsistenz gezeigt. Im zweiten Teil wird die Theorie auf drei verschiedene Verteilungen angewandt: Die Weibull-Verteilung, die Gauß- und die Gumbel-Copula. Damit wird gezeigt, wie die Verfahren des ersten Teils genutzt werden können, um (robuste) konsistente Schätzfunktionen und Tests für den unbekannten Parameter der Verteilung herzuleiten. Insgesamt zeigt sich, dass für die drei Verteilungen mithilfe der Likelihood-Tiefen robuste Schätzfunktionen und Tests gefunden werden können. In unverfälschten Daten sind vorhandene Standardmethoden zum Teil überlegen, jedoch zeigt sich der Vorteil der neuen Methoden in kontaminierten Daten und Daten mit Ausreißern.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Bewegt man sich als Studentin oder Student in psychologischen, medizinischen oder pädagogischen Studiengängen, ist häufig eine systematische Literaturrecherche unerlässlich, um sich über den neuesten Forschungsstand in einem bestimmten Themenfeld zu informieren oder sich in ein neues Thema beispielsweise für die Abschlussarbeit einzuarbeiten. Literaturrecherchen sind zentraler Bestandteil jeden wissenschaftlichen Arbeitens. Die recherchierten Literaturangaben und Quellen bilden die Bausteine, auf denen die Darstellung des Wissens in Hausarbeiten, Magister-, Diplomarbeiten und später Doktorarbeiten basiert. In Form von Quellenangaben, z.B. durch indirekte oder direkte Zitate oder Paraphrasierungen werden Bezugnahmen auf die bereits vorhandene Literatur transparent gemacht. Häufig genügt ein Blick auf eine Literaturliste um zu erkennen, wie Literatur gesucht und zusammengestellt wurde. Wissenschaftliches Arbeiten unterscheidet sich von künstlerischem Arbeiten durch seine Systematik und intersubjektive Nachvollziehbarkeit. Diese Systematik sollte bereits bei der Literaturrecherche beginnen und sich am Ende der Arbeit in der Literaturliste widerspiegeln. Auch wenn in einer Magister-, Diplom- und noch weniger in einer Hausarbeit die gesamte, gefundene Literatur verwendet wird, sondern nur eine sehr kleine Auswahl in die Arbeit einfließt, ist es anstrebenswert, sich über die möglichen Suchstrategien im Einzelnen klar zu werden und sich systematisch durch den Berg von Literatur(einträgen) nach einer Recherche zu einer einschlägigen und begründeten Auswahl vorzuarbeiten. Hier stellen die schnell wachsenden Wissensbestände eine besondere Herausforderung an Studierende und Wissenschaftler. Die Recherche am „Zettelkasten‟ in der Bibliothek ist durch die Online-Recherche ersetzt worden. Wissenschaftliche Literatur wird heute in erster Linie digital gesucht, gefunden und verwaltet. Für die Literatursuche steht eine Vielfalt an Suchmaschinen zur Verfügung. Doch welche ist die richtige? Und wie suche ich systematisch? Wie dokumentiere ich meine Suche? Wie komme ich an die Literatur und wie verwalte ich die Literatur? Diese und weitere Fragen haben auch wir uns gestellt und für alle Studierenden der Fächer Psychologie, Psychoanalyse, Medizin und Pädagogik diese Handreichung geschrieben. Sie will eine Hilfe bei der konkreten Umsetzung einer Literaturrecherche sein.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In der Dissertation wird die Möglichkeit untersucht, die deutschen Erfahrungen mit dem New Public Management (NPM) für die Entwicklung der Verwaltung in Uganda nutzbar zu machen. Inhaltlich betrifft die Arbeit 3 Hauptkomponenten: Das NPM als Konzept für die öffentliche Verwaltung, die Erfahrungen mit dem NPM in Deutschland, die Transfermöglichkeit des NPM und insbesondere der deutschen Erfahrungen mit dem NPM nach Uganda, wobei auch die deutschen Erfahrungen mit der Verwaltungshilfe nach dem 1990 erfolgten Beitritt des ehemals sozialistisch verwalteten Gebiets zur Bundesrepublik Deutschland einbezogen werden. Es wird zunächst anhand von Dokumenten ein Vergleich der Verwaltungen in Uganda und in Deutschland vorgenommen, wobei insbesondere auf die in der deutschen Kommunalverwaltung mittlerweile implementierte Variante des NPM eingegangen wird. In diesem Vergleich werden gravierend erscheinende Unterschiede identifiziert. Aus einer Gegenüberstellung der hauptsächlichen Probleme der Verwaltung in Uganda und der hauptsächlichen Stärken des NPM nach den deutschen Erfahrungen wird ein Tableau mit wichtigen Diskrepanzen entwickelt. Zu diesen Diskrepanzen und zu möglichen strategischen Handlungsalternativen werden in Uganda und in Deutschland jeweils 5 hochrangige Verwaltungsexperten in jeweils etwa 1-stündigen Interviews befragt. Die Antworten werden miteinander verglichen und auf markante Gemeinsamkeiten bzw. Unterschiede geprüft. Nach Auswertung der Interviews wird in Verbindung mit den persönlichen Erfahrungen des Verfassers ein strategisches Konzept entwickelt, das aus sieben Einzelschritten besteht. Konkretisiert wird dieses Konzept durch den Vorschlag, eine situationsangemessene Übertragung ausgewählter NPM-Elemente und ausgewählter deutscher Erfahrungen zunächst in Pilotprojekten zu erproben. In einem weiteren zukünftigen Prozess könnten die Erfahrungen aus diesen Pilotprojekten in andere Regionen und auf andere Ebenen der Verwaltung in Uganda transferiert werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die spektrale Zusammensetzung von Licht ändert sich, wenn es mit gasförmiger, flüssiger oder fester Materie d.h. mit Ionen, Atomen, Molekülen, Atom- und Molekülverbänden und amorphen oder kristallinen Festkörpern interagiert. Spektroskopische Messungen des Lichts nach der Wechselwirkung geben Aufschluss über die Eigenschaften der zu untersuchenden Materie [2]. Viele der heute noch nicht realisierbaren Ideen und Konzepte in den verschiedensten Anwendungsfeldern der Sensorik benötigen aber für ihre Umsetzung extrem miniaturisierte Spektrometer als Kernbestandteil der Sensoren. Ziel ist es jedoch nicht, dem Anwender dieser Sensoren Informationen über das Spektrum zu liefern, sondern die ausgewerteten spektralen Information als Indikator zum Handeln zu nutzen. Derartige intelligente Sensoren werden in Zukunft unter anderem dazu beitragen intelligente persönliche Umgebungen (engl.: smart rooms, smart buildings, smart cities, samrt personal environments) zu entwerfen und zu realisieren. Grundvoraussetzung für die Erschließung der verschiedenen Anwendungsgebiete sind Spektrometer, die die Anforderungen an niedrige Kosten, hohe Stückzahlen sowie geringe Größe und geringes Gewicht besser als verfügbare Hochleistungsgitter-Spektrometer erfüllen, die zwar bereits in den Bereich weniger Zentimeter miniaturisiert wurden, aber immer noch makroskopisch sind. Ziel dieser Arbeit ist es, zu zeigen, dass es möglich ist, ein Fabry-Pérot Filterfeld herzustellen, welches später den Kern eines Nanospektrometers darstellen soll, bei dem die unterschiedlichen Kavitäten in einem einzigen Schritt mithilfe der Nanoimprint-Technologie erzeugt werden. Angesichts des Forschungsdefizits hinsichtlich der Nutzung der Nanoimprint-Technologie zur Fertigung von in ihrer Höhe exakten Strukturen werden in der vorliegenden Arbeit zwei Nanoimprint-Technologien untersucht: Das Heißprägen und das UV-Prägen. Das Ergebnis dieser Arbeit ist ein Fabry-Pérot Filterfeld, welches mittels geeigneter Nanoimprint-Technologie hergestellt wurde und demonstriert, dass ein Nanospektrometer auf der Basis eines Feldes von Filtern technisch realisierbar ist. Dazu werden im praktischen Teil dieser Arbeit (Untersuchung der Prägeprozesse) verschiedene technologische Methoden und Maschinen vorgestellt und die damit erreichten Ergebnisse hinsichtlich der Fabry-Pérot-Filterfelder verglichen. Die hergestellten Filterfelder wurden systematisch spektral vermessen. Diese Analyse zeigt 64 Transmissionsbänder der einzelnen Filter eines Feldes. Ein Vergleich mit publizierten Arbeiten des Standes der Wissenschaft und Technik zeigt, dass im Rahmen der vorliegenden Arbeit eine deutliche Verbesserung erreicht wurde. So konnte eine drastische Steigerung der transmittierten Lichtintensität der Filter erzielt werden und eine Nanoimprint-Methode identifiziert werden, mit welcher es möglich ist, einen Demonstrator herzustellen. Aufgrund der im Rahmen einer ausführlichen Charakterisierung ermittelten sehr guten experimentellen Ergebnisse des Demonstrators kann ein Nanospektrometer mit dem Fabry-Pérot-Filterfeld als Kernbestandteil in Zukunft hergestellt werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Reduktion von Schadstoff-Emissionen und des Kraftstoffverbrauches sind für die Einhaltung von immer strenger werdenden Abgasgrenzwerten zum Schutz der menschlichen Gesundheit und der Vegetation von großer gesellschaftlicher Bedeutung. Ob Deutschland die innerstädtischen Immissionsgrenzwerte der Europäischen Union (EU) für Stickstoffdioxid (NO2) ab 2010 einhalten wird, ist fraglich. Vor allem Lastkraftwagen mit Dieselmotor emittieren einen Großteil dieses Schadstoffes, sodass man mit einer Senkung der NO2-Emissionen dem gesetzten Ziel der Einhaltung der von der EU festgelegten NO2-Immisionsgrenzwerte bereits erheblich näher kommen würde. Ziel dieser Arbeit war es zu untersuchen, ob mit der Kenntnis der NO2-Konzentration im Abgas von Lastkraftwagen mit Dieselmotor mittels Spektroskopie eine Reduzierung der NO2-Emissionen und eine Senkung des Kraftstoffverbrauches erreicht werden kann. Hierzu muss sowohl die Bestimmung der NO2-Konzentration aus der spektralen Analyse des Abgases möglich sein, als auch die Herstellung eines mikromechanisch durchstimmbaren optischen Fabry-Pérot-Filters mit Bragg-Spiegeln, der die Voraussetzungen erfüllt, das für die spektrale Analyse benötigte Spektrum quantifizieren zu können. Zusätzlich soll mit Hilfe der aus den Spektren extrahierten Information eine in Echtzeit gemessene NO2-Konzentration im Abgas ableitbar sein. Damit sollen Kraftstoff eingespart und Schadstoff-Emissionen reduziert werden. Hierfür wird am Beispiel eines Lastkraftwagens mit typischer Abgasnachbehandlung aufgezeigt, wie über innermotorische Maßnahmen die Verbrennung optimierbar ist und wie die Eigenschaften der Abgasnachbehandlung verbesserbar sind, sodass die gewünschten Senkungen erreicht werden. Zusätzlich kann auf den Einbau eines Sperrkatalysators im Abgasstrang verzichtet werden. Ferner reduziert sich auch der Verbrauch des für die Abgasnachbehandlung benötigten Harnstoffs. Zur Klärung, ob die NO2-Konzentration aus der spektralen Analyse des Abgases bestimmt werden kann, wurden an einem Motorprüfstand Spektren für verschiedene NO2-Konzentrationen gemessen. Zusätzlich wurde das in dieser Arbeit behandelte Sensor-System mittels mathematischer Modellrechnung beschrieben, sodass dieses Modell anschließend auf die am Motorprüfstand gemessenen Spektren angewendet werden konnte. Die auf diese Weise berechneten Ergebnisse wurden mit den NO2-Messungen am Motorprüfstand verglichen und zeigen eine große Korrelation. In dem mathematischen Modell wird auch die spektrale Auflösung des Sensors berücksichtigt, die vom optischen Filter erreicht werden muss. Es wurde in dieser Arbeit untersucht, ob ein solches Filter realisiert werden kann. Hierzu wurde unter Anwendung der Transfer-Matrix-Methode (TMM) zur Berechnung optischer Eigenschaften von Dünnschichtsystemen eine Struktur entwickelt, die den optischen Anforderungen an das Filter genügt. Grundlage für dieses Design ist ein mikromechanisch durchstimmbares Fabry-Pérot-Filter mit Bragg-Spiegeln. Zur Herstellung dieses mikromechanisch durchstimmbaren, optischen Filters wurde eine Prozesskette entwickelt, mit der Filter mit einer Transmission von über 60 % hergestellt wurden. Die mit dieser Prozesskette hergestellten Strukturen wurden topografisch und optisch charakterisiert. Der Vergleich der gemessenen Ergebnisse mit theoretischen Modellrechnungen zeigt eine hohe Übereinstimmung, sodass mit der verwendeten Methodik gute Prognosen von Filtereigenschaften getroffen werden können. Es kann außerdem ein verbessertes Design präsentiert werden, welches eine um 10 % höhere Transmission und ein doppelt so großes Auflösungsvermögen gegenüber dem ursprünglichen Design aufweist. Verbesserungspotenziale in der Prozesskette können präsentiert werden, mit denen die optischen und mechanischen Eigenschaften zukünftiger Filter optimiert werden können. Es wird gezeigt, dass ein optisches Filter hergestellt werden kann, mit dem die NO2-Konzentration im Abgas von Lastkraftwagen mit Dieselmotoren spektroskopisch bestimmt werden kann, sodass der Kraftstoffverbrauch gesenkt und die Schadstoffemissionen reduziert werden können. In Abgasnormen sind einzuhaltende NOX-Grenzwerte festgelegt. Sollten in Zukunft auch NO2-Emissionsgrenzwerte in den Abgasnormen festgelegt werden, kann deren Einhaltung mit dem vorgestellten Sensor-Prinzip überwacht werden. Auf diese Weise wird die Chance auf Einhaltung der NO2-Immissionsgrenzwerte der EU maßgeblich erhöht.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Arbeit beschäftigt sich mit didaktischen Aspekten einer neuen Aufgabenkultur und mit ihrem Kern, den Modellierungsaufgaben. Im ersten Teil der Dissertation wird ein Überblick über ausgewählte Theorien und empirische Ergebnisse aus den Bereichen Lehr-Lernforschung, Problemlöseforschung, kognitive Psychologie sowie Allgemeindidaktik und den Fachdidaktiken gegeben. Es zeigt sich, dass Schüler-Schwierigkeiten und Schüler-Strategien eine bedeutende Rolle für den Lernprozess spielen, jedoch bei den Modellierungsaufgaben nicht ausreichend erforscht sind. Ziel der vorliegenden Arbeit ist es, Schüler-Schwierigkeiten und -Strategien bei der Bearbeitung von Modellierungsaufgaben empirisch zu erfassen, mit kognitiven Lern- und Problemlösetheorien zu verbinden und erste Bausteine einer Didaktik der Aufgabenkultur zu entwerfen. Drei zentrale Fragestellungen sind dabei: 1. Welche Schwierigkeiten haben Schüler beim Bearbeiten von Modellierungsaufgaben? 2. Welche Strategien wenden sie bei der Aufgabenbearbeitung an? 3. Welche didaktischen Konsequenzen können aufgrund der Antworten auf die erste und zweite Frage für die Didaktik der neuen Aufgabenkultur gezogen werden? Die Analyse der Bearbeitung von drei Modellierungsaufgaben durch vier Neuntklässler unterschiedlicher Kompetenzstufen (12 Fälle) mit Hilfe der Grounded Theory erfolgte hypothesenorientiert und erbrachte folgende Ergebnisse: Die Schüler-Schwierigkeiten bei der Bearbeitung der Modellierungsaufgaben lassen sich in drei Tätigkeitsbereiche aufschlüsseln: (1) die Aufgabe lesen und verstehen, (2) den Zusammenhang zwischen Gegebenheiten der Situation und mathematischer Lösungsstruktur verstehen sowie (3) Umformung mathematischer Strukturen, Ausführung der Rechenoperationen und Interpretieren der Ergebnisse. In den genannten Tätigkeitsbereichen wurden jeweils erfolgversprechende Strategien wie z.B. die Organisationsstrategie „Zeichnen und Beschriften einer Skizze“, die kooperative Strategie „Wechsel zwischen individueller Konstruktion und kooperativer Ko-Konstruktion“ oder die metakognitive Strategie „Planung“ identifiziert und ihre Ausführung dokumentiert. Aus den empirischen Analysen lässt sich eine Reihe von wichtigen Stichpunkten nennen, die einen bedeutsamen Bestandteil der Didaktik einer neuen Aufgabenkultur bilden. Wichtige Stichworte dazu sind die Einbettung der Aufgaben in Lernumgebungen, der Einbezug kooperativer Strategien, ein neues Verständnis von Lehrerinterventionen, das Diagnose und lernbegleitende Unterstützung stärker akzentuiert, Selbstregulierung und Individualisierung, Problem- und Lernprozessorientierung im Unterricht. Wird der letzte Punkt genau analysiert, zeigt sich, dass es zur erfolgreichen Lernprozessgestaltung notwendig ist, längerfristig die Zielperspektive, unter der die Schüler Aufgaben bearbeiten, zu verändern. Beim Bearbeiten der Aufgaben sollen Schülerhandlungen, statt sich nur auf die Lösung einer Aufgabe zu beschränken, auf den individuellen Erwerb von Wissen, Kompetenzen und Strategien ausgerichtet werden (Prozess-Ergebnis-Orientierung). Erreicht werden soll die Prozess-Ergebnis-Orientierung durch eine bessere strategische Durcharbeitung des Unterrichts, der gleichermaßen das Ausschöpfen des Potentials für die Selbststeuerung des Lernens bei den Schülern sowie die dafür notwendige Weiterentwicklung des diagnostischen und unterstützenden Handelns von Lehrerinnen und Lehrern betont.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Bauchspeicheldrüsenkrebs ist die vierthäufigste Krebstodesursache in Deutschland. Durch die tiefe Lage des Organs im Körperinneren und das späte Auftreten von Symptomen erfolgt die Diagnose meist zu einem sehr späten Zeitpunkt, zu dem eine Resektion des Tumors in 80% der Fälle nicht mehr möglich ist. Die Hälfte der Patienten verstirbt bereits im ersten Jahr nach Diagnosestellung. Nach heutiger Erkenntnis entwickeln sich Adenokarzinome der Bauchspeicheldrüse über schrittweise histologische Veränderungen, die sogenannten PanIN Läsionen (pancreatic intraepithelial neoplasia). Bis heute fehlen jedoch klinisch einsetzbare Parameter für die Früherkennung des Karzinoms und seiner Vorstufen. Bisher ist nicht vollständig geklärt, welche molekularen Veränderungen hierbei eine wesentliche Rolle spielen. Das Ziel der vorliegenden Arbeit ist, die molekular- und zytogenetische Mutationsinzidenz und -Sequenz im Verlauf der neoplastischen Progression in der PanIN-Sequenz aufzuklären. Unter Anwendung der Fluoreszenz-in-situ-Hybridisierung (FISH) wird weiterführend die Frage beantwortet, ob sich der Nachweis von zytogenetischen Veränderungen in Zellen, die endoskopisch aus dem Pankreassekret gewonnen wurden, als neuartiger Ansatz für eine Frühdiagnostik nutzen lassen. Die molekulargenetischen Analysen zeigen, dass die PanIN-Läsionen aus Geweben mit chronischer Pankreatitis denen aus Geweben mit Karzinomen gleichzusetzen sind. Veränderungen in der Anzahl einzelner Chromosomen, sowie Basenmutationen finden sich bereits in den frühesten Gangläsionen. Die diffuse Verteilung von Genmutationen lässt einen mutagenen Feldeffekt vermuten, in welchem endogene (z.B. Pankreasenzyme, oxidativer Stress) und/oder exogene (z.B. Nikotin, Alkohol) Noxen auf verschiedene Pankreasgänge während einer langen Zeit einwirken. Auf der Basis der erhaltenen Daten kann angenommen werden, dass die prä-neoplastischen Läsionen in Geweben mit chronischer Pankreatitis eine Progression durchlaufen, in der sich sporadische Defekte wie Basenmutationen und Mitosefehler (Aneuplodien) akkumulieren. Die biologische Relevanz für die Tumorentstehung sollte jedoch immer im klinischen Kontext betrachtet werden. In Kombination mit weiteren Parametern (z.B. Alter, Dauer der Pankreatitis) könnte dies eine Möglichkeit bieten, das Risiko für die Entstehung eines Karzinoms individuell zu bestimmen und somit Patienten frühzeitig genug vor der Manifestation eines Tumors einer (Teil-)Resektion des Organs zuzuführen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die vorliegende Arbeit ist Teil eines Verbund-Forschungsprojektes mit dem Ziel, eine Präzisions-Bodenbearbeitung in Abhängigkeit von verschiedenen Bodenparametern sowie dem Bodenbedeckungsgrad zu realisieren. Ziel dieses Teilprojektes war die Bereitstellung einer Online-Messung des Bedeckungsgrades, um die Bearbeitungsintensität während der Feldüberfahrt regeln zu können: Ein Kamerasensor vorne am Schlepper ermittelt die Bodenbedeckung und ein Tiefen-Sollwert wird an das Regelsystem eines Gerätes zur teilfächenspezifischen Bodenbearbeitung ausgegeben. Da unter Feldbedingungen Methoden zur Bedeckungsgradmessung nur relativ zueinander verglichen werden können, wurde zunächst ein Laborvergleich mit wohldefinierten Bodenbedeckungen durchgeführt, um die prinzipiellen Stärken und Schwächen von Bildanalyse sowie zwei visuellen Methoden (Gitterraster-Methode und „Meterstick-Methode“) zu ermitteln: • Eine visuelle Methode, die auf einer begrenzten Anzahl von einfachen Stichprobenbeobachtungen beruht (Gitter), überschätzte den Bedeckungsgrad systematisch, wobei dieser Effekt unter Feldbedingungen vermutlich klein gegenüber der bekannten Schwankungsbreite zwischen Messungen verschiedener Beobachter ist. • Eine visuelle Methode, die auch Größe und Orientierung des Strohs berücksichtigt (Meterstick), lieferte präzise mittlere Messwerte. Diese Methode war die mit Abstand arbeitsaufwändigste. • Nach einer einfachen Korrektur des Abbildungsfehlers des Kameraobjektivs war auch die Bildverarbeitungs-Methode in der Lage, die bekannten tatsächlichen Bedeckungsgrade exakt darzustellen, bei gleichzeitig der geringsten Schwankungsbreite der Messwerte. Die Online-Messung der Bodenbedeckung durch Ernterückstände ist bisher jedoch ungelöst. Obwohl in früheren Untersuchungen Texturmerkmale oder Farbunterschiede erfolgreich genutzt wurden, um den Bedeckungsgrad zu bestimmen, wird eine Bedienperson zur interaktiven Festlegung bestimmter Parameter benötigt. Um den Prototypen eines onlinefähigen Kamerasensors zu entwickeln, wurden geeignete Ausrüstung und Bedingungen zur Bildaufnahme untersucht und verschiedene Auswertealgorithmen mit Hilfe einer wissenschaftlichen Bildanalysesoftware geschrieben und getestet: • Da im Nahinfraroten zwischen ca. 800 und 1400 nm der größte Intensitäts-Kontrast zwischen Stroh und Boden besteht wurde zur Bildaufnahme eine Schwarz-Weiss-CCD-Kamera mit aufgesetztem Infrarotfilter gewählt. Eine Diffusor-Box sorgte für homogene Beleuchtungsbedingungen. • Zwei auf Kantendetektion und automatischer Schwellwertsetzung basierende Versionen („A“ und „B“) eines „klassischen“ Segmentierungsalgorithmus wurden geschrieben. Durch einen iterativen Ansatz konnten geeignete Thresholding-Verfahren abhängig von der Größenordnung der Bodenbedeckung verwendet werden. Die zur Online-Regelung der Bearbeitungstiefe nötige Beschränkung der Prozesslaufzeit auf ca. 1000 ms/Bild konnte eingehalten werden. • Eine alternative automatisierbare Kontrollmethode wurde entwickelt, welche Merkmale der Grauwerthistogramme der Stroh/Boden-Bilder auswertet (Algorithmus „C“). Dieser Ansatz ist nochmals deutlich schneller als eine Bildsegmentierung (ca. 5 – 10 Bilder/s). • Der Sensor wurde an einem Quad montiert und die Bodenbedeckung auf drei Testfeldern untersucht. Zwischen den Messergebnissen eines Algorithmus vom Typ A/B und dem Ansatz C wurde eine Pearson-Korrelation von 0,967 für die Messwertegesamtheit gefunden. • Auf Versuchsparzellen mit definiert aufgebrachten Strohmengen (ein weiteres Teil-projekt) wurden an GPS-referenzierten Punkten Bilder mit dem Sensor aufgenommen und Referenzmessungen mit der visuellen Gitterraster-Methode durchgeführt. Zwischen der Bildverarbeitung (A, B) und dem Gitter ergaben sich befriedigende Pearson-Korrelationen im Bereich von 0,7 – 0,8. Allerdings waren für hohe Bedeckungen die Ergebnisse des Sensors meist signifikant niedrigere als der Mittelwert von drei das Gitter auszählenden Personen. Eine Kontrolle mit Ansatz C ergab, dass die Histogramm-Merkmale der einzelnen Bilder deutlich besser mit den per Bildverarbeitung ermittelten Bedeckungsgraden korrelierten als mit den Gittermessungen. – Insgesamt erwies sich die schnelle Bildverarbeitung als geeignet für den Einsatz als neue Referenzmethode zur Messung der Bodenbedeckung durch Ernterückstände. • Da der Aufbau des Sensors ohne die Diffusor-Box praxisgerechter ist, besteht weiterer Forschungsbedarf in Bezug auf die dann auftretenden Probleme durch stark wechselnde Beleuchtung und Schattenwurf. • In einem letzten Schritt wurde der Kamerasensor erfolgreich in ein bereits entwickeltes System zur teilflächenspezifischen Bodenbearbeitung an der Universität Kiel integriert. Eine Regelung der Arbeitstiefe durch den Kamerasensor war problemlos möglich, allerdings gilt es noch belastbare Kriterien für die Vorgabe von Tiefen-Sollwerten in Abhängigkeit vom Bedeckungsgrad zu entwickeln.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ziel dieser Arbeit war es, die Bedeutung des C und N mit Herkunft aus der Rhizodeposition für das mikrobielle Wachstum und den C- und N-Umsatz in der Rhizosphäre in Abhängigkeit von der Entfernung zur Wurzel zu untersuchen. Dazu wurde als wesentliche methodische Voraussetzung ein künstliches Rhizosphärensystem entwickelt, um die durch die Rhizodeposite induzierten Prozesse an der Grenzfläche zwischen Wurzeloberfläche und Boden zu untersuchen. Dieses eingesetzte Rhizosphärensystem wurde nach einem Vorbild eines in schon vielfältigen Untersuchungen der Rhizosphäre eingesetzten Systems von GAHOONIA und NIELSEN (1991) konzipiert. Zur Verfolgung der pflanzlichen C- und N-Rhizodeposition im Boden wurden 13C- und 15N-Tracer-Isotopen-Techniken zur Isotopenmarkierung der Testpflanzen eingesetzt. Zur Probenahme des Rhizosphärenbodens in räumlichen Abstand zur künstlichen Rhizoplane wurde eine Schneidvorrichtung nach FITZ et al. (2003) eingesetzt, die es ermöglicht frische Bodenproben in definiertem Abstand zur künstlichen Rhizoplane zu schneiden. Das Rhizosphärensystem wurde in 13C- und 15N-Doppelmarkierungsexperimenten mit Lolium perenne, Triticum aestivum und Avena sativa eingesetzt.Das unterschiedliche Ansprechen der mikrobiellen Gemeinschaft auf den Substrateintrag in unterschiedlicher Entfernung zur Wurzel zeigte komplexe Wechselwirkungen in Bezug auf das mikrobielle Wachstum, den mikrobiellen Umsatz, den Substrateintrag aus der Rhizodeposition und den stimulierten Abbau der nativen organischen Bodensubstanz. Der Eintrag von Rhizodepositen stellt daher eine bedeutende Funktion in der Regulation der mikrobiellen Biomasse und der Prozesse des Umsatzes der organischen Bodensubstanz während und wahrscheinlich bis nach der Vegetationsperiode dar. Die simultane Verfolgung von Rhizodepositions-C und -N im Boden und deren Funktionen innerhalb der Rhizosphäre, gerade im Hinblick auf die mikrobielle Biomasse und den Umsatz der organischen Substanz im Boden, führt zu einem besseren Verständnis der komplexen wechselseitigen Prozesse zwischen Pflanze und Boden.

Relevância:

10.00% 10.00%

Publicador: