28 resultados para Verein zur Beförderung des Gartenbaues in den Köni
Resumo:
Die technischen Oberflächen werden oft als Bauteilversagungsorte definiert. Deswegen ist eine optimale Ausnutzung der Werkstoffeigenschaften ohne mechanische Oberflächenbehandlungsverfahren nicht mehr wegzudenken. Mechanische Randschichtoptimierungsverfahren sind vergleichsweise einfach, Kosten sparend und hocheffektiv. Gerade das Festwalzen wird wegen seiner günstigen Auswirkungen wie die exzellente Oberflächengüte, die hohen Druckeigenspannungen sowie die hohe Oberflächenverfestigung zunehmend an Bedeutung gewinnen. Außerdem wird durch das Festwalzen in einigen Legierungen eine nanokristalline Oberflächenschicht gebildet. Diese brillanten Eigenschaften führen nach einer mechanischen Oberflächenbehandlung zur Erhöhung des Werkstoffwiderstandes unter anderem gegen Verschleiß, Spannungsrisskorrosion und insbesondere zur Steigerung der Schwingfestigkeit. Ein etabliertes Beispiel zur Steigerung der Schwingfestigkeit ist das Festwalzen von Achsen und Kurbelwellen. Auch solche komplexen Komponenten wie Turbinenschaufeln werden zur Schwingfestigkeitssteigerung laserschockverfestigt oder festgewalzt. Die Laserschockverfestigung ist ein relativ neues Verfahren auf dem Gebiet der mechanischen Oberflächenbehandlungen, das z.B. bereits in der Flugturbinenindustrie Anwendung fand und zur Schwingfestigkeitsverbesserung beiträgt. Das Verfahrensprinzip besteht darin, dass ein kurzer Laserimpuls auf die zu verfestigende, mit einer Opferschicht versehene Materialoberfläche fokussiert wird. Das Auftreffen des Laserimpulses auf der verwendeten Opferschicht erzeugt ein expandierendes Plasma, welches eine Schockwelle in randnahen Werkstoffbereichen erzeugt, die elastisch-plastische Verformungen bewirkt. Eine konsekutive Wärmebehandlung, Auslagerung nach dem Festwalzen, nutzt den statischen Reckalterungseffekt. Hierdurch werden die Mikrostrukturen stabilisiert. Die Änderung der Mikrostrukturen kann jedoch zu einer beträchtlichen Abnahme der mittels Festwalzen entstandenen Druckeigenspannungen und der Kaltverfestigungsrate führen. Das Festwalzen bei erhöhter Temperatur bietet eine weitere Möglichkeit die Schwingfestigkeit von metallischen Werkstoffen zu verbessern. Die Mikrostruktur wird durch den Effekt der dynamischen Reckalterung stabilisiert. Die Effekte beim Festwalzen bei erhöhten Temperaturen sind ähnlich dem Warmstrahlen. Das Festwalzen erzeugt Oberflächenschichten mit sehr stabilen Kaltverfestigungen und Druckeigenspannungen. Diese Strukturen haben viele Vorteile im Vergleich zu den durch rein mechanische Verfahren erzeugten Strukturen in Bezug auf die Schwingfestigkeit und die Stabilität der Eigenspannungen. Die Aufgabe der vorliegenden Dissertation war es, Verfahren zur Verbesserung der Schwingfestigkeit im Temperaturbereich zwischen Raumtemperatur und 600 °C zu erforschen. Begleitende mikrostrukturelle sowie röntgenographische Untersuchungen sollen zum Verständnis der Ursachen der Verbesserung beitragen. Für diese Arbeit wurde der in der Praxis häufig verwendete Modellwerkstoff X5CrNi18-10 ausgewählt. Als Randschichtverfestigungsverfahren wurden das Festwalzen, eine Kombination der mechanischen und thermischen, thermomechanischen Verfahren auf der Basis des Festwalzens und eine Laserschockverfestigung verwendet.
Resumo:
Hintergrund und Ziel: Ausgehend von einem Forschungsdefizit im Bereich von Performance-Tests, das von der Arbeitsgruppe um Bührlen et al. (2002) gekennzeichnet wurde, war es das Ziel der Arbeit einen Performance-Tests of lower limb activities (Polla) zu validieren. Methode: In einer Längsschnittstudie wurden die Ergebnisse einer sechswöchigen physiotherapeutischen Behandlung an einem 19-75jährigem orthopädisch-traumatologisch orientierten Patientenkollektiv (n=81) mit dem Polla und dem SF-36 Fragebogen erfasst. Ergebnisse: Die Ergebnisse machen eine gute Absicherung der Teststatistik deutlich. Bei ausgezeichneter Intrarater- (n=29) sowie guter Interrater-Reliabilität (n=32) weist die Konsistenzanalyse eine zufrieden stellende Zuverlässigkeit auf. Die Kriteriumsvalidität macht moderate Zusammenhänge zwischen dem Polla und den Dimensionen Schmerz, Körperliche Rollenfunktion und Körperliche Funktionsfähigkeit des SF-36 deutlich. Über die Standardized Response Mean zeigen die Instrumente eine große Änderungssensitivität, die nur für den Polla auch zum Follow-up (n=26) gilt. Schlussfolgerung: Der Polla ist ein kostenloses Testverfahren mit hoher praktischer Relevanz, wobei aus zeitökonomischen Gründen eine modifizierte Form des Polla mit nur zehn Items und einem gemessenen Test zu empfehlen ist.
Resumo:
Im Rahmen der vorliegenden Arbeit wurde eine detaillierte phylogenetische Analyse der Ameisenpflanzen aus der Gattung Macaranga (Euphorbiaceae) und ihres verwandtschaftlichen Umfelds mit Hilfe von AFLP-Fingerprinting („amplified fragment length polymorphisms“) sowie vergleichender Analyse von mehreren nichtkodierenden Chloroplasten-DNA-Loci vorgenommen. Anhand dieser Untersuchungen sollten im Wesentlichen die folgenden Fragen geklärt werden: (1) Wie stellen sich die Verwandtschaftsverhältnisse zwischen den myrmekophytischen Macaranga-Sektionen Pachystemon, Winklerianae und Pruinosae dar? (2) Wie sind die einzelnen Arten dieser Sektionen miteinander verwandt? (3) Wie oft ist die Lebensweise ”Myrmekophytie” unabhängig voneinander entstanden? Gibt es Hinweise auf Reversionen? (4) Wo liegt genealogisch und auch geographisch der Ursprung der Symbiose zwischen den myrmekophytischen Macaranga-Arten und ihren Partnerameisen? (5) Welche Bedeutung spielen koevolutive Entwicklungen für das Macaranga-Crematogaster-Symbiosesystem? Ist Myrmekophytie im Sinne einer Schlüsselinnovation (Givnish, 1997) als Stimulus für eine adaptive Radiation zu betrachten? (1) Für die AFLP-Analyse wurden 108 Proben aus 43 Macaranga-Arten und 5 unbeschriebenen Morphospezies in die phylogenetische Untersuchung einbezogen. Auf der Basis von 426 Merkmalen wurden Phänogramme sowie Kladogramme rekonstruiert. Zur statistischen Absicherung wurden Bootstrap-Analysen durchgeführt und im Falle der Kladogramme darüber hinaus der „consistency“-Index bestimmt. Die AFLP-Datensätze wurden zusätzlich einer Hauptkomponentenanalyse unterzogen. Mit Hilfe der verschiedenen Untersuchungsmethoden konnten weitgehend übereinstimmende Gruppierungen bzw. evolutive Linien identifiziert werden. Die Sektionen Pachystemon und Pruinosae bilden eine jeweils gut gestützte monophyletische Gruppe. Beide sind vermutlich Schwestergruppen und damit gleich alt. Für die Monophylie der nur aus zwei Arten bestehenden Sektion Winklerianae ergab sich keine Unterstützung. Die Arten der Sektion Pruinosae sind im AFLP-Baum gut aufgelöst. Die nicht myrmekophytische M. gigantea sitzt dabei an der Basis und ist Schwestergruppe zu den myrmekophytischen Arten. Innerhalb der Sektion Pachystemon wurden mit Hilfe der AFLP-Analyse vier gut gestützte Gruppen identifiziert. Für die puncticulata-Gruppe konnte hier erstmals auf molekularer Ebene eine Zugehörigkeit zur Sekt. Pachystemon nachgewiesen werden. Der von Davies (2001) vorgenommene Ausschluss von M. recurvata aus der Sekt. Pachystemon konnte bestätigt werden. Die Verwandtschaftsbeziehungen einzelner Arten zueinander sind in den AFLP-Bäumen nicht aufgelöst. (2) Für die vergleichende Chloroplasten-Sequenzierung wurden nach Maßgabe der Sequenzvariabilität in Testsequenzierungen die Bereiche atpB-rbcL und psbI-trnS für die phylogenetische Untersuchung ausgewählt. Für die Chloroplasten-Phylogenie wurden für jeden Locus mehr als 100 Sequenzen analysiert. Neben 29 Pachystemon-Arten inkl. vier unbekannter Morphospezies, acht Pruinosae-Arten inkl. eines möglichen Hybriden und den beiden Arten der Sekt. Winklerianae wurden 22 weitere Macaranga- und 10 Mallotus-Arten in die Untersuchung einbezogen. Zwischen den südostasiatischen Arten bestanden nur geringe Sequenzunterschiede. Maximum-Parsimonie-Kladogramme wurden rekonstruiert und die Sequenzen der beiden Loci wurden sowohl einzeln, als auch kombiniert ausgewertet. Indels wurden kodiert und als separate Merkmalsmatrix an die Sequenzdaten angehangen. Innerhalb von Macaranga konnten nur wenige abgesicherte Gruppen identifiziert werden. Deutlich war die Zusammengehörigkeit der afrikanischen Arten und ihr Entstehung aus den südostasiatischen Arten. Die von Davies (2001) der Sektion Pruinosae zugeordnete M. siamensis steht deutlich außerhalb dieser Sektion. Die Arten der Sektionen Pruinosae, Pachystemon und Winklerianae bilden keine statistisch gesicherten monophyletischen Gruppen. Während der Pilotstudien stellte sich heraus, dass die Chloroplastensequenzen nahe verwandter Arten der Sektion Pachystemon weniger nach den Artgrenzen, sondern vielmehr nach geographischen Kriterien gruppierten. (3) Es wurde daher zusätzlich eine phylogeographische Analyse der Chloroplasten-Sequenzen auf der Basis eines Parsimonie-Netzwerks durchgeführt. Neben dem atpB-rbcL-Spacer und einer Teilsequenze des psbI-trnS-Locus (ccmp2) wurde dafür zusätzlich der ccmp6-Locus (ein Abschnitt des ycf3-Introns) sequenziert. Die phylogeographische Untersuchung wurde mit 144 Proben aus 41 Macaranga-Arten durchgeführt. Darin enthalten waren 29 Arten (inkl. vier Morphospezies) mit 112 Proben der Sektion Pachystemon, sieben 7 Arten (inkl. eines potentiellen Hybriden) mit 22 Proben der Sekt. Pruinosae und zwei Arten mit 5 Proben der Sekt. Winklerianae. Das voll aufgelöste statistische Parsimonie-Netzwerk umfasste 88 Haplotypen. Die Sektionen Pachystemon und Pruinosae bilden jeweils eine monophyletische Gruppe. Das geographische Arrangement der Haplotypen unabhängig von der Artzugehörigkeit könnte durch Introgression und/oder „lineage sorting“ bedingt sein. Mit Hilfe der im Rahmen dieser Arbeit gewonnenen Ergebnisse kann man davon ausgehen, dass eine enge Ameisen-Pflanzen-Symbiose innerhalb der Gattung Macaranga mindestens drei-, möglicherweise viermal unabhängig voneinander entstanden ist Eine Reversion hat mindestens einmal, möglicherweise häufiger in der bancana-Gruppe stattgefunden. Ob sich die Symbiose dabei in Westmalaysia oder in Borneo entwickelt hat, kann man nicht sicher sagen; Ob und inwieweit die große Artenzahl in der bancana-Gruppe als eine Folge der Myrmekophytie anzusehen ist, bleibt zunächst offen. Wesentliche Teile der vorliegenden Arbeit liegen bereits in publizierter Form vor (AFLP-Analyse: Bänfer et al. 2004; Chloroplasten-Analyse: Vogel et al. 2003; Bänfer et al. 2006).
Resumo:
Autistische Phänomene haben seit ihrer Entdeckung (Kanner 1943, Asperger 1944) Wissenschaftler verschiedener Disziplinen immer wieder beschäftigt: Psychiater, Neurowissenschaftler, kognitive Psychologen, Säuglingsforscher, Evolutionspsychologen und Psychoanalytiker haben sich sowohl mit der Beschreibung des Krankheitsbildes wie auch mit den psychischen Prozessen, die bei autistischen Phänomenen vorhanden sind, befasst. Wenn man von einem globalen interdisziplinären Ergebnis der Autismus-Forschung sprechen wollte, könnte man behaupten, dass diese sich als eine Möglichkeit anbot, ein umfassenderes Verständnis für psychische Vorgänge im Allgemeinen zu entwickeln. Die Psychoanalyse als eine „Wissenschaft der Subjektivität“ (Meissner 1983) hat eine lange Tradition in der Entwicklung von Theorie- und Behandlungsansätzen entwickelt. Die kognitiv-psychologischen Untersuchungen haben sich ebenfalls ausführlich mit autistischen Phänomenen befasst. Diese Arbeit stellt einen Versuch dar, eine Fragestellung zu entwickeln, die das psychoanalytische Verständnis autistischer Phänomene mit Auffassungen kognitions-psychologischer Autoren zu verbinden und zu vergleichen sucht. Aus der Sichtweise der Psychoanalyse ist das ein Versuch, die interne bzw. narrative Kohärenz (Leuzinger-Bohleber 1995) psychoanalytischen Verständnisses durch die externe Kohärenz des interdisziplinären Dialoges mit einer anderen Wissenschaft her zu stellen. Zugrunde liegt der Versuch einer Vernetzung verschiedener Erkenntnisse im Sinne verschiedener Modelle, die sich gegenseitig bereichern können. Dem Begriff der Theory of Mind, deren Beeinträchtigung von Kognitionswissenschaftlern (Baron-Cohen 1993, 1995; Baron-Cohen et.al. 1985; Hobson 1993, 2007; Frith 1989, 2003) in der Autismusforschung als grundlegendes Merkmal betrachtet wird, werde ich die psychodynamische Betrachtung (Tustin 1972, 1995; 1981, 1989; 1991; Meltzer 1975; Bion 1962, 1992) gegenüber stellen, die eher von einer Dysfunktion projektiv-identifikatorischer Prozesse (-PI) ausgeht, die sich in einem scheinbaren Mangel an diesen Prozessen äußert. Den von Baron-Cohen entwickelten Parametern, die eine phänomenologische Betrachtung autistischer Phänomene ermöglichen, werde ich die intrapsychische und objektbezogene psychoanalytische Betrachtungsweise gegenüberstellen, die postuliert, dass die Projektive Identifizierung als psychisches Phänomen, das der unbewussten averbalen Kommunikation zugrunde liegt, in autistischen Manifestationen beeinträchtig zu sein scheint. Da die Fähigkeit, psychische Phänomene in sich selbst und in anderen wahrzunehmen, der Psyche immanenteste Eigenschaft und gerade in autistischen Phänomenen beeinträchtigt ist, kann die psychoanalytische Konzeptbildung, die sich mit der Struktur des Psychischen und deren prozesshaftem Charakter befasst, den verschiedenen Disziplinen und auch der Autismus Forschung wichtige Anregungen geben. Anhand einer Einzelfalldarstellung, aus der sich psychodynamische Hypothesen entwickelten, die zu einem psychoanalytischen Verständnis führten, versuche ich, eine gewisse Korrespondenz mit Hypothesen aus der „embodied“ kognitiven Psychologie, wie z.B. die Rolle der Projektiven Identifizierung in der Bildung einer „Theory of Mind“ und ihre Beeinträchtigung (-PI) bei autistischen Phänomenen (Mindblindness, Baron-Cohen) herzustellen.
Resumo:
Die Reduktion von Schadstoff-Emissionen und des Kraftstoffverbrauches sind für die Einhaltung von immer strenger werdenden Abgasgrenzwerten zum Schutz der menschlichen Gesundheit und der Vegetation von großer gesellschaftlicher Bedeutung. Ob Deutschland die innerstädtischen Immissionsgrenzwerte der Europäischen Union (EU) für Stickstoffdioxid (NO2) ab 2010 einhalten wird, ist fraglich. Vor allem Lastkraftwagen mit Dieselmotor emittieren einen Großteil dieses Schadstoffes, sodass man mit einer Senkung der NO2-Emissionen dem gesetzten Ziel der Einhaltung der von der EU festgelegten NO2-Immisionsgrenzwerte bereits erheblich näher kommen würde. Ziel dieser Arbeit war es zu untersuchen, ob mit der Kenntnis der NO2-Konzentration im Abgas von Lastkraftwagen mit Dieselmotor mittels Spektroskopie eine Reduzierung der NO2-Emissionen und eine Senkung des Kraftstoffverbrauches erreicht werden kann. Hierzu muss sowohl die Bestimmung der NO2-Konzentration aus der spektralen Analyse des Abgases möglich sein, als auch die Herstellung eines mikromechanisch durchstimmbaren optischen Fabry-Pérot-Filters mit Bragg-Spiegeln, der die Voraussetzungen erfüllt, das für die spektrale Analyse benötigte Spektrum quantifizieren zu können. Zusätzlich soll mit Hilfe der aus den Spektren extrahierten Information eine in Echtzeit gemessene NO2-Konzentration im Abgas ableitbar sein. Damit sollen Kraftstoff eingespart und Schadstoff-Emissionen reduziert werden. Hierfür wird am Beispiel eines Lastkraftwagens mit typischer Abgasnachbehandlung aufgezeigt, wie über innermotorische Maßnahmen die Verbrennung optimierbar ist und wie die Eigenschaften der Abgasnachbehandlung verbesserbar sind, sodass die gewünschten Senkungen erreicht werden. Zusätzlich kann auf den Einbau eines Sperrkatalysators im Abgasstrang verzichtet werden. Ferner reduziert sich auch der Verbrauch des für die Abgasnachbehandlung benötigten Harnstoffs. Zur Klärung, ob die NO2-Konzentration aus der spektralen Analyse des Abgases bestimmt werden kann, wurden an einem Motorprüfstand Spektren für verschiedene NO2-Konzentrationen gemessen. Zusätzlich wurde das in dieser Arbeit behandelte Sensor-System mittels mathematischer Modellrechnung beschrieben, sodass dieses Modell anschließend auf die am Motorprüfstand gemessenen Spektren angewendet werden konnte. Die auf diese Weise berechneten Ergebnisse wurden mit den NO2-Messungen am Motorprüfstand verglichen und zeigen eine große Korrelation. In dem mathematischen Modell wird auch die spektrale Auflösung des Sensors berücksichtigt, die vom optischen Filter erreicht werden muss. Es wurde in dieser Arbeit untersucht, ob ein solches Filter realisiert werden kann. Hierzu wurde unter Anwendung der Transfer-Matrix-Methode (TMM) zur Berechnung optischer Eigenschaften von Dünnschichtsystemen eine Struktur entwickelt, die den optischen Anforderungen an das Filter genügt. Grundlage für dieses Design ist ein mikromechanisch durchstimmbares Fabry-Pérot-Filter mit Bragg-Spiegeln. Zur Herstellung dieses mikromechanisch durchstimmbaren, optischen Filters wurde eine Prozesskette entwickelt, mit der Filter mit einer Transmission von über 60 % hergestellt wurden. Die mit dieser Prozesskette hergestellten Strukturen wurden topografisch und optisch charakterisiert. Der Vergleich der gemessenen Ergebnisse mit theoretischen Modellrechnungen zeigt eine hohe Übereinstimmung, sodass mit der verwendeten Methodik gute Prognosen von Filtereigenschaften getroffen werden können. Es kann außerdem ein verbessertes Design präsentiert werden, welches eine um 10 % höhere Transmission und ein doppelt so großes Auflösungsvermögen gegenüber dem ursprünglichen Design aufweist. Verbesserungspotenziale in der Prozesskette können präsentiert werden, mit denen die optischen und mechanischen Eigenschaften zukünftiger Filter optimiert werden können. Es wird gezeigt, dass ein optisches Filter hergestellt werden kann, mit dem die NO2-Konzentration im Abgas von Lastkraftwagen mit Dieselmotoren spektroskopisch bestimmt werden kann, sodass der Kraftstoffverbrauch gesenkt und die Schadstoffemissionen reduziert werden können. In Abgasnormen sind einzuhaltende NOX-Grenzwerte festgelegt. Sollten in Zukunft auch NO2-Emissionsgrenzwerte in den Abgasnormen festgelegt werden, kann deren Einhaltung mit dem vorgestellten Sensor-Prinzip überwacht werden. Auf diese Weise wird die Chance auf Einhaltung der NO2-Immissionsgrenzwerte der EU maßgeblich erhöht.
Resumo:
Die vorliegende Arbeit ist Teil eines Verbund-Forschungsprojektes mit dem Ziel, eine Präzisions-Bodenbearbeitung in Abhängigkeit von verschiedenen Bodenparametern sowie dem Bodenbedeckungsgrad zu realisieren. Ziel dieses Teilprojektes war die Bereitstellung einer Online-Messung des Bedeckungsgrades, um die Bearbeitungsintensität während der Feldüberfahrt regeln zu können: Ein Kamerasensor vorne am Schlepper ermittelt die Bodenbedeckung und ein Tiefen-Sollwert wird an das Regelsystem eines Gerätes zur teilfächenspezifischen Bodenbearbeitung ausgegeben. Da unter Feldbedingungen Methoden zur Bedeckungsgradmessung nur relativ zueinander verglichen werden können, wurde zunächst ein Laborvergleich mit wohldefinierten Bodenbedeckungen durchgeführt, um die prinzipiellen Stärken und Schwächen von Bildanalyse sowie zwei visuellen Methoden (Gitterraster-Methode und „Meterstick-Methode“) zu ermitteln: • Eine visuelle Methode, die auf einer begrenzten Anzahl von einfachen Stichprobenbeobachtungen beruht (Gitter), überschätzte den Bedeckungsgrad systematisch, wobei dieser Effekt unter Feldbedingungen vermutlich klein gegenüber der bekannten Schwankungsbreite zwischen Messungen verschiedener Beobachter ist. • Eine visuelle Methode, die auch Größe und Orientierung des Strohs berücksichtigt (Meterstick), lieferte präzise mittlere Messwerte. Diese Methode war die mit Abstand arbeitsaufwändigste. • Nach einer einfachen Korrektur des Abbildungsfehlers des Kameraobjektivs war auch die Bildverarbeitungs-Methode in der Lage, die bekannten tatsächlichen Bedeckungsgrade exakt darzustellen, bei gleichzeitig der geringsten Schwankungsbreite der Messwerte. Die Online-Messung der Bodenbedeckung durch Ernterückstände ist bisher jedoch ungelöst. Obwohl in früheren Untersuchungen Texturmerkmale oder Farbunterschiede erfolgreich genutzt wurden, um den Bedeckungsgrad zu bestimmen, wird eine Bedienperson zur interaktiven Festlegung bestimmter Parameter benötigt. Um den Prototypen eines onlinefähigen Kamerasensors zu entwickeln, wurden geeignete Ausrüstung und Bedingungen zur Bildaufnahme untersucht und verschiedene Auswertealgorithmen mit Hilfe einer wissenschaftlichen Bildanalysesoftware geschrieben und getestet: • Da im Nahinfraroten zwischen ca. 800 und 1400 nm der größte Intensitäts-Kontrast zwischen Stroh und Boden besteht wurde zur Bildaufnahme eine Schwarz-Weiss-CCD-Kamera mit aufgesetztem Infrarotfilter gewählt. Eine Diffusor-Box sorgte für homogene Beleuchtungsbedingungen. • Zwei auf Kantendetektion und automatischer Schwellwertsetzung basierende Versionen („A“ und „B“) eines „klassischen“ Segmentierungsalgorithmus wurden geschrieben. Durch einen iterativen Ansatz konnten geeignete Thresholding-Verfahren abhängig von der Größenordnung der Bodenbedeckung verwendet werden. Die zur Online-Regelung der Bearbeitungstiefe nötige Beschränkung der Prozesslaufzeit auf ca. 1000 ms/Bild konnte eingehalten werden. • Eine alternative automatisierbare Kontrollmethode wurde entwickelt, welche Merkmale der Grauwerthistogramme der Stroh/Boden-Bilder auswertet (Algorithmus „C“). Dieser Ansatz ist nochmals deutlich schneller als eine Bildsegmentierung (ca. 5 – 10 Bilder/s). • Der Sensor wurde an einem Quad montiert und die Bodenbedeckung auf drei Testfeldern untersucht. Zwischen den Messergebnissen eines Algorithmus vom Typ A/B und dem Ansatz C wurde eine Pearson-Korrelation von 0,967 für die Messwertegesamtheit gefunden. • Auf Versuchsparzellen mit definiert aufgebrachten Strohmengen (ein weiteres Teil-projekt) wurden an GPS-referenzierten Punkten Bilder mit dem Sensor aufgenommen und Referenzmessungen mit der visuellen Gitterraster-Methode durchgeführt. Zwischen der Bildverarbeitung (A, B) und dem Gitter ergaben sich befriedigende Pearson-Korrelationen im Bereich von 0,7 – 0,8. Allerdings waren für hohe Bedeckungen die Ergebnisse des Sensors meist signifikant niedrigere als der Mittelwert von drei das Gitter auszählenden Personen. Eine Kontrolle mit Ansatz C ergab, dass die Histogramm-Merkmale der einzelnen Bilder deutlich besser mit den per Bildverarbeitung ermittelten Bedeckungsgraden korrelierten als mit den Gittermessungen. – Insgesamt erwies sich die schnelle Bildverarbeitung als geeignet für den Einsatz als neue Referenzmethode zur Messung der Bodenbedeckung durch Ernterückstände. • Da der Aufbau des Sensors ohne die Diffusor-Box praxisgerechter ist, besteht weiterer Forschungsbedarf in Bezug auf die dann auftretenden Probleme durch stark wechselnde Beleuchtung und Schattenwurf. • In einem letzten Schritt wurde der Kamerasensor erfolgreich in ein bereits entwickeltes System zur teilflächenspezifischen Bodenbearbeitung an der Universität Kiel integriert. Eine Regelung der Arbeitstiefe durch den Kamerasensor war problemlos möglich, allerdings gilt es noch belastbare Kriterien für die Vorgabe von Tiefen-Sollwerten in Abhängigkeit vom Bedeckungsgrad zu entwickeln.
Resumo:
Die Konvektionstrocknung ist eine der ältesten Methoden zur Konservierung von Lebensmitteln. Es ist bekannt, dass Agrarprodukte temperaturempfindlich sind. Bei Überhitzung erleiden sie chemische und physikalische Veränderungen, die ihre Qualität vermindern. In der industriellen Praxis wird die Konvektionstrocknung in der Regel auf Grundlage empirisch ermittelter Werte durchgeführt, welche die Produkttemperatur nicht berücksichtigen. Es ist deshalb nicht sichergestellt, ob der Prozess optimal oder auch nur gut betrieben wird. Inhalt dieser Arbeit ist ein Vergleich der klassischen einstufigen Konvektionstrocknung mit einer Prozessführungsstrategie bei der die Produkttemperatur als Regelgröße eingeführt wird. Anhand der Untersuchung des Trocknungsverhaltens von Äpfeln werden die beiden Verfahren analysiert, die erhaltenen Ergebnisse miteinander verglichen und daraus optimierte Trocknungsbedingungen abgeleitet. Die für dieses Projekt entwickelte Prozessanlage erlaubt die simultane Untersuchung sämtlicher wesentlicher Temperaturen, der Gewichtsveränderung und der optischen Qualitätskriterien. Gleichzeitig ist es möglich, entweder die Lufttemperatur oder die Temperatur des Produktes zur regeln, während die jeweils andere Größe als Messwert erfasst wird. Es kann weiterhin zwischen Durch- und Überströmung gewählt werden.
Resumo:
Nachdem sich in der Kolonialkrise von 1906 das Scheitern der ersten Periode deutscher Kolonialherrschaft (1885-1906) offenbarte, wurde Bernhard Dernburg die grundlegende Reorganisation der Kolonialpolitik anvertraut. Als Mann aus der Welt der Banken und Finanzen sollte er die stagnierende Entwicklung der Kolonien mit Hilfe von administrativen und wirtschaftlichen Reformmaßnahmen vorantreiben und gleichzeitig der indigenen Bevölkerung eine humane Behandlung zu garantieren. Um diese Ziele zu erreichen, verabschiedete er Reformen, die eine Rationalisierung und Humanisierung der Arbeiterpolitik vorsahen. Sowohl in der zeitgenössischen Literatur als auch in der aktuellen wissenschaftlichen Forschung wird der Amtsantritt Bernhard Dernburgs zum Leiter der Kolonialabteilung im Jahre 1906 als der „Beginn einer neuen humanen Ära“ deutscher Kolonialpolitik oder als „Wandel zum Besseren“ bezeichnet. Die Dissertation „Schwarzer Untertan versus Schwarzer Bruder. Bernhard Dernburgs Reformen in den Kolonien Deutsch-Ostafrika, Deutsch-Südwestafrika, Togo und Kamerun“ untersucht die Intention, Akzeptanz, Umsetzung und Auswirkung der reformatorischen Eingeborenenpolitik und klärt, ob die Beurteilung der Ära Dernburg (1906-1910) in der zeitgenössischen und aktuellen Forschung eine Berechtigung hat. Obwohl zumindest in der Theorie sein Konzept einer rationalen und humanen Kolonialpolitik sicherlich eine Abkehr von der bisher betriebenen Kolonialpolitik bedeutete, zeigt sich jedoch bei der Umsetzung der Reformen eine deutliche Diskrepanz zwischen Intention und Realität. Auch wenn zumindest die Bestrebung Dernburgs zur Verrechtlichung der indigenen Arbeitsverhältnisse gewürdigt werden sollte, so muss doch konstatiert werden, dass es in der „Ära Dernburg“ definitiv nicht zu einer grundlegenden Verbesserung der indigenen Lebenssituation in den deutschen Kolonien kam. Im Gegenteil, die Dernburgsche Reformpolitik beschleunigte vielmehr den Verelendungsprozess der indigenen Bevölkerung. In allen afrikanischen Kolonien verschlechterten sich mit der Intensivierung der Verwaltung die sozialen und menschlichen Beziehungen zwischen Afrikanern und Europäern. Vieles von dem, was Dernburg in seinem Programm propagierte, konnte nicht erreicht werden. Zwar führte Dernburg in Deutsch-Ostafrika, Deutsch-Südwestafrika und in Kamerun eine rechtlich bindende Arbeiterverordnung ein, jedoch unterschieden sich die Bestimmungen zum Teil erheblich voneinander, so dass von einer einheitlichen Modernisierung des kolonialen Arbeitsrechts nicht die Rede sein kann. Viele arbeitsrechtliche Bereiche, wie z.B. die Arbeiteranwerbung, Lohnzahlung, Minderjährigenschutz, Vertragsdauer, Arbeitszeit, Verpflegung und Unterkunft wurden nur unzureichend geregelt. Ähnlich negativ muss auch die Reformierung der Strafrechtspflege bewertet werden. Die Kodifizierung eines Eingeborenenstrafrechts scheiterte sowohl am Widerstand der lokalen Verwaltung als auch am Grundkonsens der Rechtmäßigkeit einer Rassenjustiz. Kolonialpolitik war auch in der „Ära Dernburg“ nichts anderes als „rohe Ausbeutungspolitik“, die zur Lösung der Arbeiterfrage beitragen sollte. Aber gerade hier, bei der Mobilisierung von afrikanischen Lohnarbeitern, war der Kolonialstaatssekretär nicht etwa mit einer „Arbeiterfürsorgepolitik“, sondern mit der Fortführung der Enteignungs- und Zwangsmaßnahmen erfolgreich gewesen. Insgesamt ist ein deutlicher Anstieg an afrikanischen Arbeitern in europäischen Unternehmen zu verzeichnen, was darauf schließen lässt, dass Dernburgs Verordnungen einen günstigen Einfluss auf die Arbeiterfrage ausgeübt haben. Obwohl nicht von einem grundlegenden Neuanfang der Kolonialpolitik gesprochen werden kann, sollte ebenso wenig bezweifelt werden, dass sich die deutsche Kolonialpolitik nicht unter Dernburg veränderte. Größere indigene Aufstände und Unruhen blieben aus, so dass während seiner Amtszeit eine systematische wirtschaftliche Erschließung der Kolonien beginnen konnte.
Resumo:
Die soziale Waldamöbe Dictystelium discoideum ist ein etablierter Modellorganismus zur Erforschung grundlegender zellbiologischer Prozesse. Innerhalb der letzten Jahre konnte dabei insbesondere das Wissen zum Lipidmetabolismus umfassend erweitert werden. In diesem Zusammenhang spielt besonders eine Enzymgruppe eine wichtige Rolle: die LC/VLC-Acyl-CoA-Synthetasen. Diese übernehmen dabei die Aufgabe Fettsäuren zu aktivieren, um sie so dem Zellmetabolismus überhaupt erst zugänglich zu machen. D. discoideum verfügt über insgesamt vier dieser Enzyme: FcsA, FcsB, FcsC und das Bubblegum-Enzym Acsbg1. Während die FcsA und FcsB bereits in vorangegangenen Arbeiten untersucht wurden, werden die FcsC und die Acsbg1 in dieser Arbeit erstmals biologisch charakterisiert. Untersuchungen zur subzellulären Lokalisation der Proteine zeigen, dass die meisten LC/VLC-Acyl-CoA-Synthetase auf Endosomen und im Cytoplasma gefunden werden können (FcsA, FcsC und Acsbg1), während die FcsB als Transmembranprotein über das ER zu den Peroxisomen transportiert wird. Die Acsbg1 akkumuliert dabei zusätzlich an der Plasmamembran. Funktionell konnte gezeigt werden, dass neben der FcsA auch die Acsbg1 an der Bereitstellung von Acyl-CoA für Triacylglyceridsynthese beteiligt ist. Dabei besitzt die FcsA die Hauptenzymaktivität und kompensiert den Verlust der Acsbg1 in acsbg1- Zellen. In fcsA-/acsbg1- Zellen dagegen kommt der Verlust der Acsbg1 durch eine zusätzliche Verringerung des TAG-Gehaltes der Doppel-KOs im Vergleich zu fcsA- Zellen zum tragen. Alle vier Enzyme beeinflussen die Phagozytose. Dabei zeigen fcsA- und fcsC- Zellen eine gesteigerte Phagozytose in Gegenwart von der gesättigten Fettsäure Palmitinsäure im Kulturmedium. Auch der knockout der Acsbg1 wirkt sich positiv auf die Phagozytoserate aus, jedoch kommt auch nur dieser zum tragen, wenn neben der Acsbg1 auch die FcsA ausgeschaltet wird. Die FcsB dagegen zeigt eine dramatische Reduktion der Partikelaufnahme in nicht Fettsäure gefütterten Zellen. Durch die Zugabe einer exogenen Fettsäure kann dieser Effekt nicht kompensiert werden. Auch der zusätzliche Verlust der FcsA-Enzymaktivität verändert dieses Verhalten in Palmitinsäure inkubierten Zellen nicht. In fcsA-/fcsB- konnte zudem ein Defekt beim Abbau von Triacylglyceriden gefunden werden. Dieser Defekt liefert erste Hinweise für ein Modell, das den Abbau von LD gespeicherten Lipiden durch Autophagozytose in D. discoideum beschreibt. Peroxisomen sind wichtige Organellen für die Detoxifikation und die Oxidation von Fettsäuren. Durch das Ausschalten der Acaa1, der Thiolase, die den letzten Schritt der β-Oxidation in Peroxisomen katalysiert, zeigte sich ein verlangsamter Triacylglycerol-Abbau sowie eine verringerte Degradation des Etherlipids UKL und von Sterolestern, was auf eine Beteiligung der Peroxisomen beim Abbau von langkettigen Fettsäuren schließen lässt. Bei dem Versuch durch das Ausschalten des pex19-Gens eine Zelllinie zu generieren, die keine Peroxisomen besitzt, wurde die Organelle überraschender Weise, wenn auch mit einer vom Wildtyp abweichenden Morphologie, weiterhin vorgefunden. Dieser Befund korrelierte mit dem Resultat, dass trotzdem das pex19-Gen erfolgreich unterbrochen wurde, dennoch eine intakte Kopie des Gens nachgewiesen werden konnte. Dementsprechend sollte die erschaffene pex19- Zelllinie als knockdown und nicht als knockout gewertet werden. Der pex19 knockdown zeigte beim Abbau von Triacylglyceriden eine ähnliche Verlangsamung wie acaa1- Zellen. Zusätzlich wurde eine Verringerung der Synthese des Etherlipids UKL beobachtet, was darauf hindeutet, dass dieses Lipid im Peroxisom gebildet wird. Auch die Phagozytose und das Wachstum auf Bakterienrasen waren im pex19 knockdown dramatisch reduziert. Durch die Überexpression von Pex19-GFP im knockdown Hintergrund konnten die physiologischen Defekte in den meisten so generierten Zelllinien ausgeglichen werden. Lipid Droplets sind Organellen, die in Eukaryoten und Prokaryoten als Speicher für Neutralfette dienen und ebenfalls als Ort der Lipidsynthese fungieren. Um diese Aufgaben erfüllen zu können, besitzen sie auf ihrer Oberfläche Proteine, die für die Regulierung dieser Prozesse notwendig sind. Durch die weiterführende Analyse von Kandidatenproteinen, die durch eine proteomische Analyse von aufgereinigten LDs identifiziert wurden, konnte für vier weitere Proteine (Plsc1, Net4, Lip5 und Nsdhl) die LD-Assoziation durch GFP-Fusionsproteine bestätigt werden. Bei der Charakterisierung von plsc1 knockouts zeigte sich eine verminderte Fähigkeit beim Wachstum auf Bakterienrasen sowie eine erhöhte Phagozytoserate in Gegenwart einer exogenen Fettsäure, was auf eine Involvierung des Proteins in die Phospholipidsynthese hindeutet. Die bisher einzige identifizierte LD-assoziierte Lipase Lip5 nimmt nur eine untergeordnete Rolle bei der Hydrolyse von Triacylglycerolen und Sterolestern ein, da in KO-Mutanten nur ein milder Defekt beim Abbau beider Substanzen beobachtet werden konnte. Die LD-Lokalisation von Net4 ist evolutionär konserviert und kann nicht nur in D. discoideum beobachtet werden, sondern auch in humanen Zellen. Welche Funktion das Protein auf der LD-Oberfläche ausübt, konnte nicht geklärt werden. Allerdings kann ein direkter Einfluss auf den TAG- und Sterolaufbau ausgeschlossen werden. LDs stehen in engem Kontakt mit anderen Organellen, die in den Lipidmetabolismus involviert sind, wie mit den Mitochondrien oder dem ER. Durch Perilipin-Hybridproteine können künstliche, stabile Verbindungen zwischen LDs und diesen Organellen hergestellt werden. Dabei zeigte Perilipin ein sehr starkes Targeting-Potenzial, durch welches es notwendig war, als zweite Hybridhälfte ein Transmembranprotein zu wählen. Die Analyse eines Hybrids, das eine dauerhafte Verbindung von LDs und dem ER herstellt, wies dabeieine Reduktion der LD-Größe auf, wobei der Gesamt-TAG-Gehalt der Zellen unbeeinflusst blieb. Durch die starke Affinität von Perilipin für die Assoziation an LDs konnten durch die Generierung von Hybriden andere Proteine an die LD-Oberfläche dirigiert werden. Auf diese Weise konnte erfolgreich die LC-Acyl-CoA-Synthetase FcsA auf das LD transplantiert werden.
Resumo:
Anliegen dieser Dissertation ist die Untersuchung des Einflusses eines Lesestrategietrainings auf die Entwicklung des Leseverständnisses in den Klassen 2 und 4. In einer experimentellen Studie mit Prä-Post-Test-Design wurde die Wirksamkeit eines 25 Sitzungen umfassenden Trainings der Strategien Vorhersagen, kleinschrittiges Wiederholen und Zusammenfassen den Effekten einer lesefernen Kontrollbedingung gegenübergestellt. Die Lesestrategien wurden peergestützt vermittelt, d. h. in Dyaden aus einem leseschwächeren und einem lesestärkeren Kind. In drei Teilstudien wurden Fragestellungen zur differenzierten Analyse der Trainingswirksamkeit untersucht: (1) Wird die Trainingswirksamkeit durch die Effizienz der Worterkennungsprozesse beeinflusst?, (2) Kann die Entwicklung der Leseflüssigkeit durch das Lesestrategietraining gefördert werden? und (3) Können leseschwache Kinder von der Zusammenarbeit mit lesestärkeren Tutor(inn)en hinsichtlich der Verbesserung ihres Leseverständnisses profitieren?. Die Ergebnisse dieser Dissertation sprechen dafür, dass das eingesetzte peergestützte Lesestrategietraining das Leseverständnis und die Leseflüssigkeit von Zweit- und Viertklässler(inne)n unter bestimmten Voraussetzungen positiv beeinflussen konnte. Die Leseleistungen vor dem Training, die Effizienz der Worterkennungsprozesse und die Rolle im dyadischen Lernen erwiesen sich als relevante Einflussfaktoren für die Wirksamkeit des Strategietrainings. Zweitklässler(innen), die aufgrund guter Prä-Test Leseleistungen die Tutor(inn)enrolle erhielten, konnten ihr Leseverständnis gegenüber Kindern mit gleichen Leseleistungen in der Kontrollbedingung signifikant steigern. Leseschwache Zweitklässler(innen) hingegen schienen nur bei (relativ) effizienten Worterkennungsprozessen die Lesestrategien zur Steigerung ihres globalen Leseverständnisses nutzen zu können, wobei sie keinen Zugewinn aus der dyadischen Zusammenarbeit ziehen konnten. Bei ineffizienten Worterkennungsprozessen hatte das Strategietraining negative Auswirkungen auf das allgemeine Leseverständnis. Anders in Klasse 4: Kinder, die aufgrund unterdurchschnittlicher Leseleistungen im Prä-Test als Tutand(inn)en am Training teilnahmen, verbesserten ihr Leseverständnis und konnten dabei von der Zusammenarbeit mit lesestarken Tutor(inn)en profitieren. Für die Tutor(inn)en in Klasse 4 zeigte sich kein Effekt des Strategietrainings gegenüber der Kontrollgruppe. In beiden Klassenstufen stellte sich im Verlauf des Strategietrainings eine schnellere Entwicklung der Leseflüssigkeit der schwachen Leser(innen) ein. Zusammengefasst erzielte das Training die größten Effekte für gute Leser(innen) in Klasse 2 und schwache Leser(innen) in Klasse 4 – beide Gruppen konnten ihr Leseverständnis praktisch bedeutsam gegenüber Kindern mit gleichen Leseleistungen in der Kontrollbedingung steigern.