42 resultados para relativ tryckkontrast


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die technischen Oberflächen werden oft als Bauteilversagungsorte definiert. Deswegen ist eine optimale Ausnutzung der Werkstoffeigenschaften ohne mechanische Oberflächenbehandlungsverfahren nicht mehr wegzudenken. Mechanische Randschichtoptimierungsverfahren sind vergleichsweise einfach, Kosten sparend und hocheffektiv. Gerade das Festwalzen wird wegen seiner günstigen Auswirkungen wie die exzellente Oberflächengüte, die hohen Druckeigenspannungen sowie die hohe Oberflächenverfestigung zunehmend an Bedeutung gewinnen. Außerdem wird durch das Festwalzen in einigen Legierungen eine nanokristalline Oberflächenschicht gebildet. Diese brillanten Eigenschaften führen nach einer mechanischen Oberflächenbehandlung zur Erhöhung des Werkstoffwiderstandes unter anderem gegen Verschleiß, Spannungsrisskorrosion und insbesondere zur Steigerung der Schwingfestigkeit. Ein etabliertes Beispiel zur Steigerung der Schwingfestigkeit ist das Festwalzen von Achsen und Kurbelwellen. Auch solche komplexen Komponenten wie Turbinenschaufeln werden zur Schwingfestigkeitssteigerung laserschockverfestigt oder festgewalzt. Die Laserschockverfestigung ist ein relativ neues Verfahren auf dem Gebiet der mechanischen Oberflächenbehandlungen, das z.B. bereits in der Flugturbinenindustrie Anwendung fand und zur Schwingfestigkeitsverbesserung beiträgt. Das Verfahrensprinzip besteht darin, dass ein kurzer Laserimpuls auf die zu verfestigende, mit einer Opferschicht versehene Materialoberfläche fokussiert wird. Das Auftreffen des Laserimpulses auf der verwendeten Opferschicht erzeugt ein expandierendes Plasma, welches eine Schockwelle in randnahen Werkstoffbereichen erzeugt, die elastisch-plastische Verformungen bewirkt. Eine konsekutive Wärmebehandlung, Auslagerung nach dem Festwalzen, nutzt den statischen Reckalterungseffekt. Hierdurch werden die Mikrostrukturen stabilisiert. Die Änderung der Mikrostrukturen kann jedoch zu einer beträchtlichen Abnahme der mittels Festwalzen entstandenen Druckeigenspannungen und der Kaltverfestigungsrate führen. Das Festwalzen bei erhöhter Temperatur bietet eine weitere Möglichkeit die Schwingfestigkeit von metallischen Werkstoffen zu verbessern. Die Mikrostruktur wird durch den Effekt der dynamischen Reckalterung stabilisiert. Die Effekte beim Festwalzen bei erhöhten Temperaturen sind ähnlich dem Warmstrahlen. Das Festwalzen erzeugt Oberflächenschichten mit sehr stabilen Kaltverfestigungen und Druckeigenspannungen. Diese Strukturen haben viele Vorteile im Vergleich zu den durch rein mechanische Verfahren erzeugten Strukturen in Bezug auf die Schwingfestigkeit und die Stabilität der Eigenspannungen. Die Aufgabe der vorliegenden Dissertation war es, Verfahren zur Verbesserung der Schwingfestigkeit im Temperaturbereich zwischen Raumtemperatur und 600 °C zu erforschen. Begleitende mikrostrukturelle sowie röntgenographische Untersuchungen sollen zum Verständnis der Ursachen der Verbesserung beitragen. Für diese Arbeit wurde der in der Praxis häufig verwendete Modellwerkstoff X5CrNi18-10 ausgewählt. Als Randschichtverfestigungsverfahren wurden das Festwalzen, eine Kombination der mechanischen und thermischen, thermomechanischen Verfahren auf der Basis des Festwalzens und eine Laserschockverfestigung verwendet.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Im Rahmen der vorliegenden Arbeit sollten mit Hilfe molekularer Techniken die Verwandtschaftsbeziehungen innerhalb der Gattung Fosterella (Bromeliaceae) geklaert und eine umfassende Phylogenie erstellt werden. Im Vordergrund standen dabei die folgenden Fragen: Sind die aufgrund von morphologischen Merkmalen bzw. ihrer geographischen Verbreitung bisher beschriebenen 30 Fosterella-Arten auch molekular voneinander abgrenzbar und wie sind die einzelnen Arten miteinander verwandt? Lassen sich innerhalb der Gattung evolutionaere Linien identifizieren? Sind Akzessionen, die bisher noch keiner Art zugeordnet werden konnten, genetisch distinkt? Laesst sich eine Schwestergattung von Fosterella herausstellen? Zwei verschiedene molekulare Techniken, die AFLP-Methode (amplified fragment length polymorphism, Vos et al. 1995) und die vergleichende Sequenzierung verschiedener Mitochondrien- und Chloroplasten-DNA-Regionen wurden zur phylogenetischen Untersuchung der Gattung Fosterella etabliert und optimiert. Diese beiden Methoden wurden anschliessŸend vergleichend fuer die molekularsystematischen Studien eingesetzt. Folgende Ergebnisse konnten erzielt werden: Fuer die erstmals innerhalb der Gattung Fosterella eingesetzte AFLP-Methode wurden acht Primerkombinationen fuer die Hauptanalysen ausgewaehlt. Die AFLP-Bandenmuster erwiesen sich als komplex, distinkt und reproduzierbar und sowohl intra- als auch interspezifisch informativ. Insgesamt wurden mit 77 Proben aus mindestens 18 der bisher beschriebenen 30 Arten 310 informative AFLP-Merkmale erzeugt und mittels verschiedener Analyseverfahren ausgewertet. Die Darstellung der Ergebnisse erfolgte in Form von Phaenogrammen, Kladogrammen und in einem €ždreidimensionalen Koordinatensystem€œ (Hauptkoordinatenanalyse). Zur statistischen Absicherung wurden Bootstrap-Analysen durchgefuehrt. Die Topologien der einzelnen Baeume untereinander stimmten weitgehend ueberein, wobei sich insgesamt 12 Artengruppen definieren liessŸen, die statistisch unterschiedlich gut abgesichert waren. In einigen Gruppen liessŸen sich enge Verwandtschaftsbeziehungen feststellen, die bis auf wenige Ausnahmen, nicht befriedigend aufgeloest sind. Einige der in diese Untersuchung einbezogenen, bisher noch keiner Art zugeordneten Taxa liessŸen sich z. T. in die entstandenen Artengruppen einordnen oder aufgrund ihrer distinkten Position in den Stammbaeumen vermuten, dass es sich um neue Arten handelt. Fuer die vergleichende DNA-Sequenzierung wurde zunaechst die Eignung verschiedener Chloroplasten- und Mitochondrien-DNA-Regionen getestet. Die Bereiche atpB-rbcL, psbB-psbH und rps16-Intron wurden fuer die vergleichende Sequenzierung der Chloroplasten-DNA als geeignet befunden, waehrend alle untersuchten Mitochondrien-Loci eine so geringe Sequenzvariabilitaet aufwiesen, dass sie nicht weiter in Betracht gezogen wurden. Die drei Chloroplastenloci wurden mit 61 Akzessionen aus 24 der bisher 30 beschriebenen Fosterella-Arten sowie 44 Akzessionen aus sechs der acht Unterfamilien (nach Givnish et al. im Druck) sowohl einzeln, als auch kombiniert ausgewertet. Die Merkmalsmatrix wurde sowohl mit einem Distanzverfahren, als auch mit Maximum Parsimonie-, Maximum Likelihood- und Bayes´schen-Methoden analysiert. Die mit den verschiedenen Methoden erhaltenen Baumtopologien waren weitgehend kongruent. Es konnte gezeigt werden, dass die Gattung Fosterella monophyletisch ist. Zudem besteht eine sehr gut gestuetzte Schwestergruppenbeziehung der Gattung zu einer Gruppe aus den Gattungen Dyckia, Encholirium und Deuterocohnia. Die in Givnish et al. (im Druck) gezeigte Einordnung von Fosterella in die Pitcairnioideae s. str. wurde ebenfalls bestaetigt. Basal laesst sich die Gattung Fosterella in zwei Linien einteilen, von denen eine auf die F. penduliflora-Gruppe entfaellt und die andere alle anderen sechs Gruppen vereint. Insgesamt laesst sich festhalten, dass der GrossŸteil der bisher beschriebenen 30 Fosterella-Arten auch molekular voneinander abgrenzbar ist, sie also genetisch distinkte Taxa (Monophyla) darstellen. Die meisten Spezies lassen sich Artengruppen zuordnen, innerhalb derer die Verwandtschaft allerdings z. T. ungeklaert bleibt. Diese Speziesgruppen bilden monophyletische Linien mit unterschiedlicher statistischer Unterstuetzung. Einige bisher nur morphologisch definierte Taxa zeigen eine enorme genetische Variabilitaet Die Beziehungen zwischen den einzelnen Gruppen der Gattung Fosterella sind zum Teil nur wenig aufgelaest. Die Ergebnisse der beiden in der vorliegenden Arbeit eingesetzten Techniken sind weitgehend kongruent und fuer die Verwandtschaftsanalyse der Gattung Fosterella als geeignet einzustufen. Die Aufloesung der AFLP-Baeume deutet allerdings auf eine noch bessere Nuetzlichkeit fuer die Untersuchung innerhalb der einzelnen Artengruppen hin, waehrend die vergleichende Sequenzierung durch Ergaenzung weiterer Regionen relativ klare Strukturen innerhalb der Gattung Fosterella erkennen laesst (vgl. Rex et al. 2006).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Bei Dämmen auf wenig tragfähigem Untergrund ist es zwischenzeitlich Stand der Technik, an der Dammbasis eine Bewehrung aus hochzugfesten Geokunststoffen (Gewebe oder Geogitter) einzulegen. Dabei können die Bewehrungslagen direkt auf den weichen Boden oder über Pfahlelementen angeordnet werden, die die Dammlasten in tiefere, tragfähigere Schichten abtragen. Die horizontale Bewehrung an der Dammbasis hat die Aufgabe, die vertikalen Dammlasten und die nach außen wirkenden Spreizkräfte aufzunehmen. Dies ist besonders für bewehrte Tragschichten über Pfählen von großer Bedeutung, da sonst die Pfähle/Säulen eine Biegebeanspruchung erhalten, die sie aufgrund des geringen Durchmessers (oftmals unbewehrt) nicht aufnehmen können. Abgesicherte wissenschaftliche Erkenntnisse über Größe und Verteilung der Spreizspannung in Höhe ober- und unterhalb der Bewehrungslagen liegen derzeit noch nicht vor, aus denen dann auch die Beanspruchung abzuleiten ist, die aus der Spreizwirkung bei der Geokunststoffbemessung zu berücksichtigen ist. Herr Dr.-Ing. Gourge Fahmi hat dafür zunächst den Kenntnisstand zur Spreizbeanspruchung ohne und mit Bewehrung sowie ohne und mit Pfahlelementen zusammengefasst. Ein wesentlicher Teil einer wissenschaftlichen Untersuchungen stellt die Modellversuche in einem relativ großen Maßstab dar, die u. a. auch zur Validierung von numerischen Berechnungen zur Fragestellung vorgesehen waren. Dabei konnte nach gewissen Parameteranpassungen überwiegend eine gute Übereinstimmung zwischen Modellversuchen und FEM-Berechnungen erreicht werden. Lediglich bei den Dehnungen bzw. Zugkräften in den Geogittern über Pfahlelementen ergab die FEM bei dem verwendeten Programmsystem viel zu niedrige Werte. Es wurde dazu in der Arbeit anhand eigener Untersuchungen und Vergleichsergebnissen aus der Literatur eine Hypothese formuliert und zunächst die Berechnungsergebnisse mit einem Faktor angepasst. Mit den durchgeführten Verifikationen stand damit dann ein weitestgehend abgesichertes numerisches Berechnungsmodell zur Verfügung. Aufbauend auf diesen Vorarbeiten konnten Parameterstudien mit numerischen und analytischen Methoden zur Spreizproblematik durchgeführt werden. Dabei wurden die Randbedingungen und Parametervariationen sinnvoll und für die Fragestellung zutreffend gewählt. Die numerischen Verfahren ergaben vertiefte Erkenntnisse zur Mechanik und zum Verhalten der Konstruktion. Die analytischen Vergleichsberechnungen validierten primär die Güte dieser vereinfachten Ansätze für praktische Berechnungen. Zusammenfassend wurde festgestellt, dass erwartungsgemäß die Spreizkräfte im Geogitter nahezu linear mit der Dammhöhe anwachsen. Von besonderer Bedeutung für die Größe der Spreizkräfte ist die Steifigkeit der Weichschichten. Dieser Parameter wird bei den bisher bekannten analytischen Berechnungsverfahren nicht berücksichtigt. Je weicher der Untergrund, je größer wird das Verhältnis zwischen Spreiz- und Membranbeanspruchung. Eine steilere Dammböschung hat erwartungsgemäß ebenfalls eine höhere Spreizwirkung zur Folge. Des Weiteren ergeben sich bei mehrlagigen Geogittern die höheren Beanspruchungen in der unteren Lage aus dem Membraneffekt und in der oberen Lage aus dem Spreizeffekt. Zu diesen Erkenntnissen wurden in der Arbeit erste Vorschläge für die praktischen Bemessungen gemacht, die aber noch weiter zu optimieren sind. Schließlich erfolgt von Herrn Fahmi eine Betrachtung der Pfahlelementbeanspruchung aus Pfahlkopfverschiebung und Biegemomenten. Dabei wurde ersichtlich, dass die Pfahlelemente bei hohen Dämmen erhebliche Beanspruchungen erhalten können, wenn relativ weicher Untergrund vorhanden ist, und es zeigt die Notwendigkeit entsprechend abgesicherter Bemessungsverfahren auf.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Zur Erholung in die Natur gehen oder doch lieber zur Natursimulation greifen? Intuitiv würden die meisten Menschen der Natur einen größeren Erholungswert zusprechen als einer Natursimulation. Aber ist die Natur tatsächlich erholsamer? In der Naturerholungsforschung (Restorative Environment Research) kommen häufig Natursimulationen zum Einsatz, um die erholsame Wirkung von Natur zu ermitteln. Problematisch ist dabei, dass deren ökologische Validität und Vergleichbarkeit noch nicht empirisch abgesichert ist. Vorliegende Arbeit setzt an dieser methodischen und empirischen Lücke an. Sie überprüft sowohl die ökologische Validität als auch die Vergleichbarkeit von Natursimulationen. Dazu wird die erholsame Wirkung von zwei Natursimulationen im Vergleich zu der physisch-materiellen Natur empirisch untersucht und verglichen. Darüber hinaus werden Aspekte des subjektiven Erlebens und der Bewertung im Naturerholungskontext exploriert. Als bedeutsamer Wirkmechanismus wird die erlebnisbezogene Künstlichkeit/Natürlichkeit angesehen, die sich auf die Erlebnisqualität von Natursimulationen und der physisch-materiellen Natur bezieht: Natursimulationen weisen im Vergleich zur physisch-materiellen Natur eine reduzierte Erlebnisqualität auf (erlebnisbezogene Künstlichkeit), z.B. eine reduzierte Qualität und Quantität der Sinnesansprache. Stellt man einen derartigen Vergleich nicht nur mit der physisch-materiellen Natur, sondern mit unterschiedlichen Natursimulationstypen an, dann zeigen sich auch hier Unterschiede in der erlebnisbezogenen Künstlichkeit. Beispielsweise unterscheidet sich ein Naturfoto von einem Naturfilm durch das Fehlen von auditiven und bewegten Stimuli. Diese erlebnisbezogene Künstlichkeit kann die erholsame Wirkung von Natur - direkt oder indirekt über Bewertungen - hemmen. Als Haupthypothese wird angenommen, dass mit zunehmendem Ausmaß an erlebnisbezogener Künstlichkeit die erholsame Wirkung der Natur abnimmt. Dem kombinierten Feld- und Laborexperiment liegt ein einfaktorielles Vorher-Nachher-Design zugrunde. Den 117 Probanden wurde zunächst eine kognitiv und affektiv belastende Aufgabe vorgelegt, danach folgte die Erholungsphase. Diese bestand aus einem Spaziergang, der entweder in der physisch-materiellen Natur (urbaner Park) oder in einer der beiden audio-visuellen Natursimulationen (videogefilmter vs. computergenerierter Spaziergang durch selbigen urbanen Park) oder auf dem Laufband ohne audio-visuelle Darbietung stattfand. Die erlebnisbezogene Künstlichkeit/Natürlichkeit wurde also wie folgt operationlisiert: die physische Natur steht für die erlebnisbezogene Natürlichkeit. Die beiden Natursimulationen stehen für die erlebnisbezogene Künstlichkeit. Die computergenerierte Version ist im Vergleich zur Videoversion erlebnisbezogen künstlicher, da sie weniger fotorealistisch ist. Die Zuordnung zu einer der vier experimentellen Erholungssettings erfolgte nach dem Zufallsprinzip. Die Effekte von moderater Bewegung wurden in den Natursimulationen durch das Laufen auf dem Laufband kontrolliert. Die Beanspruchungs- bzw. Erholungsreaktionen wurden auf kognitiver (Konzentriertheit, Aufmerksamkeitsleistung) affektiver (3 Befindlichkeitsskalen: Wachheit, Ruhe, gute Stimmung) und physiologischer (Alpha-Amylase) Ebene gemessen, um ein umfassendes Bild der Reaktionen zu erhalten. Insgesamt zeigen die Ergebnisse, dass die beiden Natursimulationen trotz Unterschiede in der erlebnisbezogenen Künstlichkeit/Natürlichkeit zu relativ ähnlichen Erholungsreaktionen führen, wie die physisch-materielle Natur. Eine Ausnahme stellen eine der drei affektiven (Wachheit) und die physiologische Reaktion dar: Probanden der physisch-materiellen Naturbedingung geben an wacher zu sein und weisen - wider erwarten - eine höhere physiologische Erregung auf. Demnach ist die physisch-materielle Natur nicht grundsätzlich erholsamer als die Natursimulationen. Die Hypothese ließ sich somit nicht bestätigen. Vielmehr deuten sich komplexe Erholungsmuster und damit auch unterschiedliche Erholungsqualitäten der Settings an, die einer differenzierten Betrachtung bedürfen. Für die ökologische Validität von Natursimulationen gilt, dass diese nur mit Einschränkung als ökologisch valide bezeichnet werden können, d.h. nur für bestimmte, aber nicht für alle Erholungsreaktionen. Die beiden Natursimulationen führen ebenfalls trotz Unterschiede in der erlebnisbezogenen Künstlichkeit zu ähnlichen Erholungsreaktionen und können somit als gleichwertig behandelt werden. Erstaunlicherweise kommt es hier zu ähnlichen Erholungsreaktionen, obwohl die bestehenden Unterschiede von den Probanden wahrgenommen und die erlebnisbezogen künstlichere computergenerierte Version negativer bewertet wird. Aufgrund der nicht erwartungskonformen Ergebnisse muss das Erklärungskonzept der erlebnisbezogenen Künstlichkeit/Natürlichkeit infrage gestellt werden. Alternative Erklärungskonzepte für die Ergebnisse („Ungewissheit“, mentale räumliche Modelle), die sich andeutenden unterschiedlichen Erholungsqualitäten der Settings, methodische Einschränkungen sowie die praktische Bedeutung der Ergebnisse werden kritisch diskutiert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die vorliegende Arbeit ist Teil eines Verbund-Forschungsprojektes mit dem Ziel, eine Präzisions-Bodenbearbeitung in Abhängigkeit von verschiedenen Bodenparametern sowie dem Bodenbedeckungsgrad zu realisieren. Ziel dieses Teilprojektes war die Bereitstellung einer Online-Messung des Bedeckungsgrades, um die Bearbeitungsintensität während der Feldüberfahrt regeln zu können: Ein Kamerasensor vorne am Schlepper ermittelt die Bodenbedeckung und ein Tiefen-Sollwert wird an das Regelsystem eines Gerätes zur teilfächenspezifischen Bodenbearbeitung ausgegeben. Da unter Feldbedingungen Methoden zur Bedeckungsgradmessung nur relativ zueinander verglichen werden können, wurde zunächst ein Laborvergleich mit wohldefinierten Bodenbedeckungen durchgeführt, um die prinzipiellen Stärken und Schwächen von Bildanalyse sowie zwei visuellen Methoden (Gitterraster-Methode und „Meterstick-Methode“) zu ermitteln: • Eine visuelle Methode, die auf einer begrenzten Anzahl von einfachen Stichprobenbeobachtungen beruht (Gitter), überschätzte den Bedeckungsgrad systematisch, wobei dieser Effekt unter Feldbedingungen vermutlich klein gegenüber der bekannten Schwankungsbreite zwischen Messungen verschiedener Beobachter ist. • Eine visuelle Methode, die auch Größe und Orientierung des Strohs berücksichtigt (Meterstick), lieferte präzise mittlere Messwerte. Diese Methode war die mit Abstand arbeitsaufwändigste. • Nach einer einfachen Korrektur des Abbildungsfehlers des Kameraobjektivs war auch die Bildverarbeitungs-Methode in der Lage, die bekannten tatsächlichen Bedeckungsgrade exakt darzustellen, bei gleichzeitig der geringsten Schwankungsbreite der Messwerte. Die Online-Messung der Bodenbedeckung durch Ernterückstände ist bisher jedoch ungelöst. Obwohl in früheren Untersuchungen Texturmerkmale oder Farbunterschiede erfolgreich genutzt wurden, um den Bedeckungsgrad zu bestimmen, wird eine Bedienperson zur interaktiven Festlegung bestimmter Parameter benötigt. Um den Prototypen eines onlinefähigen Kamerasensors zu entwickeln, wurden geeignete Ausrüstung und Bedingungen zur Bildaufnahme untersucht und verschiedene Auswertealgorithmen mit Hilfe einer wissenschaftlichen Bildanalysesoftware geschrieben und getestet: • Da im Nahinfraroten zwischen ca. 800 und 1400 nm der größte Intensitäts-Kontrast zwischen Stroh und Boden besteht wurde zur Bildaufnahme eine Schwarz-Weiss-CCD-Kamera mit aufgesetztem Infrarotfilter gewählt. Eine Diffusor-Box sorgte für homogene Beleuchtungsbedingungen. • Zwei auf Kantendetektion und automatischer Schwellwertsetzung basierende Versionen („A“ und „B“) eines „klassischen“ Segmentierungsalgorithmus wurden geschrieben. Durch einen iterativen Ansatz konnten geeignete Thresholding-Verfahren abhängig von der Größenordnung der Bodenbedeckung verwendet werden. Die zur Online-Regelung der Bearbeitungstiefe nötige Beschränkung der Prozesslaufzeit auf ca. 1000 ms/Bild konnte eingehalten werden. • Eine alternative automatisierbare Kontrollmethode wurde entwickelt, welche Merkmale der Grauwerthistogramme der Stroh/Boden-Bilder auswertet (Algorithmus „C“). Dieser Ansatz ist nochmals deutlich schneller als eine Bildsegmentierung (ca. 5 – 10 Bilder/s). • Der Sensor wurde an einem Quad montiert und die Bodenbedeckung auf drei Testfeldern untersucht. Zwischen den Messergebnissen eines Algorithmus vom Typ A/B und dem Ansatz C wurde eine Pearson-Korrelation von 0,967 für die Messwertegesamtheit gefunden. • Auf Versuchsparzellen mit definiert aufgebrachten Strohmengen (ein weiteres Teil-projekt) wurden an GPS-referenzierten Punkten Bilder mit dem Sensor aufgenommen und Referenzmessungen mit der visuellen Gitterraster-Methode durchgeführt. Zwischen der Bildverarbeitung (A, B) und dem Gitter ergaben sich befriedigende Pearson-Korrelationen im Bereich von 0,7 – 0,8. Allerdings waren für hohe Bedeckungen die Ergebnisse des Sensors meist signifikant niedrigere als der Mittelwert von drei das Gitter auszählenden Personen. Eine Kontrolle mit Ansatz C ergab, dass die Histogramm-Merkmale der einzelnen Bilder deutlich besser mit den per Bildverarbeitung ermittelten Bedeckungsgraden korrelierten als mit den Gittermessungen. – Insgesamt erwies sich die schnelle Bildverarbeitung als geeignet für den Einsatz als neue Referenzmethode zur Messung der Bodenbedeckung durch Ernterückstände. • Da der Aufbau des Sensors ohne die Diffusor-Box praxisgerechter ist, besteht weiterer Forschungsbedarf in Bezug auf die dann auftretenden Probleme durch stark wechselnde Beleuchtung und Schattenwurf. • In einem letzten Schritt wurde der Kamerasensor erfolgreich in ein bereits entwickeltes System zur teilflächenspezifischen Bodenbearbeitung an der Universität Kiel integriert. Eine Regelung der Arbeitstiefe durch den Kamerasensor war problemlos möglich, allerdings gilt es noch belastbare Kriterien für die Vorgabe von Tiefen-Sollwerten in Abhängigkeit vom Bedeckungsgrad zu entwickeln.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ziel dieser Studie war es, zu untersuchen, ob sich die relative Position Nordhessens im Wettbewerb mit den umliegenden Regionen seit der im Jahr 2002 durchgeführten Studie im Hinblick auf Indikatoren für die wissensbasierte Entwicklung verbessert hat. Als Ergebnis kann festgehalten werden, dass sich Nordhessen in einem Aufholprozess befindet: Alle relevanten wissensbasierten Indikatoren, wie etwa die Anzahl der Schulabgänger mit Hochschulreife oder der Anteil der Unternehmen, die der Hoch- oder Spitzentechnologie zuzuordnen sind, haben sich positiv entwickelt. In gleicher Weise haben sich alle Indikatoren auch in Relation zur jeweiligen Ausprägung der Nachbarregionen positiv erändert. Relativ gesehen hat sich die Position der Region also verbessert. Absolut betrachtet bleibt es aber dabei, dass die Region in Hinblick auf zentrale Indikatoren der wissensbasierten Entwicklung einen deutlichen Rückstand hat. So liegt die Hochqualifiziertenquote weiterhin 25%, die Anzahl der Unternehmen der Hochtechnologie 50% unter dem Durchschnitt der von uns untersuchten Vergleichsregionen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Im ersten Teil dieser Arbeit werden zunächst theoretische Grundlagen gelegt. Der Frage „Was ist ein Ritual?“ wird im zweiten Kapitel nachgegangen. Hier zeigt sich die Vielfalt des Begriffs. Neben der Darstellung des Begriffs Ritual, werden verschiedene angrenzende Begriffe kurz geklärt und von Ritualen abgegrenzt. Nach diesem Einstieg wird anschließend ein Einblick in eine Theorie zum Thema Ritual gegeben. Da ich mich vorrangig für die Umsetzung in der Grundschule interessiere, habe ich nur eine Theorie als Beispiel ausgewählt. Die Theorie des Ethnologen Arnold van Gennep bietet sich zum einen an, da sie Grundlage für viele spätere Theorien ist, zum anderen lässt sie sich auf den Grundschulunterricht übertragen, wie dies im dritten Kapitel geschieht. Nachdem eine relativ alte Theorie zum Thema dargelegt wurde, erscheint es interessant, wie sich Rituale in der Schule mit der Zeit verändert haben. Im vierten Kapitel wird vorgestellt, seit wann es Rituale in der Schule gibt und wie diese aussahen. Ihre Form und Funktionen haben sich von den Anfängen der Schule, über die Reformpädagogen bis in die heutige Zeit immer wieder verändert. In der Geschichte offenbaren sich bereits einige Gefahren, die man beachten muss, wenn man Rituale in der Grundschule einsetzen will. Im folgenden fünften Kapitel soll auf weitere Probleme beim Einsatz von Ritualen eingegangen werden eingegangen werden. Ebenso werden die positiven Aspekte von Ritualen im Unterricht behandelt. Außerdem wird dargelegt, was bei der Einführung von Ritualen zu beachten ist und welche Bedeutung diese besonders für den Anfangsunterricht haben. Nachdem im ersten Teil Rituale theoretisch behandelt wurden und bereits erste Bezüge zur Praxis hergestellt wurden, soll im zweiten Teil dieser Arbeit das Thema Rituale in der Grundschule am Beispiel einer jahrgangsübergreifenden Eingangsklasse untersucht werden. Vorab werden die Grundlagen und die Situation der empirischen Untersuchung in der Eingangsklasse geschildert. Im siebten Kapitel sollen die „Rituale in der Froschklasse“, der Eingangsklasse dargestellt werden. Neben dem Ablauf der Rituale wird darauf eingegangen, wie diese in der Ein- und Durchführung aussehen. In der Klasse spielen aber nicht nur Rituale, sondern ebenso ritualisierte Handlungen und die Klassenregeln eine Rolle, ohne sie wäre das Bild des Klassenlebens unvollständig. Daher werden auch sie hier aufgeführt. So kann zudem ein Einblick in die Verteilung von Ritualen, ritualisierten Handlungen und Regeln innerhalb der Klasse gewonnen werden. Im Anschluss an diese ausführliche Darstellung, der in der Eingangsklasse vorkommenden Rituale, werden einige von ihnen in Bezug zur Theorie van Genneps gesetzt und im Hinblick auf diese genauer untersucht. Die Grundlage der vorherigen beiden Kapitel bildet vorwiegend die von mir gemachten Beobachtungen in der Eingangsklasse. Im neunten Kapitel soll die Sicht der Klassenlehrerin eine vorrangige Rolle spielen, die sie in einem Interview äußern konnte. Ihre Ansichten über die Einführung von Ritualen und ihre Möglichkeiten und Probleme werden unter anderem in Bezug zu meinen Beobachtungen gesetzt. In den vorangegangenen Kapiteln des empirischen Teils dieser Arbeit steht immer die Frage im Hintergrund, welche Unterschiede es zwischen den Erstklässlern und den Zweitklässlern gibt bzw. wie die Lehrerin zwischen den beiden Klassen unterscheidet. Im zehnten Kapitel wird die Durchführung der ethnographischen Fallstudie reflektiert. Abschließend werden die Ergebnisse des ersten und zweiten Teils im Schlusswort zusammengeführt und resümiert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die vorliegende Arbeit wird aufzeigen, wie sich die Flucht auf das Leben eines verfolgten Kindes auswirken kann. Dazu soll das Leben vor, während und nach der Flucht anhand von fünf Autobiographien untersucht werden. Die Autobiographien beinhalten die Lebenserinnerungen von Juden, die das Dritte Reich als Kinder und Jugendliche erlebten. Die zu untersuchenden Texte stammen von den in Wien geborenen Autoren Ruth Klüger (‚weiter leben‘) und Egon Schwarz (‚keine Zeit für Eichendorff‘) und den in Berlin geborenen Autoren Ludwig Greve (‚Wo gehörte ich hin? Geschichte einer Jugend‘), George Wyland-Herzfelde (‚Glück gehabt‘) und Hellmut Stern (‚Saitensprünge‘). Alle Autoren mussten ihrer Heimat im Zeitraum von 1935 bis 1942 entfliehen um ihr Leben vor den angeordneten Brutalitäten des nationalsozialistischen Regimes zu retten. Mit vielen Jahren zeitlichem Abstand schrieben die Autoren ihre Lebenserinnerungen nieder. Sie blickten auf ihr Leben vor der Verfolgung zurück und berichten von ihrem ‚neuen‘ Leben danach. Die Wege, die die Autoren während der Flucht einschlugen, könnten unterschiedlicher nicht sein. Und doch eint sie eines: Das rastloses Leben während der Flucht und das Bedürfnis ihre erlebte Geschichte mit anderen Menschen zu teilen. Da sich die vorliegende Arbeit mit der Analyse von autobiographischen Dokumenten beschäftigt, ist es zunächst sinnvoll sich einen Überblick über das Material und den Forschungsbereich zu verschaffen, in dem diese anzusiedeln ist. Der Ausgangspunkt der folgenden Untersuchung lässt sich im Bereich der Erziehungswissenschaftlichen Biographieforschung finden. Daher soll zunächst erläutert werden, was generell unter den Begriffen ‚Biographie‘ und ‚Autobiographie‘ zu verstehen ist. Dies ist für das Verständnis um die Beschaffenheit des analysierten Materials von entscheidender Bedeutung, denn jeder Mensch ist im Grunde ein Experte der Autobiographieforschung. Was es mit dieser gewagten Vermutung auf sich hat, wird sich im Verlauf dieses Kapitels klären. In einem zweiten Schritt soll dann das Erkenntnisinteresse Erziehungswissenschaftlichen Biographieforschung näher erläutert werden. Da jede autobiographische Äußerung aufgrund von Lebenserfahrungen getätigt wird, soll der Frage nachgegangen werden, was Lebenserfahrungen eigentlich genau sind und warum Lebenserfahrungen von besonderem Interesse für die Biographieforschung sind. Dem allgemeinen Erkenntnisinteresse schließt sich nun das spezielle, auf den konkreten Fall dieser Arbeit bezogene Erkenntnisinteresse an, nämlich die ausgewählten Autobiographien auf ihren biographischen Wendepunkt, eine besondere Form der Lebenserfahrung also, hin zu untersuchen. In diesem Fall ist es selbstverständlich sich erst einmal darüber klar zu werden um was genau es sich bei einem biographischen Wendepunkt eigentlich handelt. Wenn man sich intensiver mit einem bestimmten wissenschaftlichen Forschungsfeld beschäftigt, so ist es unerlässlich sich auch mit dem Zustandekommen und der Entwicklung dieses Forschungsfeldes zu beschäftigen. Demzufolge sollen im vierten Teil der Arbeit einige Informationen zur Geschichte der Erziehungswissenschaftlichen Biographieforschung zusammengetragen werden. Die Beschäftigung mit durchgeführten Studien kann Aufschluss darüber geben, welche Felder im Bereich der Biographieforschung bereits untersucht wurden und welche Erkenntnisse von großer Bedeutung für die Erziehungswissenschaft waren und noch bis heute sind. Thematisch schließt sich dem zeitlichen Abriss der Geschichte ein kurzer Überblick über die aktuelle Forschungssituation an, in dem einige bedeutende Arbeiten kurz inhaltlich vorgestellt werden. Die Betrachtung aktueller Forschungsstände gibt Aufschluss über die gegenwärtigen Forschungsschwerpunkte der Biographieforschung, aber auch eine Übersicht über die gegenwärtig populärsten Techniken der Beschäftigung mit Biographien. Obwohl es sich bei der Erziehungswissenschaftlichen Biographieforschung um ein relativ junges Forschungsgebiet handelt, haben sich im Laufe der Jahre dennoch unterschiedliche Formen der Datenerhebung und Datenanalyse entwickelt. Die verschiedenen Möglichkeiten des Forschers sich Daten zu nähren und diese zu interpretieren sollen in zwei separaten Teilen dieser Arbeit erläutert werden. Diese beiden Teile sollen einen Überblick darüber geben, wie vielseitig der Umgang mit biographischen Materialien aussehen kann. Der erste der beiden Teile beschäftigt sich zunächst mit der Frage, wie der Forscher eigentlich an biographisches Material gelangt, welches er später auswerten wird. Im Forschungsbereich der Erziehungswissenschaftlichen Biographieforschung lassen sich drei große Bereiche der Datenerhebung unterscheiden, die sich nach dem Zustandekommen des Ausgangsmaterials richten. Dies sind die Dokumentanalyse, die Durchführung von Interviews und die teilnehmende Beobachtung. Alle drei Formen gilt es an dieser Stelle kurz zu erläutern. Bevor die Autobiographien nun auf ihren biographischen Wendepunkt hin untersucht werden können, ist es zunächst nötig zu beschreiben, in welcher Form die Autobiographien denn analysiert und interpretiert werden sollen. Die Interpretation der Autobiographien orientiert sich am Vorgehen der objektiven Hermeneutik, die in seinen Grundprinzipien vorgestellt und in Anbetracht des vorhandenen Ausgangsmaterials leicht abgewandelt gebraucht werden soll. Der nächste Schritt ist nun die Beschäftigung mit den Autobiographien selbst. Zunächst sollen diese in Kürze inhaltlich zusammengefasst werden um einen Überblick über den beschriebenen Handlungsverlauf zu gewährleisten. Desweiteren lassen sich im Anhang dieser Arbeit tabellarische Lebensläufe mit den wichtigsten Informationen zu jedem der Autoren finden. Nun sollen die Lebensbedingungen der Autoren vor der Flucht, während der Flucht und nach der Flucht untersucht werden. Jenen Äußerungen des Autors, die sich konkret auf die Fluchtvorbereitungen beziehen, wird besondere Aufmerksamkeit zuteil. Ebenso verhält es sich auch mit Ausführungen des Autors, die die Verarbeitung des Fluchterlebnisses thematisieren. Die Analyse der Autobiographien soll so nah wie möglich am Text erfolgen. Um die zitierten autobiographischen Äußerungen dennoch auch vor dem historischen Hintergrund wahrnehmen zu können, werden zusätzliche, die historischen Umstände erläuternde, Materialien mit in die Interpretation einbezogen. Nachdem zu jeder Autobiographie die wichtigsten Erfahrungen vor, während und nach der Flucht beschrieben und interpretiert wurden, wird ein Vergleich der Autobiographien anschließen. Der Vergleich soll anhand von zuvor festgelegten thematischen Feldern erfolgen. Die Flucht war für jeden der Autoren mit individuellen Veränderungen in Bezug auf ihr späteres Leben verbunden. Obwohl die Autobiographien auf den ersten Blick äußerst unterschiedlich erscheinen, lassen sich einige Gemeinsamkeiten, aber auch Unterschiede bezüglich der Erlebnisse vor, während und nach der Flucht finden, die es im Laufe des Vergleiches herauszuarbeiten gilt. Abschließend soll die Frage beantwortet werden, ob sich die Fluchterfahrungen der Autoren zu einer Gesamterfahrung zusammenfassen lassen, die alle teilen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Milchrinderzucht hat im ökologischen Landbau kein deutliches eigenes Profil. Üblicherweise wird auf Biobetrieben mit konventionellen Zuchtlinien gearbeitet, die meistens die Veranlagung zu hohen Milchleistungen haben. Diese Kühe können nicht immer adäquat gefüttert werden, weil das betriebseigene Futter der Biobetriebe nicht immer dem Bedarf der Tiere entspricht, aber möglichst wenig Futter zugekauft wird und nur wenig Kraftfutter eingesetzt werden darf. Energiemangel und gesundheitliche Probleme der Kühe können daraus resultieren. Daher braucht es neue Ansätze für die ökologische Milchrinderzucht, die besser berücksichtigen, dass die Tiere und ihre Umwelt zusammenpassen müssen und die die Tiergesundheit besser fördern. In den vergangenen 100 Jahren wurde der Umweltbezug der Tiere in der konventionellen Milchrinderzucht immer mehr vernachlässigt. Die Zucht wurde auf Produktionsleistungsmerkmale ausgerichtet. Es widerspricht jedoch dem Leitbild des Biolandbaus, nur einzelne Merkmale der Tiere zu fördern, ohne das ganze Tier und den ganzen Betrieb mit zu berücksichtigen. Es gibt bereits einige Ansätze für eine ökologische Milchrinderzucht, die den Bezug der Tiere zu ihrer Umwelt und ein ganzheitliches Tierverständnis einbeziehen (z. B. das Konzept der Lebensleistungszucht und die Linienzucht mit Kuhfamilien). Diese Ansätze sind jedoch nicht weit verbreitet und mit hohem Forschungs- und / oder Beratungsbedarf verbunden. Ein in der konventionellen Milchviehzucht immer wichtiger werdender Ansatz, der auch gut mit den Ideen des Biolandbaus übereinstimmt, ist die stärkere züchterische Gewichtung von Gesundheitsmerkmalen (teilweise anstelle der Produktionsleistung). Da die direkte Erfassung der Tier-gesundheit als Merkmal aufwändig ist, werden häufig Hilfsmerkmale für Gesundheit züchterisch bearbeitet. In der vorliegenden Arbeit wurden neue Hilfsmerkmale für die Zucht auf Gesundheit gesucht. Der Schwerpunkt wurde auf ethologische Merkmale gelegt, welche einen eigenaktiven Bezug der Tiere zu ihrer Umwelt zeigen sowie auf Eigenschaften, die in einem Zusammenhang mit Verdauungs- und Stoff-wechselprozessen stehen. Das Ziel der Untersuchungen war, die individuelle Ausprägung der beobachteten Eigenschaften und deren Zusammenhang zur Tiergesundheit zu ermitteln, um neue Merkmale für die Zucht auf eine gute Tiergesundheit zu identifizieren. Die Beobachtungen wurden über einen Zeitraum von 13 Monaten in einer Milchviehherde mit 60 Kühen auf einem biologisch-dynamischen Betrieb in der Schweiz durchgeführt. In zwei Projekten mit 27 bzw. 34 Tieren wurden das Wiederkäuverhalten, das Liegeverhalten, das Temperament, die Körperkondition (BCS) und die Kotbeschaffenheit untersucht. Die Untersuchungen wurden unter für alle beobachteten Tiere gleichen Praxisbedingungen durchgeführt. Die Gesundheit der Tiere wurde kontinuierlich anhand des Behandlungs-journals, der Tierarztrechnungen, der Milchleistungsprüfungsdaten und der Abkalbedaten erfasst und für jedes Tier in einem Gesundheitsindex zusammengefasst. Zusätzlich wurde ein Euter-gesundheitsindex berechnet, in dem nur die Eutererkrankungen berücksichtigt wurden. Die individuelle Konsistenz der beobachteten Eigenschaften wurde anhand der Reproduzier-barkeit der wiederholten Beobachtungen berechnet. Korrelationen zwischen dem Gesundheitsindex und den beobachteten Parametern und lineare, multivariate Regressionsanalysen mit dem Gesundheitsindex bzw. dem Eutergesundheitsindex als abhängige Variable wurden berechnet. Das Wiederkäuverhalten, das Liegeverhalten, die Kotbeschaffenheit und das Temperament der Tiere waren individuell konsistent. Die Variation der Wiederkäugeschwindigkeit, die Anzahl Abliegevorgänge und die Höhe der BCS-Noten (1. Quartil) waren positiv und die Spannweite der BCS-Noten war negativ mit der Tiergesundheit korreliert. Zwischen einem ruhigen Temperament der Kühe und der Eutergesundheit zeigte sich eine positive Korrelation. Die Regressionsanalysen ergaben, dass die Variation der Tiergesundheit im Projekt 1 durch die Variation der Wiederkäugeschwindigkeit und die Anzahl Abliegevorgänge zu 23% und im Projekt 2 durch die Höhe und die Spannweite der BCS-Noten zu 32% erklärt werden konnte. Die Variation der Eutergesundheit konnte durch das Temperament zu 24% erklärt werden. Die Ergebnisse zum Temperament und zur Körperkondition sind für die Tierzucht im Biolandbau interessant, zumal sie einfach zu erfassen sind und in anderen Studien ihre relativ hohe Erblichkeit festgestellt wurde. Die beiden Merkmalskomplexe zeigen zudem, wie gut das Tier sich an seine Umwelt anpassen kann. Das ist unter nichtstandardisierten Umweltbedingungen, wie sie auf Biobetrieben üblich sind, wichtig. Für die Umsetzung in der Zucht auf Betriebsebene braucht es Beratung. Um diese Eigenschaften in Zuchtprogramme auf Populationsebene zu integrieren, sind weitere Forschungsarbeiten zur Methodik einer routinemässigen Erhebung von BCS- und Temperamentsdaten und zur Implementation nötig.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Evolutionäre Algorithmen werden gerne für Optimierungsaufgaben mit sehr vielen Freiheitsgraden eingesetzt. Eine spezielle Konvergenzeigenschaft, daß nämlich der Rechenaufwand nur mit der Wurzel der Anzahl der Unbekannten steigt, prädestiniert sie dafür. Die evolutionären Algorithmen haben aber auch noch eine weitere interessante Eigenschaft: Von der Zielfunktion wird nur verlangt, daß sie monoton ist - nichts weiter. Speziell wird, im Gegensatz zu gradientenbasierten Verfahren, keinerlei Ableitung von der Zielfunktion benötigt. Dadurch können evolutionäre Algorithmen auch in solchen Fällen eingesetzt werden, in denen Ableitungen der Zielfunktion nicht oder nur schwierig zu beschaffen sind. Die evolutionären Algorithmen kommen deshalb mit so geringen Anforderungen an die Zielfunktion aus, weil nur absolute Bewertungen einzelner Punkte (hier Vektoren) im Lösungsraum durch die Zielfunktion vorgenommen werden. Dafür werden eine gewisse Anzahl Punkte gleichzeitig betrachtet. Im direkten Vergleich untereinander relativ günstig liegende Punkte werden für die weitere Rechnung übernommen, die anderen verworfen. Aus den Komponenten der übernommenen Punkte werden nun zufällig neue Punkte zusammengesetzt und ein wenig verschoben. Dann schließt sich der Kreis, indem diese neuen Punkte ebenfalls bewertet werden. Im Verlauf einer solchen Iteration konvergiert die Punktmenge in der Regel gegen ein Optimum. Oft kommt es gerade zu Beginn der Iteration zu schnellen Fortschritten. In dieser Arbeit wird ein Verfahren vorgestellt, bei dem mit Hilfe von evolutionären Algorithmen verbessernde Eingriffe in laufenden Echtzeitsystemen vorgenommen werden. Was gut oder schlecht ist, wird zu diesem Zweck über die Zielfunktion für die Optimierung definiert. Da von der Zielfunktion letztlich das Verhalten des Gesamtsystems abhängt, sollte sie sorgfältig ausgewählt werden. Die Eingriffe in das System sind zeitlich begrenzte Steuertrajektorien. Sie werden zusätzlich zur permanent wirkenden Regelung auf das System aufgebracht. Um die Anzahl der zu optimierenden Variablen in Grenzen zu halten, werden die Steuertrajektorien durch wenige Parameter repräsentiert. Da die Steuertrajektorien im voraus berechnet werden müssen, wird das Systemverhalten mittels eines Modells für eine gewisse, in der Zukunft liegende, Zeitspanne vorhergesagt. Wird die geforderte Qualität während dieser Zeitspanne unterschritten, kann so schon im Vorfeld ein Optimierungslauf des evolutionären Algorithmus durchgeführt werden. Allerdings ist die zur Verfügung stehende Rechenzeit von vornherein begrenzt. Daher ist es wesentlich, daß die mit evolutionären Algorithmen häufig assoziierte lange Rechenzeit nicht benötigt wird. Tatsächlich läßt sich unter Umständen mit wenig Rechenzeit auskommen. Erstens wird nur mit wenigen Variablen gerechnet, zweitens kommt es bei dem beschriebenen Verfahren - halbwegs gutmütige Systeme vorausgesetzt - gar nicht auf die letzte Nachkommastelle, sondern (ähnlich wie bei Sliding-Mode-Regelungen) mehr auf eine Tendenz an. Da evolutionäre Algorithmen aber gerade zu Beginn einer Iteration die größten Fortschritte in Richtung des Optimums machen, kann schon nach vergleichsweise wenigen Schritten eine deutliche Verbesserung der Gesamtsituation erreicht werden. Gerade um eine schnelle Konvergenz zu erreichen, sind die spezielle Ausprägung und die Parameter des evolutionären Algorithmus mit Bedacht zu wählen. Dafür werden im Rahmen der Arbeit einige Experimente durchgeführt. Anhand der Ergebnisse der Experimente können konkrete Empfehlungen für eine günstige Konfiguration des evolutionären Algorithmus gegeben werden. Um es vorwegzunehmen: Zuviel Aufwand beim evolutionären Algorithmus zu treiben, lohnt sich nicht. Schon mit einfachen Konfigurationen können gute Ergebnisse erzielt werden. Die einzige Maßnahme, die sich bei den Experimenten tatsächlich als vorteilhaft herausstellte, war die Aufteilung der Gesamtpopulation (betrachtete Punktmenge im Lösungsraum) in mehrere Subpopulationen. Schließlich wird noch ein Computerprogramm beschrieben, das die Arbeitsweise des vorgestellten Verfahrens am Bildschirm erlebbar macht. Die einzelnen Komponenten werden vom Programm während der Ausführung mit einigen wesentlichen Rechengrößen visualisiert. Der Betrachter erhält so einen besseren Eindruck vom Zusammenwirken der einzelnen Verfahrens-Teile.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die vorliegende Arbeit macht Vorschläge zur Einbindung der Öffentlichkeit in Planungsbestrebungen vor Ort, wobei vor allem Methoden empirischer Sozialforschung und deren Anwendbarkeit in landschaftsplanerischen Vorhaben näher betrachtet werden. Hiermit finden insbesondere Wertezuweisungen durch die Bürger stärkere Berücksichtigung. Es wird angenommen, dass, um eine zukunftsweisende Landschaftsplanung zu etablieren, Planer und Fachleute lernen müssen, wie die lokale Bevölkerung ihre Umwelt wahrnimmt und empfindet und welche Ideen sie für die zukünftige Entwicklung der Landschaft haben. Als empirische Grundlage werden Fallstudien aus Bad Soden am Taunus, Hamburg-Wilhelmsburg und Kassel-Rothenditmold präsentiert und verglichen. Rothenditmold und Wilhelmsburg zeichnen sich durch hohe Einwohneranteile mit Migrationshintergrund aus, weisen relativ hohe Arbeitslosenquoten auf und sind als soziale Brennpunkte bekannt – zumindest für Außenstehende. Beide Stadtteile versuchen ihr Image aufzuwerten. In Wilhelmsburg wird dieses Vorhaben in die großräumigen Veränderungen eingebunden, die von verschiedenen Hamburger Großprojekten ausstrahlen. In Rothenditmold ist vor allem Eigeninitiative durch den Stadtteil selbst gefragt. In Bad Soden gibt es ebenfalls viele Menschen mit ausländischen Wurzeln. Sie gehören allerdings mehrheitlich der gesellschaftlichen Mittel- und Oberschicht an. Bad Soden verfügt über ein insgesamt positives Image, das aller kulturellen Veränderungen zum Trotz beibehalten werden soll. Entsprechende Initiativen gehen hier ebenfalls von der Gemeinde selbst aus. An allen Standorten hat es drastische Landschaftsveränderungen und speziell deren Erscheinung gegeben. Bad Soden und Wilhelmsburg haben dabei Teile ihres vormals ländlichen Charakters zu bewahren, während in Rothenditmold vor allem Zeugnisse aus der Zeit der Industrialisierung erhalten sind und den Ort prägen. Die Landschaften haben jeweils ihre einzigartigen Erscheinungen. Zumindest Teile der Landschaften ermöglichen eine Identifikation, sind attraktiv und liefern gute Erholungsmöglichkeiten. Um diese Qualitäten zu bewahren, müssen sie entsprechend gepflegt und weiter entwickelt werden. Dazu sind die Interessen und Wünsche der Bewohner zu ermitteln und in Planungen einzuarbeiten. Die Arbeit strebt einen Beitrag zur Lebensraumentwicklung für und mit Menschen an, die mittels ausgewählter Methoden der empirischen Sozialforschung eingebunden werden. Dabei wird gezeigt, dass die vorgestellten und erprobten Methoden sinnvoll in Projekte der Landschaftsplanung eingebunden werden können. Mit ihnen können ergänzende Erkenntnisse zum jeweiligen Landschaftsraum gewonnen werden, da sie helfen, die kollektive Wahrnehmung der Landschaft durch die Bevölkerung zu erfassen, um sie anschließend in Planungsentwürfe einbinden zu können. Mit der Untersuchung wird in den drei vorgestellten Fallstudien exemplarisch erfasst, welche Elemente der Landschaft für die Bewohner von besonderer Bedeutung sind. Darüber hinaus lernen Planer, welche Methoden zur Ermittlung emotionaler Landschaftswerte verfügbar sind und auf welcher Ebene der Landschaftsplanung sowie bei welchen Zielgruppen sie eingesetzt werden können. Durch die Verknüpfung landschaftsplanerischer Erfassungsmethoden mit Methoden der empirischen Sozialwissenschaft (Fragebogen, Interviews, „Spaziergangsinterviews“, gemeinsame Erarbeitung von Projekten bis zur Umsetzung) sowie der Möglichkeit zur Rückkoppelung landschaftsplaneri-scher Entwürfe mit der Bevölkerung wird eine Optimierung dieser Entwürfe sowohl im Sinne der Planer als auch im Sinne der Bürger erreicht. Zusätzlich wird die Wahrnehmung teilnehmender Bevölkerung für ihre Umwelt geschärft, da sie aufgefordert wird, sich mit ihrer Lebensumgebung bewusst auseinander zu setzen. Die Ergebnisse dieser Untersuchung sind Beitrag und Beleg zu der Annahme, dass ergänzende Methoden in der Landschaftsplanung zur stärkeren Interessenberücksichtigung der von Planung betroffenen Menschen benötigt werden. Zudem zeigen die Studien auf, wie man dem planungsethischen Anspruch, die Öffentlichkeit einzubeziehen, näher kommt. Resultat sind eine bessere Bewertung und Akzeptanz der Planungen und das nicht nur aus landschaftsplanerisch-fachlicher Sicht. Landschaftsplaner sollten ein Interesse daran haben, dass ihre Entwürfe ernst genommen und akzeptiert werden. Das schaffen sie, wenn sie der Bevölkerung nicht etwas aufplanen, sondern ihnen entsprechende Einflussmöglichkeiten bieten und Landschaft mit ihnen gemeinsam entwickeln.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Im Rahmen dieser Dissertation wurde an der Darstellung stabiler, amphiphiler Silantriole gearbeitet. Es ist gelungen eine kontinuierliche Reihe sukzessive um CH2-Einheiten verlängerter Silantriole des Typs H3C(CH2)nC(CH3)2Si(OH)3 (n = 1-5) durch eine vierstufige Synthesesequenz ausgehend von n-Alkylbromiden herzustellen und zum Teil röntgenographisch zu untersuchen. Ihre oberflächenaktiven Eigenschaften in wässrigen Lösungen konnten erstmals mittels Oberflächenspannungsmessungen belegt werden. Durch gezielte Kondensationsreaktionen mit Trifluoressigsäure wurden ausgehend von den oben beschriebenen Silantriolen selektiv die entsprechenden Disiloxan-Tetrole erhalten und ebenfalls zum Teil durch Röntgenstrukturanalysen charakterisiert. Als weitere Kondensationsprodukte der Silantriole konnten die ersten Octasilsesquioxane mit tertiären Kohlenstoff-Substituenten durch Umsetzungen mit n-Bu4NF selektiv und in hohen Ausbeuten erhalten und ebenfalls röntgenographisch identifiziert werden. Es wurde an der Darstellung Aryl-substituierter Silantriole RSi(OH)3 (R = Mesityl-, Xylyl- und Tetramethyl-phenyl-) gearbeitet. Diese zeichnen sich jedoch durch ihre hohe Instabilität in Lösung und im Festkörper aus und konnten zum Teil nur zusammen mit ihren primären Kondensationsprodukten erhalten werden. Darüber hinaus wurden stabile Silandiole des Typs R(t-Bu)Si(OH)2 (R = n-Butyl und n-Pentyl) sowie das (o-CF3C6H4)2Si(OH)2 in hohen Ausbeuten und selektiv synthetisiert. Die Festkörpereigenschaften des (o-CF3C6H4)2Si(OH)2 sowie seiner Vorstufe (o-CF3C6H4)2SiCl2 konnten durch Kristallstrukturanalysen genauer untersucht werden. In der Arbeit wurden die ersten Anwendungen von Silanolen als Silan-Kupplungsreagenzien bei der Oberflächenmodifizierung von Glas beschrieben. Im Gegensatz zu gängigen säureassistierten Beschichtungen zeichnen sich diese Silanol-Beschichtungen durch eine deutlich höhere Hydrophobizität aus. Dies konnte durch Kontaktwinkel- und Zeta-Potential-Messungen bestätigt werden. Durch Röntgenreflektivitäts- und Sarfus-Messungen ist die Ausbildung von Monolagen im Falle von t-BuSi(OH)3-beschichteten Oberflächen plausibel. Die Oberflächenmorphologie der Silantriol-Beschichtungen wurde mittels AFM-Messungen untersucht. Die Si(OH)3-Funktion konnte in der vorliegenden Arbeit als ein neues Pharmakophor etabliert werden. Die Silantriole CySi(OH)3, TerSi(OH)3 und CH3CH2C(CH3)2Si(OH)3 (Cy = Cyclohexyl, Ter = Terphenyl) sind in der Lage das Enzym Acetylcholinesterase reversibel zu hemmen. Dabei zeigt das CySi(OH)3 mit 45 % relativ zur Kontrolle die höchste Inhibition.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Kooperation zwischen den beiden Phasen der Lehrerbildung an Universität und Studienseminar und die Qualitätsssteigerung der schulpraktischen Ausbildung werden nicht nur im Hessischen Lehrerbildungsgesetz als eine der Möglichkeiten gesehen, die Ausbildungsqualität angehender Lehrer zu verbessern. Um die Bedingungen für die Intensivierung der Kooperation zwischen den beiden Phasen bestimmen zu können werden in einer Expertenbefragung (Studie 1) die Haltung und Erwartung von Vertretern der universitären Lehrerbildung, des Referendariats und der Bildungsadministration erhoben. Dabei werden die Schulpraktischen Studien als Beispiele für eine phasenübergreifende Kooperation herausgestellt. Die Untersuchung zeigt aber nicht nur geeignete Möglichkeit der Zusammenarbeit auf. Es werden auch Ursachen erforscht, welche Gründe die Kooperation hemmen oder behindern, wie etwa gegenseitige Vorbehalte, fehlende Verbindlichkeit oder institutionalisiertes Ungleichgewicht zwischen den beiden Phasen. Seit der Kritik u. a. von Terhart (2000) an der mangelnden Abstimmung zwischen Erster und Zweiter Phase der Lehrerbildung und der Klage von Oelkers (2000) über den fehlenden Nachweis, wie wirksam die Lehrerbildung ist, sind in den letzten Jahren Studien über die Erste und Zweite Phase der Lehrerbildung entstanden. In die Darstellung des Stand der Forschung zur schulpraktischen Lehrerausbildung werden zwei groß angelegte Untersuchungen (MT21 und COACTIV) einbezogen, deren Ergebnisse die Diskussion um die Wirksamkeit der (Mathematik-) Lehrerbildung und der Bedeutung des (mathematik-)fachdidaktischen Wissens in den letzten Jahren entscheidend geprägt haben. Darüber hinaus werden die Forschungen des Deutschen Instituts für internationale Bildungsforschung (DIPF) zum Referendariat und von Schubarth zur Lehrerausbildung in der Ersten und Zweiten Phase dargestellt. Zu den schulpraktischen Studien werden einschlägige Untersuchungen angeführt (wie die von Hascher oder von Bodensohn u.a.), die ergänzt bzw. kontrastiert werden durch die Ergebnisse kleinerer Evaluationen. Schließlich werden Studien zur Rolle der Mentoren herangezogen, die sich mit den Unterrichtsnachbesprechungen im Rahmen der Schulpraktika oder mit dem Mentorieren auseinandersetzen. In die Ergebnisse der Studie 1 (s.o.) und in den Forschungsstand lassen sich Kooperationsformen zwischen der Ersten und Zweiten Phase der Lehrerbildung einbetten, die in der schulpraktischen Ausbildung verwirklicht werden können. Mit dem Kooperationspraktikum haben Vertreter der Ersten und der Zweiten Phase der Lehrerausbildung gemeinsame eine Form gefunden, wie ohne strukturelle Veränderung und bei möglichst geringem zusätzlichen Aufwand im bestehenden Ausbildungsrahmen eine fünfwöchige Lernpartnerschaft zwischen Referendaren und Studierenden unter Verantwortung eines gemeinsamen Mentors realisiert werden kann. Die Evaluation dieses Kooperationspraktikums (Studie 2) zeigt, dass die Lernpartner diese Art der Zusammenarbeit positiv empfinden. Es werden aber auch Probleme aufgezeigt, die verdeutlichen, mit welchen Schwierigkeiten die Forderung nach phasenübergreifender Kooperation in der konkreten Umsetzung verbunden sein kann. Um die Befunde aus der Evaluation zum Kooperationspraktikum auch wegen der relativ kleinen Stichprobe richtig einordnen zu können, werden sie mit den relevanten Forschungsergebnissen in Verbindung gebracht. Idealisierende Vorstellungen von Kooperation zwischen Erster und Zweiter Phase sind allerdings fehl am Platz. Die Hoffnung auf einen bruchlosen Übergang unterschätzt auch die Anforderungen an den Rollenwechsel vom Studierenden zum Referendaren. Um ein Kooperation durch Lernpartnerschaften im Rahmen eines Kooperationspraktikums zu verwirklichen, sind Gelingens¬bedingungen zu berücksichtigen, zu denen sowohl Rahmenbedingungen als auch die Möglichkeiten zur Institutionalisierung gehören. Beide Ausbildungsphasen haben zwar als gemeinsames Ziel, Lehrer für die Schule zu qualifizieren und sie verbindet zudem der schulpraktische Ausbildungsteil, der in den Schulen stattfindet. Dieser Ausbildungsteil hat aber je nach Phase eine andere Bedeutung und unterscheidet sich zudem nicht nur nach Aufwand und Anspruch, sondern vor allem aufgrund der institutionellen Rolle seiner Akteure. Das Kooperationspraktikum berücksichtigt diese Unterschiedlichkeit und zeigt trotzdem einen Weg auf, gegenseitigen von der Zusammenarbeit zu profitieren. Von daher kann das Kooperationspraktikum einen Beitrag zur Weiterentwicklung der phasenübergreifenden Zusammenarbeit leisten und die Erkenntnisse könnten bei der Konzeption eines Praxissemesters gewinnbringend eingebracht werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Diese Arbeit behandelt Controlled Traffic Farming (CTF) Anbausysteme, bei denen für alle Arbeitsgänge satellitengesteuert immer dieselben Fahrspuren benutzt werden. Lässt sich mit CTF die Belastung des Bodens verringern und die Effizienz von Direktsaat-Anbausystemen steigern? Neben agronomischen und bodenphysikalischen Parametern wurden Auswirkungen von Lenksystemen und Umsetzungsmöglichkeiten von CTF in die Praxis untersucht. Die Analyse einer CTF-Umsetzung unter europäischen Bedingungen mit der Verwendung von Standardmaschinen zeigte, dass sich CTF-Anbausysteme mit den heute zur Verfügung stehenden Maschinen für Dauergrünland, Mähdruschfrüchte und Mais auf kleiner und grösser strukturierten Flächen relativ einfach mechanisieren lassen. Bei Zuckerrüben und Kartoffeln können Kompromisse notwendig sein. Generell erfordern CTF-Anbausysteme eine sorgfältige Planung und Umsetzung in die Praxis. Im dreijährigen Feldversuch (Winterweizen, Wintergerste, Kunstwiese mit Kleegrasmischung) auf einem Lehmboden wurde CTF-Direktsaat mit konventionell zufällig befahrenen Direktsaat- und Pflugverfahren verglichen. Unter CTF zeigte sich eine Differenzierung der nicht, gering und intensiv befahrenen Varianten. Auf dem vorliegenden kompakten Boden mit 1150 mm Jahresniederschlag waren die Unterschiede zwischen den nicht befahrenen Flächen und den mit niedrigem Kontaktflächendruck befahrenen Flächen eher gering. In den nicht befahrenen Flächen entwickelten Eindringwiderstand und Kohlendioxidgehalt der Bodenluft nach drei Jahren signifikant bessere Werte. Bodendichte und Porosität zeigten hingegen keinen eindeutig interpretierbaren Trend. Aufgrund teils suboptimaler Feldaufgänge liess sich keine generelle agronomische Tendenz ableiten. Die intensive Befahrung der Pflegefahrgassen zeigte allerdings klar negative bodenkundliche und planzenbauliche Auswirkungen. Es bietet sich daher an, vor allem für Pflegearbeiten permanent dieselben Fahrspuren zu nutzen. In der Untersuchung zu den Auswirkungen von Lenksystemen zeigten sich signifikante Vorteile von Lenksystemen in einer Verminderung der Fahrerbelastung und einer höheren Lenkgenauigkeit vor allem bei grossen Arbeitsbreiten ohne Spuranreisser. Die meisten anderen Messparameter waren mit Lenksystem leicht vorteilhafter als ohne, unterschieden sich aber nicht signifikant voneinander. Fahrer und naturräumliche Gegebenheiten wie die Schlagform hatten einen wesentlich grösseren Einfluss. Gesamthaft betrachtet erweitert CTF in Kombination mit weiteren Bodenschutzmass-nahmen die Möglichkeiten, Bodenverdichtungen zu vermeiden, den Bedarf an energieintensiver Bodenlocke-rung zu reduzieren und die Entwicklung einer stabileren Bodenstruktur mit höherer Tragfähigkeit zu fördern. Zusammen mit einer an Kultur und Anbausystem angepassten Saatbettbereitung und den in geraden Reihen einfacher durchführbaren mechanischen Pflegemassnahmen ergeben sich gute Voraussetzungen für die Gestaltung agronomisch leistungsfähiger und ökologisch nachhaltiger Anbausysteme.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die tropischen Anden sind eines der artenreichsten Gebiete der Erde. Fast die Hälfte der 45.000 in diesem Gebiet vorkommenden Gefäßpflanzenarten sind in den Anden endemisch (Myers et al. 2000). Die Gattung Fosterella (Bromeliaceae) ist eine den Anden zugeordnete Pflanzengruppe, denn die meisten ihrer 31 Arten kommen in den Anden vor. Achtzehn Arten sind kleinräumige Endemiten. Fosterella hat damit Modellcharakter für diese Region. In der vorliegenden Arbeit wurde die Evolution der Gattung in Raum und Zeit mithilfe der vergleichenden Sequenzierung von sechs plastidären Loci (atpB-rbcL, matK, psbB-psbH, rpl32-trnL, rps16-trnK, rps16-Intron) und einem nukleären Marker (PHYC) untersucht. Es wurden über 90 Akzessionen von 24 Fosterella-Arten untersucht. Mit 5,6 % informativer Merkmale innerhalb der Gattung war rpl32-trnL der informativste Chloroplastenmarker. Es wurden mit den kombinierten Sequenzdaten eine Maximum Parsimony-, eine Maximum Likelihood- und eine Bayes´sche Analyse berechnet. Weiterhin wurden biogeographische und ultrametrische Untersuchungen durchgeführt. Die 6-Locus-Phylogenie zeigt eine Aufteilung der monophyletischen Gattung Fosterella in sechs Gruppen, von denen vier – die penduliflora-, weddelliana-, weberbaueri- und micrantha-Gruppe - klar monophyletisch und gut gestützt sind. Die albicans- und die rusbyi-Gruppe bilden hingegen einen Komplex. Ultrametrische Analysen legen ein Alter der Gattung von ca. 9,6 Mio. Jahren nahe. Der geographische Ursprung von Fosterella befindet sich nach den vorliegenden biogeographischen Analysen in den Anden und nach der Biom-Analyse zu gleicher Wahrscheinlichkeit entweder in andinen Trockenwäldern (seasonally dry tropical forests, SDTFs) oder in azonalen Standorten des amazonischen Tieflands östlich der Anden. Es gab mehrere Ausbreitungsereignisse, von denen die beiden Fernausbreitungsereignisse nach Mittelamerika (F. micrantha) und in das zentrale Amazonasgebiet (F. batistana) die auffälligsten sind. Die feuchten Bergregenwälder (Yungas) der Anden wurden offenbar mehrfach unabhängig von Fosterella-Arten besiedelt. Insgesamt wurden elf nukleäre Marker (XDH, GS, RPB2, MS, ADH, MS, GLO/PI, CHS, FLO/LFY, NIAi3 und PHYC) auf ihre Anwendbarkeit für molekularsystematische Studien in Fosterella getestet. Davon konnten acht Marker erfolgreich mithilfe einer PCR amplifiziert werden. Die Fragmentgrößen lagen zwischen 350 bp und 1.500 bp. Nur für drei Loci (FLO/LFY, NIAi3 und PHYC) konnten lesbare DNA-Sequenzen in Fosterella erzeugt werden. FLO/LFY zeigte nur 1,5 % Variabilität innerhalb der Gattung. Der NIA-Locus erzeugte bei der Amplifikation mehrere Fragmente, die separat voneinander sequenziert wurden. Der Locus PHYC konnte hingegen aufgrund der guten Amplifizier- und Sequenzierbarkeit für das gesamte Probenset sequenziert werden. Dieser Marker zeigte eine Variabilität innerhalb der Gattung von 10,2 %, davon waren 6,8 % informativ. In der Phylogenie basierend auf PHYC ist Fosterella klar monophyletisch, innerhalb der Gattung zeigt sich jedoch an der Basis eine unaufgelöste Polytomie. Es lassen sich neun mehr oder weniger gut gestützte Artengruppen definieren – rusbyi-, villosula-, albicans-, weddelliana-, penduliflora-, weberbaueri-, micrantha-, robertreadii- und spectabilis-Gruppe - die sich in ihrer Zusammensetzung mit Ausnahme der weddelliana-Gruppe von den nach Chloroplastendaten definierten Gruppen unterscheiden. Viele Arten sind para- oder polyphyletisch, so z. B. F. albicans, F. penduliflora und F. rusbyi. Bei den beiden erstgenannten Arten weisen die unterschiedlichen Stellungen in Chloroplasten- und Kernphylogenie auf Hybridisierungsereignisse hin.