13 resultados para Grão

em Universitätsbibliothek Kassel, Universität Kassel, Germany


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ziel dieser Arbeit ist es, die Methode der theologischen Gespräche mit Schülern auch außerhalb einer künstlich geschaffenen Unterrichtssituation anzuwenden und im besten Fall in das normale Unterrichtsgeschehen einfließen zu lassen. Dies soll dazu führen, dass diese Methode ihren experimentellen Charakter ein Stück weit verliert und wie oft von teilnehmenden Religionslehrern angemerkt, von nun an einen Platz im regulären Unterricht haben werde. Die Ziele solcher Gespräche, die in einem späteren Punkt explizit erläutert werden, sollen geringfügig modifiziert werden, so dass man sie erfolgreich von Kleingruppen auf Großgruppen übertragen kann. Gleichzeitig soll dabei jedoch auch weiterhin der Lehrplan berücksichtigt werden, den es im regulären Unterricht einzuhalten gilt. Es soll gezeigt werden, dass auch oder vor allem unter den Richtlinien des Lehrplans vorgegebene Inhalte und Kompetenzen mit dem theologischen Gespräch vereinbar sind. Um die Lehrziele optimal erfüllen zu können, werden einige ausgewählte Methoden, die vorrangig in den theologischen Gesprächen genutzt werden, analysiert und auf ihre Tauglichkeit in Klein-, vor allem aber in Großgruppen hin untersucht. Es soll jedoch nicht nur eine Bewertung dieser Methoden vorgenommen werden, sondern zusätzlich sollen bisherige Erfahrungen miteinfließen und damit das Bild unterschiedlicher Möglichkeiten in theologischen Gesprächen abrunden. Unter anderem werden zur Verdeutlichung Transkripte genutzt, um Unterschiede in der Dynamik der verschiedenen Gruppen am Praxisbeispiel zu verdeutlichen. Die Erfahrungen und Reflexionen des unternommenen qualitativen Vergleichs werden anschließend in Form von persönlichen Hinweisen im letzten Abschnitt ergänzt und zusammengefasst. Ziel dieser Hinweise ist es, Lehrkräften praktische Hilfen an die Hand zu geben, die sich der Aufgabe der theologischen Gespräche im regulären Unterricht in einer Großgruppe stellen möchten.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Privatisierung im Hochschulwesen ist eine neue internationale Tendenz, die in der Welt in den letzten 25 Jahren zu umfangreichen wissenschaftlichen Diskussionen zwischen den Experten dieses Gebietes geführt hat. Die private Hochschulbildung erstreckt sich über ein großes Feld der verschiedenen Studiengänge. Ihre Ziele und Aufgaben sowie ihre Bedeutung unterscheiden sich von Staat zu Staat. Ebenso ist die private Hochschulbildung unterschiedlich aufgebaut hinsichtlich ihrer Größe, Finanzierung usw. Die Errichtung einiger privater Hochschulen in Ägypten beeinflusste ebenfalls die wissenschaftliche Diskussion zwischen den Experten bis heute. Um die ägyptische Erfahrung in diesem Gebiet beurteilen zu können, wurde die deutsche Situation vergleichend betrachtet. Das Ziel der Dissertation ist die Beschreibung und Analyse des aktuellen Standes der Entwicklung des privaten Hochschulwesens in Ägypten und in Deutschland, um Ähnlichkeiten und Unterschiede herauszuarbeiten, Nachteile und Vorteile der Entwicklung in beiden Ländern zu bewerten sowie Vorschläge zur Verbesserung der Lage zu machen. Als Untersuchungsmethode wurde die Fallstudie benutzt, dabei wurden jeweils fünf repräsentative Hochschulen ausgewählt. Sie unterschieden sich in den Studienangeboten, der regionalen Lage, der Größe, der Hochschulart, der fachlichen Ausrichtung und dem Gründungsdatum. Das Thema wurde in zwei Teilen behandelt, in einem theoretischen und in einem praktischen Teil. Im theoretischen Teil werden die Geschichte des Hochschulwesens allgemein und seine Entwicklung, Ziele und Aufgaben sowie die gegenwärtige Situation behandelt. In diesem Kontext werden auch die Bedeutung der privaten Hochschulen, ihre Entstehung und Entwicklung, ihre Ziele und Aufgaben, ihre Finanzierung und ihre gesetzliche Lage untersucht; die ausgewählten privaten Hochschulen werden detailliert beschrieben. Der praktische Teil dieser Untersuchung erfolgte vorwiegend in Form von Befragungen an den ausgewählten privaten Hochschulen. Die wichtigsten behandelten Bereiche der Befragungen waren: - Beziehungen zwischen Staat und Hochschule, - Ziel und Aufgaben der Leistungsbewertung, - Finanzierung, - Auswahl der Studienbewerber, - Lehrkörper, - Lehrpläne und -programme. Ergebnisse: Die privaten Hochschulen in Ägypten konnten bis zum heutigen Tag ihre Ziele hinsichtlich der Lehre und der Forschung nicht erreichen. Aufgrund der häufigen Veränderungen bei den staatlichen Rahmenbedingungen wurde die angestrebte Flexibilität nicht erreicht. Zusätzlich leiden die neugegründeten privaten Hochschulen unter der mangelhaften Finanzierung, da sie sich vorwiegend aus Studiengebühren tragen. Deshalb leisten sie keinen Beitrag für die Gesamtfinanzierung des ägyptischen Hochschulsektors. Eine Ausnahme stellt die Französische Universität in Kairo dar. Die deutschen privaten Hochschulen haben ihre Ziele hinsichtlich der Lehre und der Forschung zu einem großen Anteil erreicht. Dies erfolgte vor allem durch eine größere Flexibilität, eine bessere finanzielle Ausstattung sowie zusätzliche unterschiedliche Quellen der Finanzierung. Der Beitrag einiger privater Hochschulen an der Gesamtfinanzierung des deutschen Hochschulwesens ist groß. Generell beruht die Qualität des privaten Hochschulwesens auf der Bildungsphilosophie sowie der allgemeinen Politik des Staates und darauf, wie weit den Anforderungen der Gesellschaft entsprochen wird und ob ein Beitrag zu Entwicklung des Hochschulwesens geleistet wird. Weiterhin ist deren Erfolg von einer ausreichenden Finanzierung abhängig.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Der Anteil dezentraler eingebetteter Systeme steigt in zahlreichen Andwendungsfeldern, wie der Kfz-Elektronik oder der Anlagenautomatisierung [ScZu03]. Zudem steigen die Anforderungen and die Flexibilität und den Funktionsumfang moderner automatisierungs-technischer Systeme. Der Einsatz agentenorientierter Methoden ist diesbezüglich ein geeigneter Ansatz diesen Anforderungen gerecht zu werden [WGU03]. Mit Agenten können flexible, anpassungsfähige Softwaresysteme entwickelt werden, welche die Verteilung von Informationen, Aufgaben, Ressourcen oder Entscheidungsprozessen der realen Problemstellung im Softwaresystem widerspiegeln. Es ist somit möglich, die gewünschte Flexibilität des Systems, bezüglich der Struktur oder des Verhaltens gezielt zu entwerfen. Nachteilig ist jedoch der Indeterminismus des Verhaltens des Gesamtsystems, der sich aufgrund von schwer vorhersagbaren Interaktionen ergibt [Jen00]. Dem gegenüber stehen statische Softwaresysteme, welche zwar einen hohen Determinismus aufweisen aber wenig flexibel in Bezug auf Änderungen der Struktur des Systems oder des Ablaufs des realen Prozesses sind. Mit der steigenden Komplexität der Systeme ist allerdings selbst mit einem statischen Entwurf die Vorhersagbarkeit immer weniger zu gewährleisten. Die Zahl der möglichen Zustände einer Anlage wird mit der Berücksichtigung von allen möglichen Fehlern, Ausfällen und externen Einflüssen (dynamische Umgebung) so groß, daß diese mit vertretbarem Aufwand kaum noch erfassbar sind und somit auch nicht behandelt werden können. Das von der DFG geförderten Projekt AVE [AVE05], welches in Kooperation mit dem Institut für Automatisierungs- und Softwaretechnik der Universität Stuttgart bearbeitet wird, beschäftigt sich in diesem Kontext mit dem Konflikt, die Vorteile der Flexibilität und Anpassungsfähigkeit von agentenorientierter Software mit den spezifischen Anforderungen der Domäne der Echtzeitsysteme, wie Zeit- und Verlässlichkeitsanforderungen, zu verknüpfen. In einer detaillierten Analyse dieser Anforderungen wurde untersucht, wie die Eigenschaften der Anpassungsfähigkeit und Flexibilität prinzipiell die Anforderungen an Echtzeit- und Verlässlichkeitseigenschaften beeinflussen und wie umgekehrt Anforderungen an Echtzeit- und Verlässlichkeitseigenschaften die Anpassungsfähigkeit und Flexibilität beschränken können. Aufbauend auf diesen Erkenntnissen werden Methoden und Konzepte für den Entwurf und die Implementierung von Agentensystemen auf gängiger Automatisierungshardware, insbesondere Speicher Programmierbare Steuerungen (SPS), entwickelt. In diesem Rahmen wird ein Konzept für die Modellierung von Sicherheit in Agentensystemen vorgestellt, welches insbesondere den modularen Charakter von Agenten berücksichtigt. Kernaspekt ist es, dem Entwickler einen Rahmen vorzugeben, der ihn dabei unterstützt ein möglichst lückenloses Sicherheitskonzept zu erstellen und ihm dabei genug Freiheiten lässt den Aufwand für die Strategien zur Fehlererkennung, Fehlerdiagnose und Fehlerbehandlung je nach Anforderung für jedes Modul individuell festzulegen. Desweiteren ist besonderer Wert darauf gelegt worden, dass die verwendeten Darstellungen und Diagramme aus der Domäne stammen und eine gute Vorlage für die spätere Implementierung auf automatisierungstechnischer Hardware bieten.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Drei Feldversuche auf zwei Standorten (DFH: 51°4, 9°4’, BEL: 52°2’, 8°08’) wurden in den Jahren 2002 bis 2004 durchgeführt, um den Einfluss der Vorfrucht, des Vorkeimens, der N- und K-Düngung und der Sorte auf Nährstoffverfügbarkeit, Gesamt- und sortierte Knollenerträge sowie die Qualität von Kartoffeln und deren Eignung für die industrielle Verarbeitung zu Pommes frites und Chips zu untersuchen. Bestimmt wurden die N- und K-Verfügbarkeit im Boden, die N- und K-Aufnahme von Kraut und Knollen, gesamte Frisch- und Trockenmasseerträge, sortierte Frischmasseerträge für die Verarbeitung, sowie die Gehalte der Knollen an Trockensubstanz und reduzierenden Zuckern. In einer sensorischen Prüfung wurden Qualitätsparameter von Pommes frites (Aussehen/Farbe, Textur und Geschmack/Geruch) bewertet, die gewichtet in einen Qualitätsindex eingingen. Die Qualität der Chips wurde maschinell durch den L-Wert (Helligkeit) des Produktes quantifiziert. Der Gehalt des Bodens an mineralisiertem Nitrat-Stickstoff hing von der Vorfrucht und dem Jahr ab. Nach Erbsen wurden zum Auflaufen der Kartoffeln in den Versuchsjahren 2003 und 2004 (187 und 132 kg NO3-N ha-1) die höchsten NO3-N-Werte in 0-60 cm Boden gemessen verglichen mit Kleegras (169 bzw. 108 kg NO3-N ha-1 oder Getreide (112 kg bzw. 97 kg NO3-N ha-1), obgleich die Differenz nicht in allen Fällen signifikant war. Entsprechend wurden nach Erbsen die höchsten Knollen-Frischmasseerträge (414 und 308 dt ha-1) geerntet. Dasselbe galt für die Trockenmasserträge, was belegt, dass der Trockensubstanzgehalt der Knollen bei verbesserter N-Versorgung nicht im selben Maße sinkt, wie der Frischmasseertrag steigt. Das Vorkeimen der Pflanzknollen führte zu einer rascheren phänologischen Entwicklung im Jugendstadium der Pflanze, beschleunigter Trockenmassebildung des Krautes und einer früheren Einlagerung von Assimilaten vom Kraut in die Knollen. Obwohl die positive Wirkung des Vorkeimens auf den Gesamtertrag bis Ende Juli (+ 26 in 2003 bzw. 34 dt ha-1 in 2004) im Jahr ohne Krautfäuleepidemie von den nicht vorgekeimten Varianten bis zur Endernte im September kompensiert wurde, konnte in diesem Jahr durch Vorkeimen dennoch ein erhöhter Ertragsanteil (+ 12%) der besonders nachgefragten Übergrößen (>50 mm für Pommes frites) erzielt werden. Die durchschnittliche Knollenmasse reagierte positiv auf Vorkeimen (+ 5,4 g), Sortenwahl (Sorte Agria) und ein erhöhtes N-Angebot (Leguminosenvorfrucht). Generell wurde deutlich, dass die Knollengesamterträge unter den Bedingungen des Ökologischen Landbaus (geringe bis mittlere Nährstoffversorgung, verkürzte Vegetationsdauer) sehr stark vom Anbaujahr abhängen. Die Ergebnisse belegen jedoch, dass organisch-mineralische N-K-Düngung den sortierten Ertrag an Knollen für die Verarbeitung signifikant erhöht: Höchste Gesamt- und sortierte Knollenfrischmasseerträge wurden nach kombinierter N (Horngrieß) und mineralischer K- (Kaliumsulfat) Gabe erzielt (348 dt ha-1 im Durchschnitt von 2002-2004). Im Gegensatz dazu kann eine Wirkung von Stallmist auf den Ertrag im Jahr der Ausbringung nicht unbedingt erwartet werden. Steigende Erträge nach Stallmistdüngung wurden lediglich in einem von drei Versuchsjahren (+58 dt ha-1) festgestellt und ließen sich eher auf eine K- als eine N-Wirkung zurückführen. Die Ergebnisse belegen, dass die Sortenwahl eine entscheidende Rolle spielt, wenn die Kartoffeln für die industrielle Verarbeitung zu den oben genannten Produkten angebaut werden. Insgesamt kann festgestellt werden, dass Kartoffelknollen aus ökologischen Anbauverfahren ausreichend hohe Trockensubstanzgehalte aufweisen, um für die Verarbeitung zu Pommes frites (>19%) geeignet zu sein und ohne dass dadurch die Konsistenz des Endproduktes gefährdet würde. Der Trockensubstanzgehalt der Referenzsorte für Chips, „Marlen“, unterschritt das in der Literatur geforderte Minimum für Chips von 23% lediglich, wenn die kombinierte Horngrieß-Kaliumsulfatdüngung zur Anwendung kam. Die Trockensubstanzgehalte der Knollen konnten durch Vorkeimen signifikant gesteigert werden und der Effekt war besonders groß (+1.2% absolut) in dem Jahr mit frühem Auftreten der Krautfäule (Phytophthora infestans), d.h. verkürzter Vegetationszeit. Die Knollen-Trockensubstanzgehalte waren in zwei von drei Experimenten nach Lagerung höher (+0.4 und 0.5% absolut) als noch zur Ernte. Sorten der sehr frühen und frühen Reifegruppe wiesen den größten relativen Anstieg der Gehalte an reduzierenden Zuckern (Glukose und Fruktose) während der Lagerung auf. Den mittelfrühen Sorten „Agria“ und „Marena“ hingegen kann aufgrund des von ihnen erreichten höchsten Qualitätsstandards (Pommes frites) zur Ernte eine sehr gute Eignung für die Bedingungen des Ökologischen Landbaus unterstellt werden. Die durchgehend beste Chipseignung wies die mittelfrühe Referenzsorte „Marlen“ auf. Insgesamt konnte nachgewiesen werden, dass durch gezielte Sortenwahl der Trockensubstanzgehalt und die Konzentration reduzierender Zucker, sowie die Qualität der Endprodukte (Pommes frites und Chips) gezielt beeinflusst werden kann. Im Gegensatz dazu haben acker- und pflanzenbauliche Maßnahmen wie Düngung, Wahl der Vorfrucht und Vorkeimen der Pflanzknollen einen eher geringen Einfluss. Dementsprechend sollte der Landwirt versuchen, durch die Wahl der Sorte den hohen Anforderungen der Industrie an die Rohware gerecht zu werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die langfristige Sicherung bestehender (profitabler) Kundenbeziehungen erweist sich für Unternehmen zunehmend als eine wichtige und zugleich immer schwieriger zu bewältigende Herausforderung. Vor dem Hintergrund hoher Kosten für die Neukundengewinnung und sinkender Kundenloyalität auf gesättigten, wettbewerbsintensiven und transparenten Märkten – verbunden mit tendenziell steigenden Abwanderungsraten – rücken die Früherkennung und Prävention von Kundenabwanderungen sowie die Kundenrückgewinnung verstärkt in den Fokus. Der Aufwand für derartige Anstrengungen muss in einem sinnvollen Verhältnis zum Ertrag stehen. Letztlich wird also für den Komplex „Kundenabwanderung“ ein ergebnisgesteuertes Gesamtsystem der Früherkennung, Prävention und Rückgewinnung benötigt. An dieser Stelle setzt das Customer Recovery Controlling an. Auf Basis des kontributionsorientierten Controllingansatzes wird ein ganzheitliches Controllingsystem für das Customer Recovery Management entwickelt. Dabei werden die führungsunterstützenden Controllingprinzipien der Entscheidungsfundierung, -reflexion und Koordinationsentlastung einschließlich zentraler Controllinginstrumente in den Gesamtzusammenhang des Customer Recovery Managementprozesses gestellt. Es wird aufgezeigt, dass mit einem professionellen Customer Recovery Controlling große Nutzenpotenziale verbunden sind, die sich auf der Customer Recovery Managementebene (z.B. verbesserte Entscheidungsqualität, höhere Präventions- bzw. Rückgewinnungsraten) wie auch auf der Ebene der Gesamtunternehmung (z.B. Sicherung bzw. Erhöhung des Kundenstammwertes) auswirken. Die Erfolgsmodellierung zählt zu den wesentlichen Aufgaben des Controlling. Diesbezüglich bedarf es eines mehrdimensionalen Controllinginstruments, das neben Ergebnisindikatoren auch Leistungstreiber berücksichtigt: die Customer Recovery Scorecard. Ihre Perspektiven – Finanz-, Kunden-, Prozess-, Potenzial- und Wettbewerbsperspektive – sichern eine ganzheitliche Betrachtung der strategisch relevanten Erfolgsfaktoren und darüber hinaus gewährleisten die Kennzahlen eine systematische Planung, Steuerung und Kontrolle des Customer Recovery Management Erfolgs. Für die Erfolgsgrößen werden kausale Abhängigkeiten in Form von Ursache-Wirkungs-Beziehungen innerhalb und zwischen den Perspektiven erfasst (Strategy Maps), wodurch gewissermaßen eine Modellierung der Wertschöpfungskette im Customer Recovery Management erfolgt. Unsere durchgeführte Studie zum Status Quo des Customer Recovery Controlling in der deutschen (groß-)unternehmerischen Dienstleistungspraxis hat gezeigt, dass der präventive Umgang mit Kundenabwanderung zukünftig an Bedeutung gewinnen wird. Obwohl die Mehrheit der befragten Unternehmen über ein organisatorisch verankertes Controlling verfügt, sind bezüglich des allgemeinen Controllingentwicklungsstandes inkl. des Instrumenteneinsatzes Defizite zu konstatieren. In Bezug auf Letzteres hat sich herausgestellt, dass rein ökonomische Aspekte eine dominante Stellung einnehmen; Finanzkennzahlen werden gegenüber den Markt-, Prozess und Potenzialkennzahlen zum einen häufiger eingesetzt und zum anderen auch in ihrer Bedeutung höher eingeschätzt. Darüber hinaus ist der Einsatz von Kennzahlensystemen im Customer Recovery Management noch nicht weit verbreitet und auch hier ist ein finanzwirtschaftlicher Fokus festzustellen. Der Erfolg von Customer Recovery Maßnahmen wird zu einem großen Ausmaß durch die Nutzung des Synergiepotenzials von Customer Recovery Management (Führung vom Markt bzw. Kunden her) und Controlling (Führung vom Erfolg her) determiniert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In dieser Arbeit werden mithilfe der Likelihood-Tiefen, eingeführt von Mizera und Müller (2004), (ausreißer-)robuste Schätzfunktionen und Tests für den unbekannten Parameter einer stetigen Dichtefunktion entwickelt. Die entwickelten Verfahren werden dann auf drei verschiedene Verteilungen angewandt. Für eindimensionale Parameter wird die Likelihood-Tiefe eines Parameters im Datensatz als das Minimum aus dem Anteil der Daten, für die die Ableitung der Loglikelihood-Funktion nach dem Parameter nicht negativ ist, und dem Anteil der Daten, für die diese Ableitung nicht positiv ist, berechnet. Damit hat der Parameter die größte Tiefe, für den beide Anzahlen gleich groß sind. Dieser wird zunächst als Schätzer gewählt, da die Likelihood-Tiefe ein Maß dafür sein soll, wie gut ein Parameter zum Datensatz passt. Asymptotisch hat der Parameter die größte Tiefe, für den die Wahrscheinlichkeit, dass für eine Beobachtung die Ableitung der Loglikelihood-Funktion nach dem Parameter nicht negativ ist, gleich einhalb ist. Wenn dies für den zu Grunde liegenden Parameter nicht der Fall ist, ist der Schätzer basierend auf der Likelihood-Tiefe verfälscht. In dieser Arbeit wird gezeigt, wie diese Verfälschung korrigiert werden kann sodass die korrigierten Schätzer konsistente Schätzungen bilden. Zur Entwicklung von Tests für den Parameter, wird die von Müller (2005) entwickelte Simplex Likelihood-Tiefe, die eine U-Statistik ist, benutzt. Es zeigt sich, dass für dieselben Verteilungen, für die die Likelihood-Tiefe verfälschte Schätzer liefert, die Simplex Likelihood-Tiefe eine unverfälschte U-Statistik ist. Damit ist insbesondere die asymptotische Verteilung bekannt und es lassen sich Tests für verschiedene Hypothesen formulieren. Die Verschiebung in der Tiefe führt aber für einige Hypothesen zu einer schlechten Güte des zugehörigen Tests. Es werden daher korrigierte Tests eingeführt und Voraussetzungen angegeben, unter denen diese dann konsistent sind. Die Arbeit besteht aus zwei Teilen. Im ersten Teil der Arbeit wird die allgemeine Theorie über die Schätzfunktionen und Tests dargestellt und zudem deren jeweiligen Konsistenz gezeigt. Im zweiten Teil wird die Theorie auf drei verschiedene Verteilungen angewandt: Die Weibull-Verteilung, die Gauß- und die Gumbel-Copula. Damit wird gezeigt, wie die Verfahren des ersten Teils genutzt werden können, um (robuste) konsistente Schätzfunktionen und Tests für den unbekannten Parameter der Verteilung herzuleiten. Insgesamt zeigt sich, dass für die drei Verteilungen mithilfe der Likelihood-Tiefen robuste Schätzfunktionen und Tests gefunden werden können. In unverfälschten Daten sind vorhandene Standardmethoden zum Teil überlegen, jedoch zeigt sich der Vorteil der neuen Methoden in kontaminierten Daten und Daten mit Ausreißern.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Zusammenfassung: Ziel der Arbeit war ein Methodenvergleich zur Beurteilung der Milchqualität unterschiedlicher Herkünfte. Am Beispiel von Milchproben aus unterschiedlicher Fütterung sowie an Milchproben von enthornten bzw. horntragenden Kühen wurde geprüft, welche der angewendeten Methoden geeignet ist, die Vergleichsproben zu unterscheiden (Differenzierungsfähigkeit der Methoden) und inwieweit eine Qualitätsbeurteilung möglich ist (hinsichtlich Milchleistung, Fett-, Eiweiß-, Lactose- (=F,E,L), Harnstoff-gehalt und Zellzahl (=SCC), Säuerungseigenschaften (=SE), Fettsäuremuster (=FS-Muster), Protein- und Metabolit-Zusammensetzung (=Pr&M), Fluoreszenz-Anregungs-Spektroskopie-Eigenschaften (=FAS) und Steigbild-Merkmalen). Zusätzlich wurde vorab die Steigbildmethode (=SB-M) für das Produkt Rohmilch standardisiert und charakterisiert, um die Reproduzierbarkei der Ergebnisse sicherzustellen. Die Untersuchungen zur SB-M zeigten, dass es Faktoren gibt, die einen deutlichen Einfluß auf die Bildmerkmals-Ausprägung aufweisen. Dazu gehören laborseitig die Klimabedingungen in der Kammer, die Verdünnungsstufe der Probe, die Standzeiten der Vorverdünnung (Reaktionen mit der Luft, Alterung usw.), und tagesspezifisch auftretende Effekte, deren Ursache unbekannt ist. Probenseitig sind sehr starke tierindividuelle Effekte auf die Bildmerkmals-Ausprägung festzustellen, die unabhängig von Fütterung, Alter, Laktationsstadium und Genetik auftreten, aber auch Fütterungsbedingungen der Kühe lassen sich in der Bildmerkmals-Ausprägung wiederfinden. Die Art der Bildauswertung und die dabei berücksichtigten Bildmerkmale ist von großer Bedeutung für das Ergebnis. Die im Rahmen dieser Arbeit untersuchten 46 Probenpaare (aus den Fütterungsvergleichen (=FV) und zur Thematik der Hörner) konnten in 91% der Fälle korrekt gruppiert werden. Die Unterschiede konnten benannt werden. Drei FV wurden auf drei biologisch-dynamischen Höfen unter Praxis-Bedingungen durchgeführt (on-farm-Experimente). Es wurden jeweils zwei vergleichbare Gruppen à mindestens 11 Kühen gebildet, die im Cross-Over-Design gefüttert wurden, mit Probennahme am 14. und 21. Tag je Periode. Es wurden folgende FV untersucht: A: Wiesenheu vs. Kleegrasheu (=KG-Heu), B: Futterrüben (=FuR) vs. Weizen (Ergänzung zu Luzernegrasheu ad lib.), C: Grassilage vs. Grasheu. Bei Versuch A sind die Futtereffekte am deutlichsten, Gruppeneffekte sind gering. Die Milch der Wiesenheu-Variante hat weniger CLA’s und n3- FS und mehr mittellangkettige FS (MCT-FS), das Pr&M-Muster weist auf „Gewebereifung und Ausdifferenzierung“ vs. bei KG-Heu „Nährstoff-fülle, Wachstum und Substanz-Einlagerung und die SB zeigen fein ausdifferenzierte Bildmerkmale. Bei Versuch B sind die Futtereffekte ähnlich groß wie die Gruppeneffekte. Bei vergleichbarer Milchleistung weist die Milch der FuR-Variante höhere F- und E-Gehalte auf, sie säuert schneller und mehr, das FS-Muster weist auf eine „intensive“ Fütterung mit vermehrt MCT- FS, und die Pr&M-Untersuchungen charakterisieren sie mit „Eisentransport und Fetttröpfchenbildung“ vs. bei Weizen „mehr Abwehr-, Regulations- und Transportfunktion“ /. „mehr Lipidsynthese“. Die SB charakterisieren mit „große, kräftige Formen, verwaschen“ vs. „kleine, ausdifferenzierte Bildmerkmal“ für FuR vs. Weizen. Die FAS charakterisiert sie mit „Saftfutter-typisch“ vs. „Samentypisch“. Versuch C weist die geringsten Futtereffekt auf, und deutliche Gruppen- und Zeiteffekte. Milchleistung und F,E,L-Gehalte zeigen keinen Futtereffekt. Die Milch der Heu-Variante säuert schneller, und sie weist mehr SCT und MCT- FS auf. Pr&M-Untersuchungen wurden nicht durchgeführt. Die SB charakterisieren bei Heumilch mit „fein, zart, durchgestaltet, hell“, bei Silagemilch mit „kräftig, wäßrig-verwaschen, dunkler“. Die FAS kann keine konsistenten Unterschiede ermitteln. Der Horn-Einfluß auf die Milchprobe wurde an 34 Probenpaaren untersucht. Von 11 Höfen wurden je zwei möglichst vergleichbare Gruppen zusammengestellt, die sich nur im Faktor „Horn“ unterscheiden, und im wöchentlichen Abstand drei mal beprobt. F,E,L, SCC und SE der Proben sowie die FAS-Messungen weisen keine konsistenten signifikanten Unterschiede zwischen den Horn-Varianten auf. Pr&M weisen bei den untersuchten Proben (von zwei Höfen) auf Horneffekte hin: bei Eh eine Erhöhung von Immun-Abwehr-Funktionen, sowie einer Abnahme phosphorylierter C3- und C6-Metabolite und Beta-Lactoglobulin. Mit den SB ließen sich für die gewählten Merkmale (S-Größe und g.B.-Intensität) keine Horneffekte feststellen. FS, Pr&M-Muster sowie Harnstoffgehalt und SB (und z.T. Milchleistung) zeigten je FV ähnliche Effekt-Intensitäten für Futter-, Gruppen- und Zeiteffekte, und konnten die Cross-Over-Effekte gut wiedergeben. F- und E-Gehalte konnten neben tierindividuellen Effekten nur in FV B auch Futtereffekte aufzeigen. In FV C zeigten die SE der Proben den deutlichsten Futtereffekt, die anderen Methoden zeigten hier vorrangig Gruppen-Effekte, gefolgt von Futter- und Zeiteffekten. Die FAS zeigte den SB vergleichbare Ergebnisse, jedoch weniger sensibel reagierend. Die Interpretation von Qualitätsaspekten war bei konsistent differenzierbaren Proben (FV A, B, C) am fundiertesten mit Hilfe der FS möglich, da über die Synthese von FS und beeinflussende Faktoren schon vielfältige Erkenntnisse vorliegen. Das Pr&M-Muster war nach einer weiteren Methodenentwicklung bei der Deutung von Stoffwechselprozessen sehr hilfreich. Die FAS konnte z.T. eine zu der Fütterungsvariante passende Charakterisierung liefern. Für die SB-M fehlt es noch an Referenzmaterial, um Angaben zu Qualitätsaspekten zu machen, wenngleich Probenunterschiede aufgezeigt und Proben-Eigenschaften charakterisiert werden konnten.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Während der Spermatogenese von Drosophila werden viele mRNAs zwar vor der Meiose transkribiert, dann aber durch Komplexbildung mit Proteinen stillgelegt und erst am Ende der Spermienentwicklung durch Veränderung desselben für die Translation freigegeben. Ein Beispiel hierfür ist die Mst87F mRNA. Während das cis-agierende Sequenzelement in der RNA seit langem bekannt ist, gestaltete sich die Suche nach den trans-agierenden RNA-bindenden Proteinen schwierig. In meiner Diplomarbeit (Stinski, 2007) waren mithilfe von präparativen Shift-Experimenten (Auftrennung von RNP-Komplexen im elektrischen Feld) zwei vielversprechende Kandidaten identifiziert worden, die Proteine Exuperantia (Exu) und Purity of Essence (Poe). Ziel der vorliegenden Dissertation war zum einen die Aufklärung der Funktion dieser Kandidatenproteine und zum anderen die Identifizierung weiterer Kandidaten, die an der Komplexbildung und damit an der Regulation beteiligt sind. Dabei war die Hoffnung, sowohl Proteine zu finden, die die Repression vermitteln, als auch solche, die am Ende die Aktivierung ermöglichen. Durch eine Affinitätsreinigung, in der Mst87F-RNA mit einem ms2-Tag versehen über das MS2-Maltose binding protein an eine Amylose-Matrix gebunden und schließlich die Komplexe mit Maltose wieder eluiert wurden, ließen sich erneut das Exu-Protein und drei neue Kandidaten identifizieren: CG3213, CG12470 und CG1898. Das Protein Exu hat eindeutig eine Funktion bei der Translationskontrolle: seine Abwesenheit führt zum Abbau der kontrollierten mRNAs. Die Inkubation mit exu-defizientem Protein-Extrakt (aus Hoden) unterstützt keine RNP-Komplexbildung und aufgereinigtes Exu-His Fusionsprotein kann auch nicht direkt an die Mst87F mRNA binden. Ein exu-defizienter Proteinextrakt lässt sich aber durch die Zugabe von rekombinantem Exu-His komplettieren und es entsteht wieder ein starker mRNP-Komplex. Dies beweist, dass das Experiment im Prinzip korrekt verläuft und dass Exu für die Komplexbildung entscheidend ist. Darüber hinaus konnten durch eine Co-Immunpräzipitation mit dem Exu-GFP Fusionsprotein sowohl interagierende Proteine als auch in die RNP-Komplexe einbezogene mRNAs nachgewiesen werden. Vielversprechende Kandidatenproteine stammen von den Genen CG3213, dfmr1 und CG12470. Die durch cDNA-Synthese in den Komplexen nachgewiesenen mRNAs sind in aller Regel solche, die der Translationskontrolle unterworfen sind. Damit ist gezeigt, dass Exu Teil eines großen Proteinkomplexes ist oder zumindest mit ihm assoziiert ist, der auf viele translationskontrollierte Transkripte Einfluss nimmt. Die Mst87F mRNA wird zum Zeitpunkt der Translationsaktivierung sekundär polyadenyliert, das heißt ihre Länge wird größer und heterogen. In einer Mutante für das Kandidatengen poe wurde diese sekundäre Polyadenylierung plötzlich nicht mehr beobachtet und die RNA blieb auch bei Translationsaktivierung so groß wie in den frühen Stadien. So ergab sich die Möglichkeit, endlich zu prüfen, ob die sekundäre Polyadenylierung für die Translationsaktivierung von essentieller Bedeutung ist. Eine Serie von Fusionskonstrukten mit funktionstüchtigem TCE verhielten sich alle gleich. Die sekundäre Polyadenylierung fand nicht statt, aber das Transkript des Fusionsgens wurde zum richtigen Zeitpunkt translatiert. Somit ist dieser Prozess zumindest nicht generell für eine Translation zu diesem späten Zeitpunkt in der Spermiogenese notwendig. Ein quantitativer Effekt kann allerdings nicht ausgeschlossen werden. Des Weiteren konnten mit antisense Konstrukten mutante Phänotypen erzeugt werden. Solche Männchen waren ausnahmslos steril, was die Wichtigkeit des Proteins Poe für den Prozess der Spermienreifung belegt. Die Defekte zeigen sich spät während der Individualisierung, was mit der vermuteten Funktion übereinstimmen würde. Das Kandidatenprotein dFMR1 bindet allein an die Mst87F RNA und trägt zur Stärke des beobachtbaren Komplexes bei. Die Komplexbildung zeigt Salzabhängigkeit, wie sie für dFMR1 in anderen Zusammenhängen dokumentiert wurde. Dies unterstützt die obige Aussage und suggeriert, dass dFMR1 die Basis für den Komplexaufbau bildet. Das CPEB-homologe Kandidatenprotein Orb2 bindet ebenfalls allein an die Mst87F mRNA, hat aber keinen Einfluss auf die Repression oder die sekundäre Polyadenylierung. Eine Beteiligung an der Regulation wäre demnach eindeutig unterschiedlich zu der in anderen Fällen dokumentierten Rolle. Die Expression der Kandidatengene CG1898, CG3213 und CG12470 ist konform mit einer unterschiedlichen Beteiligung an der Translationskontrolle. Das erste Protein ist nur in prämeiotischen Stadien, das zweite durchgängig und das dritte nur in postmeiotischen Stadien nachzuweisen, was einer Funktion bei der Stillegung, während der gesamten inaktiven Phase bzw. bei der Aktivierung entsprechen könnte. Die verschiedenen Experimente identifizieren in mehreren Fällen die gleichen Kandidatenproteine und untermauern damit deren Bedeutung. Sie lassen vielfach konkrete Schlüsse auf die Art der Interaktionen zu, welche in einem Schema zusammengefasst werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Kooperation zwischen den beiden Phasen der Lehrerbildung an Universität und Studienseminar und die Qualitätsssteigerung der schulpraktischen Ausbildung werden nicht nur im Hessischen Lehrerbildungsgesetz als eine der Möglichkeiten gesehen, die Ausbildungsqualität angehender Lehrer zu verbessern. Um die Bedingungen für die Intensivierung der Kooperation zwischen den beiden Phasen bestimmen zu können werden in einer Expertenbefragung (Studie 1) die Haltung und Erwartung von Vertretern der universitären Lehrerbildung, des Referendariats und der Bildungsadministration erhoben. Dabei werden die Schulpraktischen Studien als Beispiele für eine phasenübergreifende Kooperation herausgestellt. Die Untersuchung zeigt aber nicht nur geeignete Möglichkeit der Zusammenarbeit auf. Es werden auch Ursachen erforscht, welche Gründe die Kooperation hemmen oder behindern, wie etwa gegenseitige Vorbehalte, fehlende Verbindlichkeit oder institutionalisiertes Ungleichgewicht zwischen den beiden Phasen. Seit der Kritik u. a. von Terhart (2000) an der mangelnden Abstimmung zwischen Erster und Zweiter Phase der Lehrerbildung und der Klage von Oelkers (2000) über den fehlenden Nachweis, wie wirksam die Lehrerbildung ist, sind in den letzten Jahren Studien über die Erste und Zweite Phase der Lehrerbildung entstanden. In die Darstellung des Stand der Forschung zur schulpraktischen Lehrerausbildung werden zwei groß angelegte Untersuchungen (MT21 und COACTIV) einbezogen, deren Ergebnisse die Diskussion um die Wirksamkeit der (Mathematik-) Lehrerbildung und der Bedeutung des (mathematik-)fachdidaktischen Wissens in den letzten Jahren entscheidend geprägt haben. Darüber hinaus werden die Forschungen des Deutschen Instituts für internationale Bildungsforschung (DIPF) zum Referendariat und von Schubarth zur Lehrerausbildung in der Ersten und Zweiten Phase dargestellt. Zu den schulpraktischen Studien werden einschlägige Untersuchungen angeführt (wie die von Hascher oder von Bodensohn u.a.), die ergänzt bzw. kontrastiert werden durch die Ergebnisse kleinerer Evaluationen. Schließlich werden Studien zur Rolle der Mentoren herangezogen, die sich mit den Unterrichtsnachbesprechungen im Rahmen der Schulpraktika oder mit dem Mentorieren auseinandersetzen. In die Ergebnisse der Studie 1 (s.o.) und in den Forschungsstand lassen sich Kooperationsformen zwischen der Ersten und Zweiten Phase der Lehrerbildung einbetten, die in der schulpraktischen Ausbildung verwirklicht werden können. Mit dem Kooperationspraktikum haben Vertreter der Ersten und der Zweiten Phase der Lehrerausbildung gemeinsame eine Form gefunden, wie ohne strukturelle Veränderung und bei möglichst geringem zusätzlichen Aufwand im bestehenden Ausbildungsrahmen eine fünfwöchige Lernpartnerschaft zwischen Referendaren und Studierenden unter Verantwortung eines gemeinsamen Mentors realisiert werden kann. Die Evaluation dieses Kooperationspraktikums (Studie 2) zeigt, dass die Lernpartner diese Art der Zusammenarbeit positiv empfinden. Es werden aber auch Probleme aufgezeigt, die verdeutlichen, mit welchen Schwierigkeiten die Forderung nach phasenübergreifender Kooperation in der konkreten Umsetzung verbunden sein kann. Um die Befunde aus der Evaluation zum Kooperationspraktikum auch wegen der relativ kleinen Stichprobe richtig einordnen zu können, werden sie mit den relevanten Forschungsergebnissen in Verbindung gebracht. Idealisierende Vorstellungen von Kooperation zwischen Erster und Zweiter Phase sind allerdings fehl am Platz. Die Hoffnung auf einen bruchlosen Übergang unterschätzt auch die Anforderungen an den Rollenwechsel vom Studierenden zum Referendaren. Um ein Kooperation durch Lernpartnerschaften im Rahmen eines Kooperationspraktikums zu verwirklichen, sind Gelingens¬bedingungen zu berücksichtigen, zu denen sowohl Rahmenbedingungen als auch die Möglichkeiten zur Institutionalisierung gehören. Beide Ausbildungsphasen haben zwar als gemeinsames Ziel, Lehrer für die Schule zu qualifizieren und sie verbindet zudem der schulpraktische Ausbildungsteil, der in den Schulen stattfindet. Dieser Ausbildungsteil hat aber je nach Phase eine andere Bedeutung und unterscheidet sich zudem nicht nur nach Aufwand und Anspruch, sondern vor allem aufgrund der institutionellen Rolle seiner Akteure. Das Kooperationspraktikum berücksichtigt diese Unterschiedlichkeit und zeigt trotzdem einen Weg auf, gegenseitigen von der Zusammenarbeit zu profitieren. Von daher kann das Kooperationspraktikum einen Beitrag zur Weiterentwicklung der phasenübergreifenden Zusammenarbeit leisten und die Erkenntnisse könnten bei der Konzeption eines Praxissemesters gewinnbringend eingebracht werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Eine kleine Grünfläche im städtischen Freiraum, eine Baumscheibe, ca. 5 m² groß, öffentlich zugänglich. Dort wo eigentlich blühende Pflanzen das Straßenbild verschönern könnten, sieht man alle zwei Wochen, wenn es wieder auf den Müllabholungstag zugeht, eine Lawine aus Gelben Säcken, die immer weiter über die Grünfläche zu rollen scheint, und so auch das letzte bisschen Grün unter sich begräbt. Und die Gelben Lawinen beschränken sich dabei nicht nur auf eine einzelne Fläche, sondern nehmen gleich ganze Straßenzüge in Beschlag. Diese Beobachtungen im Kassler Stadtteil Nord-Holland bildeten den ersten Impuls für das Thema der vorliegenden Arbeit. Es entstand die Überlegung, ob diese gravierende Vermüllung der Flächen und damit die Abwertung des gesamten Straßenbildes (wenn nicht sogar des gesamten Stadtteils) nur eine persönliche Wahrnehmung ist oder ob es durchaus andere Menschen (und besonders die direkten Anwohner) gibt, die diese Ansicht teilen. Auch kam die Frage auf, wie hoch die Wertschätzung der Flächen von Seiten der Kommune her einzuschätzen ist. Unter Berücksichtigung der scheinbar zunehmend knapper werdenden Haushaltsmittel der Kommune, für die Pflege öffentlicher Grünflächen, in Kombination mit dem sich immer weiter verbreitenden Trend des „Urbanen Gärtnerns“, entstand die Idee, Strategien zur Aufwertung der Flächen zu entwickeln, dessen Grundlage aus einer Kooperation zwischen der Kommune und privaten Akteuren besteht. Wer diese Akteure sind (bzw. seien könnten), welche Bedürfnisse sie haben, wie sie zu einem Engagement ihrerseits motiviert werden und wie konkrete Projekte zur Aufwertung der Flächen aussehen können, soll in dieser Masterarbeit vorgestellt werden. Da der Stadtteil Nord-Holland im allgemeinen als „Sozialer Brennpunkt“ gilt (besonders der nördliche Teil), ist zu erwarten, dass besonders die Initiierung des Engagements der privaten Akteure dabei eine zusätzliche Herausforderung darstellen wird. Da es bereits verschiedene Strategien zur Aufwertung von städtischen Grünflächen gibt, sollen einige von ihnen, sowohl aus Kassel als auch aus anderen Städten, betrachtet und auf ihre Anwendbarkeit auf die ausgewählten Flächen geprüft werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In dieser Dissertation werden Methoden zur optimalen Aufgabenverteilung in Multirobotersystemen (engl. Multi-Robot Task Allocation – MRTA) zur Inspektion von Industrieanlagen untersucht. MRTA umfasst die Verteilung und Ablaufplanung von Aufgaben für eine Gruppe von Robotern unter Berücksichtigung von operativen Randbedingungen mit dem Ziel, die Gesamteinsatzkosten zu minimieren. Dank zunehmendem technischen Fortschritt und sinkenden Technologiekosten ist das Interesse an mobilen Robotern für den Industrieeinsatz in den letzten Jahren stark gestiegen. Viele Arbeiten konzentrieren sich auf Probleme der Mobilität wie Selbstlokalisierung und Kartierung, aber nur wenige Arbeiten untersuchen die optimale Aufgabenverteilung. Da sich mit einer guten Aufgabenverteilung eine effizientere Planung erreichen lässt (z. B. niedrigere Kosten, kürzere Ausführungszeit), ist das Ziel dieser Arbeit die Entwicklung von Lösungsmethoden für das aus Inspektionsaufgaben mit Einzel- und Zweiroboteraufgaben folgende Such-/Optimierungsproblem. Ein neuartiger hybrider Genetischer Algorithmus wird vorgestellt, der einen teilbevölkerungbasierten Genetischen Algorithmus zur globalen Optimierung mit lokalen Suchheuristiken kombiniert. Zur Beschleunigung dieses Algorithmus werden auf die fittesten Individuen einer Generation lokale Suchoperatoren angewendet. Der vorgestellte Algorithmus verteilt die Aufgaben nicht nur einfach und legt den Ablauf fest, sondern er bildet auch temporäre Roboterverbünde für Zweiroboteraufgaben, wodurch räumliche und zeitliche Randbedingungen entstehen. Vier alternative Kodierungsstrategien werden für den vorgestellten Algorithmus entworfen: Teilaufgabenbasierte Kodierung: Hierdurch werden alle möglichen Lösungen abgedeckt, allerdings ist der Suchraum sehr groß. Aufgabenbasierte Kodierung: Zwei Möglichkeiten zur Zuweisung von Zweiroboteraufgaben wurden implementiert, um die Effizienz des Algorithmus zu steigern. Gruppierungsbasierte Kodierung: Zeitliche Randbedingungen zur Gruppierung von Aufgaben werden vorgestellt, um gute Lösungen innerhalb einer kleinen Anzahl von Generationen zu erhalten. Zwei Umsetzungsvarianten werden vorgestellt. Dekompositionsbasierte Kodierung: Drei geometrische Zerlegungen wurden entworfen, die Informationen über die räumliche Anordnung ausnutzen, um Probleme zu lösen, die Inspektionsgebiete mit rechteckigen Geometrien aufweisen. In Simulationsstudien wird die Leistungsfähigkeit der verschiedenen hybriden Genetischen Algorithmen untersucht. Dazu wurde die Inspektion von Tanklagern einer Erdölraffinerie mit einer Gruppe homogener Inspektionsroboter als Anwendungsfall gewählt. Die Simulationen zeigen, dass Kodierungsstrategien, die auf der geometrischen Zerlegung basieren, bei einer kleinen Anzahl an Generationen eine bessere Lösung finden können als die anderen untersuchten Strategien. Diese Arbeit beschäftigt sich mit Einzel- und Zweiroboteraufgaben, die entweder von einem einzelnen mobilen Roboter erledigt werden können oder die Zusammenarbeit von zwei Robotern erfordern. Eine Erweiterung des entwickelten Algorithmus zur Behandlung von Aufgaben, die mehr als zwei Roboter erfordern, ist möglich, würde aber die Komplexität der Optimierungsaufgabe deutlich vergrößern.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die vorliegende Arbeit befasst sich mit dem lateralen Auflösungsvermögen in der kurzkohärenten Interferenzmikroskopie. Das 3D-Auflösungsvermögen von Phasenobjekten ist im Gegensatz zu dem von Intensitätsobjekten stark nichtlinear und vom spezifischen Messverfahren abhängig. In diesem Zusammenhang sind systematische Messfehler von entscheidender Bedeutung. Für die kurzkohärente Interferenzmikroskopie ist das Überschwingen an Kanten von besonderem Belang, da sich der Effekt bei der Messung vieler technischer Oberflächen negativ auswirkt. Er entsteht durch die Überlagerung von Interferenzsignalen lateral benachbarter Objektpunkte von unterschiedlichen Höhenniveaus. Es wird an speziell für diesen Zweck entwickelten Messsystemen untersucht in wie weit dieser Effekt physikalisch reduziert werden kann und wie sich dies auf die laterale Auflösung auswirkt. An einem für den Einsatz in einer Nanomessmaschine optimierten Linnik-Interferometer wird die Justage eines solchen Systems erläutert. Der Sensor verfügt über die Option mit NUV-Licht betrieben zu werden, um die laterale Auflösung zu verbessern. Aufgrund des Einsatzzweckes ist der Arbeitsabstand relativ groß, was die laterale Auflösung einschränkt. Mit einem zweiten auf die Untersuchungen in dieser Arbeit optimierten Versuchsaufbau können die physikalischen Grenzen der kurzkohärenten Interferenzmikroskopie praktisch untersucht werden. Zu diesem Zweck ist der Aufbau mit einem Mikrospiegelarray ausgestattet, um hierüber variable konfokale Blenden zu schaffen. Mit diesem System wird erstmalig konfokale Mikroskopie mit Weißlichtinterferometrie kombiniert. Durch die optische Selektion der konfokalen Mikroskopie soll die Ursache für die Überschwinger an Kanten reduziert werden. Eine weitere Möglichkeit der Einflussnahme stellt die optionale Beleuchtung mit polarisiertem Licht dar, wodurch die laterale Auflösung weiter gesteigert werden kann. Zusätzlich kann auch dieser Aufbau mit kurzwelligem blauem Licht betrieben werden, um die laterale Auflösung zu optimieren. Die Messergebnisse, die mit diesen Versuchsaufbauten gemacht wurden, zeigen, dass im Gegensatz zu den in der derzeitigen Normung genutzten Modellen das Übertragungsverhalten in der Weißlichtinterferometrie bei der Messung von Phasenobjekten stark nichtlinear ist. Das laterale Auflösungsvermögen deckt sich je nach Auswerteverfahren recht gut mit dem von klassischen Mikroskopen bei der Wiedergabe von Intensitätsobjekten. Für die Untersuchungen wurde überwiegend ein Auflösungsnormal mit neun unterschiedlichen eindimensionalen Rechteckstrukturen verwendet, die eine Nominalhöhe im kritischen Bereich kleiner der Kohärenzlänge der verwendeten Lichtquelle aufweisen. Die Ergebnisse bestätigen sich aber auch an technischen Messobjekten aus der Praxis wie beispielsweise einer „digital video disc“.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die fünf Arten des Heterobasidion annosum s. l.-Komplexes sind in Nordamerika und Eurasien dafür bekannt große Schäden in Nadelforsten zu verursachen. In Deutschland sind mit H. annsosum s. s., H. parviporum und H. abietinum alle drei eurasischen Weißfäuleerreger sympatrisch vertreten. Besonders in der Norddeutschen Tiefebene fallen H. annsoums s. s.-Stämme durch ansteigende Befallsherde und hohe Pathogenität auf. Seit Jahren untersucht die Nordwestdeutsche forstliche Versuchsanstalt (NW-FVA) Göttingen die Zusammenhänge der sogenannte „Ackersterbe“ in einzelnen Regionen. In diesem Zusammenhang sollte die vorliegende Arbeit den molekular-genetischen Aspekt behandeln und die inner- und zwischenartlichen Strukturen sowie das Beziehungsgefüge von H. annosum s. s. und H. parviporum-Individuen aus 18 europäischen Ländern darstellen. Für die molekularen Untersuchungen wurde die AFLP-Analyse (amplified fragment length polymorphism) ausgewählt. Die Vorteile der AFLP liegen in der großen Anzahl polymorpher und selektionsneutraler Marker, der guten Reproduzierbarkeit und der damit verbundenen Robustheit dieser Methode. Basierend auf acht AFLP-Primerpaarkombinationen mit 209 Individuen wurde eine binäre Matrix erstellt. Diese bildete die Grundlage für die molekulargenetischen Analysen und folgende Fragestellungen: Können die Heterobasidion-Individuen in Netzwerk- und Dendrogramm-Analysen den herkunftsspezifischen Populationen zugeordnet werden und lässt sich ein geografisches Muster erkennen? Wie groß ist das Ausmaß der genetischen Diversität innerhalb und zwischen den untersuchten europäischen Heterobasidion annosum s. l.-Populationen? Ist das gesteigerte Schadbild in der norddeutschen Tiefebene auf eine mögliche invasive Heterobasidion-Art zurückzuführen? Wie sieht die Populationsstruktur von Heterobasidion annosum s. l. in Europa bzw. Deutschland aus und gibt es Hinweise auf Subpopulationen oder Hybridisierungsereignisse? Die von der AFLP-Analyse erzeugten 888 informativen Marker wurden in Neighbor-Joining- und UPGMA-Phänogrammen, Median-joining Netzwerk und einem Principal coordinates analysis (PCoA)-Koordinatensystem dargestellt. Übereinstimmend zeigten sich die Arten H. annosum und H. parviporum eindeutig distinkt. Die Boostrapunterstützung der meisten H. annosum s. s.-Individuen erwies sich jedoch innerartlich als überwiegend schwach. Häufig kam es zu Gruppierungen der Individuen gemäß ihrer regionalen Herkunft. Seltener bildeten die Populationen gemeinsame Cluster entsprechend ihrer Länderzugehörigkeit. Eine zonale Gruppierungsstruktur der Individuen nach Süd-, Mittel-, und Nordeuropa konnte in keiner Analyse beobachtet werden. Mit der Analysis of Molecular Variance (AMOVA) wurde mit der AFLP-Methode eine genetische Varianz zwischen den beiden untersuchten Arten von 72 % nachgewiesen. Intraspezifisch ließ H. annosum s. s eine sehr hohe genetische Varianz innerhalb der Populationen (73%) und eine geringe Differenzierung zwischen diesen erkennen. Lediglich die deutschen Populationen zeigten eine gewisse Abgrenzung zueinander (33%). Als Ursache für die hohe individuelle genetische Vielfalt wird zum Einen das dichte Vorkommen der H. annosum s. s.- Wirte in Europa angesehen. Darüber hinaus sind gebietsfremde Sporeneinträge durch überregionale Forstarbeiten, globale Holzimporte und die für H. annosum s. s. nachgewiesenen weiten Sporenflüge zu erklären. Das Populationsannahmemodell von STRUCTURE generierte für den Datensatz beider Arten eine optimale Populationsanzahl von ΔK=4. Drei der Subpopulationen wurden H. annosum s. s. zugeordnet. Eine Korrelation dieser genetischen Cluster mit ihrem geografischen Ursprung oder der Wirtsbaumart war nicht feststellbar. Ein möglicher Zusammenhang der Subpopulationen mit weiteren ökologischen Parametern wie z. B. Substratgrundlage, Pathogenität, Sporulationsverhalten und sich änderte klimatische Umweltbedingungen konnten in dieser Studie nicht untersucht werden. Des Weiteren zeigte die STRUCTURE-Analyse, dass einige H. parviorum-Individuen Anteile eines H. annosum s. s.-Clusters führten. Um zu klären, ob es sich hierbei um einen erebten und konservierten Polymorphisums, oder um Introgression handelt, wären weiterführende Analysen notwendig.