999 resultados para Hilfe


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Sowohl die Ressourcenproblematik als auch die drohenden Ausmaße der Klimaänderung lassen einen Umstieg auf andere Energiequellen langfristig unausweichlich erscheinen und mittelfristig als dringend geboten. Unabhängig von der Frage, auf welchem Niveau sich der Energiebedarf stabilisieren lässt, bleibt dabei zu klären, welche Möglichkeiten sich aus technischer und wirtschaftlicher Sicht in Zukunft zur Deckung unseres Energiebedarfs anbieten. Eine aussichtsreiche Option besteht in der Nutzung regenerativer Energien in ihrer ganzen Vielfalt. Die Arbeit "Szenarien zur zukünftigen Stromversorgung, kostenoptimierte Variationen zur Versorgung Europas und seiner Nachbarn mit Strom aus erneuerbaren Energien" konzentriert sich mit der Stromversorgung auf einen Teilaspekt der Energieversorgung, der zunehmend an Wichtigkeit gewinnt und als ein Schlüssel zur nachhaltigen Energieversorgung interpretiert werden kann. Die Stromversorgung ist heute weltweit für etwa die Hälfte des anthropogenen CO2-Ausstoßes verantwortlich. In dieser Arbeit wurden anhand verschiedener Szenarien Möglichkeiten einer weitgehend CO2–neutralen Stromversorgung für Europa und seine nähere Umgebung untersucht, wobei das Szenariogebiet etwa 1,1 Mrd. Einwohner und einen Stromverbrauch von knapp 4000 TWh/a umfasst. Dabei wurde untersucht, wie die Stromversorgung aufgebaut sein sollte, damit sie möglichst kostengünstig verwirklicht werden kann. Diese Frage wurde beispielsweise für Szenarien untersucht, in denen ausschließlich heute marktverfügbare Techniken berücksichtigt wurden. Auch der Einfluss der Nutzung einiger neuer Technologien, die bisher noch in Entwicklung sind, auf die optimale Gestaltung der Stromversorgung, wurde anhand einiger Beispiele untersucht. Die Konzeption der zukünftigen Stromversorgung sollte dabei nach Möglichkeit objektiven Kriterien gehorchen, die auch die Vergleichbarkeit verschiedener Versorgungsansätze gewährleisten. Dafür wurde ein Optimierungsansatz gewählt, mit dessen Hilfe sowohl bei der Konfiguration als auch beim rechnerischen Betrieb des Stromversorgungssystems weitgehend auf subjektive Entscheidungsprozesse verzichtet werden kann. Die Optimierung hatte zum Ziel, für die definierte möglichst realitätsnahe Versorgungsaufgabe den idealen Kraftwerks- und Leitungspark zu bestimmen, der eine kostenoptimale Stromversorgung gewährleistet. Als Erzeugungsoptionen werden dabei u.a. die Nutzung Regenerativer Energien durch Wasserkraftwerke, Windenergiekonverter, Fallwindkraftwerke, Biomassekraftwerke sowie solare und geothermische Kraftwerke berücksichtigt. Abhängig von den gewählten Randbedingungen ergaben sich dabei unterschiedliche Szenarien. Das Ziel der Arbeit war, mit Hilfe unterschiedlicher Szenarien eine breite Basis als Entscheidungsgrundlage für zukünftige politische Weichenstellungen zu schaffen. Die Szenarien zeigen Optionen für eine zukünftige Gestaltung der Stromversorgung auf, machen Auswirkungen verschiedener – auch politischer – Rahmenbedingungen deutlich und stellen so die geforderte Entscheidungsgrundlage bereit. Als Grundlage für die Erstellung der Szenarien mussten die verschiedenen Potentiale erneuerbarer Energien in hoher zeitlicher und räumlicher Auflösung ermittelt werden, mit denen es erstmals möglich war, die Fragen einer großräumigen regenerativen Stromversorgung ohne ungesicherte Annahmen anhand einer verlässlichen Datengrundlage anzugehen. Auch die Charakteristika der verschiedensten Energiewandlungs- und Transportsysteme mussten studiert werden und sind wie deren Kosten und die verschiedenen Potentiale in der vorliegenden Arbeit ausführlich diskutiert. Als Ausgangsszenario und Bezugspunkt dient ein konservatives Grundszenario. Hierbei handelt es sich um ein Szenario für eine Stromversorgung unter ausschließlicher Nutzung erneuerbarer Energien, die wiederum ausschließlich auf heute bereits entwickelte Technologien zurückgreift und dabei für alle Komponenten die heutigen Kosten zugrundelegt. Dieses Grundszenario ist dementsprechend auch als eine Art konservative Worst-Case-Abschätzung für unsere Zukunftsoptionen bei der regenerativen Stromversorgung zu verstehen. Als Ergebnis der Optimierung basiert die Stromversorgung beim Grundszenario zum größten Teil auf der Stromproduktion aus Windkraft. Biomasse und schon heute bestehende Wasserkraft übernehmen den überwiegenden Teil der Backup-Aufgaben innerhalb des – mit leistungsstarker HGÜ (Hochspannungs–Gleichstrom–Übertragung) verknüpften – Stromversorgungsgebiets. Die Stromgestehungskosten liegen mit 4,65 €ct / kWh sehr nahe am heute Üblichen. Sie liegen niedriger als die heutigen Preisen an der Strombörse. In allen Szenarien – außer relativ teuren, restriktiv ”dezentralen” unter Ausschluss großräumig länderübergreifenden Stromtransports – spielt der Stromtransport eine wichtige Rolle. Er wird genutzt, um Ausgleichseffekte bei der dargebotsabhängigen Stromproduktion aus erneuerbaren Quellen zu realisieren, gute kostengünstige Potentiale nutzbar zu machen und um die Speicherwasserkraft sowie die dezentral genutzte Biomasse mit ihrer Speicherfähigkeit für großräumige Backup-Aufgaben zu erschließen. Damit erweist sich der Stromtransport als einer der Schlüssel zu einer kostengünstigen Stromversorgung. Dies wiederum kann als Handlungsempfehlung bei politischen Weichenstellungen interpretiert werden, die demnach gezielt auf internationale Kooperation im Bereich der Nutzung erneuerbarer Energien setzen und insbesondere den großräumigen Stromtransport mit einbeziehen sollten. Die Szenarien stellen detaillierte und verlässliche Grundlagen für wichtige politische und technologische Zukunftsentscheidungen zur Verfügung. Sie zeigen, dass bei internationaler Kooperation selbst bei konservativen Annahmen eine rein regenerative Stromversorgung möglich ist, die wirtschaftlich ohne Probleme zu realisieren wäre und verweisen den Handlungsbedarf in den Bereich der Politik. Eine wesentliche Aufgabe der Politik läge darin, die internationale Kooperation zu organisieren und Instrumente für eine Umgestaltung der Stromversorgung zu entwickeln. Dabei kann davon ausgegangen werden, dass nicht nur ein sinnvoller Weg zu einer CO2–neutralen Stromversorgung beschritten würde, sondern sich darüber hinaus ausgezeichnete Entwicklungsperspektiven für die ärmeren Nachbarstaaten der EU und Europas eröffnen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Dissertation leistet einen Beitrag zur Konstruktion von Geschlechterverhältnissen in der Ehe vor der Reformation. Untersucht werden zwei Texte des 15. Jahrhunderts: Die sogenannte Erste deutsche Bibel (EDB) und die Dichtung Der Ackermann aus Böhmen von Johannes von Tepl. Die Wort-für-Wort-Analyse beider Texte hat aus der zeitgebundenen deutschen Sprachgestalt spezifi-sche Denkfiguren erschlossen. Zentral ist die Gestaltung des Verhältnisses zwischen Gott und Menschen als Rechtsbeziehung Lehen. Das erste Kapitel analysiert und interpretiert die für Ehe- und Geschlechterkonzepte grund-legenden Aussagen von Genesis 1 - 4,1 und den Kanon der fünf Weisheitsbücher der EDB mit folgenden Ergebnissen: 1. Die EDB ist als Rechtsbuch zu lesen, dessen Zentrum die göttliche Herrschaft mit ihrer Rechts-ordnung ist. In diesem Rahmen wird für Mann und Frau die Ordnung Paar definiert. 2. Beide Geschlechter sind gleichwertig. Das kommt in ihren jeweiligen Handlungsfeldern (Werkordnungen) zum Ausdruck. 3. Der Begriff hilffen für die Ehefrau bedeutet Hilfe zum Heil ihres Mannes und eine spezifische Gottesnähe. Dies ist ein entscheidender Unterschied zu Luthers Bibelübersetzung, welche die Frau als untergeordnete Gehilfin des Mannes gestaltet. (Anhang III stellt die EDB-Verse der Lu-therübersetzung von 1545 gegenüber.) 4. Der Sündenfall wird als Rechtsbruch beschrieben, der den Wechsel von der Schöpfungsord-nung im Paradies zur Weltordnung auslöst, die mit den Urteilen Gottes über Frau und Mann beginnt (Genesis 3). Die Urteile fassen die Ehe in einem Diagonalkreuz, welches vier Faktoren untrennbar verbindet: Herrschaft mit Unterordnung sowie hilffen (Gebären) mit Tod. Die Ge-schlechterunterschiede sind konstituierend für die Ehe im Diagonalkreuz. In der EDB lassen sich drei Paarkonstellationen unterscheiden: die Ehe im Diagonalkreuz zwischen dem guten weib und dem weisen Mann, die Ehe ohne Diagonalkreuz zwischen dem un-weib und dem unweisen Mann und die nichteheliche Geschlechterbeziehung zwischen dem gemeinem weib und dem ee-brecher. Das zweite Kapitel der Dissertation vergleicht die alttestamentarischen Ehekonzepte der EDB mit denen der Dichtung Ackermann aus Böhmen. Die rhetorische Form des Streitgesprächs zwischen Witwer und hern Tot zeigt die Struktur eines deutschrechtlichen Prozesses. In diesem Rahmen gewinnen die gegensätzlichen Aussagen über die Ehe die Bedeutung von Rechtspositionen, die in konträren göttlichen Herrschaftsordnungen verortet werden. Die vom Witwer vertretene Herrschaftsordnung beruht auf der alttestamentarischen Rechtsordnung der EDB, während die Positionen des hern Tot diese Rechtsordnung verkehren, indem er die Herrschaftsordnung der Welt als sein Eigen definiert. Ein weiteres Ergebnis des Vergleichs zwischen der EDB und dem Ackermann aus Böhmen ist, dass sowohl die alttestamentarischen Bücher als auch die Dichtung Rechtsfiguren präsentieren. Entscheidend sind in beiden Texten die Urteile Gottes, die jeweils einen Paradigmenwechsel kon-stituieren. In der EDB wird nach dem Sündenfall die (paradiesische) Rechtsordnung in die Rechtsordnung ee gewandelt. Im Ackermann wird die alttestamentarische Rechtsordnung ee der EDB durch die ordenung Tod ersetzt, mit der zugleich die Ordnung Paar nicht mehr gilt. Die Urtei-le Gottes in der EDB definieren das Paar als zweigeschlechtlichen Menschen, das Urteil im Ackermann charakterisiert zwei Einzelmenschen: Mann oder Frau. Damit wird die zentrale Bedeutung der Ehefrau als hilffen zum Heil ihres Mannes aufgehoben, weil die wechselseitige Angewiesenheit von Mann und Frau nicht mehr gegeben ist. Insofern ist hier ein wichtiger Schritt zum reformatorischen Eheverständnis zu erkennen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Summation ueber des vollstaendige Spektrum des Atoms, die in der Stoehrungstheorie zweiter Ordnung vorkommt, wurde mit Hilfe der Greenschen Funktion Methode berechnet. Die Methode der Greenschen Funktion verlangt die Berechnung der unterschiedlichen Greenschen Funktionen: eine Coulomb-Greensche-Funktion im Fall von wasserstoffaehnlichen Ionen und eine Zentral-feld-Greensche-Funktion im Fall des Vielelektronen-Atoms. Die entwickelte Greensche Funktion erlaubte uns die folgenden atomaren Systeme in die Zweiphotonenionisierung der folgenden atomaren Systeme zu untersuchen: - wasserstoffaehnliche Ionen, um relativistische und Multipol-Effekte aufzudecken, - die aeussere Schale des Lithium; Helium und Helium-aehnliches Neon im Grundzustand, um taugliche Modelle des atomaren Feldes zu erhalten, - K- und L-Schalen des Argon, um die Vielelektronen-Effekte abzuschaetzen. Zusammenfassend, die relativistische Effekte ergeben sich in einer allgemeinen Reduzierung der Zweiphotonen Wirkungsquerschnitte. Zum Beispiel, betraegt das Verhaeltnis zwischen den nichtrelativistischen und relativistischen Wirkungsquerschnitten einen Faktor zwei fuer wasserstoffaehnliches Uran. Ausser dieser relativistischen Kontraktion, ist auch die relativistische Aufspaltung der Zwischenzustaende fuer mittelschwere Ionen sichtbar. Im Gegensatz zu den relativistischen Effekten, beeinflussen die Multipol-Effekte die totalen Wirkungsquerschnitte sehr wenig, so dass die Langwellennaeherung mit der exakten Naeherung fuer schwere Ionen sogar innerhalb von 5 Prozent uebereinstimmt. Die winkelaufgeloesten Wirkungsquerschnitte werden durch die relativistischen Effekte auf eine beeindruckende Weise beeinflusst: die Form der differentiellen Wirkungsquerschnitte aendert sich (qualitativ) abhaengig von der Photonenenergie. Ausserdem kann die Beruecksichtigung der hoeheren Multipole die elektronische Ausbeute um einen Faktor drei aendern. Die Vielelektronen-Effekte in der Zweiphotonenionisierung wurden am Beispiel der K- und L-Schalen des Argon analysiert. Hiermit wurden die totalen Wirkungsquerschnitte in einer Ein-aktives-Elektron-Naeherung (single-active-electron approximation) berechnet. Es hat sich herausgestellt, dass die Elektron--Elektron-Wechselwirkung sehr wichtig fuer die L-Schale und vernachlaessigbar fuer die K-Schale ist. Das bedeutet, dass man die totalen Wirkungsquerschnitte mit wasserstoffaehnlichen Modellen im Fall der K-Schale beschreiben kann, aber fuer die L-Schale fortgeschrittene Modelle erforderlich sind. Die Ergebnisse fuer Vielelektronen-Atome wurden mittels einer Dirac-Zentral-feld-Greenschen Funktion erlangt. Ein numerischer Algorithmus wurde urspruenglich von McGuire (1981) fuer der Schroedinger-Zentral-feld-Greensche Funktion eingefuehrt. Der Algorithmus wurde in dieser Arbeit zum ersten Mal fuer die Dirac-Gleichung angewandt. Unser Algorithmus benutzt die Kummer- und Tricomi-Funktionen, die mit Hilfe eines zuverlaessigen, aber noch immer langsamen Programmes berechnet wurden. Die Langsamkeit des Programms begrenzt den Bereich der Aufgaben, die effizient geloest werden koennen. Die Zentral-feld-Greensche Funktion konnte bei den folgenden Problemen benutzt werden: - Berechnung der Zweiphotonen-Zerfallsraten, - Berechnung der Zweiphotonenanregung und -ionisierungs-Wirkungsquerschnitte, - Berechnung die Multiphotonenanregung und -ionisierungs-Wirkungsquerschnitte, - Berechnung einer atomaren Vielelektronen-Green-Funktion. Von diesen Aufgaben koennen nur die ersten beiden in angemessener Zeit geloest werden. Fuer die letzten beiden Aufgaben ist unsere Implementierung zu langsam und muss weiter verbessert werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In der vorliegenden Arbeit ging es um die Erarbeitung, Anwendung und Beurteilung von quantitativen Analysenverfahren / Methoden für ein Monitoring von durch Bt-Mais verursachbaren Umwelteffekten im Boden. Die Ausgangsthese besagte, dass sich transgene Maisstreu beim mikrobiellen Abbau anders verhält als konventionelle. Bezugnehmend auf die These wurden zwei Freilandversuche (Freilandmikrokosmenmethode nach Raubuch 1997 über 2 Jahre, Quantifizierung des Maisstreuabbaus mit Hilfe kleiner Bodensäulen über 1 Jahr) und zwei Inkubationsversuche im Labor (INK bei drei verschiedenen Temperaturen über 49 Tage und INK mit verschiedenen landwirtschaftlich genutzten Böden über 49 Tage mit jeweils kontinuierlicher Respirationsratenermittlung nach Isermeyer 1952) sowie Inhaltsstoffbestimmungen der Maisstreu durchgeführt. Für alle Untersuchungen wurde Streu der vier Maissorten Novelis (transgen, Monsanto 810), Nobilis (Isolinie von Novelis), Valmont (transgen, Bt 176, Fa. Syngenta) und Prelude (Isolinie von Valmont) eingesetzt. Nach Beendigung der Laborversuche sowie des Freilandversuches nach der Freilandmikrokosmenmethode wurden mikrobielle Messgrößen wie Adenylategehalt, Ergosterolgehalt, Cmik- und Nmik-Gehalt am Boden-Streu-Gemisch bestimmt. Der Einsatz der Isotopentechnik (Bestimmung von 13C/12C an gemahlenem Boden-Streu-Gemisch bzw. gefriergetrocknetem K2SO4 als Extrakt aus dem Boden-Streu-Gemisch) ermöglichte eine genaue Quantifizierung der abgebauten Maisstreu und brachte dadurch Aufschluss über das Abbauverhalten verschiedener Maissorten. Bezüglich der Ermittlung der mikrobiellen Messgrößen ergab sich für die transgene Sorte Novelis* stets eine durchschnittlich geringere pilzliche Biomasse. Langfristig ergaben sich bei der Kohlenstoff- und Stickstoffdynamik keine Trends hinsichtlich transgener bzw. konventioneller Maisstreu. Sowohl im Freilandversuch nach der Mikrokosmenmethode als auch in den Inkubationsversuchen trat das Phänomen der kurzzeitigen Respirationsratenerhöhung der Mikroorganismen nach Zugabe der transgenen Maissorten auf, welches nicht bei Zugabe der konventionellen Maisstreu auszumachen war. ______________________________

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Den Schwerpunkt dieser Dissertation bildet zum einen die Entwicklung eines theoretischen Modells zur Beschreibung des Strukturbildungsprozesses in organisch/anorganischen Doppelschichtsystemen und zum anderen die Untersuchung der Übertragbarkeit dieser theoretisch gewonnenen Ergebnisse auf reale Systeme. Hierzu dienen systematische experimentelle Untersuchungen dieses Phänomens an einem Testsystem. Der Bereich der selbstorganisierenden Systeme ist von hohem wissenschaftlichen Interesse, erlaubt er doch die Realisierung von Strukturen, die nicht den Begrenzungen heutiger Techniken unterliegen, wie etwa der Beugung bei lithographischen Verfahren. Darüber hinaus liefert ein vertieftes Verständnis des Strukturbildungsprozesses auch eine Möglichkeit, im Falle entsprechender technischer Anwendungen Instabilitäten innerhalb der Schichtsysteme zu verhindern und somit einer Degradation der Bauteile entgegenzuwirken. Im theoretischen Teil der Arbeit konnte ein Modell im Rahmen der klassischen Elastizitätstheorie entwickelt werden, mit dessen Hilfe sich die Entstehung der Strukturen in Doppelschichtsystemen verstehen läßt. Der hier gefundene funktionale Zusammenhang zwischen der Periode der Strukturen und dem Verhältnis der Schichtdicken von organischer und anorganischer Schicht, wird durch die experimentellen Ergebnisse sehr gut bestätigt. Die Ergebnisse zeigen, daß es technologisch möglich ist, über die Vorgabe der Schichtdicke in einem Materialsystem die Periodizität der entstehenden Strukturen vorzugeben. Darüber hinaus liefert das vorgestellte Modell eine Stabilitätsbedingung für die Schichtsysteme, die es ermöglicht, zu jedem Zeitpunkt die dominierende Mode zu identifizieren. Ein Schwerpunkt der experimentellen Untersuchungen dieser Arbeit liegt auf der Strukturbildung innerhalb der Schichtsysteme. Das Testsystem wurde durch Aufbringen einer organischen Schicht - eines sog. Molekularen Glases - auf ein Glassubstrat realisiert, als Deckschicht diente eine Siliziumnitrid-Schicht. Es wurden Proben mit variierenden Schichtdicken kontrolliert erwärmt. Sobald die Temperatur des Schichtsystems in der Größenordnung der Glasübergangstemperatur des jeweiligen organischen Materials lag, fand spontan eine Strukturbildung auf Grund einer Spannungsrelaxation statt. Es ließen sich durch die Wahl einer entsprechenden Heizquelle unterschiedliche Strukturen realisieren. Bei Verwendung eines gepulsten Lasers, also einer kreisförmigen Wärmequelle, ordneten sich die Strukturen konzentrisch an, wohingegen sich ihre Ausrichtung bei Verwendung einer flächenhaften Heizplatte statistisch verteilte. Auffällig bei allen Strukturen war eine starke Modulation der Oberfläche. Ferner konnte in der Arbeit gezeigt werden, daß sich durch eine gezielte Veränderung der Spannungsverteilung innerhalb der Schichtsysteme die Ausrichtung der Strukturen (gezielt) manipulieren ließen. Unabhängig davon erlaubte die Variation der Schichtdicken die Realisierung von Strukturen mit einer Periodizität im Bereich von einigen µm bis hinunter zu etwa 200 nm. Die Kontrolle über die Ausrichtung und die Periodizität ist Grundvoraussetzung für eine zukünftige technologische Nutzung des Effektes zur kontrollierten Herstellung von Mikro- bzw. Nanostrukturen. Darüber hinaus konnte ein zunächst von der Strukturbildung unabhängiges Konzept eines aktiven Sensors für die optische Raster-Nahfeld-Mikroskopie vorgestellt werden, das das oben beschriebene System, bestehend aus einem fluoreszierenden Molekularen Glas und einer Siliziumnitrid-Deckschicht, verwendet. Erste theoretische und experimentelle Ergebnisse zeigen das technologische Potential dieses Sensortyps.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Der pH-Wert stellt in der Chemie, Physik, Biologie, Pharmazie und Medizin eine wichtige Meßgröße dar, da eine Vielzahl von Reaktionen durch den pH-Wert bestimmt wird. In der Regel werden zur pH-Wert-Messung Glaselektroden eingesetzt. Hierbei konnte der pH-sensitive Bereich zwar bis auf einige Mikrometer reduziert werden, aber die Gesamtab-messungen betragen immer noch 15-20 cm. Mit der Einführung miniaturisierter Reaktionsgefäße ist daher der Bedarf an miniaturisierten Sensoren enorm gestiegen. Um in solchen Gefäßen Reaktionsparameter wie z. B. den pH-Wert zu kontrollieren, müssen die Gesamtabmessungen der Sensoren verringert werden. Dies lässt sich mit Hilfe der Mikrostrukturtechnik von Silizium realisieren. Hiermit lassen sich Strukturen und ganze Systeme bis in den Nanometerbereich herstellen. Basierend auf Silizium und Gold als Elektrodenmaterial wurden im Rahmen dieser Arbeit verschiedene Interdigitalstrukturen hergestellt. Um diese Strukturen zur pH-Wert-Messungen einsetzen zu können, müssen sie mit einer pH-sensitiven Schicht versehen werden. Hierbei wurde Polyanilin, ein intrinsisch leitendes Polymer, aufgrund seine pH-abhängigen elektrischen und optischen Verhaltens eingesetzt. Die Beschichtung dieser Sensoren mit Polyanilin erfolgte vorwiegend elektrochemisch mit Hilfe der Zyklovoltammetrie. Neben der Herstellung reiner Polyanilinfilme wurden auch Kopolymerisationen von Anilin und seinen entsprechenden Aminobenzoesäure- bzw. Aminobenzensulfonsäurederivaten durchgeführt. Ergebnisse dazu werden vorgestellt und diskutiert. Zur Charakterisierung der resultierenden Polyanilin- und Kopolymerfilme auf den Inter-digitalstrukturen wurden mit Hilfe der ATR-FT-IR-Spektroskopie Spektren aufgenommen, die gezeigt und diskutiert werden. Eine elektrochemische Charakterisierung der Polymere erfolgte mittels der Zyklovoltammetrie. Die mit Polyanilin bzw. seinen Kopolymeren beschichteten Sensoren wurden dann für Widerstandsmessungen an den Polymerfilmen in wässrigen Medien eingesetzt. Polyanilin zeigt lediglich eine pH-Sensitivität in einem pH-Bereich von pH 2 bis pH 4. Durch den Einsatz der Kopolymere konnte dieser pH-sensitive Bereich jedoch bis zu einem pH-Wert von 10 ausgeweitet werden. Zur weiteren Miniaturisierung der Sensoren wurde das Konzept der interdigitalen Elektroden-paare auf Cantilever übertragen. Die pH-sensitive Zone konnte dabei auf 500 µm2 bei einer Gesamtlänge des Sensors (Halter mit integriertem Cantilever) von 4 mm reduziert werden. Neben den elektrischen pH-abhängigen Eigenschaften können auch die optischen Eigen-schaften des Polyanilins zur pH-Detektion herangezogen werden. Diese wurden zunächst mit Hilfe der UV-VIS-Spektroskopie untersucht. Die erhaltenen Spektren werden gezeigt und kurz diskutiert. Mit Hilfe eines Raster-Sonden-Mikroskops (a-SNOM, Firma WITec) wurden Reflexionsmessungen an Polyanilinschichten durchgeführt. Zur weiteren Miniaturisierung wurden Siliziumdioxidhohlpyramiden (Basisfläche 400 µm2) mit Spitzenöffnungen in einem Bereich von 50-150 nm mit Polyanilin beschichtet. Auch hier sollten die optischen Eigenschaften des Polyanilins zur pH-Wert-Sensorik ausgenutzt werden. Es werden erste Messungen an diesen Strukturen in Transmission diskutiert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Dissertation beschäftigt sich mit dem Jugendmarketing im Bankbereich. Es werden die verschiedenen Probleme dieser heterogenen Klientel aufgezeigt und unterschiedliche Handhabungen von Banken zur Bewältigung dieses Problems vorgestellt. Ein Schwerpunkt bildet die Untersuchung zwischen Werbeaufwand und Werbeerfolg (gemessen durch den Deckungsbeitrag) der Jugendlichen vom 1. bis 28. Lebensjahr unter besonderer Berücksichtigung der Sparkassen von Ober- und Unterfranken sowie ein Vergleich der beiden Regionen mit entsprechenden Institutsempfehlungen zur Steigerung ihres Deckungsbeitrages. Eine weitere empirische Untersuchung des Verhaltens von Jugendlichen und ihre Einstellung zur Kreditinstituten wurde mit Hilfe von Schüler- und Bankbefragungen vorgenommen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Vielen Sensoren in mikroelektromechanische Systemen (MEMS) liegen Siliziummembranen zu Grunde. Die Membranen werden mit unterschiedlichen Verfahren hergestellt. Zum Teil kann man Opferschichten benutzen. Will man jedoch Membranen aus kristallinem Silizium, so muß man auf Ätzstopptechniken zurückgreifen. Eine gängige Methode verwendet vergrabene p^(+)-Schichten. Die sehr hohe Dotierung des Siliziums führt jedoch zu unüberwindbaren Problemen bei der Schaltkreisintegration. Die Verwendung von pn-Übergängen beim elektrochemischen Ätzen als Ätzstopp scheint eine aussichtsreiche Lösung. Die Dotierstoffkonzentrationen sind unkritisch, da sie die Elektronik nicht beeinflussen. Die Siliziummembranen lassen sich mit den üblichen Standard-IC-Prozessen herstellen. Ein Ziel der vorliegenden Arbeit bestand darin, die physikalisch-chemische Erklärung des elektrochemischen Ätzstopps von Silizium in alkalischen Lösungen zu finden. Dabei sollten Effekte untersucht werden, die einen Einfluß auf das Ätzstoppverhalten haben, wozu insbesondere - die Verarmungszone unterhalb der p-Silizium/Elektrolyt-Phasengrenzfläche - sowie die Raumladungszone des in Sperrichtung geschalteten pn-Übergangs zählen. Ausgangspunkt sind die chemischen Ätzmechanismen des Siliziums respektive des Siliziumdioxids, wobei der Mechanismus des Siliziumätzens in alkalischen Lösungen und die elektrochemischen Effekte ausführlich beschrieben werden. Es zeigt sich ein starker Einfluß der Oberflächenelektronen im Leitungsband des Siliziums und der Hydroxidionen des Elektrolyten auf den Auflösungsmechanismus des Siliziums. Diese Erkenntnisse ermöglichen es, den mittels pn-Übergangs kontrollierten elektrochemischen Ätzstopp vollständig zu beschreiben. Es zeigte sich, daß die Dicke der Membran von den Dotierstoffkonzentrationen des p-Siliziumsubstrats und der n-Siliziumschicht, der Tiefe der n-Dotierung, der Temperatur im Ätzsystem und besonders von der anodischen Sperrspannung abhängig ist. Zur Verifizierung wurden Siliziummembrandicken mit Hilfe von IR-Ellipsometrie vermessen. Im Rahmen dieser Arbeit wurde auch der es Einflusses von starken Dotierungen im Silizium auf dessen elastische Eigenschaften untersucht, im speziellen bei µm-dünnen Membranen, die mittels elektrochemischen Ätzstopps hergestellt wurden. Dabei wird auf den Einfluß der hohen Dotierstoffkonzentrationen ein besonderes Augenmerk gelegt. Der Youngsche Modul läßt sich bei einem Zugversuch durch Messung der Ausdehnung ermitteln. Für eine zerstörungsfreie Messung der sehr dünnen pn-Siliziummembranen wird die Dehnung berührungslos mit Hilfe des Laser-Speckle Extensometers gemessen. Laserakustische Oberflächenwellen wurden eingesetzt, um gezielt den Einfluß der unterschiedlich starken Dotierung mit Phosphor auf den Elastizitätsmodul zu ermitteln.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die relativistische Multikonfigurations Dirac-Fock (MCDF) Methode ist gegenwärtig eines der am häufigsten benutzten Verfahren zur Berechnung der elektronischen Struktur und der Eigenschaften freier Atome. In diesem Verfahren werden die Wellenfunktionen ausgewählter atomarer Zustände als eine Linearkombination von sogenannten Konfigurationszuständen (CSF - Configuration State Functions) konstruiert, die in einem Teilraum des N-Elektronen Hilbert-Raumes eine (Vielteilchen-)Basis aufspannen. Die konkrete Konstruktion dieser Basis entscheidet letzlich über die Güte der Wellenfunktionen, die üblicherweise mit Hilfe einer Variation des Erwartungswertes zum no-pair Dirac-Coulomb Hamiltonoperators gewonnen werden. Mit Hilfe von MCDF Wellenfunktionen können die dominanten relativistischen und Korrelationseffekte in freien Atomen allgemein recht gut erfaßt und verstanden werden. Außer der instantanen Coulombabstoßung zwischen allen Elektronenpaaren werden dabei auch die relativistischen Korrekturen zur Elektron-Elektron Wechselwirkung, d.h. die magnetischen und Retardierungsbeiträge in der Wechselwirkung der Elektronen untereinander, die Ankopplung der Elektronen an das Strahlungsfeld sowie der Einfluß eines ausgedehnten Kernmodells erfaßt. Im Vergleich mit früheren MCDF Rechnungen werden in den in dieser Arbeit diskutierten Fallstudien Wellenfunktionsentwicklungen verwendet, die um 1-2 Größenordnungen aufwendiger sind und daher systematische Untersuchungen inzwischen auch an Atomen mit offenen d- und f-Schalen erlauben. Eine spontane Emission oder Absorption von Photonen kann bei freien Atomen theoretisch am einfachsten mit Hilfe von Übergangswahrscheinlichkeiten erfaßt werden. Solche Daten werden heute in vielen Forschungsbereichen benötigt, wobei neben den traditionellen Gebieten der Fusionsforschung und Astrophysik zunehmend auch neue Forschungsrichtungen (z.B. Nanostrukturforschung und Röntgenlithographie) zunehmend ins Blickfeld rücken. Um die Zuverlässigkeit unserer theoretischen Vorhersagen zu erhöhen, wurde in dieser Arbeit insbesondere die Relaxation der gebundenen Elektronendichte, die rechentechnisch einen deutlich größeren Aufwand erfordert, detailliert untersucht. Eine Berücksichtigung dieser Relaxationseffekte führt oftmals auch zu einer deutlich besseren Übereinstimmung mit experimentellen Werten, insbesondere für dn=1 Übergänge sowie für schwache und Interkombinationslinien, die innerhalb einer Hauptschale (dn=0) vorkommen. Unsere in den vergangenen Jahren verbesserten Rechnungen zu den Wellenfunktionen und Übergangswahrscheinlichkeiten zeigen deutlich den Fortschritt bei der Behandlung komplexer Atome. Gleichzeitig kann dieses neue Herangehen künftig aber auch auf (i) kompliziertere Schalensstrukturen, (ii) die Untersuchung von Zwei-Elektronen-ein-Photon (TEOP) Übergängen sowie (iii) auf eine Reihe weiterer atomarer Eigenschaften übertragen werden, die bekanntermaßen empflindlich von der Relaxation der Elektronendichte abhängen. Dies sind bspw. Augerzerfälle, die atomare Photoionisation oder auch strahlende und dielektronische Rekombinationsprozesse, die theoretisch bisher nur selten überhaupt in der Dirac-Fock Näherung betrachtet wurden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In der vorliegenden Arbeit wird ein Unterrichtskonzept für die gymnasiale Oberstufe beschrieben, das anhand der Polarisationseigenschaft des Lichts von der Beobachtung ausgehend einen Zugang zur Quantenphysik ermöglicht. Die Unterrichtsinhalte bauen so aufeinander auf, dass ein "harter Bruch" zwischen der klassischen und der quantenphysikalischen Beschreibung von Licht vermieden wird. Das methodische Vorgehen des Unterrichtskonzeptes führt vom Phänomen ausgehend zu quantitativen Experimenten hin zu einer Einführung in quantenphysikalische Begriffe und Prinzipien. Dabei bildet der elektrische Feldvektor die Verknüpfung zwischen der klassischen und der quantenphysi-kalischen Beschreibung der Polarisationsexperimente, in dem er zunächst die Polarisationsexperimente beschreibt und im weiteren Verlauf des Unterrichtsganges als Wahrscheinlichkeitsamplitude gedeutet wird. Die Polarisation von Licht wird zu Beginn des Unterrichtsganges im Rahmen eines fächerübergreifenden Kontextes eingeführt, wobei die Navigation der Insekten nach dem polarisierten Himmelslicht als Einstieg dient. Die Erzeugung und die Eigen-schaften von polarisiertem Licht werden anhand von einfachen qualitativen Schüler- und Demonstrationsexperimenten mit Polarisationsfolien erarbeitet. Das Polarisationsphänomen der Haidinger-Büschel, das bei der Beobachtung von polarisiertem Licht wahrgenommen werden kann, ermöglicht eine Anbindung an das eigene Erleben der Schülerinnen und Schüler. Zur Erklärung dieser Experimente auf der Modellebene wird der elektrische Feldvektor und dessen Komponentenzerlegung benutzt. Im weiteren Verlauf des Unterrichtsganges wird die Komponentenzerlegung des elektrischen Feldvektors für eine quantitative Beschreibung der Polarisationsexperimente wieder aufgegriffen. In Experimenten mit Polarisationsfiltern wird durch Intensitätsmessungen das Malussche Gesetz und der quadratische Zusammenhang zwischen Intensität und elektrischem Feldvektor erarbeitet. Als Abschluss der klassischen Polarisationsexperimente wird das Verhalten von polarisiertem Licht bei Überlagerung in einem Michelson-Interferometer untersucht. Das in Abhängigkeit der Polarisationsrichtungen entstehende Interferenzmuster wird wiederum mit Hilfe der Komponentenzerlegung des elektrischen Feldvektors beschrieben und führt zum Superpositionsprinzip der elektrischen Feldvektoren. Beim Übergang zur Quantenphysik werden die bereits durchgeführten Polarisationsexperimente als Gedankenexperimente in der Photonenvorstellung gedeutet. Zur Beschreibung der Polarisation von Photonen wird der Begriff des Zustandes eingeführt, der durch die Wechselwirkung der Photonen mit dem Polarisationsfilter erzeugt wird. Das Malussche Gesetz wird in der Teilchenvorstellung wieder aufgegriffen und führt mit Hilfe der statistischen Deutung zum Begriff der Wahrscheinlichkeit. Bei der Beschreibung von Interferenzexperimenten mit einzelnen Photonen wird die Notwendigkeit eines Analogons zum elektrischen Feldvektor deutlich. Diese Betrachtungen führen zum Begriff der Wahrscheinlichkeitsamplitude und zum Superpositionsprinzip der Wahrscheinlichkeitsamplituden. Zum Abschluss des Unterrichtsganges wird anhand des Lokalisationsproblems einzelner Photonen das Fundamentalprinzip der Quantenphysik erarbeitet.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Der eukaryotische Mikroorganismus Dictyostelium discoideum lebt als einzellige Amöbe solange ausreichende Nahrungsressourcen zur Verfügung stehen. Sobald Nahrungsmangel eintritt, entwickeln sich die Zellen von einem einzelligen zu einem mehrzelligen Zustand, der mit einem multizellulären Fruchtkörper abschließt. Dieser Prozess wird durch eine Reihe aufeinanderfolgender Signale organisiert, die eine differentielle Genexpression regulieren. Die Gene der Discoidin I Familie gehören zu den Ersten, die im Laufe des Wachstums-Differenzierungs-Übergangs (engl. GDT) aktiviert werden. Sie eignen sich daher vorzüglich als Marker für den Beginn der Entwicklung. Mit Hilfe einer REMI-Mutagenese und Discoidin I als molekularem Marker sind verschiedene Komponenten des Wachstums-Differenzierungs-Übergangs in unserer Arbeitsgruppe identifiziert worden (Zeng et al., 2000 A und B; Riemann und Nellen, persönliche Mitteilung). Mit demselben Ansatz wurde in der vorliegenden Arbeit eine REMI-Mutante identifiziert, die eine Fehl-Expression von Discoidin zeigte und einen axenischen Wachstumsdefekt bei 15 °C aufwies. Das Gen wurde als Homolog zum humanen Tafazzin-Gen identifiziert. Dieses Gen wurde zur Rekonstruktion des Phänotyps über homologe Rekombination erneut disruptiert, was wie erwartet zu dem zuerst beschriebenen Phänotyp führte. Folgerichtig ergab eine Überexpression des Gens in den Mutanten eine Komplementation des Phänotyps. Immunfluoreszenz-Experimente zeigten eine mitochondriale Lokalisation des Dictyostelium discoideum Taffazzin Proteins. Dass ein mitochondriales Protein in Zusammenhang mit dem Wachstums-Differenzierungs-Übergang steht, ist ein unerwarteter Befund, der aber als Hinweis darauf gewertet werden kann, dass Mitochondrien einen direkten Einfluss auf die entwicklungsspezifische Signaltransduktion ausüben. Die Taffazzin Disruptions-Mutante in Dictyostelium führte zu einem abnormalen Cardiolipin Metabolismus. Dieses Phospholipid ist ein charakteristischer Bestandteil der inneren Mitochondrienmembran und für die Funktion verschiedener Enzyme erforderlich. Unsere vorläufigen Analysen des Phospholipid-Gehalts zeigten Übereinstimmung mit Daten von Patienten mit Barth-Syndrom, einer humanen Erkrankung, bei der das Taffazzin-Gen Mutationen aufweist, und mit Hefe-Mutanten dieses Gens. Dies zeigt den Wert von Dictyostelium discoideum als einen weiteren Modelorganismus zur Untersuchung des Barth-Syndroms und zur Erprobung möglicher Therapieansätze.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

During synaptic transmission, NT-filled synaptic vesicles are released by Ca2+-triggered exocytosis at the active zone. Following exocytosis, SV membrane is immediately re-internalized and synaptic vesicles (SVs) are regenerated by a local recycling mechanism within the presynaptic terminal. It is debated whether an endosomal compartment is involved in this recycling process. In contrast, it is well known from cultured mammalian cells, that endocytic vesicles fuse to the early sorting endosome. The early endosome is a major sorting station of the cell where cargo is send into the degradative pathway to late endosome and lysosome or towards recycling. Each trafficking step is mediated by a certain protein of the Rab family. Rab proteins are small GTPases belonging to the Ras superfamily. They accumulate at their target compartments and have thereby been used as markers for the different endocytic organelles in cultured mammalian cells. Rab5 controls trafficking from the PM to the early endosome and has thereby been used as marker for this compartment. A second marker is based on the specific binding of the FYVE zinc finger protein domain to the lipid PI(3)P that is specifically generated at the early endosomal membrane. This study used the Drosophila NMJ as a model system to investigate the SV recycling process. In particular, three questions were addressed: First, is an endosomal compartment present at the synapse? Second, do SVs recycle through an endosome? Third, is Rab5 involved in SV recycling? We used GFP fusions of Rab5 and 2xFYVE to visualize endosomal compartments at the presynaptic terminal of Drosophila third instar larval NMJs. Furthermore, the endosomes are located within the pool of recycling SVs, labeled with the styryl-dye FM5-95. Using the temperature-sensitive mutation in Dynamin, shibirets, we showed that SV recycling involves trafficking through an intermediate endosomal compartment. In cultured mammalian cells, interfering with Rab5 function by expressing the dominant negative version, Rab5SN causes the fragmentation of the endosome and the accumulation of endocytic vesicles. In contrast, when Rab5 is overexpressed enlarged endosomal compartments were observed. In Drosophila, the endosomal compartment was disrupted when loss of function and dominant negative mutants of Rab5 were expressed. In addition, at the ultrastructural we observed an accumulation of endocytic vesicles in Rab5S43N expressing terminals and enlarged endosomes when Rab5 was overexpressed. Furthermore, interfering with Rab5 function using the dominant negative Rab5S43N caused a decrease in the SV recycling kinetics as shown by FM1-43 experiments. In contrast, overexpression of Rab5 or GFP-Rab5 caused an increase in the FM1-43 internalization rate. Finally, standard electrophysiological techniques were used to measure synaptic function. We found that the Rab5-mediated endosomal SV recycling pathway generates vesicles with a higher fusion efficacy during Ca2+-triggered release, compared to SVs recycled when Rab5 function was impaired. We therefore suggest a model in which the endosome serves as organelle to control the SV fusion efficacy and thereby the synaptic strength. Since changes in the synaptic strength are occuring during learning and memory processes, controlling endosomal SV recycling might be a new molecular mechanism involved in learning and memory.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die in dieser Arbeit durchgeführten Untersuchungen zeigen, daß es möglich ist, komplexe thermische Systeme, unter Verwendung der thermisch-, elektrischen Analogien, mit PSpice zu simulieren. Im Mittelpunkt der Untersuchungen standen hierbei Strangkühlkörper zur Kühlung von elektronischen Bauelementen. Es konnte gezeigt werden,daß alle Wärmeübertragungsarten, (Wärmeleitung, Konvektion und Wärmestrahlung) in der Simulation berücksichtigt werden können. Für die Berechnung der Konvektion wurden verschiedene Methoden hergeleitet. Diese gelten zum einen für verschiedene Kühlkörpergeometrien, wie z.B. ebene Flächen und Kühlrippenzwischenräume, andererseits unterscheiden sie sich, je nachdem, ob freie oder erzwungene Konvektion betrachtet wird. Für die Wärmestrahlung zwischen den Kühlrippen wurden verschiedenen Berechnungsmethoden entwickelt. Für die Simulation mit PSpice wurde die Berechnung der Wärmestrahlung zwischen den Kühlrippen vereinfacht. Es konnte gezeigt werden, daß die Fehler, die durch die Vereinfachung entstehen, vernachlässigbar klein sind. Für das thermische Verhalten einer zu kühlenden Wärmequelle wurde ein allgemeines Modell entworfen. Zur Bestimmung der Modellparameter wurden verschiedene Meßverfahren entwickelt. Für eine im Fachgebiet Elektromechanik entwickelte Wärmequelle zum Test von Kühlvorrichtungen wurde mit Hilfe dieser Meßverfahren eine Parameterbestimmung durchgeführt. Die Erstellung des thermischen Modells eines Kühlkörpers für die Simulation in PSpice erfordert die Analyse der Kühlkörpergeometrie. Damit diese Analyse weitestgehend automatisiert werden kann, wurden verschiedene Algorithmen unter Matlab entwickelt. Es wurde ein Algorithmus entwickelt, der es ermöglicht, den Kühlkörper in Elementarzellen zu zerlegen, die für die Erstellung des Simulationsmodells benötigt werden. Desweiteren ist es für die Simulation notwendig zu wissen, welche der Elementarzellen am Rand des Kühlkörpers liegen, welche der Elementarzellen an einem Kühlrippenzwischenraum liegen und welche Kühlkörperkanten schräg verlaufen. Auch zur Lösung dieser Aufgaben wurden verschiedene Algorithmen entwickelt. Diese Algorithmen wurden zu einem Programm zusammengefaßt, das es gestattet, unterschiedliche Strangkühlkörper zu simulieren und die Simulationsergebnisse in Form der Temperaturverteilung auf der Montagefläche des Kühlkörpers grafisch darzustellen. Es können stationäre und transiente Simulationen durchgeführt werden. Desweiteren kann der thermische Widerstand des Kühlkörpers RthK als Funktion der Verlustleistung der Wärmequelle dargestellt werden. Zur Verifikation der Simulationsergebnisse wurden Temperaturmessungen an Kühlkörpern durchgeführt und mit den Simulationsergebnissen verglichen. Diese Vergleiche zeigen, daß die Abweichungen im Bereich der Streuung der Temperaturmessung liegen. Das hier entwickelte Verfahren zur thermischen Simulation von Strangkühlkörpern kann somit als gut bewertet werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In der vorliegenden Arbeit wurde das Wachstum von Silbernanoteilchen auf Magnesiumoxid und dabei insbesondere deren Größen- und Formrelation untersucht. Hierzu wurden Silbernanoteilchen auf ausgedehnten Magnesiumoxidsubstraten sowie auf Magnesiumoxid-Nanowürfeln präpariert. Zur Charakterisierung wurde die optische Spektroskopie, die Rasterkraftmikroskopie und die Transmissionselektronenmikroskopie eingesetzt. Während die Elektronenmikroskopie direkt sehr exakte Daten bezüglich der Größe und Form der Nanoteilchen liefert, kann mit den beiden anderen in dieser Arbeit verwendeten Charakterisierungsmethoden jeweils nur ein Parameter bestimmt werden. So kann man die Größe der Nanoteilchen indirekt mit Hilfe des AFM, durch Messung der Teilchananzahldichte, bestimmen. Bei der Bestimmung der Form mittels optischer Spektroskopie nutzt man aus, dass die spektralen Positionen der Plasmonresonanzen in dem hier verwendeten Größenbereich von etwa 2 - 10~nm nur von der Form aber nicht von der Größe der Teilchen abhängen. Ein wesentliches Ziel dieser Arbeit war es, die Ergebnisse bezüglich der Form und Größe der Nanoteilchen, die mit den unterschiedlichen Messmethoden erhalten worden sind zu vergleichen. Dabei hat sich gezeigt, dass die mit dem AFM und dem TEM bestimmten Größen signifikant voneinander Abweichen. Zur Aufklärung dieser Diskrepanz wurde ein geometrisches Modell aufgestellt und AFM-Bilder von Nanoteilchen simuliert. Bei dem Vergleich von optischer Spektroskopie und Transmissionselektronenmikroskopie wurde eine recht gute Übereinstimmung zwischen den ermittelten Teilchenformen gefunden. Hierfür wurden die gemessenen optischen Spektren mit Modellrechnungen verglichen, woraus man die Relation zwischen Teilchengröße und -form erhielt. Eine Übereinstimmung zwischen den erhaltenen Daten ergibt sich nur, wenn bei der Modellierung der Spektren die Form- und Größenverteilung der Nanoteilchen berücksichtigt wird. Insgesamt hat diese Arbeit gezeigt, dass die Kombination von Rasterkraftmikroskopie und optischer Spektroskopie ein vielseitiges Charakterisierungsverfahren für Nanoteilchen. Die daraus gewonnenen Ergebnisse sind innerhalb gewisser Fehlergrenzen gut mit der Transmissionselektronenmikroskopie vergleichbar.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Im Vordergrund der Arbeit stand die Erfassung der mikrobiellen Biomasse bzw. Residualmasse an der Wurzeloberfläche, im Rhizosphärenboden und im umgebenden Boden. Durch den Vergleich von verschiedenen Methoden zur Erfassung der mikrobiellen Biomasse wurden die Gehalte von pilzlichem und bakteriellem Kohlenstoff an der Rhizoplane und in der Rhizosphäre quantifiziert. Dabei wurde die Fumigations-Extraktions-Methode zur Erfassung der mikrobiellen Biomasse eingesetzt. Ergosterol diente als Indikator für die pilzliche Biomasse und die Aminozucker Glucosamin und Muraminsäure sollten Aufschluss geben über die bakterielle und pilzliche Biomasse bzw. Residualmasse in den drei Probenfraktionen. Dazu wurden Umrechnungsfaktoren erstellt, die zur Berechnung des bakteriellen und pilzlichen Kohlenstoffs aus den Gehalten von Muraminsäure und Pilz-Glucosamin dienten. Die Bestimmung von Aminozuckern wurde insoweit modifiziert, dass sowohl in Boden- als auch in Wurzelhydrolysaten die Messung von Glucosamin, Galactosamin, Muraminsäure und Mannosamin gleichzeitig als automatisiertes Standardverfahren mit Hilfe der HPLC erfolgen konnte. Es wurden drei Gefäßversuche durchgeführt: Im ersten Versuch wurde der Einfluss der Pflanzenart auf die mikrobielle Besiedlung der Wurzeloberflächen untersucht. Dabei wurden Wurzeln und Rhizosphärenboden von 15 verschiedenen Pflanzenarten miteinander verglichen. Im zweiten Versuch stand der Einfluss der mikrobiellen Biomasse eines Bodens auf die mikrobielle Besiedlung von Wurzeloberflächen im Vordergrund. Deutsches Weidelgras (Lolium perenne L.) wurde auf sieben verschiedenen Böden angezogen. Bei den Böden handelte es sich um sechs Oberböden, die sich hinsichtlich des Bodentyps und der Bewirtschaftungsform voneinander unterschieden, und einen Unterboden. Im dritten Versuch wurde die mikrobielle Besiedlung von Wurzeln nach teilweiser und vollständiger Entfernung der oberirdischen Biomasse beobachtet. Welsches Weidelgras (Lolium multiflorum Lam.) wurde 24 Tage nach der Aussaat beschnitten. Anschließend wurde über einen Versuchszeitraum von acht Tagen die mikrobielle Besiedlung an den Wurzeln und in den Bodenfraktionen bestimmt. Es bestätigte sich, dass der Einfluss der einzelnen Pflanzenart von entscheidender Bedeutung für die mikrobielle Besiedlung von Wurzeln ist. Bei fast allen Pflanzen wurde die mikrobielle Biomasse an den Wurzeln von Pilzen dominiert. Das Verhältnis von pilzlichem zu bakteriellem Kohlenstoff an den Wurzeln der 15 Pflanzenarten lag im Mittel bei 2,6. Bei der Betrachtung verschiedener Böden zeigte sich, dass die mikrobielle Besiedlung in tieferen Bodenschichten signifikant niedriger ist als in den Oberböden. Dabei war der Pilzanteil an der mikrobiellen Biomasse im Unterboden deutlich erhöht. Der Vergleich der Oberböden untereinander ergab, dass sowohl der Bodentyp als auch die Bewirtschaftungsform einen signifikanten Einfluss auf mikrobielle Besiedlung ausüben. Durch die teilweise oder vollständige Entfernung der oberirdischen Biomasse wurde eine Veränderung der mikrobiellen Besiedlung an den Wurzeln beobachtet. Das Verhältnis von pilzlichem zu bakteriellem Kohlenstoff sank in dem Versuchszeitraum von 2,5 auf 1,4. Dabei war die Förderung der Pilze in der Variante mit teilweise entfernter oberirdischer Biomasse relativ größer als in der Variante mit vollständig entfernter oberirdischer Biomasse. Entgegen der weit verbreiteten Annahme, dass bei den wurzelbesiedelnden Mikroorganismen die Bakterien gegenüber den Pilzen dominieren, zeigten die Ergebnisse ein gegensätzliches Bild. In allen drei Versuchen ergab sich gleichermaßen, dass sowohl im Boden als auch an den Wurzeln die Pilze gegenüber den Bakterien dominieren.