97 resultados para Allen, Aaron S
em Universitätsbibliothek Kassel, Universität Kassel, Germany
Resumo:
Produkte mit Sonderabfällen sind im privaten täglichen Gebrauch in allen Lebensbereichen in vielfältiger Form anzutreffen. Per Gesetz sind die Vorgaben für die vom Hausmüll getrennte Erfassung, Verwertung bzw. schadlose Beseitigung von Sonderabfällen in den entsprechenden Bundes- bzw. Landesgesetzen sowie durch Rechtsvorgaben der EU geregelt. Dennoch werden erhebliche Mengen an Sonderabfällen über den Hausmüll entsorgt. Exakte Daten liegen hierzu allerdings bisher nicht vor. Vor diesem Hintergrund beabsichtigt die vorliegende Arbeit, auf der Grundlage einer empirischen Analyse (differenzierte Hausmüllanalysen) eine quantitative und qualitative Bewertung der über den Hausmüll entsorgten schadstoffhaltigen Abfälle vorzunehmen und die Leistungsfähigkeit der getrennten Erfassungssysteme für private Sonderabfälle zu bewerten. Darüber hinaus werden strukturelle und regionale Einflussgrößen ermittelt. Hierzu wurden bei zwölf öffentlich-rechtlichen Entsorgungsträgern aus acht verschiedenen Bundesländern Hausmüllanalysen durchgeführt.
Resumo:
Sowohl die Ressourcenproblematik als auch die drohenden Ausmaße der Klimaänderung lassen einen Umstieg auf andere Energiequellen langfristig unausweichlich erscheinen und mittelfristig als dringend geboten. Unabhängig von der Frage, auf welchem Niveau sich der Energiebedarf stabilisieren lässt, bleibt dabei zu klären, welche Möglichkeiten sich aus technischer und wirtschaftlicher Sicht in Zukunft zur Deckung unseres Energiebedarfs anbieten. Eine aussichtsreiche Option besteht in der Nutzung regenerativer Energien in ihrer ganzen Vielfalt. Die Arbeit "Szenarien zur zukünftigen Stromversorgung, kostenoptimierte Variationen zur Versorgung Europas und seiner Nachbarn mit Strom aus erneuerbaren Energien" konzentriert sich mit der Stromversorgung auf einen Teilaspekt der Energieversorgung, der zunehmend an Wichtigkeit gewinnt und als ein Schlüssel zur nachhaltigen Energieversorgung interpretiert werden kann. Die Stromversorgung ist heute weltweit für etwa die Hälfte des anthropogenen CO2-Ausstoßes verantwortlich. In dieser Arbeit wurden anhand verschiedener Szenarien Möglichkeiten einer weitgehend CO2–neutralen Stromversorgung für Europa und seine nähere Umgebung untersucht, wobei das Szenariogebiet etwa 1,1 Mrd. Einwohner und einen Stromverbrauch von knapp 4000 TWh/a umfasst. Dabei wurde untersucht, wie die Stromversorgung aufgebaut sein sollte, damit sie möglichst kostengünstig verwirklicht werden kann. Diese Frage wurde beispielsweise für Szenarien untersucht, in denen ausschließlich heute marktverfügbare Techniken berücksichtigt wurden. Auch der Einfluss der Nutzung einiger neuer Technologien, die bisher noch in Entwicklung sind, auf die optimale Gestaltung der Stromversorgung, wurde anhand einiger Beispiele untersucht. Die Konzeption der zukünftigen Stromversorgung sollte dabei nach Möglichkeit objektiven Kriterien gehorchen, die auch die Vergleichbarkeit verschiedener Versorgungsansätze gewährleisten. Dafür wurde ein Optimierungsansatz gewählt, mit dessen Hilfe sowohl bei der Konfiguration als auch beim rechnerischen Betrieb des Stromversorgungssystems weitgehend auf subjektive Entscheidungsprozesse verzichtet werden kann. Die Optimierung hatte zum Ziel, für die definierte möglichst realitätsnahe Versorgungsaufgabe den idealen Kraftwerks- und Leitungspark zu bestimmen, der eine kostenoptimale Stromversorgung gewährleistet. Als Erzeugungsoptionen werden dabei u.a. die Nutzung Regenerativer Energien durch Wasserkraftwerke, Windenergiekonverter, Fallwindkraftwerke, Biomassekraftwerke sowie solare und geothermische Kraftwerke berücksichtigt. Abhängig von den gewählten Randbedingungen ergaben sich dabei unterschiedliche Szenarien. Das Ziel der Arbeit war, mit Hilfe unterschiedlicher Szenarien eine breite Basis als Entscheidungsgrundlage für zukünftige politische Weichenstellungen zu schaffen. Die Szenarien zeigen Optionen für eine zukünftige Gestaltung der Stromversorgung auf, machen Auswirkungen verschiedener – auch politischer – Rahmenbedingungen deutlich und stellen so die geforderte Entscheidungsgrundlage bereit. Als Grundlage für die Erstellung der Szenarien mussten die verschiedenen Potentiale erneuerbarer Energien in hoher zeitlicher und räumlicher Auflösung ermittelt werden, mit denen es erstmals möglich war, die Fragen einer großräumigen regenerativen Stromversorgung ohne ungesicherte Annahmen anhand einer verlässlichen Datengrundlage anzugehen. Auch die Charakteristika der verschiedensten Energiewandlungs- und Transportsysteme mussten studiert werden und sind wie deren Kosten und die verschiedenen Potentiale in der vorliegenden Arbeit ausführlich diskutiert. Als Ausgangsszenario und Bezugspunkt dient ein konservatives Grundszenario. Hierbei handelt es sich um ein Szenario für eine Stromversorgung unter ausschließlicher Nutzung erneuerbarer Energien, die wiederum ausschließlich auf heute bereits entwickelte Technologien zurückgreift und dabei für alle Komponenten die heutigen Kosten zugrundelegt. Dieses Grundszenario ist dementsprechend auch als eine Art konservative Worst-Case-Abschätzung für unsere Zukunftsoptionen bei der regenerativen Stromversorgung zu verstehen. Als Ergebnis der Optimierung basiert die Stromversorgung beim Grundszenario zum größten Teil auf der Stromproduktion aus Windkraft. Biomasse und schon heute bestehende Wasserkraft übernehmen den überwiegenden Teil der Backup-Aufgaben innerhalb des – mit leistungsstarker HGÜ (Hochspannungs–Gleichstrom–Übertragung) verknüpften – Stromversorgungsgebiets. Die Stromgestehungskosten liegen mit 4,65 €ct / kWh sehr nahe am heute Üblichen. Sie liegen niedriger als die heutigen Preisen an der Strombörse. In allen Szenarien – außer relativ teuren, restriktiv ”dezentralen” unter Ausschluss großräumig länderübergreifenden Stromtransports – spielt der Stromtransport eine wichtige Rolle. Er wird genutzt, um Ausgleichseffekte bei der dargebotsabhängigen Stromproduktion aus erneuerbaren Quellen zu realisieren, gute kostengünstige Potentiale nutzbar zu machen und um die Speicherwasserkraft sowie die dezentral genutzte Biomasse mit ihrer Speicherfähigkeit für großräumige Backup-Aufgaben zu erschließen. Damit erweist sich der Stromtransport als einer der Schlüssel zu einer kostengünstigen Stromversorgung. Dies wiederum kann als Handlungsempfehlung bei politischen Weichenstellungen interpretiert werden, die demnach gezielt auf internationale Kooperation im Bereich der Nutzung erneuerbarer Energien setzen und insbesondere den großräumigen Stromtransport mit einbeziehen sollten. Die Szenarien stellen detaillierte und verlässliche Grundlagen für wichtige politische und technologische Zukunftsentscheidungen zur Verfügung. Sie zeigen, dass bei internationaler Kooperation selbst bei konservativen Annahmen eine rein regenerative Stromversorgung möglich ist, die wirtschaftlich ohne Probleme zu realisieren wäre und verweisen den Handlungsbedarf in den Bereich der Politik. Eine wesentliche Aufgabe der Politik läge darin, die internationale Kooperation zu organisieren und Instrumente für eine Umgestaltung der Stromversorgung zu entwickeln. Dabei kann davon ausgegangen werden, dass nicht nur ein sinnvoller Weg zu einer CO2–neutralen Stromversorgung beschritten würde, sondern sich darüber hinaus ausgezeichnete Entwicklungsperspektiven für die ärmeren Nachbarstaaten der EU und Europas eröffnen.
Resumo:
Arbeitszeitpolitik und Arbeitszeitgestaltung haben seit dem Tarifkompromiss im Jahre 1984 in der Metall-, und Elektroindustrie in der politischen und wissenschaftlichen Diskussion einen immensen Bedeutungszuwachs erfahren. Die Forderungen nach einer flexibleren Arbeitszeitgestaltung haben zeitgleich sowohl aus der Globalisierungsdiskussion und der Debatte um die Wettbewerbsfähigkeit des "Wirtschaftsstandorts Deutschland" heraus wie auch aus beschäftigungspolitischen Gründen neuen Auftrieb bekommen. Die Diskussion um die Arbeitszeit ist gleichzeitig von verschiedenen, meist gegensätzlichen Interessen geprägt: Auf der Beschäftigtenseite zielt die Arbeitszeitflexibilisierung nach wie vor auf Zeitsouveränität: d.h. auf eine bessere Vereinbarkeit der Arbeitszeit mit allen Aktivitäten außerhalb der Arbeitszeit ab. Demgegenüber stellt die Arbeitgeberseite den betriebswirtschaftlichen Aspekt in den Vordergrund. D.h. die Anpassung der Arbeitszeit an den tatsächlichen Arbeitsanfall. So soll durch aufeinander abgestimmte Gestaltung von Betriebszeit und Arbeitszeit die Erhöhung der Produktivität und die Sicherung der Wettbewerbsfähigkeit erzielt werden. Durch diesen Trend verlor das sog. Normalarbeitsverhältnis an Allgemeingültigkeit und die Flexibilisierung der Arbeitszeiten nahm seit langem kontinuierlich zu. Folge ist, dass mittlerweile eine breite Palette von Arbeitszeitmodellen existiert, in denen die gesetzlich und vertraglich vereinbarte Wochenarbeitszeit in den Dimensionen Lage, Länge und Verteilung flexibilisiert wird. Auch die Tarifverhandlungen und Auseinandersetzung der Tarifparteien zur Arbeitszeitpolitik sind dadurch gekennzeichnet, dass die Arbeitszeitflexibilisierung und Verlagerung der Tarifpolitik auf betriebliche Ebene einen Bedeutungszuwachs bekam und die Meinungsführerschaft in Sachen Arbeitszeitgestaltung von der IG Metall zu Gesamtmetall wechselte. Ziel der vorliegenden Dissertation war es, anhand einer empirisch-historischen Untersuchung über Einstellungen sowie Strategien von Gesamtmetall und IG Metall die Gestaltungsspielräume flexibler Arbeitszeitmodelle zu bestimmen und gleichzeitig die Defizite herauszuarbeiten. Die Untersuchung gründete sich in erster Linie auf die Dokumentenanalyse von Stellungnahmen der Gesamtmetall und IG-Metall-Leitungsgremien sowie Primär- und Sekundäranalyse von Befragungen der Beschäftigten. Die leitende Frage der Untersuchung war, ob es den Arbeitgeberverbänden und den Gewerkschaften gelingen konnte, die Erfordernisse eines Betriebes und die Belange der Beschäftigten weitgehend in Übereinstimmung zu bringen? Und (wenn ja) unter welchen Voraussetzungen die neuen flexiblen Arbeitszeitsysteme mit den betrieblichen und außerbetrieblichen Interessen der Beschäftigten zu vereinbaren sind. Den Hintergrund für diese Zielerreichung bildete der gesellschaftliche Konflikt zwischen Arbeit und Kapital. Denn die Schwierigkeit bzw. Komplexität lag in der Frage, wie die unterschiedlichen Interessen, die sich in der industriekapitalistischen Gesellschaft durch den Gegensatz "Kapital" und "Arbeit" bestimmen lassen, zu vereinbaren waren bzw. sind.
Resumo:
Den Schwerpunkt dieser Dissertation bildet zum einen die Entwicklung eines theoretischen Modells zur Beschreibung des Strukturbildungsprozesses in organisch/anorganischen Doppelschichtsystemen und zum anderen die Untersuchung der Übertragbarkeit dieser theoretisch gewonnenen Ergebnisse auf reale Systeme. Hierzu dienen systematische experimentelle Untersuchungen dieses Phänomens an einem Testsystem. Der Bereich der selbstorganisierenden Systeme ist von hohem wissenschaftlichen Interesse, erlaubt er doch die Realisierung von Strukturen, die nicht den Begrenzungen heutiger Techniken unterliegen, wie etwa der Beugung bei lithographischen Verfahren. Darüber hinaus liefert ein vertieftes Verständnis des Strukturbildungsprozesses auch eine Möglichkeit, im Falle entsprechender technischer Anwendungen Instabilitäten innerhalb der Schichtsysteme zu verhindern und somit einer Degradation der Bauteile entgegenzuwirken. Im theoretischen Teil der Arbeit konnte ein Modell im Rahmen der klassischen Elastizitätstheorie entwickelt werden, mit dessen Hilfe sich die Entstehung der Strukturen in Doppelschichtsystemen verstehen läßt. Der hier gefundene funktionale Zusammenhang zwischen der Periode der Strukturen und dem Verhältnis der Schichtdicken von organischer und anorganischer Schicht, wird durch die experimentellen Ergebnisse sehr gut bestätigt. Die Ergebnisse zeigen, daß es technologisch möglich ist, über die Vorgabe der Schichtdicke in einem Materialsystem die Periodizität der entstehenden Strukturen vorzugeben. Darüber hinaus liefert das vorgestellte Modell eine Stabilitätsbedingung für die Schichtsysteme, die es ermöglicht, zu jedem Zeitpunkt die dominierende Mode zu identifizieren. Ein Schwerpunkt der experimentellen Untersuchungen dieser Arbeit liegt auf der Strukturbildung innerhalb der Schichtsysteme. Das Testsystem wurde durch Aufbringen einer organischen Schicht - eines sog. Molekularen Glases - auf ein Glassubstrat realisiert, als Deckschicht diente eine Siliziumnitrid-Schicht. Es wurden Proben mit variierenden Schichtdicken kontrolliert erwärmt. Sobald die Temperatur des Schichtsystems in der Größenordnung der Glasübergangstemperatur des jeweiligen organischen Materials lag, fand spontan eine Strukturbildung auf Grund einer Spannungsrelaxation statt. Es ließen sich durch die Wahl einer entsprechenden Heizquelle unterschiedliche Strukturen realisieren. Bei Verwendung eines gepulsten Lasers, also einer kreisförmigen Wärmequelle, ordneten sich die Strukturen konzentrisch an, wohingegen sich ihre Ausrichtung bei Verwendung einer flächenhaften Heizplatte statistisch verteilte. Auffällig bei allen Strukturen war eine starke Modulation der Oberfläche. Ferner konnte in der Arbeit gezeigt werden, daß sich durch eine gezielte Veränderung der Spannungsverteilung innerhalb der Schichtsysteme die Ausrichtung der Strukturen (gezielt) manipulieren ließen. Unabhängig davon erlaubte die Variation der Schichtdicken die Realisierung von Strukturen mit einer Periodizität im Bereich von einigen µm bis hinunter zu etwa 200 nm. Die Kontrolle über die Ausrichtung und die Periodizität ist Grundvoraussetzung für eine zukünftige technologische Nutzung des Effektes zur kontrollierten Herstellung von Mikro- bzw. Nanostrukturen. Darüber hinaus konnte ein zunächst von der Strukturbildung unabhängiges Konzept eines aktiven Sensors für die optische Raster-Nahfeld-Mikroskopie vorgestellt werden, das das oben beschriebene System, bestehend aus einem fluoreszierenden Molekularen Glas und einer Siliziumnitrid-Deckschicht, verwendet. Erste theoretische und experimentelle Ergebnisse zeigen das technologische Potential dieses Sensortyps.
Resumo:
A comparison between the charge transport properties in low molecular amorphous thin films of spiro-linked compound and their corresponding parent compound has been demonstrated. The field-effect transistor method is used for extracting physical parameters such as field-effect mobility of charge carriers, ON/OFF ratios, and stability. In addition, phototransistors have been fabricated and demonstrated for the first time by using organic materials. In this case, asymmetrically spiro-linked compounds are used as active materials. The active materials used in this study can be divided into three classes, namely Spiro-linked compounds (symmetrically spiro-linked compounds), the corresponding parent-compounds, and photosensitive spiro-linked compounds (asymmetrically spiro-linked com-pounds). Some of symmetrically spiro-linked compounds used in this study were 2,2',7,7'-Tetrakis-(di-phenylamino)-9,9'-spirobifluorene (Spiro-TAD),2,2',7,7'-Tetrakis-(N,N'-di-p-methylphenylamino)-9,9'-spirobifluorene (Spiro-TTB), 2,2',7,7'-Tetra-(m-tolyl-phenylamino)-9,9'-spirobifluorene (Spiro-TPD), and 2,2Ž,7,7Ž-Tetra-(N-phenyl-1-naphtylamine)-9,9Ž-spirobifluorene (Spiro alpha-NPB). Related parent compounds of the symmetrically spiro-linked compound used in this study were N,N,N',N'-Tetraphenylbenzidine (TAD), N,N,N',N'-Tetrakis(4-methylphenyl)benzidine (TTB), N,N'-Bis(3-methylphenyl)-(1,1'-biphenyl)-4,4'-diamine (TPD), and N,N'-Diphenyl-N,N'-bis(1-naphthyl)-1,1'-biphenyl-4,4'-diamine (alpha-NPB). The photosensitive asymmetrically spiro-linked compounds used in this study were 2,7-bis-(N,N'-diphenylamino)-2',7'-bis(biphenyl-4-yl)-9,9'-spirobifluorene (Spiro-DPSP), and 2,7-bis-(N,N'-diphenylamino)-2',7'-bis(spirobifluorene-2-yl)-9,9'-spirobifluorene (Spiro-DPSP^2). It was found that the field-effect mobilities of charge carriers in thin films of symmetrically spiro-linked compounds and their corresponding parent compounds are in the same order of magnitude (~10^-5 cm^2/Vs). However, the thin films of the parent compounds were easily crystallized after the samples have been exposed in ambient atmosphere and at room temperature for three days. In contrast, the thin films and the transistor characteristics of symmetrically spiro-linked compound did not change significantly after the samples have been stored in ambient atmosphere and at room temperature for several months. Furthermore, temperature dependence of the mobility was analyzed in two models, namely the Arrhenius model and the Gaussian Disorder model. The Arrhenius model tends to give a high value of the prefactor mobility. However, it is difficult to distinguish whether the temperature behaviors of the material under consideration follows the Arrhenius model or the Gaussian Disorder model due to the narrow accessible range of the temperatures. For the first time, phototransistors have been fabricated and demonstrated by using organic materials. In this case, asymmetrically spiro-linked compounds are used as active materials. Intramolecular charge transfer between a bis(diphenylamino)biphenyl unit and a sexiphenyl unit leads to an increase in charge carrier density, providing the amplification effect. The operational responsivity of better than 1 A/W can be obtained for ultraviolet light at 370 nm, making the device interesting for sensor applications. This result offers a new potential application of organic thin film phototransistors as low-light level and low-cost visible blind ultraviolet photodetectors.
Resumo:
Die Untersuchung betrifft die deutsche öffentliche Verwaltung. Untersucht werden soll, ob eine Intensivierung des Organisationslernens Möglichkeiten zur Optimierung von Strukturen und Prozessen der öffentlichen Verwaltung bietet, mithin das Organisationslernen eine zweckmäßige Option für die Bürokratie darstellt. Untersucht wird diese Frage am Beispiel der Kommunalverwaltungen, die im Vergleich zu staatlichen Verwaltungen über größere Handlungsspielräume verfügen. Die Kommunalverwaltungen befinden sich derzeit in einem Reformprozess, der 1993 von der Kommunalen Gemeinschaftsstelle für Verwaltungsvereinfachung (KGSt) durch die Vorlage eines "Neuen Steuerungsmodells" (NSM) angestoßen wurde. Am Beispiel dieses Reformprozesses soll mit der vorliegenden Untersuchung zunächst geprüft werden, ob unter Berücksichtigung von Verlauf und Ergebnis dieses Prozesses ein Bedarf an einer Optimierung der Programme oder der Prozesse zur Verwaltungsentwicklung erkennbar ist. Sofern ein Bedarf zur Optimierung der Programme oder der Prozesse zur Verwaltungsentwicklung erkennbar wird, ist weiter zu fragen, ob dieser Bedarf durch das Organisationslernen befriedigt werden kann. Unter der Voraussetzung, dass die Modell-Vorstellung von der lernenden Organisation prinzipiell geeignet erscheint, in einem Entwicklungsprozess förderlich zu wirken, ist abschließend zu prüfen, ob dies auch unter der besonderen Aufgabenstellung und den besonderen Handlungsbedingungen der öffentlichen Verwaltung gelten könnte. Nach einer inzwischen mehr als 10-jährigen Einführungsphase wird ungeachtet einiger positiver Veränderungen die Gesamtbilanz zum NSM verhalten beurteilt. Im einzelnen lassen sich sowohl bezüglich des Modells problematische Lücken und Beschränkungen erkennen als auch Defizite in dem Implementationsverfahren. Insgesamt ist also die Frage nach dem Optimierungsbedarf zu bejahen. Die Intensivierung des Organisationslernens als Möglichkeit zur Optimierung von Implementationsprozessen kann nach dem Ergebnis der vorgenommenen Analysen grundsätzlich auch für die öffentliche Verwaltung in Betracht gezogen werden. Sowohl die grundlegenden Lernvoraussetzungen für das Organisationslernen als auch die grundlegenden verwaltungswissenschaftlich begründeten Anforderungen an die praktische Verwaltungsentwicklung erscheinen erfüllt. Zur Klärung der Frage, ob das Organisationslernen unter den besonderen Handlungsbedingungen der öffentlichen Verwaltung zur Optimierung des Verwaltungshandelns geeignet erscheint, wurde zusätzlich eine Expertenbefragung in ausgewählten Kommunalverwaltungen durchgeführt. Im Ergebnis dieser Befragung zeigt sich, dass die Vorstellung von einer lernenden Organisation zur Optimierung des Verwaltungshandelns durchaus auf Interesse stößt, jedoch die Einführungs- und Betriebsbedingungen zur Intensivierung des Organisationslernens noch nicht in allen Behörden gegeben sind und möglicherweise auch nicht in allen Behörden hergestellt werden können, so dass im Ergebnis das Organisationslernen als Option für die Bürokratie zwar Chancen verspricht, jedoch unter Berücksichtigung der Handlungsbedingungen in der öffentlichen Verwaltung differenziert zu beurteilen ist.
Resumo:
The tubular structures, which transport essential gases, liquids, or cells from one site to another, are shared among various divergent organisms. These highly organized tubular networks include lung, kidney, vasculature and mammary gland in mammals as well as trachea and salivary gland in Drosophila melanogaster. Many questions regarding the tubular morphogenesis cannot be addressed sufficiently by investigating the mammalian organs because their structures are extremely complex and therefore, systematic analyses of genetic and cellular programs guiding the development is not possible. In contrast, the Drosophila tracheal development provides an excellent model system since many molecular markers and powerful tools for genetic manipulations are available. Two mechanisms were shown to be important for the outgrowth of tracheal cells: the FGF signaling pathway and the interaction between the tracheal cells and the surrounding mesodermal cells. The Drosophila FGF ligand encoded by branchless (bnl) is localized in groups of cells near tracheal metameres. The tracheal cells expressing the FGF receptor breathless (btl) respond to these sources of FGF ligand and extend towards them. However, this FGF signaling pathway is not sufficient for the formation of continuous dorsal trunk, the only muticellular tube in tracheal system. Recently, it was found out that single mesodermal cells called bridge-cells are essential for the formation of continuous dorsal trunk as they direct the outgrowth of dorsal trunk cells towards the correct targets. The results in this PhD thesis demonstrate that a cell adhesion molecule Capricious (Caps), which is specifically localized on the surface of bridge-cells, plays an essential role in guiding the outgrowing dorsal trunk cells towards their correct targets. When caps is lacking, some bridge-cells cannot stretch properly towards the adjacent posterior tracheal metameres and thus fail to interconnect the juxtaposing dorsal trunk cells. Consequently, discontinuous dorsal trunks containing interruptions at several positions are formed. On the other hand, when caps is ectopically expressed in the mesodermal cells through a twi-GAL4 driver, these mesodermal cells acquire a guidance function through ectopic caps and misguide the outgrowing dorsal trunk cells in abnormal directions. As a result, disconnected dorsal trunks are formed. These loss- and gain-of-function studies suggest that Caps presumably establishes the cell-to-cell contact between the bridge-cells and the tracheal cells and thereby mediates directly the guidance function of bridge-cells. The most similar protein known to Caps is another cell adhesion molecule called Tartan (Trn). Interestingly, trn is expressed in the mesodermal cells but not in the bridge-cells. When trn is lacking, the outgrowth of not only the dorsal trunks but also the lateral trunks are disrupted. However, in contrast to the ectopic expression of caps, the misexpression of trn does not affect tracheal development. Whereas Trn requires only its extracellular domain to mediate the matrix function, Caps requires both its extracellular and intracellular domains to function as a guidance molecule in the bridge-cells. These observations suggest that Trn functions differently from Caps during tracheal morphogenesis. Presumably, Trn mediates a matrix function of mesodermal cells, which support the tracheal cells to extend efficiently through the surrounding mesodermal tissue. In order to determine which domains dictate the functional specificity of Caps, two hybrid proteins CapsEdTrnId, which contains the Caps extracellular domain and the Trn intracellular domain, and TrnEdCapsId, which consists of the Trn extracellular domain and the Caps intracellular domain, were constructed. Gain of function and rescue experiments with these hybrid proteins suggest on one hand that the extracellular domains of Caps and Trn are functionally redundant and on the other hand that the intracellular domain dictates the functional specificity of Caps. In order to identify putative interactors of Caps, yeast two-hybrid screening was performed. An in vivo interaction assay in yeast suggests that Ras64B interacts specifically with the Caps intracellular domain. In addition, an in vitro binding assay reveals a direct interaction between an inactive form of Ras64B and the Caps intracellular domain. ras64B, which encodes a small GTPase, is expressed in the mesodermal cells concurrently as caps. Finally, a gain-of-function study with the constitutively active Ras64B suggests that Ras64B presumably functions downstream of Caps. All these results suggest consistently that the small GTPase Ras64B binds specifically to the Caps intracellular domain and may thereby mediate the guidance function of Caps.
Resumo:
Die relativistische Multikonfigurations Dirac-Fock (MCDF) Methode ist gegenwärtig eines der am häufigsten benutzten Verfahren zur Berechnung der elektronischen Struktur und der Eigenschaften freier Atome. In diesem Verfahren werden die Wellenfunktionen ausgewählter atomarer Zustände als eine Linearkombination von sogenannten Konfigurationszuständen (CSF - Configuration State Functions) konstruiert, die in einem Teilraum des N-Elektronen Hilbert-Raumes eine (Vielteilchen-)Basis aufspannen. Die konkrete Konstruktion dieser Basis entscheidet letzlich über die Güte der Wellenfunktionen, die üblicherweise mit Hilfe einer Variation des Erwartungswertes zum no-pair Dirac-Coulomb Hamiltonoperators gewonnen werden. Mit Hilfe von MCDF Wellenfunktionen können die dominanten relativistischen und Korrelationseffekte in freien Atomen allgemein recht gut erfaßt und verstanden werden. Außer der instantanen Coulombabstoßung zwischen allen Elektronenpaaren werden dabei auch die relativistischen Korrekturen zur Elektron-Elektron Wechselwirkung, d.h. die magnetischen und Retardierungsbeiträge in der Wechselwirkung der Elektronen untereinander, die Ankopplung der Elektronen an das Strahlungsfeld sowie der Einfluß eines ausgedehnten Kernmodells erfaßt. Im Vergleich mit früheren MCDF Rechnungen werden in den in dieser Arbeit diskutierten Fallstudien Wellenfunktionsentwicklungen verwendet, die um 1-2 Größenordnungen aufwendiger sind und daher systematische Untersuchungen inzwischen auch an Atomen mit offenen d- und f-Schalen erlauben. Eine spontane Emission oder Absorption von Photonen kann bei freien Atomen theoretisch am einfachsten mit Hilfe von Übergangswahrscheinlichkeiten erfaßt werden. Solche Daten werden heute in vielen Forschungsbereichen benötigt, wobei neben den traditionellen Gebieten der Fusionsforschung und Astrophysik zunehmend auch neue Forschungsrichtungen (z.B. Nanostrukturforschung und Röntgenlithographie) zunehmend ins Blickfeld rücken. Um die Zuverlässigkeit unserer theoretischen Vorhersagen zu erhöhen, wurde in dieser Arbeit insbesondere die Relaxation der gebundenen Elektronendichte, die rechentechnisch einen deutlich größeren Aufwand erfordert, detailliert untersucht. Eine Berücksichtigung dieser Relaxationseffekte führt oftmals auch zu einer deutlich besseren Übereinstimmung mit experimentellen Werten, insbesondere für dn=1 Übergänge sowie für schwache und Interkombinationslinien, die innerhalb einer Hauptschale (dn=0) vorkommen. Unsere in den vergangenen Jahren verbesserten Rechnungen zu den Wellenfunktionen und Übergangswahrscheinlichkeiten zeigen deutlich den Fortschritt bei der Behandlung komplexer Atome. Gleichzeitig kann dieses neue Herangehen künftig aber auch auf (i) kompliziertere Schalensstrukturen, (ii) die Untersuchung von Zwei-Elektronen-ein-Photon (TEOP) Übergängen sowie (iii) auf eine Reihe weiterer atomarer Eigenschaften übertragen werden, die bekanntermaßen empflindlich von der Relaxation der Elektronendichte abhängen. Dies sind bspw. Augerzerfälle, die atomare Photoionisation oder auch strahlende und dielektronische Rekombinationsprozesse, die theoretisch bisher nur selten überhaupt in der Dirac-Fock Näherung betrachtet wurden.
Resumo:
Die vorliegende Untersuchung analysiert die Eignung der "Spechtgemeinschaft" als ökologische Indikatorengruppe und formuliert vor dem Hintergrund der Ergebnisse Forderungen und Empfehlungen für einen "spechtgerechten" Umgang mit Wäldern. Die Habitatnutzung von sieben Spechtarten beim Nahrungserwerb wurde über einen Zeitraum von zwei Jahren in urwaldartigen und forstlich genutzten Beständen verschiedener Waldgesellschaften systematisch beobachtet. Das Untersuchungsgebiet ist der Bialowieza-Wald im äußersten Osten Polens, wo in enger räumlicher Nachbarschaft Natur- und Wirtschaftswaldflächen bearbeitet werden konnten. Die Beobachtungen erfolgten zwischen Anfang März 1999 und Ende Februar 2001 und wurden zu allen Jahreszeiten durchgeführt. Vier der insgesamt sechs Probeflächen repräsentieren die wichtigste Laubwaldgesellschaft des Gebietes, das Tilio-Carpinetum, die übrigen zwei die wichtigste Nadelwaldgesellschaft, das Peucedano-Pinetum. Die Hälfte der zwischen 42 und 54 ha großen Probeflächen lag im streng geschützten Urwaldreservat des Bialowieza-Nationalparkes, die übrigen in forstlich genutzten Waldbeständen. Zusätzlich wurde ein 2,5 km langes Transekt durch bewirtschafteten Erlen-Eschen-Auenwald und sehr naturnahen Erlenbruch bearbeitet. Die Probeflächen wurden in ein Raster aus 50x50m großen Quadranten unterteilt. Zur Beobachtung der Spechte beim Nahrungserwerb erfolgten 21 Begehungen je Probefläche bzw. Transekt. Die Probeflächen wurden dazu auf parallelen Linien mit Abständen von je 100m begangen, Startpunkt und Startrichtung wurden variiert. Zur Charakterisierung der Vegetation und Bestandesstruktur erfolgten Erhebungen zur Baumartenzusammensetzung, Größenklassenverteilung der Bäume, Totholzanteil und Krautvegetation. 1332 Beobachtungen von Spechten beim Nahrungserwerb konnten ausgewertet werden. Der Buntspecht wurde in allen Flächen am häufigsten gesehen. Mittel-, Weißrücken- und Kleinspecht wurden überwiegend in den Tilio-Carpineten beobachtet, in den Naturwäldern häufiger als in den bewirtschafteten Beständen. Der Dreizehenspecht wurde im Nadelwald und stärker mit Fichten durchmischtem Laubwald angetroffen. Bei Schwarz- und Grauspecht konnte keine klare Vorliebe für bestimmte Waldgesellschaften ermittelt werden. Der Buntspecht ernährte sich vor allem im Herbst und Winter überwiegend von fetthaltigen Samen und wurde dann meist beim Bearbeiten von Fichten- oder Kiefernzapfen in Schmieden beobachtet. Der Mittelspecht suchte als "Sammelspecht" seine Nahrung vor allem an den Oberflächen der Stämme und Äste. Klein-, Weißrücken-, Dreizehen- und Schwarzspecht traten als Hackspechte in Erscheinung. Die wenigen Daten zum Grauspecht reichen nicht zur Ermittlung der bevorzugten Nahrungserwerbstechnik aus. Bei Bunt-, Mittel- und Weißrückenspecht konnte eine deutliche Vorliebe für die Stieleiche als Nahrungsbaum nachgewiesen werden. Der Dreizehenspecht ist jedoch die einzige der beobachteten Arten mit einer weitgehenden Spezialisierung auf eine bestimmte Baumart, er nutzte in allen Waldgesellschaften meist die Fichte. Insgesamt bevorzugten die Spechte Bäume mit großen Stammdurchmessern, beim Kleinspecht ist diese Vorliebe allerdings nur schwach ausgeprägt. Totholz wurde von Weißrücken-, Dreizehen- und Kleinspecht bei der Nahrungssuche bevorzugt, vom Mittelspecht jedoch nur gelegentlich genutzt. Beim Buntspecht zeigte der Totholz-Nutzungsanteil erhebliche Unterschiede zwischen verschiedenen Baumarten. Liegendes Totholz spielte in den Tilio-Carpineten im Vergleich zu stehendem Totholz und toten Teilen lebender Bäume nur eine geringe Rolle für Nahrung suchende Spechte.
Resumo:
The collection of X chromosome insertions (PX) lethal lines, which was isolated from a screen for essential genes on the X chromosome, was characterized by means of cloning the insertion sites, mapping the sites within genomic DNA and determination of the associated reporter gene expresssion patterns. The established STS flanking the P element insertion sites were submitted to EMBL nucleotide databases and their in situ data together with the enhancer trap expression patterns have been deposited in the FlyView database. The characterized lines are now available to be used by the scientific community for a detailed analysis of the newly established lethal gene functions. One of the isolated genes on the X chromosome was the Drosophila gene Wnt5 (DWnt5). From two independent screens, one lethal and three homozygous viable alleles were recovered, allowing the identification of two distinct functions for DWnt5 in the fly. Observations on the developing nervous system of mutant embryos suggest that DWnt5 activity affects axon projection pattern. Elevated levels of DWNT5 activity in the midline cells of the central nervous system causes improper establishment and maintenance of the axonal pathways. Our analysis of the expression and mutant phenotype indicates that DWnt5 function in a process needed for proper organization of the nervous system. A second and novel function of DWnt5 is the control of the body size by regulation of the cell number rather than affecting the size of cells. Moreover, experimentally increased DWnt5 levels in a post-mitotic region of the eye imaginal disc causes abnormal cell cycle progression, resulting in additional ommatidia in the adult eye when compared to wild type. The increased cell number and the effects on the cell cycle after exposure to high DWNT5 levels is the result of a failure to downregulate cyclin B and therefore the unsuccessful establishment of a G1 arrest.
Resumo:
Aufgrund der breiten aktuellen Verwendung des Mythen-Begriffs in Kunst und Werbung, aber darüber hinaus auch in nahezu allen Bereichen gesellschaftlichen Lebens und vor allem in der Philosophie ergibt sich die Notwendigkeit, einen erweiterten Mythos-Begriff über das Historisch-Authentische hinaus zu verfolgen. Ausgehend von einer strukturalen Annäherung an den Mythos-Begriff im Sinne des von Roland Barthes vorgeschlagenen sekundären semiologischen Systems, d.h. einer semiologischen Sinnverschiebung zur Schaffung einer neuen – mythischen – Bedeutung, fordert diese neue Bedeutung eine Analyse, eine Mythenanalyse heraus. Dies ist deshalb so entscheidend, weil eben diese neue Bedeutung ihr mythisches Profil im Sinne von Hans Blumenberg durch forcierte Bedeutsamkeit für Individuen oder für bestimmte gesellschaftliche Gruppierungen unterlegt, z.B. durch bewusst intensive Wiederholung eines Themas oder durch unerwartete Koinzidenzen von Ereignissen oder durch Steigerung bzw. Depotenzierung von Fakten. Der erweiterte Mythen-Begriff verlangt nach einer Strukturierung und führt dabei zu unterschiedlichen Mythen-Ansätzen: zum Ursprungsstoff des authentischen Mythos und darauf basierender Geisteslage, zum Erkennen eines reflektierten Mythos, wenn es um das Verhältnis Mythos/Aufklärung geht, zum Zeitgeist-Mythos mit seinen umfangreichen Ausprägungen ideologischer, affirmativer und kritischer Art oder zu Alltagsmythen, die sich auf Persönlichkeitskulte und Sachverherrlichungen beziehen. Gerade der letztere Typus ist das Terrain der Werbung, die über den Gebrauchswert eines Produktes hinaus Wert steigernde Tauschwerte durch symbolische Zusatzattribute erarbeiten möchte. Hierbei können Markenmythen unterschiedlichster Prägung entstehen, denen wir täglich im Fernsehen oder im Supermarkt begegnen. Die Manifestation des Mythos in der Kunst ist einerseits eine unendliche Transformationsgeschichte mythischer Substanzen und andererseits ein überhöhender Bezug auf Zeitgeisterscheinungen, etwa bei dem Mythos des Künstlers selbst oder der durch ihn vorgenommenen „Verklärung des Gewöhnlichen“. Die Transformationsprozesse können u.a . prototypisch an zwei Beispielketten erläutert werden, die für den Kunst/Werbung-Komplex besonders interessant sind, weil ihr Charakter sich in einem Fall für die Werbung als äußerst Erfolg versprechend erwiesen hat und weil sich im zweiten Fall geradezu das Gegenteil abzeichnet: Zum einen ist es die Mythengestalt der Nymphe, jene jugendliche, erotisch-verführerische Frauengestalt, die über ihre antiken Wurzeln als Sinnbild der Lebensfreude und Fruchtbarkeit hinaus in und nach der Renaissance ihre Eignung als Verbildlichung der Wiederzulassung des Weiblichen in der Kunst beweist und schließlich der Instrumen-talisierung der Werbung dient. Im anderen Fall ist es die Geschichte der Medusa, die man idealtypisch als die andere Seite der Nympha bezeichnen kann. Hier hat Kunst Auf-klärungsarbeit geleistet, vor allem durch die Verschiebung des medusischen Schreckens von ihr weg zu einer allgemein-medusischen Realität, deren neue Träger nicht nur den Schrecken, sondern zugleich ihre Beteiligung an der Schaffung dieses Schreckens auf sich nehmen. Mythosanalyse ist erforderlich, um die Stellungnahmen der Künstler über alle Epochen hinweg und dabei vor allem diese Transformationsprozesse zu erkennen und im Sinne von Ent- oder Remythologisierung einzuordnen. Die hierarchische Zuordnung der dabei erkannten Bedeutungen kann zu einem Grundbestandteil einer praktischen Philosophie werden, wenn sie einen Diskurs durchläuft, der sich an Jürgen Habermas’ Aspekt der Richtigkeit für kommunikatives Handeln unter dem Gesichtspunkt der Toleranz orientiert. Dabei ist nicht nur zu beachten, dass eine verstärkte Mythenbildung in der Kunst zu einem erweiterten Mythen-begriff und damit zu dem erweiterten, heute dominierenden Kunstbegriff postmoderner Prägung geführt hat, sondern dass innerhalb des aktuellen Mythenpakets sich die Darstellungen von Zeitgeist- und Alltagsmythen zu Lasten des authentischen und des reflektierten Mythos entwickelt haben, wobei zusätzlich werbliche Markenmythen ihre Entstehung auf Verfahrensvorbildern der Kunst basieren. Die ökonomische Rationalität der aktuellen Gesellschaft hat die Mythenbildung keines-wegs abgebaut, sie hat sie im Gegenteil gefördert. Der neuerliche Mythenbedarf wurde stimuliert durch die Sinnentleerung der zweckrationalisierten Welt, die Ersatzbedarf anmeldete. Ihre Ordnungsprinzipien durchdringen nicht nur ihre Paradedisziplin, die Ökonomie, sondern Politik und Staat, Wissenschaft und Kunst. Das Umschlagen der Aufklärung wird nur zu vermeiden sein, wenn wir uns Schritt für Schritt durch Mythenanalyse unserer Unmündigkeit entledigen.
Resumo:
Im Vordergrund der Arbeit stand die Erfassung der mikrobiellen Biomasse bzw. Residualmasse an der Wurzeloberfläche, im Rhizosphärenboden und im umgebenden Boden. Durch den Vergleich von verschiedenen Methoden zur Erfassung der mikrobiellen Biomasse wurden die Gehalte von pilzlichem und bakteriellem Kohlenstoff an der Rhizoplane und in der Rhizosphäre quantifiziert. Dabei wurde die Fumigations-Extraktions-Methode zur Erfassung der mikrobiellen Biomasse eingesetzt. Ergosterol diente als Indikator für die pilzliche Biomasse und die Aminozucker Glucosamin und Muraminsäure sollten Aufschluss geben über die bakterielle und pilzliche Biomasse bzw. Residualmasse in den drei Probenfraktionen. Dazu wurden Umrechnungsfaktoren erstellt, die zur Berechnung des bakteriellen und pilzlichen Kohlenstoffs aus den Gehalten von Muraminsäure und Pilz-Glucosamin dienten. Die Bestimmung von Aminozuckern wurde insoweit modifiziert, dass sowohl in Boden- als auch in Wurzelhydrolysaten die Messung von Glucosamin, Galactosamin, Muraminsäure und Mannosamin gleichzeitig als automatisiertes Standardverfahren mit Hilfe der HPLC erfolgen konnte. Es wurden drei Gefäßversuche durchgeführt: Im ersten Versuch wurde der Einfluss der Pflanzenart auf die mikrobielle Besiedlung der Wurzeloberflächen untersucht. Dabei wurden Wurzeln und Rhizosphärenboden von 15 verschiedenen Pflanzenarten miteinander verglichen. Im zweiten Versuch stand der Einfluss der mikrobiellen Biomasse eines Bodens auf die mikrobielle Besiedlung von Wurzeloberflächen im Vordergrund. Deutsches Weidelgras (Lolium perenne L.) wurde auf sieben verschiedenen Böden angezogen. Bei den Böden handelte es sich um sechs Oberböden, die sich hinsichtlich des Bodentyps und der Bewirtschaftungsform voneinander unterschieden, und einen Unterboden. Im dritten Versuch wurde die mikrobielle Besiedlung von Wurzeln nach teilweiser und vollständiger Entfernung der oberirdischen Biomasse beobachtet. Welsches Weidelgras (Lolium multiflorum Lam.) wurde 24 Tage nach der Aussaat beschnitten. Anschließend wurde über einen Versuchszeitraum von acht Tagen die mikrobielle Besiedlung an den Wurzeln und in den Bodenfraktionen bestimmt. Es bestätigte sich, dass der Einfluss der einzelnen Pflanzenart von entscheidender Bedeutung für die mikrobielle Besiedlung von Wurzeln ist. Bei fast allen Pflanzen wurde die mikrobielle Biomasse an den Wurzeln von Pilzen dominiert. Das Verhältnis von pilzlichem zu bakteriellem Kohlenstoff an den Wurzeln der 15 Pflanzenarten lag im Mittel bei 2,6. Bei der Betrachtung verschiedener Böden zeigte sich, dass die mikrobielle Besiedlung in tieferen Bodenschichten signifikant niedriger ist als in den Oberböden. Dabei war der Pilzanteil an der mikrobiellen Biomasse im Unterboden deutlich erhöht. Der Vergleich der Oberböden untereinander ergab, dass sowohl der Bodentyp als auch die Bewirtschaftungsform einen signifikanten Einfluss auf mikrobielle Besiedlung ausüben. Durch die teilweise oder vollständige Entfernung der oberirdischen Biomasse wurde eine Veränderung der mikrobiellen Besiedlung an den Wurzeln beobachtet. Das Verhältnis von pilzlichem zu bakteriellem Kohlenstoff sank in dem Versuchszeitraum von 2,5 auf 1,4. Dabei war die Förderung der Pilze in der Variante mit teilweise entfernter oberirdischer Biomasse relativ größer als in der Variante mit vollständig entfernter oberirdischer Biomasse. Entgegen der weit verbreiteten Annahme, dass bei den wurzelbesiedelnden Mikroorganismen die Bakterien gegenüber den Pilzen dominieren, zeigten die Ergebnisse ein gegensätzliches Bild. In allen drei Versuchen ergab sich gleichermaßen, dass sowohl im Boden als auch an den Wurzeln die Pilze gegenüber den Bakterien dominieren.
Resumo:
Das Ziel dieser Arbeit war, die Einflüsse von Wurzeln und Rhizodeposition auf den Umsatz von Körnerleguminosenresiduen und damit verknüpfte mikrobielle Prozesse zu untersuchen. In einem integrierten Versuch wurden Ackerbohne (Vicia faba L.), Erbse (Pisum sativum L.) und Weiße Lupine (Lupinus albus L.) untersucht. Der Versuch bestand aus drei Teilen, zwei Gefäß-Experimenten und einem Inkubationsexperiment, in denen ausgehend von einem Gefäß-Experiment derselbe Boden und dasselbe Pflanzenmaterial verwendet wurden. In Experiment I wurde die Stickstoff-Rhizodeposition der Körnerleguminosenarten, definiert als wurzelbürtiger N nach dem Entfernen aller sichtbaren Wurzeln im Boden, gemessen und der Verbleib des Rhizodepositions-N in verschiednenen Bodenpools untersucht. Dazu wurden die Leguminosen in einem Gefäßversuch unter Verwendung einer in situ 15N-Docht-Methode mit einer 15N Harnstofflösung pulsmarkiert. In Experiment II wurde der Umsatz der N-Rhizodeposition der Körnerleguminosen und der Einfluss der Rhizodeposition auf den anschließenden C- und N-Umsatz der Körnerleguminosenresiduen in einem Inkubationsexperiment untersucht. In Experiment III wurde der N-Transfer aus den Körnerleguminosenresiduen einschließlich N-Rhizodeposition in die mikrobielle Biomasse und die Folgefrüchte Weizen (Triticum aestivum L.) und Raps (Brassica napus L.) in einem Gewächshaus-Gefäßversuch ermittelt. Die in situ 15N Docht-Markierungs-Methode wies hohe 15N Wiederfindungsraten von ungefähr 84 Prozent für alle drei Leguminosenarten auf und zeigte eine vergleichsweise homogene 15N Verteilung zwischen verschiedenen Pflanzenteilen zur Reife. Die Wurzeln zeigten deutliche Effekte auf die N-Dynamik nach dem Anbau von Körnerleguminosen. Die Effekte konnten auf die N-Rhizodeposition und deren anschließenden Umsatz, Einflüsse der Rhizodeposition von Körnerleguminosen auf den anschließenden Umsatz ihrer Residuen (Stängel, Blätter, erfassbare Wurzeln) und die Wirkungen nachfolgender Nichtleguminosen auf den Umsatzprozess der Residuen zurückgeführt werden: Die N-Rhizodeposition betrug zur Reife der Pflanzen bezogen auf die Gesamt-N- Aufnahme 13 Prozent bei Ackerbohne und Erbse und 16 Prozent bei Weißer Lupine. Bezogen auf den Residual N nach Ernte der Körner erhöhte sich der relative Anteil auf 35 - 44 Prozent. Die N-Rhizodeposition ist daher ein wesentlicher Pool für die N-Bilanz von Körnerleguminosen und trägt wesentlich zur Erklärung positiver Fruchtfolgeeffekte nach Körnerleguminosen bei. 7 - 21 Prozent des Rhizodepositions-N wurden als Feinwurzeln nach Nasssiebung (200 µm) wiedergefunden. Nur 14 - 18 Prozent des Rhizodepositions-N wurde in der mikrobiellen Biomasse und ein sehr kleiner Anteil von 3 - 7 Prozent in der mineralischen N Fraktion gefunden. 48 bis 72 Prozent der N-Rhizodeposition konnte in keinem der untersuchten Pools nachgewiesen werden. Dieser Teil dürfte als mikrobielle Residualmasse immobilisiert worden sein. Nach 168 Tagen Inkubation wurden 21 bis 27 Prozent des Rhizodepositions-N in den mineralisiert. Der mineralisierte N stammte im wesentlichen aus zwei Pools: Zwischen 30 Prozent und 55 Prozent wurde aus der mikrobiellen Residualmasse mineralisiert und eine kleinere Menge stammte aus der mikrobielle Biomasse. Der Einfluss der Rhizodeposition auf den Umsatz der Residuen war indifferent. Durch Rhizodeposition wurde die C Mineralisierung der Leguminosenresiduen nur in der Lupinenvariante erhöht, wobei der mikrobielle N und die Bildung von mikrobieller Residualmasse aus den Leguminosenresiduen in allen Varianten durch Rhizodepositionseinflüsse erhöht waren. Das Potential des residualen Körnerleguminosen-N für die N Ernährung von Folgefrüchten war gering. Nur 8 - 12 Prozent des residualen N wurden in den Folgenfrüchten Weizen und Raps wiedergefunden. Durch die Berücksichtigung des Rhizodepositions-N war der relative Anteil des Residual-N bezogen auf die Gesamt-N-Aufnahme der Folgefrucht hoch und betrug zwischen 18 und 46 Prozent. Dies lässt auf einen höheren N-Beitrag der Körnerleguminosen schließen als bisher angenommen wurde. Die residuale N-Aufnahme von Weizen von der Blüte bis zur Reife wurde durch den Residual-N gespeist, der zur Blüte in der mikrobiellen Biomasse immobilisiert worden war. Die gesamte Poolgröße, Residual-N in der mikrobiellen Biomasse und in Weizen, veränderte sich von der Blüte bis zur Reife nicht. Jedoch konnte ein Rest von 80 Prozent des Residual-N in keinem der untersuchten Pools nachgewiesen werden und dürfte als mikrobielle Residualmasse immobilisiert worden sein oder ist noch nicht abgebaut worden. Die zwei unterschiedlichen Folgefrüchte - Weizen und Raps - zeigten sehr ähnliche Muster bei der N-Aufnahme, der Residual-N Wiederfindung und bei mikrobiellen Parametern für die Residuen der drei Körnerleguminosenarten. Ein differenzierender Effekt auf den Umsatz der Residuen bzw. auf das Residual-N-Aneignungsvermögen der Folgefrüchte konnte nicht beobachtet werden.
Resumo:
Während der letzten 20 Jahre hat sich das Periodensystem bis zu den Elementen 114 und 116 erweitert. Diese sind kernphysikalisch nachgewiesen, so dass jetzt die chemische Untersuchung an erster Selle steht. Nachdem sich das Periodensystem bis zum Element 108 so verhält, wie man es dem Periodensystem nach annimmt, wird in dieser Arbeit die Chemie des Elements 112 untersucht. Dabei geht es um die Adsorptionsenergie auf einer Gold-Ober fläche, weil dies der physikalisch/chemische Prozess ist, der bei der Analyse angewandt wird. Die Methode, die in dieser Arbeit angwandt wird, ist die relativistische Dichtefunktionalmethode. Im ersten Teil wird das Vielkörperproblem in allgemeiner Form behandelt, und im zweiten die grundlegenden Eigenschaften und Formulierungen der Dichtefunktionaltheorie. Die Arbeit beschreibt zwei prinzipiell unterschiedliche Ansätze, wie die Adsorptionsenergie berechnet werden kann. Zum einen ist es die sogenannte Clustermethode, bei der ein Atom auf ein relativ kleines Cluster aufgebracht und dessen Adsorptionsenergie berechnet wird. Wenn es gelingt, die Konvergenz mit der Größe des Clusters zu erreichen, sollte dies zu einem Wert für die Adsorptionsenergie führen. Leider zeigt sich in den Rechnungen, dass aufgrund des zeitlichen Aufwandes die Konvergenz für die Clusterrechnungen nicht erreicht wird. Es werden sehr ausführlich die drei verschiedenen Adsorptionsplätze, die Top-, die Brücken- und die Muldenposition, berechnet. Sehr viel mehr Erfolg erzielt man mit der Einbettungsmethode, bei der ein kleiner Cluster von vielen weiteren Atomen an den Positionen, die sie im Festkörpers auf die Adsorptionsenergie soweit sichergestellt ist, dass physikalisch-chemisch gute Ergebnisse erzielt werden. Alle hier gennanten Rechnungen sowohl mit der Cluster- wie mit der Einbettungsmethode verlangen sehr, sehr lange Rechenzeiten, die, wie oben bereits erwähnt, nicht zu einer Konvergenz für die Clusterrechnungen ausreichten. In der Arbeit wird bei allen Rechnungen sehr detailliert auf die Abhängigkeit von den möglichen Basissätzen eingegangen, die ebenfalls in entscheidender Weise zur Länge und Qualität der Rechnungen beitragen. Die auskonvergierten Rechnungen werden in der Form von Potentialkurven, Density of States (DOS), Overlap Populations sowie Partial Crystal Overlap Populations analysiert. Im Ergebnis zeigt sich, dass die Adsoptionsenergie für das Element 112 auf einer Goldoberfläche ca. 0.2 eV niedriger ist als die Adsorption von Quecksilber auf der gleichen Ober fläche. Mit diesem Ergebnis haben die experimentellen Kernchemiker einen Wert an der Hand, mit dem sie eine Anhaltspunkt haben, wo sie bei den Messungen die wenigen zu erwartenden Ereignisse finden können.