990 resultados para Allen, Aaron S
Resumo:
Während der letzten 20 Jahre hat sich das Periodensystem bis zu den Elementen 114 und 116 erweitert. Diese sind kernphysikalisch nachgewiesen, so dass jetzt die chemische Untersuchung an erster Selle steht. Nachdem sich das Periodensystem bis zum Element 108 so verhält, wie man es dem Periodensystem nach annimmt, wird in dieser Arbeit die Chemie des Elements 112 untersucht. Dabei geht es um die Adsorptionsenergie auf einer Gold-Ober fläche, weil dies der physikalisch/chemische Prozess ist, der bei der Analyse angewandt wird. Die Methode, die in dieser Arbeit angwandt wird, ist die relativistische Dichtefunktionalmethode. Im ersten Teil wird das Vielkörperproblem in allgemeiner Form behandelt, und im zweiten die grundlegenden Eigenschaften und Formulierungen der Dichtefunktionaltheorie. Die Arbeit beschreibt zwei prinzipiell unterschiedliche Ansätze, wie die Adsorptionsenergie berechnet werden kann. Zum einen ist es die sogenannte Clustermethode, bei der ein Atom auf ein relativ kleines Cluster aufgebracht und dessen Adsorptionsenergie berechnet wird. Wenn es gelingt, die Konvergenz mit der Größe des Clusters zu erreichen, sollte dies zu einem Wert für die Adsorptionsenergie führen. Leider zeigt sich in den Rechnungen, dass aufgrund des zeitlichen Aufwandes die Konvergenz für die Clusterrechnungen nicht erreicht wird. Es werden sehr ausführlich die drei verschiedenen Adsorptionsplätze, die Top-, die Brücken- und die Muldenposition, berechnet. Sehr viel mehr Erfolg erzielt man mit der Einbettungsmethode, bei der ein kleiner Cluster von vielen weiteren Atomen an den Positionen, die sie im Festkörpers auf die Adsorptionsenergie soweit sichergestellt ist, dass physikalisch-chemisch gute Ergebnisse erzielt werden. Alle hier gennanten Rechnungen sowohl mit der Cluster- wie mit der Einbettungsmethode verlangen sehr, sehr lange Rechenzeiten, die, wie oben bereits erwähnt, nicht zu einer Konvergenz für die Clusterrechnungen ausreichten. In der Arbeit wird bei allen Rechnungen sehr detailliert auf die Abhängigkeit von den möglichen Basissätzen eingegangen, die ebenfalls in entscheidender Weise zur Länge und Qualität der Rechnungen beitragen. Die auskonvergierten Rechnungen werden in der Form von Potentialkurven, Density of States (DOS), Overlap Populations sowie Partial Crystal Overlap Populations analysiert. Im Ergebnis zeigt sich, dass die Adsoptionsenergie für das Element 112 auf einer Goldoberfläche ca. 0.2 eV niedriger ist als die Adsorption von Quecksilber auf der gleichen Ober fläche. Mit diesem Ergebnis haben die experimentellen Kernchemiker einen Wert an der Hand, mit dem sie eine Anhaltspunkt haben, wo sie bei den Messungen die wenigen zu erwartenden Ereignisse finden können.
Resumo:
Diese Arbeit befasst sich mit der Innovations- und Globalisierungspolitik in kleinen Transformationsländern am Beispiel Mazedoniens; diese wurde mit der Lage in Slowenien verglichen, einem Land von ungefähr gleicher Größe und mit gemeinsamer Vergangenheit als Teilrepublik der Jugoslawischen Föderation, aber mit einem wesentlich höheren ökonomischen Entwicklungsstand. Innovation wird dabei verstanden als „Herstellung, Anpassung und Ausnutzung von Neuerungen“, und sie wird durch das Umfeld, in dem sie stattfindet, beeinflusst. Anpassung und Ausnutzung sind gerade für kleine Transformationsländer von erheblicher Bedeutung, da ihre Fähigkeit zu Herstellung von Neuerungen sehr begrenzt sind. Die Rolle der Innovationspolitik besteht hierbei darin, institutionelle und organisationelle Regulierungen einzuführen, die ein günstiges Umfeld sowohl für Innovationen als auch für die Entwicklung eines nationalen Innovationssystems schaffen. Die Rolle der Politik besteht also nicht in der Innovation als solcher, sondern in der Herstellung der notwendigen Bedingungen für die Industrie und die Forschungseinrichtungen dahingehend zu schaffen, dass sie ihr Wissen, ihre Fertigkeiten und ihre praktischen Erfahrungen für innovative Tätigkeiten einsetzen können. Auf der einen Seite gibt es Institutionen und Organisationen, ohne die die Unternehmen rückständig und wenig leistungsstark wären (etwa das Patentamt oder Institutionen höherer Bildung), und auf der anderen Seite gibt es Institutionen und Organisationen, welche die Unternehmen dabei unterstützen, dass sie ihre Tätigkeit weiter unterstützen (z.B. durch Technologietransfer-Zentren und Netzwerke). Die Leistungen dieser Institutionen und Organisationen sind von großer Bedeutung für die nationalen Innovationssysteme und sollten ihrerseits durch Innovationspolitik unterstützt werden; dies bedeutet jedoch nicht, dass diese Leistungen vom Staat bereitgestellt werden, vielmehr sollte die Wirtschaftspolitik Möglichkeiten für die öffentlich/private oder sogar rein private Bereitstellung solcher Leistungen in Erwägung ziehen; dies würde nicht nur die Kosten für den Staat senken, sondern auch die Effizienz bei der Erstellung dieser Leistungen steigern. Die Arbeit kommt zu dem Schluss, dass das größte Problem der Innovationspolitik in Mazedonien darin besteht, dass es sie gar nicht gibt, und zwar nicht als Folge einer bewussten Entscheidung darüber. Tatsächlich müssen Ressourcen und Zeit für die Schaffung eines nationalen Innovationssystems eingesetzt werden mit Hilfe einer Politik, die sich auf die wesentlichen Umrisse konzentriert, wobei die Nachfrage nach Technologie im Unternehmensbereich gesteigert wird und das Wissen und das Informationsangebot restrukturiert wird. Dieses System muss offen sein, unter beständigem Verbesserungsdruck stehen und fähig sein, sich an Veränderungen anzupassen. Damit eine solche Politik erfolgreich ist, muss es einen Konsens darüber zwischen allen beteiligten Akteuren geben und darüber hinaus auch eine Kohärenz zwischen den verschiedenen politischen Institutionen. Das ist deswegen wichtig, weil der Innovationsprozess komplex ist und verschiedene Politikbereiche berührt. Ziel sollte die Schaffung eines Systems sein, das einerseits auf Autonomie und Kooperation aufbaut, andererseits aber auch Wettbewerb zwischen den beteiligten Institutionen und Organisationen fördert. Eine wichtige Bedingung für ein positives Investitionsklima im Bereich der Innovation ist die Erreichung von makroökonomischer Stabilität. Die gegenwärtige Situation ist gekennzeichnet durch Instabilität des Rechtswesens, durch Korruption und Probleme des Vertragsschutzes, die sowohl ausländische als auch inländische Akteure davon abhält, sich in wirtschaftlichen Aktivitäten in Mazedonien zu engagieren. Bei der Suche nach einem Ausweg aus diesen Problemen ist es wichtig für Mazedonien, von anderen Ländern wie Slowenien zu lernen, die ähnliche Probleme haben, aber auch schon Erfahrungen in der Problemlösung. Man muss dabei beachten, dass der Entwicklungsstand, das wirtschaftliche und das politische Umfeld in beiden Vergleichsländern sich erheblich unterscheiden, so dass die Lektionen, die Mazedonien von Slowenien lernen könnte, nicht direkt übertragen und kopiert werden können, sondern entsprechend angepasst werden müssen. Die vorliegende Arbeit liefert Einsichten in die Probleme der Innovationspolitik in Transformationsländern und liefert daher sowohl einen Anreiz als auch eine Quelle von Informationen für künftige Analysen der wirtschaftlichen Bedingungen und vor allem Innovationspolitik in Transformationsländern.
Resumo:
Motiviert durch die Lebenswissenschaften (Life sciences) haben sich Untersuchungen zur Dynamik von Makromolekülen in Lösungen in den vergangenen Jahren zu einem zukunftsweisenden Forschungsgebiet etabliert, dessen Anwendungen von der Biophysik über die physikalische Chemie bis hin zu den Materialwissenschaften reichen. Neben zahlreichen experimentellen Forschungsprogrammen zur räumlichen Struktur und den Transporteigenschaften grosser MolekÄule, wie sie heute praktisch an allen (Synchrotron-) Strahlungsquellen und den Laboren der Biophysik anzutreffen sind, werden gegenwärtig daher auch umfangreiche theoretische Anstrengungen unternommen, um das Diffusionsverhalten von Makromolekülen besser zu erklären. Um neue Wege für eine quantitative Vorhersagen des Translations- und Rotationsverhaltens grosser Moleküle zu erkunden, wurde in dieser Arbeit ein semiphänomenologischer Ansatz verfolgt. Dieser Ansatz erlaubte es, ausgehend von der Hamiltonschen Mechanik des Gesamtsystems 'Molekül + Lösung', eine Mastergleichung für die Phasenraumdichte der Makromoleküle herzuleiten, die den Einfluss der Lösung mittels effektiver Reibungstensoren erfasst. Im Rahmen dieses Ansatzes gelingt es z.B. (i) sowohl den Einfluss der Wechselwirkung zwischen den makromolekularen Gruppen (den sogenannten molekularen beads) und den Lösungsteilchen zu analysieren als auch (ii) die Diffusionseigen schaften für veschiedene thermodynamische Umgebungen zu untersuchen. Ferner gelang es auf der Basis dieser Näherung, die Rotationsbewegung von grossen Molekülen zu beschreiben, die einseitig auf einer Oberfläche festgeheftet sind. Im Vergleich zu den aufwendigen molekulardynamischen (MD) Simulationen grosser Moleküle zeichnet sich die hier dargestellte Methode vor allem durch ihren hohen `Effizienzgewinn' aus, der für komplexe Systeme leicht mehr als fünf Grössenordnungen betragen kann. Dieser Gewinn an Rechenzeit erlaubt bspw. Anwendungen, wie sie mit MD Simulationen wohl auch zukünftig nicht oder nur sehr zögerlich aufgegriffen werden können. Denkbare Anwendungsgebiete dieser Näherung betreffen dabei nicht nur dichte Lösungen, in denen auch die Wechselwirkungen der molekularen beads zu benachbarten Makromolekülen eine Rolle spielt, sondern auch Untersuchungen zu ionischen Flüssigkeiten oder zur Topologie grosser Moleküle.
Resumo:
Die Aufarbeitung der Wechselwirkung von Politik, Schulentwicklung und dem mit dem Verfassungsauftrag verbundenen Verantwortungsbereich der Schulaufsicht und ihrer Steuerungsfunktion im Bildungswesen ist Thema der Studie. Es sollen die Kontexte von Bildungsplanung, Steuerung der Schulentwicklung und Schulaufsicht bezogen auf die „autonome“ Schule am Beispiel Hessens dargestellt, analysiert und Perspektiven aufgezeigt werden. Die rechtlichen Grundlagen der Schulentwicklung und ihre bildungspolitischen Ausprägungen und die Strukturen und die Organisation der Bildungsverwaltung – mit einer Fokussierung auf die „inneren“ und „äußeren“ Schulangelegenheiten - werden dargestellt und die Entwicklungsprozesse analysiert. An den Beispielen Mittelpunktschule/Förderstufe und Schulprogramm wird der Versuch unternommen, die veränderten Rollen und Funktionen der Schulaufsicht in Verbindung mit den jeweiligen Entwicklungsphasen der Schulaufsichtsorganisation seit 1945 aufzuzeigen. Im Spannungsfeld von Politik, Pädagogik und Ökonomie war und ist die Steuerung der Schulentwicklung durch die Bildungsverwaltung ein zentrales gestaltendes Element. Die Schulforschung hat in der Vergangenheit dem Bereich der Bildungsverwaltung, hier insbesondere der Schulaufsicht, relativ wenig Aufmerksamkeit geschenkt. Dabei ist die Schulaufsicht nicht nur im Grundgesetz sondern in allen Länderverfassung als „hoheitliche“ Aufgabe verankert und in den entsprechenden Schulgesetzen als Dienst-, Fach- und Rechtsaufsicht über die Schulen ein fester Bestandteil des staatlichen Gewaltmonopols. Nicht nur die Schulaufsicht als Teil der Bildungsverwaltung und ihre direkte und indirekte Rolle bei der Steuerung der Schulentwicklung in Hessen, auch der Einfluss der Finanzpolitik sowie die Auswirkungen der internationalen Vergleichsuntersuchungen und der Europäisierung (TIMSS, PISA, IGLU, Bologna, Lissabon, EU-Programme, internationale Organisationen) werden kontextuell behandelt. Die Auswirkungen finanzpolitischer Entscheidungen ("schlanker Staat") und die Einführung der Neuen Verwaltungssteuerung in Hessen auf die weiteren Perspektiven der Schulaufsicht und die Bildungsverwaltung insgesamt werden im Kontext zu den übrigen Bundesländern auf Grund aktueller politischer Entscheidungen im Zusammenhang mit der Diskussion um Qualitätssicherung im Bildungswesen aufgezeigt und künftige Funktionen und Gestaltungsmöglichkeiten der Schulaufsicht als „regionaler Qualitätsagentur“ perspektivisch entwickelt.
Resumo:
Bei der Stromversorgung handelte es sich bis zu seiner Liberalisierung 1998 um einen Wirtschaftszweig, der von Gebietsmonopolen auf allen Versorgungsstufen geprägt war. Diese Monopole gründeten im Wesentlichen auf dem natürlichen Monopol des Stromnetzes sowie auf der Bedeutung der Stromversorgung. Auch nach der Liberalisierung ist der Markt noch immer durch die etablierten ehemaligen Gebietsversorger geprägt, die nach wie vor über die Netze verfügen und zudem untereinander und mit der Politik gut vernetzt sind. Damit über das weiterhin bestehende natürliche Monopol bei den Stromnetzen keine wettbewerbswidrigen Interessen verfolgt werden können, bedarf die Transformation der Elektrizitätsversorgung in einen vorwiegend vom Wettbewerb geprägten Markt einiger Anpassungen. Einige Interessenskonflikte können bereits gelöst werden, indem die Marktstruktur an die neuen Bedingungen angepasst wird. Zum einen bedarf es einer Netzzugangsregelung, die dem Netzbetreiber möglichst geringe Missbrauchsmöglichkeiten offen lässt. Damit der Netzbetreiber überdies keine Interessen aus Aktivitäten in wettbewerbsgeprägten Märkten zulasten der Netznutzer verfolgt, ist zumindest der Betrieb des Netzes auf eigentumsrechtlich unabhängige Netzbetreiber zu übertragen. Diese Entflechtungsform sollte scheinbar bequemeren Lösungen, die sich leichter umsetzen lassen, vorgezogen werden. Auf lange Sicht werden die damit verbundenen höheren Regulierungskosten die Markttransformationskosten weit übersteigen. Das Problem des natürlichen Monopols beim Netz bedarf trotz allem einer dauernden Regulierung. Hier empfiehlt sich eine weitreichende ex-ante-Regulierung, in die auch Kriterien einfließen sollten, die den Netzbetreiber zu einem stabilen und sicheren Betrieb des Netzes veranlassen. Infolgedessen dürfte der Bedarf an einer ex-post-Kontrolle durch die Regulierungsinstitution entsprechend gering ausfallen. Die Regulierungsinstitution sollte hierbei nicht auf einige wenige Regulierungsinstrumente festgelegt werden. Die Gefahr der Anmaßung von Wissen, der Regulierungsinstitutionen wegen ihrer im Vergleich zu den Marktteilnehmern größeren Marktferne ausgesetzt sind, lässt sich durch die Akteursbeteiligung in der Regulierungsinstitution verringern: Die Akteure könnten innerhalb eines vorgegebenen Rahmens die Ausgestaltung der Netznutzungsregeln weitestgehend selbst bestimmen, die Aushandelungsmodalitäten hierfür müssen allerdings präzise festgelegt und die getroffenen Regelungen für alle Marktteilnehmer verbindlich sein. Diese Mischform zwischen staatlicher Rahmensetzung und Selbstregulierung nutzt die Regelungspotentiale des Staates und die Selbstorganisationsmöglichkeiten der relevanten Akteure gleichermaßen. Durch die Besetzung der Regulierungsinstitution mit Vertretern der relevanten Akteure wird zudem ein großes Maß an spezifischem Branchenwissen in sie hineingetragen, insbesondere da die vertikal integrierten Elektrizitätsversorgungsunternehmen nach der eigentumsrechtlichen Entflechtung zumindest noch anfangs über einen großen Teil der Informationen über den Netzbetrieb verfügen. Damit wäre das Informationsproblem, das staatlichen Regulierungsstellen anhaftet, geringer. Durch die Interessenlage der Mitglieder der Regulierungsinstitution dürfte sie auf den Netzbetreiber den starken Effizienzdruck ausüben. Der Netzbetreiber sollte hingegen ein Unternehmen im vollständigen öffentlichen Eigentum sein. Damit kann eine Unterwanderung durch Anteilserwerb verhindert und das Netz leichter im Sinne gemeinwirtschaftlicher Verpflichtungen betrieben werden. Dies wäre überdies wegen der Legitimationsprobleme, die mit einer weitgehend unabhängigen, mit umfangreichen und nicht präzise abgegrenzten Eingriffbefugnissen versehenen Regulierungsinstitution einhergehen, vorteilhaft, wenn nicht gar geboten. Damit sind große Teile der Grundrechtsprobleme, die mit der Regulierungsinstitution, ihrer Zusammensetzung und ihren Kompetenzen zusammenhängen, irrelevant.
Resumo:
Das Grünbuch 2006 der Europäischen Kommission "Eine Europäische Strategie für nachhaltige, wettbewerbsfähige und sichere Energie" unterstreicht, dass Europa in ein neues Energie-Zeitalter eingetreten ist. Die vorrangigen Ziele europäischer Energiepolitik müssen Nachhaltigkeit, Wettbewerbsfähigkeit und Versorgungssicherheit sein, wobei sie eine zusammenhängende und logische Menge von Taktiken und Maßnahmen benötigt, um diese Ziele zu erreichen. Die Strommärkte und Verbundnetze Europas bilden das Kernstück unseres Energiesystems und müssen sich weiterentwickeln, um den neuen Anforderungen zu entsprechen. Die europäischen Stromnetze haben die lebenswichtigen Verbindungen zwischen Stromproduzenten und Verbrauchern mit großem Erfolg seit vielen Jahrzehnten gesichert. Die grundlegende Struktur dieser Netze ist entwickelt worden, um die Bedürfnisse großer, überwiegend auf Kohle aufgebauten Herstellungstechnologien zu befriedigen, die sich entfernt von den Verbraucherzentren befinden. Die Energieprobleme, denen Europa jetzt gegenübersteht, ändern die Stromerzeugungslandschaft in zwei Gesichtspunkten: die Notwendigkeit für saubere Kraftwerkstechnologien verbunden mit erheblich verbesserten Wirkungsgraden auf der Verbraucherseite wird es Kunden ermöglichen, mit den Netzen viel interaktiver zu arbeiten; andererseits müssen die zukünftigen europaweiten Stromnetze allen Verbrauchern eine höchst zuverlässige, preiswerte Energiezufuhr bereitstellen, wobei sowohl die Nutzung von großen zentralisierten Kraftwerken als auch kleineren lokalen Energiequellen überall in Europa ausgeschöpft werden müssen. In diesem Zusammenhang wird darauf hingewiesen, dass die Informationen, die in dieser Arbeit dargestellt werden, auf aktuellen Fragen mit großem Einfluss auf die gegenwärtigen technischen und wirtschaftspolitischen Diskussionen basieren. Der Autor hat während der letzten Jahre viele der hier vorgestellten Schlussfolgerungen und Empfehlungen mit Vertretern der Kraftwerksindustrie, Betreibern von Stromnetzen und Versorgungsbetrieben, Forschungsgremien und den Regulierungsstellen diskutiert. Die folgenden Absätze fassen die Hauptergebnisse zusammen: Diese Arbeit definiert das neue Konzept, das auf mehr verbraucherorientierten Netzen basiert, und untersucht die Notwendigkeiten sowie die Vorteile und die Hindernisse für den Übergang auf ein mögliches neues Modell für Europa: die intelligenten Stromnetze basierend auf starker Integration erneuerbarer Quellen und lokalen Kleinkraftwerken. Das neue Modell wird als eine grundlegende Änderung dargestellt, die sich deutlich auf Netzentwurf und -steuerung auswirken wird. Sie fordert ein europäisches Stromnetz mit den folgenden Merkmalen: – Flexibel: es erfüllt die Bedürfnisse der Kunden, indem es auf Änderungen und neue Forderungen eingehen kann – Zugänglich: es gestattet den Verbindungszugang aller Netzbenutzer besonders für erneuerbare Energiequellen und lokale Stromerzeugung mit hohem Wirkungsgrad sowie ohne oder mit niedrigen Kohlendioxidemissionen – Zuverlässig: es verbessert und garantiert die Sicherheit und Qualität der Versorgung mit den Forderungen des digitalen Zeitalters mit Reaktionsmöglichkeiten gegen Gefahren und Unsicherheiten – Wirtschaftlich: es garantiert höchste Wirtschaftlichkeit durch Innovation, effizientes Energiemanagement und liefert „gleiche Ausgangsbedingungen“ für Wettbewerb und Regulierung. Es beinhaltet die neuesten Technologien, um Erfolg zu gewährleisten, während es die Flexibilität behält, sich an weitere Entwicklungen anzupassen und fordert daher ein zuversichtliches Programm für Forschung, Entwicklung und Demonstration, das einen Kurs im Hinblick auf ein Stromversorgungsnetz entwirft, welches die Bedürfnisse der Zukunft Europas befriedigt: – Netztechnologien, die die Stromübertragung verbessern und Energieverluste verringern, werden die Effizienz der Versorgung erhöhen, während neue Leistungselektronik die Versorgungsqualität verbessern wird. Es wird ein Werkzeugkasten erprobter technischer Lösungen geschaffen werden, der schnell und wirtschaftlich eingesetzt werden kann, so dass bestehende Netze Stromeinleitungen von allen Energieressourcen aufnehmen können. – Fortschritte bei Simulationsprogrammen wird die Einführung innovativer Technologien in die praktische Anwendung zum Vorteil sowohl der Kunden als auch der Versorger stark unterstützen. Sie werden das erfolgreiche Anpassen neuer und alter Ausführungen der Netzkomponenten gewährleisten, um die Funktion von Automatisierungs- und Regelungsanordnungen zu garantieren. – Harmonisierung der ordnungspolitischen und kommerziellen Rahmen in Europa, um grenzüberschreitenden Handel von sowohl Energie als auch Netzdienstleistungen zu erleichtern; damit muss eine Vielzahl von Einsatzsituationen gewährleistet werden. Gemeinsame technische Normen und Protokolle müssen eingeführt werden, um offenen Zugang zu gewährleisten und den Einsatz der Ausrüstung eines jeden Herstellers zu ermöglichen. – Entwicklungen in Nachrichtentechnik, Mess- und Handelssystemen werden auf allen Ebenen neue Möglichkeiten eröffnen, auf Grund von Signalen des Marktes frühzeitig technische und kommerzielle Wirkungsgrade zu verbessern. Es wird Unternehmen ermöglichen, innovative Dienstvereinbarungen zu benutzen, um ihre Effizienz zu verbessern und ihre Angebote an Kunden zu vergrößern. Schließlich muss betont werden, dass für einen erfolgreichen Übergang zu einem zukünftigen nachhaltigen Energiesystem alle relevanten Beteiligten involviert werden müssen.
Resumo:
Bei Biolebensmitteln (gemäss deutschsprachiger gesetzlicher Regel gilt: Bio=Öko) stellt die gesetzlich vorgeschriebene Zertifizierung auf allen Stufen die Bioqualität der Produkte sicher. "Lässt sich Bio messen?", ist jedoch eine alte und immer noch aktuelle Frage. Der folgende Artikel gibt dafür neue Antworten und zeigt auf, wie mit klassischen und komplementären Methoden Aussagen über die Bioqualität der Lebensmittel gemacht werden können.
Resumo:
In Venezuela wurden ab 1989 als Reaktion auf die Zahlungsunfähigkeit des Landes erste neoliberale Strukturanpassungsmaßnahmen eingeleitet. Eine daraus resultierende zusätzliche Belastung der armen Bevölkerung mündete in einen völlig unerwarteten, massiven sozialen Aufruhr, dem sogenannten caracazo von 1989. Als eine Antwort darauf gründete die Regierung in Kooperation mit der Interamerikanischen Entwicklungsbank (BID) den venezolanischen Sozialfond FONVIS, der die sozialen Auswirkungen der neoliberalen Anpassung abfedern sollte. In diesem working paper werden unter Berücksichtigung der nationalen Kontextbedingungen die historische Entwicklung und die verschiedenen Konfigurationen des FONVIS beschrieben und analysiert. Als international gefördertes Implementierungsinstrument startete der Fonds mit einer Armutsbekämpfungspolitik, die den Ausbau von sozialer Infrastruktur sowie die Unterstützung des venezolanischen Dezentralisierungsprozesses fokussierte. Mit dem Regierungsantritt von Hugo Chávez 1999 hatte der Fonds dann in einem zunehmend schwierigeren Kontext zu operieren: Durch den Aufbau von neuen zentralstaatlichen sozialpolitischen Instrumenten und regierungsnahen ad hoc-Instanzen wurde der FONVIS zunehmend von einer anfänglich wichtigen Stellung innerhalb der nationalen Sozialpolitik ins institutionelle Abseits verdrängt und schließlich Ende 2005 offiziell aufgelöst. Die hier analysierte Performance des FONVIS macht deutlich, dass in der venezolanischen Fondslandschaft sich nur schwer eine breit entfaltete Multi-Level-Governance entwickeln konnte, weil der nationalstaatliche Kontext die Fondspolitik in allen Momenten dominierte. Schließlich leitete der Staat sogar ohne weitere Absprachen weder mit der internationalen noch regionalen und lokalen Ebene die Abschaffung des Fonds ein.
Resumo:
Diese Arbeit beschäftigt sich sowohl mit der gezielten als auch mit der selbststrukturierten Herstellung von organischen und hybriden Schichtsystemen, die durch Laserfarbstoffe als lichtemittierende Komponenten funktionalisiert sind. Ziel ist es, die Dimension der optischen Nanostruktur so einzustellen, daß sie über die Änderung der photonischen Zustandsdichte das Emissionsverhalten beeinflussen kann. Es wurden drei unterschiedliche Wege entwickelt, um unter Zuhilfenahme von Selbstorganisationsprozessen in unterschiedlichem Ausmaß die Anpassung einer resonanten periodischen Struktur an die entprechenden Emissionwellenlängen zu erreichen. In allen drei Fällen ist das Resultat von der optischen Funktion her gesehen ein periodisch strukturierter Schichtwellenleiter mit eingebauten Lichtemittern.
Resumo:
Der Anteil dezentraler eingebetteter Systeme steigt in zahlreichen Andwendungsfeldern, wie der Kfz-Elektronik oder der Anlagenautomatisierung [ScZu03]. Zudem steigen die Anforderungen and die Flexibilität und den Funktionsumfang moderner automatisierungs-technischer Systeme. Der Einsatz agentenorientierter Methoden ist diesbezüglich ein geeigneter Ansatz diesen Anforderungen gerecht zu werden [WGU03]. Mit Agenten können flexible, anpassungsfähige Softwaresysteme entwickelt werden, welche die Verteilung von Informationen, Aufgaben, Ressourcen oder Entscheidungsprozessen der realen Problemstellung im Softwaresystem widerspiegeln. Es ist somit möglich, die gewünschte Flexibilität des Systems, bezüglich der Struktur oder des Verhaltens gezielt zu entwerfen. Nachteilig ist jedoch der Indeterminismus des Verhaltens des Gesamtsystems, der sich aufgrund von schwer vorhersagbaren Interaktionen ergibt [Jen00]. Dem gegenüber stehen statische Softwaresysteme, welche zwar einen hohen Determinismus aufweisen aber wenig flexibel in Bezug auf Änderungen der Struktur des Systems oder des Ablaufs des realen Prozesses sind. Mit der steigenden Komplexität der Systeme ist allerdings selbst mit einem statischen Entwurf die Vorhersagbarkeit immer weniger zu gewährleisten. Die Zahl der möglichen Zustände einer Anlage wird mit der Berücksichtigung von allen möglichen Fehlern, Ausfällen und externen Einflüssen (dynamische Umgebung) so groß, daß diese mit vertretbarem Aufwand kaum noch erfassbar sind und somit auch nicht behandelt werden können. Das von der DFG geförderten Projekt AVE [AVE05], welches in Kooperation mit dem Institut für Automatisierungs- und Softwaretechnik der Universität Stuttgart bearbeitet wird, beschäftigt sich in diesem Kontext mit dem Konflikt, die Vorteile der Flexibilität und Anpassungsfähigkeit von agentenorientierter Software mit den spezifischen Anforderungen der Domäne der Echtzeitsysteme, wie Zeit- und Verlässlichkeitsanforderungen, zu verknüpfen. In einer detaillierten Analyse dieser Anforderungen wurde untersucht, wie die Eigenschaften der Anpassungsfähigkeit und Flexibilität prinzipiell die Anforderungen an Echtzeit- und Verlässlichkeitseigenschaften beeinflussen und wie umgekehrt Anforderungen an Echtzeit- und Verlässlichkeitseigenschaften die Anpassungsfähigkeit und Flexibilität beschränken können. Aufbauend auf diesen Erkenntnissen werden Methoden und Konzepte für den Entwurf und die Implementierung von Agentensystemen auf gängiger Automatisierungshardware, insbesondere Speicher Programmierbare Steuerungen (SPS), entwickelt. In diesem Rahmen wird ein Konzept für die Modellierung von Sicherheit in Agentensystemen vorgestellt, welches insbesondere den modularen Charakter von Agenten berücksichtigt. Kernaspekt ist es, dem Entwickler einen Rahmen vorzugeben, der ihn dabei unterstützt ein möglichst lückenloses Sicherheitskonzept zu erstellen und ihm dabei genug Freiheiten lässt den Aufwand für die Strategien zur Fehlererkennung, Fehlerdiagnose und Fehlerbehandlung je nach Anforderung für jedes Modul individuell festzulegen. Desweiteren ist besonderer Wert darauf gelegt worden, dass die verwendeten Darstellungen und Diagramme aus der Domäne stammen und eine gute Vorlage für die spätere Implementierung auf automatisierungstechnischer Hardware bieten.
Resumo:
Aus der Einleitung: "'Die Wissensgesellschaft existiert noch nicht, aber sie wirft ihre Schatten voraus' (Willke 1998, S. 163). Als zentrales Element der bevorstehenden Umwandlung von der Industrie- in eine Wissensgesellschaft wird dabei die organisierte Wissensarbeit identifiziert. Gegenwärtig werden anscheinend jedoch auch Schatten hervorgebracht, die eine andere Lichtquelle als die Renaissance der Idee einer aufkommenden Wissensgesellschaft (vgl. u. a. Etzioni 1971) haben: 'Der Beruf des Arztes (...) verliert an Ansehen und Respekt. Im täglichen Umgang mit den Patienten ist davon vorläufig noch wenig zu spüren. Glücklicherweise. Gerade als junger Krankenhausarzt am Ende des zweiten chirurgischen Ausbildungsjahres weiß ich: Ohne den hartnäckigen, historisch gewachsenen Nimbus des grundsätzlichen Wohltuenden, des Vertrauenswürdigen und Kundigen könnten Ärzte ihre täglichen Aufgaben niemals angemessen erfüllen. (...) Wo langjährige persönliche Vertrauensbildung zum Arzt fehlt, entsteht beim Patienten oft genug nur auf diese Weise die Überzeugung, er sei in guten Händen. (...) Gleichsam als Zins und Tilgung für den erhaltenen Autoritätskredit sehe ich mich in der Pflicht, das Ansehen meines Berufstandes zu wahren. (...) Kurz: Ohne den geliehenen Glanz des Arztberufes keine Chance auf Erfüllung im Beruf. (...) Die gegenwärtig von den Ärzten selbst, von den Krankenkassen, von Politikern und den Medien mit Lust betriebene Demontage des ärztlichen Nimbus wird sich noch als schwerer Fehler erweisen. Denn wo Ärzte ohne Glanz und Status sind, bleiben schließlich die Patienten auf sich allein gestellt zurück' (Pohland 1999, S. 13). Wird dieser Beobachtung ein empirischer Gehalt zugestanden, dann spricht einiges für die Annahme, daß parallel mit der Expansion wissensintensiver Dienstleistungen sich eine schleichende Entwertung von Expertenkulturen vollzieht und bisher auf exklusives Wissen basierende professionelle Tätigkeiten ihre ausschließliche Deutungsmacht verlieren. Mit leichtem Zynismus kann infolgedessen konstatiert werden, daß die wissenschaftliche Sozialpädagogik in diesem Punkt einmal wirklich dem gesellschaftlichen Zeitgeist voraus war. Denn auf ein der medizinischen Profession entsprechendes selbstverständliches, traditionell gewachsenes Ansehen konnte die Profession der Sozialen Arbeit in ihrer Geschichte noch nie verweisen. Respekt und Ansehen müssen sich die sozialpädagogischen Professionellen bis heute tagtäglich neu erobern. Und wo diese interaktiv konstituierende Vertrauensbildung nicht gelingt, kann auf kein Autoritätskredit zurückgegriffen werden, um anvisierten Hilfe- und Bildungsprozesse effektiv zu aktivieren. Diplom-SozialpädagogInnen und SozialarbeiterInnen, ErzieherInnen und DiplompädagogInnen in der Sozialen Arbeit befürchten demzufolge primär auch nicht die Demontage ihres Ansehens. Ihr Ansehen in der Öffentlichkeit ist seit Jahrzehnten äußerst fragil. Die Sozialpädagogik kann, so ein vielfach nachzulesender Befund (vgl. Haupert/Kraimer 1991; Thole/Küster-Schapfl 1997; Niemeyer 1990, 1998; Rauschenbach 1999), weder auf eine Kartographie ausformulierter und für sie reservierter Wissensbestände verweisen noch hat sie einen eindeutigen, klar zu benennenden Ort in der Praxis, ein einheitliches Profil der Ausbildung, eine selbstverständliche, von allen ihren VertreterInnen geteilte disziplinäre Heimat. Der Beitrag wird diesen Befund aus professionstheoretischer Sicht vertiefen und erstens einige Etappen des sozialpädagogischen Professionalisierungsprojektes der jüngeren Zeit resümieren, zweitens die aktuellen empirischen Suchbewegungen nach den Verwendungsformen von fachlichen Wissen im sozialpädagogischen Handeln kritisch gegenlesen sowie drittens die sich daraus ergebenden Konsequenzen sowohl für die akademische Ausbildung als auch für die Performanz der Praxis Sozialer Arbeit diskutieren."
Resumo:
In den vorliegenden Untersuchungen wurde der Gehalt von Carotinoiden in Weizen, Mais und Möhren sowie der Polyphenolgehalt in Möhren mit analytischen Methoden zum Nachweis dieser Substanzen gemessen. Der Gehalt der Carotinoide in Mais und der Gehalt der phenolischen Bestandteile in Möhren wurde mit Messungen mittels HPLC-Analytik gemessen. Die Methoden wurden aus literaturbekannten Verfahren abgeleitet und an die Anforderungen der untersuchten Probenmatrices angepasst und validiert. Dem Verfahren lag die Frage zugrunde, ob es möglich ist, Kulturpflanzen aus verschiedenen Anbausystemen auf der Basis des Gehaltes bestimmter sekundärer Pflanzeninhaltsstoffe zu differenzieren und aufgrund von Unterschieden im Gehalt der sekundären Pflanzeninhaltsstoffe zu klassifizieren. Die Gesamtverfahren wurden dabei gemäß der ISO 17025 validiert. Für die Messungen standen Proben aus definierten Langzeitversuchen und Erzeugerproben ausgesuchter ökologisch bzw. konventionell arbeitender Anbaubetriebe zur Verfügung. Als Grundlage für eine valide Methodeneinschätzung wurden die Messungen an codierten Proben vorgenommen. Eine Decodierung der Proben erfolgte erst nach der Vorlage der Messergebnisse in den genannten Projekten. Die Messung und Auswertung des Carotinoidgehaltes in Weizen, Mais und Möhren vor dem Hintergrund der Differenzierung und Klassifizierung erfolgte in Proben eines Erntejahres. Die Messung des Gehaltes phenolischer Substanzen in Möhren erfolgte in Möhren aus 3 Erntejahren. Die verwendeten HPLC-Verfahren konnten in Bezug auf den analytischen Teil der Messungen in den einzelnen Verfahrensschritten Linearität, Spezifität, Präzision und Robustheit erfolgreich überprüft werden. Darüber hinaus wurden wichtige Einflussgrößen auf die Messungen bestimmt. Für die Verfahren zur photometrischen Bestimmung der Gesamtcarotinoide konnte eine Grundkalibrierung der Parameter Präzision und Linearität des Verfahrens erfolgreich durchgeführt werden. Während der Anwendung der HPLC-Methoden an codierten Proben konnten in allen untersuchten Probenmatrices quantitativ bedeutende Inhaltsstoffe nachgewiesen und identifiziert werden. Eine vollständige Identifizierung aller dargestellten Peaks konnte in den Untersuchungen der Polyphenole in Möhren und der Carotinoide in Mais nicht erfolgen. Im Hinblick auf die Frage nach der Differenzierung und Klassifizierung ergab sich in den verschiedenen Proben ein unterschiedliches Bild. Sowohl durch den Carotinoid- als auch den Polyphenolgehalt konnten einzelne Proben statistisch signifikant differenziert werden. Die Trennleistung hing dabei sowohl von den jeweiligen Komponenten als auch von der untersuchten Probenmatrix ab. Ein durchgängig höherer Gehalt sekundärer Pflanzeninhaltsstoffe in Proben aus ökologischem Anbau konnte nicht bestätigt werden. Für die Klassifizierung der Proben verschiedener Anbauvarianten und konnten multivariate statistische Methoden, wie lineare Diskriminantenanalyse (LDA) und Classification and Regression Tree (CART), erfolgreich angewandt werden. Eine Klassifizierung mit unterschiedlichen statistischen Verfahren erbrachte dabei unterschiedliche Ergebnisse. In der Klassifizierung der decodierten Proben mittels LDA wirkten sich die Faktoren Sorte und Standort stärker auf das Klassifizierungsergebnis aus als der Faktor Anbausystem. Eine Klassifizierung der decodierten Proben nach dem Anbausystem wurde mit dem CART-Verfahren durchgeführt. Auf dieser Basis wurden für die Polyphenole in Möhren 97 % der Proben richtig klassifiziert. Durch die Messwerte des Carotinoidgehaltes und des Luteingehaltes in Weizen konnte der größere Teil der Proben (90 %) korrekt klassifiziert werden. Auf der Basis des Carotinoidgehaltes in Mais wurde der Großteil der Proben (95 %) korrekt nach dem Anbausystem klassifiziert. Auf der Basis des mittels HPLC gemessenen Carotinoidgehaltes in Möhren konnten die Proben 97 % korrekt klassifiziert werden (97 %). Insgesamt erscheint der Grundgedanke der Klassifizierung durch den Gehalt sekundärer Pflanzeninhaltsstoffe vielversprechend. Durch die vielfältigen Einflussgrößen auf den Sekundärstoffwechsel von Pflanzen müssten Veränderungen, die durch Sorte und Standort auftreten, über mehrere Jahre erhoben und systematisiert werden.
Resumo:
Die vielfältigen Funktionen der sekundären Pflanzenstoffe sowohl im Organismus der Pflanze, als auch im Körper des Menschen bieten der Wissenschaft ein weites Betätigungsfeld. Die Carotinoide findet man in fast allen Plastiden der Pflanze und sie erfüllen dort Aufgaben in Form von Pigmenten, Antioxidantien, Hormonen und zählen außerdem zu den wichtigsten Bestandteilen des Photosyntheseapparates. Im menschlichen Organismus hingegen wirken sie als Provitamin A und in den Endverästelungen der Blutgefäße bei niedrigem Sauerstoffpartialdruck. Des Weiteren besitzen sie die Fähigkeiten freie Radikale unschädlich zu machen und wirken in vitro als Fänger von energiereichem Singulettsauerstoff. Die Polyphenole, die man zu der Stoffgruppe der Phenole zählt, befinden sich in den Randschichten von Obst, Gemüse, Getreide und anderen Samen. Ihnen obliegt die Aufgabe die darunter befindlichen Gewebe vor antioxidativem Verderb zu schützen. Im Körper des Menschen dagegen besitzen sie eine gerinnungshemmende Wirkung, schützen die Zellen vor Oxidation und üben Fähigkeiten aus, die Krebs vorbeugen können. Im Zuge dieser Literaturarbeit werden endogene und exogene Faktoren beschrieben, die auf Pflanzen allgemein und auf die Fokusprodukte Möhre (Daucus carota L.) und Weizen (Triticum aestivum L.) speziell einwirken. Die pflanzenphysiologische Herkunft und Bedeutung der sekundären Pflanzenstoffgruppen Carotinoide und Polyphenole wird dargestellt. Schließlich wird die vorhandene Literatur ausgewertet, die sich mit der Beeinflussung des Gehaltes der genannten sekundären Pflanzenstoffe in den gewählten Fokusprodukten durch exogene und endogene Faktoren beschäftigt. Die Beeinflussung des Polyphenolgehaltes in Möhre und des Carotinoid- und Polyphenolgehaltes in Weizen ist nur wenig untersucht. Dagegen ist die Beeinflussung des Carotinoidgehaltes in Möhren durch exogene und endogene Faktoren gut beschrieben. Der Faktor „Sorte“ spielt aufgrund der vorhandenen genetischen Anlagen (carotinoidreich / carotinoidarm) eine wesentliche Rolle bei der späteren Ausbildung des Carotinoidgehaltes in der Möhre. Die Reife der Möhre, die u.a. das Ergebnis des Einwirkens exogener Faktoren, wie Temperatur, Wuchsraum, verfügbare Wassermenge im Boden sowie der Niederschläge ist, beeinflusst maßgeblich den späteren Gehalt an Carotinoiden. Des Weiteren üben noch anbautechnische Maßnahmen (z.B. Düngung, Herbizidbehandlungen, Produktionstechnik) einen Einfluss auf den Carotinoidgehalt der Möhre aus. Der Phenolgehalt in Möhren wurde bisher ausschließlich auf Sortenebene verglichen. In einer Studie von Zhang & Hamauzu (2004) fand man heraus, dass der Phenol-Gehalt in den verschiedenen Geweben der Möhre von der Schale in Richtung Phloem und Xylem anstieg, während sich die antioxidantischen und radical scavening Aktivitäten auf gleiche Weise, wie der Phenol-Gehalt erhöhten und wiederum mit dem totalen Phenol-Gehalt korrelierten. Die phenolischen Extrakte verfügten über stärkere radical scavening Fähigkeiten, als die zum Vergleich herangezogenen Reinsubstanzen Chlorogensäure, Vitamin C und β-Carotin. Insgesamt wurde aufgrund dieser Studie vermutet, dass sich der höchste Gehalt an Phenolen in der Schale der Möhre befindet. Das geringe Vorliegen von Studien bezüglich des Carotinoid- und Phenolgehaltes in Weizen kann man darauf zurückführen, dass die sekundären Pflanzenstoffe im Vergleich zum Proteingehalt keine wesentliche Rolle als Qualitätsmerkmal beim Fokusprodukt Weizen spielen. Der Gehalt an Phenolen und Carotinoiden wurde bisher ausschließlich auf Sortenebene untersucht. Die Untersuchungen ergaben, dass der Gehalt an sekundären Pflanzenstoffen (Phenole, Tocopherole, Carotinoide) stark durch die Sorte beeinflusst wird.
Resumo:
Soil organic matter (SOM) vitally impacts all soil functions and plays a key role in the global carbon (C) cycle. More than 70% of the terrestric C stocks that participate in the active C cycle are stored in the soil. Therefore, quantitative knowledge of the rates of C incorporation into SOM fractions of different residence time is crucial to understand and predict the sequestration and stabilization of soil organic carbon (SOC). Consequently, there is a need of fractionation procedures that are capable of isolating functionally SOM fractions, i.e. fractions that are defined by their stability. The literature generally refers to three main mechanisms of SOM stabilization: protection of SOM from decomposition by (i) its structural composition, i.e. recalcitrance, (ii) spatial inaccessibility and/or (iii) interaction with soil minerals and metal ions. One of the difficulties in developing fractionation procedures for the isolation of functional SOM fractions is the marked heterogeneity of the soil environment with its various stabilization mechanisms – often several mechanisms operating simultaneously – in soils and soil horizons of different texture and mineralogy. The overall objective of the present thesis was to evaluate present fractionation techniques and to get a better understanding of the factors of SOM sequestration and stabilization. The first part of this study is attended to the structural composition of SOM. Using 13C cross-polarization magic-angle spinning (CPMAS) nuclear magnetic resonance (NMR) spectroscopy, (i) the effect of land use on SOM composition was investigated and (ii) examined whether SOM composition contributes to the different stability of SOM in density and aggregate fractions. The second part of the present work deals with the mineral-associated SOM fraction. The aim was (iii) to evaluate the suitability of chemical fractionation procedures used in the literature for the isolation of stable SOM pools (stepwise hydrolysis, treatments using oxidizing agents like Na2S2O8, H2O2, and NaOCl as well as demineralization of the residue obtained by the NaOCl treatment using HF (NaOCl+HF)) by pool sizes, 13C and 14C data. Further, (iv) the isolated SOM fractions were compared to the inert organic matter (IOM) pool obtained for the investigated soils using the Rothamsted Carbon Model and isotope data in order to see whether the tested chemical fractionation methods produce SOM fractions capable to represent this pool. Besides chemical fractionation, (v) the suitability of thermal oxidation at different temperatures for obtaining stable SOC pools was evaluated. Finally, (vi) the short-term aggregate dynamics and the factors that impact macroaggregate formation and C stabilization were investigated by means of an incubation study using treatments with and without application of 15N labeled maize straw of different degradability (leaves and coarse roots). All treatments were conducted with and without the addition of fungicide. Two study sites with different soil properties and land managements were chosen for these investigations. The first one, located at Rotthalmünster, is a Stagnic Luvisol (silty loam) under different land use regimes. The Ah horizons of a spruce forest and continuous grassland and the Ap and E horizons of two plots with arable crops (continuous maize and wheat cropping) were examined. The soil of the second study site, located at Halle, is a Haplic Phaeozem (loamy sand) where the Ap horizons of two plots with arable crops (continuous maize and rye cropping) were investigated. Both study sites had a C3-/C4-vegetational change on the maize plot for the purpose of tracing the incorporation of the younger, maize-derived C into different SOM fractions and the calculation of apparent C turnover times of these. The Halle site is located near a train station and industrial areas, which caused a contamination with high amounts of fossil C. The investigation of aggregate and density fractions by 13C CPMAS NMR spectroscopy revealed that density fractionation isolated SOM fractions of different composition. The consumption of a considerable part (10–20%) of the easily available O-alkyl-C and the selective preservation of the more recalcitrant alkyl-C when passing from litter to the different particulate organic matter (POM) fractions suggest that density fractionation was able to isolate SOM fractions with different degrees of decomposition. The spectra of the aggregate fractions resembled those of the mineral-associated SOM fraction obtained by density fractionation and no considerable differences were observed between aggregate size classes. Comparison of plant litter, density and aggregate size fractions from soil under different land use showed that the type of land use markedly influenced the composition of SOM. While SOM of the acid forest soil was characterized by a large content (> 50%) of POM, which contained high amounts of spruce-litter derived alkyl-C, the organic matter in the biologically more active grassland and arable soils was dominated by mineral-associated SOM (> 95%). This SOM fraction comprised greater proportions of aryl- and carbonyl-C and is considered to contain a higher amount of microbially-derived organic substances. Land use can alter both, structure and stability of SOM fractions. All applied chemical treatments induced considerable SOC losses (> 70–95% of mineral-associated SOM) in the investigated soils. The proportion of residual C after chemical fractionation was largest in the arable Ap and E horizons and increased with decreasing C content in the initial SOC after stepwise hydrolysis as well as after the oxidative treatments with H2O2 and Na2S2O8. This can be expected for a functional stable pool of SOM, because it is assumed that the more easily available part of SOC is consumed first if C inputs decrease. All chemical treatments led to a preferential loss of the younger, maize-derived SOC, but this was most pronounced after the treatments with Na2S2O8 and H2O2. After all chemical fractionations, the mean 14C ages of SOC were higher than in the mineral-associated SOM fraction for both study sites and increased in the order: NaOCl < NaOCl+HF ≤ stepwise hydrolysis << H2O2 ≈ Na2S2O8. The results suggest that all treatments were capable of isolating a more stable SOM fraction, but the treatments with H2O2 and Na2S2O8 were the most efficient ones. However, none of the chemical fractionation methods was able to fit the IOM pool calculated using the Rothamsted Carbon Model and isotope data. In the evaluation of thermal oxidation for obtaining stable C fractions, SOC losses increased with temperature from 24–48% (200°C) to 100% (500°C). In the Halle maize Ap horizon, losses of the young, maize-derived C were considerably higher than losses of the older C3-derived C, leading to an increase in the apparent C turnover time from 220 years in mineral-associated SOC to 1158 years after thermal oxidation at 300°C. Most likely, the preferential loss of maize-derived C in the Halle soil was caused by the presence of the high amounts of fossil C mentioned above, which make up a relatively large thermally stable C3-C pool in this soil. This agrees with lower overall SOC losses for the Halle Ap horizon compared to the Rotthalmünster Ap horizon. In the Rotthalmünster soil only slightly more maize-derived than C3-derived SOC was removed by thermal oxidation. Apparent C turnover times increased slightly from 58 years in mineral-associated SOC to 77 years after thermal oxidation at 300°C in the Rotthalmünster Ap and from 151 to 247 years in the Rotthalmünster E horizon. This led to the conclusion that thermal oxidation of SOM was not capable of isolating SOM fractions of considerably higher stability. The incubation experiment showed that macroaggregates develop rapidly after the addition of easily available plant residues. Within the first four weeks of incubation, the maximum aggregation was reached in all treatments without addition of fungicide. The formation of water-stable macroaggregates was related to the size of the microbial biomass pool and its activity. Furthermore, fungi were found to be crucial for the development of soil macroaggregates as the formation of water-stable macroaggregates was significantly delayed in the fungicide treated soils. The C concentration in the obtained aggregate fractions decreased with decreasing aggregate size class, which is in line with the aggregate hierarchy postulated by several authors for soils with SOM as the major binding agent. Macroaggregation involved incorporation of large amounts maize-derived organic matter, but macroaggregates did not play the most important role in the stabilization of maize-derived SOM, because of their relatively low amount (less than 10% of the soil mass). Furthermore, the maize-derived organic matter was quickly incorporated into all aggregate size classes. The microaggregate fraction stored the largest quantities of maize-derived C and N – up to 70% of the residual maize-C and -N were stored in this fraction.
Resumo:
In zebrafish, germ cells are responsible for transmitting the genetic information from one generation to the next. During the first cleavages of zebrafish embryonic development, a specialized part of the cytoplasm known as germ plasm, is responsible of committing four blastomeres to become the progenitors of all germ cells in the forming embryo. Much is known about how the germ plasm is spatially distributed in early stages of primordial germ cell development, a process described to be dependant on microtubules and actin. However, little is known about how the material is inherited after it reorganizes into a perinuclear location, or how is the symmetrical distribution regulated in order to ensure proper inheritance of the material by both daughter cells. It is also not clear whether there is a controlled mechanism that regulates the number of granules inherited by the daughter cells, or whether it is a random process. We describe the distribution of germ plasm material from 4hpf to 24hpf in zebrafish primordial germ cells using Vasa protein as marker. Vasa positive material appears to be conglomerate into 3 to 4 big spherical structures at 4hpf. While development progresses, these big structures become smaller perinuclear granules that reach a total number of approximately 30 at 24hpf. We investigated how this transformation occurs and how the minus-end microtubule dependent motor protein Dynein plays a role in this process. Additionally, we describe specific colocalization of microtubules and perinuclear granules during interphase and more interestingly, during all different stages of cell division. We show that distribution of granules follow what seems to be a regulated distribution: during cells division, daughter cells inherit an equal number of granules. We propose that due to the permanent colocalization of microtubular structures with germinal granules during interphase and cell division, a coordinated mechanism between these structures may ensure proper distribution of the material among daughter cells. Furthermore, we show that exposure to the microtubule-depolymerizing drug nocodazole leads to disassembly of the germ cell nuclear lamin matrix, chromatin condensation, and fusion of granules to a big conglomerate, revealing dependence of granular distribution on microtubules and proper nuclear structure.