1000 resultados para Politische Bildung
Resumo:
Durch asymmetrische Doppelbindungsisomerisierung mittels Me-DuPHOS-modifizierter Dihalogen-Nickel-Komplexe als Katalysatorvorstufen lassen sich aus 2-Alkyl-4,7-dihydro-1,3-dioxepinen hochenantiomerenreine 2-Alkyl-4,5-dihydro-1,3-dioxepine erhalten. Ein Ziel dieser Arbeit war es, die bisher noch unbekannte Absolutkonfiguration dieses Verbindungstyps zu bestimmen und darüber hinaus ihre Einsatzfähigkeit in der enantioselektiven organischen Synthese zu untersuchen. Zu diesem Zweck wurden enantiomerenangereichertes 2-Isopropyl- und 2-tert-Butyl-4,5-dihydro-1,3-dioxepin mit m-Chlorperbenzoesäure epoxidiert. Dabei bildeten sich die entsprechenden 3-Chlorbenzoesäure-(2-alkyl-5-hydroxy-1,3-dioxepan-4yl)-ester in hohen Ausbeuten und Diastereoselektivitäten. Von den vier zu erwartenden Diastereomeren wurden jeweils nur zwei mit einer Selektivität von mehr als 95:5 gebildet. Im Fall des 3-Chlorbenzoesäure-(2-isopropyl-5-hydroxy-1,3-dioxepan-4yl)-esters konnte das Haupt-diastereomer kristallin erhalten werden. Durch röntgenspektroskopische Untersuchung war es möglich, die Relativ-Konfiguration dieser Verbindung zu bestimmen. Die Ester lassen sich unter Ringverengung in 2-Alkyl-1,3-dioxan-4-carbaldehyde umlagern. Ausgehend von diesen Carbaldehyden stehen zwei Synthesewege zur Verfügung, welche zu Verbindungen führen deren Absolutkonfiguration bereits bekannt ist. So erhält man durch Reduktion 2-Alkyl-1,3-dioxan-4-yl-methanole, welche sich in 1,2,4-Butantriol überführen lassen. Oxidation ergibt die 2-Alkyl-1,3-dioxan-4-carbonsäuren, aus denen 3-Hydroxytetrahydrofuran-2-on gewonnen werden kann. Messung des Drehwertes dieser beiden literaturbekannten Verbindungen liefert nicht nur Information über deren Enantiomerenreinheit sondern ebenfalls über die Konfiguration ihres Stereozentrums. In Kombination mit der Relativ-Konfiguration des Esters ist somit ein Rückschluss auf die Absolutkonfiguration der eingesetzten 4,5-Dihydro-1,3-dioxepine möglich. Die auf den beschriebenen Wegen gewonnenen Substanzen finden Anwendung in der stereoselektiven organischen Synthese. Löst man die Chlorbenzoesäureester in Dichlormethan und behandelt sie mit wässriger Salzsäure, so entstehen die bicyclischen 2-Alkyltetrahydrofuro[2,3-d][1,3]dioxole. Auch bei diesen Verbindungen konnten hohe Enantio- und Diastereoselektivitäten erzielt werden. Der intermolekular verlaufende Reaktionsmechanismus der Bicyclus-Bildung, welcher unter Abspaltung eines den Alkylrest tragenden Aldehyds und dessen Neuanlagerung unter Ausbildung eines Acetals verläuft, konnte in dieser Arbeit durch ein Kreuzungsexperiment bestätigt werden. Umacetalisierung der Bicyclen liefert 2-Methoxytetrahydrofuran-3-ol, aus dem durch Acetalspaltung Tetrahydrofuran-2,3-diol erhalten wird, das die Halbacetalform der entsprechenden Desoxytetrose darstellt, die auf diese Weise in einer de novo-Synthese hergestellt werden kann.
Resumo:
Sowohl die Ressourcenproblematik als auch die drohenden Ausmaße der Klimaänderung lassen einen Umstieg auf andere Energiequellen langfristig unausweichlich erscheinen und mittelfristig als dringend geboten. Unabhängig von der Frage, auf welchem Niveau sich der Energiebedarf stabilisieren lässt, bleibt dabei zu klären, welche Möglichkeiten sich aus technischer und wirtschaftlicher Sicht in Zukunft zur Deckung unseres Energiebedarfs anbieten. Eine aussichtsreiche Option besteht in der Nutzung regenerativer Energien in ihrer ganzen Vielfalt. Die Arbeit "Szenarien zur zukünftigen Stromversorgung, kostenoptimierte Variationen zur Versorgung Europas und seiner Nachbarn mit Strom aus erneuerbaren Energien" konzentriert sich mit der Stromversorgung auf einen Teilaspekt der Energieversorgung, der zunehmend an Wichtigkeit gewinnt und als ein Schlüssel zur nachhaltigen Energieversorgung interpretiert werden kann. Die Stromversorgung ist heute weltweit für etwa die Hälfte des anthropogenen CO2-Ausstoßes verantwortlich. In dieser Arbeit wurden anhand verschiedener Szenarien Möglichkeiten einer weitgehend CO2–neutralen Stromversorgung für Europa und seine nähere Umgebung untersucht, wobei das Szenariogebiet etwa 1,1 Mrd. Einwohner und einen Stromverbrauch von knapp 4000 TWh/a umfasst. Dabei wurde untersucht, wie die Stromversorgung aufgebaut sein sollte, damit sie möglichst kostengünstig verwirklicht werden kann. Diese Frage wurde beispielsweise für Szenarien untersucht, in denen ausschließlich heute marktverfügbare Techniken berücksichtigt wurden. Auch der Einfluss der Nutzung einiger neuer Technologien, die bisher noch in Entwicklung sind, auf die optimale Gestaltung der Stromversorgung, wurde anhand einiger Beispiele untersucht. Die Konzeption der zukünftigen Stromversorgung sollte dabei nach Möglichkeit objektiven Kriterien gehorchen, die auch die Vergleichbarkeit verschiedener Versorgungsansätze gewährleisten. Dafür wurde ein Optimierungsansatz gewählt, mit dessen Hilfe sowohl bei der Konfiguration als auch beim rechnerischen Betrieb des Stromversorgungssystems weitgehend auf subjektive Entscheidungsprozesse verzichtet werden kann. Die Optimierung hatte zum Ziel, für die definierte möglichst realitätsnahe Versorgungsaufgabe den idealen Kraftwerks- und Leitungspark zu bestimmen, der eine kostenoptimale Stromversorgung gewährleistet. Als Erzeugungsoptionen werden dabei u.a. die Nutzung Regenerativer Energien durch Wasserkraftwerke, Windenergiekonverter, Fallwindkraftwerke, Biomassekraftwerke sowie solare und geothermische Kraftwerke berücksichtigt. Abhängig von den gewählten Randbedingungen ergaben sich dabei unterschiedliche Szenarien. Das Ziel der Arbeit war, mit Hilfe unterschiedlicher Szenarien eine breite Basis als Entscheidungsgrundlage für zukünftige politische Weichenstellungen zu schaffen. Die Szenarien zeigen Optionen für eine zukünftige Gestaltung der Stromversorgung auf, machen Auswirkungen verschiedener – auch politischer – Rahmenbedingungen deutlich und stellen so die geforderte Entscheidungsgrundlage bereit. Als Grundlage für die Erstellung der Szenarien mussten die verschiedenen Potentiale erneuerbarer Energien in hoher zeitlicher und räumlicher Auflösung ermittelt werden, mit denen es erstmals möglich war, die Fragen einer großräumigen regenerativen Stromversorgung ohne ungesicherte Annahmen anhand einer verlässlichen Datengrundlage anzugehen. Auch die Charakteristika der verschiedensten Energiewandlungs- und Transportsysteme mussten studiert werden und sind wie deren Kosten und die verschiedenen Potentiale in der vorliegenden Arbeit ausführlich diskutiert. Als Ausgangsszenario und Bezugspunkt dient ein konservatives Grundszenario. Hierbei handelt es sich um ein Szenario für eine Stromversorgung unter ausschließlicher Nutzung erneuerbarer Energien, die wiederum ausschließlich auf heute bereits entwickelte Technologien zurückgreift und dabei für alle Komponenten die heutigen Kosten zugrundelegt. Dieses Grundszenario ist dementsprechend auch als eine Art konservative Worst-Case-Abschätzung für unsere Zukunftsoptionen bei der regenerativen Stromversorgung zu verstehen. Als Ergebnis der Optimierung basiert die Stromversorgung beim Grundszenario zum größten Teil auf der Stromproduktion aus Windkraft. Biomasse und schon heute bestehende Wasserkraft übernehmen den überwiegenden Teil der Backup-Aufgaben innerhalb des – mit leistungsstarker HGÜ (Hochspannungs–Gleichstrom–Übertragung) verknüpften – Stromversorgungsgebiets. Die Stromgestehungskosten liegen mit 4,65 €ct / kWh sehr nahe am heute Üblichen. Sie liegen niedriger als die heutigen Preisen an der Strombörse. In allen Szenarien – außer relativ teuren, restriktiv ”dezentralen” unter Ausschluss großräumig länderübergreifenden Stromtransports – spielt der Stromtransport eine wichtige Rolle. Er wird genutzt, um Ausgleichseffekte bei der dargebotsabhängigen Stromproduktion aus erneuerbaren Quellen zu realisieren, gute kostengünstige Potentiale nutzbar zu machen und um die Speicherwasserkraft sowie die dezentral genutzte Biomasse mit ihrer Speicherfähigkeit für großräumige Backup-Aufgaben zu erschließen. Damit erweist sich der Stromtransport als einer der Schlüssel zu einer kostengünstigen Stromversorgung. Dies wiederum kann als Handlungsempfehlung bei politischen Weichenstellungen interpretiert werden, die demnach gezielt auf internationale Kooperation im Bereich der Nutzung erneuerbarer Energien setzen und insbesondere den großräumigen Stromtransport mit einbeziehen sollten. Die Szenarien stellen detaillierte und verlässliche Grundlagen für wichtige politische und technologische Zukunftsentscheidungen zur Verfügung. Sie zeigen, dass bei internationaler Kooperation selbst bei konservativen Annahmen eine rein regenerative Stromversorgung möglich ist, die wirtschaftlich ohne Probleme zu realisieren wäre und verweisen den Handlungsbedarf in den Bereich der Politik. Eine wesentliche Aufgabe der Politik läge darin, die internationale Kooperation zu organisieren und Instrumente für eine Umgestaltung der Stromversorgung zu entwickeln. Dabei kann davon ausgegangen werden, dass nicht nur ein sinnvoller Weg zu einer CO2–neutralen Stromversorgung beschritten würde, sondern sich darüber hinaus ausgezeichnete Entwicklungsperspektiven für die ärmeren Nachbarstaaten der EU und Europas eröffnen.
Resumo:
Der SPNV als Bestandteil des ÖPNV bildet einen integralen Bestandteil der öffentlichen Daseinsvorsorge. Insbesondere Flächenregionen abseits urbaner Ballungszentren erhalten durch den SPNV sowohl ökonomisch als auch soziokulturell wichtige Impulse, so dass die Zukunftsfähigkeit dieser Verkehrsart durch geeignete Gestaltungsmaßnahmen zu sichern ist. ZIELE: Die Arbeit verfolgte das Ziel, derartige Gestaltungsmaßnahmen sowohl grundlagentheoretisch herzuleiten als auch in ihrer konkreten Ausformung für die verkehrswirtschaftliche Praxis zu beschreiben. Abgezielt wurde insofern auf strukturelle Konzepte als auch praktische Einzelmaßnahmen. Der Schwerpunkt der Analyse erstreckte sich dabei auf Deutschland, wobei jedoch auch verkehrsbezogene Privatisierungserfahrungen aus anderen europäischen Staaten und den USA berücksichtigt wurden. METHODEN: Ausgewertet wurden deutschsprachige als auch internationale Literatur primär verkehrswissenschaftlicher Ausrichtung sowie Fallbeispiele verkehrswirtschaftlicher Privatisierung. Darüber hinaus wurden Entscheidungsträger der Deutschen Bahn (DB) und DB-externe Eisenbahnexperten interviewt. Eine Gruppe 5 DB-interner und 5 DB-externer Probanden nahm zusätzlich an einer standardisierten Erhebung zur Einschätzung struktureller und spezifischer Gestaltungsmaßnahmen für den SPNV teil. ERGEBNISSE: In struktureller Hinsicht ist die Eigentums- und Verfügungsregelung für das gesamte deutsche Bahnwesen und den SPNV kritisch zu bewerten, da der dominante Eisenbahninfrastrukturbetreiber (EIU) in Form der DB Netz AG und die das Netz nutzenden Eisenbahnverkehrs-Unternehmen (EVUs, nach wie vor zumeist DB-Bahnen) innerhalb der DB-Holding konfundiert sind. Hieraus ergeben sich Diskriminierungspotenziale vor allem gegenüber DB-externen EVUs. Diese Situation entspricht keiner echten Netz-Betriebs-Trennung, die wettbewerbstheoretisch sinnvoll wäre und nachhaltige Konkurrenz verschiedener EVUs ermöglichen würde. Die seitens der DB zur Festigung bestehender Strukturen vertretene Argumentation, wonach Netz und Betrieb eine untrennbare Einheit (Synergie) bilden sollten, ist weder wettbewerbstheoretisch noch auf der Ebene technischer Aspekte akzeptabel. Vielmehr werden durch die gegenwärtige Verquickung der als Quasimonopol fungierenden Netzebene mit der Ebene der EVU-Leistungen Innovationspotenziale eingeschränkt. Abgesehen von der grundsätzlichen Notwendigkeit einer konsequenten Netz-Betriebs-Trennung und dezentraler Strukturen sind Ausschreibungen (faktisch öffentliches Verfahren) für den Betrieb der SPNV-Strecken als Handlungsansatz zu berücksichtigen. Wettbewerb kann auf diese Weise gleichsam an der Quelle einer EVU-Leistung ansetzen, wobei politische und administrative Widerstände gegen dieses Konzept derzeit noch unverkennbar sind. Hinsichtlich infrastruktureller Maßnahmen für den SPNV ist insbesondere das sog. "Betreibermodell" sinnvoll, bei dem sich das übernehmende EIU im Sinne seiner Kernkompetenzen auf den Betrieb konzentriert. Die Verantwortung für bauliche Maßnahmen sowie die Instandhaltung der Strecken liegt beim Betreiber, welcher derartige Leistungen am Markt einkaufen kann (Kostensenkungspotenzial). Bei Abgabeplanungen der DB Netz AG für eine Strecke ist mithin für die Auswahl eines Betreibers auf den genannten Ausschreibungsmodus zurückzugreifen. Als kostensenkende Einzelmaßnahmen zur Zukunftssicherung des SPNV werden abschließend insbesondere die Optimierung des Fahrzeugumlaufes sowie der Einsatz von Triebwagen anstatt lokbespannter Züge und die weiter forcierte Ausrichtung auf die kundenorientierte Attraktivitätssteigerung des SPNV empfohlen. SCHLUSSFOLGERUNGEN: Handlungsansätze für eine langfristige Sicherung des SPNV können nicht aus der Realisierung von Extrempositionen (staatlicher Interventionismus versus Liberalismus) resultieren, sondern nur aus einem pragmatischen Ausgleich zwischen beiden Polen. Dabei erscheint eine Verschiebung hin zum marktwirtschaftlichen Pol sinnvoll, um durch die Nutzung wettbewerbsbezogener Impulse Kostensenkungen und Effizienzsteigerungen für den SPNV herbeizuführen.
Resumo:
Intrinsisch leitfähige Polymere sind durch eine Reihe materialspezifischer Eigenschaften gekennzeichnet. In Abhängigkeit des angelegten Potenzials und der chemischen Umgebung zeigen sie elektrochromes Verhalten, Veränderungen der Masse, des Volumens und der elektronischen Leitfähigkeit. Basierend auf diesen Eigenschaften eignen sich halbleitende organische Polymere als funktionales Material für Anwendungen in der Mikro- und Nanotechnologie, insbesondere für miniaturisierte chemische Sensoren und Aktoren. Im Gegensatz zu konventionellen Piezo-Aktoren operieren diese Aktoren z. B. bei Spannungen unterhalb 1 V. Diese Arbeit befasst sich mit den elektrochemomechanischen Eigenschaften der ausgewählten Polymere Polyanilin und Polypyrrol, d. h. mit den potenzialkontrollierten Veränderungen des Volumens, der Struktur und der mechanischen Eigenschaften. Bei diesem Prozess werden positive Ladungen innerhalb der Polymerphase generiert. Um die für den Ladungsausgleich benötigten Gegenionen bereitzustellen, werden alle Messungen in Anwesenheit eines wässrigen Elektrolyten durchgeführt. Der Ladungstransport und die Volumenänderungen werden mit den Methoden der zyklischen Voltammetrie, der elektrochemischen Quarzmikrowaage und der Rastersondenmikroskopie untersucht. Signifikante Ergebnisse können für dünne homogene Polymerschichten erhalten werden, wobei Schichtdicken oberhalb 150 nm aufgrund der insbesondere bei Polyanilin einsetzenden Bildung von Fadenstrukturen (Fibrillen) vermieden werden. Von besonderem Interesse im Rahmen dieser Arbeit ist die Kombination der funktionalen Polymere mit Strukturen auf Siliziumbasis, insbesondere mit mikrostrukturierten Cantilevern. Die zuvor erhaltenen Ergebnisse bilden die Grundlage für das Design und die Dimensionierung der Mikroaktoren. Diese bestehen aus Siliziumcantilevern, die eine Elektrodenschicht aus Gold oder Platin tragen. Auf der Elektrode wird mittels Elektrodeposition eine homogene Schicht Polymer mit Schichtdicken bis zu 150 nm aufgebracht. Die Aktorcharakteristik, die Biegung des Cantilevers aufgrund des angelegten Potenzials, wird mit dem aus der Rastersondenmikroskopie bekannten Lichtzeigerverfahren gemessen. Das Aktorsystem wird hinsichtlich des angelegten Potenzials, des Elektrolyten und der Redox-Kinetik charakterisiert. Die verschiedenen Beiträge zum Aktorverhalten werden in situ während des Schichtwachstums untersucht. Das beobachtete Verhalten kann als Superposition verschiedener Effekte beschrieben werden. Darunter sind die Elektrodenaufladung (Elektrokapillarität), die Veränderungen der Elektrodenoberfläche durch dünne Oxidschichten und die Elektrochemomechanik des Polymers.
Resumo:
The collection of X chromosome insertions (PX) lethal lines, which was isolated from a screen for essential genes on the X chromosome, was characterized by means of cloning the insertion sites, mapping the sites within genomic DNA and determination of the associated reporter gene expresssion patterns. The established STS flanking the P element insertion sites were submitted to EMBL nucleotide databases and their in situ data together with the enhancer trap expression patterns have been deposited in the FlyView database. The characterized lines are now available to be used by the scientific community for a detailed analysis of the newly established lethal gene functions. One of the isolated genes on the X chromosome was the Drosophila gene Wnt5 (DWnt5). From two independent screens, one lethal and three homozygous viable alleles were recovered, allowing the identification of two distinct functions for DWnt5 in the fly. Observations on the developing nervous system of mutant embryos suggest that DWnt5 activity affects axon projection pattern. Elevated levels of DWNT5 activity in the midline cells of the central nervous system causes improper establishment and maintenance of the axonal pathways. Our analysis of the expression and mutant phenotype indicates that DWnt5 function in a process needed for proper organization of the nervous system. A second and novel function of DWnt5 is the control of the body size by regulation of the cell number rather than affecting the size of cells. Moreover, experimentally increased DWnt5 levels in a post-mitotic region of the eye imaginal disc causes abnormal cell cycle progression, resulting in additional ommatidia in the adult eye when compared to wild type. The increased cell number and the effects on the cell cycle after exposure to high DWNT5 levels is the result of a failure to downregulate cyclin B and therefore the unsuccessful establishment of a G1 arrest.
Resumo:
"Funktionelle Analyse der LC-FACS in Dictyostelium discoideum" Das Dictyostelium discoideum Gen fcsA kodiert für ein 75 kDa großes Protein. Es kann durch Homologieanyalysen der Amino-säuresequenz zu den "long-chain fatty acyl-CoA"-Synthetasen ge-rechnet werden, die lang-kettige Fettsäuren durch die kovalente Bindung von Coenzym A akti-vie-ren und damit für diverse Reak-tionen in Stoffwechsel und Molekül-Synthese der Zelle verfügbar machen. Die hier untersuchte D. discoideum LC-FACS lokalisiert als peripher assoziiertes Protein an der cytosolischen Seite der Membran von Endo-somen und kleiner Vesikel. Bereits kurz nach der Bildung in der frühen sauren Phase kann die Lokalisation der LC-FACS auf Endosomen ge-zeigt werden. Sie dissoziiert im Laufe ihrer Neutra-li-sierung und kann auf späten Endosomen, die vor ihrer Exocytose stehen nicht mehr nach-gewiesen werden. Ein Teil der kleinen die in der gesamte Zelle verteilten kleinen Vesikel zeigt eine Kolokalisation mit lysosomalen Enzymen. Trotz des intrazellulären Verteilungs-mus-ters, das eine Beteiligung dieses Pro-teins an der Endocytose nahe-legt, konnte kein signifikanter Rückgang der Pino- und Phagocytose-Rate in LC-FACS Nullmutanten beobachtet werden. Der endo-cy-to-ti-sche Transit ist in diesen Zellen etwas verlängert, außerdem zeigen die Endosomen einen deutlich erhöhten pH-Wert, was zu einer weniger effektiven Prozessierung eines lysosomalen Enzyms führt (a-Mannosidase). Die Funktion der LC-FACS ist die Aufnahme von langkettigen Fettsäuren aus dem Lumen der Endosomen.
Resumo:
Bei der Bestimmung der irreduziblen Charaktere einer Gruppe vom Lie-Typ entwickelte Lusztig eine Theorie, in der eine sogenannte Fourier-Transformation auftaucht. Dies ist eine Matrix, die nur von der Weylgruppe der Gruppe vom Lie-Typ abhängt. Anhand der Eigenschaften, die eine solche Fourier- Matrix erfüllen muß, haben Geck und Malle ein Axiomensystem aufgestellt. Dieses ermöglichte es Broue, Malle und Michel füur die Spetses, über die noch vieles unbekannt ist, Fourier-Matrizen zu bestimmen. Das Ziel dieser Arbeit ist eine Untersuchung und neue Interpretation dieser Fourier-Matrizen, die hoffentlich weitere Informationen zu den Spetses liefert. Die Werkzeuge, die dabei entstehen, sind sehr vielseitig verwendbar, denn diese Matrizen entsprechen gewissen Z-Algebren, die im Wesentlichen die Eigenschaften von Tafelalgebren besitzen. Diese spielen in der Darstellungstheorie eine wichtige Rolle, weil z.B. Darstellungsringe Tafelalgebren sind. In der Theorie der Kac-Moody-Algebren gibt es die sogenannte Kac-Peterson-Matrix, die auch die Eigenschaften unserer Fourier-Matrizen besitzt. Ein wichtiges Resultat dieser Arbeit ist, daß die Fourier-Matrizen, die G. Malle zu den imprimitiven komplexen Spiegelungsgruppen definiert, die Eigenschaft besitzen, daß die Strukturkonstanten der zugehörigen Algebren ganze Zahlen sind. Dazu müssen äußere Produkte von Gruppenringen von zyklischen Gruppen untersucht werden. Außerdem gibt es einen Zusammenhang zu den Kac-Peterson-Matrizen: Wir beweisen, daß wir durch Bildung äußerer Produkte von den Matrizen vom Typ A(1)1 zu denen vom Typ C(1) l gelangen. Lusztig erkannte, daß manche seiner Fourier-Matrizen zum Darstellungsring des Quantendoppels einer endlichen Gruppe gehören. Deswegen ist es naheliegend zu versuchen, die noch ungeklärten Matrizen als solche zu identifizieren. Coste, Gannon und Ruelle untersuchen diesen Darstellungsring. Sie stellen eine Reihe von wichtigen Fragen. Eine dieser Fragen beantworten wir, nämlich inwieweit rekonstruiert werden kann, zu welcher endlichen Gruppe gegebene Matrizen gehören. Den Darstellungsring des getwisteten Quantendoppels berechnen wir für viele Beispiele am Computer. Dazu müssen unter anderem Elemente aus der dritten Kohomologie-Gruppe H3(G,C×) explizit berechnet werden, was bisher anscheinend in noch keinem Computeralgebra-System implementiert wurde. Leider ergibt sich hierbei kein Zusammenhang zu den von Spetses herrührenden Matrizen. Die Werkzeuge, die in der Arbeit entwickelt werden, ermöglichen eine strukturelle Zerlegung der Z-Ringe mit Basis in bekannte Anteile. So können wir für die meisten Matrizen der Spetses Konstruktionen angeben: Die zugehörigen Z-Algebren sind Faktorringe von Tensorprodukten von affinen Ringe Charakterringen und von Darstellungsringen von Quantendoppeln.
Resumo:
Die Arbeit analysiert die Gründe, die erst zur Golfkrise führten und dann zum darauf folgenden Golfkrieg. Es geht diesbezüglich darum festzustellen, ob die damalige US Regierung unter George Bush, die Invasion Kuwaits zum Ausbau der US-amerikanischen Hegemonie nicht nur in der Golfregion ausnutzte, sondern ob sie die Invasion begünstigte oder sogar provozierte, um als Hegemon in den internationalen Beziehungen herrschen zu können. Aus Sicht der internationalen Mächte Konstellation ergab sich 1990, nach dem Fall der Berliner Mauer (1989) und letztendlich mit der Disintegration der Sowjet Union 1991, für die USA die Gelegenheit ohne großes realpolitisches Risiko einen Krieg in einer Region zu entfachen, mit dem sie als Sieger sich die Rohstoffe (Ö l, 2/3 der bekannten Welt Ö lreserven, ect) der Golfregion aneignen könnten. Ferner würde eine Dominanz über diese Region, die als geostrategisch äuß erst wichtig gilt ihren Status als Hegemon weiter ausbauen. Um die Entwicklung der US Hegemonie zu eruieren werden kurz weitere Stationen, nach dem Golfkrieg 1991, durchleuchtet: wie z.B. der Kosovo-Krieg 1999, der 11.9.2001, der Afghanistan Krieg 2001 & der 3. Golfkrieg der USA 2003. Theoretisch wird vor allem die Hegemonietheorie auf ihre Stärken und ggf. Schwächen, in Bezug auf den 2. Golfkrieg untersucht, um zu sehen ob sie nicht nur eine Erklärung für den Krieg abgeben kann, sondern auch ob sie den weiteren Verlauf der US Auß enpolitik eruieren kann. Der empirische Teil besteht größt enteils aus der diplomatischen Geschichte zwischen den Hauptakteuren Irak, USA, Kuwait, ect. Ö konomische Aspekte kommen vor allem bei der Analyse über die Auswirkung der damaligen (US) Rezession von 1990 zu Geltung und in wiefern diese die Golfkrise und den drauf folgenden Krieg beeinfluß ten. Gegen Ende der Arbeit werden die theoretischen und die empirischen Daten nochmals auf ihre Koherenz untersucht, um ein in sich geschlossenes Gesamtbild des 2. Golfkriegs und die darauf folgende US Auß enpolitik abzugeben.
Resumo:
Zur Modellierung von Vergasungs- und Verbrennungsprozessen zur energetischen Nutzung von Biomasse ist die Kenntnis von reaktionskinetischen Daten für die Sauerstoff-Oxidation von Biomassepyrolysaten erforderlich. Eine ausführliche Literaturübersicht zeigt den Stand der Forschung bezüglich der experimentellen Ermittlung von reaktionskinetischen Parametern für die Oxidation von Pyrolysaten aus Lignin, Cellulose und pflanzlicher Biomasse sowie der Suche nach einem plausiblen Reaktionsmechanismus für die Reaktion von Sauerstoff mit festen Kohlenstoffmaterialien. Es wird eine Versuchsanlage mit einem quasistationär betriebenen Differentialreaktor konstruiert, die eine Messung der Reaktionskinetik und der reaktiven inneren Oberfläche (RSA) für die Reaktion eines Pyrolysats aus Maispflanzen mit Sauerstoff ermöglicht. Die getrockneten und zerkleinerten Maispflanzen werden 7 Minuten lang bei 1073 K in einem Drehrohrofen pyrolysiert. Das Pyrolysat zeichnet sich vor allem durch seine hohe Porosität von über 0,9 und seinen hohen Aschegehalt von 0,24 aus. Die RSA wird nach der Methode der Messung von Übergangskinetiken (TK) bestimmt. Die Bestimmung der RSA erfolgt für die Reaktionsprodukte CO und CO2 getrennt, für die entsprechend ermittelten Werte werden die Bezeichnungen CO-RSA und CO2-RSA eingeführt. Die Abhängigkeit dieser Größen von der Sauerstoffkonzentration läßt sich durch eine Langmuir-Isotherme beschreiben, ebenso das leichte Absinken der CO-RSA mit der Kohlendioxidkonzentration. Über dem Abbrand zeigen sich unterschiedliche Verläufe für die CO-RSA, CO2-RSA und die innere Oberfläche nach der BET-Methode. Zur Charakterisierung der Oberflächenzwischenprodukte werden temperaturprogrammierte Desorptionsversuche (TPD) durchgeführt. Die Ergebnisse zeigen, daß eine Unterscheidung in zwei Kohlenstoff-Sauerstoff-Oberflächenkomplexe ausreichend ist. Die experimentellen Untersuchungen zum Oxidationsverlauf werden im kinetisch bestimmten Bereich durchgeführt. Dabei werden die Parameter Temperatur, Sauerstoff-, CO- und CO2-Konzentration variiert. Anhand der Ergebnisse der reaktionskinetischen Untersuchungen wird ein Reaktionsmechanismus für die Kohlenstoff-Sauerstoff-Reaktion entwickelt. Dieser Reaktionsmechanismus umfaßt 7 Elementarreaktionen, für welche die reaktionskinetischen Parameter numerisch ermittelt werden. Darüber hinaus werden reaktionskinetische Parameter für einfachere massenbezogene Reaktionsgeschwindigkeitsansätze berechnet und summarische Reaktionsgeschwindigkeitsansätze für die Bildung von CO und CO2 aus dem Reaktionsmechanismus hergeleitet.
Resumo:
Die Verwendung von Aktivkohlen und -koksen stellt eine Alternative zu herkömmlichen Prozessen zur Verminderung der NOx-Emissionen in Rauchgasen dar. An diesen Materialien wird Stickstoffmonoxid adsorbiert und katalytisch zu N2 reduziert. Eine einheitliche Erklärung über die ablaufenden Vorgänge und die Reaktionsmechanismen gibt es noch nicht. Die Ergebnisse der bisher veröffentlichten wissenschaftlichen Arbeiten sind sehr unterschiedlich, wenn nicht sogar widersprüchlich. In dieser Arbeit wird, anhand der Messung von NO-Durchbruchskurven und thermischen Desorptionsspektren, die Adsorption und Reaktion von Stickstoffmonoxid an Aktivkohlen und -koksen in Anwesenheit von Sauerstoff und Wasserdampf untersucht. Zur Durchführung der experimentellen Untersuchungen wird eine Versuchsanlage, bestehend aus einer Vorrichtung zur Gasgemischaufbereitung, einem Festbettreaktor und einer Gasanalytik, konzipiert und aufgebaut. Die Untersuchungen erfolgen bei Temperaturen zwischen 100 und 150 °C. Die NO-, O2- und H2O-Konzentrationen werden anhand der Rauchgaszusammensetzung kohlegefeuerter Kraftwerke gewählt. Die experimentellen Untersuchungen konzentrieren sich auf die Verwendung einer Aktivkohle aus Ölpalmschalen, die in einem Drehrohrreaktor am Institut für Thermische Energietechnik der Universität Kassel hergestellt wurde. Die experimentellen Ergebnisse zeigen, dass während des Prozesses NO-Adsorption, -Reduktion und -Oxidation, NO2-Bildung, -Adsorption und -reduktive Desorption, H2O-Adsorption sowie O2-Vergasung gleichzeitig stattfinden. Bei niedrigen Temperaturen werden die NO2-Bildung und die Adsorption bevorzugt. Die NO-Reduktion läuft über adsorbiertes NO mit CO2- und CO-Bildung. Durch O2-Vergasung werden aktive freie Cf-Plätzen für die NO-Reaktion und -Adsorption gebildet. Wasserdampf wird an der Aktivkohle adsorbiert und belegt aktive Plätze für diese Prozesse. Aus den experimentellen Ergebnissen werden kinetische und Gleichgewichtsparameter der NO-Sorption bestimmt. Ein vereinfachtes mathematisches Modell des Festbettreaktors, das zur Berechnung der NO-Durchbruchskurven bei unterschiedlichen Temperaturen dient, wird aufgestellt.
Resumo:
This thesis consists of 4 main parts: (1) impact of growing maize on the decomposition of incorporated fresh alfalfa residues, (2) relationships between soil biological and other soil properties in saline and alkaline arable soils from the Pakistani Punjab, (3) decomposition of compost and plant residues in Pakistani soils along a gradient in salinity, and (4) interactions of compost and triple superphosphate on the growth of maize in a saline Pakistani soil. These 4 chapters are framed by a General Introduction and a Conclusions section. (1) In the first study, the effects of growing maize plants on the microbial decomposition of freshly chopped alfalfa residues was investigated in a 90-day pot experiment using a sandy arable soil. Assuming that the addition of alfalfa residues did not affect the decomposition of native soil organic matter, only 27% of the alfalfa residues were found as CO2. This suggests that a considerable part of alfalfa-C remained undecomposed in the soil. However, only 6% of the alfalfa residues could be recovered as plant remains in treatment with solely alfalfa residues. Based on d13C values, it was calculated that plant remains in treatment maize + alfalfa residues contained 14.7% alfalfa residues and 85.3% maize root remains. This means 60% more alfalfa-C was recovered in this treatment. (2) In the second study, the interactions between soil physical, soil chemical and soil biological properties were analysed in 30 Pakistani soils from alkaline and saline arable sites differing strongly in salinisation and in soil pH. The soil biological properties were differentiated into indices for microbial activity, microbial biomass, and community structure with the aim of assessing their potential as soil fertility indices. (3) In the third study, 3 organic amendments (compost, maize straw and pea straw) were added to 5 Pakistani soils from a gradient in salinity. Although salinity has depressive effects on microbial biomass C, biomass N, biomass P, and ergosterol, the clear gradient according to the soil salt concentration was not reflected by the soil microbial properties. The addition of the 3 organic amendments always increased the contents of the microbial indices analysed. The amendment-induced increase was especially strong for microbial biomass P and reflected the total P content of the added substrates. (4) The fourth study was greenhouse pot experiment with different combinations of compost and triple superphosphate amendments to investigate the interactions between plant growth, microbial biomass formation and compost decomposition in a strongly saline Pakistani arable soil in comparison to a non-saline German arable soil. The Pakistani soil had a 2 times lower content of ergosterol, a 4 times lower contents of microbial biomass C, biomass N and biomass P, but nearly a 20 times lower content of NaHCO3 extractable P. The addition of 1% compost always had positive effects on the microbial properties and also on the content of NaHCO3 extractable P. The addition of superphosphate induced a strong and similar absolute increase in microbial biomass P in both soils.
Resumo:
Das Ziel dieser Arbeit war, die Einflüsse von Wurzeln und Rhizodeposition auf den Umsatz von Körnerleguminosenresiduen und damit verknüpfte mikrobielle Prozesse zu untersuchen. In einem integrierten Versuch wurden Ackerbohne (Vicia faba L.), Erbse (Pisum sativum L.) und Weiße Lupine (Lupinus albus L.) untersucht. Der Versuch bestand aus drei Teilen, zwei Gefäß-Experimenten und einem Inkubationsexperiment, in denen ausgehend von einem Gefäß-Experiment derselbe Boden und dasselbe Pflanzenmaterial verwendet wurden. In Experiment I wurde die Stickstoff-Rhizodeposition der Körnerleguminosenarten, definiert als wurzelbürtiger N nach dem Entfernen aller sichtbaren Wurzeln im Boden, gemessen und der Verbleib des Rhizodepositions-N in verschiednenen Bodenpools untersucht. Dazu wurden die Leguminosen in einem Gefäßversuch unter Verwendung einer in situ 15N-Docht-Methode mit einer 15N Harnstofflösung pulsmarkiert. In Experiment II wurde der Umsatz der N-Rhizodeposition der Körnerleguminosen und der Einfluss der Rhizodeposition auf den anschließenden C- und N-Umsatz der Körnerleguminosenresiduen in einem Inkubationsexperiment untersucht. In Experiment III wurde der N-Transfer aus den Körnerleguminosenresiduen einschließlich N-Rhizodeposition in die mikrobielle Biomasse und die Folgefrüchte Weizen (Triticum aestivum L.) und Raps (Brassica napus L.) in einem Gewächshaus-Gefäßversuch ermittelt. Die in situ 15N Docht-Markierungs-Methode wies hohe 15N Wiederfindungsraten von ungefähr 84 Prozent für alle drei Leguminosenarten auf und zeigte eine vergleichsweise homogene 15N Verteilung zwischen verschiedenen Pflanzenteilen zur Reife. Die Wurzeln zeigten deutliche Effekte auf die N-Dynamik nach dem Anbau von Körnerleguminosen. Die Effekte konnten auf die N-Rhizodeposition und deren anschließenden Umsatz, Einflüsse der Rhizodeposition von Körnerleguminosen auf den anschließenden Umsatz ihrer Residuen (Stängel, Blätter, erfassbare Wurzeln) und die Wirkungen nachfolgender Nichtleguminosen auf den Umsatzprozess der Residuen zurückgeführt werden: Die N-Rhizodeposition betrug zur Reife der Pflanzen bezogen auf die Gesamt-N- Aufnahme 13 Prozent bei Ackerbohne und Erbse und 16 Prozent bei Weißer Lupine. Bezogen auf den Residual N nach Ernte der Körner erhöhte sich der relative Anteil auf 35 - 44 Prozent. Die N-Rhizodeposition ist daher ein wesentlicher Pool für die N-Bilanz von Körnerleguminosen und trägt wesentlich zur Erklärung positiver Fruchtfolgeeffekte nach Körnerleguminosen bei. 7 - 21 Prozent des Rhizodepositions-N wurden als Feinwurzeln nach Nasssiebung (200 µm) wiedergefunden. Nur 14 - 18 Prozent des Rhizodepositions-N wurde in der mikrobiellen Biomasse und ein sehr kleiner Anteil von 3 - 7 Prozent in der mineralischen N Fraktion gefunden. 48 bis 72 Prozent der N-Rhizodeposition konnte in keinem der untersuchten Pools nachgewiesen werden. Dieser Teil dürfte als mikrobielle Residualmasse immobilisiert worden sein. Nach 168 Tagen Inkubation wurden 21 bis 27 Prozent des Rhizodepositions-N in den mineralisiert. Der mineralisierte N stammte im wesentlichen aus zwei Pools: Zwischen 30 Prozent und 55 Prozent wurde aus der mikrobiellen Residualmasse mineralisiert und eine kleinere Menge stammte aus der mikrobielle Biomasse. Der Einfluss der Rhizodeposition auf den Umsatz der Residuen war indifferent. Durch Rhizodeposition wurde die C Mineralisierung der Leguminosenresiduen nur in der Lupinenvariante erhöht, wobei der mikrobielle N und die Bildung von mikrobieller Residualmasse aus den Leguminosenresiduen in allen Varianten durch Rhizodepositionseinflüsse erhöht waren. Das Potential des residualen Körnerleguminosen-N für die N Ernährung von Folgefrüchten war gering. Nur 8 - 12 Prozent des residualen N wurden in den Folgenfrüchten Weizen und Raps wiedergefunden. Durch die Berücksichtigung des Rhizodepositions-N war der relative Anteil des Residual-N bezogen auf die Gesamt-N-Aufnahme der Folgefrucht hoch und betrug zwischen 18 und 46 Prozent. Dies lässt auf einen höheren N-Beitrag der Körnerleguminosen schließen als bisher angenommen wurde. Die residuale N-Aufnahme von Weizen von der Blüte bis zur Reife wurde durch den Residual-N gespeist, der zur Blüte in der mikrobiellen Biomasse immobilisiert worden war. Die gesamte Poolgröße, Residual-N in der mikrobiellen Biomasse und in Weizen, veränderte sich von der Blüte bis zur Reife nicht. Jedoch konnte ein Rest von 80 Prozent des Residual-N in keinem der untersuchten Pools nachgewiesen werden und dürfte als mikrobielle Residualmasse immobilisiert worden sein oder ist noch nicht abgebaut worden. Die zwei unterschiedlichen Folgefrüchte - Weizen und Raps - zeigten sehr ähnliche Muster bei der N-Aufnahme, der Residual-N Wiederfindung und bei mikrobiellen Parametern für die Residuen der drei Körnerleguminosenarten. Ein differenzierender Effekt auf den Umsatz der Residuen bzw. auf das Residual-N-Aneignungsvermögen der Folgefrüchte konnte nicht beobachtet werden.
Resumo:
Ausgehend von dem von Friedrich Edding geprägten Begriff der Schlüsselfähigkeit entwickelte Dieter Mertens Anfang der 1970er Jahre sein Konzept der Schlüsselqualifikationen. Damit suchte er Wege, Menschen so zu qualifizieren, dass sie ihnen übertragene berufliche Aufgaben, auch in einem sich rasch verändernden Umfeld, bewältigen können. In der vorliegenden Arbeit wird gezeigt, dass die Rezeption des Begriffs in verschiedenen Bildungsbereichen mit unterschiedlichen Intensitäten und Resultaten verlief. Am folgenreichsten war die Rezeption in der Berufsbildung. Von wenigen skeptischen Stimmen abgesehen, stieß das Konzept der Schlüsselqualifikationen auf positive Zustimmung und mehrere Umsetzungsversuche wurden unternommen. Diese führten allerdings zu einer Verlängerung der Liste der Schlüsselqualifikationen (die ursprünglich von Mertens als abschließbar angedacht war). Ein Konsens, was in der Berufsbildung als Schlüsselqualifikationen zu gelten hat, ist immer noch nicht in Sicht. In den allgemeinbildenden Schulen hingegen fand das Konzept keine große Beachtung. Zwar wurde hin und wieder auf den Begriff zurückgegriffen, um beispielsweise allgemein verbindliche Standards in der Schule zu thematisieren oder neuen Inhalten eine Legitimation zu verschaffen, dennoch griff die Debatte in der Schulpädagogik nicht nachhaltig. Gründe dafür liegen zum einen in der dem Konzept inhärenten berufsvorbereitenden Funktion, die der Idealvorstellung einer zweckfreien Bildung widerspricht, zum anderen in der relativ straffen und zentralisierten Gestaltung der Lehrpläne. Die vorliegende Arbeit setzt sich mit dem Konzept der Schlüsselqualifikationen im Hochschulbereich auseinander. Eine Untersuchung von ca. 130 deutsch- und englischsprachigen Arbeiten, die Schlüsselqualifikationen im Hochschulbereich zum Thema haben, belegt eine sehr große Heterogenität der zugrunde liegenden Vorstellungen und konkreten Modelle. Es wird gezeigt, dass die zwei wichtigsten Ordnungsschemata, die gelegentlich zur Abgrenzung der Schlüsselqualifikationen gegenüber anderen Bildungskomponenten herangezogen werden (nämlich die Taxonomie der Lernziele von Bloom und das Handlungskompetenzmodell von Roth in der Weiterentwicklung von Reetz) mit keinem kohärenten Rahmenwerk, das der Fülle der Modelle von Schlüsselqualifikationen im Hochschulbereich gerecht wäre, aufwarten können. Eine Alternative bietet eine diskursanalytische Perspektive foucaultscher Prägung. Begriffen als eine diskursive Formation, haben Modelle der Schlüsselqualifikationen ihre Gemeinsamkeit nicht in dem vermeintlich gemeinsamen Gegenstand. Demnach sind Schlüsselqualifikationen in der heutigen Hochschuldebatte keine Qualifikationen suis generis, die eine eigene Kategorie bilden, sondern eine Antwort auf die Herausforderungen, die die verschiedenartigen Veränderungen in und um Hochschulen mit sich bringen. Es lassen sich drei Kontexte identifizieren, in denen die Modelle der Schlüsselqualifikationen der Herausforderung zu begegnen versuchen: in der Gesellschaft im Allgemeinen, in der vor-universitären Bildung sowie in der Hochschulbildung und in der Berufswelt. In diesen Kontexten artikulieren die Modelle der Schlüsselqualifikationen verschiedene Dimensionen, um Gesellschafts-, Studier und Beschäftigungsfähigkeit der Studierenden zu fördern. Eine vergleichende Analyse der Debatten und Modelle der Schlüsselqualifikationen in der BRD und in England zeigt, dass diese drei Kontexte in beiden Ländern vorfindbar sind, jedoch deren inhaltliche Vorstellung und konkrete Umsetzung aufgrund der Partikularitäten des jeweiligen Hochschulsystems unterschiedliche Akzentuierungen erfahren. Anders als in der BRD betonen die Modelle der Förderung der Studierfähigkeit in England die Brückenkurse als Hilfestellung bei der Vorbereitung auf das Studium. Das hängt mit den uneinheitlichen Zugangsregelungen zum Hochschulstudium und der hierarchischen Struktur im englischen Hochschulsystem zusammen. Bei der Förderung der Beschäftigungsfähigkeit setzen die Modelle der Schlüsselqualifikationen in Deutschland, wo traditionell ein Hochschulstudium als berufsvorbereitend angesehen wird, den Akzent auf Praxisbezug des Studiums und auf Flexibilität. In England hingegen, wo sich das Studium per se nicht als berufsqualifizierend versteht, rücken die Modelle der Schlüsselqualifikationen den Übergang in den Arbeitsmarkt und das Karrieremanagement - subsumiert unter dem Konzept der employability - in den Vordergrund.