155 resultados para Historische und Antiquarische Gesellschaft zu Basel.
Resumo:
To increase the organic matter (OM) content in the soil is one main goal in arable soil management. The adoption of tillage systems with reduced tillage depth and/or frequency (reduced tillage) or of no-tillage was found to increase the concentration of soil OM compared to conventional tillage (CT; ploughing to 20-30 cm). However, the underlying processes are not yet clear and are discussed contradictorily. So far, few investigations were conducted on tillage systems with a shallow tillage depth (minimum tillage = MT; maximum tillage depth of 10 cm). A better understanding of the interactions between MT implementation and changes in OM transformation in soils is essential in order to evaluate the possible contribution of MT to a sustainable management of arable soils. The objectives of the present thesis were (i) to compare OM concentrations, microbial biomass, water-stable aggregates, and particulate OM (POM) between CT and MT soils, (ii) to estimate the temporal variability of water-stable aggregate size classes occurring in the field and the dynamics of macroaggregate (>250 µm) formation and disruption under controlled conditions, (iii) to investigate whether a lower disruption or a higher formation rate accounts for a higher occurrence of macroaggregates under MT compared to CT, (iv) to determine which fraction is the major agent for storing the surplus of OM found under MT compared to CT, and (v) to observe the early OM transformation after residue incorporation in different tillage systems simulated. Two experimental sites (Garte-Süd and Hohes Feld) near Göttingen, Germany, were investigated. Soil type of both sites was a Haplic Luvisol. Since about 40 years, both sites receive MT by a rotary harrow (to 5-8 cm depth) and CT by a plough (to 25 cm depth). Surface soils (0-5 cm) and subsoils (10-20 cm) of two sampling dates (after fallow and directly after tillage) were investigated for concentrations of organic C (Corg) and total N (N), different water-stable aggregate size classes, different density fractions (for the sampling date after fallow only), microbial biomass, and for biochemically stabilized Corg and N (by acid hydrolysis; for the sampling date after tillage only). In addition, two laboratory incubations were performed under controlled conditions: Firstly, MT and CT soils were incubated (28 days at 22°C) as bulk soil and with destroyed macroaggregates in order to estimate the importance of macroaggregates for the physical protection of the very labile OM against mineralization. Secondly, in a microcosm experiment simulating MT and CT systems with soil <250 µm and with 15N and 13C labelled maize straw incorporated to different depths, the mineralization, the formation of new macroaggregates, and the partitioning of the recently added C and N were followed (28 days at 15°C). Forty years of MT regime led to higher concentrations of microbial biomass and of Corg and N compared to CT, especially in the surface soil. After fallow and directly after tillage, a higher proportion of water-stable macroaggregates rich in OM was found in the MT (36% and 66%, respectively) than in the CT (19% and 47%, respectively) surface soils of both sites (data shown are of the site Garte-Süd only). The subsoils followed the same trend. For the sampling date after fallow, no differences in the POM fractions were found but there was more OM associated to the mineral fraction detected in the MT soils. A large temporal variability was observed for the abundance of macroaggregates. In the field and in the microcosm simulations, macroaggregates were found to have a higher formation rate after the incorporation of residues under MT than under CT. Thus, the lower occurrence of macroaggregates in CT soils cannot be attributed to a higher disruption but to a lower formation rate. A higher rate of macroaggregate formation in MT soils may be due to (i) the higher concentrated input of residues in the surface soil and/or (ii) a higher abundance of fungal biomass in contrast to CT soils. Overall, as a location of storage of the surplus of OM detected under MT compared to CT, water-stable macroaggregates were found to play a key role. In the incubation experiment, macroaggregates were not found to protect the very labile OM against mineralization. Anyway, the surplus of OM detected after tillage in the MT soil was biochemically degradable. MT simulations in the microcosm experiment showed a lower specific respiration and a less efficient translocation of recently added residues than the CT simulations. Differences in the early processes of OM translocation between CT and MT simulations were attributed to a higher residue to soil ratio and to a higher proportion of fungal biomass in the MT simulations. Overall, MT was found to have several beneficial effects on the soil structure and on the storage of OM, especially in the surface soil. Furthermore, it was concluded that the high concentration of residues in the surface soil of MT may alter the processes of storage and decomposition of OM. In further investigations, especially analysis of the residue-soil-interface and of effects of the depth of residue incorporation should be emphasised. Moreover, further evidence is needed on differences in the microbial community between CT and MT soils.
Untersuchung von Schulbüchern für den wirtschaftlichen Unterricht an beruflichen Schulen in Shanghai
Resumo:
Diese Arbeit entstand vor dem Hintergrund der gesellschaftlichen und wirtschaftlichen Veränderungen in China seit den 90er Jahren des 20. Jhds und den damit einhergehenden Reformen im Bildungssystem. Insbesondere für die traditionell wenig angesehene Berufsbildung erfolgte politisch eine völlige Neubewertung, die viele Bemühungen ausgelöst hat, Schule und Unterricht so zu modernisieren, dass den Betrieben unter marktwirtschaftlichen Bedingungen in beruflichen Domainen qualifizierte Jugendliche zur Verfügung stehen und dass sich den Jugendlichen selbst Chancen auf dem Arbeitsmarkt bieten. Eine der diskutierten Reformlinien rückt ein didaktisches Konzept in den Vordergrund, dem ein konstruktivistisches Lernverständnis unterlegt ist und Schüler befähigen will, Zusammenhänge in ausgewählten Tätigkeitsfeldern zu erkennen und die in den Wissenschaften zu ihrer Modellierung verwendeten Konstrukte in ihrer Machart und Leistungsfähigkeit einzuschätzen. Überwunden werden soll in allen Reformansätzen das für das traditionelle Bildungssystem typische memorierende und reproduzierende Lernen. Andere Untersuchungen aber auch eigene Voruntersuchungen zeigen, dass ein Gelingen des intendierten didaktischen Wechsels stark davon abhängt, ob den Lehrkräften Lehrmittel zur Verfügung stehen, die ein verstehendes Lernen unterstützen und dafür Vorbilder liefern. Aus diesem Grunde werden in der Arbeit zahlreiche neuere Schulbuchproduktionen im kaufmännischen Bereich untersucht. Dabei wird auch der Vielfalt der Publikationswege und der Heterogenität im Verlagswesen Rechnung getragen. Für die qualitative Untersuchung werden vier unterschiedliche Gegenstandsbereiche festgelegt, die für wirtschaftsberufliche Curricula zentral sind, und jeweils auf ein typisches inhaltliches Beispiel fokussiert. Für die ausgewählten Gegenstandsbereiche – ökonomisch zentrale Konzepte/ Begriffe, ideale ökonomische Modelle, rechtliche Normen, prozedurales Wissen – werden zunächst jeweils mit Rückgriffen auf kognitive, lerntheoretische, methodologische und dogmengeschichtliche Theorien didaktische Möglichkeiten analysiert, eine verstehende Aneignung fachlicher Inhalte und Denkstile sowie beruflicher Kompetenzen begründet zu begünstigen. Daraus werden jeweils Gesichtspunkte gewonnen, die als Maßstab zur qualitativen Analyse der Schulbuchtexte herangezogen werden. Die Untersuchung der Texte zeigt quer durch die verschiedenen Gegenstandsbereiche und Textbeispiele, dass die Darstellungen durchgängig dem traditionellen Muster klassifikatorischer Informationsorganisation verhaftet bleiben, die eher synoptischen Gestaltungsinteressen folgt und Fragen des Lernens und der Kompetenzaneignung vernachlässigt. Damit bleiben die Schulbuchproduktionen, die vordergründig aktuelle und disziplinär moderne Themen aufgreifen, in ihrer Machart bislang weiter der Tradition verhaftet, memorierendes Lernen einzufordern, was den Zielen der Berufsbildungsreform völlig widerspricht. Das ist ein für den Reformprozess wesentlicher Befund, da den Schulbüchern dabei eine zentrale Rolle zukommt. Aus den Befunden werden Empfehlungen für die wesentlichen an der Lehrerausbildung beteiligten Institutionen abgeleitet.
Resumo:
Gegenstand der Arbeit ist ein journalistisches Unterrichtsprojekt zur Förderung einer politischen Medienbildung. Das Projekt wurde deutschlandweit in 20 Haupt- und Gesamtschulklassen mit rund 400 Schülern und Schülerinnen durchgeführt und qualitativ untersucht. Im theoretischen Teil werden Konzepte von Medienbildung, medienpädagogische Ansätze und Ergebnisse empirischer Untersuchungen vorgestellt, die für die Arbeit und das Projekt relevant waren. Kapitel 2 thematisiert das Phänomen „TV-Journalismus“ vor dem Hintergrund der Cultural Studies (v. a. Stuart Hall, Margret Lünenborg) und diskutiert es im Hinblick auf medienpädagogische Fragestellungen. Journalismus wird dabei als ein möglicher Weg gesehen, eine politische Bildung mit einer Medienbildung zu verknüpfen. Allerdings führen die Schwerpunkte Journalismus und Politik auch zu Schwierigkeiten bei der Umsetzung, wenn man bedenkt, dass sowohl journalistische Genres als auch Politik in der jugendlichen Lebenswelt keine maßgebliche Rolle spielen, wie aktuelle Jugendstudien zeigen (z. B. JIM- und Deutsche-Shell-Studien). Sinnvoll erscheint hier die Öffnung entsprechender Konzepte hin zu einem weiteren, lebensweltbezogenen Politik- und Journalismusverständnis, um Jugendlichen Bezugspunkte zu ihrer Alltagswelt zu bieten. Kapitel 3 und 4 stellen leitende theoretische Konzepte von Medienbildung/Medienkompetenz (etwa Winfried Marotzki, Manuela Pietraß) sowie medienpädagogische Ansätze (z. B. den handlungsorientierten, themenzentrierten Ansatz von Bernd Schorb) dar. „Medienbildung“ wird in der Arbeit verstanden als Beziehung des Menschen zu sich selbst und zur gegenständlichen und sozialen Welt, wie sie ihm medienvermittelt begegnet. Bildung ist dann das Ergebnis des kritisch-reflexiven Umgangs mit der medial vermittelten Welt. Eine Medienbildung umfasst dabei auch eine Medienkompetenz im Sinne von medienspezifischem Wissen und Fähigkeiten des Umgangs mit Medien. Eine „politische Medienbildung“ wird in Anlehnung an David Buckingham dann zum einen als ein kritisches „Lesen“ medialer Texte definiert, in welchen die soziale Welt vermittelt wird. Zum anderen bedeutet eine „politische Medienbildung“ auch die eigene Gestaltung medialer Texte und die Teilhabe an einer medialen Kultur. Kapitel 5 beschreibt die konkrete forschungsmethodische Herangehensweise: Das medienpädagogische Projekt wurde qualitativ im Hinblick auf eine Medienbildung untersucht. Anders als in bisherigen Medienkompetenz-Studien wurde nicht nach den Wissenszuwächsen und erlernten Fähigkeiten nach Projektende gefragt. Im Zentrum des Interesses standen die im Unterrichtsprojekt beobachteten Situationen und Prozesse einer reflexiven Auseinandersetzung mit journalistisch vermittelten Themen und Darstellungsweisen. Verschiedene Methoden und Datenquellen wurden miteinander kombiniert, um die Unterrichtsrealität angemessen erfassen zu können. Zu den Erhebungsmethoden gehörten etwa die Unterrichtsaufzeichnung, die Gruppendiskussion und das Sammeln von alltagskulturellem Material. Die dabei gewonnenen Daten wurden mit den Auswertungsverfahren der Text- und Bildanalyse untersucht. Die Ergebnisse folgen schließlich in Kapitel 6. Dieses wird im Hinblick auf die konkretisierten Forschungsfragen differenziert in: • Kapitel 6.1: Hier geht es um die Auseinandersetzung der Schüler/innen mit Wissen über Medien. Relevant sind hier Fragen nach einem Vorwissen von Jugendlichen über journalistische Gestaltungsmittel und wie die Schüler/innen ein solches Vorwissen im Kontext des Unterrichts einbrachten. • Kapitel 6.2: Diese Ergebnisse zeigen auf, wie sich die Jugendlichen mithilfe journalistischer Texte mit einem Thema auseinandersetzten, z. B. wie sie diese hinsichtlich ihrer Glaubwürdigkeit oder ihrer Darstellung bewerteten. • Kapitel 6.3: In diesem Kapitel finden sich Ergebnisse aus den Gruppenarbeiten, in welchen die Schüler/innen selbst ein mediales Konzept entwarfen. Die Aufzeichnungen in den Gruppen deckten auf, wie die Schüler/innen an diese Aufgabe herangingen, welche inhaltlichen Schwerpunkte sie setzten, wie sie Sichtweisen in der Gruppe aushandelten und welche formale Darstellungsweise sie planten. Die Kapitel 6.4 und 7 liefern eine Zusammenfassung der wichtigsten Erkenntnisse und eine kritische Diskussion, welche Chancen und Probleme ein journalistisches Projekt im Kontext der Schule und insbesondere für die Zielgruppe einer niedrigen Bildungszugehörigkeit mit sich bringt.
Resumo:
Der Europäische Markt für ökologische Lebensmittel ist seit den 1990er Jahren stark gewachsen. Begünstigt wurde dies durch die Einführung der EU-Richtlinie 2092/91 zur Zertifizierung ökologischer Produkte und durch die Zahlung von Subventionen an umstellungswillige Landwirte. Diese Maßnahmen führten am Ende der 1990er Jahre für einige ökologische Produkte zu einem Überangebot auf europäischer Ebene. Die Verbrauchernachfrage stieg nicht in gleichem Maße wie das Angebot, und die Notwendigkeit für eine Verbesserung des Marktgleichgewichts wurde offensichtlich. Dieser Bedarf wurde im Jahr 2004 von der Europäischen Kommission im ersten „Europäischen Aktionsplan für ökologisch erzeugte Lebensmittel und den ökologischen Landbau“ formuliert. Als Voraussetzung für ein gleichmäßigeres Marktwachstum wird in diesem Aktionsplan die Schaffung eines transparenteren Marktes durch die Erhebung statistischer Daten über Produktion und Verbrauch ökologischer Produkte gefordert. Die Umsetzung dieses Aktionsplans ist jedoch bislang nicht befriedigend, da es auf EU-Ebene noch immer keine einheitliche Datenerfassung für den Öko-Sektor gibt. Ziel dieser Studie ist es, angemessene Methoden für die Erhebung, Verarbeitung und Analyse von Öko-Marktdaten zu finden. Geeignete Datenquellen werden identifiziert und es wird untersucht, wie die erhobenen Daten auf Plausibilität untersucht werden können. Hierzu wird ein umfangreicher Datensatz zum Öko-Markt analysiert, der im Rahmen des EU-Forschungsprojektes „Organic Marketing Initiatives and Rural Development” (OMIaRD) erhoben wurde und alle EU-15-Länder sowie Tschechien, Slowenien, Norwegen und die Schweiz abdeckt. Daten für folgende Öko-Produktgruppen werden untersucht: Getreide, Kartoffeln, Gemüse, Obst, Milch, Rindfleisch, Schaf- und Ziegenfleisch, Schweinefleisch, Geflügelfleisch und Eier. Ein zentraler Ansatz dieser Studie ist das Aufstellen von Öko-Versorgungsbilanzen, die einen zusammenfassenden Überblick von Angebot und Nachfrage der jeweiligen Produktgruppen liefern. Folgende Schlüsselvariablen werden untersucht: Öko-Produktion, Öko-Verkäufe, Öko-Verbrauch, Öko-Außenhandel, Öko-Erzeugerpreise und Öko-Verbraucherpreise. Zudem werden die Öko-Marktdaten in Relation zu den entsprechenden Zahlen für den Gesamtmarkt (öko plus konventionell) gesetzt, um die Bedeutung des Öko-Sektors auf Produkt- und Länderebene beurteilen zu können. Für die Datenerhebung werden Primär- und Sekundärforschung eingesetzt. Als Sekundärquellen werden Publikationen von Marktforschungsinstituten, Öko-Erzeugerverbänden und wissenschaftlichen Instituten ausgewertet. Empirische Daten zum Öko-Markt werden im Rahmen von umfangreichen Interviews mit Marktexperten in allen beteiligten Ländern erhoben. Die Daten werden mit Korrelations- und Regressionsanalysen untersucht, und es werden Hypothesen über vermutete Zusammenhänge zwischen Schlüsselvariablen des Öko-Marktes getestet. Die Datenbasis dieser Studie bezieht sich auf ein einzelnes Jahr und stellt damit einen Schnappschuss der Öko-Marktsituation der EU dar. Um die Marktakteure in die Lage zu versetzen, zukünftige Markttrends voraussagen zu können, wird der Aufbau eines EU-weiten Öko-Marktdaten-Erfassungssystems gefordert. Hierzu wird eine harmonisierte Datenerfassung in allen EU-Ländern gemäß einheitlicher Standards benötigt. Die Zusammenstellung der Marktdaten für den Öko-Sektor sollte kompatibel sein mit den Methoden und Variablen der bereits existierenden Eurostat-Datenbank für den gesamten Agrarmarkt (öko plus konventionell). Eine jährlich aktualisierte Öko-Markt-Datenbank würde die Transparenz des Öko-Marktes erhöhen und die zukünftige Entwicklung des Öko-Sektors erleichtern. ---------------------------
Resumo:
Energy production from biomass and the conservation of ecologically valuable grassland habitats are two important issues of agriculture today. The combination of a bioenergy production, which minimises environmental impacts and competition with food production for land with a conversion of semi-natural grasslands through new utilization alternatives for the biomass, led to the development of the IFBB process. Its basic principle is the separation of biomass into a liquid fraction (press fluid, PF) for the production of electric and thermal energy after anaerobic digestion to biogas and a solid fraction (press cake, PC) for the production of thermal energy through combustion. This study was undertaken to explore mass and energy flows as well as quality aspects of energy carriers within the IFBB process and determine their dependency on biomass-related and technical parameters. Two experiments were conducted, in which biomass from semi-natural grassland was conserved as silage and subjected to a hydrothermal conditioning and a subsequent mechanical dehydration with a screw press. Methane yield of the PF and the untreated silage was determined in anaerobic digestion experiments in batch fermenters at 37°C with a fermentation time of 13-15 and 27-35 days for the PF and the silage, respectively. Concentrations of dry matter (DM), ash, crude protein (CP), crude fibre (CF), ether extract (EE), neutral detergent fibre (NDF), acid detergent fibre (ADF), acid detergent ligning (ADL) and elements (K, Mg, Ca, Cl, N, S, P, C, H, N) were determined in the untreated biomass and the PC. Higher heating value (HHV) and ash softening temperature (AST) were calculated based on elemental concentration. Chemical composition of the PF and mass flows of all plant compounds into the PF were calculated. In the first experiment, biomass from five different semi-natural grassland swards (Arrhenaterion I and II, Caricion fuscae, Filipendulion ulmariae, Polygono-Trisetion) was harvested at one late sampling (19 July or 31 August) and ensiled. Each silage was subjected to three different temperature treatments (5°C, 60°C, 80°C) during hydrothermal conditioning. Based on observed methane yields and HHV as energy output parameters as well as literature-based and observed energy input parameters, energy and green house gas (GHG) balances were calculated for IFBB and two reference conversion processes, whole-crop digestion of untreated silage (WCD) and combustion of hay (CH). In the second experiment, biomass from one single semi-natural grassland sward (Arrhenaterion) was harvested at eight consecutive dates (27/04, 02/05, 09/05, 16/05, 24/05, 31/05, 11/06, 21/06) and ensiled. Each silage was subjected to six different treatments (no hydrothermal conditioning and hydrothermal conditioning at 10°C, 30°C, 50°C, 70°C, 90°C). Energy balance was calculated for IFBB and WCD. Multiple regression models were developed to predict mass flows, concentrations of elements in the PC, concentration of organic compounds in the PF and energy conversion efficiency of the IFBB process from temperature of hydrothermal conditioning as well as NDF and DM concentration in the silage. Results showed a relative reduction of ash and all elements detrimental for combustion in the PC compared to the untreated biomass of 20-90%. Reduction was highest for K and Cl and lowest for N. HHV of PC and untreated biomass were in a comparable range (17.8-19.5 MJ kg-1 DM), but AST of PC was higher (1156-1254°C). Methane yields of PF were higher compared to those of WCD when the biomass was harvested late (end of May and later) and in a comparable range when the biomass was harvested early and ranged from 332 to 458 LN kg-1 VS. Regarding energy and GHG balances, IFBB, with a net energy yield of 11.9-14.1 MWh ha-1, a conversion efficiency of 0.43-0.51, and GHG mitigation of 3.6-4.4 t CO2eq ha-1, performed better than WCD, but worse than CH. WCD produces thermal and electric energy with low efficiency, CH produces only thermal energy with a low quality solid fuel with high efficiency, IFBB produces thermal and electric energy with a solid fuel of high quality with medium efficiency. Regression models were able to predict target parameters with high accuracy (R2=0.70-0.99). The influence of increasing temperature of hydrothermal conditioning was an increase of mass flows, a decrease of element concentrations in the PC and a differing effect on energy conversion efficiency. The influence of increasing NDF concentration of the silage was a differing effect on mass flows, a decrease of element concentrations in the PC and an increase of energy conversion efficiency. The influence of increasing DM concentration of the silage was a decrease of mass flows, an increase of element concentrations in the PC and an increase of energy conversion efficiency. Based on the models an optimised IFBB process would be obtained with a medium temperature of hydrothermal conditioning (50°C), high NDF concentrations in the silage and medium DM concentrations of the silage.
Resumo:
In dieser Arbeit werden die sich abzeichnenden zukünftigen Möglichkeiten, Stärken und Schwächen der Kraft-Wärme-Kopplung (KWK) untersucht. Dies geschieht vor dem Hintergrund des Klimawandels, der Integration steigender Anteile Erneuerbarer Energien in die Stromerzeugung und unter Berücksichtigung der sich damit ergebenden Herausforderungen, eine sichere und nachhaltige Stromversorgung zu gestalten. Der Fokus liegt auf der Dieselmotor-KWK und der Nutzung nachwachsender Kraftstoffe. Es wird davon ausgegangen, dass der Übergang zu einer reinen Stromerzeugung aus Erneuerbaren Energiequellen in Deutschland unter erheblicher Einbindung des hohen Potentials der kostengünstigen, umweltfreundlichen, aber in der Leistung extrem fluktuierenden Windenergie erfolgen wird. Als dezentrales Integrationswerkzeug wurde die Kraft-Wärme-Kopplung mit Dieselmotoren untersucht. Sie entspricht aufgrund ihrer großen Flexibilität und ihrer hohen Wirkungsgrade mit vergleichsweise kleinen Leistungen sehr gut den Anforderungen der gleichzeitigen dezentralen Wärmenutzung. In der Dissertation werden die Randbedingungen der Dieselmotor-KWK untersucht und beschrieben. Darauf aufbauend werden unterschiedliche Modelle der Windintegration durch KWK erarbeitet und in diversen Variationen wird der Ausgleich der Stromerzeugung aus Windenergie durch KWK simuliert. Darüber hinaus werden dezentrale KWK-Anlagen hinsichtlich eines koordinierten gemeinsamen Betriebs und hinsichtlich der optimalen Auslegung für den Windenergieausgleich betrachtet. Es wird für den beschriebenen Kontext der Erneuerbaren Energien und der Kraft-Wärme-Kopplung das Thema „Umweltwirkungen“ diskutiert. Es wird dargelegt, dass die heute verwendeten Ansätze zur Bewertung der KWK zu einer Verzerrung der Ergebnisse führen. Demgegenüber wurde mit der so genannten Outputmethode eine Methode der Ökobilanzierung vorgestellt, die, im Gegensatz zu den anderen Methoden, keine verzerrenden Annahmen in die Wirkungsabschätzung aufnimmt und somit eine eindeutige und rein wissenschaftliche Auswertung bleibt. Hiermit ist die Grundlage für die Bewertung der unterschiedlichen Technologien und Szenarien sowie für die Einordnung der KWK in den Kontext der Energieerzeugung gegeben. Mit der Outputmethode wird u.a. rechnerisch bewiesen, dass die gekoppelte Strom- und Wärmeerzeugung in KWK-Anlagen tatsächlich die optimale Nutzung der regenerativen Kraftstoffe „Biogas“ und „Pflanzenöl“ im Hinblick auf Ressourceneinsatz, Treibhausgaseinsparung und Exergieerzeugung ist. Es wurde darüber hinaus die Frage untersucht woher die für die Stromerzeugung durch Dieselmotor-KWK-Anlagen notwendige Bioenergie genommen werden kann. Es ist erwiesen, dass die in Deutschland nutzbare landwirtschaftliche Fläche nur zur Deckung eines Teils der Stromerzeugung ausreichen würde. Einheimisches Biogas und nachhaltiges importiertes Pflanzenöl, das in hohem Maße auf degradierten Böden angebaut werden sollte, können die notwendige Brennstoffenergie liefern. Um im Ausland ausreichend Pflanzenöl herstellen zu können, wird eine landwirtschaftliche Fläche von 6 bis 12 Mio. ha benötigt. Das Ergebnis ist, dass ein voller Ausgleich von Windenergie-Restlast durch KWK mit Erneuerbaren Energieträgern sinnvoll und machbar ist! Dieses Wind-KWK-DSM-System sollte durch ein Stromnetz ergänzt sein, das Wasserkraftstrom für den Großteil der Regelenergieaufgaben nutzt, und das den großräumigen Ausgleich Erneuerbarer Energien in Europa und den Nachbarregionen ermöglicht.
Resumo:
In dieser Arbeit wurde das Adsorptionsverhalten zweier azobenzolfunktionalisierter Liganden auf Goldoberflächen untersucht. Diese Liganden zeichnen sich dadurch aus, dass sie mithilfe von Licht bestimmter Wellenlängen zwischen zwei Isomerisierungszuständen – sowohl in Lösung als auch in den auf der Oberfläche resultierenden Monolage – hin und her geschaltet werden können. Somit ist es möglich, Oberflächen herzustellen, deren physikalische und chemische Eigenschaften zwischen zwei Zuständen variiert werden können. Die Messungen des Adsorptionsverhaltens wurden mittels optischer Frequenzverdopplung durchgeführt. Diese Messmethode ist höchst grenzflächensensitiv und ermöglicht es somit die Adsorption der Liganden in situ und ich Echtzeit zu verfolgen. Neben den Adsorptionsmessungen wurde auch die Phase des frequenzverdoppelten Signals über eine Interferenzmethode gemessen. Die Ergebnisse dieser Phasenmessungen ermöglichen es, eine Aussage über eine mögliche Nichtlinearität der untersuchten Moleküle zu treffen. An die in den Adsorptionsmessungen gewonnenen Messdaten wurden drei kinetische Standardmodelle angepasst. Beschreibt eines dieser Modelle den im Experiment bestimmten Adsorptionsverlauf, kann eine Aussage über die zugrunde liegenden Prozesse des Adsorptionsvorganges getroffen werden. Die Ergebnisse der Adsorptionsmessungen zeigen einen deutlichen Einfluss des Isomerisierungszustandes der Liganden auf den Verlauf der Adsorption. Liegen die Moleküle im geschalteten Zustand vor, so verläuft die Adsorption langsamer. Weiterhin konnte gezeigt werden, dass ebenso intermolekulare Wechselwirkungen über Wasserstoffbrückenbindungen einen verlangsamenden Einfluss auf die Adsorption der Liganden haben. In den durchgeführten Phasenmessungen zeigte sich darüber hinaus, dass Liganden, die über an die Azobenzolgruppe angebundene Amidgruppen verfügen, eine Nichtlinearität aufweisen. Diese Nichtlinearität ist zudem vom Isomerisierungszustand der Liganden abhängig. In den kinetischen Untersuchungen konnte darüber hinaus gezeigt werden, dass sich die Adsorption der Liganden bis auf eine Ausnahme durch die Langmuirkinetik 2. Ordnung beschreiben lässt. Somit handelt es ich bei der Adsorption der untersuchten Liganden um eine Reaktion, der eine Bindungsspaltung voran geht. Dieser Befund konnte durch Vergleich mit weiteren Experimenten bestätigt werden.
Resumo:
In der vorliegenden Arbeit wird nach Wegen zur Steigerung der Effektivität von Implementationsprozessen umfassender IT-Anwendungen in großen Kommunalverwaltungen gesucht, da nach vorliegenden Schätzungen allenfalls 10 % der großen IT-Projekte der öffentlichen Verwaltungen zielkonform und erfolgreich umgesetzt werden. Analysen zeigen, dass die in solchen Prozessen auftretenden Interdependenzen von Technologie, Organisation und Mensch oft nicht angemessen berücksichtigt wurden. Die zentrale Fragestellung der vorliegenden Untersuchung lautet daher, ob ein IT-Labor mit einer vorgelagerten ablauforganisatorischen Prozessoptimierung im Sinne eines funktionalen Wirksamkeitstests mit einer ganzheitlichen Betrachtung von technologischen, organisatorischen und sozial-humanen Wirkungsfaktoren bei intensiver Einbeziehung von eigenem Personal der Anwendungsorganisation den Implementierungserfolg größerer IT-Vorhaben erhöhen kann. Als methodischer Ansatz wurde eine Fallstudie gewählt (Implementierung von eAkten und SOA). Der Implementierungsverlauf ist methodisch in eine vorgelagerte ablauforganisatorische Prozessoptimierung und in eine nachgelagerte informationstechnologische Umsetzungsphase (sog. IT-Labor) gegliedert. Die Fallstudie legt den Schluss nahe, dass ein IT-Labor mit einer vorgelagerten ablauforganisatorischen Prozessanalyse zum Erfolg der Implementation wesentlich beitragen kann. Zudem zeigte sich, dass eine serviceorientierte Architektur zur prozessorientierten ganzheitlichen technologischen Systemgestaltung die Integration vorhandener IT-Anwendungen fördern kann. Die beschriebene IT-Laborstrategie kann im Ergebnis als ein erprobter Weg zur erfolgreichen Implementierung komplexer IT-Vorhaben empfohlen werden. Aufgrund der Analyse können einige kritische Erfolgsfaktoren für einen späteren Produktivbetrieb identifiziert werden: - Eigene Personalressourcen mit den zugehörigen Lernprozessen sind unverzichtbar, - In diesem Kontext sind auch die zugehörigen organisatorischen und technologischen Voraussetzungen zu schaffen, - Eventuell auftretende Qualifikationsdefizite der Anwender können in Zusammenarbeit mit externen Unternehmen und IT-Dienstleistern im Verbund mit den eigenen Projektmitgliedern zeitnah kompensiert werden. Die angewandte Implementierungs-Methodik ist auf solche Fälle übertragbar, in denen eine Gebietskörperschaft ab der Aufgabenstruktur einer großen kreisfreien Stadt mit heterogenen und dezentralen IT- und Organisationsstrukturen unterschiedliche Fachverfahren in einem komplexen Verwaltungssystem ganzheitlich und prozessorientiert zusammenführen möchte. Grenzen können sich somit aus der Größe einer Gebietskörperschaft, dem konkreten Aufgabenprofil sowie der finanziellen Leistungsfähigkeit ergeben. Eine Transferfähigkeit unter sozialen Gesichtspunkten setzt voraus, dass neben externem Personal qualifiziertes internes Personal mit Fachwissen und Querschnitts-Know-How bereitgestellt wird. Räumlich und zeitlich setzt die Verallgemeinerungsfähigkeit eine analoge politische und administrative Struktur mit einem entsprechenden Entwicklungsstand voraus. Mit den Ergebnissen der vorliegenden Untersuchung können Behördenleiter, IT-Verantwortliche und Beratungsunternehmen künftig in vergleichbaren Fällen eine effektivere Implementierungsmethode wählen. In der weiteren verwaltungswissenschaftlichen Forschung auf diesem Gebiet können auf der Basis der vorgenommenen Untersuchung konkrete Erfahrungen zur IT-Implementierung erhoben und bewertet werden, um weitere Effektivitätsreserven zu identifizieren.
Resumo:
In der vorliegenden Arbeit wird untersucht, ob die Effektivität behördlichen Handelns durch organisationales Lernen gesteigert werden kann und welches Potential dem Organisationslernen für die Verwaltungspraxis innewohnt. Das Organisationslernen wird durch die Erhebung des Vorkommens einzelner Methoden des verwaltungspraktischen Handelns erfasst. Zur quantitativen Erfassung der Effektivität der behördlichen Tätigkeit ist eine behördenspezifische Operationalisierung erforderlich. Für die Untersuchung werden die zur Durchführung des SGB II gebildeten Abteilungen der gegenwärtig 63 Optionskreise ausgewählt. Diese betreiben seit 2005 die bis dahin getrennten Hilfesysteme von Arbeitslosen- und Sozialhilfe zusammengefasst als Grundsicherung für Arbeitsuchende in eigener Zuständigkeit (neben den alternativen Organisationsformen der Arbeitsgemeinschaft und der getrennten Aufgabenträgerschaft). Zur Operationalisierung des behördlichen Handlungsergebnisses der Optionskreise wird die Zahl der Bedarfsgemeinschaften gewählt. Es kann folglich die Hypothese formuliert werden, dass umfangreiches Organisationslernen zu einer beschleunigten Reduzierung der Zahl der Bedarfsgemeinschaften führt. Zur Prüfung dieser Hypothese wurde Anfang 2009 eine schriftliche Vollerhebung bei den 63 Optionskreisen durchgeführt. Die Rücklaufquote der Erhebungsbögen betrug 59%. Der Nutzungsgrad der in der Erhebung berücksichtigten Methoden liegt zwischen 85% (Benchmarking) und 4% (Qualitätsmanagement). Die Erhebungsergebnisse werden bepunktet, um den Nutzungsgrad des Organisationslernens zu operationalisieren. Von den erzielbaren 20 Punkten je Optionskreis werden maximal 12 erreicht (Median: 9 Punkte; geringster Wert: 2 Punkte). Im definierten Zeitraum betrug der Median der Entwicklung der Zahl der Bedarfsgemeinschaften bei den an der Erhebung teilnehmenden Optionskreisen – 16,5% (günstigster Wert: – 27,4%; ungünstigster Wert: +0,4 %). Die Anwendung eines Rangkorrelationskoeffizienten offenbart, dass die Rangfolgen „Grad des Organisationslernens“ und „Entwicklung der Zahl der Bedarfsgemeinschaften“ nicht korrelieren. Insoweit kann die Untersuchungsfrage, ob die Effektivität behördlichen Handelns durch die Nutzung des Organisationslernens gesteigert werden kann, noch nicht abschließend beantwortet werden. Eine Analyse des Ergebnisses zeigt allerdings, dass es trotz der nicht korrelierenden Rangfolgen bestimmte Methoden des Organisationslernens gibt, die mit einer überdurchschnittlich hohen Effektivität in Bezug auf die Entwicklung der Zahl der Bedarfsgemeinschaften einhergehen. Zu dem nach dem Ergebnis der Untersuchung empfehlenswerten Methodenset gehören beispielsweise die Implementierung von Controlling- und Berichtspflichten gegenüber der Gesamtverwaltungsleitung, der Einsatz von Monitoringsystemen und die Gewährleistung einer organisationalen Grundstabilität. Darüber hinaus wird erkennbar, dass die Konkurrenzsituation zwischen Optionskommunen, Arbeitsgemeinschaften und getrennten Aufgabenträgerschaften zu einer insgesamt steigenden Effektivität des behördlichen Handelns führt. Hieraus lassen sich Ansatzpunkte für die Theoriebildung und Modellierung eines „Lizenz-Modells“ zur Erhöhung der Effektivität anderer behördlicher Leistungen entwickeln.
Resumo:
Wissenschaftsmethodische Kompetenzen sind ein Kernelement naturwissenschaftlicher Bildung und in den Bildungsstandards als Kompetenzbereich Erkenntnisgewinnung verbindlich festgeschrieben. Fokus aktueller naturwissenschaftsdidaktischer Forschung ist es, für diese normativen Standards theorie- und evidenzbasierte Kompetenzmodelle zu erarbeiten. In der vorliegenden Dissertation wird zum Kompetenzbereich Erkenntnisgewinnung für den Teilbereich der wissenschaftlichen Erkenntnismethoden geprüft, ob sich die im Kompetenzmodell wissenschaftlichen Denkens von Mayer (2007) angenommenen Teilkompetenzen Fragestellung formulieren, Hypothesen generieren, Planung einer Untersuchung sowie Deutung der Ergebnisse empirisch bestätigen lassen. Zudem wird quer- und längsschnittlich untersucht, wie sich die Kompetenz innerhalb der Sekundarstufe I entwickelt, welche Rolle Personenmerkmale spielen und ob die Unterrichtsgestaltung im Projekt Biologie im Kontext, in dessen Rahmen die Untersuchung stattfand, einen kompetenzfördernden Einfluss auf die Lernenden hat. Als Instrument wurde ein Kompetenztest mit offenen Aufgaben im Multimatrix-Design zum Thema Experimentieren im Biologieunterricht entwickelt und in Gymnasien, Realschulen und Hauptschulen in Hessen und Bayern in den Jahrgangsstufen 5-10 eingesetzt. Die Schülerantworten wurden anhand fünf a priori entwickelter Niveaustufen bewertet und mit der Item-Response-Theorie ausgewertet. Auf Basis einer Validierungsstudie (N= 1562) wurden mittels 24 Items die Schülerkompetenzen in querschnittlichen Analysen (N= 1553) sowie in einem Längsschnitt über ein Schuljahr (N= 1129) untersucht. Die Modellprüfung weist dem vierdimensionalen Modell eine bessere Passung zu als dem eindimensionalen Modell. Schwache bis mittlere Interkorrelationen und eine nachgeschaltete Faktorenanalyse lassen ebenfalls darauf schließen, dass dem vierdimensionalen Modell mit den postulierten Teilkompetenzen Fragestellung, Hypothese, Planung und Deutung gegenüber dem eindimensionalen Modell der Vorzug zu geben ist. Die querschnittlichen Analysen zeigen, dass zwischen den Jahrgangsstufen 5 6, 7 8 und 9 10 signifikante Leistungsunterschiede in der Gesamtkompetenz und den Teilkompetenzen bestehen. Dabei nehmen die zwischen den Teilkompetenzen festgestellten Leistungsunterschiede mit der Jahrgangsstufe zu. Die längsschnittlichen Analysen belegen Leistungszuwächse der Lernenden über ein Schuljahr: Die Kompetenz steigt hier in der Gesamtstichprobe und innerhalb der einzelnen Jahrgangsstufen der Sekundarstufe I signifikant an. Vergleicht man die verschiedenen Jahrgangsstufen in ihrem Kompetenzzuwachs über ein Schuljahr, so zeigt sich, dass der Kompetenzzuwachs in den Jahrgängen 5 8 stärker ausgeprägt ist als in den Jahrgängen 9 10. Auf Ebene der Teilkompetenzen liegt für die Gesamtstichprobe ein Kompetenzzuwachs über ein Schuljahr in den Teilkompetenzen Fragestellung, Hypothese und Planung vor, während in der Teilkompetenz Deutung ein geringer Kompetenzrückgang zu verzeichnen ist. Der Kompetenzgrad hängt mit der besuchten Schulform zusammen. Dabei zeigen Gymnasiasten querschnittlich untersucht bessere Leistungen als Realschüler oder Hauptschüler, wobei die Unterschiede zur Hauptschule besonders deutlich ausfallen. Kompetenzzuwächse über ein Schuljahr zeigen sich ausschließlich in Gymnasium und Realschule. Das Alter hat weder quer- noch längsschnittlich untersucht eigene Effekte auf die Kompetenzentwicklung, ebenso wenig wie das Geschlecht der Probanden. Der Einfluss der Biologienote ist im querschnittlichen Vergleich gering, im längsschnittlichen Vergleich nicht nachweisbar. Lernende, die am Projekt Biologie im Kontext teilnahmen, in dem Unterrichtsbausteine zur Erkenntnisgewinnung eingesetzt wurden, und deren Lehrkräfte verstärkt kompetenzorientiert unterrichteten, zeigen in den Klassen 9 10 größere Kompetenzzuwächse über ein Jahr als Probanden aus entsprechenden Kontrollklassen. Die Untersuchung zeigt, dass wissenschaftsmethodische Kompetenzen in der Sekundarstufe I vermittelt und weiterentwickelt werden. Der Befund der diskontinuierlichen Kompetenzentwicklung und der mit den Schuljahren zunehmenden Leistungsunterschiede zwischen den Teilkompetenzen führt als didaktische Implikation zu dem Schluss, dass weitere Maßnahmen zur Förderung wissenschaftsmethodischer Kompetenzen notwendig sind, um einen kumulativen Kompetenzaufbau gewährleisten zu können.
Resumo:
Sei $N/K$ eine galoissche Zahlkörpererweiterung mit Galoisgruppe $G$, so dass es in $N$ eine Stelle mit voller Zerlegungsgruppe gibt. Die vorliegende Arbeit beschäftigt sich mit Algorithmen, die für das gegebene Fallbeispiel $N/K$, die äquivariante Tamagawazahlvermutung von Burns und Flach für das Paar $(h^0(Spec(N), \mathbb{Z}[G]))$ (numerisch) verifizieren. Grob gesprochen stellt die äquivariante Tamagawazahlvermutung (im Folgenden ETNC) in diesem Spezialfall einen Zusammenhang her zwischen Werten von Artinschen $L$-Reihen zu den absolut irreduziblen Charakteren von $G$ und einer Eulercharakteristik, die man in diesem Fall mit Hilfe einer sogenannten Tatesequenz konstruieren kann. Unter den Voraussetzungen 1. es gibt eine Stelle $v$ von $N$ mit voller Zerlegungsgruppe, 2. jeder irreduzible Charakter $\chi$ von $G$ erfüllt eine der folgenden Bedingungen 2a) $\chi$ ist abelsch, 2b) $\chi(G) \subset \mathbb{Q}$ und $\chi$ ist eine ganzzahlige Linearkombination von induzierten trivialen Charakteren; wird ein Algorithmus entwickelt, der ETNC für jedes Fallbeispiel $N/\mathbb{Q}$ vollständig beweist. Voraussetzung 1. erlaubt es eine Idee von Chinburg ([Chi89]) umzusetzen zur algorithmischen Berechnung von Tatesequenzen. Dabei war es u.a. auch notwendig lokale Fundamentalklassen zu berechnen. Im höchsten zahm verzweigten Fall haben wir hierfür einen Algorithmus entwickelt, der ebenfalls auf den Ideen von Chinburg ([Chi85]) beruht, die auf Arbeiten von Serre [Ser] zurück gehen. Für nicht zahm verzweigte Erweiterungen benutzen wir den von Debeerst ([Deb11]) entwickelten Algorithmus, der ebenfalls auf Serre's Arbeiten beruht. Voraussetzung 2. wird benötigt, um Quotienten aus den $L$-Werten und Regulatoren exakt zu berechnen. Dies gelingt, da wir im Fall von abelschen Charakteren auf die Theorie der zyklotomischen Einheiten zurückgreifen können und im Fall (b) auf die analytische Klassenzahlformel von Zwischenkörpern. Ohne die Voraussetzung 2. liefern die Algorithmen für jedes Fallbeispiel $N/K$ immer noch eine numerische Verifikation bis auf Rechengenauigkeit. Den Algorithmus zur numerischen Verifikation haben wir für $A_4$-Erweiterungen über $\mathbb{Q}$ in das Computeralgebrasystem MAGMA implementiert und für 27 Erweiterungen die äquivariante Tamagawazahlvermutung numerisch verifiziert.