15 resultados para mittlere Spielzeit

em Universitätsbibliothek Kassel, Universität Kassel, Germany


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Seit gut zehn Jahren erlebt die Windenergienutzung in Deutschland einen in der Mitte der 80er Jahre nicht für möglich gehaltenen Aufschwung. Anlagenanzahl und installierte Leistung haben in diesem Zeitraum mit durchschnittlichen jährlichen Wachstumsraten von mehr als 30 Prozent zugenommen, die mittlere installierte Leistung pro neu errichteter Anlage stieg dabei um das Zehnfache und die technische Verfügbarkeit der Anlagen liegt mittlerweile bei über 98 Prozent. Mit größer werdenden Anlagen zeigt sich weiterhin ein klarer Trend zu Blattwinkel verstellbaren Konzepten, mit zunehmend drehzahlvariabler Betriebsweise. Vor dem von Vielen für die kommenden drei bis sechs Jahre prognostizierten Einstieg in die großtechnische Offshore- Windenergienutzung mit den damit verbundenen immensen technologischen und strukturellen Herausforderungen erscheint es sinnvoll, einen kritischen Blick zurückzuwerfen auf die 90er Jahre mit den ihnen zugrunde liegenden förderpolitischen Rahmenbedingungen. Dabei soll die Frage beantwortet werden, welchen konkreten Einfluss die staatlichen Forschungs- und Förderprogramme, besonders das "250 MW Wind"-Programm, auf die Entwicklung der Windenergienutzung hatten, das heißt, unter welchen Bedingungen sich bestimmte Techniklinien durchsetzten, wie der Einfluss eines geschützten Marktes durch gesetzlich garantierte Einspeisetarife auf diese Entwicklung zu bewerten ist und schließlich, welche Fehlentwicklungen möglicher Weise eingetreten sind. Dazu wird mit Hilfe von Lernkurven gezeigt, welche Kostenreduktionen insgesamt erzielt wurden, wie hoch die dazu notwendigen staatlichen Finanzmittel waren und welche Schlussfolgerungen daraus für die Zukunft abgeleitet werden können. Die Arbeit soll insgesamt dazu beitragen, die erreichten technischen Entwicklungsschritte vor dem Hintergrund der förderpolitischen Gegebenheiten besser zu verstehen, Chancen für gezielte Änderungen in der Förderpraxis zu ergreifen und Hinweise auf die Ausgestaltung von zukünftigen Forschungsprogrammen und Entwicklungsschwerpunkten im Bereich der Windenergie zu geben, um weitere Kostensenkungspotenziale auszuschöpfen. Dabei wird sich die zukünftige Schwerpunktsetzung in der programmatischen Ausrichtung der Forschung stärker auf die drei wichtigsten Anwendungsfelder für Windenergieanlagen konzentrieren müssen, die großtechnische Offshore- Anwendung, die netzgebundene, dezentrale Energieversorgung sowie auf Windenergieanlagen zur ländlichen Elektrifizierung in autonomen Versorgungssystemen für Schwellen- und Entwicklungsländer.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mobile genetische Elementen wie Transposons wurden in unbelasteten Böden nachgewiesen. Hierzu wurden unterschiedliche Ansätze gewählt: Verschiedene, unbelastete Böden wurden mittels PCR auf das Vorhandensein von Markergenen, in diesem Fall Transposasen vom Typ Tn3, Tn21 und Tn501, hin untersucht. Hierzu wurde ein System entwickelt, welches es ermöglichte die Gesamt-DNA aus verschiedensten Böden mit einem System einfach und reproduzierbar zu extrahieren und anschließend mittels PCR zu untersuchen. Die mittlere Nachweisgrenze dieses Systems lag bei 9 x 10 *3 Templates / g Boden. Ein paralleler Ansatz erfolgte, indem aus den gleichen, unbelasteten Böden Bakterien mittels Selektivmedien isoliert wurden. Diese Isolate wurden anschließend auf genetische Marker hin untersucht. Transposons, bzw. Transposasen konnten in den unbelasteten Böden in weitaus geringerer Zahl als aus belasteten Böden bekannt nachgewiesen werden. Jedoch verhielten sich die unterschiedlichen Elemente in der Verteilung wie aus belasteten Böden bekannt. Am häufigsten wurde Tn21 dann Tn501 nachgewiesen. Tn3, nach dem auch gescreent wurde, konnte nicht nachgewiesen werden. Anschließend wurden diese Böden mittels Bodensäulen unter Laborbedingungen auf die Übertragung von potentiell transponierbaren Elementen aus der autochthonen Flora hin untersucht. Mittels dieses Experimentes konnte kein transponierbares Element nachgewiesen werden. Weiterhin wurden vorhandene Boden-Bakterienkollektive auf das Vorhandensein von Transposons mittels Gensondentechnik und PCR auf Transposasen hin gescreent. Auch hier konnten wiederum Signale zu Tn21, Tn501 und in diesem Falle auch Tn3 erhalten werden. Einige dieser Isolate wurden mittels Southern-Blot und Sequenzierung näher charakterisiert. Bei den Sequenzvergleichen einer so erhaltenen 2257 bp langen Sequenz wurde diese als Transposase der Tn21-Familie mit großer Homologie zur Transposase von Tn5060 bestimmt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Kindliches Stottern ist eine Störung des Sprechablaufs mit unbekannter Ätiologie, die im Verlauf der Sprachentwicklung beginnt und bei ungefähr 5% aller Kinder auftritt. Im deutschsprachigen Raum gibt es zum jetzigen Zeitpunkt kein Therapieverfahren zur Behandlung kindlichen Stotterns, dessen Therapie-Effekte empirisch gesichert sind. Darüber hinaus wurden bisher kaum Forschungsprojekte zum Stottern im Kindesalter durchgeführt. Ziel dieses von Juni 2003 bis Mai 2005 an der Universitätsklinik Frankfurt durchgeführten Projektes war es, die Wirksamkeit eines bisher in Deutschland noch nicht eingeführten Therapieverfahrens zur Behandlung von stotternden Vorschulkindern, das sog. Lidcombe Programm (Onslow, Packman & Harrison, 2003) zu untersuchen. In dem vorliegenden Projekt wurde untersucht, inwieweit die sofortigen Veränderungen der Sprechflüssigkeit während der Behandlung mit dem Lidcombe Programm primär auf diese Methode oder auf den Einfluss von Spontanremission zurückzuführen ist. Die übergeordnete Zielsetzung der Studie war die Schaffung einer Datengrundlage über die Effektivität des Lidcombe-Programms bei der Behandlung deutschsprachiger Vorschulkinder. Es wurden insgesamt 46 Vorschulkinder, welche nachfolgende Kriterien erfüllten, untersucht: (1) Alter zwischen 3,0 und 5,11 Jahren; (2) Deutsch als Muttersprache sowohl für das Kind als auch für die Eltern; (3) Beginn der Stottersymptomatik vor mindestens sechs Monaten; (4) Stottersymptomatik von mindestens 3% gestotterter Silben während einer Unterhaltung mit dem Untersucher und/oder den Eltern in der Klinik im Rahmen der Erstdiagnostik; (5) keine neurologischen Erkrankungen oder regelmäßige Einnahme von Medikamenten. Die Teilnehmer wurden randomisiert in zwei Gruppen eingeteilt. Die Kinder der Gruppe 1 begannen sofort mit der Behandlung mit dem Lidcombe-Programm. Die Kinder der Gruppe 2 warteten sechzehn Wochen und begannen dann mit der Behandlung. Für jedes Kind wurde der mittlere Prozentsatz gestotterter Silben zu Beginn jeder Behandlungsstunde im Gespräch mit der Therapeutin ermittelt, und darüber hinaus vor Beginn der Behandlung und nach sechzehn Therapiestunden auf Grund von jeweils vier zu Hause und in der Klinik aufgenommenen Spontansprachproben. Die Ergebnisse der vorliegenden Studie haben gezeigt, dass das Lidcombe-Programm auch für deutschsprachige Kinder ein effektives Therapiekonzept zur Reduktion einer Stottersymptomatik darstellt. Alle Vorschulkinder, die mit dem Lidcombe-Programm behandelt wurden, zeigten eine Abnahme des Prozentsatzes gestotterter Silben. Die Daten belegen ebenfalls, dass der Kurzzeit-Effekt des Lidcombe-Programms auf frühkindliches Stotterns den einer spontanen Remission überwiegt. Die behandelten Kinder zeigten eine signifikant höhere Abnahme ihrer Stottersymptomatik (M = 6,9%) als dies in der unbehandelten Kontrollgruppe (M = 2,5%) beobachtet werden konnte. Zwar sank auch in der Kontrollgruppe der Prozentsatz gestotterter Silben während des Untersuchungszeitraumes bei einigen Kindern, im Vergleich verringerte sich jedoch der Prozentsatz gestotterter Silben in der Therapiegruppe um mehr als das Doppelte. Diese ersten Daten weisen darauf hin, dass das Lidcombe-Programm für die deutschsprachige Therapie des kindlichen Stotterns eine ausgezeichnete Bereicherung darstellt und zu einer sinnvollen Ergänzung der therapeutischen Handlungskompetenz im Bereich der Redeflussstörungen führt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mit ansteigenden Jahresmilchleistungen werden die Kühe einer hohen metabolischen Belastung ausgesetzt, die bei einer suboptimalen Gestaltung der Lebensbedingungen mit einer Erhöhung der Inzidenzrate von Faktorenkrankheiten einhergehen kann. Im Vordergrund der Untersuchungen stand die Frage, inwieweit metabolische Belastungszustände von Milchkühen in der Phase des Puerperiums und in Abhängigkeit von der Milchleistung sowie Belastungen durch eine klinische Erkrankung zu Beginn der Laktation mit Hilfe von Parametern der immunologischen Abwehr und der Reaktion des Immunsystems auf eine Challenge dargestellt werden können. In die Untersuchung wurden insgesamt 68 klinisch gesunde sowie 20 klinisch erkrankte Milchkühe der Rasse Holstein Friesian einbezogen. Die Untersuchungen erfolgten in den Zeiträumen 10-21 Tage sowie 14-15 Wochen nach der Kalbung. Dazu wurden an jeweils drei Untersuchungstagen (Tag 0, 2, 7) Blutproben aus der Vena jugularis entnommen. Zur Stimulierung des unspezifischen Immunsystems wurde in beiden Versuchszeiträumen an den Untersuchungstagen 0 und 2 der Paramunitätsinducer Zylexis® appliziert. Ferner wurde den Kühen zu Beginn der Laktation der Tollwutimpfstoff Rabisin® verabreicht. Für die Auswertung wurden die untersuchten Milchkühe in Gruppen unterteilt. Die klinisch gesunden Kühe wurden anhand der nach Fett und Eiweiß korrigierten 305-Tage-Leistung in die Gruppe M = mittleres Leistungsniveau (Milchmengenleistung 6.500-8.990 kg) und die Gruppe H = hohes Leistungsniveau (Milchmengenleistung 9.000-12.500 kg) aufgeteilt. Die klinisch erkrankten Kühe wurden in der Gruppe K zusammengefasst. Zur Beurteilung der Immunabwehr wurden die Parameter Phagozytoseaktivität der isolierten Neutrophilen Granulozyten, die Vollblutbakterizidie, die Lymphozytenproliferation mit den Mitogenen ConA, PHA und PWM sowie die spezifische Antikörperbildung gegen Tollwut untersucht. Anhand der Parameter Phagozytoseaktivität, Vollblutbakterizidie und Lymphozytenproliferation wurde zusätzlich die Reaktion auf die Challenge mit dem Paramunitätsinducer Zylexis® überprüft. Zur Erfassung der metabolischen Belastungszustände wurden verschiedene Stoffwechselparameter und hämatologische Parameter erfasst. Zu Beginn der Laktation konnten bei den Kühen in der mittleren und hohen Leistungsgruppe signifikant höhere Konzentrationen an ß-Hydroxybuttersäure und Freien Fettsäuren im Vergleich zu der Laktationsmitte festgestellt werden. Die Kühe mit einem hohen Leistungsniveau zeigten darüber hinaus eine signifikant höhere Bilirubinkonzentration am Laktationsanfang gegenüber der Laktationsmitte. Die mittlere Konzentration der freien Fettsäuren lag bei den Kühen in beiden Leistungsgruppen oberhalb des Referenzbereiches und wies auf eine negative Energiebilanz zu Laktationsbeginn hin. Die mittleren Konzentrationen bzw. Enzymaktivitäten der Parameter Cholesterol, Harnstoff, AST, GLDH, γ-GT, Gesamtprotein, Kalzium und Phosphor wiesen in der Laktationsmitte signifikant höhere Werte als am Laktationsanfang auf. Dabei lagen die mittleren Enzymaktivitäten von AST und GLDH sowie die Konzentrationen von Harnstoff und Gesamtprotein in der Laktationsmitte oberhalb des Referenzbereiches. Die untersuchten Stoffwechselparameter wurden durch die Challenge mit einem Paramunitätsinducer nicht signifikant beeinflusst. Hinsichtlich der Immunparameter zeigten die Milchkühe mit einem mittleren Leistungsniveau in Abhängigkeit vom Laktationszeitpunkt zu Beginn der Laktation eine signifikant höhere Phagozytoseaktivität gegenüber der Laktationsmitte (p < 0,05). Die Gruppe mit einem hohen Leistungsniveau wies dagegen keine signifikanten Unterschiede in der Phagozytoseaktivität zwischen den beiden Untersuchungszeiträumen auf. Bei den Immunparametern Vollblutbakterizidie und Lymphozytenproliferation konnten bei den Kühen beider Gruppen keine signifikanten Unterschiede in Abhängigkeit vom Laktationszeitpunkt festgestellt werden. Im Hinblick auf die Milchleistung wiesen die Kühe in den beiden Leistungsgruppen am Untersuchungstag 0 weder zu Beginn noch in der Mitte der Laktation signifikante Unterschiede bezüglich der untersuchten Immunparameter auf. Nach der Challenge durch den Paramunitätsinducer reagierten einzig die Kühe mit einer mittleren Leistung zu Beginn der Laktation auf die Challenge mit einer signifikanten Reduzierung der mittleren Phagozytoseaktivität von Tag 0 zu Tag 2 (p < 0,05). Bei den weiteren untersuchten Immunparametern konnten weder bei den Kühen mit einer mittleren noch mit einer hohen Leistung eine signifikante Reaktion auf die Challenge nachgewiesen werden. Die klinisch erkrankten Kühe zeigten im Vergleich zu den klinisch gesunden Kühen keine unterschiedlichen Konzentrationen bzw. Aktivitäten der untersuchten Stoffwechselparameter. Auch konnten anhand der immunologischen Parameter und der Reaktion auf die Challenge keine Unterschiede zwischen den klinisch gesunden Kühen festgestellt werden. Die in der vorliegenden Untersuchung geprüften metabolischen Belastungen konnten weder anhand der Immunparameter noch durch die Reaktion der Immunparameter auf eine Challenge dargestellt werden. Es wird geschlussfolgert, dass das immunologische Reaktionsvermögen nicht geeignet ist, um als Indikator für Belastungszustände bei der Milchkuh herangezogen zu werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Soil organic matter (SOM) vitally impacts all soil functions and plays a key role in the global carbon (C) cycle. More than 70% of the terrestric C stocks that participate in the active C cycle are stored in the soil. Therefore, quantitative knowledge of the rates of C incorporation into SOM fractions of different residence time is crucial to understand and predict the sequestration and stabilization of soil organic carbon (SOC). Consequently, there is a need of fractionation procedures that are capable of isolating functionally SOM fractions, i.e. fractions that are defined by their stability. The literature generally refers to three main mechanisms of SOM stabilization: protection of SOM from decomposition by (i) its structural composition, i.e. recalcitrance, (ii) spatial inaccessibility and/or (iii) interaction with soil minerals and metal ions. One of the difficulties in developing fractionation procedures for the isolation of functional SOM fractions is the marked heterogeneity of the soil environment with its various stabilization mechanisms – often several mechanisms operating simultaneously – in soils and soil horizons of different texture and mineralogy. The overall objective of the present thesis was to evaluate present fractionation techniques and to get a better understanding of the factors of SOM sequestration and stabilization. The first part of this study is attended to the structural composition of SOM. Using 13C cross-polarization magic-angle spinning (CPMAS) nuclear magnetic resonance (NMR) spectroscopy, (i) the effect of land use on SOM composition was investigated and (ii) examined whether SOM composition contributes to the different stability of SOM in density and aggregate fractions. The second part of the present work deals with the mineral-associated SOM fraction. The aim was (iii) to evaluate the suitability of chemical fractionation procedures used in the literature for the isolation of stable SOM pools (stepwise hydrolysis, treatments using oxidizing agents like Na2S2O8, H2O2, and NaOCl as well as demineralization of the residue obtained by the NaOCl treatment using HF (NaOCl+HF)) by pool sizes, 13C and 14C data. Further, (iv) the isolated SOM fractions were compared to the inert organic matter (IOM) pool obtained for the investigated soils using the Rothamsted Carbon Model and isotope data in order to see whether the tested chemical fractionation methods produce SOM fractions capable to represent this pool. Besides chemical fractionation, (v) the suitability of thermal oxidation at different temperatures for obtaining stable SOC pools was evaluated. Finally, (vi) the short-term aggregate dynamics and the factors that impact macroaggregate formation and C stabilization were investigated by means of an incubation study using treatments with and without application of 15N labeled maize straw of different degradability (leaves and coarse roots). All treatments were conducted with and without the addition of fungicide. Two study sites with different soil properties and land managements were chosen for these investigations. The first one, located at Rotthalmünster, is a Stagnic Luvisol (silty loam) under different land use regimes. The Ah horizons of a spruce forest and continuous grassland and the Ap and E horizons of two plots with arable crops (continuous maize and wheat cropping) were examined. The soil of the second study site, located at Halle, is a Haplic Phaeozem (loamy sand) where the Ap horizons of two plots with arable crops (continuous maize and rye cropping) were investigated. Both study sites had a C3-/C4-vegetational change on the maize plot for the purpose of tracing the incorporation of the younger, maize-derived C into different SOM fractions and the calculation of apparent C turnover times of these. The Halle site is located near a train station and industrial areas, which caused a contamination with high amounts of fossil C. The investigation of aggregate and density fractions by 13C CPMAS NMR spectroscopy revealed that density fractionation isolated SOM fractions of different composition. The consumption of a considerable part (10–20%) of the easily available O-alkyl-C and the selective preservation of the more recalcitrant alkyl-C when passing from litter to the different particulate organic matter (POM) fractions suggest that density fractionation was able to isolate SOM fractions with different degrees of decomposition. The spectra of the aggregate fractions resembled those of the mineral-associated SOM fraction obtained by density fractionation and no considerable differences were observed between aggregate size classes. Comparison of plant litter, density and aggregate size fractions from soil under different land use showed that the type of land use markedly influenced the composition of SOM. While SOM of the acid forest soil was characterized by a large content (> 50%) of POM, which contained high amounts of spruce-litter derived alkyl-C, the organic matter in the biologically more active grassland and arable soils was dominated by mineral-associated SOM (> 95%). This SOM fraction comprised greater proportions of aryl- and carbonyl-C and is considered to contain a higher amount of microbially-derived organic substances. Land use can alter both, structure and stability of SOM fractions. All applied chemical treatments induced considerable SOC losses (> 70–95% of mineral-associated SOM) in the investigated soils. The proportion of residual C after chemical fractionation was largest in the arable Ap and E horizons and increased with decreasing C content in the initial SOC after stepwise hydrolysis as well as after the oxidative treatments with H2O2 and Na2S2O8. This can be expected for a functional stable pool of SOM, because it is assumed that the more easily available part of SOC is consumed first if C inputs decrease. All chemical treatments led to a preferential loss of the younger, maize-derived SOC, but this was most pronounced after the treatments with Na2S2O8 and H2O2. After all chemical fractionations, the mean 14C ages of SOC were higher than in the mineral-associated SOM fraction for both study sites and increased in the order: NaOCl < NaOCl+HF ≤ stepwise hydrolysis << H2O2 ≈ Na2S2O8. The results suggest that all treatments were capable of isolating a more stable SOM fraction, but the treatments with H2O2 and Na2S2O8 were the most efficient ones. However, none of the chemical fractionation methods was able to fit the IOM pool calculated using the Rothamsted Carbon Model and isotope data. In the evaluation of thermal oxidation for obtaining stable C fractions, SOC losses increased with temperature from 24–48% (200°C) to 100% (500°C). In the Halle maize Ap horizon, losses of the young, maize-derived C were considerably higher than losses of the older C3-derived C, leading to an increase in the apparent C turnover time from 220 years in mineral-associated SOC to 1158 years after thermal oxidation at 300°C. Most likely, the preferential loss of maize-derived C in the Halle soil was caused by the presence of the high amounts of fossil C mentioned above, which make up a relatively large thermally stable C3-C pool in this soil. This agrees with lower overall SOC losses for the Halle Ap horizon compared to the Rotthalmünster Ap horizon. In the Rotthalmünster soil only slightly more maize-derived than C3-derived SOC was removed by thermal oxidation. Apparent C turnover times increased slightly from 58 years in mineral-associated SOC to 77 years after thermal oxidation at 300°C in the Rotthalmünster Ap and from 151 to 247 years in the Rotthalmünster E horizon. This led to the conclusion that thermal oxidation of SOM was not capable of isolating SOM fractions of considerably higher stability. The incubation experiment showed that macroaggregates develop rapidly after the addition of easily available plant residues. Within the first four weeks of incubation, the maximum aggregation was reached in all treatments without addition of fungicide. The formation of water-stable macroaggregates was related to the size of the microbial biomass pool and its activity. Furthermore, fungi were found to be crucial for the development of soil macroaggregates as the formation of water-stable macroaggregates was significantly delayed in the fungicide treated soils. The C concentration in the obtained aggregate fractions decreased with decreasing aggregate size class, which is in line with the aggregate hierarchy postulated by several authors for soils with SOM as the major binding agent. Macroaggregation involved incorporation of large amounts maize-derived organic matter, but macroaggregates did not play the most important role in the stabilization of maize-derived SOM, because of their relatively low amount (less than 10% of the soil mass). Furthermore, the maize-derived organic matter was quickly incorporated into all aggregate size classes. The microaggregate fraction stored the largest quantities of maize-derived C and N – up to 70% of the residual maize-C and -N were stored in this fraction.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Drei Feldversuche auf zwei Standorten (DFH: 51°4, 9°4’, BEL: 52°2’, 8°08’) wurden in den Jahren 2002 bis 2004 durchgeführt, um den Einfluss der Vorfrucht, des Vorkeimens, der N- und K-Düngung und der Sorte auf Nährstoffverfügbarkeit, Gesamt- und sortierte Knollenerträge sowie die Qualität von Kartoffeln und deren Eignung für die industrielle Verarbeitung zu Pommes frites und Chips zu untersuchen. Bestimmt wurden die N- und K-Verfügbarkeit im Boden, die N- und K-Aufnahme von Kraut und Knollen, gesamte Frisch- und Trockenmasseerträge, sortierte Frischmasseerträge für die Verarbeitung, sowie die Gehalte der Knollen an Trockensubstanz und reduzierenden Zuckern. In einer sensorischen Prüfung wurden Qualitätsparameter von Pommes frites (Aussehen/Farbe, Textur und Geschmack/Geruch) bewertet, die gewichtet in einen Qualitätsindex eingingen. Die Qualität der Chips wurde maschinell durch den L-Wert (Helligkeit) des Produktes quantifiziert. Der Gehalt des Bodens an mineralisiertem Nitrat-Stickstoff hing von der Vorfrucht und dem Jahr ab. Nach Erbsen wurden zum Auflaufen der Kartoffeln in den Versuchsjahren 2003 und 2004 (187 und 132 kg NO3-N ha-1) die höchsten NO3-N-Werte in 0-60 cm Boden gemessen verglichen mit Kleegras (169 bzw. 108 kg NO3-N ha-1 oder Getreide (112 kg bzw. 97 kg NO3-N ha-1), obgleich die Differenz nicht in allen Fällen signifikant war. Entsprechend wurden nach Erbsen die höchsten Knollen-Frischmasseerträge (414 und 308 dt ha-1) geerntet. Dasselbe galt für die Trockenmasserträge, was belegt, dass der Trockensubstanzgehalt der Knollen bei verbesserter N-Versorgung nicht im selben Maße sinkt, wie der Frischmasseertrag steigt. Das Vorkeimen der Pflanzknollen führte zu einer rascheren phänologischen Entwicklung im Jugendstadium der Pflanze, beschleunigter Trockenmassebildung des Krautes und einer früheren Einlagerung von Assimilaten vom Kraut in die Knollen. Obwohl die positive Wirkung des Vorkeimens auf den Gesamtertrag bis Ende Juli (+ 26 in 2003 bzw. 34 dt ha-1 in 2004) im Jahr ohne Krautfäuleepidemie von den nicht vorgekeimten Varianten bis zur Endernte im September kompensiert wurde, konnte in diesem Jahr durch Vorkeimen dennoch ein erhöhter Ertragsanteil (+ 12%) der besonders nachgefragten Übergrößen (>50 mm für Pommes frites) erzielt werden. Die durchschnittliche Knollenmasse reagierte positiv auf Vorkeimen (+ 5,4 g), Sortenwahl (Sorte Agria) und ein erhöhtes N-Angebot (Leguminosenvorfrucht). Generell wurde deutlich, dass die Knollengesamterträge unter den Bedingungen des Ökologischen Landbaus (geringe bis mittlere Nährstoffversorgung, verkürzte Vegetationsdauer) sehr stark vom Anbaujahr abhängen. Die Ergebnisse belegen jedoch, dass organisch-mineralische N-K-Düngung den sortierten Ertrag an Knollen für die Verarbeitung signifikant erhöht: Höchste Gesamt- und sortierte Knollenfrischmasseerträge wurden nach kombinierter N (Horngrieß) und mineralischer K- (Kaliumsulfat) Gabe erzielt (348 dt ha-1 im Durchschnitt von 2002-2004). Im Gegensatz dazu kann eine Wirkung von Stallmist auf den Ertrag im Jahr der Ausbringung nicht unbedingt erwartet werden. Steigende Erträge nach Stallmistdüngung wurden lediglich in einem von drei Versuchsjahren (+58 dt ha-1) festgestellt und ließen sich eher auf eine K- als eine N-Wirkung zurückführen. Die Ergebnisse belegen, dass die Sortenwahl eine entscheidende Rolle spielt, wenn die Kartoffeln für die industrielle Verarbeitung zu den oben genannten Produkten angebaut werden. Insgesamt kann festgestellt werden, dass Kartoffelknollen aus ökologischen Anbauverfahren ausreichend hohe Trockensubstanzgehalte aufweisen, um für die Verarbeitung zu Pommes frites (>19%) geeignet zu sein und ohne dass dadurch die Konsistenz des Endproduktes gefährdet würde. Der Trockensubstanzgehalt der Referenzsorte für Chips, „Marlen“, unterschritt das in der Literatur geforderte Minimum für Chips von 23% lediglich, wenn die kombinierte Horngrieß-Kaliumsulfatdüngung zur Anwendung kam. Die Trockensubstanzgehalte der Knollen konnten durch Vorkeimen signifikant gesteigert werden und der Effekt war besonders groß (+1.2% absolut) in dem Jahr mit frühem Auftreten der Krautfäule (Phytophthora infestans), d.h. verkürzter Vegetationszeit. Die Knollen-Trockensubstanzgehalte waren in zwei von drei Experimenten nach Lagerung höher (+0.4 und 0.5% absolut) als noch zur Ernte. Sorten der sehr frühen und frühen Reifegruppe wiesen den größten relativen Anstieg der Gehalte an reduzierenden Zuckern (Glukose und Fruktose) während der Lagerung auf. Den mittelfrühen Sorten „Agria“ und „Marena“ hingegen kann aufgrund des von ihnen erreichten höchsten Qualitätsstandards (Pommes frites) zur Ernte eine sehr gute Eignung für die Bedingungen des Ökologischen Landbaus unterstellt werden. Die durchgehend beste Chipseignung wies die mittelfrühe Referenzsorte „Marlen“ auf. Insgesamt konnte nachgewiesen werden, dass durch gezielte Sortenwahl der Trockensubstanzgehalt und die Konzentration reduzierender Zucker, sowie die Qualität der Endprodukte (Pommes frites und Chips) gezielt beeinflusst werden kann. Im Gegensatz dazu haben acker- und pflanzenbauliche Maßnahmen wie Düngung, Wahl der Vorfrucht und Vorkeimen der Pflanzknollen einen eher geringen Einfluss. Dementsprechend sollte der Landwirt versuchen, durch die Wahl der Sorte den hohen Anforderungen der Industrie an die Rohware gerecht zu werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In dieser Arbeit wurde das Wachstum sowie die ultraschnelle Elektronendynamik des Oberflächenplasmon Polaritons von Goldnanoteilchen auf Titandioxid untersucht. Die Messung der Dephasierungszeit des Oberflächenplasmons von Nanoteilchen mit definierter Form und Größe erfolgte dabei mit der Methode des spektralen Lochbrennens. Die Nanoteilchen wurden durch Deposition von Goldatomen aus einem thermischen Atomstrahl mit anschließender Diffussion und Nukleation, d.h. Volmer-Weber-Wachstum, auf Titandioxidsubstraten hergestellt und mittels einer Kombination aus optischer Spektroskopie und Rasterkraftmikroskopie systematisch untersucht. Dabei lässt sich das Nanoteilchenensemble durch das mittlere Achsverhältnis und den mittleren Äquivalentradius charakterisieren. Die Messungen zeigen, dass die Proben große Größen- und Formverteilungen aufweisen und ein definierter Zusammenhang zwischen Größe und Form der Teilchen existiert. Während kleine Goldnanoteilchen nahezu kugelförmig sind, flachen die Teilchen mit zunehmender Größe immer mehr ab. Des Weiteren wurde in dieser Arbeit die Methode des lasergestützten Wachstums auf das System Gold auf Titandioxid angewendet. Systematische Untersuchungen zeigten, dass sich das Achsverhältnis der Teilchen durch geeignete Wahl von Photonenenergie und Fluenz des eingestrahlten Laserlichts definiert und gezielt vorgeben lässt. Die Methode des lasergestützten Wachstums erschließt damit den Bereich außerhalb der Zugänglichkeit des natürlichen Wachstums. Aufgrund der Formabhängigkeit der spektrale Lage der Plasmonresonanz ist man somit in der Lage, die optischen Eigenschaften der Nanoteilchen gezielt einzustellen und z.B. für technische Anwendungen zu optimieren. Die Untersuchung der ultraschnellen Elektronendynamik von Goldnanoteilchen auf Titandioxid mit äquivalenten Radien zwischen 8 bis 15 nm erfolgte in dieser Arbeit mit der Methode des spektralen Lochbrennes. Hierzu wurde die Dephasierungszeit des Oberflächenplasmons systematisch als Funktion der Photonenenergie in einem Bereich von 1,45 bis 1,85 eV gemessen. Es zeigte sich, dass die gemessenen Dephasierungszeiten von 8,5 bis 16,2 fs deutlich unter den in der dielektrischen Funktion von Gold enthaltenen Werten lagen, was den erwarteten Einfluss der reduzierten Dimension der Teilchen demonstriert. Um die Messwerte trotz verschiedener Teilchengrößen untereinander vergleichen und den Einfluss der intrinsischen Dämpfung quantifizieren zu können, wurde zusätzlich der Dämpfungsparameter A bestimmt. Die ermittelten A-Faktoren zeigten dabei eine starke Abhängigkeit von der Plasmonenergie. Für Teilchen mit Plasmonenergien von 1,45 bis 1,55 eV wurde ein Dämpfungsfaktor von A ~ 0,2 nm/fs ermittelt, der lediglich Oberflächenstreuung als dominierenden Dämpfungsmechanismus widerspiegelt. Hingegen wurde für Teilchen mit Plasmonenergien oberhalb von 1,55 eV ein drastischer Anstieg der Dämpfung auf A ~ 0,4 nm/fs beobachtet. Die erhöhte Dämpfung wurde dabei dem zusätzlichen Vorliegen einer chemischen Dämpfung durch das Titandioxidsubstrat zugeschrieben. Zusammenfassend zeigen die Ergebnisse somit, dass eine starke Abhängigkeit der chemischen Dämpfung von der Photonenenergie vorliegt. Es konnte erstmals nachgewiesen werden, dass die chemische Dämpfung erst ab einer bestimmten unteren Schwelle der Photonenenergie einsetzt, die für Goldnanoteilchen auf Titandioxid bei etwa 1,6 eV liegt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die vorliegende Arbeit ist Teil eines Verbund-Forschungsprojektes mit dem Ziel, eine Präzisions-Bodenbearbeitung in Abhängigkeit von verschiedenen Bodenparametern sowie dem Bodenbedeckungsgrad zu realisieren. Ziel dieses Teilprojektes war die Bereitstellung einer Online-Messung des Bedeckungsgrades, um die Bearbeitungsintensität während der Feldüberfahrt regeln zu können: Ein Kamerasensor vorne am Schlepper ermittelt die Bodenbedeckung und ein Tiefen-Sollwert wird an das Regelsystem eines Gerätes zur teilfächenspezifischen Bodenbearbeitung ausgegeben. Da unter Feldbedingungen Methoden zur Bedeckungsgradmessung nur relativ zueinander verglichen werden können, wurde zunächst ein Laborvergleich mit wohldefinierten Bodenbedeckungen durchgeführt, um die prinzipiellen Stärken und Schwächen von Bildanalyse sowie zwei visuellen Methoden (Gitterraster-Methode und „Meterstick-Methode“) zu ermitteln: • Eine visuelle Methode, die auf einer begrenzten Anzahl von einfachen Stichprobenbeobachtungen beruht (Gitter), überschätzte den Bedeckungsgrad systematisch, wobei dieser Effekt unter Feldbedingungen vermutlich klein gegenüber der bekannten Schwankungsbreite zwischen Messungen verschiedener Beobachter ist. • Eine visuelle Methode, die auch Größe und Orientierung des Strohs berücksichtigt (Meterstick), lieferte präzise mittlere Messwerte. Diese Methode war die mit Abstand arbeitsaufwändigste. • Nach einer einfachen Korrektur des Abbildungsfehlers des Kameraobjektivs war auch die Bildverarbeitungs-Methode in der Lage, die bekannten tatsächlichen Bedeckungsgrade exakt darzustellen, bei gleichzeitig der geringsten Schwankungsbreite der Messwerte. Die Online-Messung der Bodenbedeckung durch Ernterückstände ist bisher jedoch ungelöst. Obwohl in früheren Untersuchungen Texturmerkmale oder Farbunterschiede erfolgreich genutzt wurden, um den Bedeckungsgrad zu bestimmen, wird eine Bedienperson zur interaktiven Festlegung bestimmter Parameter benötigt. Um den Prototypen eines onlinefähigen Kamerasensors zu entwickeln, wurden geeignete Ausrüstung und Bedingungen zur Bildaufnahme untersucht und verschiedene Auswertealgorithmen mit Hilfe einer wissenschaftlichen Bildanalysesoftware geschrieben und getestet: • Da im Nahinfraroten zwischen ca. 800 und 1400 nm der größte Intensitäts-Kontrast zwischen Stroh und Boden besteht wurde zur Bildaufnahme eine Schwarz-Weiss-CCD-Kamera mit aufgesetztem Infrarotfilter gewählt. Eine Diffusor-Box sorgte für homogene Beleuchtungsbedingungen. • Zwei auf Kantendetektion und automatischer Schwellwertsetzung basierende Versionen („A“ und „B“) eines „klassischen“ Segmentierungsalgorithmus wurden geschrieben. Durch einen iterativen Ansatz konnten geeignete Thresholding-Verfahren abhängig von der Größenordnung der Bodenbedeckung verwendet werden. Die zur Online-Regelung der Bearbeitungstiefe nötige Beschränkung der Prozesslaufzeit auf ca. 1000 ms/Bild konnte eingehalten werden. • Eine alternative automatisierbare Kontrollmethode wurde entwickelt, welche Merkmale der Grauwerthistogramme der Stroh/Boden-Bilder auswertet (Algorithmus „C“). Dieser Ansatz ist nochmals deutlich schneller als eine Bildsegmentierung (ca. 5 – 10 Bilder/s). • Der Sensor wurde an einem Quad montiert und die Bodenbedeckung auf drei Testfeldern untersucht. Zwischen den Messergebnissen eines Algorithmus vom Typ A/B und dem Ansatz C wurde eine Pearson-Korrelation von 0,967 für die Messwertegesamtheit gefunden. • Auf Versuchsparzellen mit definiert aufgebrachten Strohmengen (ein weiteres Teil-projekt) wurden an GPS-referenzierten Punkten Bilder mit dem Sensor aufgenommen und Referenzmessungen mit der visuellen Gitterraster-Methode durchgeführt. Zwischen der Bildverarbeitung (A, B) und dem Gitter ergaben sich befriedigende Pearson-Korrelationen im Bereich von 0,7 – 0,8. Allerdings waren für hohe Bedeckungen die Ergebnisse des Sensors meist signifikant niedrigere als der Mittelwert von drei das Gitter auszählenden Personen. Eine Kontrolle mit Ansatz C ergab, dass die Histogramm-Merkmale der einzelnen Bilder deutlich besser mit den per Bildverarbeitung ermittelten Bedeckungsgraden korrelierten als mit den Gittermessungen. – Insgesamt erwies sich die schnelle Bildverarbeitung als geeignet für den Einsatz als neue Referenzmethode zur Messung der Bodenbedeckung durch Ernterückstände. • Da der Aufbau des Sensors ohne die Diffusor-Box praxisgerechter ist, besteht weiterer Forschungsbedarf in Bezug auf die dann auftretenden Probleme durch stark wechselnde Beleuchtung und Schattenwurf. • In einem letzten Schritt wurde der Kamerasensor erfolgreich in ein bereits entwickeltes System zur teilflächenspezifischen Bodenbearbeitung an der Universität Kiel integriert. Eine Regelung der Arbeitstiefe durch den Kamerasensor war problemlos möglich, allerdings gilt es noch belastbare Kriterien für die Vorgabe von Tiefen-Sollwerten in Abhängigkeit vom Bedeckungsgrad zu entwickeln.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Wissenschaftsmethodische Kompetenzen sind ein Kernelement naturwissenschaftlicher Bildung und in den Bildungsstandards als Kompetenzbereich Erkenntnisgewinnung verbindlich festgeschrieben. Fokus aktueller naturwissenschaftsdidaktischer Forschung ist es, für diese normativen Standards theorie- und evidenzbasierte Kompetenzmodelle zu erarbeiten. In der vorliegenden Dissertation wird zum Kompetenzbereich Erkenntnisgewinnung für den Teilbereich der wissenschaftlichen Erkenntnismethoden geprüft, ob sich die im Kompetenzmodell wissenschaftlichen Denkens von Mayer (2007) angenommenen Teilkompetenzen Fragestellung formulieren, Hypothesen generieren, Planung einer Untersuchung sowie Deutung der Ergebnisse empirisch bestätigen lassen. Zudem wird quer- und längsschnittlich untersucht, wie sich die Kompetenz innerhalb der Sekundarstufe I entwickelt, welche Rolle Personenmerkmale spielen und ob die Unterrichtsgestaltung im Projekt Biologie im Kontext, in dessen Rahmen die Untersuchung stattfand, einen kompetenzfördernden Einfluss auf die Lernenden hat. Als Instrument wurde ein Kompetenztest mit offenen Aufgaben im Multimatrix-Design zum Thema Experimentieren im Biologieunterricht entwickelt und in Gymnasien, Realschulen und Hauptschulen in Hessen und Bayern in den Jahrgangsstufen 5-10 eingesetzt. Die Schülerantworten wurden anhand fünf a priori entwickelter Niveaustufen bewertet und mit der Item-Response-Theorie ausgewertet. Auf Basis einer Validierungsstudie (N= 1562) wurden mittels 24 Items die Schülerkompetenzen in querschnittlichen Analysen (N= 1553) sowie in einem Längsschnitt über ein Schuljahr (N= 1129) untersucht. Die Modellprüfung weist dem vierdimensionalen Modell eine bessere Passung zu als dem eindimensionalen Modell. Schwache bis mittlere Interkorrelationen und eine nachgeschaltete Faktorenanalyse lassen ebenfalls darauf schließen, dass dem vierdimensionalen Modell mit den postulierten Teilkompetenzen Fragestellung, Hypothese, Planung und Deutung gegenüber dem eindimensionalen Modell der Vorzug zu geben ist. Die querschnittlichen Analysen zeigen, dass zwischen den Jahrgangsstufen 5 6, 7 8 und 9 10 signifikante Leistungsunterschiede in der Gesamtkompetenz und den Teilkompetenzen bestehen. Dabei nehmen die zwischen den Teilkompetenzen festgestellten Leistungsunterschiede mit der Jahrgangsstufe zu. Die längsschnittlichen Analysen belegen Leistungszuwächse der Lernenden über ein Schuljahr: Die Kompetenz steigt hier in der Gesamtstichprobe und innerhalb der einzelnen Jahrgangsstufen der Sekundarstufe I signifikant an. Vergleicht man die verschiedenen Jahrgangsstufen in ihrem Kompetenzzuwachs über ein Schuljahr, so zeigt sich, dass der Kompetenzzuwachs in den Jahrgängen 5 8 stärker ausgeprägt ist als in den Jahrgängen 9 10. Auf Ebene der Teilkompetenzen liegt für die Gesamtstichprobe ein Kompetenzzuwachs über ein Schuljahr in den Teilkompetenzen Fragestellung, Hypothese und Planung vor, während in der Teilkompetenz Deutung ein geringer Kompetenzrückgang zu verzeichnen ist. Der Kompetenzgrad hängt mit der besuchten Schulform zusammen. Dabei zeigen Gymnasiasten querschnittlich untersucht bessere Leistungen als Realschüler oder Hauptschüler, wobei die Unterschiede zur Hauptschule besonders deutlich ausfallen. Kompetenzzuwächse über ein Schuljahr zeigen sich ausschließlich in Gymnasium und Realschule. Das Alter hat weder quer- noch längsschnittlich untersucht eigene Effekte auf die Kompetenzentwicklung, ebenso wenig wie das Geschlecht der Probanden. Der Einfluss der Biologienote ist im querschnittlichen Vergleich gering, im längsschnittlichen Vergleich nicht nachweisbar. Lernende, die am Projekt Biologie im Kontext teilnahmen, in dem Unterrichtsbausteine zur Erkenntnisgewinnung eingesetzt wurden, und deren Lehrkräfte verstärkt kompetenzorientiert unterrichteten, zeigen in den Klassen 9 10 größere Kompetenzzuwächse über ein Jahr als Probanden aus entsprechenden Kontrollklassen. Die Untersuchung zeigt, dass wissenschaftsmethodische Kompetenzen in der Sekundarstufe I vermittelt und weiterentwickelt werden. Der Befund der diskontinuierlichen Kompetenzentwicklung und der mit den Schuljahren zunehmenden Leistungsunterschiede zwischen den Teilkompetenzen führt als didaktische Implikation zu dem Schluss, dass weitere Maßnahmen zur Förderung wissenschaftsmethodischer Kompetenzen notwendig sind, um einen kumulativen Kompetenzaufbau gewährleisten zu können.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Um die Nährstoffeffizienz im Boden zu erhöhen und klimarelevante Gasemissionen zu minimieren, sind quantitative Informationen zu den C- und N-Fraktionen im Kot sowie deren Mineralisierungspotential nötig. Da über die Hälfte des fäkalen N mikrobiell gebunden ist, sind Methoden zur Bestimmung der mikrobiellen Kotqualität hilfreich. Ziele der ersten Publikation waren die Anwendung der CFE-Methode zur Bestimmung der mikrobiellen Biomasse in Rinderkot, Ergosterolbestimmung als Marker für die pilzliche Biomasse und Aminozuckernachweis zur Analyse der mikrobiellen Gemeinschaftsstruktur (pilzliches Glucosamin und bakterielle Muramin-säure). Mit Hilfe der CFE-Methode sollten lebende Mikroorganismen im Kot, inklusive Bakterien, Pilze und Archaeen, erfasst werden. Verschiedene Extraktionsmittel wurden für diese Methode getestet, um stabile Extrakte und reproduzierbare mikrobielle Biomasse-C- und -N-Gehalte zu erhalten. Der Einsatz von 0.05 M CuSO4 als Extraktionsmittel löste vorherige Probleme mit der Extraktion CHCl3-labiler N-Komponenten und sorgte für stabile Kotextrakte. Die Methoden wurden in einem Kotinkubationsexperiment bei 25 °C verglichen. Mikrobielle Parameter zeigten dynamische Charakteristika und mögliche Verschiebungen innerhalb der mikrobiellen Gemeinschaft. Im Kot von Färsen betrug das mittlere C/N-Verhältnis 5,6 und der mittlere Cmik/Corg-Quotient 2,2%, das Verhältnis von Ergosterol zum mikrobiellen Biomasse-C war 1,1‰. Ergosterol und Aminozuckeranalyse ergaben einen signifikanten Pilzanteil von über 40% des mikrobiellen Gesamt-C. Für die Analyse mikrobieller Parameter in Rinderkot erwiesen sich alle getesteten Methoden als geeignet. Diese wurden für die folgenden Fütterungsversuche weiter unabhängig voneinander angewendet und verglichen. Die zweite Publikation verglich eine N-defizitäre (ND) und eine ausgeglichene N-Bilanz (NB) bei der Fütterung von Milchkühen unter Berücksichtigung der Kot-inhaltsstoffe, der mikrobiellen Parameter und der Verdaulichkeit. Unterschiede zwischen Individuen und Probennahmetagen wurden ebenfalls miteinbezogen. Mittlerer mikrobieller Biomasse-C- und -N-Gehalt war 37 bzw. 4,9 mg g-1 TM. Der Pilzanteil lag diesmal bei 25% des mikrobiellen Gesamt-C. Die Fütterung zeigte signifikante Effekte auf die Kotzusammensetzung. Das fäkale C/N-Verhältnis der NB-Fütterung war signifikant niedriger als bei ND. Gleiches gilt für das C/N-Verhältnis der mikrobiellen Biomasse mit jeweils 9.1 und 7.0 für ND und NB. Auch die Verdaulichkeit wurde durch die Fütterung beeinflusst. Unverdauter Futterstickstoff, Faserstoffe (NDF) und Hemi-cellulose waren in der ND-Behandlung signifikant erhöht. Einige Parameter zeigten nur einen Einfluss der Probennahmetage, mit den angewendeten Methoden gelang jedoch der eindeutige Nachweis der Fütterungseffekte auf mikrobielle Parameter im Rinderkot, wobei sich die Fütterung in nur einer Variable unterschied. Weitere Fütterungseinflüsse auf die Kotqualität wurden schließlich auch für Rinder unterschiedlicher Leistungsstufen erforscht. Hier waren die Unterschiede in der Fütterung wesentlich größer als in den vorhergehenden Experimenten. Der Kot von Färsen, Niederleistungs- und Hochleistungskühen sowie dessen Einfluss auf N2O-Emissionen, N-Mineralisierung und pflanzliche N-Aufnahme wurden untersucht. Die Färsenfütterung mit geringem N- und hohem ADF-Anteil führte zu pilzdominiertem Kot. Besonders im Vergleich zum Kot der Hochleistungskühe war der Gehalt an mikrobiellem Biomasse-C niedrig, in Verbindung mit einem breiten mikrobiellen C/N-Verhältnis und hohem Ergosterolgehalt. Eingemischt in Boden zeigte Färsenkot die niedrigste CO2-Produktion und höchste N-Immobilisierung sowie niedrigste N2O-Emissionen während einer 14-tägigen Inkubation bei 22 °C. In einem 62-Tage-Gefäßversuch mit Welschem Weidelgras waren der Trocken-masseertrag und die pflanzliche Stickstoffaufnahme in den Färsenbehandlungen am niedrigsten. Die Stickstoffaufnahme durch die Pflanzen korrelierte positiv mit der Stickstoffkonzentration im Kot und negativ mit dem Rohfasergehalt, aber auch negativ mit dem C/N-Verhältnis der mikrobiellen Biomasse und dem Verhältnis von pilzlichem zu bakteriellem C. Mikrobielle Parameter im Kot zeigten einen größeren Zusammen-hang mit der pflanzlichen Stickstoffaufnahme als die mikrobiellen Bodenparameter.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In dieser Arbeit wurde ein gemischt-ganzzahliges lineares Einsatzoptimierungsmodell für Kraftwerke und Speicher aufgebaut und für die Untersuchung der Energieversorgung Deutschlands im Jahre 2050 gemäß den Leitstudie-Szenarien 2050 A und 2050 C ([Nitsch und Andere, 2012]) verwendet, in denen erneuerbare Energien einen Anteil von über 85 % an der Stromerzeugung haben und die Wind- und Solarenergie starke Schwankungen der durch steuerbare Kraftwerke und Speicher zu deckenden residualen Stromnachfrage (Residuallast) verursachen. In Szenario 2050 A sind 67 TWh Wasserstoff, die elektrolytisch aus erneuerbarem Strom zu erzeugen sind, für den Verkehr vorgesehen. In Szenario 2050 C ist kein Wasserstoff für den Verkehr vorgesehen und die effizientere Elektromobilität hat einen Anteil von 100% am Individualverkehr. Daher wird weniger erneuerbarer Strom zur Erreichung desselben erneuerbaren Anteils im Verkehrssektor benötigt. Da desweiteren Elektrofahrzeuge Lastmanagementpotentiale bieten, weisen die Residuallasten der Szenarien eine unterschiedliche zeitliche Charakteristik und Jahressumme auf. Der Schwerpunkt der Betrachtung lag auf der Ermittlung der Auslastung und Fahrweise des in den Szenarien unterstellten ’Kraftwerks’-parks bestehend aus Kraftwerken zur reinen Stromerzeugung, Kraft-Wärme-Kopplungskraftwerken, die mit Wärmespeichern, elektrischen Heizstäben und Gas-Backupkesseln ausgestattet sind, Stromspeichern und Wärmepumpen, die durch Wärmespeicher zum Lastmanagment eingesetzt werden können. Der Fahrplan dieser Komponenten wurde auf minimale variable Gesamtkosten der Strom- und Wärmeerzeugung über einen Planungshorizont von jeweils vier Tagen hin optimiert. Das Optimierungsproblem wurde mit dem linearen Branch-and-Cut-Solver der software CPLEX gelöst. Mittels sogenannter rollierender Planung wurde durch Zusammensetzen der Planungsergebnisse für überlappende Planungsperioden der Kraftwerks- und Speichereinsatz für die kompletten Szenariojahre erhalten. Es wurde gezeigt, dass der KWK-Anteil an der Wärmelastdeckung gering ist. Dies wurde begründet durch die zeitliche Struktur der Stromresiduallast, die wärmeseitige Dimensionierung der Anlagen und die Tatsache, dass nur eine kurzfristige Speicherung von Wärme vorgesehen war. Die wärmeseitige Dimensionierung der KWK stellte eine Begrenzung des Deckungsanteils dar, da im Winter bei hoher Stromresiduallast nur wenig freie Leistung zur Beladung der Speicher zur Verfügung stand. In den Berechnungen für das Szenario 2050 A und C lag der mittlere Deckungsanteil der KWK an der Wärmenachfrage von ca. 100 TWh_th bei 40 bzw. 60 %, obwohl die Auslegung der KWK einen theoretischen Anteil von über 97 % an der Wärmelastdeckung erlaubt hätte, gäbe es die Beschränkungen durch die Stromseite nicht. Desweiteren wurde die CO2-Vermeidungswirkung der KWK-Wärmespeicher und des Lastmanagements mit Wärmepumpen untersucht. In Szenario 2050 A ergab sich keine signifikante CO2-Vermeidungswirkung der KWK-Wärmespeicher, in Szenario 2050 C hingegen ergab sich eine geringe aber signifikante CO2-Einsparung in Höhe von 1,6 % der Gesamtemissionen der Stromerzeugung und KWK-gebundenen Wärmeversorgung. Das Lastmanagement mit Wärmepumpen vermied Emissionen von 110 Tausend Tonnen CO2 (0,4 % der Gesamtemissionen) in Szenario A und 213 Tausend Tonnen in Szenario C (0,8 % der Gesamtemissionen). Es wurden darüber hinaus Betrachtungen zur Konkurrenz zwischen solarthermischer Nahwärme und KWK bei Einspeisung in dieselben Wärmenetze vorgenommen. Eine weitere Einschränkung der KWK-Erzeugung durch den Einspeisevorrang der Solarthermie wurde festgestellt. Ferner wurde eine untere Grenze von 6,5 bzw. 8,8 TWh_th für die in den Szenarien mindestens benötigte Wasserstoff-Speicherkapazität ermittelt. Die Ergebnisse dieser Arbeit legen nahe, das technisch-ökonomische Potential von Langzeitwärmespeichern für eine bessere Integration von KWK ins System zu ermitteln bzw. generell nach geeigneteren Wärmesektorszenarien zu suchen, da deutlich wurde, dass für die öffentliche Wärmeversorgung die KWK in Kombination mit Kurzzeitwärmespeicherung, Gaskesseln und elektrischen Heizern keine sehr effektive CO2 -Reduktion in den Szenarien erreicht. Es sollte dabei z.B. untersucht werden, ob ein multivalentes System aus KWK, Wärmespeichern und Wärmepumpen eine ökonomisch darstellbare Alternative sein könnte und im Anschluss eine Betrachtung der optimalen Anteile von KWK, Wärmepumpen und Solarthermie im Wärmemarkt vorgenommen werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Das Working Paper analysiert die Sozialstruktur Argentiniens in den letzten vierzig Jahren. Schwerpunktmäßig werden dabei die Veränderungen der gesellschaftlichen Stratifizierung identifiziert, die in drei soziale Klassen, die obere, die mittlere und die untere Klasse eingeteilt werden. Drei Debatten werden dabei beleuchtet: Erstens die methodologische Frage, welche Kriterien geeignet sind um angemessene Unterscheidungen zwischen den verschiedenen Klassen, insbesondere die Abgrenzung der Mittelklasse vorzunehmen. Zweitens wird im Rückgriff auf unterschiedliche Forschungsansätze der Wandel der Sozialstruktur beschrieben, um dabei gemeinsame Tendenzen zu erkennen. Drittens wird der Blick auf die Charakteristika des Arbeitsmarktes gelegt und darauf, wie dieser die argentinische Sozialstruktur prägt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Shareholdern, Mitarbeitern und Konsumenten kommt im Rahmen der Corporate Social Responsibility (CSR) eine zentrale Rolle zu. Nicht zuletzt aufgrund ihrer ökonomischen Bedeutung für Unternehmen und ihrer Einflussmöglichkeiten auf diese werden sie zu den mithin wichtigsten Stakeholdern gezählt. Innerhalb der unternehmensethischen Diskussion setzt sich dabei verstärkt die Sichtweise eines Business Case von CSR durch, demzufolge CSR generell und insbesondere bei diesen drei Stakeholdern an Bedeutung gewinnt und ein entsprechendes Engagement daher neben finanziellen auch zahlreiche immaterielle Vorteile bedingt. Betrachtet man die Studienlage allerdings genauer, bleibt zu fragen, inwieweit das gezeichnete positive Bild und die ihm zugrunde liegenden Annahmen tatsächlich zutreffend sind. Denn weder liegen ausreichend Studien vor, die sich mit den Prozessen auf der Mikro-Ebene befassen, noch spiegelt sich die postulierte und von Konsumenten in Befragungen geäußerte Kauf- und Zahlungsbereitschaft im Marktanteil ethischer Produkte und Dienstleistungen wider, was im Allgemeinen dann allerdings wiederum durch ein „attitude-behaviour-gap“ erklärt wird. Mit Blick auf ein Socially Responsible Investment (SRI) stellt sich die Sach- oder Marktlage zwar besser dar, doch wird gemeinhin stillschweigend und unhinterfragt davon ausgegangen, dass ein ethisches Investment per se ethisch sei. Die Arbeit setzt an diesen Punkten an und geht nach einer Klärung zentraler Begriffe der Frage nach der Relevanz und Wahrnehmung von CSR bei den drei Stakeholdern anhand eigener qualitativer Fallstudien empirisch nach; d. h. konkret, mittels einer Einzelfallstudie unter der Mitarbeiterschaft eines mittelständischen Unternehmens, einer Konsumentenbefragung zum Kleidungskauf und einer Einzelfallstudie zur Überprüfung der Praxis ethischen Investments anhand des als besonders „ethisch“ ausgewiesenen Ethik-Fonds von Schellhammer & Schattera. Im Endergebnis zeigt sich, dass berechtigte Zweifel an den vielfach postulierten positiven Entwicklungen und Effekten und damit auch der Sichtweise eines Business Case von CSR angebracht sind. Denn selbst der gewählte ethische Fonds kann nicht alle an ein derartiges Investment zu stellenden Kriterien zweifelsfrei erfüllen. In eine ähnlich kritische Richtung weisen auch die Befunde der Konsumentenstudie. Durch die Verwendung eines anderen Untersuchungsansatzes zeigt sich, dass für den Großteil der befragten Konsumenten ethische Aspekte in Wirklichkeit keine oder wenn, eine allenfalls sehr untergeordnete Rolle spielen. Entsprechend handelt es sich möglicherweise beim „attitude-behaviour-gap“ vielfach nur um eine Pseudo-Inkonsistenz, die, wie aufgezeigt wird, theoretisch und methodisch bedingt ist. Im Vergleich dazu fallen die Befunde der Mitarbeiterstudie zwar sehr positiv aus, verweisen jedoch auch auf einen allgemein vernachlässigten zentralen Aspekt des CSR-Engagements. So können die empirisch belegten positiven Effekte zwar bestätigt werden, doch zeigt sich, dass diese wesentlich an die Bedingung der Authentizität von CSR geknüpft zu sein scheinen. Die sich hieraus wie aus den anderen Studien ergebenden Konsequenzen und Fragen werden im Rahmen einer Zusammenfassung abschließend diskutiert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Städtische Biomassen der Grünflächen bilden eine potentielle, bisher weitgehend ungenutzte Ressource für Bioenergie. Kommunen pflegen die Grünflächen, lassen das Material aber verrotten oder führen es Deponien oder Müllverbrennungsanlagen zu. Diese Praxis ist kostenintensiv ohne für die Verwaltungen finanziellen Ausgleich bereitzustellen. Stattdessen könnte das Material energetisch verwertet werden. Zwei mögliche Techniken, um Bioenergie zu gewinnen, wurden mit krautigem Material des städtischen Straßenbegleitgrüns untersucht i) direkte anaerobe Fermentation (4 Schnitte im Jahr) und ii) „Integrierte Festbrennstoff- und Biogasproduktion aus Biomasse“ (IFBB), die Biomasse durch Maischen und mechanisches Entwässern in einen Presssaft und einen Presskuchen trennt (2 Schnitte im Jahr). Als Referenz wurde die aktuelle Pflege ohne Verwertungsoption mitgeführt (8faches Mulchen). Zusätzlich wurde die Eignung von Gras-Laub-Mischungen im IFBB-Verfahren untersucht. Der mittlere Biomasseertrag war 3.24, 3.33 und 5.68 t Trockenmasse ha-1 jeweils für die Pflegeintensitäten Mulchen, 4-Schnitt- und 2-Schnittnutzung. Obwohl die Faserkonzentration in der Biomasse der 2-Schnittnutzung höher war als im Material der 4-Schnittnutzung, unterschieden sich die Methanausbeuten nicht signifikant. Der Presskuchen aus dem krautigen Material des Straßenbegleitgrüns hatte einen Heizwert von 16 MJ kg-1 Trockenmasse, während der Heizwert des Presskuchens der Gras-Laub-Mischung in Abhängigkeit vom Aschegehalt zwischen 15 und 17 MJ kg-1 Trockenmasse lag. Der Aschegehalt der Mischungen war höher als der Grenzwert nach DIN EN 14961-6:2012 (für nicht-holzige Brennstoffe), was auf erhöhte Bodenanhaftung auf Grund der Erntemethoden zurückzuführen sein könnte. Der Aschegehalt des krautigen Materials vom Straßenrand hielt die Norm jedoch ein. Die Elementkonzentration (Ca, Cl, K, Mg, N, Na, P, S, Al, Cd, Cr, Cu, Mn, Pb, Si, Zn) im krautigen Material war generell ähnlich zu Landwirtschafts- oder Naturschutzgrünland. In den Mischungen nahm die Elementkonzentration (Al, Cl, K, N, Na, P, S, Si) mit zunehmendem Laubanteil ab. Die Konzentration von Ca, Mg und der Neutral-Detergenz-Fasern stieg hingegen an. Die IFBB-Technik reduzierte die Konzentrationen der in der Verbrennung besonders schädlichen Elemente Cl, K und N zuverlässig. Außer den potentiell hohen Aschegehalten, wurde während der Untersuchungen kein technischer Grund entdeckt, der einer energetischen Verwertung des getesteten urbanen Materials entgegenstehen würde. Ökonomische, soziale und ökologische Auswirkungen einer Umsetzung müssen beachtet werden. Eine oberflächliche Betrachtung auf Basis des bisherigen Wissens lässt hoffen, dass eine bioenergetische Verwertung städtischen Materials auf allen Ebenen nachhaltig sein könnte.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In den letzten Jahrzehnten haben sich makroskalige hydrologische Modelle als wichtige Werkzeuge etabliert um den Zustand der globalen erneuerbaren Süßwasserressourcen flächendeckend bewerten können. Sie werden heutzutage eingesetzt um eine große Bandbreite wissenschaftlicher Fragestellungen zu beantworten, insbesondere hinsichtlich der Auswirkungen anthropogener Einflüsse auf das natürliche Abflussregime oder der Auswirkungen des globalen Wandels und Klimawandels auf die Ressource Wasser. Diese Auswirkungen lassen sich durch verschiedenste wasserbezogene Kenngrößen abschätzen, wie z.B. erneuerbare (Grund-)Wasserressourcen, Hochwasserrisiko, Dürren, Wasserstress und Wasserknappheit. Die Weiterentwicklung makroskaliger hydrologischer Modelle wurde insbesondere durch stetig steigende Rechenkapazitäten begünstigt, aber auch durch die zunehmende Verfügbarkeit von Fernerkundungsdaten und abgeleiteten Datenprodukten, die genutzt werden können, um die Modelle anzutreiben und zu verbessern. Wie alle makro- bis globalskaligen Modellierungsansätze unterliegen makroskalige hydrologische Simulationen erheblichen Unsicherheiten, die (i) auf räumliche Eingabedatensätze, wie z.B. meteorologische Größen oder Landoberflächenparameter, und (ii) im Besonderen auf die (oftmals) vereinfachte Abbildung physikalischer Prozesse im Modell zurückzuführen sind. Angesichts dieser Unsicherheiten ist es unabdingbar, die tatsächliche Anwendbarkeit und Prognosefähigkeit der Modelle unter diversen klimatischen und physiographischen Bedingungen zu überprüfen. Bisher wurden die meisten Evaluierungsstudien jedoch lediglich in wenigen, großen Flusseinzugsgebieten durchgeführt oder fokussierten auf kontinentalen Wasserflüssen. Dies steht im Kontrast zu vielen Anwendungsstudien, deren Analysen und Aussagen auf simulierten Zustandsgrößen und Flüssen in deutlich feinerer räumlicher Auflösung (Gridzelle) basieren. Den Kern der Dissertation bildet eine umfangreiche Evaluierung der generellen Anwendbarkeit des globalen hydrologischen Modells WaterGAP3 für die Simulation von monatlichen Abflussregimen und Niedrig- und Hochwasserabflüssen auf Basis von mehr als 2400 Durchflussmessreihen für den Zeitraum 1958-2010. Die betrachteten Flusseinzugsgebiete repräsentieren ein breites Spektrum klimatischer und physiographischer Bedingungen, die Einzugsgebietsgröße reicht von 3000 bis zu mehreren Millionen Quadratkilometern. Die Modellevaluierung hat dabei zwei Zielsetzungen: Erstens soll die erzielte Modellgüte als Bezugswert dienen gegen den jegliche weiteren Modellverbesserungen verglichen werden können. Zweitens soll eine Methode zur diagnostischen Modellevaluierung entwickelt und getestet werden, die eindeutige Ansatzpunkte zur Modellverbesserung aufzeigen soll, falls die Modellgüte unzureichend ist. Hierzu werden komplementäre Modellgütemaße mit neun Gebietsparametern verknüpft, welche die klimatischen und physiographischen Bedingungen sowie den Grad anthropogener Beeinflussung in den einzelnen Einzugsgebieten quantifizieren. WaterGAP3 erzielt eine mittlere bis hohe Modellgüte für die Simulation von sowohl monatlichen Abflussregimen als auch Niedrig- und Hochwasserabflüssen, jedoch sind für alle betrachteten Modellgütemaße deutliche räumliche Muster erkennbar. Von den neun betrachteten Gebietseigenschaften weisen insbesondere der Ariditätsgrad und die mittlere Gebietsneigung einen starken Einfluss auf die Modellgüte auf. Das Modell tendiert zur Überschätzung des jährlichen Abflussvolumens mit steigender Aridität. Dieses Verhalten ist charakteristisch für makroskalige hydrologische Modelle und ist auf die unzureichende Abbildung von Prozessen der Abflussbildung und –konzentration in wasserlimitierten Gebieten zurückzuführen. In steilen Einzugsgebieten wird eine geringe Modellgüte hinsichtlich der Abbildung von monatlicher Abflussvariabilität und zeitlicher Dynamik festgestellt, die sich auch in der Güte der Niedrig- und Hochwassersimulation widerspiegelt. Diese Beobachtung weist auf notwendige Modellverbesserungen in Bezug auf (i) die Aufteilung des Gesamtabflusses in schnelle und verzögerte Abflusskomponente und (ii) die Berechnung der Fließgeschwindigkeit im Gerinne hin. Die im Rahmen der Dissertation entwickelte Methode zur diagnostischen Modellevaluierung durch Verknüpfung von komplementären Modellgütemaßen und Einzugsgebietseigenschaften wurde exemplarisch am Beispiel des WaterGAP3 Modells erprobt. Die Methode hat sich als effizientes Werkzeug erwiesen, um räumliche Muster in der Modellgüte zu erklären und Defizite in der Modellstruktur zu identifizieren. Die entwickelte Methode ist generell für jedes hydrologische Modell anwendbar. Sie ist jedoch insbesondere für makroskalige Modelle und multi-basin Studien relevant, da sie das Fehlen von feldspezifischen Kenntnissen und gezielten Messkampagnen, auf die üblicherweise in der Einzugsgebietsmodellierung zurückgegriffen wird, teilweise ausgleichen kann.