73 resultados para Nutzung

em Universitätsbibliothek Kassel, Universität Kassel, Germany


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Mit dem Ziel, die Bildung und den Verbrauch von mikrobiellen Residuen zu ermitteln, wurden zwei Inkubationsversuche durchgeführt. Die Versuchsdauer betrug jeweils 67 Tage, wobei an den Tagen 5, 12, 33, 38, 45 und 67 Proben entnommen und auf Ct, Cmik, CO2 sowie die δ13C-Werte, Nt, Nmin und Ergosterol untersucht wurden. In Versuch 1 wurden als leicht umsetzbare Kohlenstoffquelle 3 mg C4-Kohlenstoff g-1Boden in Form von Rohrzucker bzw. Maiscellulose und als N-Ausgleich 200 µg NH4NO3-N g-1Boden hinzugegeben. Der verwendete Boden war ein Lößboden. In Versuch 2 wurden 3 mg C4-Kohlenstoff g-1Boden in Form von Rohrzucker und 100 µg NH4NO3-N g-1Boden in den Boden eingearbeitet. Als Substrat wurde hier ein gebrannter Lößboden verwendet. Bei beiden Versuchen erfolgte an Tag 33 nochmals eine Zugabe von 3 mg C3-Kohlenstoff g-1Boden in Form von Cellulose. Die Zugabe des C4-Kohlenstoffs führte in beiden Versuchen zu einer Zunahme des C4-Anteils in der mikrobiellen Biomasse. Insgesamt wurden im ersten Versuch ca. 78 % des C4-Kohlenstoffs und im zweiten Versuch ca. 64 % mineralisiert. In Versuch 1 wurde bei der Rohrzuckervariante der größte Teil an C4-C innerhalb der ersten 5 Tage mineralisiert, in der Cellulosevariante konnte dagegen eine geringere, aber länger anhaltende Mineralisation bis Tag 33 beobachtet werden. Dies sowie die Entwicklung des C4-C der mikrobiellen Biomasse deuten darauf hin, dass die Cellulose erst zu diesem Zeitpunkt vollständig umgesetzt war, der Rohrzucker dagegen aber schon nach 5 Inkubationstagen. Der Anteil an C4-C in den mikrobiellen Residuen lag an Tag 33 bei 28 % (Cellulosevariante) bzw. 22 % (Rohrzuckervariante) des zugegebenen C4-Kohlenstoffs. Dagegen lag im zweiten Versuch der Anteil an C4-Kohlenstoff in den mikrobiellen Residuen bei 40 %. In Versuch 1 führte die Zugabe der C3-Cellulose an Tag 33 nicht zu einem Verbrauch von mikrobiellen Residuen, im Versuch 2 hingegen zu einer signifikanten Abnahme. Der zugegebene Stickstoff wurde in beiden Versuchen durch die Zugabe des Rohrzuckers in hohen Anteilen immobilisiert, aber nur in geringem Umfang in die mikrobielle Biomasse inkorporiert. An Tag 33 lag der Anteil Stickstoff in den mikrobiellen Residuen bei 52 % (Versuch 1) bzw. 84 % (Versuch 2) des zugegebenen Stickstoffs. In Versuch 1 setzte nach 33 Tagen eine Remineralisation des immobilisierten Stickstoffs ein, unabhängig von der Zugabe der C3-Cellulose. In Versuch 2 wurde der immobilisierte Stickstoff zu keinem Zeitpunkt remineralisiert. Die Zugabe der C3-Cellulose führte hier nicht zu einer Remineralisation des immobilisierten Stickstoffs. Es bestätigte sich die Annahme, dass durch die Zugabe von leicht umsetzbaren Kohlstoffsubstraten die Bildung von mikrobiellen Residuen gesteigert werden kann. Die zweite Annahme, dass durch die Zugabe von N-freiem Substrat, hier C3-Cellulose, die mikrobiellen Residuen bevorzugt abgebaut werden, konnte nicht bestätigt werden.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Die vorliegende Arbeit untersuchte die Einflüsse der Bodenart und Einarbeitungstiefe von Streu auf die mikrobielle Nutzung und ihren Abbau. Anhand einer Kohlenstoffsequestrierung wurde die Verlagerung streubürtigen Kohlenstoffes in die Fraktionen CO2-C, SOC, extrahierbaren Kohlenstoff, Cmik und POM-C betrachtet. Aufgrund der Analyse der δ13C-CO2 Werte der Bodenrespiration, im Rahmen der Sequestrierung des streubürtigen Kohlenstoffes, war der Anteil der streubürtigen Bodenrespiration und somit die gesamte, zu erwartende Bodenrespiration bekannt. Durch die, bei der Kohlenstoffsequestrierung, ermittelten Werte konnte eine Plausibilitätsprüfung an vier Methoden zur Erfassung der Bodenrespiration, auf ihre Genauigkeit und mögliche Artefakte hin, durchgeführt werden. Des Weiteren wurden in einem anschließenden Freilandversuch unter subtropischen Bedingungen die Einflüsse verschiedener Dünger und Feldfrüchte, in Abhängigkeit der Streuqualität, auf den Streuabbau und die mikrobielle Besiedelung hin untersucht. Im ersten Versuch (Kapitel 3), wurde anhand eines Säulenversuches der Einfluss der Einarbeitungstiefe, in Anhängigkeit der Bodenart, auf den Streuabbau untersucht. Dieses ist von großer Bedeutung, da auf landwirtschaftlich genutzten Flächen Streu und so genannte "Grüne Dünger" durch den Einsatz unterschiedlicher Bodenbearbeitungssysteme, wie z.B. der Kreiselegge oder dem Wendepflug, in unterschiedliche Tiefen eingearbeitet werden. Die Verlagerung streubürtigen mikrobiellen Kohlenstoffes per Pilzhyphen, über eine Distanz von bis zu 20 cm wurde innerhalb dieser Arbeit das erste Mal gezeigt. Bisherige Studien zeigten einzig einen Transport von streubürtigem Kohlenstoff per Pilzhyphen, über eine kurze Distanz von der Detritussphäre in den angrenzenden Boden. Der höhere Anteil streubürtigen mikrobiellen Kohlenstoffes innerhalb der von der Streuschicht weiter entfernten Schichten im sandigen Boden, im Vergleich zum lehmigen Boden zeigte, dass das feine Porenvolumen des lehmigen Bodens den Transport Streubürtigen Kohlenstoffes per Pilzhyphen grundsätzlich behindert. Diese Annahme wurde durch die stärkere Abnahme des Anteils streubürtigen mikrobiellen Kohlenstoffes, mit zunehmender Entfernung zur Streuschicht, im lehmigen Boden im Vergleich zum sandigen Boden unterstützt. Es ist davon auszugehen, dass der sandige Boden zusätzlich durch die höhere Porosität eine erhöhte Sauerstoffdurchlässigkeit und somit, in den tieferen Schichten bessere Wachstumsbedingungen für Mikroorganismen bietet als der lehmige Boden. Durch die Ausbreitung substratbürtigen mikrobiellen Kohlenstoffes wurde im sandigen Boden mehr streubürtiger Kohlenstoff durch Mikroorganismen inkorporiert als im lehmigen Boden. Ein weiterer Grund für die geringere Verlagerung von streubürtigem Kohlenstoff in die mikrobielle Biomasse des lehmigen Bodens ist wahrscheinlich der bessere physikalische Schutz durch den höheren Tonanteil. Durch die Einarbeitung der Streu stieg in allen Ansätzen der Gehalt an Ergosterol, welcher ein wesentlicher Indikator für die Präsenz saprotropher Pilze ist. Besonders stark ausgeprägt war der Anstieg des Ergosterolgehaltes, sowie des Ergosterol / mikrobielle Biomasse C – Quotienten, wenn Streu in die untere Schicht (15 - 20 cm) ein-gearbeitet wurde. Diese tiefenspezifischen Unterschiede wurden bisher in noch keinem weiteren Versuch beobachtet und können auf die Entwicklung unterschiedlicher pilzlicher Gemeinschaften zurück zu führen sein. Es ist jedoch wahrscheinlicher, dass pilzliche Nekromasse in den oberen Bodenschichten schneller umgesetzt wird und somit bei der Ergosterolbestimmung nicht mit erfasst wird. Da der Umsatz der pilzlichen Nekromasse im porösen sandigen Boden, aufgrund der höheren Sauerstoffverfügbarkeit und des geringeren physikalischen Schutzes, vermutlich höher ist als im lehmigen Boden, wird diese Annahme durch den im sandigen Boden geringeren Gehalt an mikrobiellen Kohlenstoff unterstützt. Wie erwartet, überstieg die Mineralisation der Streu im sandigen Boden die der im lehmigen Boden. Jedoch anders als erwartet, unterschied sich die Mineralisation in Abhängigkeit der Einarbeitungstiefe, mit einer erhöhten Mineralisation bei Einarbeitung der Streu in 0 - 5 cm Tiefe, einzig im sandigen Boden. Die Berechnung des Ertragskoeffizienten zeigte, dass die Substratsnutzungseffizienz der Mikroorganismen im sandigen Boden signifikant geringer war als die im lehmigen Boden. Die Zugabe von Streu führte in beiden Böden, verstärkt jedoch im lehmigen Boden, zu einem positiven Priming Effekt, der in beiden Bö-den stärker ausgeprägt war, als Streu in 0–5 cm Tiefe eingearbeitet wurde. Trotz Abnahme der SOC-bürtigen mikrobiellen Biomasse stieg die Mineralisation des SOC stark an. Es ist anzunehmen, dass extrazelluläre Enzyme wie Cellulase und Lignin modifizierende Enzy-me, produziert von saprotrophen Pilzen, zum Abbau von Cellolose und Lignin der Streu, zum Teil sehr effizient SOC abbauen. Im zweiten Versuch (Kapitel 4) wurde anhand des gleichen Säulenversuches (Versuch 1; Kapitel 3) der Einfluss der Entfernung von CO2-hot-spots im Boden zur Bodenoberfläche, in Abhängigkeit der Bodenart, auf vier verschiedene Methoden zur Erfassung der Bodenrespiration betrachtet. Zusätzlich wurde durch eine Plausibilitätsprüfung anhand der Kohlenstoffbilanz, basierend auf der in Versuch 1 durchgeführten Kohlenstoffsequestrierung, die Genauigkeit der vier Methoden in Abhängigkeit der Bodenart überprüft. Für beide Ansätze mit sandigem Boden zeigen IR und PAS eine deutliche Überschätzung der mit NaOH und GC bestimmten Bodenrespiration. Die Überschätzung durch IR ist dabei auf die durch die dynamische Haube verursachten Turbulenzen und deren Auswirkungen auf den porösen sandigen Boden zurück zu führen. Bei geringen Respirationsraten, wie bei der Kontrolle, zeigt die Messung mittels IR trotz Turbulenzen, verursacht durch den Ventilator der Haube, keine Überschätzung. Die Überschätzung durch PAS hingegen kann nicht auf Turbulenzen, verursacht durch die dynamische Haube, zurück geführt werden, da bei den Analysen mit PAS und GC identische Hauben, höher und größer als bei IR, eingesetzt wurden und die Bodenrespiration durch GC nicht überschätzt wurde. Im Gegensatz zu beiden sandigen Ansätzen überschätzt IR die Bodenrespiration im lehmigen Boden nicht. NaOH hingegen unterschätzt die Bodenrespiration, wenn Streu in 15-20 cm Tiefe des lehmigen Bodens eingearbeitet ist. Dieses ist dadurch zu erklären, dass, bedingt durch die geringere Porosität sowie das höhere Wasserhaltevermögen und dem daraus resultierenden geringeren Luft gefüllten Porenvolumen, die Diffusion von CO2 im lehmigen Boden langsamer ist als im sandigen Boden. Nach Absorption des CO2 der Haubenluft diffundiert das CO2 des CO2-hot-spots in 15-20 cm Tiefe, entlang des Diffusionsgradienten, aufgrund des Diffusionswiderstandes in lehmigen Boden langsamer zur Oberfläche als im sandigen Boden oder wenn der CO2-hot-spot direkt unter der Bodenoberfläche liegt. Da bei der Messung mit der dynamischen Haube diese nur kurz auf der Fläche verbleibt, beeinflusst der Diffusionsgradient diese Messungen nicht. Hinzukommt, dass bei den Messsystemen, die in Kombination mit der dynamischen Haube eingesetzt werden, im Gegensatz zur Absorption durch Lauge keine CO2 Abreicherung stattfindet und die Diffusion von CO2 aus dem Boden über lange Zeit bis zu hohen CO2 Konzentration in der Haube linear bleibt. Alle drei mit einer dynamischen Haube kombinierten Methoden zeigen mit Korrelations-koeffizienten zwischen 0,90 und 0,93 starke Korrelationen mit NaOH. Während PAS die Bodenrespiration im Verhältnis zu NaOH immer überschätzt, tritt eine Überschätzung durch GC nur bei Mineralisationsraten unter 500 mg m-2 h-1 und für IR bei Mineralisations-raten über 40 mg m-2 h-1 ein. Die Plausibilitätsprüfung zeigt, dass für sandigen Boden, mit NaOH und GC eine sehr exakte Wiederfindung von Kohlenstoff erreicht wird, wohingegen IR und PAS in der Wiederfindung von Kohlenstoff bei deutlich über 100 % liegen. Für den lehmigen Boden hingegen ist nach Entfernung der CO2-hot-spots zur Bodenoberfläche zu differenzieren. Befindet sich der CO2-hot-spot direkt unter der Bodenoberfläche ist die Wiederfindung von Kohlenstoff für NaOH, GC und IR sehr exakt. Befindet sich der CO2-hot-spot jedoch in 15-20 cm Tiefe, ist die Wiederfindung des Kohlenstoffes durch NaOH deutlich unter 100 %. Die Wiederfindung durch PAS liegt sowohl für den sandigen als auch für den lehmigen Boden immer deutlich über 100 %. Im dritten Versuch (Kapitel 5), wurde anhand eines Litterbag-Versuches im Norden des Omans, der Einfluss verschiedener Dünger und Feldfrüchte auf den Abbau von Streu auf landwirtschaftlich genutzten Flächen in Abhängigkeit der Streuqualität betrachtet. Bei dem Großteil bisheriger Streuabbauversuche, unter gemäßigten und subtropischen Klimaten, stand der Abbau von Streu im Wald im Fokus der Betrachtung. Die wenigen Versuche zum Streuabbau auf landwirtschaftlich genutzten Flächen beschränken sich auf die gemäßigten Klimate. Wohingegen der Abbau von Streu, sowie der Einfluss von Dünger und Feldfrucht unter subtropischen Bedingungen, zum ersten mal mit der vorliegenden Arbeit fokussiert wurde. Der Verlust an organischem Material war verglichen mit Versuchen un-ter gemäßigten Klimaten, bei allen vier Streuarten, generell hoch. Der höhere Abbau von Luzernen- und Maisstreu im Vergleich zu Raps- und Weizenstreu ist auf Unterschiede der Streuqualität zurückzuführen. Neben der Verwertbarkeit durch Mikroorganismen beeinflusst die Streuqualität zusätzlich die "Schmackhaftigkeit" der Streu für Organismen der Mesofauna. Wodurch ein selektiver Transport und/oder Grazing von Mikroorganismen stattfindet. Der geringere Abbau der Luzernenstreu verglichen mit Maisstreu jedoch ist nicht auf die Streuqualität sondern auf die geringere mikrobielle Besiedelung der Luzernenstreu während der Versuchszeit zurückzuführen. Der Unterschied im Grad der mikrobiellen Besiedelung kann durch die erhobenen Daten nicht erklärt werden. Es ist jedoch davon auszugehen, dass Leguminosen Substanzen wie z.B. Polyphenole enthalten, welche die mikrobielle Biomasse und im Besonderen die pilzliche Biomasse in beachtlichem Umfang inhibitieren. Ebenso wenig ist der höhere Abbau von Weizenstreu verglichen mit Rapsstreu durch die Streuqualität zu begründen. Eine mögliche Erklärung für den geringeren Abbau der Rapsstreu kann ihr hoher Aluminium Gehalt sein. Es ist jedoch wahrscheinlicher, dass die Rapsstreu organische Substanzen wie Glucosinolate enthält, welche den mikrobiellen Streuabbau inhibitieren. Während der Hemicellulosegehalt am Ende des Versuches nicht durch die Streuqualität beeinflusst war, zeigten Cellulose und Lignin quali-tätsabhängige Effekte. Der stärkere Abbau von Cellulose bei Luzernen- und Maisstreu ist auf den anfänglich höheren Stickstoffgehalt zurückzuführen, wodurch die Produktion und Aktivität von Cellulose degradierenden Enzymen, wie Exo-Cellulase, Endo-Cellulase und Xylanase, anstieg. Es ist davon auszugehen, dass die Differenzen im Celluloseabbau von Luzernen- und Maisstreu im Vergleich zu Raps- und Weizenstreu, neben Unterschieden im anfänglichen Stickstoffgehalt, auf den höheren Schutz von Cellulose durch Lignin in Raps- und Weizenstreu zurückzuführen sind. Während der initial geringe Stickstoffgehalt den Ligninabbau in Raps- und Weizenstreu unterstützt, ist die relative Anreicherung von Lignin in Luzernen- und Maisstreu hingegen auf den initial hohen Stickstoffgehalt zurückzuführen. Dem entgegen hat die Zusammensetzung weiterer Nährstoffe einen sehr geringen Effekt. Es ist jedoch möglich, dass stärkere Effekte durch den Eintrag von Boden in die Litterbags durch Organismen der Mesofauna, Wurzelwachstum oder physikalische Verlagerung überdeckt werden. Während unter organische Düngung, die pilzliche Biomasse ansteigt, fördert der leicht verfügbare Stickstoff der mineralischen Düngung die Bildung bakterieller Biomasse. Der höher Gehalt an pilzlicher Biomasse unter organischer Düngung zeigte keinen generellen Effekt auf den Abbau von Kohlenstoff. Er führte jedoch zu einer Veränderung in der Streuzusammensetzung. Die verringerte Abnahme bzw. verstärkte Zunahme der Nährstoffgehalte bei organischer Düngung ist durch den Eintrag dünger-bürtiger Nährstoffe, im Besonderen durch die verstärkte Bildung pilzlicher Hyphen in die Litterbags hinein, zu erklären. Trotz höherer Gehalte an pilzlicher Biomasse war der Ligningehalt am Ende des Versuches unter organischer Düngung höher als unter mineralischer Düngung. Diese ist auf den Eintrag düngerbürtiger Pilze zurückzuführen, welche eine geringere Lignindegradierungseffizienz aufweisen. Der Einfluss der Feldfrucht auf den Streuabbau äußert sich durch höhere Gehalte mikrobieller und im Besonderen pilzlicher Biomasse, und durch geringere Gehalte an N, P, Ca, Na und K in, im Litterbag verbleiben-der Streu, unter dem Anbau von Mohrrüben. Der Anstieg der pilzlichen Biomasse führt, ebenso wie bei der organischen Düngung zu keinem generellen Anstieg der Kohlenstoffdegradation, zeigt jedoch einen selektiven Effekt auf den Abbau von Cellulose. Der Einfluss, sowohl auf die mikrobielle Biomasse, als auch auf den Nährstoffgehalt, zeigt die Bedeutung der Unterschiede im Wurzelwachstum, der Rhizodeposition sowie des Nährstoffbedarfs in Abhängigkeit der Feldfrucht. Trotz großer Unterschiede der Streuarten im anfänglichen Gehalt mikrobieller Biomasse war dieser am Ende des Versuches für alle Streuarten identisch. Dieses war Folge eines starken Anstiegs der pilzlichen Biomasse bei Luzernen- und Maisstreu sowie einer Abnahme der pilzlichen Biomasse bei Raps- und Weizenstreu, welche zuvor noch nicht beobachtet wurde. Dieses macht den Einfluss der anfänglichen mikrobiellen Biomasse auf deren Entwicklung während des Streuabbauprozesses im Boden deutlich. Es ist anzunehmen, dass ein Teil der anfänglichen pilzlichen Biomasse der Raps- und Weizenstreu, welche sich unter gemäßigten Klimaten entwickelte, unter subtropischen Bedingungen nicht überlebensfähig war. Generell war der Streuabbau durch Pilze dominiert. Es zeigte sich jedoch, dass Unterschiede im Pflanzenmaterial einen Einfluss auf die bakterielle Biomasse hatten, Unterschiede in Düngung und Feldfrucht hingegen die pilzliche Biomasse und die bakterielle Biomasse beeinflussten.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Die vorliegende Dissertation wurde im Rahmen des vom Niedersächsischen Ministerium für Wissenschaft und Kultur geförderten Forschungsverbundes „KLIFF – Klimafolgenforschung in Niedersachsen“ an der Universität Kassel im Fachbereich Ökologische Agrarwissenschaften im Fachgebiet Bodenbiologie und Pflanzenernährung angefertigt. Die Arbeit wurde von der Universität Kassel gefördert und ist mit dem DFG-Graduiertenkolleg 1397 assoziiert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Zur Senkung von Kosten werden in vielen Unternehmen Dienstleistungen, die nicht zur Kernkompetenz gehören, an externe Dienstleister ausgelagert. Dieser Prozess wird auch als Outsourcing bezeichnet. Die dadurch entstehenden Abhängigkeiten zu den externen Dienstleistern werden mit Hilfe von Service Level Agreements (SLAs) vertraglich geregelt. Die Aufgabe des Service Level Managements (SLM) ist es, die Einhaltung der vertraglich fixierten Dienstgüteparameter zu überwachen bzw. sicherzustellen. Für eine automatische Bearbeitung ist daher eine formale Spezifikation von SLAs notwendig. Da der Markt eine Vielzahl von unterschiedlichen SLM-Werkzeugen hervorgebracht hat, entstehen in der Praxis Probleme durch proprietäre SLA-Formate und fehlende Spezifikationsmethoden. Daraus resultiert eine Werkzeugabhängigkeit und eine limitierte Wiederverwendbarkeit bereits spezifizierter SLAs. In der vorliegenden Arbeit wird ein Ansatz für ein plattformunabhängiges Service Level Management entwickelt. Ziel ist eine Vereinheitlichung der Modellierung, so dass unterschiedliche Managementansätze integriert und eine Trennung zwischen Problem- und Technologiedomäne erreicht wird. Zudem wird durch die Plattformunabhängigkeit eine hohe zeitliche Stabilität erstellter Modelle erreicht. Weiteres Ziel der Arbeit ist, die Wiederverwendbarkeit modellierter SLAs zu gewährleisten und eine prozessorientierte Modellierungsmethodik bereitzustellen. Eine automatisierte Etablierung modellierter SLAs ist für eine praktische Nutzung von entscheidender Relevanz. Zur Erreichung dieser Ziele werden die Prinzipien der Model Driven Architecture (MDA) auf die Problemdomäne des Service Level Managements angewandt. Zentrale Idee der Arbeit ist die Definition von SLA-Mustern, die konfigurationsunabhängige Abstraktionen von Service Level Agreements darstellen. Diese SLA-Muster entsprechen dem Plattformunabhängigen Modell (PIM) der MDA. Durch eine geeignete Modelltransformation wird aus einem SLA-Muster eine SLA-Instanz generiert, die alle notwendigen Konfigurationsinformationen beinhaltet und bereits im Format der Zielplattform vorliegt. Eine SLA-Instanz entspricht damit dem Plattformspezifischen Modell (PSM) der MDA. Die Etablierung der SLA-Instanzen und die daraus resultierende Konfiguration des Managementsystems entspricht dem Plattformspezifischen Code (PSC) der MDA. Nach diesem Schritt ist das Managementsystem in der Lage, die im SLA vereinbarten Dienstgüteparameter eigenständig zu überwachen. Im Rahmen der Arbeit wurde eine UML-Erweiterung definiert, die eine Modellierung von SLA-Mustern mit Hilfe eines UML-Werkzeugs ermöglicht. Hierbei kann die Modellierung rein graphisch als auch unter Einbeziehung der Object Constraint Language (OCL) erfolgen. Für die praktische Realisierung des Ansatzes wurde eine Managementarchitektur entwickelt, die im Rahmen eines Prototypen realisiert wurde. Der Gesamtansatz wurde anhand einer Fallstudie evaluiert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die stereoskopische 3-D-Darstellung beruht auf der naturgetreuen Präsentation verschiedener Perspektiven für das rechte und linke Auge. Sie erlangt in der Medizin, der Architektur, im Design sowie bei Computerspielen und im Kino, zukünftig möglicherweise auch im Fernsehen, eine immer größere Bedeutung. 3-D-Displays dienen der zusätzlichen Wiedergabe der räumlichen Tiefe und lassen sich grob in die vier Gruppen Stereoskope und Head-mounted-Displays, Brillensysteme, autostereoskopische Displays sowie echte 3-D-Displays einteilen. Darunter besitzt der autostereoskopische Ansatz ohne Brillen, bei dem N≥2 Perspektiven genutzt werden, ein hohes Potenzial. Die beste Qualität in dieser Gruppe kann mit der Methode der Integral Photography, die sowohl horizontale als auch vertikale Parallaxe kodiert, erreicht werden. Allerdings ist das Verfahren sehr aufwendig und wird deshalb wenig genutzt. Den besten Kompromiss zwischen Leistung und Preis bieten präzise gefertigte Linsenrasterscheiben (LRS), die hinsichtlich Lichtausbeute und optischen Eigenschaften den bereits früher bekannten Barrieremasken überlegen sind. Insbesondere für die ergonomisch günstige Multiperspektiven-3-D-Darstellung wird eine hohe physikalische Monitorauflösung benötigt. Diese ist bei modernen TFT-Displays schon recht hoch. Eine weitere Verbesserung mit dem theoretischen Faktor drei erreicht man durch gezielte Ansteuerung der einzelnen, nebeneinander angeordneten Subpixel in den Farben Rot, Grün und Blau. Ermöglicht wird dies durch die um etwa eine Größenordnung geringere Farbauflösung des menschlichen visuellen Systems im Vergleich zur Helligkeitsauflösung. Somit gelingt die Implementierung einer Subpixel-Filterung, welche entsprechend den physiologischen Gegebenheiten mit dem in Luminanz und Chrominanz trennenden YUV-Farbmodell arbeitet. Weiterhin erweist sich eine Schrägstellung der Linsen im Verhältnis von 1:6 als günstig. Farbstörungen werden minimiert, und die Schärfe der Bilder wird durch eine weniger systematische Vergrößerung der technologisch unvermeidbaren Trennelemente zwischen den Subpixeln erhöht. Der Grad der Schrägstellung ist frei wählbar. In diesem Sinne ist die Filterung als adaptiv an den Neigungswinkel zu verstehen, obwohl dieser Wert für einen konkreten 3-D-Monitor eine Invariante darstellt. Die zu maximierende Zielgröße ist der Parameter Perspektiven-Pixel als Produkt aus Anzahl der Perspektiven N und der effektiven Auflösung pro Perspektive. Der Idealfall einer Verdreifachung wird praktisch nicht erreicht. Messungen mit Hilfe von Testbildern sowie Schrifterkennungstests lieferten einen Wert von knapp über 2. Dies ist trotzdem als eine signifikante Verbesserung der Qualität der 3-D-Darstellung anzusehen. In der Zukunft sind weitere Verbesserungen hinsichtlich der Zielgröße durch Nutzung neuer, feiner als TFT auflösender Technologien wie LCoS oder OLED zu erwarten. Eine Kombination mit der vorgeschlagenen Filtermethode wird natürlich weiterhin möglich und ggf. auch sinnvoll sein.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Sowohl die Ressourcenproblematik als auch die drohenden Ausmaße der Klimaänderung lassen einen Umstieg auf andere Energiequellen langfristig unausweichlich erscheinen und mittelfristig als dringend geboten. Unabhängig von der Frage, auf welchem Niveau sich der Energiebedarf stabilisieren lässt, bleibt dabei zu klären, welche Möglichkeiten sich aus technischer und wirtschaftlicher Sicht in Zukunft zur Deckung unseres Energiebedarfs anbieten. Eine aussichtsreiche Option besteht in der Nutzung regenerativer Energien in ihrer ganzen Vielfalt. Die Arbeit "Szenarien zur zukünftigen Stromversorgung, kostenoptimierte Variationen zur Versorgung Europas und seiner Nachbarn mit Strom aus erneuerbaren Energien" konzentriert sich mit der Stromversorgung auf einen Teilaspekt der Energieversorgung, der zunehmend an Wichtigkeit gewinnt und als ein Schlüssel zur nachhaltigen Energieversorgung interpretiert werden kann. Die Stromversorgung ist heute weltweit für etwa die Hälfte des anthropogenen CO2-Ausstoßes verantwortlich. In dieser Arbeit wurden anhand verschiedener Szenarien Möglichkeiten einer weitgehend CO2–neutralen Stromversorgung für Europa und seine nähere Umgebung untersucht, wobei das Szenariogebiet etwa 1,1 Mrd. Einwohner und einen Stromverbrauch von knapp 4000 TWh/a umfasst. Dabei wurde untersucht, wie die Stromversorgung aufgebaut sein sollte, damit sie möglichst kostengünstig verwirklicht werden kann. Diese Frage wurde beispielsweise für Szenarien untersucht, in denen ausschließlich heute marktverfügbare Techniken berücksichtigt wurden. Auch der Einfluss der Nutzung einiger neuer Technologien, die bisher noch in Entwicklung sind, auf die optimale Gestaltung der Stromversorgung, wurde anhand einiger Beispiele untersucht. Die Konzeption der zukünftigen Stromversorgung sollte dabei nach Möglichkeit objektiven Kriterien gehorchen, die auch die Vergleichbarkeit verschiedener Versorgungsansätze gewährleisten. Dafür wurde ein Optimierungsansatz gewählt, mit dessen Hilfe sowohl bei der Konfiguration als auch beim rechnerischen Betrieb des Stromversorgungssystems weitgehend auf subjektive Entscheidungsprozesse verzichtet werden kann. Die Optimierung hatte zum Ziel, für die definierte möglichst realitätsnahe Versorgungsaufgabe den idealen Kraftwerks- und Leitungspark zu bestimmen, der eine kostenoptimale Stromversorgung gewährleistet. Als Erzeugungsoptionen werden dabei u.a. die Nutzung Regenerativer Energien durch Wasserkraftwerke, Windenergiekonverter, Fallwindkraftwerke, Biomassekraftwerke sowie solare und geothermische Kraftwerke berücksichtigt. Abhängig von den gewählten Randbedingungen ergaben sich dabei unterschiedliche Szenarien. Das Ziel der Arbeit war, mit Hilfe unterschiedlicher Szenarien eine breite Basis als Entscheidungsgrundlage für zukünftige politische Weichenstellungen zu schaffen. Die Szenarien zeigen Optionen für eine zukünftige Gestaltung der Stromversorgung auf, machen Auswirkungen verschiedener – auch politischer – Rahmenbedingungen deutlich und stellen so die geforderte Entscheidungsgrundlage bereit. Als Grundlage für die Erstellung der Szenarien mussten die verschiedenen Potentiale erneuerbarer Energien in hoher zeitlicher und räumlicher Auflösung ermittelt werden, mit denen es erstmals möglich war, die Fragen einer großräumigen regenerativen Stromversorgung ohne ungesicherte Annahmen anhand einer verlässlichen Datengrundlage anzugehen. Auch die Charakteristika der verschiedensten Energiewandlungs- und Transportsysteme mussten studiert werden und sind wie deren Kosten und die verschiedenen Potentiale in der vorliegenden Arbeit ausführlich diskutiert. Als Ausgangsszenario und Bezugspunkt dient ein konservatives Grundszenario. Hierbei handelt es sich um ein Szenario für eine Stromversorgung unter ausschließlicher Nutzung erneuerbarer Energien, die wiederum ausschließlich auf heute bereits entwickelte Technologien zurückgreift und dabei für alle Komponenten die heutigen Kosten zugrundelegt. Dieses Grundszenario ist dementsprechend auch als eine Art konservative Worst-Case-Abschätzung für unsere Zukunftsoptionen bei der regenerativen Stromversorgung zu verstehen. Als Ergebnis der Optimierung basiert die Stromversorgung beim Grundszenario zum größten Teil auf der Stromproduktion aus Windkraft. Biomasse und schon heute bestehende Wasserkraft übernehmen den überwiegenden Teil der Backup-Aufgaben innerhalb des – mit leistungsstarker HGÜ (Hochspannungs–Gleichstrom–Übertragung) verknüpften – Stromversorgungsgebiets. Die Stromgestehungskosten liegen mit 4,65 €ct / kWh sehr nahe am heute Üblichen. Sie liegen niedriger als die heutigen Preisen an der Strombörse. In allen Szenarien – außer relativ teuren, restriktiv ”dezentralen” unter Ausschluss großräumig länderübergreifenden Stromtransports – spielt der Stromtransport eine wichtige Rolle. Er wird genutzt, um Ausgleichseffekte bei der dargebotsabhängigen Stromproduktion aus erneuerbaren Quellen zu realisieren, gute kostengünstige Potentiale nutzbar zu machen und um die Speicherwasserkraft sowie die dezentral genutzte Biomasse mit ihrer Speicherfähigkeit für großräumige Backup-Aufgaben zu erschließen. Damit erweist sich der Stromtransport als einer der Schlüssel zu einer kostengünstigen Stromversorgung. Dies wiederum kann als Handlungsempfehlung bei politischen Weichenstellungen interpretiert werden, die demnach gezielt auf internationale Kooperation im Bereich der Nutzung erneuerbarer Energien setzen und insbesondere den großräumigen Stromtransport mit einbeziehen sollten. Die Szenarien stellen detaillierte und verlässliche Grundlagen für wichtige politische und technologische Zukunftsentscheidungen zur Verfügung. Sie zeigen, dass bei internationaler Kooperation selbst bei konservativen Annahmen eine rein regenerative Stromversorgung möglich ist, die wirtschaftlich ohne Probleme zu realisieren wäre und verweisen den Handlungsbedarf in den Bereich der Politik. Eine wesentliche Aufgabe der Politik läge darin, die internationale Kooperation zu organisieren und Instrumente für eine Umgestaltung der Stromversorgung zu entwickeln. Dabei kann davon ausgegangen werden, dass nicht nur ein sinnvoller Weg zu einer CO2–neutralen Stromversorgung beschritten würde, sondern sich darüber hinaus ausgezeichnete Entwicklungsperspektiven für die ärmeren Nachbarstaaten der EU und Europas eröffnen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Im Informationszeitalter erhalten die Neuen Medien eine immer größer werdende Bedeutung. Lange Zeit galten gedruckte Informationen – häufig in Form von Büchern und Zeitschriften – als eigentliche Informationsquelle in den Bibliotheken. Mehr und mehr nehmen jedoch mittlerweile auch multimediale Anwendungen breiteren Raum ein, gilt es doch, sich den veränderten Lese- und insbesondere Informationsgewohnheiten anzupassen. Insbesondere sollen elektronische Informationsquellen und digitale Literatur erschlossen und bereitgestellt werden. Im Zuge dieser Entwicklung wurde durch die hessische Ministerin für Wissenschaft und Kunst am 11.11.1998 in der Gesamthochschulbibliothek Kassel eine neugeschaffene Multi-Media-Thek (MMT) eröffnet. In dieser Multimediathek sollen die Bibliotheksbenutzer die Möglichkeit erhalten, die Neuen Medien zu erkunden und gewinnbringend für ihre Fragestellungen einzusetzen. Neben den mittlerweile weiter verbreiteten Internetarbeitsplätzen haben die Benutzer Gelegenheit, an speziell ausgestatteten Arbeitsplätzen Audio- und Videoanwendungen zu testen. Die zur Verfügung stehenden Arbeitsplätze sind plattformübergreifend gestaltet, neben Windows NT-Rechnern können Macintosh-, Java- und Linux-Rechner benutzt werden. Alle PC-Systeme verfügen über hochauflösende Grafik- und Soundkarten, allerdings müssen zum Abhören von Audio-Medien, DVD’s oder Multimedia-CD’s entsprechende Kopfhörer aufgesetzt werden. Über WinCenter können auch auf Linux- und Macintosh-Rechnern CD-Applikationen aus dem GHB-internen CD-Server angewählt werden. Zur Auswahl stehen derzeit 140 Datenbanken, die zudem ergänzt werden durch entsprechende Datenbankzugriffe auf den Silverplatter-Server der GHB. In separaten Klein-Arbeitsräumen können Audio-Cassetten und Video-Bänder benutzt werden. Natürlich lassen sich auch herkömmliche Dias und Microfiches in den Räumen der MMT betrachten und Ausdrucke über den Reader-Printer bzw. über das Bibliotheksnetz auf einen zentralen Benutzer-Drucker (OCE-Drucksystem mit Entgeldregelung) machen. Als Auslegestelle für DIN-Normen kann im DIN-Katalog über Internet recherchiert und das Ergebnis der Recherche direkt im DIN-Bestand angesehen werden. In einem speziell eingerichteten Macintosh-Pool sind mittels Scanner, Grafikbearbeitungssoftware und OCR-Möglichkeit weitere Bedingungen für multimediales Arbeiten geschaffen. Sie sollen bei entsprechendem Bedarf um digitale Bildbearbeitung (Photo, Video) gegebenenfalls ergänzt werden. Die Bibliothek bietet in den Räumen der Multimediathek entsprechende Schulungen zur effektiven Nutzung der Rechnerausstattung an.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Den Schwerpunkt dieser Dissertation bildet zum einen die Entwicklung eines theoretischen Modells zur Beschreibung des Strukturbildungsprozesses in organisch/anorganischen Doppelschichtsystemen und zum anderen die Untersuchung der Übertragbarkeit dieser theoretisch gewonnenen Ergebnisse auf reale Systeme. Hierzu dienen systematische experimentelle Untersuchungen dieses Phänomens an einem Testsystem. Der Bereich der selbstorganisierenden Systeme ist von hohem wissenschaftlichen Interesse, erlaubt er doch die Realisierung von Strukturen, die nicht den Begrenzungen heutiger Techniken unterliegen, wie etwa der Beugung bei lithographischen Verfahren. Darüber hinaus liefert ein vertieftes Verständnis des Strukturbildungsprozesses auch eine Möglichkeit, im Falle entsprechender technischer Anwendungen Instabilitäten innerhalb der Schichtsysteme zu verhindern und somit einer Degradation der Bauteile entgegenzuwirken. Im theoretischen Teil der Arbeit konnte ein Modell im Rahmen der klassischen Elastizitätstheorie entwickelt werden, mit dessen Hilfe sich die Entstehung der Strukturen in Doppelschichtsystemen verstehen läßt. Der hier gefundene funktionale Zusammenhang zwischen der Periode der Strukturen und dem Verhältnis der Schichtdicken von organischer und anorganischer Schicht, wird durch die experimentellen Ergebnisse sehr gut bestätigt. Die Ergebnisse zeigen, daß es technologisch möglich ist, über die Vorgabe der Schichtdicke in einem Materialsystem die Periodizität der entstehenden Strukturen vorzugeben. Darüber hinaus liefert das vorgestellte Modell eine Stabilitätsbedingung für die Schichtsysteme, die es ermöglicht, zu jedem Zeitpunkt die dominierende Mode zu identifizieren. Ein Schwerpunkt der experimentellen Untersuchungen dieser Arbeit liegt auf der Strukturbildung innerhalb der Schichtsysteme. Das Testsystem wurde durch Aufbringen einer organischen Schicht - eines sog. Molekularen Glases - auf ein Glassubstrat realisiert, als Deckschicht diente eine Siliziumnitrid-Schicht. Es wurden Proben mit variierenden Schichtdicken kontrolliert erwärmt. Sobald die Temperatur des Schichtsystems in der Größenordnung der Glasübergangstemperatur des jeweiligen organischen Materials lag, fand spontan eine Strukturbildung auf Grund einer Spannungsrelaxation statt. Es ließen sich durch die Wahl einer entsprechenden Heizquelle unterschiedliche Strukturen realisieren. Bei Verwendung eines gepulsten Lasers, also einer kreisförmigen Wärmequelle, ordneten sich die Strukturen konzentrisch an, wohingegen sich ihre Ausrichtung bei Verwendung einer flächenhaften Heizplatte statistisch verteilte. Auffällig bei allen Strukturen war eine starke Modulation der Oberfläche. Ferner konnte in der Arbeit gezeigt werden, daß sich durch eine gezielte Veränderung der Spannungsverteilung innerhalb der Schichtsysteme die Ausrichtung der Strukturen (gezielt) manipulieren ließen. Unabhängig davon erlaubte die Variation der Schichtdicken die Realisierung von Strukturen mit einer Periodizität im Bereich von einigen µm bis hinunter zu etwa 200 nm. Die Kontrolle über die Ausrichtung und die Periodizität ist Grundvoraussetzung für eine zukünftige technologische Nutzung des Effektes zur kontrollierten Herstellung von Mikro- bzw. Nanostrukturen. Darüber hinaus konnte ein zunächst von der Strukturbildung unabhängiges Konzept eines aktiven Sensors für die optische Raster-Nahfeld-Mikroskopie vorgestellt werden, das das oben beschriebene System, bestehend aus einem fluoreszierenden Molekularen Glas und einer Siliziumnitrid-Deckschicht, verwendet. Erste theoretische und experimentelle Ergebnisse zeigen das technologische Potential dieses Sensortyps.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Dissertation befasst sich mit der Einführung komplexer Softwaresysteme, die, bestehend aus einer Kombination aus parametrisierter Standardsoftware gepaart mit Wettbewerbsvorteil sichernden Individualsoftwarekomponenten, keine Software-Engineering-Projekte im klassischen Sinn mehr darstellen, sondern einer strategieorientierten Gestaltung von Geschäftsprozessen und deren Implementierung in Softwaresystemen bedürfen. Die Problemstellung einer adäquaten Abwägung zwischen TCO-optimierender Einführung und einer gleichzeitigen vollständigen Unterstützung der kritischen Erfolgsfaktoren des Unternehmens ist hierbei von besonderer Bedeutung. Der Einsatz integrierter betriebswirtschaftlicher Standardsoftware, mit den Möglichkeiten einer TCO-Senkung, jedoch ebenfalls der Gefahr eines Verlustes von Alleinstellungsmerkmalen am Markt durch Vereinheitlichungstendenzen, stellt ein in Einführungsprojekten wesentliches zu lösendes Problem dar, um Suboptima zu vermeiden. Die Verwendung von Vorgehensmodellen, die sich oftmals an klassischen Softwareentwicklungsprojekten orientieren oder vereinfachte Phasenmodelle für das Projektmanagement darstellen, bedingt eine fehlende Situationsadäquanz in den Detailsituationen der Teilprojekte eines komplexen Einführungsprojektes. Das in dieser Arbeit entwickelte generische Vorgehensmodell zur strategieorientierten und partizipativen Einführung komplexer Softwaresysteme im betriebswirtschaftlichen Anwendungsbereich macht - aufgrund der besonders herausgearbeiteten Ansätze zu einer strategieorientierten Einführung, respektive Entwicklung derartiger Systeme sowie aufgrund der situationsadäquaten Vorgehensstrategien im Rahmen der Teilprojektorganisation � ein Softwareeinführungsprojekt zu einem Wettbewerbsfaktor stärkenden, strategischen Element im Unternehmen. Die in der Dissertation diskutierten Überlegungen lassen eine Vorgehensweise präferieren, die eine enge Verschmelzung des Projektes zur Organisationsoptimierung mit dem Softwareimplementierungsprozess impliziert. Eine Priorisierung der Geschäftsprozesse mit dem Ziel, zum einen bei Prozessen mit hoher wettbewerbsseitiger Priorität ein organisatorisches Suboptimum zu vermeiden und zum anderen trotzdem den organisatorischen Gestaltungs- und den Systemimplementierungsprozess schnell und ressourcenschonend durchzuführen, ist ein wesentliches Ergebnis der Ausarbeitungen. Zusätzlich führt die Ausgrenzung weiterer Prozesse vom Einführungsvorgang zunächst zu einem Produktivsystem, welches das Unternehmen in den wesentlichen Punkten abdeckt, das aber ebenso in späteren Projektschritten zu einem System erweitert werden kann, welches eine umfassende Funktionalität besitzt. Hieraus ergeben sich Möglichkeiten, strategischen Anforderungen an ein modernes Informationssystem, das die kritischen Erfolgsfaktoren eines Unternehmens konsequent unterstützen muss, gerecht zu werden und gleichzeitig ein so weit als möglich ressourcenschonendes, weil die Kostenreduktionsaspekte einer Standardlösung nutzend, Projekt durchzuführen. Ein weiterer wesentlicher Aspekt ist die situationsadäquate Modellinstanziierung, also die projektspezifische Anpassung des Vorgehensmodells sowie die situationsadäquate Wahl der Vorgehensweisen in Teilprojekten und dadurch Nutzung der Vorteile der verschiedenen Vorgehensstrategien beim konkreten Projektmanagement. Der Notwendigkeit der Entwicklung einer Projektorganisation für prototypingorientiertes Vorgehen wird in diesem Zusammenhang ebenfalls Rechnung getragen. Die Notwendigkeit der Unternehmen, sich einerseits mit starken Differenzierungspotenzialen am Markt hervorzuheben und andererseits bei ständig sinkenden Margen einer Kostenoptimierung nachzukommen, lässt auch in Zukunft das entwickelte Modell als erfolgreich erscheinen. Hinzu kommt die Tendenz zu Best-Of-Breed-Ansätzen und komponentenbasierten Systemen im Rahmen der Softwareauswahl, die eine ausgesprochen differenzierte Vorgehensweise in Projekten verstärkt notwendig machen wird. Durch die in das entwickelte Modell integrierten Prototyping-Ansätze wird der auch in Zukunft an Bedeutung gewinnenden Notwendigkeit der Anwenderintegration Rechnung getragen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Der SPNV als Bestandteil des ÖPNV bildet einen integralen Bestandteil der öffentlichen Daseinsvorsorge. Insbesondere Flächenregionen abseits urbaner Ballungszentren erhalten durch den SPNV sowohl ökonomisch als auch soziokulturell wichtige Impulse, so dass die Zukunftsfähigkeit dieser Verkehrsart durch geeignete Gestaltungsmaßnahmen zu sichern ist. ZIELE: Die Arbeit verfolgte das Ziel, derartige Gestaltungsmaßnahmen sowohl grundlagentheoretisch herzuleiten als auch in ihrer konkreten Ausformung für die verkehrswirtschaftliche Praxis zu beschreiben. Abgezielt wurde insofern auf strukturelle Konzepte als auch praktische Einzelmaßnahmen. Der Schwerpunkt der Analyse erstreckte sich dabei auf Deutschland, wobei jedoch auch verkehrsbezogene Privatisierungserfahrungen aus anderen europäischen Staaten und den USA berücksichtigt wurden. METHODEN: Ausgewertet wurden deutschsprachige als auch internationale Literatur primär verkehrswissenschaftlicher Ausrichtung sowie Fallbeispiele verkehrswirtschaftlicher Privatisierung. Darüber hinaus wurden Entscheidungsträger der Deutschen Bahn (DB) und DB-externe Eisenbahnexperten interviewt. Eine Gruppe 5 DB-interner und 5 DB-externer Probanden nahm zusätzlich an einer standardisierten Erhebung zur Einschätzung struktureller und spezifischer Gestaltungsmaßnahmen für den SPNV teil. ERGEBNISSE: In struktureller Hinsicht ist die Eigentums- und Verfügungsregelung für das gesamte deutsche Bahnwesen und den SPNV kritisch zu bewerten, da der dominante Eisenbahninfrastrukturbetreiber (EIU) in Form der DB Netz AG und die das Netz nutzenden Eisenbahnverkehrs-Unternehmen (EVUs, nach wie vor zumeist DB-Bahnen) innerhalb der DB-Holding konfundiert sind. Hieraus ergeben sich Diskriminierungspotenziale vor allem gegenüber DB-externen EVUs. Diese Situation entspricht keiner echten Netz-Betriebs-Trennung, die wettbewerbstheoretisch sinnvoll wäre und nachhaltige Konkurrenz verschiedener EVUs ermöglichen würde. Die seitens der DB zur Festigung bestehender Strukturen vertretene Argumentation, wonach Netz und Betrieb eine untrennbare Einheit (Synergie) bilden sollten, ist weder wettbewerbstheoretisch noch auf der Ebene technischer Aspekte akzeptabel. Vielmehr werden durch die gegenwärtige Verquickung der als Quasimonopol fungierenden Netzebene mit der Ebene der EVU-Leistungen Innovationspotenziale eingeschränkt. Abgesehen von der grundsätzlichen Notwendigkeit einer konsequenten Netz-Betriebs-Trennung und dezentraler Strukturen sind Ausschreibungen (faktisch öffentliches Verfahren) für den Betrieb der SPNV-Strecken als Handlungsansatz zu berücksichtigen. Wettbewerb kann auf diese Weise gleichsam an der Quelle einer EVU-Leistung ansetzen, wobei politische und administrative Widerstände gegen dieses Konzept derzeit noch unverkennbar sind. Hinsichtlich infrastruktureller Maßnahmen für den SPNV ist insbesondere das sog. "Betreibermodell" sinnvoll, bei dem sich das übernehmende EIU im Sinne seiner Kernkompetenzen auf den Betrieb konzentriert. Die Verantwortung für bauliche Maßnahmen sowie die Instandhaltung der Strecken liegt beim Betreiber, welcher derartige Leistungen am Markt einkaufen kann (Kostensenkungspotenzial). Bei Abgabeplanungen der DB Netz AG für eine Strecke ist mithin für die Auswahl eines Betreibers auf den genannten Ausschreibungsmodus zurückzugreifen. Als kostensenkende Einzelmaßnahmen zur Zukunftssicherung des SPNV werden abschließend insbesondere die Optimierung des Fahrzeugumlaufes sowie der Einsatz von Triebwagen anstatt lokbespannter Züge und die weiter forcierte Ausrichtung auf die kundenorientierte Attraktivitätssteigerung des SPNV empfohlen. SCHLUSSFOLGERUNGEN: Handlungsansätze für eine langfristige Sicherung des SPNV können nicht aus der Realisierung von Extrempositionen (staatlicher Interventionismus versus Liberalismus) resultieren, sondern nur aus einem pragmatischen Ausgleich zwischen beiden Polen. Dabei erscheint eine Verschiebung hin zum marktwirtschaftlichen Pol sinnvoll, um durch die Nutzung wettbewerbsbezogener Impulse Kostensenkungen und Effizienzsteigerungen für den SPNV herbeizuführen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In rural areas of the Mekong Countries, the problem of electricity supplying rural communities is particularly alarming. Supplying power to these areas requires facilities that are not economically viable. However, government programs are under way to provide this product that is vital to community well being. A nation priority of Mekong Countries is to provide electrical power to people in rural areas, within normal budgetary constraints. Electricity must be introduced into rural areas in such a way that maximize the technical, economic and social benefit. Another consideration is the source of electrical generation and the effects on the natural environment. The main research purpose is to implement field tests, monitoring and evaluation of the PV-Diesel Hybrid System (PVHS) at the Energy Park of School of Renewable Energy Technology (SERT) in order to test the PVSH working under the meteorological conditions of the Mekong Countries and to develop a software simulation called RES, which studies the technical and economic performance of rural electrification options. This software must be easy to use and understand for the energy planner on rural electrification projects, to evaluate the technical and economic performance of the PVHS based on the renewable energy potential for rural electrification of the Mekong Country by using RES. Finally, this project aims to give guidance for the possible use of PVHS application in this region, particularly in regard to its technical and economic sustainability. PVHS should be promoted according to the principles of proper design and adequate follow up with maintenance, so that the number of satisfied users will be achieved. PVHS is not the only possible technology for rural electrification, but for the Mekong Countries it is one of the most proper choices. Other renewable energy options such as wind, biomass and hydro power need to be studied in future.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die wachsende Weltbevölkerung bedingt einen höheren Energiebedarf, dies jedoch unter der Beachtung der nachhaltigen Entwicklung. Die derzeitige zentrale Versorgung mit elektrischer Energie wird durch wenige Erzeugungsanlagen auf der Basis von fossilen Primärenergieträgern und Kernenergie bestimmt, die die räumlich verteilten Verbraucher zuverlässig und wirtschaftlich über ein strukturiertes Versorgungssystem beliefert. In den Elektrizitätsversorgungsnetzen sind keine nennenswerten Speicherkapazitäten vorhanden, deshalb muss die von den Verbrauchern angeforderte Energie resp. Leistung jederzeit von den Kraftwerken gedeckt werden. Bedingt durch die Liberalisierung der Energiemärkte und die geforderte Verringerung der Energieabhängigkeit Luxemburgs, unterliegt die Versorgung einem Wandel hin zu mehr Energieeffizienz und erhöhter Nutzung der dargebotsabhängigen Energiequellen. Die Speicherung der aus der Windkraft erzeugten elektrischen Energie, wird in den Hochleistungs-Bleiakkumulatoren, errichtet im ländlichen Raum in der Nähe der Windkraftwerke, eingespeichert. Die zeitversetzte Einspeisung dieser gespeicherten elektrischen Energie in Form von veredelter elektrischer Leistung während den Lastspitzen in das 20 kV-Versorgungsnetz der CEGEDEL stellt die Innovation in der luxemburgischen Elektrizitätsversorgung dar. Die Betrachtungen beschränken sich somit auf die regionale, relativ kleinräumige Einbindung der Windkraft in die elektrische Energieversorgung des Großherzogtums Luxemburg. Die Integration der Windkraft im Regionalbereich wird in den Vordergrund der Untersuchung gerückt. Überregionale Ausgleichseffekte durch Hochspannungsleitungen der 230/400 kV-Systeme werden außer Acht gelassen. Durch die verbrauchernahe Bereitstellung von elektrischer Spitzenleistung vermindern sich ebenfalls die Übertragungskosten aus den entfernten Spitzenlastkraftwerken, der Ausbau von Kraftwerkskapazitäten kann in die Zukunft verschoben werden. Die Emission von Treibhausgasen in thermischen Kraftwerken wird zum Teil reduziert. Die Berechnungen der Wirtschaftlichkeit von Hybridanlagen, zusammengesetzt aus den Windkraftwerken und den Hochleistungs-Bleiakkumulatoren bringen weitere Informationen zum Einsatz dieser dezentralen Speichern, als Partner der nachhaltigen Energieversorgung im ländlichen Raum. Die untersuchte Einspeisung von erneuerbarer Spitzenleistung lässt sich auch in die Entwicklungsländer übertragen, welche nicht über zentrale Kraftwerkskapazitäten und Verteilungsnetze verfügen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Zur Modellierung von Vergasungs- und Verbrennungsprozessen zur energetischen Nutzung von Biomasse ist die Kenntnis von reaktionskinetischen Daten für die Sauerstoff-Oxidation von Biomassepyrolysaten erforderlich. Eine ausführliche Literaturübersicht zeigt den Stand der Forschung bezüglich der experimentellen Ermittlung von reaktionskinetischen Parametern für die Oxidation von Pyrolysaten aus Lignin, Cellulose und pflanzlicher Biomasse sowie der Suche nach einem plausiblen Reaktionsmechanismus für die Reaktion von Sauerstoff mit festen Kohlenstoffmaterialien. Es wird eine Versuchsanlage mit einem quasistationär betriebenen Differentialreaktor konstruiert, die eine Messung der Reaktionskinetik und der reaktiven inneren Oberfläche (RSA) für die Reaktion eines Pyrolysats aus Maispflanzen mit Sauerstoff ermöglicht. Die getrockneten und zerkleinerten Maispflanzen werden 7 Minuten lang bei 1073 K in einem Drehrohrofen pyrolysiert. Das Pyrolysat zeichnet sich vor allem durch seine hohe Porosität von über 0,9 und seinen hohen Aschegehalt von 0,24 aus. Die RSA wird nach der Methode der Messung von Übergangskinetiken (TK) bestimmt. Die Bestimmung der RSA erfolgt für die Reaktionsprodukte CO und CO2 getrennt, für die entsprechend ermittelten Werte werden die Bezeichnungen CO-RSA und CO2-RSA eingeführt. Die Abhängigkeit dieser Größen von der Sauerstoffkonzentration läßt sich durch eine Langmuir-Isotherme beschreiben, ebenso das leichte Absinken der CO-RSA mit der Kohlendioxidkonzentration. Über dem Abbrand zeigen sich unterschiedliche Verläufe für die CO-RSA, CO2-RSA und die innere Oberfläche nach der BET-Methode. Zur Charakterisierung der Oberflächenzwischenprodukte werden temperaturprogrammierte Desorptionsversuche (TPD) durchgeführt. Die Ergebnisse zeigen, daß eine Unterscheidung in zwei Kohlenstoff-Sauerstoff-Oberflächenkomplexe ausreichend ist. Die experimentellen Untersuchungen zum Oxidationsverlauf werden im kinetisch bestimmten Bereich durchgeführt. Dabei werden die Parameter Temperatur, Sauerstoff-, CO- und CO2-Konzentration variiert. Anhand der Ergebnisse der reaktionskinetischen Untersuchungen wird ein Reaktionsmechanismus für die Kohlenstoff-Sauerstoff-Reaktion entwickelt. Dieser Reaktionsmechanismus umfaßt 7 Elementarreaktionen, für welche die reaktionskinetischen Parameter numerisch ermittelt werden. Darüber hinaus werden reaktionskinetische Parameter für einfachere massenbezogene Reaktionsgeschwindigkeitsansätze berechnet und summarische Reaktionsgeschwindigkeitsansätze für die Bildung von CO und CO2 aus dem Reaktionsmechanismus hergeleitet.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Zwischennutzungen sind ein Alltagsphänomen, das seit Ende der 1990er Jahre im wissenschaftlichen Kontext und der kommunalen Praxis der Stadt- und Freiraumentwicklung auffallend an Aufmerksamkeit gewinnt. Die vorliegende Arbeit widmet sich dem Phänomen aus der Perspektive der Freiraumentwicklung als kommunaler Aufgabe. Im Zentrum des Interesses steht die Frage, welche aktuelle Bedeutung Zwischennutzungen, verstanden als die vorübergehende Freiraumnutzung brachliegender Baugrundstücke, für freiraumbezogene öffentliche Aufgaben und Handlungsansätze haben bzw. welche Potentiale sie dafür bieten. Vor dem Hintergrund heterogener gesellschaftlicher und räumlicher Gegebenheiten, der Erkenntnis um eine begrenzte hoheitliche Steuerbarkeit der weiteren stadträumlichen Entwicklung und angesichts knapper Haushaltsmittel ist die kommunale Freiraumentwicklung gefordert, sich bezüglich ihrer Kernaufgaben aber auch bezüglich ihrer Rolle bei der Erfüllung dieser Aufgaben neu zu positionieren. Vermehrt werden Forderungen nach einem Abgehen von „allgemeingültigen“ Versorgungsstandards und traditionellen „Produktionsprozessen“ laut. Flexiblere Freiraumangebote sollen Gestaltungsspielräume für eigeninitiatives Handeln und wechselhafte oder neuartige Nutzungen eröffnen. Mit dem Setzen von Prioritäten, einer verstärkten Kundenorientierung und aktivierenden bzw. kooperativen Handlungsansätzen soll der schlechten Haushaltslage begegnet werden. Zwischennutzungen deuten aufgrund ihrer funktionalen, räumlichen und zeitlichen Flexibilität Möglichkeiten an, auf diese Anforderungen einzugehen. Der Blick in die Verwaltungspraxis einzelner Städte zeigt, dass Zwischennutzungen in der kommunalen Freiraumentwicklung in verschiedenen Zusammenhängen gezielt aufgegriffen werden und dabei diverse Bezüge zu diesen aktuellen Anforderungen herstellen lassen. Der Stellenwert, der ihnen beigemessen wird, reicht dabei vom Ausnahmefall bis zum bewährten Ansatz. Mit den Maßnahmen werden häufig akute bzw. kurzfristige Ziele verfolgt, etwa die vorübergehende Schaffung zusätzlicher Spiel- und Aufenthaltsmöglichkeiten oder die Aufwertung brachliegender Flächen durch extensive Gestaltungsmaßnahmen. Die Projekte sind häufig charakterisiert durch intensive Kooperationen mit anderen öffentlichen und mit nicht-öffentlichen Akteuren. Die Einbindung von Zwischennutzungen in das alltägliche Verwaltungshandeln ist allerdings auch mit diversen Schwierigkeiten verbunden, wie erste Institutionalisierungsansätze in manchen Städten zeigen. Die Verknüpfung unterschiedlicher Zeithorizonte im Planungsgeschehen, die Verbindung des temporären Phänomens Zwischennutzung mit dem traditionellerweise auf Dauerhaftigkeit ausgerichteten Aufgabenverständnis der kommunalen Freiraumentwicklung verlangt nach einer Modifizierung bisheriger Positionen und Herangehensweisen. Ein solcher Anpassungsprozess im Verwaltungshandeln lässt sich nur langfristig und schrittweise bewältigen und ist als Teil der – angesichts aktueller Entwicklungen notwendigen – Weiterentwicklung freiraumbezogener Aufgaben und Handlungsansätze zu verstehen. Zwischennutzungen können neben ihren kurzfristig umsetzbaren Funktionen einen Beitrag dazu leisten.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Das Grünbuch 2006 der Europäischen Kommission "Eine Europäische Strategie für nachhaltige, wettbewerbsfähige und sichere Energie" unterstreicht, dass Europa in ein neues Energie-Zeitalter eingetreten ist. Die vorrangigen Ziele europäischer Energiepolitik müssen Nachhaltigkeit, Wettbewerbsfähigkeit und Versorgungssicherheit sein, wobei sie eine zusammenhängende und logische Menge von Taktiken und Maßnahmen benötigt, um diese Ziele zu erreichen. Die Strommärkte und Verbundnetze Europas bilden das Kernstück unseres Energiesystems und müssen sich weiterentwickeln, um den neuen Anforderungen zu entsprechen. Die europäischen Stromnetze haben die lebenswichtigen Verbindungen zwischen Stromproduzenten und Verbrauchern mit großem Erfolg seit vielen Jahrzehnten gesichert. Die grundlegende Struktur dieser Netze ist entwickelt worden, um die Bedürfnisse großer, überwiegend auf Kohle aufgebauten Herstellungstechnologien zu befriedigen, die sich entfernt von den Verbraucherzentren befinden. Die Energieprobleme, denen Europa jetzt gegenübersteht, ändern die Stromerzeugungslandschaft in zwei Gesichtspunkten: die Notwendigkeit für saubere Kraftwerkstechnologien verbunden mit erheblich verbesserten Wirkungsgraden auf der Verbraucherseite wird es Kunden ermöglichen, mit den Netzen viel interaktiver zu arbeiten; andererseits müssen die zukünftigen europaweiten Stromnetze allen Verbrauchern eine höchst zuverlässige, preiswerte Energiezufuhr bereitstellen, wobei sowohl die Nutzung von großen zentralisierten Kraftwerken als auch kleineren lokalen Energiequellen überall in Europa ausgeschöpft werden müssen. In diesem Zusammenhang wird darauf hingewiesen, dass die Informationen, die in dieser Arbeit dargestellt werden, auf aktuellen Fragen mit großem Einfluss auf die gegenwärtigen technischen und wirtschaftspolitischen Diskussionen basieren. Der Autor hat während der letzten Jahre viele der hier vorgestellten Schlussfolgerungen und Empfehlungen mit Vertretern der Kraftwerksindustrie, Betreibern von Stromnetzen und Versorgungsbetrieben, Forschungsgremien und den Regulierungsstellen diskutiert. Die folgenden Absätze fassen die Hauptergebnisse zusammen: Diese Arbeit definiert das neue Konzept, das auf mehr verbraucherorientierten Netzen basiert, und untersucht die Notwendigkeiten sowie die Vorteile und die Hindernisse für den Übergang auf ein mögliches neues Modell für Europa: die intelligenten Stromnetze basierend auf starker Integration erneuerbarer Quellen und lokalen Kleinkraftwerken. Das neue Modell wird als eine grundlegende Änderung dargestellt, die sich deutlich auf Netzentwurf und -steuerung auswirken wird. Sie fordert ein europäisches Stromnetz mit den folgenden Merkmalen: – Flexibel: es erfüllt die Bedürfnisse der Kunden, indem es auf Änderungen und neue Forderungen eingehen kann – Zugänglich: es gestattet den Verbindungszugang aller Netzbenutzer besonders für erneuerbare Energiequellen und lokale Stromerzeugung mit hohem Wirkungsgrad sowie ohne oder mit niedrigen Kohlendioxidemissionen – Zuverlässig: es verbessert und garantiert die Sicherheit und Qualität der Versorgung mit den Forderungen des digitalen Zeitalters mit Reaktionsmöglichkeiten gegen Gefahren und Unsicherheiten – Wirtschaftlich: es garantiert höchste Wirtschaftlichkeit durch Innovation, effizientes Energiemanagement und liefert „gleiche Ausgangsbedingungen“ für Wettbewerb und Regulierung. Es beinhaltet die neuesten Technologien, um Erfolg zu gewährleisten, während es die Flexibilität behält, sich an weitere Entwicklungen anzupassen und fordert daher ein zuversichtliches Programm für Forschung, Entwicklung und Demonstration, das einen Kurs im Hinblick auf ein Stromversorgungsnetz entwirft, welches die Bedürfnisse der Zukunft Europas befriedigt: – Netztechnologien, die die Stromübertragung verbessern und Energieverluste verringern, werden die Effizienz der Versorgung erhöhen, während neue Leistungselektronik die Versorgungsqualität verbessern wird. Es wird ein Werkzeugkasten erprobter technischer Lösungen geschaffen werden, der schnell und wirtschaftlich eingesetzt werden kann, so dass bestehende Netze Stromeinleitungen von allen Energieressourcen aufnehmen können. – Fortschritte bei Simulationsprogrammen wird die Einführung innovativer Technologien in die praktische Anwendung zum Vorteil sowohl der Kunden als auch der Versorger stark unterstützen. Sie werden das erfolgreiche Anpassen neuer und alter Ausführungen der Netzkomponenten gewährleisten, um die Funktion von Automatisierungs- und Regelungsanordnungen zu garantieren. – Harmonisierung der ordnungspolitischen und kommerziellen Rahmen in Europa, um grenzüberschreitenden Handel von sowohl Energie als auch Netzdienstleistungen zu erleichtern; damit muss eine Vielzahl von Einsatzsituationen gewährleistet werden. Gemeinsame technische Normen und Protokolle müssen eingeführt werden, um offenen Zugang zu gewährleisten und den Einsatz der Ausrüstung eines jeden Herstellers zu ermöglichen. – Entwicklungen in Nachrichtentechnik, Mess- und Handelssystemen werden auf allen Ebenen neue Möglichkeiten eröffnen, auf Grund von Signalen des Marktes frühzeitig technische und kommerzielle Wirkungsgrade zu verbessern. Es wird Unternehmen ermöglichen, innovative Dienstvereinbarungen zu benutzen, um ihre Effizienz zu verbessern und ihre Angebote an Kunden zu vergrößern. Schließlich muss betont werden, dass für einen erfolgreichen Übergang zu einem zukünftigen nachhaltigen Energiesystem alle relevanten Beteiligten involviert werden müssen.