187 resultados para Ziel
Resumo:
Durch asymmetrische Doppelbindungsisomerisierung mittels Me-DuPHOS-modifizierter Dihalogen-Nickel-Komplexe als Katalysatorvorstufen lassen sich aus 2-Alkyl-4,7-dihydro-1,3-dioxepinen hochenantiomerenreine 2-Alkyl-4,5-dihydro-1,3-dioxepine erhalten. Ein Ziel dieser Arbeit war es, die bisher noch unbekannte Absolutkonfiguration dieses Verbindungstyps zu bestimmen und darüber hinaus ihre Einsatzfähigkeit in der enantioselektiven organischen Synthese zu untersuchen. Zu diesem Zweck wurden enantiomerenangereichertes 2-Isopropyl- und 2-tert-Butyl-4,5-dihydro-1,3-dioxepin mit m-Chlorperbenzoesäure epoxidiert. Dabei bildeten sich die entsprechenden 3-Chlorbenzoesäure-(2-alkyl-5-hydroxy-1,3-dioxepan-4yl)-ester in hohen Ausbeuten und Diastereoselektivitäten. Von den vier zu erwartenden Diastereomeren wurden jeweils nur zwei mit einer Selektivität von mehr als 95:5 gebildet. Im Fall des 3-Chlorbenzoesäure-(2-isopropyl-5-hydroxy-1,3-dioxepan-4yl)-esters konnte das Haupt-diastereomer kristallin erhalten werden. Durch röntgenspektroskopische Untersuchung war es möglich, die Relativ-Konfiguration dieser Verbindung zu bestimmen. Die Ester lassen sich unter Ringverengung in 2-Alkyl-1,3-dioxan-4-carbaldehyde umlagern. Ausgehend von diesen Carbaldehyden stehen zwei Synthesewege zur Verfügung, welche zu Verbindungen führen deren Absolutkonfiguration bereits bekannt ist. So erhält man durch Reduktion 2-Alkyl-1,3-dioxan-4-yl-methanole, welche sich in 1,2,4-Butantriol überführen lassen. Oxidation ergibt die 2-Alkyl-1,3-dioxan-4-carbonsäuren, aus denen 3-Hydroxytetrahydrofuran-2-on gewonnen werden kann. Messung des Drehwertes dieser beiden literaturbekannten Verbindungen liefert nicht nur Information über deren Enantiomerenreinheit sondern ebenfalls über die Konfiguration ihres Stereozentrums. In Kombination mit der Relativ-Konfiguration des Esters ist somit ein Rückschluss auf die Absolutkonfiguration der eingesetzten 4,5-Dihydro-1,3-dioxepine möglich. Die auf den beschriebenen Wegen gewonnenen Substanzen finden Anwendung in der stereoselektiven organischen Synthese. Löst man die Chlorbenzoesäureester in Dichlormethan und behandelt sie mit wässriger Salzsäure, so entstehen die bicyclischen 2-Alkyltetrahydrofuro[2,3-d][1,3]dioxole. Auch bei diesen Verbindungen konnten hohe Enantio- und Diastereoselektivitäten erzielt werden. Der intermolekular verlaufende Reaktionsmechanismus der Bicyclus-Bildung, welcher unter Abspaltung eines den Alkylrest tragenden Aldehyds und dessen Neuanlagerung unter Ausbildung eines Acetals verläuft, konnte in dieser Arbeit durch ein Kreuzungsexperiment bestätigt werden. Umacetalisierung der Bicyclen liefert 2-Methoxytetrahydrofuran-3-ol, aus dem durch Acetalspaltung Tetrahydrofuran-2,3-diol erhalten wird, das die Halbacetalform der entsprechenden Desoxytetrose darstellt, die auf diese Weise in einer de novo-Synthese hergestellt werden kann.
Resumo:
Ziel dieser Arbeit war, durch Aziridinierung homochiraler 5-Methyl-4H-1,3-dioxinen eine neue Methode zur Synthese von alpha-Aminoaldehyden und den ableitbaren Aminosäuren mit alpha-quartären Zentren zu entwickeln. Die chiralen 5-Methyl-4H-1,3-dioxine sind mit hohen Enantiomerenüberschüssen durch asymmetrische Doppelbindungsisomerisierung von 5-Methylen-1,3-dioxanen zugänglich. Die Metall-katalysierte Aziridinierung der 5-Methyl-4H-1,3-dioxine mit der Nitrenquelle (N-Tosylimino)phenyliodinan führte direkt zu N-Tosyl-geschützen 4-Methyl-1,3-oxazolidin-4-carbaldehyden. Vermutlich über ein Aziridin als nicht isolierbare Zwischenstufe werden über eine Ringöffnungs-/Ringverengungsreaktion die Oxazolidinderivate gebildet, vorzugsweise in Gegenwart von Cu(I)-Katalysatoren, während die Rhodium-katalysierte Reaktion ausschließlich zu Insertionsprodukten führt. In der Cu-katalysierten Aziridinierung ist das Verhältnis von Aziridinierung/Insertion abhängig von der Katalysatorkonzentration. Die Aziridinierung mit N-(p-Nitrobenzolsulfonyl)- und N-(Trimethylsilylethylsulfonyl)- substituierten Nitrenquellen führt zu Oxazolidinderivaten mit leichter abspaltbaren Schutzgruppen. Diese Nitrenquellen können in situ aus den korrespondierenden Sulfonamiden mit Iodosobenzol dargestellt werden. Bei dem Einsatz homochiraler 4H-1,3-Dioxine ist Erhalt der Stereoinformation abhängig vom Substituenten in 2-Position der Dioxine sowie von der Polarität des Lösungsmittels. Die höchsten Selektivitäten wurden in tert-Butylmethylether erzielt. In Falle des 2-tert-Butyl-4-methyl-3-(toluol-4-sulfonyl)-1,3-oxazolidin-4-carbaldehyds kristallisiert das Hauptdiastereomer in enantiomerenreiner Form. Die Absolutkonfiguration wurde durch Röntgenkristallstrukturanalyse ermittelt. Das Anwendungspotential dieser neuen Methode konnte durch Überführen der Serinale in Aminoalkohole und alpha-Methylserin-Derivate sowie in der Synthese der unnatürlichen Aminosäure alpha-Vinylalanin gezeigt werden.
Resumo:
Der Markt für öffentlichen Personennahverkehr (ÖPNV) wird liberalisiert, in die gewachsenen Monopolstrukturen werden Marktmechanismen implementiert. Ziel der neuen ordnungspolitischen Rahmenbedingungen ist die Steigerung der Effizienz des defizitären Verkehrsbereichs, der von kommunalen Verkehrsunternehmen dominiert wird. Diese erbringen als Quasi-Monopolisten traditionell die Verkehrsdurchführung, regelmäßig anfallende Defizite werden von der öffentlichen Hand ausgeglichen. Bedingt durch ihre Leistungsstrukturen sind kommunale Verkehrsunternehmen in einem Wettbewerbsmarkt kaum konkurrenzfähig. Charakteristisch für diesen Unternehmenstyp ist der hohe Grad an vertikal integrierten Wertschöpfungsstufen. Im Gegensatz zu anderen Branchen erbringen kommunale Verkehrsunternehmen die wesentlichen Teile der gesamten ÖPNV-Wertschöpfungskette innerhalb der eigenen Unternehmensgrenzen. An dem hohen vertikalen Integrationsgrad setzt die Untersuchung an. Mit dem von Williamson entwickelten Instrumentarium der Transaktionskostentheorie werden die Leistungsbereiche einer transaktionskostentheoretischen Bewertung unterzogen. Als Alternativen zum institutionellen Arrangement der vertikalen Integration – das als Hierarchie bezeichnet wird – stehen die Arrangements Kooperation und Markt zur Verfügung. Die Bewertung zeigt, welche Leistungsbereiche unter transaktionskostentheoretischen Gesichtspunkten hierarchisch institutionalisiert werden sollten und welche alternativ erbracht werden können. Aus den Ergebnissen werden Strategieempfehlungen abgeleitet, die als Arbeitshypothesen einer anschließenden empirischen Überprüfung unterzogen werden. Die befragten ÖPNV-Experten bewerten somit die Marktfähigkeit der Strategieempfehlungen. Die Untersuchungsergebnisse werden für die Erarbeitung eines alternativen Koordinierungsarrangements für kommunale Verkehrsunternehmen herangezogen. Das Modell basiert auf der Grundlage Strategischer Netzwerke. Kommunale Verkehrsunternehmen nehmen in dem Modell die Rolle des Nukleus ein, der eine Vielzahl von Netzwerkpartnern steuert und für die Erbringung der ÖPNV-Leistungen mit diesen kooperiert.
Resumo:
Das in unserer Arbeitsgruppe entwickelte relativistische Molekülstrukturprogramm RELMOS erlaubt die Berechnung der totalen Energie kleiner Moleküle und Cluster mit der Dichtefunktional-Methode. Das Programm arbeitet mit numerischen Basissätzen aus atomaren DFT-Rechnungen; alle vorkommenden Matrixelemente müssen daher duch eine dreidimensionale numerische Integrationsregel ausgewertet werden. Die linear mit der Zahl der Stützstellen der numerischen Regel skalierende Rechenzeit, bestimmt im Wesentlichen die Gesamtlaufzeit des Programms und beschränkt in der Praxis die Größe der berechenbaren Systeme. Die zu berechnenden Mehr-Zentren-Integrale können wie die atomaren Basisfunktionen an einem oder mehreren Kernorten gepeakt sein, so dass eine direkte Integration sehr ineffektiv ist. Die große Zahl der durchzuführenden Integrationen verlangt weiterhin die Aufstellung einer gemeinsamen Integrationsregel für alle vorkommenden Integrale. Durch eine Raumaufteilung kann ein solches Mehr-Zentren- Integral in eine Summe von Ein-Zentren-Integralen zerlegt werden. Anschließend kann für jedes Zentrum eine numerische Integrationsregel aufgestellt werden, die dem Verlauf der Wellenfunktionen in der Nähe der Kerne Rechnung trägt. Ziel ist dabei, die Regel so zu wählen, dass sie für alle Integranden geeignet ist, dabei aber eine möglichst geringe Zahl von Stützstellen benötigt. Im Rahmen dieser Arbeit ist ein Programmpaket entstanden, dass die Erzeugung einer numerischen Integrationsregel für Mehr-Zentren-Systeme erlaubt. Der Algorithmus des Integrationspaketes ist sehr allgemein gehalten. Für jede Raumdimension und jedes Integrationszentrum lassen sowohl die numerische Integrationsregel, als auch Koordinatentransformationen und Genauigkeitsanforderungen getrennt angeben. Die Anzahl der Integrationspunkte kann mit Hilfe von Testfunktionen an die unterschiedlichen Raumbereiche angepasst werden. Anschließend kann die Anzahl der Punkte durch eine eventuell vorhandene Molekülsymmetrie reduziert werden. Das Integrationspaket wurde an Atomen und an Molekülen unterschiedlicher Größe und Symmetrie getestet und mit der bisher verwendeten Methode von Baerends et. al verglichen. Dabei wurde die jeweils erreichte Genauigkeit für verschiedene Größen in Abhängigkeit der Zahl der Integrationspunkte betrachtet. Gegenüber dem Verfahren von Baerends zeigt sich eine Verbesserung in der Anzahl der Integrationspunkte um einen Faktor vier bis neun bei gleicher Genauigkeit, während bei festgehaltener Zahl der Integrationspunkte die numerische Genauigkeit um zwei bis drei Größenordnungen gesteigert wird.
Resumo:
RNA interference (RNAi) is a recently discovered process, in which double stranded RNA (dsRNA) triggers the homology-dependant degradation of cognate messenger RNA (mRNA). In a search for new components of the RNAi machinery in Dictyostelium, a new gene was identified, which was called helF. HelF is a putative RNA helicase, which shows a high homology to the helicase domain of Dicer, to the helicase domain of Dictyostelium RdRP and to the C. elegans gene drh-1, that codes for a dicer related DExH-box RNA helicase, which is required for RNAi. The aim of the present Ph.D. work was to investigate the role of HelF in PTGS, either induced by RNAi or asRNA. A genomic disruption of the helF gene was performed, which resulted in a distinct mutant morphology in late development. The cellular localization of the protein was elucidated by creating a HelF-GFP fusion protein, which was found to be localized in speckles in the nucleus. The involvement of HelF in the RNAi mechanism was studied. For this purpose, RNAi was induced by transformation of RNAi hairpin constructs against four endogenous genes in wild type and HelF- cells. The silencing efficiency was strongly enhanced in the HelF K.O. strain in comparison with the wild type. One gene, which could not be silenced in the wild type background, was successfully silenced in HelF-. When the helF gene was disrupted in a secondary transformation in a non-silenced strain, the silencing efficiency was strongly improved, a phenomenon named here “retrosilencing”. Transcriptional run-on experiments revealed that the enhanced gene silencing in HelF- was a posttranscriptional event, and that the silencing efficiency depended on the transcription levels of hairpin RNAs. In HelF-, the threshold level of hairpin transcription required for efficient silencing was dramatically lowered. The RNAi-mediated silencing was accompanied by the production of siRNAs; however, their amount did not depend on the level of hairpin transcription. These results indicated that HelF is a natural suppressor of RNAi in Dictyostelium. In contrast, asRNA mediated gene silencing was not enhanced in the HelF K.O, as shown for three tested genes. These results confirmed previous observations (H. Martens and W. Nellen, unpublished) that although similar, RNAi and asRNA mediated gene silencing mechanisms differ in their requirements for specific proteins. In order to characterize the function of the HelF protein on a molecular level and to study its interactions with other RNAi components, in vitro experiments were performed. Besides the DEAH-helicase domain, HelF contains a double-stranded RNA binding domain (dsRBD) at its N-terminus, which showed high similarity to the dsRBD domain of Dicer A from Dictyostelium. The ability of the recombinant dsRBDs from HelF and Dicer A to bind dsRNA was examined and compared. It was shown by gel-shift assays that both HelF-dsRBD and Dicer-dsRBD could bind directly to long dsRNAs. However, HelF-dsRBD bound more efficiently to dsRNA with imperfect matches than to perfect dsRNA. Both dsRBDs bound specifically to a pre-miRNA substrate (pre-let-7). The results suggested that most probably there were two binding sites for the proteins on the pre-miRNA substrate. Moreover, it was shown that HelF-dsRBD and Dicer-dsRBD have siRNA-binding activity. The affinities of the two dsRBDs to the pre-let-7 substrate were also examined by plasmon surface resonance analyses, which revealed a 9-fold higher binding affinity of the Dicer-dsRBD to pre-let-7 compared to that of the HelF-dsRBD. The binding of HelF-dsRBD to the pre-let-7 was impaired in the presence of Mg2+, while the Dicer-dsRBD interaction with pre-let-7 was not influenced by the presence of Mg2+. The results obtained in this thesis can be used to postulate a model for HelF function. In this, HelF acts as a nuclear suppressor of RNAi in wild type cells by recognition and binding of dsRNA substrates. The protein might act as a surveillance system to avoid RNAi initiation by fortuitous dsRNA formation or low abundance of dsRNA trigger. If the protein acts as an RNA helicase, it could unwind fold-back structures in the nucleus and thus lead to decreased RNAi efficiency. A knock-out of HelF would result in initiation of the RNAi pathway even by low levels of dsRNA. The exact molecular function of the protein in the RNAi mechanism still has to be elucidated. RNA interferenz (RNAi) ist ein in jüngster Zeit entdeckter Mechanismus, bei dem doppelsträngige RNA Moleküle (dsRNA) eine Homologie-abhängige Degradation einer verwandten messenger-RNA (mRNA) auslösen. Auf der Suche nach neuen Komponenten der RNAi-Maschinerie in Dictyostelium konnte ein neues Gen (helF) identifiziert werden. HelF ist eine putative RNA-Helikase mit einer hohen Homologie zur Helikasedomäne der bekannten Dicerproteine, der Helikasedomäne der Dictyostelium RdRP und zu dem C. elegans Gen drh-1, welches für eine Dicer-bezogene DExH-box RNA Helikase codiert, die am RNAi-Mechanismus beteiligt ist. Das Ziel dieser Arbeit war es, die Funktion von HelF im Zusammenhang des RNAi oder asRNA induzierten PTGS zu untersuchen. Es wurde eine Unterbrechung des helF-Gens auf genomischer Ebene (K.O.) vorgenommen, was bei den Mutanten zu einer veränderten Morphologie in der späten Entwicklung führte. Die Lokalisation des Proteins in der Zelle konnte mit Hilfe einer GFP-Fusion analysiert werden und kleinen Bereichen innerhalb des Nukleus zugewiesen werden. Im Weiteren wurde der Einfluss von HelF auf den RNAi-Mechanismus untersucht. Zu diesem Zweck wurde RNAi durch Einbringen von RNAi Hairpin-Konstrukten gegen vier endogene Gene im Wiltypstamm und der HelF--Mutante induziert. Im Vergleich zum Wildtypstamm konnte im HelF--Mutantenstamm eine stark erhöhte „Silencing“-Effizienz nachgewiesen werden. Ein Gen, welches nach RNAi Initiation im Wildtypstamm unverändert blieb, konnte im HelF--Mutantenstamm erfolgreich stillgelegt werden. Durch sekundäres Einführen einer Gendisruption im helF-Locus in einen Stamm, in welchem ein Gen nicht stillgelegt werden konnte, wurde die Effizienz des Stilllegens deutlich erhöht. Dieses Phänomen wurde hier erstmals als „Retrosilencing“ beschrieben. Mit Hilfe von transkriptionellen run-on Experimenten konnte belegt werden, dass es sich bei dieser erhöhten Stilllegungseffizienz um ein posttranskriptionelles Ereignis handelte, wobei die Stillegungseffizienz von der Transkriptionsstärke der Hairpin RNAs abhängt. Für die HelF--Mutanten konnte gezeigt werden, dass der Schwellenwert zum Auslösen eines effizienten Stillegens dramatisch abgesenkt war. Obwohl die RNAi-vermittelte Genstilllegung immer mit der Produktion von siRNAs einhergeht, war die Menge der siRNAs nicht abhängig von dem Expressionsniveau des Hairpin-Konstruktes. Diese Ergebnisse legen nahe, dass es sich bei der HelF um einen natürlichen Suppressor des RNAi-Mechanismus in Dictyostelium handelt. Im Gegensatz hierzu war die as-vermittelte Stilllegung von drei untersuchten Genen im HelF-K.O. im Vergleich zum Wildyp unverändert. Diese Ergebnisse bestätigten frühere Beobachtungen (H. Martens und W. Nellen, unveröffentlicht), wonach die Mechanismen für RNAi und asRNA-vermittelte Genstilllegung unterschiedliche spezifische Proteine benötigen. Um die Funktion des HelF-Proteins auf der molekularen Ebene genauer zu charakterisieren und die Interaktion mit anderen RNAi-Komponenten zu untersuchen, wurden in vitro Versuche durchgeführt. Das HelF-Protein enthält, neben der DEAH-Helikase-Domäne eine N-terminale Doppelstrang RNA bindende Domäne (dsRBD) mit einer hohen Ähnlichkeit zu der dsRBD des Dicer A aus Dictyostelium. Die dsRNA-Bindungsaktivität der beiden dsRBDs aus HelF und Dicer A wurde analysiert und verglichen. Es konnte mithilfe von Gel-Retardationsanalysen gezeigt werden, dass sowohl HelF-dsRBD als auch Dicer-dsRBD direkt an lange dsRNAs binden können. Hierbei zeigte sich, dass die HelF-dsRBD eine höhere Affinität zu einem imperfekten RNA-Doppelstrang besitzt, als zu einer perfekt gepaarten dsRNA. Für beide dsRBDs konnte eine spezifische Bindung an ein pre-miRNA Substrat nachgewiesen werden (pre-let-7). Dieses Ergebnis legt nah, dass es zwei Bindestellen für die Proteine auf dem pre-miRNA Substrat gibt. Überdies hinaus konnte gezeigt werden, dass die dsRBDs beider Proteine eine siRNA bindende Aktivität besitzen. Die Affinität beider dsRBDs an das pre-let-7 Substrat wurde weiterhin mit Hilfe der Plasmon Oberflächen Resonanz untersucht. Hierbei konnte eine 9-fach höhere Bindeaffinität der Dicer-dsRBD im Vergleich zur HelF-dsRBD nachgewiesen werden. Während die Bindung der HelF-dsRBD an das pre-let-7 durch die Anwesenheit von Mg2+ beeinträchtigt war, zeigte sich kein Einfluß von Mg2+ auf das Bindeverhalten der Dicer-dsRBD. Mit Hilfe der in dieser Arbeit gewonnen Ergebnisse lässt sich ein Model für die Funktion von HelF postulieren. In diesem Model wirkt HelF durch Erkennen und Binden von dsRNA Substraten als Suppressor von der RNAi im Kern. Das Protein kann als Überwachungsystem gegen eine irrtümliche Auslösung von RNAi wirken, die durch zufällige dsRNA Faltungen oder eine zu geringe Häufigkeit der siRNAs hervorgerufen sein könnte. Falls das Protein eine Helikase-Aktivität besitzt, könnte es rückgefaltete RNA Strukturen im Kern auflösen, was sich in einer verringerten RNAi-Effizienz wiederspiegelt. Durch Ausschalten des helF-Gens würde nach diesem Modell eine erfolgreiche Auslösung von RNAi schon bei sehr geringer Mengen an dsRNA möglich werden. Das Modell erlaubt, die exakte molekulare Funktion des HelF-Proteins im RNAi-Mechanismus weiter zu untersuchen.
Resumo:
Zur Senkung von Kosten werden in vielen Unternehmen Dienstleistungen, die nicht zur Kernkompetenz gehören, an externe Dienstleister ausgelagert. Dieser Prozess wird auch als Outsourcing bezeichnet. Die dadurch entstehenden Abhängigkeiten zu den externen Dienstleistern werden mit Hilfe von Service Level Agreements (SLAs) vertraglich geregelt. Die Aufgabe des Service Level Managements (SLM) ist es, die Einhaltung der vertraglich fixierten Dienstgüteparameter zu überwachen bzw. sicherzustellen. Für eine automatische Bearbeitung ist daher eine formale Spezifikation von SLAs notwendig. Da der Markt eine Vielzahl von unterschiedlichen SLM-Werkzeugen hervorgebracht hat, entstehen in der Praxis Probleme durch proprietäre SLA-Formate und fehlende Spezifikationsmethoden. Daraus resultiert eine Werkzeugabhängigkeit und eine limitierte Wiederverwendbarkeit bereits spezifizierter SLAs. In der vorliegenden Arbeit wird ein Ansatz für ein plattformunabhängiges Service Level Management entwickelt. Ziel ist eine Vereinheitlichung der Modellierung, so dass unterschiedliche Managementansätze integriert und eine Trennung zwischen Problem- und Technologiedomäne erreicht wird. Zudem wird durch die Plattformunabhängigkeit eine hohe zeitliche Stabilität erstellter Modelle erreicht. Weiteres Ziel der Arbeit ist, die Wiederverwendbarkeit modellierter SLAs zu gewährleisten und eine prozessorientierte Modellierungsmethodik bereitzustellen. Eine automatisierte Etablierung modellierter SLAs ist für eine praktische Nutzung von entscheidender Relevanz. Zur Erreichung dieser Ziele werden die Prinzipien der Model Driven Architecture (MDA) auf die Problemdomäne des Service Level Managements angewandt. Zentrale Idee der Arbeit ist die Definition von SLA-Mustern, die konfigurationsunabhängige Abstraktionen von Service Level Agreements darstellen. Diese SLA-Muster entsprechen dem Plattformunabhängigen Modell (PIM) der MDA. Durch eine geeignete Modelltransformation wird aus einem SLA-Muster eine SLA-Instanz generiert, die alle notwendigen Konfigurationsinformationen beinhaltet und bereits im Format der Zielplattform vorliegt. Eine SLA-Instanz entspricht damit dem Plattformspezifischen Modell (PSM) der MDA. Die Etablierung der SLA-Instanzen und die daraus resultierende Konfiguration des Managementsystems entspricht dem Plattformspezifischen Code (PSC) der MDA. Nach diesem Schritt ist das Managementsystem in der Lage, die im SLA vereinbarten Dienstgüteparameter eigenständig zu überwachen. Im Rahmen der Arbeit wurde eine UML-Erweiterung definiert, die eine Modellierung von SLA-Mustern mit Hilfe eines UML-Werkzeugs ermöglicht. Hierbei kann die Modellierung rein graphisch als auch unter Einbeziehung der Object Constraint Language (OCL) erfolgen. Für die praktische Realisierung des Ansatzes wurde eine Managementarchitektur entwickelt, die im Rahmen eines Prototypen realisiert wurde. Der Gesamtansatz wurde anhand einer Fallstudie evaluiert.
Resumo:
A stand-alone power system is an autonomous system that supplies electricity to the user load without being connected to the electric grid. This kind of decentralized system is frequently located in remote and inaccessible areas. It is essential for about one third of the world population which are living in developed or isolated regions and have no access to an electricity utility grid. The most people live in remote and rural areas, with low population density, lacking even the basic infrastructure. The utility grid extension to these locations is not a cost effective option and sometimes technically not feasible. The purpose of this thesis is the modelling and simulation of a stand-alone hybrid power system, referred to as “hydrogen Photovoltaic-Fuel Cell (PVFC) hybrid system”. It couples a photovoltaic generator (PV), an alkaline water electrolyser, a storage gas tank, a proton exchange membrane fuel cell (PEMFC), and power conditioning units (PCU) to give different system topologies. The system is intended to be an environmentally friendly solution since it tries maximising the use of a renewable energy source. Electricity is produced by a PV generator to meet the requirements of a user load. Whenever there is enough solar radiation, the user load can be powered totally by the PV electricity. During periods of low solar radiation, auxiliary electricity is required. An alkaline high pressure water electrolyser is powered by the excess energy from the PV generator to produce hydrogen and oxygen at a pressure of maximum 30bar. Gases are stored without compression for short- (hourly or daily) and long- (seasonal) term. A proton exchange membrane (PEM) fuel cell is used to keep the system’s reliability at the same level as for the conventional system while decreasing the environmental impact of the whole system. The PEM fuel cell consumes gases which are produced by an electrolyser to meet the user load demand when the PV generator energy is deficient, so that it works as an auxiliary generator. Power conditioning units are appropriate for the conversion and dispatch the energy between the components of the system. No batteries are used in this system since they represent the weakest when used in PV systems due to their need for sophisticated control and their short lifetime. The model library, ISET Alternative Power Library (ISET-APL), is designed by the Institute of Solar Energy supply Technology (ISET) and used for the simulation of the hybrid system. The physical, analytical and/or empirical equations of each component are programmed and implemented separately in this library for the simulation software program Simplorer by C++ language. The model parameters are derived from manufacturer’s performance data sheets or measurements obtained from literature. The identification and validation of the major hydrogen PVFC hybrid system component models are evaluated according to the measured data of the components, from the manufacturer’s data sheet or from actual system operation. Then, the overall system is simulated, at intervals of one hour each, by using solar radiation as the primary energy input and hydrogen as energy storage for one year operation. A comparison between different topologies, such as DC or AC coupled systems, is carried out on the basis of energy point of view at two locations with different geographical latitudes, in Kassel/Germany (Europe) and in Cairo/Egypt (North Africa). The main conclusion in this work is that the simulation method of the system study under different conditions could successfully be used to give good visualization and comparison between those topologies for the overall performance of the system. The operational performance of the system is not only depending on component efficiency but also on system design and consumption behaviour. The worst case of this system is the low efficiency of the storage subsystem made of the electrolyser, the gas storage tank, and the fuel cell as it is around 25-34% at Cairo and 29-37% at Kassel. Therefore, the research for this system should be concentrated in the subsystem components development especially the fuel cell.
Resumo:
Die gegenwärtige Entwicklung der internationalen Klimapolitik verlangt von Deutschland eine Reduktion seiner Treibhausgasemissionen. Wichtigstes Treibhausgas ist Kohlendioxid, das durch die Verbrennung fossiler Energieträger in die Atmosphäre freigesetzt wird. Die Reduktionsziele können prinzipiell durch eine Verminderung der Emissionen sowie durch die Schaffung von Kohlenstoffsenken erreicht werden. Senken beschreiben dabei die biologische Speicherung von Kohlenstoff in Böden und Wäldern. Eine wichtige Einflussgröße auf diese Prozesse stellt die räumliche Dynamik der Landnutzung einer Region dar. In dieser Arbeit wird das Modellsystem HILLS entwickelt und zur Simulation dieser komplexen Wirkbeziehungen im Bundesland Hessen genutzt. Ziel ist es, mit HILLS über eine Analyse des aktuellen Zustands hinaus auch Szenarien über Wege der zukünftigen regionalen Entwicklung von Landnutzung und ihrer Wirkung auf den Kohlenstoffhaushalt bis 2020 zu untersuchen. Für die Abbildung der räumlichen und zeitlichen Dynamik von Landnutzung in Hessen wird das Modell LUCHesse entwickelt. Seine Aufgabe ist die Simulation der relevanten Prozesse auf einem 1 km2 Raster, wobei die Raten der Änderung exogen als Flächentrends auf Ebene der hessischen Landkreise vorgegeben werden. LUCHesse besteht aus Teilmodellen für die Prozesse: (A) Ausbreitung von Siedlungs- und Gewerbefläche, (B) Strukturwandel im Agrarsektor sowie (C) Neuanlage von Waldflächen (Aufforstung). Jedes Teilmodell umfasst Methoden zur Bewertung der Standorteignung der Rasterzellen für unterschiedliche Landnutzungsklassen und zur Zuordnung der Trendvorgaben zu solchen Rasterzellen, die jeweils am besten für eine Landnutzungsklasse geeignet sind. Eine Validierung der Teilmodelle erfolgt anhand von statistischen Daten für den Zeitraum von 1990 bis 2000. Als Ergebnis eines Simulationslaufs werden für diskrete Zeitschritte digitale Karten der Landnutzugsverteilung in Hessen erzeugt. Zur Simulation der Kohlenstoffspeicherung wird eine modifizierte Version des Ökosystemmodells Century entwickelt (GIS-Century). Sie erlaubt einen gesteuerten Simulationslauf in Jahresschritten und unterstützt die Integration des Modells als Komponente in das HILLS Modellsystem. Es werden verschiedene Anwendungsschemata für GIS-Century entwickelt, mit denen die Wirkung der Stilllegung von Ackerflächen, der Aufforstung sowie der Bewirtschaftung bereits bestehender Wälder auf die Kohlenstoffspeicherung untersucht werden kann. Eine Validierung des Modells und der Anwendungsschemata erfolgt anhand von Feld- und Literaturdaten. HILLS implementiert eine sequentielle Kopplung von LUCHesse mit GIS-Century. Die räumliche Kopplung geschieht dabei auf dem 1 km2 Raster, die zeitliche Kopplung über die Einführung eines Landnutzungsvektors, der die Beschreibung der Landnutzungsänderung einer Rasterzelle während des Simulationszeitraums enthält. Außerdem integriert HILLS beide Modelle über ein dienste- und datenbankorientiertes Konzept in ein Geografisches Informationssystem (GIS). Auf diesem Wege können die GIS-Funktionen zur räumlichen Datenhaltung und Datenverarbeitung genutzt werden. Als Anwendung des Modellsystems wird ein Referenzszenario für Hessen mit dem Zeithorizont 2020 berechnet. Das Szenario setzt im Agrarsektor eine Umsetzung der AGENDA 2000 Politik voraus, die in großem Maße zu Stilllegung von Ackerflächen führt, während für den Bereich Siedlung und Gewerbe sowie Aufforstung die aktuellen Trends der Flächenausdehnung fortgeschrieben werden. Mit HILLS ist es nun möglich, die Wirkung dieser Landnutzungsänderungen auf die biologische Kohlenstoffspeicherung zu quantifizieren. Während die Ausdehnung von Siedlungsflächen als Kohlenstoffquelle identifiziert werden kann (37 kt C/a), findet sich die wichtigste Senke in der Bewirtschaftung bestehender Waldflächen (794 kt C/a). Weiterhin führen die Stilllegung von Ackerfläche (26 kt C/a) sowie Aufforstung (29 kt C/a) zu einer zusätzlichen Speicherung von Kohlenstoff. Für die Kohlenstoffspeicherung in Böden zeigen die Simulationsexperimente sehr klar, dass diese Senke nur von beschränkter Dauer ist.
Resumo:
Gerade männliche Jugendliche nutzen in ihrer Pubertät und Adoleszenz zu einer gelingenden Gestaltung ihres Alltags und zur Ausbildung ihrer Identität zahlreiche Erscheinungsformen des Fantasy-Rollenspielens. In einem Prozess von Aneignung und Entäußerung integrieren dabei die Jugendlichen das überaus reiche multimediale Angebot, welches die Spiele bieten, in ihre Alltagsgestaltung, indem sie sich daraus spezifische Medien-, Text- und Ereignisarrangements bauen. Diese dienen einerseits der sozialen Integration und Distinktion, andererseits der Präsentation ihrer Identitätsentwürfe sich und anderen. Die Jugendlichen schaffen sich mittels dieser spezifischen Medien-, Text- und Ereignisarrangements eine in weiten Teilen von ihnen selbst bestimmte Welt, in der sie ihre Phantasie wie Kreativität mit großer Intensität, ja Obsession, innerhalb integrativer und solidarischer Interaktionsformen selbststeuernd und professionell ausleben. Diese Medien-, Text- und Ereignisarrangements zeigen Angebots- und Nutzungsformen, die sich nach einem medienkommunikativen Aneignungs- und Entäußerungsmodell in der Tradition der Cultural Studies (Stuart Hall) beschreiben lassen. Die Langzeitbeobachtung der Jugendlichen zeigt, dass sie alltagspragmatische Kulturtechniken zur selbstbestimmten Gestaltung von Alltag entwickeln: zunächst eine Strukturierung ihrer kognitiven, affektiven und pragmatischen Interaktion nach Kriterien erfolgreicher intrinsischer Interaktion, mit dem Ziel derer Perpetuierung im Flow-Erleben (Mihalyi Csikszentmihalyi), dann eine Ästhetisierung von Alltagswirklichkeit mittels kollektiver Fiktionalisierung in der Tradition des Collective Story Telling (Janet H. Murray). Diese Kulturtechniken stellen vor dem Hintergrund der Enkodierung und Dekodierung sozialer Codes spezifische Adaptionen von Prozessen der Bedeutungszuweisung und Subjekt- bzw. Identitätskonstitution dar. Die sie evozierenden und mit ihnen korrespondierenden handlungsleitenden Themen der Jugendlichen sind der Wunsch nach Rekonstitution von Gesamtheit in einer sich fragmentarisierenden Wirklichkeit, die Affirmation von Selbstbestimmung- und Autonomieerfahrungen, das Erleben von Reintegration und Solidarität für das sich dissoziiert erfahrende Individuum. Das Handeln der Jugendlichen basiert damit auf dem momentan dominanten Prozess einer Individualisierung von Lebenswelt unter den Bedingungen von Reflexivität und Erlebnisrationalität in der postmodernen Gesellschaft. Mit ihren Versuchen selbstbestimmter Gestaltung folgen sie dem aktuellen gesellschaftlichen Auftrag einer weitgehend in eigener Regie vorzunehmenden Lokalisierung dieses Prozesses. Zunehmend tritt diese von den Jugendlichen selbstgesteuerte Sozialisation neben die traditionell heteronome Sozialisation von gesellschaftlichen Instituten wie etwa die von Schule. Damit wird das Handeln der Jugendlichen zu einer Herausforderung an Pädagogik und Schule. Schule muss, wenn sie ihrem eigentlichen Auftrag von Förderung gerecht werden will, eine Sensibilität für diese Eigenständigkeit von Jugendlichen entwickeln und in der Beobachtung ihres Handelns didaktische Innovationen für Lehren und Lernen entwickeln. Im Mittelpunkt steht dabei die Wiederentdeckung des pädagogischen Dialogs, besonders aber die Entwicklung einer individualisierten Lernkultur und die Förderung jugendlicher Gestaltungskompetenzen, welche von deren alltagsästhetischen Erfahrungen und Kompetenzen im Umgang mit multimedialen Kulturprodukten ausgeht. Schule kann und muss für diese Prozesse selbstgesteuerten Lernens angemessene pädagogische Räume bereitstellen, in denen die Jugendlichen innerhalb eines geschützten Kontextes in der Auseinandersetzung mit eigenen wie fremden Entwürfen ihre Identität entwickeln können.
Resumo:
Informations- und Kommunikationstechnologien über das Internet bieten vielfältige Möglichkeit innovative Lernumgebungen zu schaffen. Mit der Zukunftswerkstatt-online wird der Versuch unternommen, die Lernmethode Zukunftswerkstatt, als telekooperative Lernumgebung zu gestalten. Die Entwicklung dieser internetbasierten Lernumgebung und das damit verbundene Dissertationsvorhaben zeichnet sich vornehmlich durch den partizipativen und prozessorientierten Austausch sowohl mit Informatikern als auch mit potentiellen Nutzern in einer Pilotphase aus. Die zentrale Motivation des Forschungsvorhabens erklärt sich über die Entwicklung von Möglichkeiten Lernergruppen Raum zu geben sich ihrer persönlich bedeutsamen Probleme bewusst zu werden, Ideen für Lösungsstrategien zu entwickeln und konkrete Veränderungen anzugehen. Das Forschungsdesign dieser Arbeit bedient sich verschiedener Erhebungs- und Auswertungsmethoden der empirischen Sozialforschung mit dem Ziel, die Grenzen einzelner Methoden zu minimieren, um zu differenzierten Erkenntnissen im Forschungsfeld zu gelangen. Die Evaluation des Forschungsvorhabens begründet sich vorwiegend aus Methoden der qualitativen Sozialforschung (teilnehmende Beobachtung, schriftlichen Befragung, linguistische Analyse der Chatbeiträge sowie fokussierte Interviews im Rahmen von drei Fallstudien). Im Sinne der Handlungs- und Aktionsforschung liegt das Forschungsinteresse zum einen in der Entwicklung der Zukunftswerkstatt-online unter besonderer Berücksichtigung der Funktionen, Softwareergonomie, zum anderen hinsichtlich der Frage nach den Möglichkeiten zur kreativen Gestaltung von Lernprozesse. Im Fokus des Interesses stehen daher folgende Forschungsfragen: 1. Wie muss eine Zukunftswerkstatt-online gestaltet werden, um als effektives Problemlöse- und Erschließungsinstrument für offene Möglichkeitsräume zu funktionieren? 2. Was kann eine Zukunftswerkstatt-online hinsichtlich der kommunikativen Aufgaben für Lehrende und Lerngruppen leisten? 3. Welche Lehr-/ Lernvoraussetzungen lassen sich für die Anwendung einer Zukunftswerkstatt-online formulieren? Aufgrund der Auswertungen der o.g. Evaluationsmethoden lassen sich folgende signifikante Aspekte bezüglich des Anregungsgehalts der Zukunftswerkstatt-online benennen: 1. Aspekt der Situiertheit: Die Mischung aus Vorstrukturierung durch die drei Phasen der Methode auf der einen Seiten und den Freiraum hinsichtlich der inhaltlichen Gestaltung wird von den Probanden als positiv und unterstützend für den Lernprozess bewertet. 2. Aspekt der multiplen Perspektive: Mit der Zukunftswerkstatt-online wird eine strukturierte Zusammenarbeit in Gruppen ermöglicht. Problemfelder können somit aus unterschiedlichen Perspektiven dargestellt werden. 3. Aspekt des Lernens im sozialen Kontext: Der "Community" Gedanke des Internets wird während der Arbeit mit der Zukunftswerkstatt-online gefördert. Es lassen sich drei unterstützende Faktoren hierzu benennen: - Der vorgegebene Interaktionsrahmen der Methode. - Die von den Lernenden gewählte Inhalte. - Die Auswahl der Kooperationspartner. Hinsichtlich der Förderung von Schlüsselkompetenzen kann die Zukunftswerkstatt-online folgendes leisten: Förderung der fachlichen Kompetenz: Die Zukunftswerkstatt-online stärkt mediale Kompetenzen der Teilnehmer. Darüber hinaus werden durch die Möglichkeiten der Dokumentation des Diskussionsverlaufs und der Speicherung von Daten, Informationen nachhaltige gesichert. Förderung der sozialen Kompetenz: Aufgrund der Arbeit in einem weites gehenden hierarchiefreien Raum wird vernetzten Arbeiten und synergetischer Austausch der Teilnehmer ermöglicht. Förderung der personalen Kompetenz: Die kommunikativen Kompetenzen werden gefördert sowie die Entwicklung eines Methodenrepertoires für die Gestaltung von Gruppenprozessen in eigenen Handlungsfeldern der Teilnehmer ausgebaut. Folgende Voraussetzung lassen sich aus den Forschungsergebnissen ableiten, die bei der Durchführung einer Zukunftswerkstatt-online unterstützend wirken: Für Lernende: - Grundlagen der Computer und Internetkompetenz, - Hohe Selbstlernkompetenz, - Kompetenzen zur Kooperation, - Schriftsprachliche Kompetenz und - Einbringung einer persönlich bedeutsamen Problemstellung. Für Lehrende: - Kompetenzen in der Organisation/Administration von Lernprozessen, - Unterstützung der Lernprozesse durch klare Anweisungen und Hilfestellungen bei der Bewältigung von Problemen. Zusammenfassend lässt sich feststellen, dass die Zukunftswerkstatt-online den aktiven Umgang, die Auseinandersetzung und die Konstruktion von handlungsorientiertem Wissen fördert. Darüber hinaus eröffnet sie in einem noch relativ neuen Wirkungsfeld der Pädagogik Möglichkeiten, neue Formen des Lehren und Lernens im virtuellen Raum zu erproben, zu evaluieren und perspektivisch weiter zu entwickeln.
Resumo:
Das Management von Kundenbeziehungen hat sich in der klassischen Ökonomie unter dem Begriff »Customer Relationship Management« (kurz: CRM) etabliert und sich in den letzten Jahren als erfolgreicher Ansatz erwiesen. In der grundlegenden Zielsetzung, wertvolle, d.h. profitable und kreditwürdige Kunden an ein Unternehmen zu binden, kommen Business-Intelligence Technologien zur Generierung von Kundenwissen aus kundenbezogenen Daten zum Einsatz. Als technologische Plattform der Kommunikation und Interaktion gewähren Business Communities einen direkten Einblick in die Gedanken und Präferenzen der Kunden. Von Business-Communitybasiertem Wissen der Kunden und über Kunden können individuelle Kundenbedürfnisse, Verhaltensweisen und damit auch wertvolle (potenzielle, profilgleiche) Kunden abgeleitet werden, was eine differenziertere und selektivere Behandlung der Kunden möglich macht. Business Communities bieten ein umfassendes Datenpotenzial, welches jedoch bis dato für das CRM im Firmenkundengeschäft respektive die Profilbildung noch nicht genutzt wird. Synergiepotenziale von der Datenquelle "Business Community" und der Technologie "Business Intelligence" werden bislang vernachlässigt. An dieser Stelle setzt die Arbeit an. Das Ziel ist die sinnvolle Zusammenführung beider Ansätze zu einem erweiterten Ansatz für das Management der irmenkundenbeziehung. Dazu wird ein BIgestütztes CRM-Konzept für die Generierung, Analyse und Optimierung von Kundenwissen erarbeitet, welches speziell durch den Einsatz einer B2B-Community gewonnen und für eine Profilbildung genutzt wird. Es soll durch die Anbindung von Fremddatenbanken Optimierung finden: In den Prozess der Wissensgenerierung fließen zur Datenqualifizierung und -quantifizierung externe (Kunden-) Daten ein, die von Fremddatenbanken (wie z.B. Information Provider, Wirtschaftsauskunftsdienste) bereitgestellt werden. Der Kern dieser Zielsetzung liegt in der umfassenden Generierung und stetigen Optimierung von Wissen, das den Aufbau einer langfristigen, individuellen und wertvollen Kundenbeziehung unterstützen soll.
Resumo:
Die hier vorliegende Arbeit wurde im Rahmen eines europäischen Projektes mit dem Titel „Improving Fraxinus (Ash) productivity for European needs by testing, selection, propagation and promotion of improved genetic resources“ an der Niedersächsischen Forstlichen Versuchsanstalt, Abteilung Waldgenressourcen erstellt. Im Rahmen des Projektes wurden 62 Plusbäume aus einem 15 Jahre alten europäischen Herkunfts-/ Nachkommenschaftsversuch in den Niedersächsischen Forstämtern Bovenden und Dannenberg nach den Kriterien Stammform und Wuchsleistung für die vegetative Vermehrung ausgewählt. Ziel dieser Arbeit war die Optimierung bestehender in vitro Protokolle sowie die Entwicklung eines bisher noch nicht existierenden Kryokonservierungsprotokolls für in vitro Sprossspitzen. Im ersten Teil dieser Arbeit wird die Entwicklung des in vitro Protokolls für Fraxinus excelsior dargestellt. Die Optimierung der Methoden zur Etablierung, Vermehrung und Bewurzelung erfolgte durch Versuchsreihen mit unterschiedlichen Klonen, so dass insgesamt 26 der selektierten Plusbäume erfolgreich in vitro etabliert werden konnten. Achselknospen frischer Triebe der Pfropflinge der Mutterbäume stellten die beste Explantatquelle dar. Die Explantate wurden mit 0,2 % Quecksilberchlorid (HgCl2) oberflächensterilisiert bevor sie auf hormonfreies Woody Plant Medium (WPM) transferiert wurden. Nach zwei Wochen erfolgte ein Transfer auf WPM mit 4 mg/l 6-Benzylaminopurine (BAP) und 0,15 mg/l Indole-3-butyric acid (IBA). Die besten Vermehrungsraten wurden auf WPM mit 4 mg/l BAP, 0,15 mg/l IBA und 0,01 mg/l TDZ und 0,7 % Agar in Honiggläsern mit einem Plastikdeckel erzielt. Als Bewurzelungsmedium wurde 0,5 konzentriertes Murashige und Skoog (MS) Medium mit 2 mg/l IBA, 0,25 mg/l BAP und 0,8 % Agar verwandt. Im zweiten Teil der Arbeit werden die Versuchsreihen zur Entwicklung des Kryokonservierungsprotokolls von in vitro Sprossspitzen dargestellt. Zur Entwicklung der Methode wurden die Vorbehandlungsbedingungen verbessert und zwei Techniken, die Alginat- / Dehydrati-onsmethode und die Vitrifikationsmethode mit Hilfe der sogenannten PVS2-Lösung (Plant Vitrification solution number 2) getestet. Die optimierte PVS2-Methode erwies sich als die für Esche besser geeignete Technik und ließ sich erfolgreich zur Kryokonservierung juveniler und adulter Kulturen anwenden. Die Regenerationsraten lagen zwischen 50 und 100 % für juvenile bzw. 50 und 80 % für adulte Kulturen.
Resumo:
Sowohl die Ressourcenproblematik als auch die drohenden Ausmaße der Klimaänderung lassen einen Umstieg auf andere Energiequellen langfristig unausweichlich erscheinen und mittelfristig als dringend geboten. Unabhängig von der Frage, auf welchem Niveau sich der Energiebedarf stabilisieren lässt, bleibt dabei zu klären, welche Möglichkeiten sich aus technischer und wirtschaftlicher Sicht in Zukunft zur Deckung unseres Energiebedarfs anbieten. Eine aussichtsreiche Option besteht in der Nutzung regenerativer Energien in ihrer ganzen Vielfalt. Die Arbeit "Szenarien zur zukünftigen Stromversorgung, kostenoptimierte Variationen zur Versorgung Europas und seiner Nachbarn mit Strom aus erneuerbaren Energien" konzentriert sich mit der Stromversorgung auf einen Teilaspekt der Energieversorgung, der zunehmend an Wichtigkeit gewinnt und als ein Schlüssel zur nachhaltigen Energieversorgung interpretiert werden kann. Die Stromversorgung ist heute weltweit für etwa die Hälfte des anthropogenen CO2-Ausstoßes verantwortlich. In dieser Arbeit wurden anhand verschiedener Szenarien Möglichkeiten einer weitgehend CO2–neutralen Stromversorgung für Europa und seine nähere Umgebung untersucht, wobei das Szenariogebiet etwa 1,1 Mrd. Einwohner und einen Stromverbrauch von knapp 4000 TWh/a umfasst. Dabei wurde untersucht, wie die Stromversorgung aufgebaut sein sollte, damit sie möglichst kostengünstig verwirklicht werden kann. Diese Frage wurde beispielsweise für Szenarien untersucht, in denen ausschließlich heute marktverfügbare Techniken berücksichtigt wurden. Auch der Einfluss der Nutzung einiger neuer Technologien, die bisher noch in Entwicklung sind, auf die optimale Gestaltung der Stromversorgung, wurde anhand einiger Beispiele untersucht. Die Konzeption der zukünftigen Stromversorgung sollte dabei nach Möglichkeit objektiven Kriterien gehorchen, die auch die Vergleichbarkeit verschiedener Versorgungsansätze gewährleisten. Dafür wurde ein Optimierungsansatz gewählt, mit dessen Hilfe sowohl bei der Konfiguration als auch beim rechnerischen Betrieb des Stromversorgungssystems weitgehend auf subjektive Entscheidungsprozesse verzichtet werden kann. Die Optimierung hatte zum Ziel, für die definierte möglichst realitätsnahe Versorgungsaufgabe den idealen Kraftwerks- und Leitungspark zu bestimmen, der eine kostenoptimale Stromversorgung gewährleistet. Als Erzeugungsoptionen werden dabei u.a. die Nutzung Regenerativer Energien durch Wasserkraftwerke, Windenergiekonverter, Fallwindkraftwerke, Biomassekraftwerke sowie solare und geothermische Kraftwerke berücksichtigt. Abhängig von den gewählten Randbedingungen ergaben sich dabei unterschiedliche Szenarien. Das Ziel der Arbeit war, mit Hilfe unterschiedlicher Szenarien eine breite Basis als Entscheidungsgrundlage für zukünftige politische Weichenstellungen zu schaffen. Die Szenarien zeigen Optionen für eine zukünftige Gestaltung der Stromversorgung auf, machen Auswirkungen verschiedener – auch politischer – Rahmenbedingungen deutlich und stellen so die geforderte Entscheidungsgrundlage bereit. Als Grundlage für die Erstellung der Szenarien mussten die verschiedenen Potentiale erneuerbarer Energien in hoher zeitlicher und räumlicher Auflösung ermittelt werden, mit denen es erstmals möglich war, die Fragen einer großräumigen regenerativen Stromversorgung ohne ungesicherte Annahmen anhand einer verlässlichen Datengrundlage anzugehen. Auch die Charakteristika der verschiedensten Energiewandlungs- und Transportsysteme mussten studiert werden und sind wie deren Kosten und die verschiedenen Potentiale in der vorliegenden Arbeit ausführlich diskutiert. Als Ausgangsszenario und Bezugspunkt dient ein konservatives Grundszenario. Hierbei handelt es sich um ein Szenario für eine Stromversorgung unter ausschließlicher Nutzung erneuerbarer Energien, die wiederum ausschließlich auf heute bereits entwickelte Technologien zurückgreift und dabei für alle Komponenten die heutigen Kosten zugrundelegt. Dieses Grundszenario ist dementsprechend auch als eine Art konservative Worst-Case-Abschätzung für unsere Zukunftsoptionen bei der regenerativen Stromversorgung zu verstehen. Als Ergebnis der Optimierung basiert die Stromversorgung beim Grundszenario zum größten Teil auf der Stromproduktion aus Windkraft. Biomasse und schon heute bestehende Wasserkraft übernehmen den überwiegenden Teil der Backup-Aufgaben innerhalb des – mit leistungsstarker HGÜ (Hochspannungs–Gleichstrom–Übertragung) verknüpften – Stromversorgungsgebiets. Die Stromgestehungskosten liegen mit 4,65 €ct / kWh sehr nahe am heute Üblichen. Sie liegen niedriger als die heutigen Preisen an der Strombörse. In allen Szenarien – außer relativ teuren, restriktiv ”dezentralen” unter Ausschluss großräumig länderübergreifenden Stromtransports – spielt der Stromtransport eine wichtige Rolle. Er wird genutzt, um Ausgleichseffekte bei der dargebotsabhängigen Stromproduktion aus erneuerbaren Quellen zu realisieren, gute kostengünstige Potentiale nutzbar zu machen und um die Speicherwasserkraft sowie die dezentral genutzte Biomasse mit ihrer Speicherfähigkeit für großräumige Backup-Aufgaben zu erschließen. Damit erweist sich der Stromtransport als einer der Schlüssel zu einer kostengünstigen Stromversorgung. Dies wiederum kann als Handlungsempfehlung bei politischen Weichenstellungen interpretiert werden, die demnach gezielt auf internationale Kooperation im Bereich der Nutzung erneuerbarer Energien setzen und insbesondere den großräumigen Stromtransport mit einbeziehen sollten. Die Szenarien stellen detaillierte und verlässliche Grundlagen für wichtige politische und technologische Zukunftsentscheidungen zur Verfügung. Sie zeigen, dass bei internationaler Kooperation selbst bei konservativen Annahmen eine rein regenerative Stromversorgung möglich ist, die wirtschaftlich ohne Probleme zu realisieren wäre und verweisen den Handlungsbedarf in den Bereich der Politik. Eine wesentliche Aufgabe der Politik läge darin, die internationale Kooperation zu organisieren und Instrumente für eine Umgestaltung der Stromversorgung zu entwickeln. Dabei kann davon ausgegangen werden, dass nicht nur ein sinnvoller Weg zu einer CO2–neutralen Stromversorgung beschritten würde, sondern sich darüber hinaus ausgezeichnete Entwicklungsperspektiven für die ärmeren Nachbarstaaten der EU und Europas eröffnen.
Resumo:
Arbeitszeitpolitik und Arbeitszeitgestaltung haben seit dem Tarifkompromiss im Jahre 1984 in der Metall-, und Elektroindustrie in der politischen und wissenschaftlichen Diskussion einen immensen Bedeutungszuwachs erfahren. Die Forderungen nach einer flexibleren Arbeitszeitgestaltung haben zeitgleich sowohl aus der Globalisierungsdiskussion und der Debatte um die Wettbewerbsfähigkeit des "Wirtschaftsstandorts Deutschland" heraus wie auch aus beschäftigungspolitischen Gründen neuen Auftrieb bekommen. Die Diskussion um die Arbeitszeit ist gleichzeitig von verschiedenen, meist gegensätzlichen Interessen geprägt: Auf der Beschäftigtenseite zielt die Arbeitszeitflexibilisierung nach wie vor auf Zeitsouveränität: d.h. auf eine bessere Vereinbarkeit der Arbeitszeit mit allen Aktivitäten außerhalb der Arbeitszeit ab. Demgegenüber stellt die Arbeitgeberseite den betriebswirtschaftlichen Aspekt in den Vordergrund. D.h. die Anpassung der Arbeitszeit an den tatsächlichen Arbeitsanfall. So soll durch aufeinander abgestimmte Gestaltung von Betriebszeit und Arbeitszeit die Erhöhung der Produktivität und die Sicherung der Wettbewerbsfähigkeit erzielt werden. Durch diesen Trend verlor das sog. Normalarbeitsverhältnis an Allgemeingültigkeit und die Flexibilisierung der Arbeitszeiten nahm seit langem kontinuierlich zu. Folge ist, dass mittlerweile eine breite Palette von Arbeitszeitmodellen existiert, in denen die gesetzlich und vertraglich vereinbarte Wochenarbeitszeit in den Dimensionen Lage, Länge und Verteilung flexibilisiert wird. Auch die Tarifverhandlungen und Auseinandersetzung der Tarifparteien zur Arbeitszeitpolitik sind dadurch gekennzeichnet, dass die Arbeitszeitflexibilisierung und Verlagerung der Tarifpolitik auf betriebliche Ebene einen Bedeutungszuwachs bekam und die Meinungsführerschaft in Sachen Arbeitszeitgestaltung von der IG Metall zu Gesamtmetall wechselte. Ziel der vorliegenden Dissertation war es, anhand einer empirisch-historischen Untersuchung über Einstellungen sowie Strategien von Gesamtmetall und IG Metall die Gestaltungsspielräume flexibler Arbeitszeitmodelle zu bestimmen und gleichzeitig die Defizite herauszuarbeiten. Die Untersuchung gründete sich in erster Linie auf die Dokumentenanalyse von Stellungnahmen der Gesamtmetall und IG-Metall-Leitungsgremien sowie Primär- und Sekundäranalyse von Befragungen der Beschäftigten. Die leitende Frage der Untersuchung war, ob es den Arbeitgeberverbänden und den Gewerkschaften gelingen konnte, die Erfordernisse eines Betriebes und die Belange der Beschäftigten weitgehend in Übereinstimmung zu bringen? Und (wenn ja) unter welchen Voraussetzungen die neuen flexiblen Arbeitszeitsysteme mit den betrieblichen und außerbetrieblichen Interessen der Beschäftigten zu vereinbaren sind. Den Hintergrund für diese Zielerreichung bildete der gesellschaftliche Konflikt zwischen Arbeit und Kapital. Denn die Schwierigkeit bzw. Komplexität lag in der Frage, wie die unterschiedlichen Interessen, die sich in der industriekapitalistischen Gesellschaft durch den Gegensatz "Kapital" und "Arbeit" bestimmen lassen, zu vereinbaren waren bzw. sind.
Resumo:
Die sogenannte natürliche Lüftung - Lüftung infolge Temperatur- und Windeinfluss - über geöffnete Fenster und Türen ist im Wohnbereich noch immer die häufigste Form des Lüftens. Die Wirkung des Lüftens wird einerseits von den baulichen Gegebenheiten, z.B. der Fenstergröße, Öffnungsfläche und Laibungstiefe sowie andererseits durch den Nutzer, der z.B. eine Gardine oder Rollos anbringt, beeinflusst. Über den genauen Einfluss von verschiedenen Faktoren auf den Luftwechsel existieren zur Zeit noch keine gesicherten Erkenntnisse. Die Kenntnis des Luftwechsels ist jedoch für die Planung und Ausführung von Gebäuden in Hinblick auf das energiesparende Bauen sowie unter bauphysikalischen und hygienischen Aspekten wichtig. Der Einsatz von Dreh-Kippfenstern sowie das Lüften über die Kippstellung ist in Deutschland üblich, so dass die Bestimmung des Luftwechsels über Kippfenster von großem Interesse ist. Ziel dieser Arbeit ist es, den thermisch induzierten Luftwechsel über ein Kippfenster unter Berücksichtigung verschiedener Randbedingungen zu beschreiben. Hierbei werden Variationen der Kippweite, Laibungs- und Heizungsanordnung berücksichtigt. Die Arbeit gliedert sich in drei Teile: im ersten Teil werden messtechnische Untersuchungen durchgeführt, im zweiten Teil exemplarisch einige messtechnisch untersuchten Varianten mit CFD simuliert und im dritten Teil ein verbesserter Modellansatz zur Beschreibung des Luftwechsels aus den Messwerten abgeleitet. Die messtechnischen Untersuchungen bei einer Kippweite von 10 cm zeigen, dass bei dem Vorhandensein einer raumseitigen Laibung oder einem unterhalb des Fensters angeordneten Heizkörpers mit einer Reduktion des Volumenstroms von rund 20 Prozent gegenüber einem Fenster ohne Laibung bzw. ohne Heizkörper gerechnet werden muss. Die Kombination von raumseitiger Laibung und Heizung vermindert das Luftwechselpotential um ca. 40 Prozent. Simuliert wird die Variante ohne Laibung und ohne Heizung für die Kippweiten 6 cm und 10 cm. Die Ergebnisse der mit CFD simulierten Tracergas-Messung weisen für beide Kippweiten im Mittel rund 13 Prozent höhere Zuluftvolumenströme im Vergleich zu den Messwerten auf. Die eigenen Messdaten bilden die Grundlage für die Anpassung eines Rechenmodells. Werden vor Ort die lichte Fensterhöhe und -breite, die Kippweite, die Rahmen- und Laibungstiefe sowie die Abstände der Laibung zum Flügelrahmen gemessen, kann die Öffnungsfläche in Abhängigkeit von der Einbausituation bestimmt werden. Der Einfluss der Heizung - bei einer Anordnung unterhalb des Fensters - wird über den entsprechenden Cd-Wert berücksichtigt.