458 resultados para performative Arbeit
Resumo:
Durch asymmetrische Doppelbindungsisomerisierung mittels Me-DuPHOS-modifizierter Dihalogen-Nickel-Komplexe als Katalysatorvorstufen lassen sich aus 2-Alkyl-4,7-dihydro-1,3-dioxepinen hochenantiomerenreine 2-Alkyl-4,5-dihydro-1,3-dioxepine erhalten. Ein Ziel dieser Arbeit war es, die bisher noch unbekannte Absolutkonfiguration dieses Verbindungstyps zu bestimmen und darüber hinaus ihre Einsatzfähigkeit in der enantioselektiven organischen Synthese zu untersuchen. Zu diesem Zweck wurden enantiomerenangereichertes 2-Isopropyl- und 2-tert-Butyl-4,5-dihydro-1,3-dioxepin mit m-Chlorperbenzoesäure epoxidiert. Dabei bildeten sich die entsprechenden 3-Chlorbenzoesäure-(2-alkyl-5-hydroxy-1,3-dioxepan-4yl)-ester in hohen Ausbeuten und Diastereoselektivitäten. Von den vier zu erwartenden Diastereomeren wurden jeweils nur zwei mit einer Selektivität von mehr als 95:5 gebildet. Im Fall des 3-Chlorbenzoesäure-(2-isopropyl-5-hydroxy-1,3-dioxepan-4yl)-esters konnte das Haupt-diastereomer kristallin erhalten werden. Durch röntgenspektroskopische Untersuchung war es möglich, die Relativ-Konfiguration dieser Verbindung zu bestimmen. Die Ester lassen sich unter Ringverengung in 2-Alkyl-1,3-dioxan-4-carbaldehyde umlagern. Ausgehend von diesen Carbaldehyden stehen zwei Synthesewege zur Verfügung, welche zu Verbindungen führen deren Absolutkonfiguration bereits bekannt ist. So erhält man durch Reduktion 2-Alkyl-1,3-dioxan-4-yl-methanole, welche sich in 1,2,4-Butantriol überführen lassen. Oxidation ergibt die 2-Alkyl-1,3-dioxan-4-carbonsäuren, aus denen 3-Hydroxytetrahydrofuran-2-on gewonnen werden kann. Messung des Drehwertes dieser beiden literaturbekannten Verbindungen liefert nicht nur Information über deren Enantiomerenreinheit sondern ebenfalls über die Konfiguration ihres Stereozentrums. In Kombination mit der Relativ-Konfiguration des Esters ist somit ein Rückschluss auf die Absolutkonfiguration der eingesetzten 4,5-Dihydro-1,3-dioxepine möglich. Die auf den beschriebenen Wegen gewonnenen Substanzen finden Anwendung in der stereoselektiven organischen Synthese. Löst man die Chlorbenzoesäureester in Dichlormethan und behandelt sie mit wässriger Salzsäure, so entstehen die bicyclischen 2-Alkyltetrahydrofuro[2,3-d][1,3]dioxole. Auch bei diesen Verbindungen konnten hohe Enantio- und Diastereoselektivitäten erzielt werden. Der intermolekular verlaufende Reaktionsmechanismus der Bicyclus-Bildung, welcher unter Abspaltung eines den Alkylrest tragenden Aldehyds und dessen Neuanlagerung unter Ausbildung eines Acetals verläuft, konnte in dieser Arbeit durch ein Kreuzungsexperiment bestätigt werden. Umacetalisierung der Bicyclen liefert 2-Methoxytetrahydrofuran-3-ol, aus dem durch Acetalspaltung Tetrahydrofuran-2,3-diol erhalten wird, das die Halbacetalform der entsprechenden Desoxytetrose darstellt, die auf diese Weise in einer de novo-Synthese hergestellt werden kann.
Resumo:
Die Arbeit stellt einen strukturellen Rahmen zur Einordnung sowohl bisheriger als auch zukünftiger organisationstheoretischer und DV-technologischer Entwicklungen zur Umsetzung eines Computer Integrated Business (CIB) bereit. Dazu analysiert sie bisherige Ansätze und zukünftige Perspektiven eines CIB mittels theoretischer und empirischer Bearbeitungsverfahren. Die Notwendigkeit zur Unternehmensintegration ergibt sich aus dem betriebswirtschaftlichen Konzept der Arbeitsteilung, über die das Phänomen der Economies of Scale erschlossen wird. Die Arbeitsteilung wurde zum Gestaltungskonzept in den Fabriken der industriellen Revolution. Komplexe Arbeitsgänge wurden in spezialisierte Teilaufgaben zerlegt und nach Möglichkeit auf maschinelle bzw. technologische Potentiale übertragen. Die Zielsetzung lag zunächst in der Automatisierung des Materialflusses, während der Informationsfluss noch lange Zeit im Hintergrund stand. Mittlerweile ermöglichen leistungsfähige DV-Systeme auch die Automatisierung des Informationsflusses und damit die DV-gestützte Integration des Unternehmens, die den Kern des CIB-Konzeptes darstellt. Das CIB-Konzept wurde Ende der achtziger Jahre am Fraunhofer-Institut für Arbeitswirtschaft und Organisation als Erweiterung des Computer Integrated Manufacturing (CIM) für Industrieunternehmen von Bullinger geprägt, jedoch in seiner Zielsetzung als Modell zur Totalintegration von Unternehmen danach nicht maßgeblich weiterentwickelt. Vielmehr wurden in der Folgezeit überwiegend Teilintegrationslösungen diskutiert, wie z. B. Konzepte zur Integration der Fertigung oder zur Unterstützung der Teamarbeit. Der Aspekt der umfassenden, unternehmensinternen Integration rückte Mitte der neunziger Jahre durch die an Popularität gewinnende Internet-Technologie an den Rand der wissenschaftlichen Diskussion. Erst nach dem Zusammenbruch der ersten Internet-Euphorie und der anschließenden wirtschaftlichen Rezession gewann das Integrationsthema am Anfang dieses Jahrzehnts mit Hinblick auf dadurch mögliche Kostenvorteile wieder an Bedeutung. Die Diskussion wurde jedoch mit starkem technologischem Fokus geführt (z. B. zum Thema Enterprise Application Integration) und Aspekte der Unternehmensorganisation wurden bestenfalls grob, jedoch nicht im Detail diskutiert. Die vorliegende Arbeit bearbeitet die CIB-Thematik umfassend sowohl aus unternehmensorganisatorischer als auch DV-technologischer Sicht und bewegt sich deshalb interdisziplinär zwischen den Wissenschaftsbereichen der Betriebswirtschaft und der Informatik. Die Untersuchung wird vor dem Hintergrund einer sozio-technologischen Unternehmensorganisation geführt, in der DV-technologische Potentiale neben humanen Potentialen zur Erreichung der Unternehmensziele eingesetzt werden. DV-technologische Potentiale übernehmen darin einerseits Integrationsaufgaben und werden andererseits aber selbst zum Integrationsziel. Die Herausforderung für die Unternehmensführung besteht in der Konfiguration des CIB und im Finden eines Gleichgewichts zwischen Arbeitsteilung und Integration auf der einen sowie humanen und technologischen Potentialen auf der anderen Seite, letztendlich aber auch in der Automatisierung der Integration. Die Automatisierung der Integration stellt mit Hinblick auf die durch Umweltveränderungen bedingte Konfigurationsanpassung ein bisher konzeptionell nur ansatzweise gelöstes Problem dar. Der technologischen Integrationsarchitektur sowie den verwendeten Methoden des Prozessdesigns und der Software-Entwicklung kommt bei der Lösung dieses Problems eine hohe Bedeutung zu. Über sie bestimmt sich die Anpassungsfähigkeit und geschwindigkeit des CIB. Es kann vermutet werden, dass eine Lösung jedoch erst erreicht wird, wenn sich die Unternehmensorganisation vom Konzept der zentralen Koordination abwendet und stattdessen an dezentralen Koordinationsmechanismen unter Verwendung ultrastabiler Anpassungsprogramme orientiert, wie sie z. B. in der Biologie bei Insektenkulturen untersucht wurden.
Resumo:
Ziel dieser Arbeit war, durch Aziridinierung homochiraler 5-Methyl-4H-1,3-dioxinen eine neue Methode zur Synthese von alpha-Aminoaldehyden und den ableitbaren Aminosäuren mit alpha-quartären Zentren zu entwickeln. Die chiralen 5-Methyl-4H-1,3-dioxine sind mit hohen Enantiomerenüberschüssen durch asymmetrische Doppelbindungsisomerisierung von 5-Methylen-1,3-dioxanen zugänglich. Die Metall-katalysierte Aziridinierung der 5-Methyl-4H-1,3-dioxine mit der Nitrenquelle (N-Tosylimino)phenyliodinan führte direkt zu N-Tosyl-geschützen 4-Methyl-1,3-oxazolidin-4-carbaldehyden. Vermutlich über ein Aziridin als nicht isolierbare Zwischenstufe werden über eine Ringöffnungs-/Ringverengungsreaktion die Oxazolidinderivate gebildet, vorzugsweise in Gegenwart von Cu(I)-Katalysatoren, während die Rhodium-katalysierte Reaktion ausschließlich zu Insertionsprodukten führt. In der Cu-katalysierten Aziridinierung ist das Verhältnis von Aziridinierung/Insertion abhängig von der Katalysatorkonzentration. Die Aziridinierung mit N-(p-Nitrobenzolsulfonyl)- und N-(Trimethylsilylethylsulfonyl)- substituierten Nitrenquellen führt zu Oxazolidinderivaten mit leichter abspaltbaren Schutzgruppen. Diese Nitrenquellen können in situ aus den korrespondierenden Sulfonamiden mit Iodosobenzol dargestellt werden. Bei dem Einsatz homochiraler 4H-1,3-Dioxine ist Erhalt der Stereoinformation abhängig vom Substituenten in 2-Position der Dioxine sowie von der Polarität des Lösungsmittels. Die höchsten Selektivitäten wurden in tert-Butylmethylether erzielt. In Falle des 2-tert-Butyl-4-methyl-3-(toluol-4-sulfonyl)-1,3-oxazolidin-4-carbaldehyds kristallisiert das Hauptdiastereomer in enantiomerenreiner Form. Die Absolutkonfiguration wurde durch Röntgenkristallstrukturanalyse ermittelt. Das Anwendungspotential dieser neuen Methode konnte durch Überführen der Serinale in Aminoalkohole und alpha-Methylserin-Derivate sowie in der Synthese der unnatürlichen Aminosäure alpha-Vinylalanin gezeigt werden.
Resumo:
Das wohl bekannteste Phänomen der Urteils- und Entscheidungsforschung im Kontext numeri-scher Urteile ist der Ankereffekt. Dieser bezeichnet die Assimilation einer numerischen Schätzung oder Prognose an einen salienten Wert, dem sogenannten Anker, auch unabhängig von dessen inhaltlicher Relevanz. Die Frage nach den Ursachen von Ankereffekten wird bis zum aktuellen Zeitpunkt kontrovers diskutiert. Die Bedeutung eines Erklärungsmodelles, dem sogenannten numerischem Priming, innerhalb dieser Diskussion ist Gegenstand der vorliegenden Arbeit. Im Theorieteil wird zunächst der Ankereffekt, seine inhaltliche Einordnung und seine Relevanz aus theoretischer wie praktischer Sicht diskutiert. Des weiteren werden die gängigen Erklärungsmodelle zum Ankereffekt vorgestellt. Ein Schwerpunkt hierbei liegt auf einer kritischen Auseinandersetzung mit dem Modell der selektiven Zugänglichkeit (Selective Accessibility Model, kurz: SAM), dem wohl prominentesten Modell aus Sicht der momentanen Forschung. Zwei an den Theorieteil anschließende Fragestellungen sind dann der Gegenstand des empirischen Teils der Arbeit. Zum einen soll überprüft werden, ob Ankereffekte im Standardparadigma, wie bisher angenommen, allein auf den Prozessen des SAM basieren oder ob zusätzlich auch numerisches Priming am Zustandekommen des Ankereffektes in diesem Paradigma beteiligt ist. Zum anderen werden Voraussetzungen für das Auftreten von Ankereffekten durch numerisches Priming untersucht, inbesondere die als relevant eingeschätzte Bedeutung der Aufmerksamkeit gegenüber dem Ankerwert. Beide Experimente verwenden neue, im Kontext von Ankereffekten bisher nicht eingesetzte experimentelle Paradigmen. Um die Bedeutung semantischer Prozesse im Zusammenspiel mit numerischen Prozessen zu untersuchen, wird ein so genannter Objektvergleich eingesetzt. Der Stellenwert von Aufmerksamkeit hingegen wird überprüft, in dem die Ankerwerte subliminal, also unterhalb der Wahrnehmungsschwelle, präsentiert werden. Beiden Experimenten ist jeweils eine Voruntersuchung vorangestellt, die notwendige Bedingungen für die entsprechenden Experimente überprüfen. In der abschließenden Diskussion werden die Ergebnisse der beiden Untersuchungen noch einmal zusammengefasst, und deren Implikationen angesichts der bisher vorliegenden Erkenntnisse aus theoretischer wie praktischer Sicht diskutiert. Des weiteren werden mögliche Forschungsfragen und denkbare experimentelle Untersuchungen hierzu skizziert, die an die innerhalb dieser Arbeit vorgelegten Ergebnisse sinnvoll anschließen könnten.
Resumo:
The rapid growth of the optical communication branches and the enormous demand for more bandwidth require novel networks such as dense wavelength division multiplexing (DWDM). These networks enable higher bitrate transmission using the existing optical fibers. Micromechanically tunable optical microcavity devices like VCSELs, Fabry-Pérot filters and photodetectors are core components of these novel DWDM systems. Several air-gap based tunable devices were successfully implemented in the last years. Even though these concepts are very promising, two main disadvantages are still remaining. On the one hand, the high fabrication and integration cost and on the other hand the undesired adverse buckling of the suspended membranes. This thesis addresses these two problems and consists of two main parts: • PECVD dielectric material investigation and stress control resulting in membranes shape engineering. • Implementation and characterization of novel tunable optical devices with tailored shapes of the suspended membranes. For this purposes, low-cost PECVD technology is investigated and developed in detail. The macro- and microstress of silicon nitride and silicon dioxide are controlled over a wide range. Furthermore, the effect of stress on the optical and mechanical properties of the suspended membranes and on the microcavities is evaluated. Various membrane shapes (concave, convex and planar) with several radii of curvature are fabricated. Using this resonator shape engineering, microcavity devices such as non tunable and tunable Fabry-Pérot filters, VCSELs and PIN photodetectors are succesfully implemented. The fabricated Fabry-Pérot filters cover a spectral range of over 200nm and show resonance linewidths down to 1.5nm. By varying the stress distribution across the vertical direction within a DBR, the shape and the radius of curvature of the top membrane are explicitely tailored. By adjusting the incoming light beam waist to the curvature, the fundamental resonant mode is supported and the higher order ones are suppressed. For instance, a tunable VCSEL with 26 nm tuning range, 400µW maximal output power, 47nm free spectral range and over 57dB side mode suppresion ratio (SMSR) is demonstrated. Other technologies, such as introducing light emitting organic materials in microcavities are also investigated.
Resumo:
Seit 2001 ist die Türkei im Bologna Prozess beteiligt, somit hat sie ihre Bereitschaft bei der Gestaltung des Europäischen Hochschulraums erklärt. Im Europäisierungsprozess unter Bologna kommen ungleiche Partner zusammen, die unterschiedliche Ambitionen, sowie unterschiedliche Projektionen in dem Europäisierungsprozess haben. Die Arbeit geht diesem am Beispiel der Türkei und Deutschland nach. Aufgezeigt werden, dass die neuen Herausforderungen an die Gestaltung der Hochschulreform, wie die Wechselwirkung von Peripherie und Zentrum, Verändern der gängigen Denkstrukturen noch nicht in der Hochschulforschung thematisiert wurden.
Resumo:
Zusammenfassung Mobile Telekommunikationstechnologien verändern den Alltag, ihre Benutzer und die Geschäftswelt. Im Zuge der Mobilität haben die Nutzer von mobilen Übertragungstechnologien ein hohes Kommunikationsbedürfnis in jeglicher Situation entwickelt: Sie wollen überall und jederzeit kommunizieren und informiert sein. Dies ist auch darauf zurückzuführen, dass ein Wandel der Individualisierung – von der Person zur Situation – stattgefunden hat. Im Rahmen der Untersuchung gehen wir auf diese entscheidenden Veränderung ein und analysieren die Potenziale des Kontextmarketing im mobilen Customer Relationship Management anhand der Erringung von Wettbewerbsvorteilen durch Situationsfaktoren. Daneben zeigen wir mögliche Geschäftsmodelle und Wertschöpfungsketten auf. Abgerundet wird die Arbeit durch die Darstellung möglicher personenbezogener, technischer und rechtlicher Restriktionen.
Resumo:
Mikrooptische Filter sind heutzutage in vielen Bereichen in der Telekommunikation unersetzlich. Wichtige Einsatzgebiete sind aber auch spektroskopische Systeme in der Medizin-, Prozess- und Umwelttechnik. Diese Arbeit befasst sich mit der Technologieentwicklung und Herstellung von luftspaltbasierenden, vertikal auf einem Substrat angeordneten, oberflächenmikromechanisch hergestellten Fabry-Perot-Filtern. Es werden zwei verschiedene Filtervarianten, basierend auf zwei verschiedenen Materialsystemen, ausführlich untersucht. Zum einen handelt es sich dabei um die Weiterentwicklung von kontinuierlich mikromechanisch durchstimmbaren InP / Luftspaltfiltern; zum anderen werden neuartige, kostengünstige Siliziumnitrid / Luftspaltfilter wissenschaftlich behandelt. Der Inhalt der Arbeit ist so gegliedert, dass nach einer Einleitung mit Vergleichen zu Arbeiten und Ergebnissen anderer Forschergruppen weltweit, zunächst einige theoretische Grundlagen zur Berechnung der spektralen Reflektivität und Transmission von beliebigen optischen Schichtanordnungen aufgezeigt werden. Auß erdem wird ein kurzer theoretischer Ü berblick zu wichtigen Eigenschaften von Fabry-Perot-Filtern sowie der Möglichkeit einer mikromechanischen Durchstimmbarkeit gegeben. Daran anschließ end folgt ein Kapitel, welches sich den grundlegenden technologischen Aspekten der Herstellung von luftspaltbasierenden Filtern widmet. Es wird ein Zusammenhang zu wichtigen Referenzarbeiten hergestellt, auf denen diverse Weiterentwicklungen dieser Arbeit basieren. Die beiden folgenden Kapitel erläutern dann ausführlich das Design, die Herstellung und die Charakterisierung der beiden oben erwähnten Filtervarianten. Abgesehen von der vorangehenden Epitaxie von InP / GaInAs Schichten, ist die Herstellung der InP / Luftspaltfilter komplett im Institut durchgeführt worden. Die Herstellungsschritte sind ausführlich in der Arbeit erläutert, wobei ein Schwerpunktthema das trockenchemische Ä tzen von InP sowie GaInAs, welches als Opferschichtmaterial für die Herstellung der Luftspalte genutzt wurde, behandelt. Im Verlauf der wissenschaftlichen Arbeit konnten sehr wichtige technische Verbesserungen entwickelt und eingesetzt werden, welche zu einer effizienteren technologischen Herstellung der Filter führten und in der vorliegenden Niederschrift ausführlich dokumentiert sind. Die hergestellten, für einen Einsatz in der optischen Telekommunikation entworfenen, elektrostatisch aktuierbaren Filter sind aus zwei luftspaltbasierenden Braggspiegeln aufgebaut, welche wiederum jeweils 3 InP-Schichten von (je nach Design) 357nm bzw. 367nm Dicke aufweisen. Die Filter bestehen aus im definierten Abstand parallel übereinander angeordneten Membranen, die über Verbindungsbrücken unterschiedlicher Anzahl und Länge an Haltepfosten befestigt sind. Da die mit 357nm bzw. 367nm vergleichsweise sehr dünnen Schichten freitragende Konstrukte mit bis zu 140 nm Länge bilden, aber trotzdem Positionsgenauigkeiten im nm-Bereich einhalten müssen, handelt es sich hierbei um sehr anspruchsvolle mikromechanische Bauelemente. Um den Einfluss der zahlreichen geometrischen Strukturparameter studieren zu können, wurden verschiedene laterale Filterdesigns implementiert. Mit den realisierten Filter konnte ein enorm weiter spektraler Abstimmbereich erzielt werden. Je nach lateralem Design wurden internationale Bestwerte für durchstimmbare Fabry-Perot-Filter von mehr als 140nm erreicht. Die Abstimmung konnte dabei kontinuierlich mit einer angelegten Spannung von nur wenigen Volt durchgeführt werden. Im Vergleich zu früher berichteten Ergebnissen konnten damit sowohl die Wellenlängenabstimmung als auch die dafür benötigte Abstimmungsspannung signifikant verbessert werden. Durch den hohen Brechungsindexkontrast und die geringe Schichtdicke zeigen die Filter ein vorteilhaftes, extrem weites Stopband in der Größ enordnung um 550nm. Die gewählten, sehr kurzen Kavitätslängen ermöglichen einen freien Spektralbereich des Filters welcher ebenfalls in diesen Größ enordnungen liegt, so dass ein weiter spektraler Einsatzbereich ermöglicht wird. Während der Arbeit zeigte sich, dass Verspannungen in den freitragenden InPSchichten die Funktionsweise der mikrooptischen Filter stark beeinflussen bzw. behindern. Insbesondere eine Unterätzung der Haltepfosten und die daraus resultierende Verbiegung der Ecken an denen sich die Verbindungsbrücken befinden, führte zu enormen vertikalen Membranverschiebungen, welche die Filtereigenschaften verändern. Um optimale Ergebnisse zu erreichen, muss eine weitere Verbesserung der Epitaxie erfolgen. Jedoch konnten durch den zusätzlichen Einsatz einer speziellen Schutzmaske die Unterätzung der Haltepfosten und damit starke vertikale Verformungen reduziert werden. Die aus der Verspannung resultierenden Verformungen und die Reaktion einzelner freistehender InP Schichten auf eine angelegte Gleich- oder Wechselspannung wurde detailliert untersucht. Mittels Weisslichtinterferometrie wurden lateral identische Strukturen verglichen, die aus unterschiedlich dicken InP-Schichten (357nm bzw. 1065nm) bestehen. Einen weiteren Hauptteil der Arbeit stellen Siliziumnitrid / Luftspaltfilter dar, welche auf einem neuen, im Rahmen dieser Dissertation entwickelten, technologischen Ansatz basieren. Die Filter bestehen aus zwei Braggspiegeln, die jeweils aus fünf 590nm dicken, freistehenden Siliziumnitridschichten aufgebaut sind und einem Abstand von 390nm untereinander aufweisen. Die Filter wurden auf Glassubstraten hergestellt. Der Herstellungsprozess ist jedoch auch mit vielen anderen Materialien oder Prozessen kompatibel, so dass z.B. eine Integration mit anderen Bauelemente relativ leicht möglich ist. Die Prozesse dieser ebenfalls oberflächenmikromechanisch hergestellten Filter wurden konsequent auf niedrige Herstellungskosten optimiert. Als Opferschichtmaterial wurde hier amorph abgeschiedenes Silizium verwendet. Der Herstellungsprozess beinhaltet die Abscheidung verspannungsoptimierter Schichten (Silizium und Siliziumnitrid) mittels PECVD, die laterale Strukturierung per reaktiven Ionenätzen mit den Gasen SF6 / CHF3 / Ar sowie Fotolack als Maske, die nasschemische Unterätzung der Opferschichten mittels KOH und das Kritisch-Punkt-Trocken der Proben. Die Ergebnisse der optischen Charakterisierung der Filter zeigen eine hohe Ü bereinstimmung zwischen den experimentell ermittelten Daten und den korrespondierenden theoretischen Modellrechnungen. Weisslichtinterferometermessungen der freigeätzten Strukturen zeigen ebene Filterschichten und bestätigen die hohe vertikale Positioniergenauigkeit, die mit diesem technologischen Ansatz erreicht werden kann.
Resumo:
Das in unserer Arbeitsgruppe entwickelte relativistische Molekülstrukturprogramm RELMOS erlaubt die Berechnung der totalen Energie kleiner Moleküle und Cluster mit der Dichtefunktional-Methode. Das Programm arbeitet mit numerischen Basissätzen aus atomaren DFT-Rechnungen; alle vorkommenden Matrixelemente müssen daher duch eine dreidimensionale numerische Integrationsregel ausgewertet werden. Die linear mit der Zahl der Stützstellen der numerischen Regel skalierende Rechenzeit, bestimmt im Wesentlichen die Gesamtlaufzeit des Programms und beschränkt in der Praxis die Größe der berechenbaren Systeme. Die zu berechnenden Mehr-Zentren-Integrale können wie die atomaren Basisfunktionen an einem oder mehreren Kernorten gepeakt sein, so dass eine direkte Integration sehr ineffektiv ist. Die große Zahl der durchzuführenden Integrationen verlangt weiterhin die Aufstellung einer gemeinsamen Integrationsregel für alle vorkommenden Integrale. Durch eine Raumaufteilung kann ein solches Mehr-Zentren- Integral in eine Summe von Ein-Zentren-Integralen zerlegt werden. Anschließend kann für jedes Zentrum eine numerische Integrationsregel aufgestellt werden, die dem Verlauf der Wellenfunktionen in der Nähe der Kerne Rechnung trägt. Ziel ist dabei, die Regel so zu wählen, dass sie für alle Integranden geeignet ist, dabei aber eine möglichst geringe Zahl von Stützstellen benötigt. Im Rahmen dieser Arbeit ist ein Programmpaket entstanden, dass die Erzeugung einer numerischen Integrationsregel für Mehr-Zentren-Systeme erlaubt. Der Algorithmus des Integrationspaketes ist sehr allgemein gehalten. Für jede Raumdimension und jedes Integrationszentrum lassen sowohl die numerische Integrationsregel, als auch Koordinatentransformationen und Genauigkeitsanforderungen getrennt angeben. Die Anzahl der Integrationspunkte kann mit Hilfe von Testfunktionen an die unterschiedlichen Raumbereiche angepasst werden. Anschließend kann die Anzahl der Punkte durch eine eventuell vorhandene Molekülsymmetrie reduziert werden. Das Integrationspaket wurde an Atomen und an Molekülen unterschiedlicher Größe und Symmetrie getestet und mit der bisher verwendeten Methode von Baerends et. al verglichen. Dabei wurde die jeweils erreichte Genauigkeit für verschiedene Größen in Abhängigkeit der Zahl der Integrationspunkte betrachtet. Gegenüber dem Verfahren von Baerends zeigt sich eine Verbesserung in der Anzahl der Integrationspunkte um einen Faktor vier bis neun bei gleicher Genauigkeit, während bei festgehaltener Zahl der Integrationspunkte die numerische Genauigkeit um zwei bis drei Größenordnungen gesteigert wird.
Resumo:
RNA interference (RNAi) is a recently discovered process, in which double stranded RNA (dsRNA) triggers the homology-dependant degradation of cognate messenger RNA (mRNA). In a search for new components of the RNAi machinery in Dictyostelium, a new gene was identified, which was called helF. HelF is a putative RNA helicase, which shows a high homology to the helicase domain of Dicer, to the helicase domain of Dictyostelium RdRP and to the C. elegans gene drh-1, that codes for a dicer related DExH-box RNA helicase, which is required for RNAi. The aim of the present Ph.D. work was to investigate the role of HelF in PTGS, either induced by RNAi or asRNA. A genomic disruption of the helF gene was performed, which resulted in a distinct mutant morphology in late development. The cellular localization of the protein was elucidated by creating a HelF-GFP fusion protein, which was found to be localized in speckles in the nucleus. The involvement of HelF in the RNAi mechanism was studied. For this purpose, RNAi was induced by transformation of RNAi hairpin constructs against four endogenous genes in wild type and HelF- cells. The silencing efficiency was strongly enhanced in the HelF K.O. strain in comparison with the wild type. One gene, which could not be silenced in the wild type background, was successfully silenced in HelF-. When the helF gene was disrupted in a secondary transformation in a non-silenced strain, the silencing efficiency was strongly improved, a phenomenon named here “retrosilencing”. Transcriptional run-on experiments revealed that the enhanced gene silencing in HelF- was a posttranscriptional event, and that the silencing efficiency depended on the transcription levels of hairpin RNAs. In HelF-, the threshold level of hairpin transcription required for efficient silencing was dramatically lowered. The RNAi-mediated silencing was accompanied by the production of siRNAs; however, their amount did not depend on the level of hairpin transcription. These results indicated that HelF is a natural suppressor of RNAi in Dictyostelium. In contrast, asRNA mediated gene silencing was not enhanced in the HelF K.O, as shown for three tested genes. These results confirmed previous observations (H. Martens and W. Nellen, unpublished) that although similar, RNAi and asRNA mediated gene silencing mechanisms differ in their requirements for specific proteins. In order to characterize the function of the HelF protein on a molecular level and to study its interactions with other RNAi components, in vitro experiments were performed. Besides the DEAH-helicase domain, HelF contains a double-stranded RNA binding domain (dsRBD) at its N-terminus, which showed high similarity to the dsRBD domain of Dicer A from Dictyostelium. The ability of the recombinant dsRBDs from HelF and Dicer A to bind dsRNA was examined and compared. It was shown by gel-shift assays that both HelF-dsRBD and Dicer-dsRBD could bind directly to long dsRNAs. However, HelF-dsRBD bound more efficiently to dsRNA with imperfect matches than to perfect dsRNA. Both dsRBDs bound specifically to a pre-miRNA substrate (pre-let-7). The results suggested that most probably there were two binding sites for the proteins on the pre-miRNA substrate. Moreover, it was shown that HelF-dsRBD and Dicer-dsRBD have siRNA-binding activity. The affinities of the two dsRBDs to the pre-let-7 substrate were also examined by plasmon surface resonance analyses, which revealed a 9-fold higher binding affinity of the Dicer-dsRBD to pre-let-7 compared to that of the HelF-dsRBD. The binding of HelF-dsRBD to the pre-let-7 was impaired in the presence of Mg2+, while the Dicer-dsRBD interaction with pre-let-7 was not influenced by the presence of Mg2+. The results obtained in this thesis can be used to postulate a model for HelF function. In this, HelF acts as a nuclear suppressor of RNAi in wild type cells by recognition and binding of dsRNA substrates. The protein might act as a surveillance system to avoid RNAi initiation by fortuitous dsRNA formation or low abundance of dsRNA trigger. If the protein acts as an RNA helicase, it could unwind fold-back structures in the nucleus and thus lead to decreased RNAi efficiency. A knock-out of HelF would result in initiation of the RNAi pathway even by low levels of dsRNA. The exact molecular function of the protein in the RNAi mechanism still has to be elucidated. RNA interferenz (RNAi) ist ein in jüngster Zeit entdeckter Mechanismus, bei dem doppelsträngige RNA Moleküle (dsRNA) eine Homologie-abhängige Degradation einer verwandten messenger-RNA (mRNA) auslösen. Auf der Suche nach neuen Komponenten der RNAi-Maschinerie in Dictyostelium konnte ein neues Gen (helF) identifiziert werden. HelF ist eine putative RNA-Helikase mit einer hohen Homologie zur Helikasedomäne der bekannten Dicerproteine, der Helikasedomäne der Dictyostelium RdRP und zu dem C. elegans Gen drh-1, welches für eine Dicer-bezogene DExH-box RNA Helikase codiert, die am RNAi-Mechanismus beteiligt ist. Das Ziel dieser Arbeit war es, die Funktion von HelF im Zusammenhang des RNAi oder asRNA induzierten PTGS zu untersuchen. Es wurde eine Unterbrechung des helF-Gens auf genomischer Ebene (K.O.) vorgenommen, was bei den Mutanten zu einer veränderten Morphologie in der späten Entwicklung führte. Die Lokalisation des Proteins in der Zelle konnte mit Hilfe einer GFP-Fusion analysiert werden und kleinen Bereichen innerhalb des Nukleus zugewiesen werden. Im Weiteren wurde der Einfluss von HelF auf den RNAi-Mechanismus untersucht. Zu diesem Zweck wurde RNAi durch Einbringen von RNAi Hairpin-Konstrukten gegen vier endogene Gene im Wiltypstamm und der HelF--Mutante induziert. Im Vergleich zum Wildtypstamm konnte im HelF--Mutantenstamm eine stark erhöhte „Silencing“-Effizienz nachgewiesen werden. Ein Gen, welches nach RNAi Initiation im Wildtypstamm unverändert blieb, konnte im HelF--Mutantenstamm erfolgreich stillgelegt werden. Durch sekundäres Einführen einer Gendisruption im helF-Locus in einen Stamm, in welchem ein Gen nicht stillgelegt werden konnte, wurde die Effizienz des Stilllegens deutlich erhöht. Dieses Phänomen wurde hier erstmals als „Retrosilencing“ beschrieben. Mit Hilfe von transkriptionellen run-on Experimenten konnte belegt werden, dass es sich bei dieser erhöhten Stilllegungseffizienz um ein posttranskriptionelles Ereignis handelte, wobei die Stillegungseffizienz von der Transkriptionsstärke der Hairpin RNAs abhängt. Für die HelF--Mutanten konnte gezeigt werden, dass der Schwellenwert zum Auslösen eines effizienten Stillegens dramatisch abgesenkt war. Obwohl die RNAi-vermittelte Genstilllegung immer mit der Produktion von siRNAs einhergeht, war die Menge der siRNAs nicht abhängig von dem Expressionsniveau des Hairpin-Konstruktes. Diese Ergebnisse legen nahe, dass es sich bei der HelF um einen natürlichen Suppressor des RNAi-Mechanismus in Dictyostelium handelt. Im Gegensatz hierzu war die as-vermittelte Stilllegung von drei untersuchten Genen im HelF-K.O. im Vergleich zum Wildyp unverändert. Diese Ergebnisse bestätigten frühere Beobachtungen (H. Martens und W. Nellen, unveröffentlicht), wonach die Mechanismen für RNAi und asRNA-vermittelte Genstilllegung unterschiedliche spezifische Proteine benötigen. Um die Funktion des HelF-Proteins auf der molekularen Ebene genauer zu charakterisieren und die Interaktion mit anderen RNAi-Komponenten zu untersuchen, wurden in vitro Versuche durchgeführt. Das HelF-Protein enthält, neben der DEAH-Helikase-Domäne eine N-terminale Doppelstrang RNA bindende Domäne (dsRBD) mit einer hohen Ähnlichkeit zu der dsRBD des Dicer A aus Dictyostelium. Die dsRNA-Bindungsaktivität der beiden dsRBDs aus HelF und Dicer A wurde analysiert und verglichen. Es konnte mithilfe von Gel-Retardationsanalysen gezeigt werden, dass sowohl HelF-dsRBD als auch Dicer-dsRBD direkt an lange dsRNAs binden können. Hierbei zeigte sich, dass die HelF-dsRBD eine höhere Affinität zu einem imperfekten RNA-Doppelstrang besitzt, als zu einer perfekt gepaarten dsRNA. Für beide dsRBDs konnte eine spezifische Bindung an ein pre-miRNA Substrat nachgewiesen werden (pre-let-7). Dieses Ergebnis legt nah, dass es zwei Bindestellen für die Proteine auf dem pre-miRNA Substrat gibt. Überdies hinaus konnte gezeigt werden, dass die dsRBDs beider Proteine eine siRNA bindende Aktivität besitzen. Die Affinität beider dsRBDs an das pre-let-7 Substrat wurde weiterhin mit Hilfe der Plasmon Oberflächen Resonanz untersucht. Hierbei konnte eine 9-fach höhere Bindeaffinität der Dicer-dsRBD im Vergleich zur HelF-dsRBD nachgewiesen werden. Während die Bindung der HelF-dsRBD an das pre-let-7 durch die Anwesenheit von Mg2+ beeinträchtigt war, zeigte sich kein Einfluß von Mg2+ auf das Bindeverhalten der Dicer-dsRBD. Mit Hilfe der in dieser Arbeit gewonnen Ergebnisse lässt sich ein Model für die Funktion von HelF postulieren. In diesem Model wirkt HelF durch Erkennen und Binden von dsRNA Substraten als Suppressor von der RNAi im Kern. Das Protein kann als Überwachungsystem gegen eine irrtümliche Auslösung von RNAi wirken, die durch zufällige dsRNA Faltungen oder eine zu geringe Häufigkeit der siRNAs hervorgerufen sein könnte. Falls das Protein eine Helikase-Aktivität besitzt, könnte es rückgefaltete RNA Strukturen im Kern auflösen, was sich in einer verringerten RNAi-Effizienz wiederspiegelt. Durch Ausschalten des helF-Gens würde nach diesem Modell eine erfolgreiche Auslösung von RNAi schon bei sehr geringer Mengen an dsRNA möglich werden. Das Modell erlaubt, die exakte molekulare Funktion des HelF-Proteins im RNAi-Mechanismus weiter zu untersuchen.
Resumo:
Zur Senkung von Kosten werden in vielen Unternehmen Dienstleistungen, die nicht zur Kernkompetenz gehören, an externe Dienstleister ausgelagert. Dieser Prozess wird auch als Outsourcing bezeichnet. Die dadurch entstehenden Abhängigkeiten zu den externen Dienstleistern werden mit Hilfe von Service Level Agreements (SLAs) vertraglich geregelt. Die Aufgabe des Service Level Managements (SLM) ist es, die Einhaltung der vertraglich fixierten Dienstgüteparameter zu überwachen bzw. sicherzustellen. Für eine automatische Bearbeitung ist daher eine formale Spezifikation von SLAs notwendig. Da der Markt eine Vielzahl von unterschiedlichen SLM-Werkzeugen hervorgebracht hat, entstehen in der Praxis Probleme durch proprietäre SLA-Formate und fehlende Spezifikationsmethoden. Daraus resultiert eine Werkzeugabhängigkeit und eine limitierte Wiederverwendbarkeit bereits spezifizierter SLAs. In der vorliegenden Arbeit wird ein Ansatz für ein plattformunabhängiges Service Level Management entwickelt. Ziel ist eine Vereinheitlichung der Modellierung, so dass unterschiedliche Managementansätze integriert und eine Trennung zwischen Problem- und Technologiedomäne erreicht wird. Zudem wird durch die Plattformunabhängigkeit eine hohe zeitliche Stabilität erstellter Modelle erreicht. Weiteres Ziel der Arbeit ist, die Wiederverwendbarkeit modellierter SLAs zu gewährleisten und eine prozessorientierte Modellierungsmethodik bereitzustellen. Eine automatisierte Etablierung modellierter SLAs ist für eine praktische Nutzung von entscheidender Relevanz. Zur Erreichung dieser Ziele werden die Prinzipien der Model Driven Architecture (MDA) auf die Problemdomäne des Service Level Managements angewandt. Zentrale Idee der Arbeit ist die Definition von SLA-Mustern, die konfigurationsunabhängige Abstraktionen von Service Level Agreements darstellen. Diese SLA-Muster entsprechen dem Plattformunabhängigen Modell (PIM) der MDA. Durch eine geeignete Modelltransformation wird aus einem SLA-Muster eine SLA-Instanz generiert, die alle notwendigen Konfigurationsinformationen beinhaltet und bereits im Format der Zielplattform vorliegt. Eine SLA-Instanz entspricht damit dem Plattformspezifischen Modell (PSM) der MDA. Die Etablierung der SLA-Instanzen und die daraus resultierende Konfiguration des Managementsystems entspricht dem Plattformspezifischen Code (PSC) der MDA. Nach diesem Schritt ist das Managementsystem in der Lage, die im SLA vereinbarten Dienstgüteparameter eigenständig zu überwachen. Im Rahmen der Arbeit wurde eine UML-Erweiterung definiert, die eine Modellierung von SLA-Mustern mit Hilfe eines UML-Werkzeugs ermöglicht. Hierbei kann die Modellierung rein graphisch als auch unter Einbeziehung der Object Constraint Language (OCL) erfolgen. Für die praktische Realisierung des Ansatzes wurde eine Managementarchitektur entwickelt, die im Rahmen eines Prototypen realisiert wurde. Der Gesamtansatz wurde anhand einer Fallstudie evaluiert.
Resumo:
Von der Idee zum Mythos. Die Rezeption des Bauhaus in beiden Teilen Deutschlands in Zeiten des Neuanfangs (1945 und 1989) Das Bauhaus wird 1919 durch Zusammenlegung der Großherzoglich Sächsischen Kunstgewerbeschule und der Hochschule für Bildende Kunst von Walter Gropius gegründet. Dabei geht es in seinem programmatischen Ansatz weit über seine institutionellen Vorgänger hinaus. Das Bauhaus-Konzept zielt nicht auf die Erschaffung einer zeitgemäßen Formsprache, sondern auf die Veränderung der gesellschaftlichen Wirklichkeit mit den Mitteln der Kunst. Diese Haltung ist eine Reaktion auf die Bewusstseinskrise, die durch den Ersten Weltkrieg ausgelöst worden war: Der zunehmenden Entfremdung von Kunst und Leben soll entgegengewirkt und dabei die versprengten Einzelkünste unter dem Primat der Architektur wieder zusammengeführt werden: Weil sich dieser sozial-moralische Impetus, der gemeinhin mit dem Schlagwort ‚Bauhaus-Idee’ umschrieben wird, äußerst vielschichtig darstellt, lässt er sich in die verschiedensten Kulturkonzepte einpassen. Die Arbeit legt die Bauhaus-Rezeption in Deutschland zu zwei verschiedenen Zeiten vergleichend dar. Im ersten Schritt wird die Ost- mit der Westrezeption verglichen. Dieser synchrone Vergleich wird zu zwei epochalen Umbruchsituationen durchgeführt; zum einen von 1945 bis Mitte der 50er Jahre, zum anderen von 1989 bis Mitte der 90er Jahre. Auf dieser Grundlage wird geprüft, wie sich die östliche als auch die westliche Wahrnehmung des Bauhaus von 1945-1955 gegenüber der Bauhausrezeption nach 1989 abhebt (diachroner Vergleich). Die Jahre 1945-1955 beschreiben die Entwicklung des Auseinanderbrechens der deutschen Nation in zwei autonome deutsche Staaten. Mit dem Jahr 1989 wird die Entwicklung umgekehrt: Deutschland wächst zu einer Kulturnation zusammen. Durch die Periodisierung (1945/1989) wird geklärt, wie das wiedervereinigte Deutschland auf kultureller Ebene mit der Vergangenheit des Kalten Krieges umgeht. Weil sich an der Bauhaus-Pädagogik am ehesten die reale Umsetzung der ‚Bauhaus-Idee’ ablesen lässt, analysiert meine Arbeit die pädagogischen Konzeptionen an deutschen Kunstschulen. Dabei wird in den Institutionsgeschichten der politisch-gesellschaftliche Rahmen stets mitgedacht, der Restituierungsversuche ermöglicht oder scheitern lässt. Im Zentrum meiner Arbeit steht nicht die Analyse der Sache ‚Bauhaus, sondern dessen Missdeutung und Umdeutung in politisch divergenten Zeiten. Für die Zeit 1945-1955 beschreibe ich auf westdeutscher Seite die Hochschule für Gestaltung in Ulm und die Werkakademie bzw. Werkkunstschule in Kassel. Im Osten konzentriert sich der Blick auf die historischen Bauhaus-Stätten: Weimar und Dessau. Nach der Wende vermischen sich die bis dahin getrennten Rezeptionsstränge von Ost und West. In der wiedervereinigten Bundesrepublik existieren neben dem Bauhaus-Archiv nunmehr zwei zusätzliche Institutionen: die Bauhaus-Universität in Weimar und die Stiftung Bauhaus Dessau. Wie wird in dieser historischen Situation das Bauhaus-Erbe aufgeteilt und verwaltet?
Resumo:
Die Maßnahmen zur Förderung der Windenergie in Deutschland haben wichtige Anstöße zur technologischen Weiterentwicklung geliefert und die Grundlagen für den enormen Anlagenzubau geschaffen. Die installierte Windleistung hat heute eine beachtliche Größenordnung erreicht und ein weiteres Wachstum in ähnlichen Dimensionen ist auch für die nächsten Jahre zu erwarten. Die aus Wind erzeugte elektrische Leistung deckt bereits heute in einigen Netzbereichen die Netzlast zu Schwachlastzeiten. Dies zeigt, dass die Windenergie ein nicht mehr zu vernachlässigender Faktor in der elektrischen Energieversorgung geworden ist. Im Rahmen der Kraftwerkseinsatzplanung sind Betrag und Verlauf der Windleistung des folgenden Tages mittlerweile zu wichtigen und zugleich schwierig zu bestimmenden Variablen geworden. Starke Schwankungen und falsche Prognosen der Windstromeinspeisung verursachen zusätzlichen Bedarf an Regel- und Ausgleichsleistung durch die Systemführung. Das im Rahmen dieser Arbeit entwickelte Prognosemodell liefert die zu erwartenden Windleistungen an 16 repräsentativen Windparks bzw. Gruppen von Windparks für bis zu 48 Stunden im Voraus. Aufgrund von prognostizierten Wetterdaten des deutschen Wetterdienstes (DWD) werden die Leistungen der einzelnen Windparks mit Hilfe von künstlichen neuronalen Netzen (KNN) berechnet. Diese Methode hat gegenüber physikalischen Verfahren den Vorteil, dass der komplexe Zusammenhang zwischen Wettergeschehen und Windparkleistung nicht aufwendig analysiert und detailliert mathematisch beschrieben werden muss, sondern anhand von Daten aus der Vergangenheit von den KNN gelernt wird. Das Prognosemodell besteht aus zwei Modulen. Mit dem ersten wird, basierend auf den meteorologischen Vorhersagen des DWD, eine Prognose für den Folgetag erstellt. Das zweite Modul bezieht die online gemessenen Leistungsdaten der repräsentativen Windparks mit ein, um die ursprüngliche Folgetagsprognose zu verbessern und eine sehr genaue Kurzzeitprognose für die nächsten drei bis sechs Stunden zu berechnen. Mit den Ergebnissen der Prognosemodule für die repräsentativen Standorte wird dann über ein Transformationsmodell, dem so genannten Online-Modell, die Gesamteinspeisung in einem größeren Gebiet berechnet. Das Prognoseverfahren hat seine besonderen Vorzüge in der Genauigkeit, den geringen Rechenzeiten und den niedrigen Betriebskosten, da durch die Verwendung des bereits implementierten Online-Modells nur eine geringe Anzahl von Vorhersage- und Messstandorten benötigt wird. Das hier vorgestellte Prognosemodell wurde ursprünglich für die E.ON-Netz GmbH entwickelt und optimiert und ist dort seit Juli 2001 im Einsatz. Es lässt sich jedoch auch leicht an andere Gebiete anpassen. Benötigt werden dazu nur die Messdaten der Leistung ausgewählter repräsentativer Windparks sowie die dazu gehörenden Wettervorhersagen, um die KNN entsprechend zu trainieren.
Resumo:
Seit gut zehn Jahren erlebt die Windenergienutzung in Deutschland einen in der Mitte der 80er Jahre nicht für möglich gehaltenen Aufschwung. Anlagenanzahl und installierte Leistung haben in diesem Zeitraum mit durchschnittlichen jährlichen Wachstumsraten von mehr als 30 Prozent zugenommen, die mittlere installierte Leistung pro neu errichteter Anlage stieg dabei um das Zehnfache und die technische Verfügbarkeit der Anlagen liegt mittlerweile bei über 98 Prozent. Mit größer werdenden Anlagen zeigt sich weiterhin ein klarer Trend zu Blattwinkel verstellbaren Konzepten, mit zunehmend drehzahlvariabler Betriebsweise. Vor dem von Vielen für die kommenden drei bis sechs Jahre prognostizierten Einstieg in die großtechnische Offshore- Windenergienutzung mit den damit verbundenen immensen technologischen und strukturellen Herausforderungen erscheint es sinnvoll, einen kritischen Blick zurückzuwerfen auf die 90er Jahre mit den ihnen zugrunde liegenden förderpolitischen Rahmenbedingungen. Dabei soll die Frage beantwortet werden, welchen konkreten Einfluss die staatlichen Forschungs- und Förderprogramme, besonders das "250 MW Wind"-Programm, auf die Entwicklung der Windenergienutzung hatten, das heißt, unter welchen Bedingungen sich bestimmte Techniklinien durchsetzten, wie der Einfluss eines geschützten Marktes durch gesetzlich garantierte Einspeisetarife auf diese Entwicklung zu bewerten ist und schließlich, welche Fehlentwicklungen möglicher Weise eingetreten sind. Dazu wird mit Hilfe von Lernkurven gezeigt, welche Kostenreduktionen insgesamt erzielt wurden, wie hoch die dazu notwendigen staatlichen Finanzmittel waren und welche Schlussfolgerungen daraus für die Zukunft abgeleitet werden können. Die Arbeit soll insgesamt dazu beitragen, die erreichten technischen Entwicklungsschritte vor dem Hintergrund der förderpolitischen Gegebenheiten besser zu verstehen, Chancen für gezielte Änderungen in der Förderpraxis zu ergreifen und Hinweise auf die Ausgestaltung von zukünftigen Forschungsprogrammen und Entwicklungsschwerpunkten im Bereich der Windenergie zu geben, um weitere Kostensenkungspotenziale auszuschöpfen. Dabei wird sich die zukünftige Schwerpunktsetzung in der programmatischen Ausrichtung der Forschung stärker auf die drei wichtigsten Anwendungsfelder für Windenergieanlagen konzentrieren müssen, die großtechnische Offshore- Anwendung, die netzgebundene, dezentrale Energieversorgung sowie auf Windenergieanlagen zur ländlichen Elektrifizierung in autonomen Versorgungssystemen für Schwellen- und Entwicklungsländer.
Resumo:
In dieser Arbeit werden verschiedene Computermodelle, Rechenverfahren und Methoden zur Unterstützung bei der Integration großer Windleistungen in die elektrische Energieversorgung entwickelt. Das Rechenmodell zur Simulation der zeitgleich eingespeisten Windenergie erzeugt Summenganglinien von beliebig zusammengestellten Gruppen von Windenergieanlagen, basierend auf gemessenen Wind- und Leistungsdaten der nahen Vergangenheit. Dieses Modell liefert wichtige Basisdaten für die Analyse der Windenergieeinspeisung auch für zukünftige Szenarien. Für die Untersuchung der Auswirkungen von Windenergieeinspeisungen großräumiger Anlagenverbünde im Gigawattbereich werden verschiedene statistische Analysen und anschauliche Darstellungen erarbeitet. Das im Rahmen dieser Arbeit entwickelte Modell zur Berechnung der aktuell eingespeisten Windenergie aus online gemessenen Leistungsdaten repräsentativer Windparks liefert wertvolle Informationen für die Leistungs- und Frequenzregelung der Netzbetreiber. Die zugehörigen Verfahren zur Ermittlung der repräsentativen Standorte und zur Überprüfung der Repräsentativität bilden die Grundlage für eine genaue Abbildung der Windenergieeinspeisung für größere Versorgungsgebiete, basierend auf nur wenigen Leistungsmessungen an Windparks. Ein weiteres wertvolles Werkzeug für die optimale Einbindung der Windenergie in die elektrische Energieversorgung bilden die Prognosemodelle, die die kurz- bis mittelfristig zu erwartende Windenergieeinspeisung ermitteln. In dieser Arbeit werden, aufbauend auf vorangegangenen Forschungsarbeiten, zwei, auf Künstlich Neuronalen Netzen basierende Modelle vorgestellt, die den zeitlichen Verlauf der zu erwarten Windenergie für Netzregionen und Regelzonen mit Hilfe von gemessenen Leistungsdaten oder prognostizierten meteorologischen Parametern zur Verfügung stellen. Die softwaretechnische Zusammenfassung des Modells zur Berechnung der aktuell eingespeisten Windenergie und der Modelle für die Kurzzeit- und Folgetagsprognose bietet eine attraktive Komplettlösung für die Einbindung der Windenergie in die Leitwarten der Netzbetreiber. Die dabei entwickelten Schnittstellen und die modulare Struktur des Programms ermöglichen eine einfache und schnelle Implementierung in beliebige Systemumgebungen. Basierend auf der Leistungsfähigkeit der Online- und Prognosemodelle werden Betriebsführungsstrategien für zu Clustern im Gigawattbereich zusammengefasste Windparks behandelt, die eine nach ökologischen und betriebswirtschaftlichen Gesichtspunkten sowie nach Aspekten der Versorgungssicherheit optimale Einbindung der geplanten Offshore-Windparks ermöglichen sollen.