15 resultados para elektrische Antriebssysteme
em Universitätsbibliothek Kassel, Universität Kassel, Germany
Resumo:
In dieser Arbeit werden verschiedene Computermodelle, Rechenverfahren und Methoden zur Unterstützung bei der Integration großer Windleistungen in die elektrische Energieversorgung entwickelt. Das Rechenmodell zur Simulation der zeitgleich eingespeisten Windenergie erzeugt Summenganglinien von beliebig zusammengestellten Gruppen von Windenergieanlagen, basierend auf gemessenen Wind- und Leistungsdaten der nahen Vergangenheit. Dieses Modell liefert wichtige Basisdaten für die Analyse der Windenergieeinspeisung auch für zukünftige Szenarien. Für die Untersuchung der Auswirkungen von Windenergieeinspeisungen großräumiger Anlagenverbünde im Gigawattbereich werden verschiedene statistische Analysen und anschauliche Darstellungen erarbeitet. Das im Rahmen dieser Arbeit entwickelte Modell zur Berechnung der aktuell eingespeisten Windenergie aus online gemessenen Leistungsdaten repräsentativer Windparks liefert wertvolle Informationen für die Leistungs- und Frequenzregelung der Netzbetreiber. Die zugehörigen Verfahren zur Ermittlung der repräsentativen Standorte und zur Überprüfung der Repräsentativität bilden die Grundlage für eine genaue Abbildung der Windenergieeinspeisung für größere Versorgungsgebiete, basierend auf nur wenigen Leistungsmessungen an Windparks. Ein weiteres wertvolles Werkzeug für die optimale Einbindung der Windenergie in die elektrische Energieversorgung bilden die Prognosemodelle, die die kurz- bis mittelfristig zu erwartende Windenergieeinspeisung ermitteln. In dieser Arbeit werden, aufbauend auf vorangegangenen Forschungsarbeiten, zwei, auf Künstlich Neuronalen Netzen basierende Modelle vorgestellt, die den zeitlichen Verlauf der zu erwarten Windenergie für Netzregionen und Regelzonen mit Hilfe von gemessenen Leistungsdaten oder prognostizierten meteorologischen Parametern zur Verfügung stellen. Die softwaretechnische Zusammenfassung des Modells zur Berechnung der aktuell eingespeisten Windenergie und der Modelle für die Kurzzeit- und Folgetagsprognose bietet eine attraktive Komplettlösung für die Einbindung der Windenergie in die Leitwarten der Netzbetreiber. Die dabei entwickelten Schnittstellen und die modulare Struktur des Programms ermöglichen eine einfache und schnelle Implementierung in beliebige Systemumgebungen. Basierend auf der Leistungsfähigkeit der Online- und Prognosemodelle werden Betriebsführungsstrategien für zu Clustern im Gigawattbereich zusammengefasste Windparks behandelt, die eine nach ökologischen und betriebswirtschaftlichen Gesichtspunkten sowie nach Aspekten der Versorgungssicherheit optimale Einbindung der geplanten Offshore-Windparks ermöglichen sollen.
Resumo:
Die Maßnahmen zur Förderung der Windenergie in Deutschland haben wichtige Anstöße zur technologischen Weiterentwicklung geliefert und die Grundlagen für den enormen Anlagenzubau geschaffen. Die installierte Windleistung hat heute eine beachtliche Größenordnung erreicht und ein weiteres Wachstum in ähnlichen Dimensionen ist auch für die nächsten Jahre zu erwarten. Die aus Wind erzeugte elektrische Leistung deckt bereits heute in einigen Netzbereichen die Netzlast zu Schwachlastzeiten. Dies zeigt, dass die Windenergie ein nicht mehr zu vernachlässigender Faktor in der elektrischen Energieversorgung geworden ist. Im Rahmen der Kraftwerkseinsatzplanung sind Betrag und Verlauf der Windleistung des folgenden Tages mittlerweile zu wichtigen und zugleich schwierig zu bestimmenden Variablen geworden. Starke Schwankungen und falsche Prognosen der Windstromeinspeisung verursachen zusätzlichen Bedarf an Regel- und Ausgleichsleistung durch die Systemführung. Das im Rahmen dieser Arbeit entwickelte Prognosemodell liefert die zu erwartenden Windleistungen an 16 repräsentativen Windparks bzw. Gruppen von Windparks für bis zu 48 Stunden im Voraus. Aufgrund von prognostizierten Wetterdaten des deutschen Wetterdienstes (DWD) werden die Leistungen der einzelnen Windparks mit Hilfe von künstlichen neuronalen Netzen (KNN) berechnet. Diese Methode hat gegenüber physikalischen Verfahren den Vorteil, dass der komplexe Zusammenhang zwischen Wettergeschehen und Windparkleistung nicht aufwendig analysiert und detailliert mathematisch beschrieben werden muss, sondern anhand von Daten aus der Vergangenheit von den KNN gelernt wird. Das Prognosemodell besteht aus zwei Modulen. Mit dem ersten wird, basierend auf den meteorologischen Vorhersagen des DWD, eine Prognose für den Folgetag erstellt. Das zweite Modul bezieht die online gemessenen Leistungsdaten der repräsentativen Windparks mit ein, um die ursprüngliche Folgetagsprognose zu verbessern und eine sehr genaue Kurzzeitprognose für die nächsten drei bis sechs Stunden zu berechnen. Mit den Ergebnissen der Prognosemodule für die repräsentativen Standorte wird dann über ein Transformationsmodell, dem so genannten Online-Modell, die Gesamteinspeisung in einem größeren Gebiet berechnet. Das Prognoseverfahren hat seine besonderen Vorzüge in der Genauigkeit, den geringen Rechenzeiten und den niedrigen Betriebskosten, da durch die Verwendung des bereits implementierten Online-Modells nur eine geringe Anzahl von Vorhersage- und Messstandorten benötigt wird. Das hier vorgestellte Prognosemodell wurde ursprünglich für die E.ON-Netz GmbH entwickelt und optimiert und ist dort seit Juli 2001 im Einsatz. Es lässt sich jedoch auch leicht an andere Gebiete anpassen. Benötigt werden dazu nur die Messdaten der Leistung ausgewählter repräsentativer Windparks sowie die dazu gehörenden Wettervorhersagen, um die KNN entsprechend zu trainieren.
Resumo:
A stand-alone power system is an autonomous system that supplies electricity to the user load without being connected to the electric grid. This kind of decentralized system is frequently located in remote and inaccessible areas. It is essential for about one third of the world population which are living in developed or isolated regions and have no access to an electricity utility grid. The most people live in remote and rural areas, with low population density, lacking even the basic infrastructure. The utility grid extension to these locations is not a cost effective option and sometimes technically not feasible. The purpose of this thesis is the modelling and simulation of a stand-alone hybrid power system, referred to as “hydrogen Photovoltaic-Fuel Cell (PVFC) hybrid system”. It couples a photovoltaic generator (PV), an alkaline water electrolyser, a storage gas tank, a proton exchange membrane fuel cell (PEMFC), and power conditioning units (PCU) to give different system topologies. The system is intended to be an environmentally friendly solution since it tries maximising the use of a renewable energy source. Electricity is produced by a PV generator to meet the requirements of a user load. Whenever there is enough solar radiation, the user load can be powered totally by the PV electricity. During periods of low solar radiation, auxiliary electricity is required. An alkaline high pressure water electrolyser is powered by the excess energy from the PV generator to produce hydrogen and oxygen at a pressure of maximum 30bar. Gases are stored without compression for short- (hourly or daily) and long- (seasonal) term. A proton exchange membrane (PEM) fuel cell is used to keep the system’s reliability at the same level as for the conventional system while decreasing the environmental impact of the whole system. The PEM fuel cell consumes gases which are produced by an electrolyser to meet the user load demand when the PV generator energy is deficient, so that it works as an auxiliary generator. Power conditioning units are appropriate for the conversion and dispatch the energy between the components of the system. No batteries are used in this system since they represent the weakest when used in PV systems due to their need for sophisticated control and their short lifetime. The model library, ISET Alternative Power Library (ISET-APL), is designed by the Institute of Solar Energy supply Technology (ISET) and used for the simulation of the hybrid system. The physical, analytical and/or empirical equations of each component are programmed and implemented separately in this library for the simulation software program Simplorer by C++ language. The model parameters are derived from manufacturer’s performance data sheets or measurements obtained from literature. The identification and validation of the major hydrogen PVFC hybrid system component models are evaluated according to the measured data of the components, from the manufacturer’s data sheet or from actual system operation. Then, the overall system is simulated, at intervals of one hour each, by using solar radiation as the primary energy input and hydrogen as energy storage for one year operation. A comparison between different topologies, such as DC or AC coupled systems, is carried out on the basis of energy point of view at two locations with different geographical latitudes, in Kassel/Germany (Europe) and in Cairo/Egypt (North Africa). The main conclusion in this work is that the simulation method of the system study under different conditions could successfully be used to give good visualization and comparison between those topologies for the overall performance of the system. The operational performance of the system is not only depending on component efficiency but also on system design and consumption behaviour. The worst case of this system is the low efficiency of the storage subsystem made of the electrolyser, the gas storage tank, and the fuel cell as it is around 25-34% at Cairo and 29-37% at Kassel. Therefore, the research for this system should be concentrated in the subsystem components development especially the fuel cell.
Resumo:
In der vorliegenden Arbeit wird ein Unterrichtskonzept für die gymnasiale Oberstufe beschrieben, das anhand der Polarisationseigenschaft des Lichts von der Beobachtung ausgehend einen Zugang zur Quantenphysik ermöglicht. Die Unterrichtsinhalte bauen so aufeinander auf, dass ein "harter Bruch" zwischen der klassischen und der quantenphysikalischen Beschreibung von Licht vermieden wird. Das methodische Vorgehen des Unterrichtskonzeptes führt vom Phänomen ausgehend zu quantitativen Experimenten hin zu einer Einführung in quantenphysikalische Begriffe und Prinzipien. Dabei bildet der elektrische Feldvektor die Verknüpfung zwischen der klassischen und der quantenphysi-kalischen Beschreibung der Polarisationsexperimente, in dem er zunächst die Polarisationsexperimente beschreibt und im weiteren Verlauf des Unterrichtsganges als Wahrscheinlichkeitsamplitude gedeutet wird. Die Polarisation von Licht wird zu Beginn des Unterrichtsganges im Rahmen eines fächerübergreifenden Kontextes eingeführt, wobei die Navigation der Insekten nach dem polarisierten Himmelslicht als Einstieg dient. Die Erzeugung und die Eigen-schaften von polarisiertem Licht werden anhand von einfachen qualitativen Schüler- und Demonstrationsexperimenten mit Polarisationsfolien erarbeitet. Das Polarisationsphänomen der Haidinger-Büschel, das bei der Beobachtung von polarisiertem Licht wahrgenommen werden kann, ermöglicht eine Anbindung an das eigene Erleben der Schülerinnen und Schüler. Zur Erklärung dieser Experimente auf der Modellebene wird der elektrische Feldvektor und dessen Komponentenzerlegung benutzt. Im weiteren Verlauf des Unterrichtsganges wird die Komponentenzerlegung des elektrischen Feldvektors für eine quantitative Beschreibung der Polarisationsexperimente wieder aufgegriffen. In Experimenten mit Polarisationsfiltern wird durch Intensitätsmessungen das Malussche Gesetz und der quadratische Zusammenhang zwischen Intensität und elektrischem Feldvektor erarbeitet. Als Abschluss der klassischen Polarisationsexperimente wird das Verhalten von polarisiertem Licht bei Überlagerung in einem Michelson-Interferometer untersucht. Das in Abhängigkeit der Polarisationsrichtungen entstehende Interferenzmuster wird wiederum mit Hilfe der Komponentenzerlegung des elektrischen Feldvektors beschrieben und führt zum Superpositionsprinzip der elektrischen Feldvektoren. Beim Übergang zur Quantenphysik werden die bereits durchgeführten Polarisationsexperimente als Gedankenexperimente in der Photonenvorstellung gedeutet. Zur Beschreibung der Polarisation von Photonen wird der Begriff des Zustandes eingeführt, der durch die Wechselwirkung der Photonen mit dem Polarisationsfilter erzeugt wird. Das Malussche Gesetz wird in der Teilchenvorstellung wieder aufgegriffen und führt mit Hilfe der statistischen Deutung zum Begriff der Wahrscheinlichkeit. Bei der Beschreibung von Interferenzexperimenten mit einzelnen Photonen wird die Notwendigkeit eines Analogons zum elektrischen Feldvektor deutlich. Diese Betrachtungen führen zum Begriff der Wahrscheinlichkeitsamplitude und zum Superpositionsprinzip der Wahrscheinlichkeitsamplituden. Zum Abschluss des Unterrichtsganges wird anhand des Lokalisationsproblems einzelner Photonen das Fundamentalprinzip der Quantenphysik erarbeitet.
Resumo:
Die wachsende Weltbevölkerung bedingt einen höheren Energiebedarf, dies jedoch unter der Beachtung der nachhaltigen Entwicklung. Die derzeitige zentrale Versorgung mit elektrischer Energie wird durch wenige Erzeugungsanlagen auf der Basis von fossilen Primärenergieträgern und Kernenergie bestimmt, die die räumlich verteilten Verbraucher zuverlässig und wirtschaftlich über ein strukturiertes Versorgungssystem beliefert. In den Elektrizitätsversorgungsnetzen sind keine nennenswerten Speicherkapazitäten vorhanden, deshalb muss die von den Verbrauchern angeforderte Energie resp. Leistung jederzeit von den Kraftwerken gedeckt werden. Bedingt durch die Liberalisierung der Energiemärkte und die geforderte Verringerung der Energieabhängigkeit Luxemburgs, unterliegt die Versorgung einem Wandel hin zu mehr Energieeffizienz und erhöhter Nutzung der dargebotsabhängigen Energiequellen. Die Speicherung der aus der Windkraft erzeugten elektrischen Energie, wird in den Hochleistungs-Bleiakkumulatoren, errichtet im ländlichen Raum in der Nähe der Windkraftwerke, eingespeichert. Die zeitversetzte Einspeisung dieser gespeicherten elektrischen Energie in Form von veredelter elektrischer Leistung während den Lastspitzen in das 20 kV-Versorgungsnetz der CEGEDEL stellt die Innovation in der luxemburgischen Elektrizitätsversorgung dar. Die Betrachtungen beschränken sich somit auf die regionale, relativ kleinräumige Einbindung der Windkraft in die elektrische Energieversorgung des Großherzogtums Luxemburg. Die Integration der Windkraft im Regionalbereich wird in den Vordergrund der Untersuchung gerückt. Überregionale Ausgleichseffekte durch Hochspannungsleitungen der 230/400 kV-Systeme werden außer Acht gelassen. Durch die verbrauchernahe Bereitstellung von elektrischer Spitzenleistung vermindern sich ebenfalls die Übertragungskosten aus den entfernten Spitzenlastkraftwerken, der Ausbau von Kraftwerkskapazitäten kann in die Zukunft verschoben werden. Die Emission von Treibhausgasen in thermischen Kraftwerken wird zum Teil reduziert. Die Berechnungen der Wirtschaftlichkeit von Hybridanlagen, zusammengesetzt aus den Windkraftwerken und den Hochleistungs-Bleiakkumulatoren bringen weitere Informationen zum Einsatz dieser dezentralen Speichern, als Partner der nachhaltigen Energieversorgung im ländlichen Raum. Die untersuchte Einspeisung von erneuerbarer Spitzenleistung lässt sich auch in die Entwicklungsländer übertragen, welche nicht über zentrale Kraftwerkskapazitäten und Verteilungsnetze verfügen.
Resumo:
Neueste Entwicklungen in Technologien für dezentrale Energieversorgungsstrukturen, erneuerbare Energien, Großhandelsenergiemarkt, Mini- und Mikronetze, verteilte Intelligenz, sowie Informations- und Datenübertragungstechnologien werden die zukünftige Energiewelt maßgeblich bestimmen. Die derzeitigen Forschungsbemühungen zur Vernutzung aller dieser Technologien bilden die Voraussetzungen für ein zukünftiges, intelligentes Stromnetz. Dieses neue Konzept gründet sich auf die folgenden Säulen: Die Versorgung erfolgt durch dezentrale Erzeugungsanlagen und nicht mehr durch große zentrale Erzeuger; die Steuerung beeinflusst nicht mehr allein die Versorgung sondern ermöglich eine auch aktive Führung des Bedarf; die Eingabeparameter des Systems sind nicht mehr nur mechanische oder elektrische Kenngrößen sondern auch Preissignale; die erneuerbaren Energieträger sind nicht mehr nur angeschlossen, sondern voll ins Energienetz integriert. Die vorgelegte Arbeit fügt sich in dieses neue Konzept des intelligenten Stromnetz ein. Da das zukünftige Stromnetz dezentral konfiguriert sein wird, ist eine Übergangsphase notwendig. Dieser Übergang benötigt Technologien, die alle diese neue Konzepte in die derzeitigen Stromnetze integrieren können. Diese Arbeit beweist, dass ein Mininetz in einem Netzabschnitt mittlerer Größe als netzschützende Element wirken kann. Hierfür wurde ein neues Energiemanagementsystem für Mininetze – das CMS (englisch: Cluster Management System) – entwickelt. Diese CMS funktioniert als eine von ökonomischorientierte Betriebsoptimierung und wirkt wie eine intelligente Last auf das System ein, reagierend auf Preissignale. Sobald wird durch eine Frequenzsenkung eine Überlastung des Systems bemerkt, ändert das Mininetz sein Verhalten und regelt seine Belastung, um die Stabilisierung des Hauptnetzes zu unterstützen. Die Wirksamkeit und die Realisierbarkeit des einwickelten Konzept wurde mit Hilfe von Simulationen und erfolgreichen Laborversuchen bewiesen.
Resumo:
Angepasste Kommunikationssysteme für den effizienten Einsatz in dezentralen elektrischen Versorgungsstrukturen - In öffentlichen Elektrizitätsnetzen wird der Informationsaustausch seit längerem durch historisch gewachsene und angepasste Systeme erfolgreich bewerkstelligt. Basierend auf einem weiten Erfahrungsspektrum und einer gut ausgebauten Kommunikationsinfrastruktur stellt die informationstechnische Anbindung eines Teilnehmers im öffentlichen Versorgungsnetz primär kein Hemmnis dar. Anders gestaltet sich dagegen die Situation in dezentralen Versorgungsstrukturen. Da die Elektrifizierung von dezentralen Versorgungsgebieten, mittels der Vernetzung vieler verteilter Erzeugungsanlagen und des Aufbaus von nicht an das öffentliche Elektrizitätsnetz angeschlossenen Verteilnetzen (Minigrids), erst in den letzten Jahren an Popularität gewonnen hat, sind nur wenige Projekte bis dato abgeschlossen. Für die informationstechnische Anbindung von Teilnehmern in diesen Strukturen bedeutet dies, dass nur in einem sehr begrenzten Umfang auf Erfahrungswerte bei der Systemauswahl zurückgegriffen werden kann. Im Rahmen der Dissertation ist deshalb ein Entscheidungsfindungsprozess (Leitfaden für die Systemauswahl) entwickelt worden, der neben einem direkten Vergleich von Kommunikationssystemen basierend auf abgeleiteten Bewertungskriterien und Typen, der Reduktion des Vergleichs auf zwei Systemwerte (relativer Erwartungsnutzenzuwachs und Gesamtkostenzuwachs), die Wahl eines geeigneten Kommunikationssystems für die Applikation in dezentralen elektrischen Versorgungsstrukturen ermöglicht. In Anlehnung an die klassische Entscheidungstheorie werden mit der Berechnung eines Erwartungsnutzens je Kommunikationssystems, aus der Gesamtsumme der Einzelprodukte der Nutzwerte und der Gewichtungsfaktor je System, sowohl die technischen Parameter und applikationsspezifischen Aspekte, als auch die subjektiven Bewertungen zu einem Wert vereint. Mit der Ermittlung der jährlich erforderlichen Gesamtaufwendungen für ein Kommunikationssystem bzw. für die anvisierten Kommunikationsaufgaben, in Abhängigkeit der Applikation wird neben dem ermittelten Erwartungsnutzen des Systems, ein weiterer Entscheidungsparameter für die Systemauswahl bereitgestellt. Die anschließende Wahl geeigneter Bezugsgrößen erlaubt die Entscheidungsfindung bzgl. der zur Auswahl stehenden Systeme auf einen Vergleich mit einem Bezugssystem zurückzuführen. Hierbei sind nicht die absoluten Differenzen des Erwartungsnutzen bzw. des jährlichen Gesamtaufwandes von Interesse, sondern vielmehr wie sich das entsprechende System gegenüber dem Normal (Bezugssystem) darstellt. Das heißt, der relative Zuwachs des Erwartungsnutzen bzw. der Gesamtkosten eines jeden Systems ist die entscheidende Kenngröße für die Systemauswahl. Mit dem Eintrag der berechneten relativen Erwartungsnutzen- und Gesamtkostenzuwächse in eine neu entwickelte 4-Quadranten-Matrix kann unter Berücksichtigung der Lage der korrespondierenden Wertepaare eine einfache (grafische) Entscheidung bzgl. der Wahl des für die Applikation optimalsten Kommunikationssystems erfolgen. Eine exemplarisch durchgeführte Systemauswahl, basierend auf den Analyseergebnissen von Kommunikationssystemen für den Einsatz in dezentralen elektrischen Versorgungsstrukturen, veranschaulicht und verifiziert die Handhabung des entwickelten Konzeptes. Die abschließende Realisierung, Modifikation und Test des zuvor ausgewählten Distribution Line Carrier Systems unterstreicht des Weiteren die Effizienz des entwickelten Entscheidungsfindungsprozesses. Dem Entscheidungsträger für die Systemauswahl wird insgesamt ein Werkzeug zur Verfügung gestellt, das eine einfache und praktikable Entscheidungsfindung erlaubt. Mit dem entwickelten Konzept ist erstmals eine ganzheitliche Betrachtung unter Berücksichtigung sowohl der technischen und applikationsspezifischen, als auch der ökonomischen Aspekte und Randbedingungen möglich, wobei das Entscheidungsfindungskonzept nicht nur auf die Systemfindung für dezentrale elektrische Energieversorgungsstrukturen begrenzt ist, sondern auch bei entsprechender Modifikation der Anforderungen, Systemkenngrößen etc. auf andere Applikationsanwendungen übertragen werden.
Resumo:
Im Vordergrund dieser Arbeit stehen die Synthesen des Azobenzol-4-trichlorsilans sowie des Bis(4-azobenzol)disulfids, ausgehend von einfachen und kommerziell erhältlichen Verbindungen. Moleküle, aus denen sich diese Verbindungen synthetisieren lassen, sind die Iodderivate des Azobenzols, welche über die Kondensation von Benzolaminen (Anilinen) und Nitrosobenzolen dargestellt wurden, aber auch über die altbewährte Azokupplung. Insgesamt wurden 19 neue Azobenzolderivate, das neue [(4-Aminophenyl)ethinyl]ferrocen und das neue Bis[4-(4'-bromazobenzol)]disulfid synthetisiert und charakterisiert. Außerdem wurden 13 neue Kristallstrukturen erzeugt. Mit den synthetisierten Molekülen wurden Substrat-Adsorbat-Systeme gebildet. Als Substrate wurden oberflächenoxidiertes Silizium und Gold gewählt. Die Präparation dieser sogennanten selbstorganisierten Monolagen (SAMs) bzw. der kovalent gebundenen Monolagen im Falle der Trichlorsilylderivate (CAMs) wurde eingehend studiert. Das Azobenzol wurde als photoschaltbare Einheit gewählt, da es bereits Kern zahlreicher Untersuchungen war und als solcher als guter und zuverlässiger Baustein für reversible photoschaltbare Systeme etabliert ist. Zur Charakterisierung Schichten und zur Untersuchung ihres photoresponsiven Verhaltens sowie sowie zur Untersuchung der Schichtbildung selbst wurden mehrere physikalische Messmethoden angewandt. Die Schichtbildung wurde mit SHG (optische Frequenzverdopplung) verfolgt, die fertigen Schichten wurden mit XPS (Röntgen-Photonen-Spektroskopie) und NEXAFS (Nahkanten-Röntgen-Absorptions-Feinstruktur) untersucht, um Orientierung und Ordnung der Moleküle in der Schicht zu ermitteln. Das Schaltverhalten wurde mit Ellipsometrie und durch Messungen des Wasserkontaktwinkels beobachtet. Durch Variation der Endgruppe des Azobenzols ist es möglich, die Oberflächeneigenschaften einstellen gezielt zu können, wie Hydrophobie, Hydrophilie, Komplexierungsverhalten oder elektrische Schaltbarkeit. Dies gelingt durch Gruppen wie N,N-Dimethylamino-, Methoxy-, Ethoxy-, Octyloxy-, Dodecyloxy-, Benzyloxy-, Methyl-, Trifluormethyl-, Pyridyl-, Phenylethinyl- und Ferrocenyl-Restgruppen, um nur eine Auswahl zu nennen. Einerseits wurde Silizium als Substrat gewählt, da es wegen seiner Verwendung in der Halbleiterindustrie ein nicht uninteressantes Substrat darstell und die Möglichkeiten der kovalenten Anbindung von Trichlorsilanen aber auch Trialkoxysilanen auch gut untersucht ist. Andererseits wurden auch Untersuchungen mit Gold als Substrat angestellt, bei dem Thiole und Disulfide die bevorzugten Ankergruppen bilden. Während sich auf Gold sogenannte SAMs bilden, verleiht die kovalente Siloxanbindung den CAMs auf Silizium eine besondere Stabilität.
Resumo:
Bei der Begehung von Olebach, Losse und Alte Losse wurden der ökomorphologische Zustand von Sohle, Böschung, Linienführung, Verzahnung von Wasser und Land und der Ufergehölze sowie die Landnutzung notiert. Einleitungen von Abwässern und die Ablagerung von Abfällen auf Böschung und Ufer wurde protokolliert. Wassertemperatur und elektrische Leitfähigkeit wurden an mehreren Punkten gemessen. Die Leitfähigkeitswerte werden vor dem Hintergrund der Geologie der Einzugsgebiete interpretiert und zur chemischen Indikation von diffusen und punktförmigen Einleitungen genutzt. Es werden Maßnahmen zur Renaturierung, Maßnahmen gegen die Ablagerung von Gartenabfällen auf Ufer und Böschung, Maßnahmen gegen die ackerbauliche Nutzung und Bebauung im Gewässerrandstreifen vorgeschlagen.
Resumo:
Bei der Begehung von Neuem Wasserfallgraben, Marbachsgraben und Dönchebach wurden der ökomorphologische Zustand von Sohle, Böschung, Linienführung, Verzahnung von Wasser und Land und der Ufergehölze sowie die Landnutzung notiert. Einleitungen von Abwässern und die Ablagerung von Abfällen auf Böschung und Ufer wurden protokolliert. Wassertemperatur und elektrische Leitfähigkeit wurden an mehreren Punkten gemessen. Es werden Maßnahmen zur Renaturierung, Regenwasserbewirtschaftung sowie zur Pflege des Naturschutzgebiets Dönche, Maßnahmen gegen die Ablagerung von Gartenabfällen auf Ufer und Böschung, Maßnahmen gegen die ackerbauliche Nutzung, Viehtritt und die Bebauung im Gewässerrandstreifen vorgeschlagen.
Resumo:
Weltweit leben mehr als 2 Milliarden Menschen in ländlichen Gebieten. Als Konzept für die elektrische Energieversorgung solcher Gebiete kommen dezentrale elektrische Energieversorgungseinheiten zum Einsatz, die lokal verfügbare erneuerbare Ressourcen nutzen. Stand der Technik bilden Einheiten, die auf PV-Diesel-Batterie System basieren. Die verwendeten Versorgungsskonzepte in Hybridsystemen sind durch den Einsatz von Batterien als Energiespeicher meist wenig zuverlässig und teuer. Diese Energiespeicher sind sehr aufwendig zu überwachen und schwerig zu entsorgen. Den Schwerpunkt dieser Arbeit bildet die Entwicklung eines neuen Hybridsystems mit einem Wasserreservoir als Energiespeicher. Dieses Konzept eignet sich für Bergregionen in Entwicklungsländern wie Nepal, wo z.B. neben der solaren Strahlung kleine Flüsse in großer Anzahl vorhanden sind. Das Hybridsystem verfügt über einen Synchrongenerator, der die Netzgrößen Frequenz und Spannung vorgibt und zusätzlich unterstützen PV und Windkraftanlage die Versorgung. Die Wasserkraftanlage soll den Anteil der erneuerbaren Energienutzung erhöhen. Die Erweiterung des Systems um ein Dieselaggregat soll die Zuverlässigkeit der Versorgung erhöhen. Das Hybridsystem inkl. der Batterien wird modelliert und simuliert. Anschließend werden die Simulations- und Messergebnisse verglichen, um eine Validierung des Modells zu erreichen. Die Regelungsstruktur ist aufgrund der hohen Anzahl an Systemen und Parametern sehr komplex. Sie wird mit dem Simulationstool Matlab/Simulink nachgebildet. Das Verhalten des Gesamtsystems wird unter verschiedene Lasten und unterschiedlichen meteorologischen Gegebenheiten untersucht. Ein weiterer Schwerpunkt dieser Arbeit ist die Entwicklung einer modularen Energiemanagementeinheit, die auf Basis der erneuerbaren Energieversorgung aufgebaut wird. Dabei stellt die Netzfrequenz eine wichtige Eingangsgröße für die Regelung dar. Sie gibt über die Wirkleistungsstatik die Leistungsänderung im Netz wider. Über diese Angabe und die meteorologischen Daten kann eine optimale wirtschaftliche Aufteilung der Energieversorgung berechnet und eine zuverlässige Versorgung gewährleistet werden. Abschließend wurde die entwickelte Energiemanagementeinheit hardwaretechnisch aufgebaut, sowie Sensoren, Anzeige- und Eingabeeinheit in die Hardware integriert. Die Algorithmen werden in einer höheren Programmiersprache umgesetzt. Die Simulationen unter verschiedenen meteorologischen und netztechnischen Gegebenheiten mit dem entwickelten Model eines Hybridsystems für die elektrische Energieversorgung haben gezeigt, dass das verwendete Konzept mit einem Wasserreservoir als Energiespeicher ökologisch und ökonomisch eine geeignete Lösung für Entwicklungsländer sein kann. Die hardwaretechnische Umsetzung des entwickelten Modells einer Energiemanagementeinheit hat seine sichere Funktion bei der praktischen Anwendung in einem Hybridsystem bestätigen können.
Resumo:
Vor dem Hintergund der Integration des wissensbasierten Managementsystems Precision Farming in den Ökologischen Landbau wurde die Umsetzung bestehender sowie neu zu entwickelnder Strategien evaluiert und diskutiert. Mit Blick auf eine im Precision Farming maßgebende kosteneffiziente Ertragserfassung der im Ökologischen Landbau flächenrelevanten Leguminosen-Grasgemenge wurden in zwei weiteren Beiträgen die Schätzgüten von Ultraschall- und Spektralsensorik in singulärer und kombinierter Anwendung analysiert. Das Ziel des Precision Farming, ein angepasstes Management bezogen auf die flächeninterne Variabilität der Standorte umzusetzen, und damit einer Reduzierung von Betriebsmitteln, Energie, Arbeit und Umwelteffekten bei gleichzeitiger Effektivitätssteigerung und einer ökonomischen Optimierung zu erreichen, deckt sich mit wesentlichen Bestrebungen im Ökogischen Landbau. Es sind vorrangig Maßnahmen zur Erfassung der Variabilität von Standortfaktoren wie Geländerelief, Bodenbeprobung und scheinbare elektrische Leitfähigkeit sowie der Ertragserfassung über Mähdrescher, die direkt im Ökologischen Landbau Anwendung finden können. Dagegen sind dynamisch angepasste Applikationen zur Düngung, im Pflanzenschutz und zur Beseitigung von Unkräutern aufgrund komplexer Interaktionen und eines eher passiven Charakters dieser Maßnahmen im Ökologischen Landbau nur bei Veränderung der Applikationsmodelle und unter Einbindung weiterer dynamischer Daten umsetzbar. Beispiele hiefür sind einzubeziehende Mineralisierungsprozesse im Boden und organischem Dünger bei der Düngemengenberechnung, schwer ortsspezifisch zuzuordnende präventive Maßnamen im Pflanzenschutz sowie Einflüsse auf bodenmikrobiologische Prozesse bei Hack- oder Striegelgängen. Die indirekten Regulationsmechanismen des Ökologischen Landbaus begrenzen daher die bisher eher auf eine direkte Wirkung ausgelegten dynamisch angepassten Applikationen des konventionellen Precision Farming. Ergänzend sind innovative neue Strategien denkbar, von denen die qualitätsbezogene Ernte, der Einsatz hochsensibler Sensoren zur Früherkennung von Pflanzenkrankheiten oder die gezielte teilflächen- und naturschutzorientierte Bewirtschaftung exemplarisch in der Arbeit vorgestellt werden. Für die häufig große Flächenanteile umfassenden Leguminosen-Grasgemenge wurden für eine kostengünstige und flexibel einsetzbare Ertragserfassung die Ultraschalldistanzmessung zur Charakterisierung der Bestandeshöhe sowie verschiedene spektrale Vegetationsindices als Schätzindikatoren analysiert. Die Vegetationsindices wurden aus hyperspektralen Daten nach publizierten Gleichungen errechnet sowie als „Normalized Difference Spectral Index“ (NDSI) stufenweise aus allen möglichen Wellenlängenkombinationen ermittelt. Die Analyse erfolgte für Ultraschall und Vegetationsindices in alleiniger und in kombinierter Anwendung, um mögliche kompensatorische Effekte zu nutzen. In alleiniger Anwendung erreichte die Ultraschallbestandeshöhe durchweg bessere Schätzgüten, als alle einzelnen Vegetationsindices. Bei den letztgenannten erreichten insbesondere auf Wasserabsorptionsbanden basierende Vegetationsindices eine höhere Schätzgenauigkeit als traditionelle Rot/Infrarot-Indices. Die Kombination beider Sensorda-ten ließ eine weitere Steigerung der Schätzgüte erkennen, insbesondere bei bestandesspezifischer Kalibration. Hierbei kompensieren die Vegetationsindices Fehlschätzungen der Höhenmessung bei diskontinuierlichen Bestandesdichtenänderungen entlang des Höhengradienten, wie sie beim Ährenschieben oder durch einzelne hochwachsende Arten verursacht werden. Die Kombination der Ultraschallbestandeshöhe mit Vegetationsindices weist das Potential zur Entwicklung kostengünstiger Ertragssensoren für Leguminosen-Grasgemenge auf. Weitere Untersuchungen mit hyperspektralen Vegetationsindices anderer Berechnungstrukturen sowie die Einbindung von mehr als zwei Wellenlängen sind hinsichtlich der Entwicklung höherer Schätzgüten notwendig. Ebenso gilt es, Kalibrierungen und Validationen der Sensorkombination im artenreichen Grasland durchzuführen. Die Ertragserfassung in den Leguminosen-Grasgemengen stellt einen wichtigen Beitrag zur Erstellung einer Ertragshistorie in den vielfältigen Fruchtfolgen des Ökologischen Landbaus dar und ermöglicht eine verbesserte Einschätzung von Produktionspotenzialen und Defizitarealen für ein standortangepasstes Management.
Resumo:
The measurement of feed intake, feeding time and rumination time, summarized by the term feeding behavior, are helpful indicators for early recognition of animals which show deviations in their behavior. The overall objective of this work was the development of an early warning system for inadequate feeding rations and digestive and metabolic disorders, which prevention constitutes the basis for health, performance, and reproduction. In a literature review, the current state of the art and the suitability of different measurement tools to determine feeding behavior of ruminants was discussed. Five measurement methods based on different methodological approaches (visual observance, pressure transducer, electrical switches, electrical deformation sensors and acoustic biotelemetry), and three selected measurement techniques (the IGER Behavior Recorder, the Hi-Tag rumination monitoring system and RumiWatchSystem) were described, assessed and compared to each other within this review. In the second study, the new system for measuring feeding behavior of dairy cows was evaluated. The measurement of feeding behavior ensues through electromyography (EMG). For validation, the feeding behavior of 14 cows was determined by both the EMG system and by visual observation. The high correlation coefficients indicate that the current system is a reliable and suitable tool for monitoring the feeding behavior of dairy cows. The aim of a further study was to compare the DairyCheck (DC) system and two additional measurement systems for measuring rumination behavior in relation to efficiency, reliability and reproducibility, with respect to each other. The two additional systems were labeled as the Lely Qwes HR (HR) sensor, and the RumiWatchSystem (RW). Results of accordance of RW and DC to each other were high. The last study examined whether rumination time (RT) is affected by the onset of calving and if it might be a useful indicator for the prediction of imminent birth. Data analysis referred to the final 72h before the onset of calving, which were divided into twelve 6h-blocks. The results showed that RT was significantly reduced in the final 6h before imminent birth.
Resumo:
In dieser Arbeit wird ein Verfahren zum Einsatz neuronaler Netzwerke vorgestellt, das auf iterative Weise Klassifikation und Prognoseschritte mit dem Ziel kombiniert, bessere Ergebnisse der Prognose im Vergleich zu einer einmaligen hintereinander Ausführung dieser Schritte zu erreichen. Dieses Verfahren wird am Beispiel der Prognose der Windstromerzeugung abhängig von der Wettersituation erörtert. Eine Verbesserung wird in diesem Rahmen mit einzelnen Ausreißern erreicht. Verschiedene Aspekte werden in drei Kapiteln diskutiert: In Kapitel 1 werden die verwendeten Daten und ihre elektronische Verarbeitung vorgestellt. Die Daten bestehen zum einen aus Windleistungshochrechnungen für die Bundesrepublik Deutschland der Jahre 2011 und 2012, welche als Transparenzanforderung des Erneuerbaren Energiegesetzes durch die Übertragungsnetzbetreiber publiziert werden müssen. Zum anderen werden Wetterprognosen, die der Deutsche Wetterdienst im Rahmen der Grundversorgung kostenlos bereitstellt, verwendet. Kapitel 2 erläutert zwei aus der Literatur bekannte Verfahren - Online- und Batchalgorithmus - zum Training einer selbstorganisierenden Karte. Aus den dargelegten Verfahrenseigenschaften begründet sich die Wahl des Batchverfahrens für die in Kapitel 3 erläuterte Methode. Das in Kapitel 3 vorgestellte Verfahren hat im modellierten operativen Einsatz den gleichen Ablauf, wie eine Klassifikation mit anschließender klassenspezifischer Prognose. Bei dem Training des Verfahrens wird allerdings iterativ vorgegangen, indem im Anschluss an das Training der klassenspezifischen Prognose ermittelt wird, zu welcher Klasse der Klassifikation ein Eingabedatum gehören sollte, um mit den vorliegenden klassenspezifischen Prognosemodellen die höchste Prognosegüte zu erzielen. Die so gewonnene Einteilung der Eingaben kann genutzt werden, um wiederum eine neue Klassifikationsstufe zu trainieren, deren Klassen eine verbesserte klassenspezifisch Prognose ermöglichen.
Resumo:
Ein Drittel des weltweiten gesamten Energiebedarfs wird durch Gebäude verbraucht. Um diesen Energiebedarf teilweise zu decken, den erheblichen Energieverbrauch zu reduzieren und weiterhin andere Gebäudefunktionen beizubehalten, ist Gebäudeintegrierte Photovoltaik (BIPV) eine der am besten geeigneten Lösungen für die Gebäudenanwendung. Im Bezug auf eine Vielzahl von Gestalltungsmöglichkeiten, sind die Randbedingungen der BIPV-Anwendungen eindeutig anders im Vergleich zu Standard-PV-Anwendungen, insbesondere bezüglich der Betriebstemperatur. Bisher gab es nicht viele Informationen zu den relevanten thermischen Auswirkungen auf die entsprechenden elektrischen Eigenschaften zusammen mit thermischen und mechanischen relevanten Gebäudenfunktionen. Die meisten Hersteller übernehmen diese Eigenschaften von entsprechenden PV-Modulen und konventionellen Bauprodukten Normen, die zur ungenauen System- und Gebäudeplanungen führen. Deshalb ist die Untersuchung des thermischen Einflusses auf elektrische, thermische sowie mechanische Eigenschaften das Hauptziel der vorliegenden Arbeit. Zunächst wird das Temperatur-Model mit dem Power-Balance-Konzept erstellt. Unter Berücksichtigung der variablen Installationsmöglichkeiten und Konfigurationen des Moduls wird das Model auf Basis dynamischer und stationär Eigenschaften entwickelt. Im Hinblick auf die dynamische Simulation können der Energieertrag und Leistung zusammen mit der thermischen Gebäudesimulation in Echtzeit simuliert werden. Für stationäre Simulationen können die relevanten Gebäudefunktionen von BIPV-Modulen sowohl im Sommer als auch im Winter simuliert werden. Basierend auf unterschiedlichen thermischen und mechanischen Last-Szenarien wurde darüber hinaus das mechanische Model zusammen mit Variationen von Belastungsdauer, Montagesystem und Verkapselungsmaterialien entwickelt. Um die Temperatur- und Mechanik-Modelle zu validieren, wurden die verschiedenen Prüfeinrichtungen zusammen mit neuen Testmethoden entwickelt. Bei Verwendung der Prüfanlage „PV variable mounting system“ und „mechanical testing equipment“ werden zudem die verschiedenen Szenarien von Montagesystemen, Modul-Konfigurationen und mechanischen Belastungen emuliert. Mit der neuen Testmethode „back-bias current concept“ können zum einen die solare Einstrahlung und bestimmte Betriebstemperaturen eingestellt werden. Darüber hinaus wurden mit den eingangs erwähnten validierten Modellen das jeweilige elektrische, thermische und mechanische Verhalten auf andere Konfigurationen bewertet. Zum Abschluss wird die Anwendung von Software-Tools bei PV-Herstellern im Hinblick auf die entsprechenden Modellentwicklungen thematisiert.