321 resultados para Spuregas, Regionalisierung, Modellierung
Resumo:
In Fragen der Schulentwicklung allgemein, aber auch im Zuge der aktuellen Regionalisierungstendenzen im Schul- und Bildungswesen, wird Unterstützungssystemen für die Einzelschule eine wachsende Bedeutung zugeschrieben. Dennoch finden sich bislang erst wenige Arbeiten im Diskurs, die Unterstützungssysteme im Zusammenhang mit Regionalisierungsprozessen beleuchten und robuste Analyseinstrumente vorstellen, mit deren Hilfe Unterstützung im Zusammenhang von Regionalisierung gefasst werden kann. Dieses Desiderat wird im vorliegenden Beitrag aufgegriffen, indem unter anderem auf Grundlage von governance- sowie motivationstheoretischen Überlegungen Kategorien für eine Heuristik erarbeitet werden, die es erlauben, Unterstützungssysteme allgemein und im Kontext von Schul- und Bildungslandschaften entlang verschiedener Dimensionen zu betrachten. Mittels Interviews, die im Rahmen des Projektes ,Schulen im Team – Übergänge gemeinsam gestalten‘ durchgeführt wurden, wird die Heuristik auf den Forschungskontext zu Regionalen Bildungsbüros inhaltsanalytisch angewendet. Erste Befunde weisen darauf hin, dass sich die Heuristik zur Untersuchung von Unterstützungssystemen für einen regionalen Kontext plausibilisieren lässt. (DIPF/Orig.)
Resumo:
Das Ziel dieser Arbeit ist es, ein Konzept für eine Darstellung der Personennamendatei(PND) in den Sprachen Resource Description Framework (RDF), Resource DescriptionFramework Schema Language (RDFS) und Web Ontology Language (OWL) zu entwickeln. Der Prämisse des Semantic Web folgend, Daten sowohl in menschenverständlicher als auch in maschinell verarbeitbarer Form darzustellen und abzulegen, wird eine Struktur für Personendaten geschaffen. Dabei wird von der bestehenden Daten- und Struktursituation im Pica-Format ausgegangen. Die Erweiterbarkeit und Anpassbarkeit des Modells im Hinblick auf zukünftige, im Moment gegebenenfalls noch nicht absehbare Anwendungen und Strukurveränderungen, muss aber darüber hinaus gewährleistet sein. Die Modellierung orientiert sich an bestehenden Standards wie Dublin Core, Friend Of A Friend (FOAF), Functional Requirements for Bibliographic Records (FRBR), Functional Requirements for Authority Data (FRAD) und Resource Description and Access (RDA).
Resumo:
In der Praxis kommt es bei der spanenden Bearbeitung immer wieder zu großen Standwegunterschieden identischer Werkzeuge bei vordergründig identischen Bearbeitungsrandbedingungen. Insbesondere bei Fertigungsschritten, die das Bohren als Vorbearbeitung erfordern, kommt es gelegentlich zu atypischen Verschleißerscheinungen, die auf das Entstehen einer Neuhärtezone an der Werkstückoberfläche beim Bohren zurückgeführt werden. Grundsätzlich sind Randzonenveränderungen eine Folge der mechanischen und thermischen Beanspruchung bei der Bearbeitung. Beim Eindringen des Schneidkeils kommt es zu Kornverzerrungen, welche die Werkstückhärte bis in eine Tiefe von 40 bis 80 µm erhöhen können. Überdies wird die Randzone des Werkstücks durch den Bearbeitungsvorgang und den Spantransport erhitzt und durch den Kühlschmierstoff bzw. die so genannte Selbstabschreckung im Anschluss sehr schnell abgekühlt. So kann es in Abhängigkeit der Randbedingungen zu Gefügeänderungen mit härtesteigernder (Sekundärabschreckung) oder härtemindernder (Anlasseffekte) Wirkung kommen. Nicht zuletzt beeinflussen beide Beanspruchungsarten auch das Ausmaß der Eigenspannungen in der Werkstückoberfläche. In dieser Arbeit werden die beim Kernlochbohren erzeugten Randzonenveränderungen sowie die Standzeit von Folgebearbeitungswerkzeugen, wie Gewindebohrern und Gewindeformern, und deren Abhängigkeit vom Verschleißzustand des Kernlochbohrers untersucht. Weiterhin werden mit Hilfe einer Energiebilanz die Anteile herausgefiltert, die primär die Eigenschaften der Bohrungsrandzone beeinflussen. Dies geschieht mit Hilfe einer mathematischen Modellierung des Bohrprozesses, in der die Einflüsse der Schneidkantengeometrie, der Schneidkantenverrundung, der Schneidkantenfase sowie des Freiflächenverschleißes berücksichtigt werden.
Resumo:
Zur Senkung von Kosten werden in vielen Unternehmen Dienstleistungen, die nicht zur Kernkompetenz gehören, an externe Dienstleister ausgelagert. Dieser Prozess wird auch als Outsourcing bezeichnet. Die dadurch entstehenden Abhängigkeiten zu den externen Dienstleistern werden mit Hilfe von Service Level Agreements (SLAs) vertraglich geregelt. Die Aufgabe des Service Level Managements (SLM) ist es, die Einhaltung der vertraglich fixierten Dienstgüteparameter zu überwachen bzw. sicherzustellen. Für eine automatische Bearbeitung ist daher eine formale Spezifikation von SLAs notwendig. Da der Markt eine Vielzahl von unterschiedlichen SLM-Werkzeugen hervorgebracht hat, entstehen in der Praxis Probleme durch proprietäre SLA-Formate und fehlende Spezifikationsmethoden. Daraus resultiert eine Werkzeugabhängigkeit und eine limitierte Wiederverwendbarkeit bereits spezifizierter SLAs. In der vorliegenden Arbeit wird ein Ansatz für ein plattformunabhängiges Service Level Management entwickelt. Ziel ist eine Vereinheitlichung der Modellierung, so dass unterschiedliche Managementansätze integriert und eine Trennung zwischen Problem- und Technologiedomäne erreicht wird. Zudem wird durch die Plattformunabhängigkeit eine hohe zeitliche Stabilität erstellter Modelle erreicht. Weiteres Ziel der Arbeit ist, die Wiederverwendbarkeit modellierter SLAs zu gewährleisten und eine prozessorientierte Modellierungsmethodik bereitzustellen. Eine automatisierte Etablierung modellierter SLAs ist für eine praktische Nutzung von entscheidender Relevanz. Zur Erreichung dieser Ziele werden die Prinzipien der Model Driven Architecture (MDA) auf die Problemdomäne des Service Level Managements angewandt. Zentrale Idee der Arbeit ist die Definition von SLA-Mustern, die konfigurationsunabhängige Abstraktionen von Service Level Agreements darstellen. Diese SLA-Muster entsprechen dem Plattformunabhängigen Modell (PIM) der MDA. Durch eine geeignete Modelltransformation wird aus einem SLA-Muster eine SLA-Instanz generiert, die alle notwendigen Konfigurationsinformationen beinhaltet und bereits im Format der Zielplattform vorliegt. Eine SLA-Instanz entspricht damit dem Plattformspezifischen Modell (PSM) der MDA. Die Etablierung der SLA-Instanzen und die daraus resultierende Konfiguration des Managementsystems entspricht dem Plattformspezifischen Code (PSC) der MDA. Nach diesem Schritt ist das Managementsystem in der Lage, die im SLA vereinbarten Dienstgüteparameter eigenständig zu überwachen. Im Rahmen der Arbeit wurde eine UML-Erweiterung definiert, die eine Modellierung von SLA-Mustern mit Hilfe eines UML-Werkzeugs ermöglicht. Hierbei kann die Modellierung rein graphisch als auch unter Einbeziehung der Object Constraint Language (OCL) erfolgen. Für die praktische Realisierung des Ansatzes wurde eine Managementarchitektur entwickelt, die im Rahmen eines Prototypen realisiert wurde. Der Gesamtansatz wurde anhand einer Fallstudie evaluiert.
Resumo:
A stand-alone power system is an autonomous system that supplies electricity to the user load without being connected to the electric grid. This kind of decentralized system is frequently located in remote and inaccessible areas. It is essential for about one third of the world population which are living in developed or isolated regions and have no access to an electricity utility grid. The most people live in remote and rural areas, with low population density, lacking even the basic infrastructure. The utility grid extension to these locations is not a cost effective option and sometimes technically not feasible. The purpose of this thesis is the modelling and simulation of a stand-alone hybrid power system, referred to as “hydrogen Photovoltaic-Fuel Cell (PVFC) hybrid system”. It couples a photovoltaic generator (PV), an alkaline water electrolyser, a storage gas tank, a proton exchange membrane fuel cell (PEMFC), and power conditioning units (PCU) to give different system topologies. The system is intended to be an environmentally friendly solution since it tries maximising the use of a renewable energy source. Electricity is produced by a PV generator to meet the requirements of a user load. Whenever there is enough solar radiation, the user load can be powered totally by the PV electricity. During periods of low solar radiation, auxiliary electricity is required. An alkaline high pressure water electrolyser is powered by the excess energy from the PV generator to produce hydrogen and oxygen at a pressure of maximum 30bar. Gases are stored without compression for short- (hourly or daily) and long- (seasonal) term. A proton exchange membrane (PEM) fuel cell is used to keep the system’s reliability at the same level as for the conventional system while decreasing the environmental impact of the whole system. The PEM fuel cell consumes gases which are produced by an electrolyser to meet the user load demand when the PV generator energy is deficient, so that it works as an auxiliary generator. Power conditioning units are appropriate for the conversion and dispatch the energy between the components of the system. No batteries are used in this system since they represent the weakest when used in PV systems due to their need for sophisticated control and their short lifetime. The model library, ISET Alternative Power Library (ISET-APL), is designed by the Institute of Solar Energy supply Technology (ISET) and used for the simulation of the hybrid system. The physical, analytical and/or empirical equations of each component are programmed and implemented separately in this library for the simulation software program Simplorer by C++ language. The model parameters are derived from manufacturer’s performance data sheets or measurements obtained from literature. The identification and validation of the major hydrogen PVFC hybrid system component models are evaluated according to the measured data of the components, from the manufacturer’s data sheet or from actual system operation. Then, the overall system is simulated, at intervals of one hour each, by using solar radiation as the primary energy input and hydrogen as energy storage for one year operation. A comparison between different topologies, such as DC or AC coupled systems, is carried out on the basis of energy point of view at two locations with different geographical latitudes, in Kassel/Germany (Europe) and in Cairo/Egypt (North Africa). The main conclusion in this work is that the simulation method of the system study under different conditions could successfully be used to give good visualization and comparison between those topologies for the overall performance of the system. The operational performance of the system is not only depending on component efficiency but also on system design and consumption behaviour. The worst case of this system is the low efficiency of the storage subsystem made of the electrolyser, the gas storage tank, and the fuel cell as it is around 25-34% at Cairo and 29-37% at Kassel. Therefore, the research for this system should be concentrated in the subsystem components development especially the fuel cell.
Resumo:
Thermoaktive Bauteilsysteme sind Bauteile, die als Teil der Raumumschließungsflächen über ein integriertes Rohrsystem mit einem Heiz- oder Kühlmedium beaufschlagt werden können und so die Beheizung oder Kühlung des Raumes ermöglichen. Die Konstruktionenvielfalt reicht nach diesem Verständnis von Heiz, bzw. Kühldecken über Geschoßtrenndecken mit kern-integrierten Rohren bis hin zu den Fußbodenheizungen. Die darin enthaltenen extrem trägen Systeme werden bewußt eingesetzt, um Energieangebot und Raumenergiebedarf unter dem Aspekt der rationellen Energieanwendung zeitlich zu entkoppeln, z. B. aktive Bauteilkühlung in der Nacht, passive Raumkühlung über das kühle Bauteil am Tage. Gebäude- und Anlagenkonzepte, die träge reagierende thermoaktive Bauteilsysteme vorsehen, setzen im kompetenten und verantwortungsvollen Planungsprozeß den Einsatz moderner Gebäudesimulationswerkzeuge voraus, um fundierte Aussagen über Behaglichkeit und Energiebedarf treffen zu können. Die thermoaktiven Bauteilsysteme werden innerhalb dieser Werkzeuge durch Berechnungskomponenten repräsentiert, die auf mathematisch-physikalischen Modellen basieren und zur Lösung des bauteilimmanenten mehrdimensionalen instationären Wärmeleitungsproblems dienen. Bisher standen hierfür zwei unterschiedliche prinzipielle Vorgehensweisen zur Lösung zur Verfügung, die der physikalischen Modellbildung entstammen und Grenzen bzgl. abbildbarer Geometrie oder Rechengeschwindigkeit setzen. Die vorliegende Arbeit dokumentiert eine neue Herangehensweise, die als experimentelle Modellbildung bezeichnet wird. Über den Weg der Systemidentifikation können aus experimentell ermittelten Datenreihen die Parameter für ein kompaktes Black-Box-Modell bestimmt werden, das das Eingangs-Ausgangsverhalten des zugehörigen beliebig aufgebauten thermoaktiven Bauteils mit hinreichender Genauigkeit widergibt. Die Meßdatenreihen lassen sich über hochgenaue Berechnungen generieren, die auf Grund ihrer Detailtreue für den unmittelbaren Einsatz in der Gebäudesimulation ungeeignet wären. Die Anwendung der Systemidentifikation auf das zweidimensionale Wärmeleitungsproblem und der Nachweis ihrer Eignung wird an Hand von sechs sehr unterschiedlichen Aufbauten thermoaktiver Bauteilsysteme durchgeführt und bestätigt sehr geringe Temperatur- und Energiebilanzfehler. Vergleiche zwischen via Systemidentifikation ermittelten Black-Box-Modellen und physikalischen Modellen für zwei Fußbodenkonstruktionen zeigen, daß erstgenannte auch als Referenz für Genauigkeitsabschätzungen herangezogen werden können. Die Praktikabilität des neuen Modellierungsansatzes wird an Fallstudien demonstriert, die Ganzjahressimulationen unter Bauteil- und Betriebsvariationen an einem exemplarischen Büroraum betreffen. Dazu erfolgt die Integration des Black-Box-Modells in das kommerzielle Gebäude- und Anlagensimulationsprogramm CARNOT. Die akzeptablen Rechenzeiten für ein Einzonen-Gebäudemodell in Verbindung mit den hohen Genauigkeiten bescheinigen die Eignung der neuen Modellierungsweise.
Resumo:
Landwirtschaft spielt eine zentrale Rolle im Erdsystem. Sie trägt durch die Emission von CO2, CH4 und N2O zum Treibhauseffekt bei, kann Bodendegradation und Eutrophierung verursachen, regionale Wasserkreisläufe verändern und wird außerdem stark vom Klimawandel betroffen sein. Da all diese Prozesse durch die zugrunde liegenden Nährstoff- und Wasserflüsse eng miteinander verknüpft sind, sollten sie in einem konsistenten Modellansatz betrachtet werden. Dennoch haben Datenmangel und ungenügendes Prozessverständnis dies bis vor kurzem auf der globalen Skala verhindert. In dieser Arbeit wird die erste Version eines solchen konsistenten globalen Modellansatzes präsentiert, wobei der Schwerpunkt auf der Simulation landwirtschaftlicher Erträge und den resultierenden N2O-Emissionen liegt. Der Grund für diese Schwerpunktsetzung liegt darin, dass die korrekte Abbildung des Pflanzenwachstums eine essentielle Voraussetzung für die Simulation aller anderen Prozesse ist. Des weiteren sind aktuelle und potentielle landwirtschaftliche Erträge wichtige treibende Kräfte für Landnutzungsänderungen und werden stark vom Klimawandel betroffen sein. Den zweiten Schwerpunkt bildet die Abschätzung landwirtschaftlicher N2O-Emissionen, da bislang kein prozessbasiertes N2O-Modell auf der globalen Skala eingesetzt wurde. Als Grundlage für die globale Modellierung wurde das bestehende Agrarökosystemmodell Daycent gewählt. Neben der Schaffung der Simulationsumgebung wurden zunächst die benötigten globalen Datensätze für Bodenparameter, Klima und landwirtschaftliche Bewirtschaftung zusammengestellt. Da für Pflanzzeitpunkte bislang keine globale Datenbasis zur Verfügung steht, und diese sich mit dem Klimawandel ändern werden, wurde eine Routine zur Berechnung von Pflanzzeitpunkten entwickelt. Die Ergebnisse zeigen eine gute Übereinstimmung mit Anbaukalendern der FAO, die für einige Feldfrüchte und Länder verfügbar sind. Danach wurde das Daycent-Modell für die Ertragsberechnung von Weizen, Reis, Mais, Soja, Hirse, Hülsenfrüchten, Kartoffel, Cassava und Baumwolle parametrisiert und kalibriert. Die Simulationsergebnisse zeigen, dass Daycent die wichtigsten Klima-, Boden- und Bewirtschaftungseffekte auf die Ertragsbildung korrekt abbildet. Berechnete Länderdurchschnitte stimmen gut mit Daten der FAO überein (R2 = 0.66 für Weizen, Reis und Mais; R2 = 0.32 für Soja), und räumliche Ertragsmuster entsprechen weitgehend der beobachteten Verteilung von Feldfrüchten und subnationalen Statistiken. Vor der Modellierung landwirtschaftlicher N2O-Emissionen mit dem Daycent-Modell stand eine statistische Analyse von N2O-und NO-Emissionsmessungen aus natürlichen und landwirtschaftlichen Ökosystemen. Die als signifikant identifizierten Parameter für N2O (Düngemenge, Bodenkohlenstoffgehalt, Boden-pH, Textur, Feldfrucht, Düngersorte) und NO (Düngemenge, Bodenstickstoffgehalt, Klima) entsprechen weitgehend den Ergebnissen einer früheren Analyse. Für Emissionen aus Böden unter natürlicher Vegetation, für die es bislang keine solche statistische Untersuchung gab, haben Bodenkohlenstoffgehalt, Boden-pH, Lagerungsdichte, Drainierung und Vegetationstyp einen signifikanten Einfluss auf die N2O-Emissionen, während NO-Emissionen signifikant von Bodenkohlenstoffgehalt und Vegetationstyp abhängen. Basierend auf den daraus entwickelten statistischen Modellen betragen die globalen Emissionen aus Ackerböden 3.3 Tg N/y für N2O, und 1.4 Tg N/y für NO. Solche statistischen Modelle sind nützlich, um Abschätzungen und Unsicherheitsbereiche von N2O- und NO-Emissionen basierend auf einer Vielzahl von Messungen zu berechnen. Die Dynamik des Bodenstickstoffs, insbesondere beeinflusst durch Pflanzenwachstum, Klimawandel und Landnutzungsänderung, kann allerdings nur durch die Anwendung von prozessorientierten Modellen berücksichtigt werden. Zur Modellierung von N2O-Emissionen mit dem Daycent-Modell wurde zunächst dessen Spurengasmodul durch eine detailliertere Berechnung von Nitrifikation und Denitrifikation und die Berücksichtigung von Frost-Auftau-Emissionen weiterentwickelt. Diese überarbeitete Modellversion wurde dann an N2O-Emissionsmessungen unter verschiedenen Klimaten und Feldfrüchten getestet. Sowohl die Dynamik als auch die Gesamtsummen der N2O-Emissionen werden befriedigend abgebildet, wobei die Modelleffizienz für monatliche Mittelwerte zwischen 0.1 und 0.66 für die meisten Standorte liegt. Basierend auf der überarbeiteten Modellversion wurden die N2O-Emissionen für die zuvor parametrisierten Feldfrüchte berechnet. Emissionsraten und feldfruchtspezifische Unterschiede stimmen weitgehend mit Literaturangaben überein. Düngemittelinduzierte Emissionen, die momentan vom IPCC mit 1.25 +/- 1% der eingesetzten Düngemenge abgeschätzt werden, reichen von 0.77% (Reis) bis 2.76% (Mais). Die Summe der berechneten Emissionen aus landwirtschaftlichen Böden beträgt für die Mitte der 1990er Jahre 2.1 Tg N2O-N/y, was mit den Abschätzungen aus anderen Studien übereinstimmt.
Resumo:
Digitales stochastisches Magnetfeld-Sensorarray Stefan Rohrer Im Rahmen eines mehrjährigen Forschungsprojektes, gefördert von der Deutschen Forschungsgesellschaft (DFG), wurden am Institut für Mikroelektronik (IPM) der Universität Kassel digitale Magnetfeldsensoren mit einer Breite bis zu 1 µm entwickelt. Die vorliegende Dissertation stellt ein aus diesem Forschungsprojekt entstandenes Magnetfeld-Sensorarray vor, das speziell dazu entworfen wurde, um digitale Magnetfelder schnell und auf minimaler Fläche mit einer guten räumlichen und zeitlichen Auflösung zu detektieren. Der noch in einem 1,0µm-CMOS-Prozess gefertigte Test-Chip arbeitet bis zu einer Taktfrequenz von 27 MHz bei einem Sensorabstand von 6,75 µm. Damit ist er das derzeit kleinste und schnellste digitale Magnetfeld-Sensorarray in einem Standard-CMOS-Prozess. Konvertiert auf eine 0,09µm-Technologie können Frequenzen bis 1 GHz erreicht werden bei einem Sensorabstand von unter 1 µm. In der Dissertation werden die wichtigsten Ergebnisse des Projekts detailliert beschrieben. Basis des Sensors ist eine rückgekoppelte Inverter-Anordnung. Als magnetfeldsensitives Element dient ein auf dem Hall-Effekt basierender Doppel-Drain-MAGFET, der das Verhalten der Kippschaltung beeinflusst. Aus den digitalen Ausgangsdaten kann die Stärke und die Polarität des Magnetfelds bestimmt werden. Die Gesamtanordnung bildet einen stochastischen Magnetfeld-Sensor. In der Arbeit wird ein Modell für das Kippverhalten der rückgekoppelten Inverter präsentiert. Die Rauscheinflüsse des Sensors werden analysiert und in einem stochastischen Differentialgleichungssystem modelliert. Die Lösung der stochastischen Differentialgleichung zeigt die Entwicklung der Wahrscheinlichkeitsverteilung des Ausgangssignals über die Zeit und welche Einflussfaktoren die Fehlerwahrscheinlichkeit des Sensors beeinflussen. Sie gibt Hinweise darauf, welche Parameter für das Design und Layout eines stochastischen Sensors zu einem optimalen Ergebnis führen. Die auf den theoretischen Berechnungen basierenden Schaltungen und Layout-Komponenten eines digitalen stochastischen Sensors werden in der Arbeit vorgestellt. Aufgrund der technologisch bedingten Prozesstoleranzen ist für jeden Detektor eine eigene kompensierende Kalibrierung erforderlich. Unterschiedliche Realisierungen dafür werden präsentiert und bewertet. Zur genaueren Modellierung wird ein SPICE-Modell aufgestellt und damit für das Kippverhalten des Sensors eine stochastische Differentialgleichung mit SPICE-bestimmten Koeffizienten hergeleitet. Gegenüber den Standard-Magnetfeldsensoren bietet die stochastische digitale Auswertung den Vorteil einer flexiblen Messung. Man kann wählen zwischen schnellen Messungen bei reduzierter Genauigkeit und einer hohen lokalen Auflösung oder einer hohen Genauigkeit bei der Auswertung langsam veränderlicher Magnetfelder im Bereich von unter 1 mT. Die Arbeit präsentiert die Messergebnisse des Testchips. Die gemessene Empfindlichkeit und die Fehlerwahrscheinlichkeit sowie die optimalen Arbeitspunkte und die Kennliniencharakteristik werden dargestellt. Die relative Empfindlichkeit der MAGFETs beträgt 0,0075/T. Die damit erzielbaren Fehlerwahrscheinlichkeiten werden in der Arbeit aufgelistet. Verglichen mit dem theoretischen Modell zeigt das gemessene Kippverhalten der stochastischen Sensoren eine gute Übereinstimmung. Verschiedene Messungen von analogen und digitalen Magnetfeldern bestätigen die Anwendbarkeit des Sensors für schnelle Magnetfeldmessungen bis 27 MHz auch bei kleinen Magnetfeldern unter 1 mT. Die Messungen der Sensorcharakteristik in Abhängigkeit von der Temperatur zeigen, dass die Empfindlichkeit bei sehr tiefen Temperaturen deutlich steigt aufgrund der Abnahme des Rauschens. Eine Zusammenfassung und ein ausführliches Literaturverzeichnis geben einen Überblick über den Stand der Technik.
Resumo:
Diese Arbeit umfaßt das elektromechanische Design und die Designoptimierung von weit durchstimmbaren optischen multimembranbasierten Bauelementen, mit vertikal orientierten Kavitäten, basierend auf der Finiten Element Methode (FEM). Ein multimembran InP/Luft Fabry-Pérot optischer Filter wird dargestellt und umfassend analysiert. In dieser Arbeit wird ein systematisches strukturelles Designverfahren dargestellt. Genaue analytische elektromechanischer Modelle für die Bauelemente sind abgeleitet worden. Diese können unschätzbare Werkzeuge sein, um am Anfang der Designphase schnell einen klaren Einblick zur Verfügung zu stellen. Mittels des FEM Programms ist der durch die nicht-lineare Verspannung hervorgerufene versteifende Effekt nachgeforscht und sein Effekt auf die Verlängerung der mechanischen Durchstimmungsstrecke der Bauelemente demonstriert worden. Interessant war auch die Beobachtung, dass die normierte Relation zwischen Ablenkung und Spannung ein unveränderliches Profil hat. Die Deformation der Membranflächen der in dieser Arbeit dargestellten Bauelementformen erwies sich als ein unerwünschter, jedoch manchmal unvermeidbarer Effekt. Es zeigt sich aber, dass die Wahl der Größe der strukturellen Dimensionen den Grad der Membrandeformation im Falle der Aktuation beeinflusst. Diese Arbeit stellt ein elektromechanisches in FEMLAB implementierte quasi-3D Modell, das allgemein für die Modellierung dünner Strukturen angewendet werden kann, dar; und zwar indem man diese als 2D-Objekte betrachtet und die dritte Dimension als eine konstante Größe (z.B. die Schichtdicke) oder eine Größe, welche eine mathematische Funktion ist, annimmt. Diese Annahme verringert drastisch die Berechnungszeit sowie den erforderlichen Arbeitsspeicherbedarf. Weiter ist es für die Nachforschung des Effekts der Skalierung der durchstimmbaren Bauelemente verwendet worden. Eine neuartige Skalierungstechnik wurde abgeleitet und verwendet. Die Ergebnisse belegen, dass das daraus resultierende, skalierte Bauelement fast genau die gleiche mechanische Durchstimmung wie das unskalierte zeigt. Die Einbeziehung des Einflusses von axialen Verspannungen und Gradientenverspannungen in die Berechnungen erforderte die Änderung der Standardimplementierung des 3D Mechanikberechnungsmodus, der mit der benutzten FEM Software geliefert wurde. Die Ergebnisse dieser Studie zeigen einen großen Einfluss der Verspannung auf die Durchstimmungseigenschaften der untersuchten Bauelemente. Ferner stimmten die Ergebnisse der theoretischen Modellrechnung mit den experimentellen Resultaten sehr gut überein.
Resumo:
Aufgrund ihrer Vorteile hinsichtlich Dauerhaftigkeit und Bauwerkssicherheit ist in Deutschland seit 1998 die externe Vorspannung in Hohlkastenbrücken zur Regelbauweise geworden. Durch Verwendung der austauschbaren externen Vorspannung verspricht man sich im Brückenbau weitere Verbesserungen der Robustheit und damit eine Verlängerung der Lebensdauer. Trotz des besseren Korrosionsschutzes im Vergleich zur internen Vorspannung mit Verbund sind Schäden nicht völlig auszuschließen. Um die Vorteile der externen Vorspannung zu nutzen, ist daher eine periodische Überwachung der Spanngliedkräfte, z. B. während der Hauptprüfung des Bauwerks, durchzuführen. Für die Überwachung der Spanngliedkräfte bei Schrägseilbrücken haben sich die Schwingungsmessmethoden als wirtschaftlich und leistungsfähig erwiesen. Für die Übertragung der Methode auf den Fall der externen Vorspannung, wo kürzere Schwingungslängen vorliegen, waren zusätzliche Untersuchungen hinsichtlich der effektiven Schwingungslänge, der Randbedingungen sowie der effektiven Biegesteifigkeit erforderlich. Im Rahmen der vorliegenden Arbeit wurde das Modellkorrekturverfahren, basierend auf der iterativen Anpassung eines F.E.-Modells an die identifizierten Eigenfrequenzen und Eigenformen des Spanngliedes, für die Bestimmung der Spanngliedkräfte verwendet. Dieses Verfahren ermöglicht die Berücksichtigung der Parameter (Schwingungslänge, Randbedingungen und effektive Biegesteifigkeit) bei der Identifikation der effektiven Spanngliedkräfte. Weiterhin ist eine Modellierung jeder beliebigen Spanngliedausbildung, z. B. bei unterschiedlichen Querschnitten in den Verankerungs- bzw. Umlenkbereichen, gewährleistet. Zur Anwendung bei der Ermittlung der Spanngliedkräfte wurde eine spezielle Methode, basierend auf den besonderen dynamischen Eigenschaften der Spannglieder, entwickelt, bei der die zuvor genannten Parameter innerhalb jedes Iterationsschrittes unabhängig korrigiert werden, was zur Robustheit des Identifikationsverfahrens beiträgt. Das entwickelte Verfahren ist in einem benutzerfreundlichen Programmsystem implementiert worden. Die erzielten Ergebnisse wurden mit dem allgemeinen Identifikationsprogramm UPDATE_g2 verglichen; dabei ist eine sehr gute Übereinstimmung festgestellt worden. Beim selbst entwickelten Verfahren wird die benötigte Rechenzeit auf ca. 30 % reduziert [100 sec à 30 sec]. Es bietet sich daher für die unmittelbare Auswertung vor Ort an. Die Parameteridentifikationsverfahren wurden an den Spanngliedern von insgesamt sechs Brücken (vier unterschiedliche Spannverfahren) angewendet. Die Anzahl der getesteten Spannglieder beträgt insgesamt 340. Die Abweichung zwischen den durch Schwingungs-messungen identifizierten und gemessenen (bei einer Brücke durch eine Abhebekontrolle) bzw. aufgebrachten Spanngliedkräften war kleiner als 3 %. Ferner wurden die Auswirkungen äußerer Einflüsse infolge Temperaturschwankungen und Verkehr bei den durchgeführten Messungen untersucht. Bei der praktischen Anwendung sind Besonderheiten aufgetreten, die durch die Verwendung des Modellkorrekturverfahrens weitgehend erfasst werden konnten. Zusammenfassend lässt sich sagen, dass die Verwendung dieses Verfahrens die Genauigkeit im Vergleich mit den bisherigen Schwingungsmessmethoden beachtlich erhöht. Ferner wird eine Erweiterung des Anwendungsbereiches auch auf Spezialfälle (z. B. bei einem unplanmäßigen Anliegen) gewährleistet.
Resumo:
In dieser Arbeit wird ein generisches Modell fuer synchrone Gruppenarbeit auf gemeinsamen Informationsraeumen entwickelt. Fuer die Entwicklung dieses Modells muessen die Grundfunktionen fuer Anwendungen der synchronen Gruppenarbeit realisiert werden. Neben der Modellierung des Datenraumes (Datenmodell) und der operationellen Schnittstelle (Interaktionsmodell), muessen Mechanismen fuer die Darstellung der Aktivitaeten der Gruppenmitglieder auf dem Informationsraum (Awareness), sowie fuer die Synchronisierung gleichzeitiger Zugriffe verschiedener Benutzer auf dem Datenraum realisiert werden (Nebenlaeufgkeitskontrolle). Das Grundproblem bei der Loesung der Nebenlaeufigkeit liegt bei der Aufgabe der Isolation aus den klassischen ACID-Transaktionen zu gunsten von Awareness. Die rapide Entwicklung von Techniken der mobilen Kommunikation ermoeglicht den Einsatz dieser Geraete fuer den Zugriff auf Daten im Internet. Durch UMTSund WLAN-Technologien koennen Mobilgeraete fuer Anwendungen ueber die reine Kommunikation hinaus eingesetzt werden. Eine natuerliche Folge dieser Entwicklung sind Anwendungen fuer die Zusammenarbeit mehrerer Benutzer. In der Arbeit wird daher auf die Unterstuetzung mobiler Geraete besonderen Wert gelegt. Die Interaktion der Benutzer auf den gemeinsamen Datenraum wird durch einfache Navigationsoperationen mit einem Cursor (Finger) realisiert, wobei der Datenraum durch XML-Dokumente dargestellt wird. Die Visualisierung basiert auf der Transformierung von XML-Dokumenten in andere XML-basierte Sprachen wie HTML oder SVG durch XSLT-Stylesheets. Awareness-Informationen werden, aehnlich dem Fokus/Nimbus-Modell, von der Interaktion der Benutzer und der Ermittlung der sichtbaren Objekte bei dem Benutzer hergeleitet. Fuer eine geeignete Kontrolle der Nebenlaeufigkeit wurde der Begriff der visuellen Transaktion eingefuehrt, wo die Auswirkungen einer Transaktion von anderen Benutzern (Transaktionen) beobachtet werden koennen. Die Synchronisierung basiert auf einem Sperrverfahren und der Einfuehrung der neuen W-Sperre und der Grundoperationen readV und writeV. Das Modell (Groupware-Server) wird in der Arbeit in einem Prototyp implementiert. Weiterhin wird eine Java-Anwendung sowohl auf einem Desktop PC als auch auf einem Pocket PC (iPAQ 3970) implementiert, welche die Einsetzbarkeit dieses Prototyps demonstriert.
Resumo:
Zur Modellierung von Vergasungs- und Verbrennungsprozessen zur energetischen Nutzung von Biomasse ist die Kenntnis von reaktionskinetischen Daten für die Sauerstoff-Oxidation von Biomassepyrolysaten erforderlich. Eine ausführliche Literaturübersicht zeigt den Stand der Forschung bezüglich der experimentellen Ermittlung von reaktionskinetischen Parametern für die Oxidation von Pyrolysaten aus Lignin, Cellulose und pflanzlicher Biomasse sowie der Suche nach einem plausiblen Reaktionsmechanismus für die Reaktion von Sauerstoff mit festen Kohlenstoffmaterialien. Es wird eine Versuchsanlage mit einem quasistationär betriebenen Differentialreaktor konstruiert, die eine Messung der Reaktionskinetik und der reaktiven inneren Oberfläche (RSA) für die Reaktion eines Pyrolysats aus Maispflanzen mit Sauerstoff ermöglicht. Die getrockneten und zerkleinerten Maispflanzen werden 7 Minuten lang bei 1073 K in einem Drehrohrofen pyrolysiert. Das Pyrolysat zeichnet sich vor allem durch seine hohe Porosität von über 0,9 und seinen hohen Aschegehalt von 0,24 aus. Die RSA wird nach der Methode der Messung von Übergangskinetiken (TK) bestimmt. Die Bestimmung der RSA erfolgt für die Reaktionsprodukte CO und CO2 getrennt, für die entsprechend ermittelten Werte werden die Bezeichnungen CO-RSA und CO2-RSA eingeführt. Die Abhängigkeit dieser Größen von der Sauerstoffkonzentration läßt sich durch eine Langmuir-Isotherme beschreiben, ebenso das leichte Absinken der CO-RSA mit der Kohlendioxidkonzentration. Über dem Abbrand zeigen sich unterschiedliche Verläufe für die CO-RSA, CO2-RSA und die innere Oberfläche nach der BET-Methode. Zur Charakterisierung der Oberflächenzwischenprodukte werden temperaturprogrammierte Desorptionsversuche (TPD) durchgeführt. Die Ergebnisse zeigen, daß eine Unterscheidung in zwei Kohlenstoff-Sauerstoff-Oberflächenkomplexe ausreichend ist. Die experimentellen Untersuchungen zum Oxidationsverlauf werden im kinetisch bestimmten Bereich durchgeführt. Dabei werden die Parameter Temperatur, Sauerstoff-, CO- und CO2-Konzentration variiert. Anhand der Ergebnisse der reaktionskinetischen Untersuchungen wird ein Reaktionsmechanismus für die Kohlenstoff-Sauerstoff-Reaktion entwickelt. Dieser Reaktionsmechanismus umfaßt 7 Elementarreaktionen, für welche die reaktionskinetischen Parameter numerisch ermittelt werden. Darüber hinaus werden reaktionskinetische Parameter für einfachere massenbezogene Reaktionsgeschwindigkeitsansätze berechnet und summarische Reaktionsgeschwindigkeitsansätze für die Bildung von CO und CO2 aus dem Reaktionsmechanismus hergeleitet.
Resumo:
In der vorliegenden Arbeit wurde das Wachstum von Silbernanoteilchen auf Magnesiumoxid und dabei insbesondere deren Größen- und Formrelation untersucht. Hierzu wurden Silbernanoteilchen auf ausgedehnten Magnesiumoxidsubstraten sowie auf Magnesiumoxid-Nanowürfeln präpariert. Zur Charakterisierung wurde die optische Spektroskopie, die Rasterkraftmikroskopie und die Transmissionselektronenmikroskopie eingesetzt. Während die Elektronenmikroskopie direkt sehr exakte Daten bezüglich der Größe und Form der Nanoteilchen liefert, kann mit den beiden anderen in dieser Arbeit verwendeten Charakterisierungsmethoden jeweils nur ein Parameter bestimmt werden. So kann man die Größe der Nanoteilchen indirekt mit Hilfe des AFM, durch Messung der Teilchananzahldichte, bestimmen. Bei der Bestimmung der Form mittels optischer Spektroskopie nutzt man aus, dass die spektralen Positionen der Plasmonresonanzen in dem hier verwendeten Größenbereich von etwa 2 - 10~nm nur von der Form aber nicht von der Größe der Teilchen abhängen. Ein wesentliches Ziel dieser Arbeit war es, die Ergebnisse bezüglich der Form und Größe der Nanoteilchen, die mit den unterschiedlichen Messmethoden erhalten worden sind zu vergleichen. Dabei hat sich gezeigt, dass die mit dem AFM und dem TEM bestimmten Größen signifikant voneinander Abweichen. Zur Aufklärung dieser Diskrepanz wurde ein geometrisches Modell aufgestellt und AFM-Bilder von Nanoteilchen simuliert. Bei dem Vergleich von optischer Spektroskopie und Transmissionselektronenmikroskopie wurde eine recht gute Übereinstimmung zwischen den ermittelten Teilchenformen gefunden. Hierfür wurden die gemessenen optischen Spektren mit Modellrechnungen verglichen, woraus man die Relation zwischen Teilchengröße und -form erhielt. Eine Übereinstimmung zwischen den erhaltenen Daten ergibt sich nur, wenn bei der Modellierung der Spektren die Form- und Größenverteilung der Nanoteilchen berücksichtigt wird. Insgesamt hat diese Arbeit gezeigt, dass die Kombination von Rasterkraftmikroskopie und optischer Spektroskopie ein vielseitiges Charakterisierungsverfahren für Nanoteilchen. Die daraus gewonnenen Ergebnisse sind innerhalb gewisser Fehlergrenzen gut mit der Transmissionselektronenmikroskopie vergleichbar.
Resumo:
Wenn man die Existenz von physikalischen Mechanismen ignoriert, die für die Struktur hydrologischer Zeitreihen verantwortlich sind, kann das zu falschen Schlussfolgerungen bzgl. des Vorhandenseins möglicher Gedächtnis (memory) -Effekte, d.h. von Persistenz, führen. Die hier vorgelegte Doktorarbeit spürt der niedrigfrequenten klimatischen Variabilität innerhalb den hydrologischen Zyklus nach und bietet auf dieser "Reise" neue Einsichten in die Transformation der charakteristischen Eigenschaften von Zeitreihen mit einem Langzeitgedächtnis. Diese Studie vereint statistische Methoden der Zeitreihenanalyse mit empirisch-basierten Modelltechniken, um operative Modelle zu entwickeln, die in der Lage sind (1) die Dynamik des Abflusses zu modellieren, (2) sein zukünftiges Verhalten zu prognostizieren und (3) die Abflusszeitreihen an unbeobachteten Stellen abzuschätzen. Als solches präsentiert die hier vorgelegte Dissertation eine ausführliche Untersuchung zu den Ursachen der niedrigfrequenten Variabilität von hydrologischen Zeitreihen im deutschen Teil des Elbe-Einzugsgebietes, den Folgen dieser Variabilität und den physikalisch basierten Reaktionen von Oberflächen- und Grundwassermodellen auf die niedrigfrequenten Niederschlags-Eingangsganglinien. Die Doktorarbeit gliedert sich wie folgt: In Kapitel 1 wird als Hintergrundinformation das Hurst Phänomen beschrieben und ein kurzer Rückblick auf diesbezügliche Studien gegeben. Das Kapitel 2 diskutiert den Einfluss der Präsenz von niedrigfrequenten periodischen Zeitreihen auf die Zuverlässigkeit verschiedener Hurst-Parameter-Schätztechniken. Kapitel 3 korreliert die niedrigfrequente Niederschlagsvariabilität mit dem Index der Nord-Atlantischen Ozillations (NAO). Kapitel 4-6 sind auf den deutschen Teil des Elbe-Einzugsgebietes fokussiert. So werden in Kapitel 4 die niedrigfrequenten Variabilitäten der unterschiedlichen hydro-meteorologischen Parameter untersucht und es werden Modelle beschrieben, die die Dynamik dieser Niedrigfrequenzen und deren zukünftiges Verhalten simulieren. Kapitel 5 diskutiert die mögliche Anwendung der Ergebnisse für die charakteristische Skalen und die Verfahren der Analyse der zeitlichen Variabilität auf praktische Fragestellungen im Wasserbau sowie auf die zeitliche Bestimmung des Gebiets-Abflusses an unbeobachteten Stellen. Kapitel 6 verfolgt die Spur der Niedrigfrequenzzyklen im Niederschlag durch die einzelnen Komponenten des hydrologischen Zyklus, nämlich dem Direktabfluss, dem Basisabfluss, der Grundwasserströmung und dem Gebiets-Abfluss durch empirische Modellierung. Die Schlussfolgerungen werden im Kapitel 7 präsentiert. In einem Anhang werden technische Einzelheiten zu den verwendeten statistischen Methoden und die entwickelten Software-Tools beschrieben.