64 resultados para STL-Modelle


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Excimerlaser sind gepulste Gaslaser, die Laseremission in Form von Linienstrahlung – abhängig von der Gasmischung – im UV erzeugen. Der erste entladungsgepumpte Excimerlaser wurde 1977 von Ischenko demonstriert. Alle kommerziell verfügbaren Excimerlaser sind entladungsgepumpte Systeme. Um eine Inversion der Besetzungsdichte zu erhalten, die notwendig ist, um den Laser zum Anschwingen zu bekommen, muss aufgrund der kurzen Wellenlänge sehr stark gepumpt werden. Diese Pumpleistung muss von einem Impulsleistungsmodul erzeugt werden. Als Schaltelement gebräuchlich sind Thyratrons, Niederdruckschaltröhren, deren Lebensdauer jedoch sehr limitiert ist. Deshalb haben sich seit Mitte der 1990iger Jahre Halbleiterschalter mit Pulskompressionsstufen auch in dieser Anwendung mehr und mehr durchgesetzt. In dieser Arbeit wird versucht, die Pulskompression durch einen direkt schaltenden Halbleiterstapel zu ersetzen und dadurch die Verluste zu reduzieren sowie den Aufwand für diese Pulskompression einzusparen. Zudem kann auch die maximal mögliche Repetitionsrate erhöht werden. Um die Belastung der Bauelemente zu berechnen, wurden für alle Komponenten möglichst einfache, aber leistungsfähige Modelle entwickelt. Da die normalerweise verfügbaren Daten der Bauelemente sich aber auf andere Applikationen beziehen, mussten für alle Bauteile grundlegende Messungen im Zeitbereich der späteren Applikation gemacht werden. Für die nichtlinearen Induktivitäten wurde ein einfaches Testverfahren entwickelt um die Verluste bei sehr hohen Magnetisierungsgeschwindigkeiten zu bestimmen. Diese Messungen sind die Grundlagen für das Modell, das im Wesentlichen eine stromabhängige Induktivität beschreibt. Dieses Modell wurde für den „magnetic assist“ benützt, der die Einschaltverluste in den Halbleitern reduziert. Die Impulskondensatoren wurden ebenfalls mit einem in der Arbeit entwickelten Verfahren nahe den späteren Einsatzparametern vermessen. Dabei zeigte sich, dass die sehr gebräuchlichen Class II Keramikkondensatoren für diese Anwendung nicht geeignet sind. In der Arbeit wurden deshalb Class I Hochspannungs- Vielschicht- Kondensatoren als Speicherbank verwendet, die ein deutlich besseres Verhalten zeigen. Die eingesetzten Halbleiterelemente wurden ebenfalls in einem Testverfahren nahe den späteren Einsatzparametern vermessen. Dabei zeigte sich, dass nur moderne Leistungs-MOSFET´s für diesen Einsatz geeignet sind. Bei den Dioden ergab sich, dass nur Siliziumkarbid (SiC) Schottky Dioden für die Applikation einsetzbar sind. Für die Anwendung sind prinzipiell verschiedene Topologien möglich. Bei näherer Betrachtung zeigt sich jedoch, dass nur die C-C Transfer Anordnung die gewünschten Ergebnisse liefern kann. Diese Topologie wurde realisiert. Sie besteht im Wesentlichen aus einer Speicherbank, die vom Netzteil aufgeladen wird. Aus dieser wird dann die Energie in den Laserkopf über den Schalter transferiert. Aufgrund der hohen Spannungen und Ströme müssen 24 Schaltelemente in Serie und je 4 parallel geschaltet werden. Die Ansteuerung der Schalter wird über hochisolierende „Gate“-Transformatoren erreicht. Es zeigte sich, dass eine sorgfältig ausgelegte dynamische und statische Spannungsteilung für einen sicheren Betrieb notwendig ist. In der Arbeit konnte ein Betrieb mit realer Laserkammer als Last bis 6 kHz realisiert werden, der nur durch die maximal mögliche Repetitionsrate der Laserkammer begrenzt war.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Zur Erholung in die Natur gehen oder doch lieber zur Natursimulation greifen? Intuitiv würden die meisten Menschen der Natur einen größeren Erholungswert zusprechen als einer Natursimulation. Aber ist die Natur tatsächlich erholsamer? In der Naturerholungsforschung (Restorative Environment Research) kommen häufig Natursimulationen zum Einsatz, um die erholsame Wirkung von Natur zu ermitteln. Problematisch ist dabei, dass deren ökologische Validität und Vergleichbarkeit noch nicht empirisch abgesichert ist. Vorliegende Arbeit setzt an dieser methodischen und empirischen Lücke an. Sie überprüft sowohl die ökologische Validität als auch die Vergleichbarkeit von Natursimulationen. Dazu wird die erholsame Wirkung von zwei Natursimulationen im Vergleich zu der physisch-materiellen Natur empirisch untersucht und verglichen. Darüber hinaus werden Aspekte des subjektiven Erlebens und der Bewertung im Naturerholungskontext exploriert. Als bedeutsamer Wirkmechanismus wird die erlebnisbezogene Künstlichkeit/Natürlichkeit angesehen, die sich auf die Erlebnisqualität von Natursimulationen und der physisch-materiellen Natur bezieht: Natursimulationen weisen im Vergleich zur physisch-materiellen Natur eine reduzierte Erlebnisqualität auf (erlebnisbezogene Künstlichkeit), z.B. eine reduzierte Qualität und Quantität der Sinnesansprache. Stellt man einen derartigen Vergleich nicht nur mit der physisch-materiellen Natur, sondern mit unterschiedlichen Natursimulationstypen an, dann zeigen sich auch hier Unterschiede in der erlebnisbezogenen Künstlichkeit. Beispielsweise unterscheidet sich ein Naturfoto von einem Naturfilm durch das Fehlen von auditiven und bewegten Stimuli. Diese erlebnisbezogene Künstlichkeit kann die erholsame Wirkung von Natur - direkt oder indirekt über Bewertungen - hemmen. Als Haupthypothese wird angenommen, dass mit zunehmendem Ausmaß an erlebnisbezogener Künstlichkeit die erholsame Wirkung der Natur abnimmt. Dem kombinierten Feld- und Laborexperiment liegt ein einfaktorielles Vorher-Nachher-Design zugrunde. Den 117 Probanden wurde zunächst eine kognitiv und affektiv belastende Aufgabe vorgelegt, danach folgte die Erholungsphase. Diese bestand aus einem Spaziergang, der entweder in der physisch-materiellen Natur (urbaner Park) oder in einer der beiden audio-visuellen Natursimulationen (videogefilmter vs. computergenerierter Spaziergang durch selbigen urbanen Park) oder auf dem Laufband ohne audio-visuelle Darbietung stattfand. Die erlebnisbezogene Künstlichkeit/Natürlichkeit wurde also wie folgt operationlisiert: die physische Natur steht für die erlebnisbezogene Natürlichkeit. Die beiden Natursimulationen stehen für die erlebnisbezogene Künstlichkeit. Die computergenerierte Version ist im Vergleich zur Videoversion erlebnisbezogen künstlicher, da sie weniger fotorealistisch ist. Die Zuordnung zu einer der vier experimentellen Erholungssettings erfolgte nach dem Zufallsprinzip. Die Effekte von moderater Bewegung wurden in den Natursimulationen durch das Laufen auf dem Laufband kontrolliert. Die Beanspruchungs- bzw. Erholungsreaktionen wurden auf kognitiver (Konzentriertheit, Aufmerksamkeitsleistung) affektiver (3 Befindlichkeitsskalen: Wachheit, Ruhe, gute Stimmung) und physiologischer (Alpha-Amylase) Ebene gemessen, um ein umfassendes Bild der Reaktionen zu erhalten. Insgesamt zeigen die Ergebnisse, dass die beiden Natursimulationen trotz Unterschiede in der erlebnisbezogenen Künstlichkeit/Natürlichkeit zu relativ ähnlichen Erholungsreaktionen führen, wie die physisch-materielle Natur. Eine Ausnahme stellen eine der drei affektiven (Wachheit) und die physiologische Reaktion dar: Probanden der physisch-materiellen Naturbedingung geben an wacher zu sein und weisen - wider erwarten - eine höhere physiologische Erregung auf. Demnach ist die physisch-materielle Natur nicht grundsätzlich erholsamer als die Natursimulationen. Die Hypothese ließ sich somit nicht bestätigen. Vielmehr deuten sich komplexe Erholungsmuster und damit auch unterschiedliche Erholungsqualitäten der Settings an, die einer differenzierten Betrachtung bedürfen. Für die ökologische Validität von Natursimulationen gilt, dass diese nur mit Einschränkung als ökologisch valide bezeichnet werden können, d.h. nur für bestimmte, aber nicht für alle Erholungsreaktionen. Die beiden Natursimulationen führen ebenfalls trotz Unterschiede in der erlebnisbezogenen Künstlichkeit zu ähnlichen Erholungsreaktionen und können somit als gleichwertig behandelt werden. Erstaunlicherweise kommt es hier zu ähnlichen Erholungsreaktionen, obwohl die bestehenden Unterschiede von den Probanden wahrgenommen und die erlebnisbezogen künstlichere computergenerierte Version negativer bewertet wird. Aufgrund der nicht erwartungskonformen Ergebnisse muss das Erklärungskonzept der erlebnisbezogenen Künstlichkeit/Natürlichkeit infrage gestellt werden. Alternative Erklärungskonzepte für die Ergebnisse („Ungewissheit“, mentale räumliche Modelle), die sich andeutenden unterschiedlichen Erholungsqualitäten der Settings, methodische Einschränkungen sowie die praktische Bedeutung der Ergebnisse werden kritisch diskutiert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The 21st century has brought new challenges for forest management at a time when globalization in world trade is increasing and global climate change is becoming increasingly apparent. In addition to various goods and services like food, feed, timber or biofuels being provided to humans, forest ecosystems are a large store of terrestrial carbon and account for a major part of the carbon exchange between the atmosphere and the land surface. Depending on the stage of the ecosystems and/or management regimes, forests can be either sinks, or sources of carbon. At the global scale, rapid economic development and a growing world population have raised much concern over the use of natural resources, especially forest resources. The challenging question is how can the global demands for forest commodities be satisfied in an increasingly globalised economy, and where could they potentially be produced? For this purpose, wood demand estimates need to be integrated in a framework, which is able to adequately handle the competition for land between major land-use options such as residential land or agricultural land. This thesis is organised in accordance with the requirements to integrate the simulation of forest changes based on wood extraction in an existing framework for global land-use modelling called LandSHIFT. Accordingly, the following neuralgic points for research have been identified: (1) a review of existing global-scale economic forest sector models (2) simulation of global wood production under selected scenarios (3) simulation of global vegetation carbon yields and (4) the implementation of a land-use allocation procedure to simulate the impact of wood extraction on forest land-cover. Modelling the spatial dynamics of forests on the global scale requires two important inputs: (1) simulated long-term wood demand data to determine future roundwood harvests in each country and (2) the changes in the spatial distribution of woody biomass stocks to determine how much of the resource is available to satisfy the simulated wood demands. First, three global timber market models are reviewed and compared in order to select a suitable economic model to generate wood demand scenario data for the forest sector in LandSHIFT. The comparison indicates that the ‘Global Forest Products Model’ (GFPM) is most suitable for obtaining projections on future roundwood harvests for further study with the LandSHIFT forest sector. Accordingly, the GFPM is adapted and applied to simulate wood demands for the global forestry sector conditional on selected scenarios from the Millennium Ecosystem Assessment and the Global Environmental Outlook until 2050. Secondly, the Lund-Potsdam-Jena (LPJ) dynamic global vegetation model is utilized to simulate the change in potential vegetation carbon stocks for the forested locations in LandSHIFT. The LPJ data is used in collaboration with spatially explicit forest inventory data on aboveground biomass to allocate the demands for raw forest products and identify locations of deforestation. Using the previous results as an input, a methodology to simulate the spatial dynamics of forests based on wood extraction is developed within the LandSHIFT framework. The land-use allocation procedure specified in the module translates the country level demands for forest products into woody biomass requirements for forest areas, and allocates these on a five arc minute grid. In a first version, the model assumes only actual conditions through the entire study period and does not explicitly address forest age structure. Although the module is in a very preliminary stage of development, it already captures the effects of important drivers of land-use change like cropland and urban expansion. As a first plausibility test, the module performance is tested under three forest management scenarios. The module succeeds in responding to changing inputs in an expected and consistent manner. The entire methodology is applied in an exemplary scenario analysis for India. A couple of future research priorities need to be addressed, particularly the incorporation of plantation establishments; issue of age structure dynamics; as well as the implementation of a new technology change factor in the GFPM which can allow the specification of substituting raw wood products (especially fuelwood) by other non-wood products.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Im Rahmen der vorliegenden Arbeit wird ein Konzept zur mechanismenorientierten Lebensdauervorhersage entwickelt und auf eine Flanschwelle mit gradiertem Gefüge übertragen. Das Konzept wird in Form eines Computercodes (LOCC) zur Anwendung gebracht. Basierend auf lokalen Spannungen wird für jedes Element eines FE-Modells eine bedingte Versagenswahrscheinlichkeit berechnet. Mithilfe bruch- und ggf. mikromechanischer Modelle werden lokale kritische Risslängen und die bei gegebener Lebensdauer zugehörigen Anfangsrisslängen bestimmt. Diese werden mit geeigneten Modellen in mikrostrukturelle Größen überführt. Die Lebensdauerverteilung der Komponente ergibt sich schließlich aus der Verteilungsfunktion der Anfangsrisslängen bzw. der zugehörigen mikrostrukturellen Einheiten. Die betrachtete Flanschwelle weist als Ergebnis eines thermo-mechanischen Umformprozesses ein gradiertes Gefüge auf. Das Ermüdungsverhalten der Hauptphasen Ferrit-Perlit und Martensit wird untersucht. Während ausgewählter Ermüdungsversuche wird die Schädigungsentwicklung an der Oberfläche mit einem langreichweitigen Mikroskop beobachtet. Das ferritisch-perlitische Ausgangsgefüge zeigt eine sehr komplexe Schädigungsentwicklung (lokale plastische Aktivität, hohe Rissdichte), während beim Martensit keine multiple Rissinitiierung beobachtet wird. Anhand fraktographischer Untersuchungen wird dargelegt, dass der Hauptriss beim Martensit im Bereich von Karbidanhäufungen initiiert. Im LCF-Bereich wird nur ein verschwindender Anteil der Lebensdauer mit Langrisswachstum verbracht, d. h. die martensitischen Proben versagen fast unmittelbar nach der Rissinitiierung. Die Beschreibung ihrer Lebensdauer wird somit direkt auf die Rissinitiierungsphase zurückgeführt. Das ferritisch-perlitische Gefüge hingegen zeigt im LCF-Bereich sowohl eine ausgeprägte Rissinitiierungs- wie auch Langrisswachstumsphase. Diese komplexe Schädigungsentwicklung wird mittels verschiedener Schädigungsvariablen beschrieben, die im Rahmen einer automatisierten Bildanalyse bestimmt werden. Hierbei werden sowohl plastisch stark aktive Bereiche wie auch reale Risse pauschal als Schädigung definiert. Der Vergleich dieser automatisiert bestimmten Schädigungsvariablen mit ausgewählten Rissen zeigt deren Eignung zur quantitativen Beschreibung der Schädigungsentwicklung. Die Lebensdauer einer gradierten Komponente ergibt sich nicht direkt durch Verknüpfung der Lebensdauern der Einzelphasen, sondern sie hängt ggf. auch von den Übergangsbereichen zwischen den Phasen ab. Mithilfe einiger grundlegender bruchmechanischer Überlegungen wird ein konservatives Kriterium zur Behandlung solcher Übergangsbereiche bereitgestellt, womit das LOCC-Konzept letztendlich erfolgreich auf die gradierte Flanschwelle übertragen wird.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Diese Arbeit entstand vor dem Hintergrund der gesellschaftlichen und wirtschaftlichen Veränderungen in China seit den 90er Jahren des 20. Jhds und den damit einhergehenden Reformen im Bildungssystem. Insbesondere für die traditionell wenig angesehene Berufsbildung erfolgte politisch eine völlige Neubewertung, die viele Bemühungen ausgelöst hat, Schule und Unterricht so zu modernisieren, dass den Betrieben unter marktwirtschaftlichen Bedingungen in beruflichen Domainen qualifizierte Jugendliche zur Verfügung stehen und dass sich den Jugendlichen selbst Chancen auf dem Arbeitsmarkt bieten. Eine der diskutierten Reformlinien rückt ein didaktisches Konzept in den Vordergrund, dem ein konstruktivistisches Lernverständnis unterlegt ist und Schüler befähigen will, Zusammenhänge in ausgewählten Tätigkeitsfeldern zu erkennen und die in den Wissenschaften zu ihrer Modellierung verwendeten Konstrukte in ihrer Machart und Leistungsfähigkeit einzuschätzen. Überwunden werden soll in allen Reformansätzen das für das traditionelle Bildungssystem typische memorierende und reproduzierende Lernen. Andere Untersuchungen aber auch eigene Voruntersuchungen zeigen, dass ein Gelingen des intendierten didaktischen Wechsels stark davon abhängt, ob den Lehrkräften Lehrmittel zur Verfügung stehen, die ein verstehendes Lernen unterstützen und dafür Vorbilder liefern. Aus diesem Grunde werden in der Arbeit zahlreiche neuere Schulbuchproduktionen im kaufmännischen Bereich untersucht. Dabei wird auch der Vielfalt der Publikationswege und der Heterogenität im Verlagswesen Rechnung getragen. Für die qualitative Untersuchung werden vier unterschiedliche Gegenstandsbereiche festgelegt, die für wirtschaftsberufliche Curricula zentral sind, und jeweils auf ein typisches inhaltliches Beispiel fokussiert. Für die ausgewählten Gegenstandsbereiche – ökonomisch zentrale Konzepte/ Begriffe, ideale ökonomische Modelle, rechtliche Normen, prozedurales Wissen – werden zunächst jeweils mit Rückgriffen auf kognitive, lerntheoretische, methodologische und dogmengeschichtliche Theorien didaktische Möglichkeiten analysiert, eine verstehende Aneignung fachlicher Inhalte und Denkstile sowie beruflicher Kompetenzen begründet zu begünstigen. Daraus werden jeweils Gesichtspunkte gewonnen, die als Maßstab zur qualitativen Analyse der Schulbuchtexte herangezogen werden. Die Untersuchung der Texte zeigt quer durch die verschiedenen Gegenstandsbereiche und Textbeispiele, dass die Darstellungen durchgängig dem traditionellen Muster klassifikatorischer Informationsorganisation verhaftet bleiben, die eher synoptischen Gestaltungsinteressen folgt und Fragen des Lernens und der Kompetenzaneignung vernachlässigt. Damit bleiben die Schulbuchproduktionen, die vordergründig aktuelle und disziplinär moderne Themen aufgreifen, in ihrer Machart bislang weiter der Tradition verhaftet, memorierendes Lernen einzufordern, was den Zielen der Berufsbildungsreform völlig widerspricht. Das ist ein für den Reformprozess wesentlicher Befund, da den Schulbüchern dabei eine zentrale Rolle zukommt. Aus den Befunden werden Empfehlungen für die wesentlichen an der Lehrerausbildung beteiligten Institutionen abgeleitet.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Energy production from biomass and the conservation of ecologically valuable grassland habitats are two important issues of agriculture today. The combination of a bioenergy production, which minimises environmental impacts and competition with food production for land with a conversion of semi-natural grasslands through new utilization alternatives for the biomass, led to the development of the IFBB process. Its basic principle is the separation of biomass into a liquid fraction (press fluid, PF) for the production of electric and thermal energy after anaerobic digestion to biogas and a solid fraction (press cake, PC) for the production of thermal energy through combustion. This study was undertaken to explore mass and energy flows as well as quality aspects of energy carriers within the IFBB process and determine their dependency on biomass-related and technical parameters. Two experiments were conducted, in which biomass from semi-natural grassland was conserved as silage and subjected to a hydrothermal conditioning and a subsequent mechanical dehydration with a screw press. Methane yield of the PF and the untreated silage was determined in anaerobic digestion experiments in batch fermenters at 37°C with a fermentation time of 13-15 and 27-35 days for the PF and the silage, respectively. Concentrations of dry matter (DM), ash, crude protein (CP), crude fibre (CF), ether extract (EE), neutral detergent fibre (NDF), acid detergent fibre (ADF), acid detergent ligning (ADL) and elements (K, Mg, Ca, Cl, N, S, P, C, H, N) were determined in the untreated biomass and the PC. Higher heating value (HHV) and ash softening temperature (AST) were calculated based on elemental concentration. Chemical composition of the PF and mass flows of all plant compounds into the PF were calculated. In the first experiment, biomass from five different semi-natural grassland swards (Arrhenaterion I and II, Caricion fuscae, Filipendulion ulmariae, Polygono-Trisetion) was harvested at one late sampling (19 July or 31 August) and ensiled. Each silage was subjected to three different temperature treatments (5°C, 60°C, 80°C) during hydrothermal conditioning. Based on observed methane yields and HHV as energy output parameters as well as literature-based and observed energy input parameters, energy and green house gas (GHG) balances were calculated for IFBB and two reference conversion processes, whole-crop digestion of untreated silage (WCD) and combustion of hay (CH). In the second experiment, biomass from one single semi-natural grassland sward (Arrhenaterion) was harvested at eight consecutive dates (27/04, 02/05, 09/05, 16/05, 24/05, 31/05, 11/06, 21/06) and ensiled. Each silage was subjected to six different treatments (no hydrothermal conditioning and hydrothermal conditioning at 10°C, 30°C, 50°C, 70°C, 90°C). Energy balance was calculated for IFBB and WCD. Multiple regression models were developed to predict mass flows, concentrations of elements in the PC, concentration of organic compounds in the PF and energy conversion efficiency of the IFBB process from temperature of hydrothermal conditioning as well as NDF and DM concentration in the silage. Results showed a relative reduction of ash and all elements detrimental for combustion in the PC compared to the untreated biomass of 20-90%. Reduction was highest for K and Cl and lowest for N. HHV of PC and untreated biomass were in a comparable range (17.8-19.5 MJ kg-1 DM), but AST of PC was higher (1156-1254°C). Methane yields of PF were higher compared to those of WCD when the biomass was harvested late (end of May and later) and in a comparable range when the biomass was harvested early and ranged from 332 to 458 LN kg-1 VS. Regarding energy and GHG balances, IFBB, with a net energy yield of 11.9-14.1 MWh ha-1, a conversion efficiency of 0.43-0.51, and GHG mitigation of 3.6-4.4 t CO2eq ha-1, performed better than WCD, but worse than CH. WCD produces thermal and electric energy with low efficiency, CH produces only thermal energy with a low quality solid fuel with high efficiency, IFBB produces thermal and electric energy with a solid fuel of high quality with medium efficiency. Regression models were able to predict target parameters with high accuracy (R2=0.70-0.99). The influence of increasing temperature of hydrothermal conditioning was an increase of mass flows, a decrease of element concentrations in the PC and a differing effect on energy conversion efficiency. The influence of increasing NDF concentration of the silage was a differing effect on mass flows, a decrease of element concentrations in the PC and an increase of energy conversion efficiency. The influence of increasing DM concentration of the silage was a decrease of mass flows, an increase of element concentrations in the PC and an increase of energy conversion efficiency. Based on the models an optimised IFBB process would be obtained with a medium temperature of hydrothermal conditioning (50°C), high NDF concentrations in the silage and medium DM concentrations of the silage.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In dieser Arbeit werden die sich abzeichnenden zukünftigen Möglichkeiten, Stärken und Schwächen der Kraft-Wärme-Kopplung (KWK) untersucht. Dies geschieht vor dem Hintergrund des Klimawandels, der Integration steigender Anteile Erneuerbarer Energien in die Stromerzeugung und unter Berücksichtigung der sich damit ergebenden Herausforderungen, eine sichere und nachhaltige Stromversorgung zu gestalten. Der Fokus liegt auf der Dieselmotor-KWK und der Nutzung nachwachsender Kraftstoffe. Es wird davon ausgegangen, dass der Übergang zu einer reinen Stromerzeugung aus Erneuerbaren Energiequellen in Deutschland unter erheblicher Einbindung des hohen Potentials der kostengünstigen, umweltfreundlichen, aber in der Leistung extrem fluktuierenden Windenergie erfolgen wird. Als dezentrales Integrationswerkzeug wurde die Kraft-Wärme-Kopplung mit Dieselmotoren untersucht. Sie entspricht aufgrund ihrer großen Flexibilität und ihrer hohen Wirkungsgrade mit vergleichsweise kleinen Leistungen sehr gut den Anforderungen der gleichzeitigen dezentralen Wärmenutzung. In der Dissertation werden die Randbedingungen der Dieselmotor-KWK untersucht und beschrieben. Darauf aufbauend werden unterschiedliche Modelle der Windintegration durch KWK erarbeitet und in diversen Variationen wird der Ausgleich der Stromerzeugung aus Windenergie durch KWK simuliert. Darüber hinaus werden dezentrale KWK-Anlagen hinsichtlich eines koordinierten gemeinsamen Betriebs und hinsichtlich der optimalen Auslegung für den Windenergieausgleich betrachtet. Es wird für den beschriebenen Kontext der Erneuerbaren Energien und der Kraft-Wärme-Kopplung das Thema „Umweltwirkungen“ diskutiert. Es wird dargelegt, dass die heute verwendeten Ansätze zur Bewertung der KWK zu einer Verzerrung der Ergebnisse führen. Demgegenüber wurde mit der so genannten Outputmethode eine Methode der Ökobilanzierung vorgestellt, die, im Gegensatz zu den anderen Methoden, keine verzerrenden Annahmen in die Wirkungsabschätzung aufnimmt und somit eine eindeutige und rein wissenschaftliche Auswertung bleibt. Hiermit ist die Grundlage für die Bewertung der unterschiedlichen Technologien und Szenarien sowie für die Einordnung der KWK in den Kontext der Energieerzeugung gegeben. Mit der Outputmethode wird u.a. rechnerisch bewiesen, dass die gekoppelte Strom- und Wärmeerzeugung in KWK-Anlagen tatsächlich die optimale Nutzung der regenerativen Kraftstoffe „Biogas“ und „Pflanzenöl“ im Hinblick auf Ressourceneinsatz, Treibhausgaseinsparung und Exergieerzeugung ist. Es wurde darüber hinaus die Frage untersucht woher die für die Stromerzeugung durch Dieselmotor-KWK-Anlagen notwendige Bioenergie genommen werden kann. Es ist erwiesen, dass die in Deutschland nutzbare landwirtschaftliche Fläche nur zur Deckung eines Teils der Stromerzeugung ausreichen würde. Einheimisches Biogas und nachhaltiges importiertes Pflanzenöl, das in hohem Maße auf degradierten Böden angebaut werden sollte, können die notwendige Brennstoffenergie liefern. Um im Ausland ausreichend Pflanzenöl herstellen zu können, wird eine landwirtschaftliche Fläche von 6 bis 12 Mio. ha benötigt. Das Ergebnis ist, dass ein voller Ausgleich von Windenergie-Restlast durch KWK mit Erneuerbaren Energieträgern sinnvoll und machbar ist! Dieses Wind-KWK-DSM-System sollte durch ein Stromnetz ergänzt sein, das Wasserkraftstrom für den Großteil der Regelenergieaufgaben nutzt, und das den großräumigen Ausgleich Erneuerbarer Energien in Europa und den Nachbarregionen ermöglicht.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In dieser Arbeit wurde das Adsorptionsverhalten zweier azobenzolfunktionalisierter Liganden auf Goldoberflächen untersucht. Diese Liganden zeichnen sich dadurch aus, dass sie mithilfe von Licht bestimmter Wellenlängen zwischen zwei Isomerisierungszuständen – sowohl in Lösung als auch in den auf der Oberfläche resultierenden Monolage – hin und her geschaltet werden können. Somit ist es möglich, Oberflächen herzustellen, deren physikalische und chemische Eigenschaften zwischen zwei Zuständen variiert werden können. Die Messungen des Adsorptionsverhaltens wurden mittels optischer Frequenzverdopplung durchgeführt. Diese Messmethode ist höchst grenzflächensensitiv und ermöglicht es somit die Adsorption der Liganden in situ und ich Echtzeit zu verfolgen. Neben den Adsorptionsmessungen wurde auch die Phase des frequenzverdoppelten Signals über eine Interferenzmethode gemessen. Die Ergebnisse dieser Phasenmessungen ermöglichen es, eine Aussage über eine mögliche Nichtlinearität der untersuchten Moleküle zu treffen. An die in den Adsorptionsmessungen gewonnenen Messdaten wurden drei kinetische Standardmodelle angepasst. Beschreibt eines dieser Modelle den im Experiment bestimmten Adsorptionsverlauf, kann eine Aussage über die zugrunde liegenden Prozesse des Adsorptionsvorganges getroffen werden. Die Ergebnisse der Adsorptionsmessungen zeigen einen deutlichen Einfluss des Isomerisierungszustandes der Liganden auf den Verlauf der Adsorption. Liegen die Moleküle im geschalteten Zustand vor, so verläuft die Adsorption langsamer. Weiterhin konnte gezeigt werden, dass ebenso intermolekulare Wechselwirkungen über Wasserstoffbrückenbindungen einen verlangsamenden Einfluss auf die Adsorption der Liganden haben. In den durchgeführten Phasenmessungen zeigte sich darüber hinaus, dass Liganden, die über an die Azobenzolgruppe angebundene Amidgruppen verfügen, eine Nichtlinearität aufweisen. Diese Nichtlinearität ist zudem vom Isomerisierungszustand der Liganden abhängig. In den kinetischen Untersuchungen konnte darüber hinaus gezeigt werden, dass sich die Adsorption der Liganden bis auf eine Ausnahme durch die Langmuirkinetik 2. Ordnung beschreiben lässt. Somit handelt es ich bei der Adsorption der untersuchten Liganden um eine Reaktion, der eine Bindungsspaltung voran geht. Dieser Befund konnte durch Vergleich mit weiteren Experimenten bestätigt werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Heilkräuter sind während des Trocknungsprozesses zahlreichen Einflüssen ausgesetzt, welche die Qualität des Endproduktes entscheidend beeinflussen. Diese Forschungsarbeit beschäftigt sich mit der Trocknung von Zitronenmelisse (Melissa officinalis .L) zu einem qualitativ hochwertigen Endprodukt. Es werden Strategien zur Trocknung vorgeschlagen, die experimentelle und mathematische Aspekte mit einbeziehen, um bei einer adäquaten Produktivität die erforderlichen Qualitätsmerkmale im Hinblick auf Farbeänderung und Gehalt an ätherischen Ölen zu erzielen. Getrocknete Zitronenmelisse kann zurzeit, auf Grund verschiedener Probleme beim Trocknungsvorgang, den hohen Qualitätsanforderungen des Marktes nicht immer genügen. Es gibt keine standardisierten Informationen zu den einzelnen und komplexen Trocknungsparametern. In der Praxis beruht die Trocknung auf Erfahrungswerten, bzw. werden Vorgehensweisen bei der Trocknung anderer Pflanzen kopiert, und oftmals ist die Trocknung nicht reproduzierbar, oder beruht auf subjektiven Annäherungen. Als Folge dieser nicht angepassten Wahl der Trocknungsparameter entstehen oftmals Probleme wie eine Übertrocknung, was zu erhöhten Bruchverlusten der Blattmasse führt, oder eine zu geringe Trocknung, was wiederum einen zu hohen Endfeuchtegehalt im Produkt zur Folge hat. Dies wiederum mündet zwangsläufig in einer nicht vertretbaren Farbänderung und einen übermäßigen Verlust an ätherischen Ölen. Auf Grund der unterschiedlichen thermischen und mechanischen Eigenschaften von Blättern und Stängel, ist eine ungleichmäßige Trocknung die Regel. Es wird außerdem eine unnötig lange Trocknungsdauer beobachtet, die zu einem erhöhten Energieverbrauch führt. Das Trocknen in solaren Tunneln Trocknern bringt folgendes Problem mit sich: wegen des ungeregelten Strahlungseinfalles ist es schwierig die Trocknungstemperatur zu regulieren. Ebenso beeinflusst die Strahlung die Farbe des Produktes auf Grund von photochemischen Reaktionen. Zusätzlich erzeugen die hohen Schwankungen der Strahlung, der Temperatur und der Luftfeuchtigkeit instabile Bedingungen für eine gleichmäßige und kontrollierbare Trocknung. In Anbetracht der erwähnten Probleme werden folgende Forschungsschwerpunkte in dieser Arbeit gesetzt: neue Strategien zur Verbesserung der Qualität werden entwickelt, mit dem Ziel die Trocknungszeit und den Energieverbrauch zu verringern. Um eine Methodik vorzuschlagen, die auf optimalen Trocknungsparameter beruht, wurden Temperatur und Luftfeuchtigkeit als Variable in Abhängigkeit der Trocknungszeit, des ätherischer Ölgehaltes, der Farbänderung und der erforderliche Energie betrachtet. Außerdem wurden die genannten Parametern und deren Auswirkungen auf die Qualitätsmerkmale in solaren Tunnel Trocknern analysiert. Um diese Ziele zu erreichen, wurden unterschiedliche Ansätze verfolgt. Die Sorption-Isothermen und die Trocknungskinetik von Zitronenmelisse und deren entsprechende Anpassung an verschiedene mathematische Modelle wurden erarbeitet. Ebenso wurde eine alternative gestaffelte Trocknung in gestufte Schritte vorgenommen, um die Qualität des Endproduktes zu erhöhen und gleichzeitig den Gesamtenergieverbrauch zu senken. Zusätzlich wurde ein statistischer Versuchsplan nach der CCD-Methode (Central Composite Design) und der RSM-Methode (Response Surface Methodology) vorgeschlagen, um die gewünschten Qualitätsmerkmalen und den notwendigen Energieeinsatz in Abhängigkeit von Lufttemperatur und Luftfeuchtigkeit zu erzielen. Anhand der gewonnenen Daten wurden Regressionsmodelle erzeugt, und das Verhalten des Trocknungsverfahrens wurde beschrieben. Schließlich wurde eine statistische DOE-Versuchsplanung (design of experiments) angewandt, um den Einfluss der Parameter auf die zu erzielende Produktqualität in einem solaren Tunnel Trockner zu bewerten. Die Wirkungen der Beschattung, der Lage im Tunnel, des Befüllungsgrades und der Luftgeschwindigkeit auf Trocknungszeit, Farbänderung und dem Gehalt an ätherischem Öl, wurde analysiert. Ebenso wurden entsprechende Regressionsmodelle bei der Anwendung in solaren Tunneltrocknern erarbeitet. Die wesentlichen Ergebnisse werden in Bezug auf optimale Trocknungsparameter in Bezug auf Qualität und Energieverbrauch analysiert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Was bedeutete es, sich einer fremden Kultur anzupassen, um dort ein völlig neues Leben zu beginnen? Mein Wunsch war es hinter die Fassade des ‚störenden ausländischen Kindes blicken, das nicht fehlerfrei deutsch sprechen und sich nicht integrieren kann’. Wie müssen sich die Kinder und Jugendlichen fühlen, die der Entscheidung ihrer Eltern folgen, zuhause alles aufgeben und nach Deutschland auswandern müssen? Was steckt hinter den Schüler/innen mit Migrationshintergrund, die im Unterricht negativ auffallen oder überfordert sind? Was bedeutet es, sich in eine fremde Kultur und Gesellschaft zu integrieren und eine neue Sprache zu erlernen, um überhaupt in der Lage zu sein, sich zu verständigen? Als ich von einer Bekannten vom Modell der Intensivklassen erfuhr, welches in der Stadt X an der Schule X eingerichtet ist, wurden meine Neugier und mein Interesse geweckt, dieses genauer zu untersuchen. Mich interessierte, in welcher Form dort Kindern und Jugendlichen begegnet wurde, die neu nach Deutschland einwanderten und welche Maßnahmen ergriffen wurden, um ihnen die Integration und das Sprachenlernen zu erleichtern. Die Untersuchung im Rahmen dieser Arbeit fand schließlich in besagter Intensivklasse statt und es wurde folgende Fragestellung zugrunde gelegt: Ist die Intensivklasse ein geeignetes Instrument, um Seiteneinsteiger in das deutsche Schulsystem und die deutsche Gesellschaft zu integrieren, sowie ihren Spracherwerb bestmöglich zu fördern? Um eine Grundlage für die Untersuchung zu schaffen und in das Thema einzuführen, wurde die theoretische Auseinandersetzung – gemäß des Titels – in zwei Themenkomplexe eingeteilt: ‚Deutschland als Einwanderungsland’ und ‚Migration und Spracherwerb’. Der erste Teil befasst sich mit der Geschichte der Immigration nach Deutschland nach 1945, da die heutige multikulturelle Situation in der BRD auf diese Zeit zurückzuführen ist bzw. ihren Ursprung darin hat. Abgerundet wird das erste Kapitel durch die Darlegung der aktuellen politischen Diskussion zum Thema Integration in Deutschland. Es folgt eine Betrachtung der bildungspolitischen Reaktionen auf die Einwanderer, die ab 1945 nach Deutschland immigrierten. Es wird beschrieben, wie sie in das deutsche Schulsystem eingegliedert wurden und welche Absichten die Verantwortlichen mit den entsprechenden Maßnahmen verfolgten. Am Ende wird ein kurzer Überblick über die erziehungswissenschaftlichen Überlegungen und Entwicklungen in der zweiten Hälfte des zwanzigsten Jahrhunderts gegeben. Um das Ausmaß der Migrantenpopulation in Deutschland adäquat darzustellen, wird im nächsten Kapitel eine detaillierte Auflistung aktueller Zahlen und Fakten zu Migrant/innen in der Bundesrepublik gegeben. Neben dem Anteil der verschiedenen Zuwanderergruppen, liegt ein Schwerpunkt auf der Bildungsbeteiligung von Kindern und Jugendlichen mit Migrationshintergrund, stellen sie doch das Schülerklientel dar, mit welchem ich mich in der Untersuchung beschäftigte. Der zweite Themenkomplex befasst sich mit dem Spracherwerb von Migrant/innen, indem zunächst die Mehrsprachigkeit als ein modernes Phänomen in Einwanderungsgesellschaften herausgestellt wird. Es folgt eine Beschreibung der Theorien zum Zweitspracherwerb und wahrscheinlicher Einflussfaktoren. Da es in der Untersuchung um den Erwerb der Zweitsprache deutsch geht, wird zudem ein knapper Überblick über Eigenarten und Fehlerschwerpunkte dieser Sprache gegeben. Als letztes werden Modelle zur Sprachförderung von Seiteneinsteiger/innen mit Migrationshintergrund in der Sekundarstufe I in Deutschland vorgestellt, einschließlich der hessischen Maßnahme der Intensivklasse. Aufgrund der Tatsache, dass die Untersuchung in Form von Beobachtungen und Interviews in einer Intensivklasse stattfand, werden im Schulportrait zunächst Einzugsgebiet, Schulprogramm, Modell der Intensivklasse und Zusammensetzung der Klasse vorgestellt, um die Kontextbedingungen darzulegen. Der methodische Teil befasst sich mit Fragestellung und Ziel der Untersuchung, Methodenwahl und Auswertungsdesign. In Kapitel fünf sollen schließlich die Ergebnisse der Erhebung mit Hilfe von selbst gefundenen Kategorien und einer daraus folgenden Gliederung dargestellt werden. Eine Zusammenfassung unter Rückbezug auf die Forschungsfragen, sowie Fazit und Ausblick runden die gesamte Arbeit ab.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Im Rahmen dieser Arbeit werden Modellbildungsverfahren zur echtzeitfähigen Simulation wichtiger Schadstoffkomponenten im Abgasstrom von Verbrennungsmotoren vorgestellt. Es wird ein ganzheitlicher Entwicklungsablauf dargestellt, dessen einzelne Schritte, beginnend bei der Ver-suchsplanung über die Erstellung einer geeigneten Modellstruktur bis hin zur Modellvalidierung, detailliert beschrieben werden. Diese Methoden werden zur Nachbildung der dynamischen Emissi-onsverläufe relevanter Schadstoffe des Ottomotors angewendet. Die abgeleiteten Emissionsmodelle dienen zusammen mit einer Gesamtmotorsimulation zur Optimierung von Betriebstrategien in Hybridfahrzeugen. Im ersten Abschnitt der Arbeit wird eine systematische Vorgehensweise zur Planung und Erstellung von komplexen, dynamischen und echtzeitfähigen Modellstrukturen aufgezeigt. Es beginnt mit einer physikalisch motivierten Strukturierung, die eine geeignete Unterteilung eines Prozessmodells in einzelne überschaubare Elemente vorsieht. Diese Teilmodelle werden dann, jeweils ausgehend von einem möglichst einfachen nominalen Modellkern, schrittweise erweitert und ermöglichen zum Abschluss eine robuste Nachbildung auch komplexen, dynamischen Verhaltens bei hinreichender Genauigkeit. Da einige Teilmodelle als neuronale Netze realisiert werden, wurde eigens ein Verfah-ren zur sogenannten diskreten evidenten Interpolation (DEI) entwickelt, das beim Training einge-setzt, und bei minimaler Messdatenanzahl ein plausibles, also evidentes Verhalten experimenteller Modelle sicherstellen kann. Zum Abgleich der einzelnen Teilmodelle wurden statistische Versuchs-pläne erstellt, die sowohl mit klassischen DoE-Methoden als auch mittels einer iterativen Versuchs-planung (iDoE ) generiert wurden. Im zweiten Teil der Arbeit werden, nach Ermittlung der wichtigsten Einflussparameter, die Model-strukturen zur Nachbildung dynamischer Emissionsverläufe ausgewählter Abgaskomponenten vor-gestellt, wie unverbrannte Kohlenwasserstoffe (HC), Stickstoffmonoxid (NO) sowie Kohlenmono-xid (CO). Die vorgestellten Simulationsmodelle bilden die Schadstoffkonzentrationen eines Ver-brennungsmotors im Kaltstart sowie in der anschließenden Warmlaufphase in Echtzeit nach. Im Vergleich zur obligatorischen Nachbildung des stationären Verhaltens wird hier auch das dynami-sche Verhalten des Verbrennungsmotors in transienten Betriebsphasen ausreichend korrekt darge-stellt. Eine konsequente Anwendung der im ersten Teil der Arbeit vorgestellten Methodik erlaubt, trotz einer Vielzahl von Prozesseinflussgrößen, auch hier eine hohe Simulationsqualität und Ro-bustheit. Die Modelle der Schadstoffemissionen, eingebettet in das dynamische Gesamtmodell eines Ver-brennungsmotors, werden zur Ableitung einer optimalen Betriebsstrategie im Hybridfahrzeug ein-gesetzt. Zur Lösung solcher Optimierungsaufgaben bieten sich modellbasierte Verfahren in beson-derer Weise an, wobei insbesondere unter Verwendung dynamischer als auch kaltstartfähiger Mo-delle und der damit verbundenen Realitätsnähe eine hohe Ausgabequalität erreicht werden kann.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Das Biegetragverhalten von ultrahochfestem Beton (UHPC) mit einer kombinierten Bewehrung aus Stabstahl und Stahlfasern wurde im Rahmen des DFG-Schwerpunktprogramms 1182 untersucht. Dieser Forschungsbericht stellt die durchgeführten experimentellen Untersuchungen dar. Das Versuchsprogramm umfasste Referenzversuche zur Ermittlung der Materialparameter, Verbundversuche an Stabstahl und Stahlfasern, zentrische Zugversuche des faserbewehrten UHPC sowie Vier-Punkt-Biegeversuche an kombiniert bewehrten UHPC-Balken. Maßgebliches Ziel war es, die Rissentwicklung und die Tragfähigkeit von UHPC-Biegebauteilen näher zu untersuchen. Dazu wurden neben den Verformungen in den Versuchen an Balken die Rissbreiten und Rissabstände dokumentiert. Der vorliegende Forschungsbericht bildet die Grundlage für die Dissertation der Autorin, in der Modelle zur Beschreibung der Rissentwicklung unter Gebrauchslasten und der Tragfähigkeit von kombiniert bewehrten UHPC-Balken entwickelt werden. Die Ergebnisse der Material- und Verbundversuche dienen als Eingangsparameter zur Nachrechnung der Versuche. Anhand der Balkenversuche werden die entwickelten Modelle validiert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The rapid growth in high data rate communication systems has introduced new high spectral efficient modulation techniques and standards such as LTE-A (long term evolution-advanced) for 4G (4th generation) systems. These techniques have provided a broader bandwidth but introduced high peak-to-average power ratio (PAR) problem at the high power amplifier (HPA) level of the communication system base transceiver station (BTS). To avoid spectral spreading due to high PAR, stringent requirement on linearity is needed which brings the HPA to operate at large back-off power at the expense of power efficiency. Consequently, high power devices are fundamental in HPAs for high linearity and efficiency. Recent development in wide bandgap power devices, in particular AlGaN/GaN HEMT, has offered higher power level with superior linearity-efficiency trade-off in microwaves communication. For cost-effective HPA design to production cycle, rigorous computer aided design (CAD) AlGaN/GaN HEMT models are essential to reflect real response with increasing power level and channel temperature. Therefore, large-size AlGaN/GaN HEMT large-signal electrothermal modeling procedure is proposed. The HEMT structure analysis, characterization, data processing, model extraction and model implementation phases have been covered in this thesis including trapping and self-heating dispersion accounting for nonlinear drain current collapse. The small-signal model is extracted using the 22-element modeling procedure developed in our department. The intrinsic large-signal model is deeply investigated in conjunction with linearity prediction. The accuracy of the nonlinear drain current has been enhanced through several issues such as trapping and self-heating characterization. Also, the HEMT structure thermal profile has been investigated and corresponding thermal resistance has been extracted through thermal simulation and chuck-controlled temperature pulsed I(V) and static DC measurements. Higher-order equivalent thermal model is extracted and implemented in the HEMT large-signal model to accurately estimate instantaneous channel temperature. Moreover, trapping and self-heating transients has been characterized through transient measurements. The obtained time constants are represented by equivalent sub-circuits and integrated in the nonlinear drain current implementation to account for complex communication signals dynamic prediction. The obtained verification of this table-based large-size large-signal electrothermal model implementation has illustrated high accuracy in terms of output power, gain, efficiency and nonlinearity prediction with respect to standard large-signal test signals.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Diese Arbeit befasst sich mit der Modellbildung mechatronischer Systeme mit Reibung. Geeignete dynamische Modelle sind die Grundlage für verschiedenste Aufgabenstellungen. Sind dynamische Prozessmodelle verfügbar, so können leistungsfähige modellbasierte Entwurfsmethoden angewendet werden sowie modellbasierte Anwendungen entwickelt werden. Allerdings ist der Aufwand für die Modellbildung ein beschränkender Faktor für eine weite Verbreitung modellbasierter Applikationen in der Praxis. Eine Automatisierung des Modellbildungsprozesses ist deshalb von großem Interesse. Die vorliegende Arbeit stellt für die Klasse „mechatronischer Systeme mit Reibung“ drei Modellierungsmethoden vor: semi-physikalische Modellierung, Sliding-Mode-Beobachter-basierte Modellierung und empirische Modellierung mit einem stückweise affinen (PWA) Modellansatz. Zum Ersten wird die semi-physikalische Modellierung behandelt. Gegenüber anderen Verfahren, die häufig umfangreiche Vorkenntnisse und aufwändige Experimente erfordern, haben diese neuen Verfahren den Vorteil, dass die Modellierung von Systemen mit Reibung selbst bei begrenzten Vorkenntnissen und minimalem Experimentaufwand automatisiert werden kann. Zum Zweiten wird ein neuer Ansatz zur Reibkraftrekonstruktion und Reibmodellierung mittels Sliding-Mode-Beobachter präsentiert. Durch Verwendung des vorgestellten Sliding-Mode- Beobachters, der basierend auf einem einfachen linearen Zustandsraummodell entworfen wird, lässt sich die Reibung datengetrieben aus den Ein-/Ausgangsmessdaten (im offenen Regelkreis) rekonstruieren und modellieren. Im Vergleich zu anderen Reibmodellierungsmethoden, die häufig umfangreiche Vorkenntnisse und aufwändige Messungen im geschlossenen Regelkreis erfordern, haben diese neuen Verfahren den Vorteil, dass die Modellierung von Systemen mit Reibung selbst bei begrenzten Vorkenntnissen und minimalem Experimentaufwand weitgehend automatisiert werden kann. Zum Dritten wird ein PWA-Modellierungsansatz mit einer clusterungsbasierten Identifikationsmethode für Systeme mit Reibung vorgestellt. In dieser Methode werden die Merkmale in Hinblick auf Reibeffekte ausgewählt. Und zwar wird der klassische c-Means-Algorithmus verwendet, welcher bedienfreundlich, effizient und geeignet für große und reale Datensätze ist. Im Gegensatz zu anderen Methoden sind bei dieser Methode nur wenige Entwurfsparameter einzustellen und sie ist für reale Systeme mit Reibung einfach anwendbar. Eine weitere Neuheit der vorgestellten PWA-Methode liegt darin, dass die Kombination der Clustervaliditätsmaße und Modellprädiktionsfehler zur Festlegung der Anzahl der Teilmodelle benutzt wird. Weiterhin optimiert die vorgestellte Methode die Parameter der lokalen Teilmodelle mit der OE (Output-Fehler)-Schätzmethode. Als Anwendungsbeispiele werden Drosselklappen, Drallklappen und AGR-Ventile (Abgasrückführventil) im Dieselfahrzeug betrachtet und die erzeugten Modelle werden in der industriellen HiL-Simulation eingesetzt. Aufgrund der Effizienz und Effektivität der Modellierungsmethoden sind die vorgestellten Methoden direkt in der automobilen Praxis einsetzbar.