149 resultados para Steuerung
Resumo:
The use of renewable primary products as co-substrate or single substrate for biogas production has increased consistently over the last few years. Maize silage is the preferential energy crop used for fermentation due to its high methane (CH4) yield per hectare. Equally, the by-product, namely biogas slurry (BS), is used with increasing frequency as organic fertilizer to return nutrients to the soil and to maintain or increase the organic matter stocks and soil fertility. Studies concerning the application of energy crop-derived BS on the carbon (C) and nitrogen (N) mineralization dynamics are scarce. Thus, this thesis focused on the following objectives: I) The determination of the effects caused by rainfall patterns on the C and N dynamics from two contrasting organic fertilizers, namely BS from maize silage and composted cattle manure (CM), by monitoring emissions of nitrous oxide (N2O), carbon dioxide (CO2) and CH4 as well as leaching losses of C and N. II) The investigation of the impact of differences in soil moisture content after the application of BS and temperature on gaseous emissions (CO2, N2O and CH4) and leaching of C and N compounds. III) A comparison of BS properties obtained from biogas plants with different substrate inputs and operating parameters and their effect on C and N dynamics after application to differently textured soils with varying application rates and water contents. For the objectives I) and II) two experiments (experiment I and II) using undisturbed soil cores of a Haplic Luvisol were carried out. Objective III) was studied on a third experiment (experiment III) with disturbed soil samples. During experiment I three rainfall patterns were implemented including constant irrigation, continuous irrigation with periodic heavy rainfall events, and partial drying with rewetting periods. Biogas slurry and CM were applied at a rate of 100 kg N ha-1. During experiment II constant irrigation and an irrigation pattern with partial drying with rewetting periods were carried out at 13.5°C and 23.5°C. The application of BS took place either directly before a rewetting period or one week after the rewetting period stopped. Experiment III included two soils of different texture which were mixed with ten BS’s originating from ten different biogas plants. Treatments included low, medium and high BS-N application rates and water contents ranging from 50% to 100% of water holding capacity (WHC). Experiment I and II showed that after the application of BS cumulative N2O emissions were 4 times (162 mg N2O-N m-2) higher compared to the application of CM caused by a higher content of mineral N (Nmin) in the form of ammonium (NH4+) in the BS. The cumulative emissions of CO2, however, were on the same level for both fertilizers indicating similar amounts of readily available C after composting and fermentation of organic material. Leaching losses occurred predominantly in the mineral form of nitrate (NO3-) and were higher in BS amended soils (9 mg NO3--N m-2) compared to CM amended soils (5 mg NO3--N m-2). The rainfall pattern in experiment I and II merely affected the temporal production of C and N emissions resulting in reduced CO2 and enhanced N2O emissions during stronger irrigation events, but showed no effect on the cumulative emissions. Overall, a significant increase of CH4 consumption under inconstant irrigation was found. The time of fertilization had no effect on the overall C and N dynamics. Increasing temperature from 13.5°C to 23.5°C enhanced the CO2 and N2O emissions by a factor of 1.7 and 3.7, respectively. Due to the increased microbial activity with increasing temperature soil respiration was enhanced. This led to decreasing oxygen (O2) contents which in turn promoted denitrification in soil due to the extension of anaerobic microsites. Leaching losses of NO3- were also significantly affected by increasing temperature whereas the consumption of CH4 was not affected. The third experiment showed that the input materials of biogas plants affected the properties of the resulting BS. In particular the contents of DM and NH4+ were determined by the amount of added plant biomass and excrement-based biomass, respectively. Correlations between BS properties and CO2 or N2O emissions were not detected. Solely the ammonia (NH3) emissions showed a positive correlation with NH4+ content in BS as well as a negative correlation with the total C (Ct) content. The BS-N application rates affected the relative CO2 emissions (% of C supplied with BS) when applied to silty soil as well as the relative N2O emissions (% of N supplied with BS) when applied to sandy soil. The impacts on the C and N dynamics induced by BS application were exceeded by the differences induced by soil texture. Presumably, due to the higher clay content in silty soils, organic matter was stabilized by organo-mineral interactions and NH4+ was adsorbed at the cation exchange sites. Different water contents induced highest CO2 emissions and therefore optimal conditions for microbial activity at 75% of WHC in both soils. Cumulative nitrification was also highest at 75% and 50% of WHC whereas the relative N2O emissions increased with water content and showed higher N2O losses in sandy soils. In summary it can be stated that the findings of the present thesis confirmed the high fertilizer value of BS’s, caused by high concentrations of NH4+ and labile organic compounds such as readily available carbon. These attributes of BS’s are to a great extent independent of the input materials of biogas plants. However, considerably gaseous and leaching losses of N may occur especially at high moisture contents. The emissions of N2O after field application corresponded with those of animal slurries.
Resumo:
Eine effektive, effiziente und wirkungsorientierte kommunalpolitische Arbeit stellt hohe Anforderungen an Politik und Verwaltung. Trotz zahlreicher erfolgsversprechender Ansätze ist der aktuelle Status quo ernüchternd. Schwerpunkt der Dissertation ist deshalb die Entwicklung eines praxistauglichen Konzeptes zur Integration der strategischen Planung in die Haushaltsplanung einer Kommune mit dem Ziel einer nachhaltigen Verbesserung der strategischen Steuerung. Eine ergänzende ökonomische Funktionsanalyse von beteiligten Rechtsfiguren erweitert dabei die klassisch wirtschaftstheoretische Betrachtungsweise um sozialwissenschaftliche Aspekte, die im Zusammenspiel von Institutionen eine wichtige Rolle spielen. Der konzipierte Ansatz kommt, durch die Fokussierung auf das öffentliche Interesse, einem partizipativen und transparenten Idealbild von Steuerung im kommunalen Bereich auf der Basis der New Public Management Bewegung sehr nahe und könnte helfen der verstärkt festzustellenden Politikverdrossenheit entgegen zu wirken.
Resumo:
Die thermische Verarbeitung von Lebensmitteln beeinflusst deren Qualität und ernährungsphysiologischen Eigenschaften. Im Haushalt ist die Überwachung der Temperatur innerhalb des Lebensmittels sehr schwierig. Zudem ist das Wissen über optimale Temperatur- und Zeitparameter für die verschiedenen Speisen oft unzureichend. Die optimale Steuerung der thermischen Zubereitung ist maßgeblich abhängig von der Art des Lebensmittels und der äußeren und inneren Temperatureinwirkung während des Garvorgangs. Das Ziel der Arbeiten war die Entwicklung eines automatischen Backofens, der in der Lage ist, die Art des Lebensmittels zu erkennen und die Temperatur im Inneren des Lebensmittels während des Backens zu errechnen. Die für die Temperaturberechnung benötigten Daten wurden mit mehreren Sensoren erfasst. Hierzu kam ein Infrarotthermometer, ein Infrarotabstandssensor, eine Kamera, ein Temperatursensor und ein Lambdasonde innerhalb des Ofens zum Einsatz. Ferner wurden eine Wägezelle, ein Strom- sowie Spannungs-Sensor und ein Temperatursensor außerhalb des Ofens genutzt. Die während der Aufheizphase aufgenommen Datensätze ermöglichten das Training mehrerer künstlicher neuronaler Netze, die die verschiedenen Lebensmittel in die entsprechenden Kategorien einordnen konnten, um so das optimale Backprogram auszuwählen. Zur Abschätzung der thermische Diffusivität der Nahrung, die von der Zusammensetzung (Kohlenhydrate, Fett, Protein, Wasser) abhängt, wurden mehrere künstliche neuronale Netze trainiert. Mit Ausnahme des Fettanteils der Lebensmittel konnten alle Komponenten durch verschiedene KNNs mit einem Maximum von 8 versteckten Neuronen ausreichend genau abgeschätzt werden um auf deren Grundlage die Temperatur im inneren des Lebensmittels zu berechnen. Die durchgeführte Arbeit zeigt, dass mit Hilfe verschiedenster Sensoren zur direkten beziehungsweise indirekten Messung der äußeren Eigenschaften der Lebensmittel sowie KNNs für die Kategorisierung und Abschätzung der Lebensmittelzusammensetzung die automatische Erkennung und Berechnung der inneren Temperatur von verschiedensten Lebensmitteln möglich ist.
Resumo:
Diese Dissertation stellt eine Studie da, welche sich mit den Änderungen in der Governance der Hochschulbildung in Vietnam beschäftigt. Das zentrale Ziel dieser Forschungsarbeit ist die Untersuchung der Herkunft und Änderung in der Beziehung der Mächte zwischen dem vietnamesischen Staat und den Hochschulbildungsinstituten (HI), welche hauptsächlich aus der Interaktion dieser beiden Akteure resultiert. Die Macht dieser beiden Akteure wurde im sozialen Bereich konstruiert und ist hauptsächlich durch ihre Nützlichkeit und Beiträge für die Hochschulbildung bestimmt. Diese Arbeit beschäftigt sich dabei besonders mit dem Aspekt der Lehrqualität. Diese Studie nimmt dabei die Perspektive einer allgemeinen Governance ein, um die Beziehung zwischen Staat und HI zu erforschen. Zudem verwendet sie die „Resource Dependence Theory“ (RDT), um das Verhalten der HI in Bezug auf die sich verändernde Umgebung zu untersuchen, welche durch die Politik und eine abnehmende Finanzierung charakterisiert ist. Durch eine empirische Untersuchung der Regierungspolitik sowie der internen Steuerung und den Praktiken der vier führenden Universitäten kommt die Studie zu dem Schluss, dass unter Berücksichtigung des Drucks der Schaffung von Einkommen die vietnamesischen Universitäten sowohl Strategien als auch Taktiken entwickelt haben, um Ressourcenflüsse und Legitimität zu kontrollieren. Die Entscheidungs- und Zielfindung der Komitees, die aus einer Mehrheit von Akademikern bestehen, sind dabei mächtiger als die der Manager. Daher werden bei initiativen Handlungen der Universitäten größtenteils Akademiker mit einbezogen. Gestützt auf die sich entwickelnden Muster der Ressourcenbeiträge von Akademikern und Studierenden für die Hochschulbildung prognostiziert die Studie eine aufstrebende Governance Konfiguration, bei der die Dimensionen der akademischen Selbstverwaltung und des Wettbewerbsmarktes stärker werden und die Regulation des Staates rational zunimmt. Das derzeitige institutionelle Design und administrative System des Landes, die spezifische Gewichtung und die Koordinationsmechanismen, auch als sogenanntes effektives Aufsichtssystem zwischen den drei Schlüsselakteuren - der Staat, die HI/Akademiker und die Studierenden – bezeichnet, brauchen eine lange Zeit zur Detektion und Etablierung. In der aktuellen Phase der Suche nach einem solchen System sollte die Regierung Management-Tools stärken, wie zum Beispiel die Akkreditierung, belohnende und marktbasierte Instrumente und das Treffen informations-basierter Entscheidungen. Darüber hinaus ist es notwendig die Transparenz der Politik zu erhöhen und mehr Informationen offenzulegen.
Resumo:
Summary - Cooking banana is one of the most important crops in Uganda; it is a staple food and source of household income in rural areas. The most common cooking banana is locally called matooke, a Musa sp triploid acuminate genome group (AAA-EAHB). It is perishable and traded in fresh form leading to very high postharvest losses (22-45%). This is attributed to: non-uniform level of harvest maturity, poor handling, bulk transportation and lack of value addition/processing technologies, which are currently the main challenges for trade and export, and diversified utilization of matooke. Drying is one of the oldest technologies employed in processing of agricultural produce. A lot of research has been carried out on drying of fruits and vegetables, but little information is available on matooke. Drying of matooke and milling it to flour extends its shelf-life is an important means to overcome the above challenges. Raw matooke flour is a generic flour developed to improve shelf stability of the fruit and to find alternative uses. It is rich in starch (80 - 85%db) and subsequently has a high potential as a calorie resource base. It possesses good properties for both food and non-food industrial use. Some effort has been done to commercialize the processing of matooke but there is still limited information on its processing into flour. It was imperative to carry out an in-depth study to bridge the following gaps: lack of accurate information on the maturity window within which matooke for processing into flour can be harvested leading to non-uniform quality of matooke flour; there is no information on moisture sorption isotherm for matooke from which the minimum equilibrium moisture content in relation to temperature and relative humidity is obtainable, below which the dry matooke would be microbiologically shelf-stable; and lack of information on drying behavior of matooke and standardized processing parameters for matooke in relation to physicochemical properties of the flour. The main objective of the study was to establish the optimum harvest maturity window and optimize the processing parameters for obtaining standardized microbiologically shelf-stable matooke flour with good starch quality attributes. This research was designed to: i) establish the optimum maturity harvest window within which matooke can be harvested to produce a consistent quality of matooke flour, ii) establish the sorption isotherms for matooke, iii) establish the effect of process parameters on drying characteristics of matooke, iv) optimize the drying process parameters for matooke, v) validate the models of maturity and optimum process parameters and vi) standardize process parameters for commercial processing of matooke. Samples were obtained from a banana plantation at Presidential Initiative on Banana Industrial Development (PIBID), Technology Business Incubation Center (TBI) at Nyaruzunga – Bushenyi in Western Uganda. A completely randomized design (CRD) was employed in selecting the banana stools from which samples for the experiments were picked. The cultivar Mbwazirume which is soft cooking and commonly grown in Bushenyi was selected for the study. The static gravitation method recommended by COST 90 Project (Wolf et al., 1985), was used for determination of moisture sorption isotherms. A research dryer developed for this research. All experiments were carried out in laboratories at TBI. The physiological maturity of matooke cv. mbwazirume at Bushenyi is 21 weeks. The optimum harvest maturity window for commercial processing of matooke flour (Raw Tooke Flour - RTF) at Bushenyi is between 15-21 weeks. The finger weight model is recommended for farmers to estimate harvest maturity for matooke and the combined model of finger weight and pulp peel ratio is recommended for commercial processors. Matooke isotherms exhibited type II curve behavior which is characteristic of foodstuffs. The GAB model best described all the adsorption and desorption moisture isotherms. For commercial processing of matooke, in order to obtain a microbiologically shelf-stable dry product. It is recommended to dry it to moisture content below or equal to 10% (wb). The hysteresis phenomenon was exhibited by the moisture sorption isotherms for matooke. The isoteric heat of sorption for both adsorptions and desorption isotherms increased with decreased moisture content. The total isosteric heat of sorption for matooke: adsorption isotherm ranged from 4,586 – 2,386 kJ/kg and desorption isotherm from 18,194– 2,391 kJ/kg for equilibrium moisture content from 0.3 – 0.01 (db) respectively. The minimum energy required for drying matooke from 80 – 10% (wb) is 8,124 kJ/kg of water removed. Implying that the minimum energy required for drying of 1 kg of fresh matooke from 80 - 10% (wb) is 5,793 kJ. The drying of matooke takes place in three steps: the warm-up and the two falling rate periods. The drying rate constant for all processing parameters ranged from 5,793 kJ and effective diffusivity ranged from 1.5E-10 - 8.27E-10 m2/s. The activation energy (Ea) for matooke was 16.3kJ/mol (1,605 kJ/kg). Comparing the activation energy (Ea) with the net isosteric heat of sorption for desorption isotherm (qst) (1,297.62) at 0.1 (kg water/kg dry matter), indicated that Ea was higher than qst suggesting that moisture molecules travel in liquid form in matooke slices. The total color difference (ΔE*) between the fresh and dry samples, was lowest for effect of thickness of 7 mm, followed by air velocity of 6 m/s, and then drying air temperature at 70˚C. The drying system controlled by set surface product temperature, reduced the drying time by 50% compared to that of a drying system controlled by set air drying temperature. The processing parameters did not have a significant effect on physicochemical and quality attributes, suggesting that any drying air temperature can be used in the initial stages of drying as long as the product temperature does not exceed gelatinization temperature of matooke (72˚C). The optimum processing parameters for single-layer drying of matooke are: thickness = 3 mm, air temperatures 70˚C, dew point temperature 18˚C and air velocity 6 m/s overflow mode. From practical point of view it is recommended that for commercial processing of matooke, to employ multi-layer drying of loading capacity equal or less than 7 kg/m², thickness 3 mm, air temperatures 70˚C, dew point temperature 18˚C and air velocity 6 m/s overflow mode.
Resumo:
Die Unternehmensumwelt, mit der sich Kreditinstitute heutzutage konfrontiert sehen und mit der sie sich harmonisieren müssen, ist durch tiefgreifende Veränderungen und eine fortschreitende Dynamik gekennzeichnet. Mit den sog. Non- und Nearbanks sind neue Wettbewerber in den Markt eingetreten, und die Subprime-Finanzkrise aus dem Jahr 2008 hat zu einer tiefgreifenden Vertrauenskrise bei den Konsumenten geführt. Die Möglichkeiten der Kreditinstitute, sich diesen Herausforderungen zu stellen, sind durch die angebotene Generaltauschware Geld, den fehlenden gesetzlichen Innovationsschutz sowie vergleichbare Vertriebsformen und Marktauftritte eher begrenzt. Es stellt sich somit die Frage, wie sich Kreditinstitute künftig nachhaltig im Wettbewerb behaupten können. Die Lösung wird im Konsumgüterbereich gesehen: Zur Überwindung der vorherrschenden technischen Produkthomogenität werden Marken dort erfolgreich als Strategie eingesetzt, um sich vom Wettbewerb zu differenzieren, den Kunden gezielt anzusprechen und preisliche Spielräume zu generieren. Der vorliegenden Dissertation liegen somit zwei zentrale Hypothesen zugrunde: H1) Im Bankbereich bestehen vergleichbare Sättigungseffekte und eine hohe Angebotshomogenität wie im Konsumgüterbereich. H2) Die Adaption von Markenführungs-konzepten aus dem Konsumgüterbereich generiert einen positiven Beitrag zur Profilierung, Differenzierung und Vertrauensbildung von Kreditinstituten. In einem deskriptiv-konzeptionellen Ansatz werden zunächst konstituierende Merkmale und Funktionen einer Marke erarbeitet. Mit Hilfe einer interdisziplinären Metaanalyse wird anschließend ein integratives holistisches Markenverständnis geschaffen und erklärt, wie und warum Marken funktionieren. Dabei wird insbesondere die Rolle der Marke als „Invisible Hand“ im gesellschaftlichen System gewürdigt, die die Handlungen der Individuen beeinflusst und dabei in einem zirkulär-kausalen Prozess von der Gesellschaft bzw. Zielgruppe selbst konstituiert wird. Mit dem Versuch, das Markenphänomen mit Hilfe der evolutorischen Ökonomik zu erklären, wird ferner Neuland betreten. Im Weiteren werden theoretische Konzepte der Markenführung diskutiert und bewertet. Auf Basis dieses neu geschaffenen Fundaments werden im Hauptteil der Arbeit sowohl Markenstrategien aus dem Konsumgüterbereich als auch Instrumente zur operativen Implementierung der Markenstrategie in einem diskursiven Ansatz mittels erarbeiteter Plausibilitätskriterien eingehend auf ihre Übertragbarkeit auf Kreditinstitute hin analysiert und bewertet. Als Ergebnis der Arbeit wurden H1 vollumfänglich und H2 mit Einschränkungen bestätigt. Diese Einschränkungen ergeben sich hauptsächlich dadurch, dass durch die Synchronität von Leistungserstellung und Leistungsinanspruchnahme eine Abkoppelung der Marke vom Unter-nehmen kaum darstellbar ist. Mehrmarkenstrategien sowie spitze Positionierungen sind bei den vorherrschenden Universalinstituten somit quasi nicht umsetzbar. Weitere Limitierungen resultieren aus der Vertrauensempfindlichkeit der Bankleistung, die Einschränkungen bei Markendehnungen (Produktlinien- und Transferstrategien) zur Folge hat. Die operativen Markeninstrumente aus dem Konsumgüterbereich hingegen sind weitestgehend anwendbar. Auch bei dem Einsatz der Controllinginstrumente zur Steuerung der Markenführung werden keine Einschränkungen gesehen. In einem Ausblick wird abschließend gezeigt, dass sich die Wettbewerbsintensität der Kreditinstitute nicht entspannen wird, es werden eher Tendenzen ihrer weiteren Verschärfung ausgemacht.
Resumo:
Im Rahmen dieser Arbeit wird eine gemeinsame Optimierung der Hybrid-Betriebsstrategie und des Verhaltens des Verbrennungsmotors vorgestellt. Die Übernahme von den im Steuergerät verwendeten Funktionsmodulen in die Simulationsumgebung für Fahrzeuglängsdynamik stellt eine effiziente Applikationsmöglichkeit der Originalparametrierung dar. Gleichzeitig ist es notwendig, das Verhalten des Verbrennungsmotors derart nachzubilden, dass das stationäre und das dynamische Verhalten, inklusive aller relevanten Einflussmöglichkeiten, wiedergegeben werden kann. Das entwickelte Werkzeug zur Übertragung der in Ascet definierten Steurgerätefunktionen in die Simulink-Simulationsumgebung ermöglicht nicht nur die Simulation der relevanten Funktionsmodule, sondern es erfüllt auch weitere wichtige Eigenschaften. Eine erhöhte Flexibilität bezüglich der Daten- und Funktionsstandänderungen, sowie die Parametrierbarkeit der Funktionsmodule sind Verbesserungen die an dieser Stelle zu nennen sind. Bei der Modellierung des stationären Systemverhaltens des Verbrennungsmotors erfolgt der Einsatz von künstlichen neuronalen Netzen. Die Auswahl der optimalen Neuronenanzahl erfolgt durch die Betrachtung des SSE für die Trainings- und die Verifikationsdaten. Falls notwendig, wird zur Sicherstellung der angestrebten Modellqualität, das Interpolationsverhalten durch Hinzunahme von Gauß-Prozess-Modellen verbessert. Mit den Gauß-Prozess-Modellen werden hierbei zusätzliche Stützpunkte erzeugt und mit einer verminderten Priorität in die Modellierung eingebunden. Für die Modellierung des dynamischen Systemverhaltens werden lineare Übertragungsfunktionen verwendet. Bei der Minimierung der Abweichung zwischen dem Modellausgang und den Messergebnissen wird zusätzlich zum SSE das 2σ-Intervall der relativen Fehlerverteilung betrachtet. Die Implementierung der Steuergerätefunktionsmodule und der erstellten Steller-Sensor-Streckenmodelle in der Simulationsumgebung für Fahrzeuglängsdynamik führt zum Anstieg der Simulationszeit und einer Vergrößerung des Parameterraums. Das aus Regelungstechnik bekannte Verfahren der Gütevektoroptimierung trägt entscheidend zu einer systematischen Betrachtung und Optimierung der Zielgrößen bei. Das Ergebnis des Verfahrens ist durch das Optimum der Paretofront der einzelnen Entwurfsspezifikationen gekennzeichnet. Die steigenden Simulationszeiten benachteiligen Minimumsuchverfahren, die eine Vielzahl an Iterationen benötigen. Um die Verwendung einer Zufallsvariablen, die maßgeblich zur Steigerung der Iterationanzahl beiträgt, zu vermeiden und gleichzeitig eine Globalisierung der Suche im Parameterraum zu ermöglichen wird die entwickelte Methode DelaunaySearch eingesetzt. Im Gegensatz zu den bekannten Algorithmen, wie die Partikelschwarmoptimierung oder die evolutionären Algorithmen, setzt die neu entwickelte Methode bei der Suche nach dem Minimum einer Kostenfunktion auf eine systematische Analyse der durchgeführten Simulationsergebnisse. Mit Hilfe der bei der Analyse gewonnenen Informationen werden Bereiche mit den bestmöglichen Voraussetzungen für ein Minimum identifiziert. Somit verzichtet das iterative Verfahren bei der Bestimmung des nächsten Iterationsschrittes auf die Verwendung einer Zufallsvariable. Als Ergebnis der Berechnungen steht ein gut gewählter Startwert für eine lokale Optimierung zur Verfügung. Aufbauend auf der Simulation der Fahrzeuglängsdynamik, der Steuergerätefunktionen und der Steller-Sensor-Streckenmodelle in einer Simulationsumgebung wird die Hybrid-Betriebsstrategie gemeinsam mit der Steuerung des Verbrennungsmotors optimiert. Mit der Entwicklung und Implementierung einer neuen Funktion wird weiterhin die Verbindung zwischen der Betriebsstrategie und der Motorsteuerung erweitert. Die vorgestellten Werkzeuge ermöglichten hierbei nicht nur einen Test der neuen Funktionalitäten, sondern auch eine Abschätzung der Verbesserungspotentiale beim Verbrauch und Abgasemissionen. Insgesamt konnte eine effiziente Testumgebung für eine gemeinsame Optimierung der Betriebsstrategie und des Verbrennungsmotorverhaltens eines Hybridfahrzeugs realisiert werden.
Resumo:
Der täglich Wechsel von Hell- und Dunkelphasen führte während der Evolution zur Entwicklung innerer Uhren in nahezu allen Organismen. In der Schabe Rhyparobia maderae lokalisierten Läsions- und Transplantationsexperimente die innere Uhr in der akzessorischen Medulla (AME). Dieses kleine birnenförmige Neuropil am ventromedianen Rand der Medulla ist mit etwa 240 Neuronen assoziiert, die eine hohe Anzahl an zum Teil kolokalisierten Neuropeptiden und Neurotransmittern exprimieren. Diese Signalstoffe scheinen essentiell zu sein für die Synchronisation der inneren Uhr mit der Umwelt, der Kopplung der beiden bilateralen AME, der Aufrechterhaltung des circadianen Rhythmus sowie der zeitlichen Steuerung bestimmter Verhaltensweisen. Während die Funktion einiger dieser neuronalen Botenstoffe bereits gut untersucht ist, fehlt sie für andere. Zudem ist noch ungeklärt, wann einzelne Botenstoffe im circadianen Netzwerk agieren. Im Fokus dieser Studie lag daher die Erforschung der Funktion von SIFamide und Corazonin im circadianen Netzwerk sowie die weitere Untersuchung der Funktionen der Neuropeptide MIP und PDF. Es konnte gezeigt werden, dass SIFamide auch in R. maderae in vier großen neurosekretorischen Zellen in der pars intercerebralis exprimiert wird. Varikosenreiche SIFamide-immureaktive (-ir) Fasern innervieren eine Vielzahl an Neuropilen und finden sich auch in der Hüllregion der AME. Injektionsexperimente resultierten in einer monophasischen Phasen-Antwort-Kurve (PRC) mit einer Verzögerung zur frühen subjektiven Nacht. SIFamide ist also ein Eingangssignal für das circadiane Netzwerk und könnte in der Kontrolle der Schalf/Wach-Homöostase involviert sein. Auch Corazonin fungiert als Eingangssignal. Da die Injektionsexperimente in einer monophasischen PRC mit einem Phasenvorschub zur späten subjektiven Nacht resultierten, ist davon auszugehen, dass die Corazonin-ir AME-Zelle Bestandteil des Morning-Oszillator-Netzwerkes in R. maderae ist. Darüber hinaus zeigten Backfill-Experimente, dass MIP an der Kopplung beider AMAE beteiligt ist. ELISA-Quantifizierungen der PDF-Level im Tagesverlauf ergaben Schwankungen in der Konzentration, die auf eine Ausschüttung des Peptids während des Tages hindeuten – ähnlich wie es in Drosophila melanogaster der Fall ist. Dies spiegelt sich in der vervollständigten bimodalen PDF-PRC wieder. Hier führen Injektionen zu einem Phasenvorschub, bevor maximale Peptidlevel erreicht werden, sowie zu einer Phasenverzögerung, sobald die Peptidlevel wieder zu sinken beginnen. Die PRCs erlauben somit Rückschlüsse auf den Zeitpunkt der maximalen Peptidfreisetzung. PDF-ir Neuriten findet sich zudem in sämtlichen Ganglien des ventralen Strickleiternervensystems, was eine Funktion in der Kontrolle der Prozesse impliziert, die durch die Mustergeneratoren in Thorakal- und Abdominalganglien gesteuert werden.
Resumo:
Vor dem Hintergrund des sich seit einigen Jahren vollziehenden Formenwandels staatlicher Aufgabenerfüllung von imperativer zu nichtimperativer Steuerung greift die Arbeit den Aspekt der Steuerung durch Organisation im Bereich des Umweltschutzes und zwar in bezug auf Wirtschaftsunternehmen oder Betriebe auf. Um die Bedeutung der Organisation als Instrument des Umweltschutzes herauszustellen und die Anforderungen an die Gestaltung einer umweltschutzsichernden Betriebs- und Unternehmensorganisation aufzuzeigen, werden sowohl die seit längerem existierenden fragmentarischen Vorgaben des Umweltverwaltungsrechts sowie die Vorgaben moderner Sicherheits- und Umweltmanagementsysteme, wie sie die neue Störfallverordnung und die EMAS-Verordnung vorsehen, analysiert. Die Arbeit ist in drei Hauptteile gegliedert, in deren Verlauf zahlreiche Parallelen aber auch Unterschiede der zuvor untersuchten organisationsbezogenen Anforderungen aufgezeigt und daraus schrittweise Anforderungen an die Gestaltung einer umweltschutzsichernden Betriebs- und Unternehmensorganisation entwickelt werden. Der erste einführende Abschnitt legt die Zielsetzung der Arbeit dar, erläutert Begriff und Bedeutung des Untersuchungsgegenstandes und beleuchtet die zum Verständnis der Struktur und wesentlichen Merkmale von Managementsystemen notwendigen betriebswirtschaftlichen Grundlagen. Hieran fügt sich der zweite Abschnitt, der den Schwerpunkt der Arbeit bildet und der ausführlich die speziellen Anforderungen des Umweltverwaltungsrechts an die Organisation untersucht und sich insbesondere einer detaillierten Auslegung des Regelungsgehalts der EMAS-Verordnung und der Störfallverordnung annimmt. Dabei werden, dem Anspruch der Arbeit als praxisorientiertem Ansatz entsprechend - stets auch die Möglichkeiten der praktischen Umsetzung der gesetzlichen Vorgaben erörtert.Im Schlussteil werden die zuvor erarbeiteten Untersuchungsergebnisse zusammengeführt und ein organisatorischer Mindeststandard, wie er sich aus den verschiedenen rechtlichen Vorgaben herausdestillieren ließ, formuliert.
Resumo:
Die vorliegende Arbeit beschäftigt sich mit dem Transformationsprozess von Schulsystemen, den die ostdeutschen Länder mit dem Erlangen der deutschen Vereinigung bewältigen mussten am Beispiel der Mittelschule im Freistaat Sachsen. Dieser Prozess wird mit Fokus auf die Sekundarstufe I und darin insbesondere auf die Mittelschule als „neue Schulform“ nachge-zeichnet und analysiert. Die skizzierten Entwicklungslinien werden aufgegriffen und am Beispiel dieses konkreten bildungspolitischen Vorhabens, des Aufbaus einer neuen Schulform und eines zweigliedrigen Schulsystems, vor dem Hintergrund der widersprüchlichen Aufgabe, ein Schulsystem zu reformieren und dabei weder Ausgangspunkt noch Ziel der Reform genau bestimmen zu können, diskutiert und in ihrer Wirkung bewertet. Dabei werden die Bedeutung der Einzelschule bei der Transformation des Schulsystems herausgearbeitet, die Wirkung von Modellversuchsergebnissen für die weitere Gestaltung des Schulsystems kritisch untersucht und schließlich danach gefragt, welche Form von Steuerung einzelne Schulen brauchen, um sich ansprechend der sich verschärfenden Anforderung an Bildung optimal entwickeln zu können und welche Art der bildungspolitischen Steuerung des Gesamtsystems erforderlich ist, um Qualitätssicherung und Qualitätsentwicklung im Kontext der internationalen Leistungsvergleichsstudien zu realisieren. Die Analysen des Transformationsprozesses stehen unter dem Einfluss der Ergebnisse der ersten PISA-Studie und der sich daran anschließenden bildungspolitischen Diskussionen über die Qualität von Schule in Deutschland im internationalen Vergleich. Damit wird die Perspektive über den Einigungsprozess hinaus geöffnet und an bestehende Forschungsergebnisse angeknüpft, wonach sich der deutsch-deutsche Einigungsprozess hinsichtlich der mit ihm vollzogenen Öffnung in der Gestaltung der Schulverhältnisse als ein Probestück der Bundesrepublik für den europäischen Einigungsprozess verstehen lässt und sich in diesem Sinne auch bewährt hat. Mit den Debatten um Bildung und vor allem um Qualität von Bildung in der Folge der länderübergreifenden Vergleichsstudien zeigt sich aber, dass die Themen auf der bildungspolitischen Agenda raschen Veränderungen unterworfen sind. Im Lichte dieser gesellschaftlichen Debatte um die Qualität und die Steuerung von Bildung werden abschließend die Herausforderungen für die Schulforschung vor dem Hintergrund globalisierter Leistungsanforderungen und erweiterter Selbstverantwortung der Einzelschulen skizziert.
Resumo:
Ansatz zur Generierung einer konditionalen, reversiblen Wt1 k.o.-Maus Der Wilms-Tumor (WT, Nephroblastom) ist ein embryonaler Nierentumor, der durch die maligne Transformation von undifferenziertem Nierengewebe, sog. nephrogenen Resten, entsteht. WT treten mit einer Inzidenz von 1 in 10.000 Lebendgeburten auf. Das Hauptmanifestationsalter, der normalerweise einseitig und sporadisch auftretenden Tumore, liegt zwischen dem 3. und 4. Lebensjahr. Etwa 10 % der Patienten entwickeln jedoch bilaterale Tumore. In diesen Fällen ist eine Assoziation mit komplexen genetischen Krankheitsbildern (u. a. WAGR-, Denys-Drash-, Frasier- und Beckwith-Wiedemann-Syndrom) festzustellen. In 15 % der sporadischen WT sind Mutationen im WT1 (Wilms-Tumor 1)-Gen beschrieben. WT1 besteht aus zehn Exons und weist typische Merkmale von Transkriptionsfaktoren (z. B. vier Zinkfinger) auf. Zwei alternative Spleißereignisse betreffen Exon 5 (+/−Exon 5) und Exon 9 (Transkripte mit bzw. ohne die codierenden Sequenzen für die AS Lysin-Threonin-Serin; +/−KTS). Die Lage der drei alternativ vorhandenen AS zwischen den Zinkfingern 3 und 4 bestimmt die verschiedenen Funktionen der WT1-Proteine (4 Isoformen) als Transkriptionsfaktor (−KTS) bzw. als RNA-bindendes Protein (+KTS). Das zunächst im Zusammenhang mit WT als Tumorsuppressorgen identifizierte WT1 ist ein Entwicklungsgen mit einem sehr komplexen Expressionsmuster in der Embryonalentwicklung. Dabei ist v. a. die Bedeutung in der Urogenitalentwicklung entscheidend. Konstitutive, homozygote Wt1−/− k.o.-Mäuse sind embryonal (~ E12,5 dpc) letal und bilden u. a. keine Gonaden und keine Nieren. Aus diesem Grund existiert bisher kein Wilms-Tumormodell. Die Herstellung eines konditionalen murinen Tiermodells auf Basis des Tet on/off-Systems zur Untersuchung der Nierenentwicklung bzw. zur Analyse der Wilms-Tumorpathogenese war Ziel dieser Arbeit. Hierfür wurden drei Mauslinien generiert: Zwei transgene sog. Responder-Linien, die eine chimäre spleißbare Wt1-cDNA der Variante musWt1+Exon 5;+/−KTS unter der Kontrolle eines Tet-responsiven Promotors im Genom tragen. Dieses tTA/Dox-abhängig regulierbare Wt1-Transgen (tgWt1) sollte (exogen regulierbar) die Expression des endogenen Wt1-Lokus ausreichend nachahmen, um die kritischen Phasen der Embryogenese zu überwinden und lebensfähige Tiere zu erhalten. Parallel dazu wurde die Wt1-Effektor-Mauslinie (WE2) generiert. Diese trägt einen tetrazyklinabhängigen Transaktivator (tTA) zur Steuerung Tet-regulierbarer Transgene unter der Kontrolle des endogenen Wt1-Promotors. Die durch homologe Rekombination in ES-Zellen erreichte Integration des tTA direkt am Translationsstartpunkt des Wt1-Lokus hat in den Tieren einen heterozygoten Wt1 knock out/tTA knock in zur Folge. Die bisher vorgenommenen Verpaarungen doppelt transgener Wt1-tTA+/−/Resp-Mäuse ergaben keinen Rescue des letalen Wt1 k.o. und es konnten bislang keine Wilms-Tumore induziert werden. Alle im Verlauf der Arbeit generierten Mauslinien wurden umfassend charakterisiert. So konnte für die Tiere der Responder-Linien Wt1-Resp1 (mit zusätzlichen Isolator-Sequenzen zum Schutz des Transgens vor Positionseffekten) und Wt1-Resp2 (ohne Isolatoren) konnte die Tet-induzierbare Expression und die Spleißbarkeit des tgWt1 in MEF-Assays und mittels Effektor-Mäusen auf RNA-Ebene nachgewiesen werden. Die genomische Charakterisierung der WE2-Linie ergab eine ungeklärte etwa 120 kb große Inversion am Wt1-Lokus, die alle 5'-regulatorischen Sequenzen mitsamt des tTA vom Rest von Wt1 trennt. Tiere dieser Linie weisen aber dennoch einen funktionalen Wt1 k.o. auf: Unter den Nachkommen aus Intercross-Verpaarungen von Wt1-tTA+/−-Mäusen lassen sich auf Grund der Letalität keine Wt1−/−-Genotypen nachweisen. Die Charakterisierung der Effektor-Linie auf RNA-Ebene und mittels Reporter-Mäusen liefert ein Wt1-analoges tTA-Expressionsmuster: So findet man eine deutliche tTA-Expression u. a. in Niere (Glomeruli), Uterus, Ovar und Testis. Die hier vorgestellten Experimente ergeben darüber hinaus eindeutige Hinweise einer Beteiligung von Wt1 in der Entstehung der glatten Muskulatur bzw. in der Vaskulogenese.
Resumo:
Mit etwa 350 Millionen chronisch-infizierten Menschen gehört die Hepatitis-B neben der Tuberkulose und AIDS zu den häufigsten Infektionskrankheiten der Welt. Der einzig sichere Schutz vor dem bis zur Leberzirrhose persistierenden Virus bietet eine vorbeugende Impfung. Eine angemessene Therapie chronisch-erkrankter Patienten ist durch die Unkenntnis über viele Bereiche des HBV-Lebenszyklus nur eingeschränkt möglich. Gegenstand dieser Arbeit war vor allem etwas Licht in das Wechselspiel zwischen HBV und der Wirtszelle zu bringen und zelluläre Komponenten und Mechanismen zu identifizieren, die am Sortierungs- und Transportmechanismus viraler Substrukturen zur sogenannten Assembly-Plattform beteiligt sind, um dort die Freisetzung des Virus zu initiieren. Mit der vorliegenden Arbeit habe ich Methoden der Zellbiologie, Mikrobiologie, Molekularbiologie und Virologie vereint, um neue Einblicke in den HBV-Lebenszyklus zu gewinnen. Für die Ausschleusung von HBV wird seither der konstitutive Weg der Sekretion angenommen. In Anlehnung an den Mechanismus umhüllter RNA-Viren kann die Hypothese aufgestellt werden, dass das MVB (Multivesicular Body) im Prozess der HBV-Freisetzung beteiligt sein könnte. Die Freisetzung des Hepatitis-B-Virus aus einer infizierten Zelle ist ein streng organisierter Prozess, der sowohl das HBV-Coreprotein als auch die HBV-Hüllproteine zu benötigen scheint. (max. 5.000 Zeichen)Inhaltszusammenfassung in einer weiteren Sprache deutschenglischfranzösischrussischmehrsprachigsonst.Ausgangspunkt der Arbeit war eine spezifische Interaktion des großen HBV-Hüllproteins (L) mit einem neuen Mitglied der Adaptor-Protein-Komplex-Familie (AP-Komplex), dem g2?Adaptin (Hartmann-Stühler und Prange, 2001), das mutmaßlich an endosomalen Sortierungs- und Transportprozessen beteiligt ist. In Analogie zur Funktionsweise von Adaptin-Molekülen wurde vom g2-Adaptin eine Rolle in der Initiation und Steuerung der Sprossung und Freisetzung von HBV vermutet. Die im Rahmen dieser Arbeit erweiterte Charakterisierung der g2/L-Interaktion zeigte zum einen, dass die Ohrdomäne des Adaptins für die Interaktion essentiell ist und zum anderen, dass die Rekrutierung des Adaptins durch das L-Protein zu cis-Golgi-Strukturen innerhalb kleiner Transportvesikel entlang des Nukleus (perinukleär) erfolgt. Erste Ergebnisse dieser Arbeit deuteten bereits an, dass das virale Coreprotein mit demselben Adaptorprotein zu interagieren vermag. Für die g2/Core-Interaktion erwies sich in Folgearbeiten die Kopfregion des g2-Adaptins als die entscheidende Bindungsdomäne (Rost et al., 2006). Sowohl eine funktionelle Inaktivierung des g2-Adaptins durch RNA-Interferenz als auch eine g2-Adaptin- Überexpression störten die Virusmontage in späten Phasen der Morphogenese. Während ein g2-Adaptin-Überschuss die HBV-Produktion indirekt durch die Induktion dysfunktioneller endosomaler Kompartimente blockierte, verhinderte der siRNA-induzierte g2-Adaptin-Verlust die späte Ausschleusung des Virus aus der Zelle. Das Silencing von g2-Adaptin zeigte dabei weder einen Einfluss auf endosomale Strukturen noch auf die Freisetzung subviraler Partikel (Viren ohne Genom). Demzufolge scheinen sich die Mechanismen der Produktion von subviralen und viralen HBV-Partikeln bezüglich ihrer Anforderungen an Zellfunktionen und Transportwegen deutlich voneinander zu unterscheiden. Es konnten erste Hinweise darauf gefunden werden, dass die Virusmontage an endosomalen Kompartimenten (zum Beispiel dem MVB) erfolgen könnte, was durch bereits weitergeführte Untersuchungen bestätigt werden konnte (Lambert et al., J Virol, epub ahead of print). Darüber hinaus ist inzwischen bekannt, dass das Hepatitis-B-Virus für den Zusammenbau und die Freisetzung nicht nur das Adaptor-verwandte g2-Adaptin, sondern auch die endosomale Ubiquitin Ligase Nedd4, wahrscheinlich in Zusammenhang mit Ubiquitin selbst (Rost et al., 2006), benötigt. Eine Untersuchung dieser weiterführenden Aspekte war jedoch nicht mehr Inhalt dieser Arbeit. Insgesamt weisen die Daten darauf hin, dass die Sortierung und der Transport der Substrukturen des Hepatitis-B-Virus durch den MVB-Komplex zu erfolgen scheint. Dabei könnte das g2-Adaptin mit Hilfe einer Reihe von Kofaktoren (wie zum Beispiel Nedd4, Ubiquitin, etc.) eine entscheidende Rolle an der Sortierung und Anbindung des viralen L- und Coreproteins an die Assembly-Plattform spielen. Doch der genaue Mechanismus, welcher große Ähnlichkeit mit dem umhüllter RNA-Viren (wie zum Beispiel HIV-1) aufweist, bleibt noch ungeklärt. Ob weitere zelluläre Kofaktoren an der HBV-Sprossung und Freisetzung beteiligt sind, bleibt ebenfalls unbekannt und bedarf weiterer Untersuchungen.
Resumo:
Research on thin nanostructured crystalline TiO2 films has attracted considerable interests because of their intriguing physical properties and potential applications in photovoltaics. Nanostructured TiO2 film plays an important role in the TiO2 based dye-sensitized solar cells because they act as a substrate for the adsorption of dye molecules and a matrix for the transportation of electrons as well. Thus they can influence the solar cell performance significantly. Consequently, the control of the morphology including the shape, size and size distribution of the TiO2 nanostructures is critical to tune and optimize the performance of the solar cells. To control the TiO2 morphology, a strategy using amphiphilic block copolymer as templating agent coupled with sol-gel chemistry has been applied. Especially, a good-poor solvent pair induced phase separation process has been developed to guide the microphase separation behavior of the block copolymers. The amphiphilic block copolymers used include polystyrene-block-poly (ethylene oxide) (PS-b-PEO), poly (methyl methacrylate)-block-poly (ethylene oxide) (PMMA-b-PEO), and poly (ethylene oxide)-block-polystyrene-block-poly (ethylene oxide) (PEO-b-PS-b-PEO). The block copolymer undergoes a good-poor-solvent pair induced phase separation in a mixed solution of 1, 4-dioxane or N, N’-dimethyl formamide (DMF), concentrated hydrochloric acid (HCl) and Titanium tetraisopropoxide (TTIP). Specifically, in the system of PS-b-PEO, a morphology phase diagram of the inorganic-copolymer composite films was mapped by adjusting the weight fractions among 1, 4-dioxane, HCl, and TTIP in solution. The amorphous TiO2 within the titania-block copolymer composite films was crystallized by calcination at temperatures above 400C, where the organic block copolymer was simultaneously burned away. This strategy is further extended to other amphiphilic block copolymers of PMMA-b-PEO and PEO-b-PS-b-PEO, where the morphology of TiO2 films can also be controlled. The local and long range structures of the titania films were investigated by the combination of imaging techniques (AFM, SEM) and x-ray scattering techniques (x-ray reflectivity and grazing incidence small-angle x-ray scattering). Based on the knowledge of the morphology control, the crystalline TiO2 nanostructured films with different morphologies were introduced into solid state dye-sensitized solar cells. It has been found that all of the morphologies help to improve the performance of the solar cells. Especially, clustered nanoparticles, worm-like structures, foam-like structures, large collapsed nanovesicles show more pronounced performance improvement than other morphologies such as nanowires, flakes, and nanogranulars.
Resumo:
Die Arbeit behandelt das Problem der Skalierbarkeit von Reinforcement Lernen auf hochdimensionale und komplexe Aufgabenstellungen. Unter Reinforcement Lernen versteht man dabei eine auf approximativem Dynamischen Programmieren basierende Klasse von Lernverfahren, die speziell Anwendung in der Künstlichen Intelligenz findet und zur autonomen Steuerung simulierter Agenten oder realer Hardwareroboter in dynamischen und unwägbaren Umwelten genutzt werden kann. Dazu wird mittels Regression aus Stichproben eine Funktion bestimmt, die die Lösung einer "Optimalitätsgleichung" (Bellman) ist und aus der sich näherungsweise optimale Entscheidungen ableiten lassen. Eine große Hürde stellt dabei die Dimensionalität des Zustandsraums dar, die häufig hoch und daher traditionellen gitterbasierten Approximationsverfahren wenig zugänglich ist. Das Ziel dieser Arbeit ist es, Reinforcement Lernen durch nichtparametrisierte Funktionsapproximation (genauer, Regularisierungsnetze) auf -- im Prinzip beliebig -- hochdimensionale Probleme anwendbar zu machen. Regularisierungsnetze sind eine Verallgemeinerung von gewöhnlichen Basisfunktionsnetzen, die die gesuchte Lösung durch die Daten parametrisieren, wodurch die explizite Wahl von Knoten/Basisfunktionen entfällt und so bei hochdimensionalen Eingaben der "Fluch der Dimension" umgangen werden kann. Gleichzeitig sind Regularisierungsnetze aber auch lineare Approximatoren, die technisch einfach handhabbar sind und für die die bestehenden Konvergenzaussagen von Reinforcement Lernen Gültigkeit behalten (anders als etwa bei Feed-Forward Neuronalen Netzen). Allen diesen theoretischen Vorteilen gegenüber steht allerdings ein sehr praktisches Problem: der Rechenaufwand bei der Verwendung von Regularisierungsnetzen skaliert von Natur aus wie O(n**3), wobei n die Anzahl der Daten ist. Das ist besonders deswegen problematisch, weil bei Reinforcement Lernen der Lernprozeß online erfolgt -- die Stichproben werden von einem Agenten/Roboter erzeugt, während er mit der Umwelt interagiert. Anpassungen an der Lösung müssen daher sofort und mit wenig Rechenaufwand vorgenommen werden. Der Beitrag dieser Arbeit gliedert sich daher in zwei Teile: Im ersten Teil der Arbeit formulieren wir für Regularisierungsnetze einen effizienten Lernalgorithmus zum Lösen allgemeiner Regressionsaufgaben, der speziell auf die Anforderungen von Online-Lernen zugeschnitten ist. Unser Ansatz basiert auf der Vorgehensweise von Recursive Least-Squares, kann aber mit konstantem Zeitaufwand nicht nur neue Daten sondern auch neue Basisfunktionen in das bestehende Modell einfügen. Ermöglicht wird das durch die "Subset of Regressors" Approximation, wodurch der Kern durch eine stark reduzierte Auswahl von Trainingsdaten approximiert wird, und einer gierigen Auswahlwahlprozedur, die diese Basiselemente direkt aus dem Datenstrom zur Laufzeit selektiert. Im zweiten Teil übertragen wir diesen Algorithmus auf approximative Politik-Evaluation mittels Least-Squares basiertem Temporal-Difference Lernen, und integrieren diesen Baustein in ein Gesamtsystem zum autonomen Lernen von optimalem Verhalten. Insgesamt entwickeln wir ein in hohem Maße dateneffizientes Verfahren, das insbesondere für Lernprobleme aus der Robotik mit kontinuierlichen und hochdimensionalen Zustandsräumen sowie stochastischen Zustandsübergängen geeignet ist. Dabei sind wir nicht auf ein Modell der Umwelt angewiesen, arbeiten weitestgehend unabhängig von der Dimension des Zustandsraums, erzielen Konvergenz bereits mit relativ wenigen Agent-Umwelt Interaktionen, und können dank des effizienten Online-Algorithmus auch im Kontext zeitkritischer Echtzeitanwendungen operieren. Wir demonstrieren die Leistungsfähigkeit unseres Ansatzes anhand von zwei realistischen und komplexen Anwendungsbeispielen: dem Problem RoboCup-Keepaway, sowie der Steuerung eines (simulierten) Oktopus-Tentakels.