978 resultados para performative Arbeit
Resumo:
Weltweit leben mehr als 2 Milliarden Menschen in ländlichen Gebieten. Als Konzept für die elektrische Energieversorgung solcher Gebiete kommen dezentrale elektrische Energieversorgungseinheiten zum Einsatz, die lokal verfügbare erneuerbare Ressourcen nutzen. Stand der Technik bilden Einheiten, die auf PV-Diesel-Batterie System basieren. Die verwendeten Versorgungsskonzepte in Hybridsystemen sind durch den Einsatz von Batterien als Energiespeicher meist wenig zuverlässig und teuer. Diese Energiespeicher sind sehr aufwendig zu überwachen und schwerig zu entsorgen. Den Schwerpunkt dieser Arbeit bildet die Entwicklung eines neuen Hybridsystems mit einem Wasserreservoir als Energiespeicher. Dieses Konzept eignet sich für Bergregionen in Entwicklungsländern wie Nepal, wo z.B. neben der solaren Strahlung kleine Flüsse in großer Anzahl vorhanden sind. Das Hybridsystem verfügt über einen Synchrongenerator, der die Netzgrößen Frequenz und Spannung vorgibt und zusätzlich unterstützen PV und Windkraftanlage die Versorgung. Die Wasserkraftanlage soll den Anteil der erneuerbaren Energienutzung erhöhen. Die Erweiterung des Systems um ein Dieselaggregat soll die Zuverlässigkeit der Versorgung erhöhen. Das Hybridsystem inkl. der Batterien wird modelliert und simuliert. Anschließend werden die Simulations- und Messergebnisse verglichen, um eine Validierung des Modells zu erreichen. Die Regelungsstruktur ist aufgrund der hohen Anzahl an Systemen und Parametern sehr komplex. Sie wird mit dem Simulationstool Matlab/Simulink nachgebildet. Das Verhalten des Gesamtsystems wird unter verschiedene Lasten und unterschiedlichen meteorologischen Gegebenheiten untersucht. Ein weiterer Schwerpunkt dieser Arbeit ist die Entwicklung einer modularen Energiemanagementeinheit, die auf Basis der erneuerbaren Energieversorgung aufgebaut wird. Dabei stellt die Netzfrequenz eine wichtige Eingangsgröße für die Regelung dar. Sie gibt über die Wirkleistungsstatik die Leistungsänderung im Netz wider. Über diese Angabe und die meteorologischen Daten kann eine optimale wirtschaftliche Aufteilung der Energieversorgung berechnet und eine zuverlässige Versorgung gewährleistet werden. Abschließend wurde die entwickelte Energiemanagementeinheit hardwaretechnisch aufgebaut, sowie Sensoren, Anzeige- und Eingabeeinheit in die Hardware integriert. Die Algorithmen werden in einer höheren Programmiersprache umgesetzt. Die Simulationen unter verschiedenen meteorologischen und netztechnischen Gegebenheiten mit dem entwickelten Model eines Hybridsystems für die elektrische Energieversorgung haben gezeigt, dass das verwendete Konzept mit einem Wasserreservoir als Energiespeicher ökologisch und ökonomisch eine geeignete Lösung für Entwicklungsländer sein kann. Die hardwaretechnische Umsetzung des entwickelten Modells einer Energiemanagementeinheit hat seine sichere Funktion bei der praktischen Anwendung in einem Hybridsystem bestätigen können.
Resumo:
Gewindebohren ist ein spanabhebendes Innengewinde-Fertigungsverfahren. Der Prozess des Gewindebohrens ist technologisch hoch anspruchsvoll, da der Span zwischen Bauteil und Werkzeug entgegen der Vorschubrichtung abgeführt werden muss. Die Bearbeitung von schwer zerspanbaren Werkstoffen führt zu steigenden Anforderungen an den Gewindebohrer, insbesondere an dessen Schneidkanten. Diese Arbeit beschreibt die technologischen und werkzeugspezifischen Belastungszustände unterschiedlicher Gewindebohrer, die bei der Bearbeitung der Werkstoffe γ-Titanaluminid, 42CrMo4 (höher vergütet) und GJV-400 auftreten. Die Ermittlung der Schneidkantenbelastung erfolgt methodisch anhand von konventionellen Zerspanungsversuchen, FEM-Analysen, Analogie-Experimenten sowie einer 3D-CAD-Parameterstudie. Die unterschiedlichen Ergebnisse fließen in eine leistungssteigernde Werkzeugmodifikation ein, die zu einer Erhöhung der Standzeit führt.
Resumo:
The presented thesis considered three different system approach topics to ensure yield and plant health in organically grown potatoes and tomatoes. The first topic describes interactions between late blight (Phytophthora infestans) incidence and soil nitrogen supply on yield in organic potato farming focussing in detail on the yield loss relationship of late blight based on results of several field trials. The interactive effects of soil N-supply, climatic conditions and late blight on the yield were studied in the presence and absence of copper fungicides from 2002-2004 for the potato cultivar Nicola. Under conditions of central Germany the use of copper significantly reduced late blight in almost all cases (15-30 %). However, the reductions in disease through copper application did not result in statistically significant yield increases (+0 – +10 %). Subsequently, only 30 % of the variation in yield could be attributed to disease reductions. A multiple regression model (R²Max), however, including disease reduction, growth duration and temperature sum from planting until 60 % disease severity was reached and soil mineral N contents 10 days after emergence could explain 75 % of the observed variations in yield. The second topic describes the effect of some selected organic fertilisers and biostimulant products on nitrogen-mineralization and efficiency, yield and diseases in organic potato and tomato trials. The organic fertilisers Biofeed Basis (BFB, plant derived, AgroBioProducts, Wageningen, Netherlands) and BioIlsa 12,5 Export (physically hydrolysed leather shavings, hair and skin of animals; ILSA, Arizignano, Italy) and two biostimulant products BioFeed Quality (BFQ, multi-compound seaweed extract, AgroBioProducts) and AUSMA (aqueous pine and spruce needle extract, A/S BIOLAT, Latvia), were tested. Both fertilisers supplied considerable amounts of nitrogen during the main uptake phases of the crops and reached yields as high or higher as compared to the control with horn meal fertilisation. The N-efficiency of the tested fertilisers in potatoes ranged from 90 to 159 kg yield*kg-1 N – input. Most effective with tomatoes were the combined treatments of fertiliser BFB and the biostimulants AUSMA and BFQ. Both biostimulants significantly increased the share of healthy fruit and/or the number of fruits. BFQ significantly increased potato yields (+6 %) in one out of two years and reduced R. solani-infestation in the potatoes. This suggests that the biostimulants had effects on plant metabolism and resistance properties. However, no effects of biostimulants on potato late blight could be observed in the fields. The third topic focused on the effect of suppressive composts and seed tuber health on the saprophytic pathogen Rhizoctonia solani in organic potato systems. In the present study 5t ha-1 DM of a yard and bio-waste (60/40) compost produced in a 5 month composting process and a 15 month old 100 % yard waste compost were used to assess the effects on potato infection with R. solani when applying composts within the limits allowed. Across the differences in initial seed tuber infestation and 12 cultivars 5t DM ha-1 of high quality composts, applied in the seed tuber area, reduced the infestation of harvested potatoes with black scurf, tuber malformations and dry core tubers by 20 to 84 %, 20 to 49 % and 38 to 54 %, respectively, while marketable yields were increased by 5 to 25 % due to lower rates of wastes after sorting (marketable yield is gross yield minus malformed tubers, tubers with dry core, tubers with black scurf > 15% infested skin). The rate of initial black scurf infection of the seed tubers also affected tuber number, health and quality significantly. Compared to healthy seed tubers initial black scurf sclerotia infestation of 2-5 and >10 % of tuber surface led in untreated plots to a decrease in marketable yields by 14-19 and 44-66 %, a increase of black scurf severity by 8-40 and 34-86 % and also increased the amount of malformed and dry core tubers by 32-57 and 109-214 %.
Resumo:
The oil price rises more and more, and the world energy consumption is projected to expand by 50 percent from 2005 to 2030. Nowadays intensive research is focused on the development of alternative energies. Among them, there are dye-sensitized nanocrystalline solar cells (DSSCs) “the third generation solar cells”. The latter have gained attention during the last decade and are currently subject of intense research in the framework of renewable energies as a low-cost photovoltaic. At present DSSCs with ruthenium based dyes exhibit highest efficiencies (ca 11%). The objective of the present work is to fabricate, characterize and improve the performance of DSSCs based on metal free dyes as sensitizers, especially on perylene derivatives. The work begins by a general introduction to the photovoltaics and dye-sensitized solar cells, such as the operating principles and the characteristics of the DSSCs. Chapter 2 and 3 discuss the state of the art of sensitizers used in DSSCs, present the compounds used as sensitizer in the present work and illustrate practical issues of experimental techniques and device preparation. A comparative study of electrolyte-DSSCs based on P1, P4, P7, P8, P9, and P10 are presented in chapter 4. Experimental results show that the dye structure plays a crucial role in the performance of the devices. The dye based on the spiro-concept (bipolar spiro compound) exhibited a higher efficiency than the non-spiro compounds. The presence of tert-butylpyridine as additive in the electrolyte was found to increase the open circuit voltage and simultaneously decrease the efficiency. The presence of lithium ions in the electrolyte increases both output current and the efficiency. The sensitivity of the dye to cations contained in the electrolyte was investigated in the chapter 5. FT-IR and UV-Vis were used to investigate the in-situ coordination of the cation to the adsorbed dye in the working devices. The open-circuit voltage was found to depend on the number of coordination sites in the dye. P1 with most coordination sites has shown the lowest potential drop, opposite to P7, which is less sensitive to cations in the working cells. A strategy to improve the dye adsorption onto the TiO2 surface, and thus the light harvesting efficiency of the photoanode by UV treatment, is presented in chapter 6. The treatment of the TiO2 film with UV light generates hydroxyl groups and renders the TiO2 surface more and more hydrophilic. The treated TiO2 surface reacts readily with the acid anhydride group of the dye that acts as an anchoring group and improves the dye adsorption. The short-circuit current density and the efficiency of the electrolyte-based dye cells was considerably improved by the UV treatment of the TiO2 film. Solid-state dye-sensitized solar cells (SSDs) based on spiro-MeOTAD (used as hole transport material) are studied in chapter 7. The efficiency of SSDs was globally found to be lower than that of electrolyte-based solar cells. That was due to poor pore filling of the dye-loaded TiO2 film by the spin-coated spiro-MeOTAD and to the significantly slower charge transport in the spiro-MeOTAD compared to the electrolyte redox mediator. However, the presence of the donor moieties in P1 that are structurally similar to spiro-MeOTAD was found to improve the wettability of the P1-loaded TiO2 film. As a consequence the performance of the P1-based solid-state cells is better compared to the cells based on non-spiro compounds.
Resumo:
Zusammenfassung - Der sekundäre Botenstoff zyklisches Adenosinmonophosphat (cAMP) reguliert viele fundamentale zelluläre Prozesse wie Zellproliferation, Differenzierung, Energiemetabolismus und Genexpression. In eukaryotischen Zellen vermittelt die cAMP-abhängige Proteinkinase (PKA) die meisten biologischen Funktionen von cAMP. Die PKA besteht aus jeweils zwei regulatorischen (R) und katalytischen (C) Untereinheiten, die zusammen einen inaktiven Holoenzymkomplex bilden, der durch cAMP aktiviert wird. In dieser Arbeit wurde die Bindung von cAMP und cAMP-Analoga an die R Untereinheit der PKA unter funktionellen und mechanistischen Aspekten untersucht. Eine neue, auf Fluoreszenzpolarisation basierende Methode wurde entwickelt, um die Affinität von cAMP-Analoga in einem homogenen Ansatz schnell, reproduzierbar und nicht radioaktiv zu quantifizieren. Zur detaillierten Untersuchung des Bindungsmechanismus von cAMP und cAMP Analoga (Agonisten und Antagonisten) wurden thermodynamische Studien im direkten Vergleich mittels isothermaler Titrationskalorimetrie und kinetischen Analysen (Oberflächenplasmonresonanz, SPR) durchgeführt, wodurch thermodynamische Signaturen für das Bindungsverhalten der Nukleotide an die R Untereinheit der PKA erhalten werden konnten. Durch Interaktionsstudien an mutagenisierten R Untereinheiten wurde der intramolekulare Aktivierungsmechanismus der PKA in Bezug auf cAMP-Bindung, Holoenzymkomplex-Formierung und -Aktivierung untersucht. Die dabei erhaltenen Ergebnisse wurden mit zwei Modellen der cAMP-induzierten Konformationsänderung verglichen, und ein Aktivierungsmechanismus postuliert, der auf konservierten hydrophoben Aminosäuren basiert. Für in vivo Untersuchungen wurden zusammen mit Kooperationspartnern membranpermeable, fluoreszierende cAMP Analoga entwickelt, die Einblicke in die Dynamik der cAMP-Verteilung in Zellen erlauben. Neu entwickelte, Festphasen gebundene cAMP-Analoga (Agonisten und Antagonisten) wurden in einem (sub)proteomischen Ansatz dazu genutzt, natürliche Komplexe der R Untereinheit und des PKA-Holoenzyms aus Zelllysaten zu isolieren und zu identifizieren. Diese Untersuchungen fließen letztlich in einem systembiologischen Ansatz zusammen, der neue Einblicke in die vielschichtigen cAMP gesteuerten Netzwerke und Regulationsprozesse erlaubt.
Resumo:
In dieser Arbeit wird ein modulares Agentensystem entworfen und auf einer marktüblichen PC-basierten SPS-Steuerung implementiert, welches in der Lage ist, den logistischen Anlagenteil eines Hybriden Prozessmodells abhängig von einem dynamischen Energiepreis zu steuern. Dies wird durch die Rekonfiguration und energetische Optimierung der Funktionen einzelner Module auf Grundlage eines Umweltmodells durch Softwareagenten erreicht. Dieses Umweltmodell wird zunächst in verschiedenen Diagrammen der objektorientierten Modellierungssprachen UML und SysML modelliert. Hierfür werden im Rahmen dieser Arbeit dazu notwendige Erweiterungen des Timing-Diagramms der UML entworfen. Das Agentensystem wird mit der Methode Gaia entworfen. Durch das in dieser Methode enthaltene Rollenkonzept werden Möglichkeiten zur Wiederverwendung von Teilen des Entwurfs auch innerhalb von anderen Arbeiten ermöglicht. Die Echtzeitanforderungen, welche sich an die Steuerungssoftware des logistischen Prozesses ergeben, können bei dem Entwurf durch Gaia modelliert werden. Das im Vorgehen nach Gaia enthaltene Bekanntschaftsmodell wird um die Darstellung weiterer wichtiger Informationen erweitert.
Resumo:
Dieser populärwissenschaftliche Übersichtsartikel beschreibt eine Auswahl von Biomolekularen Interaktionsanalysen und ihre Anwendung in der funktionellen Proteomforschung. Die verschiedenen Meßprinzipien sowie die generierten Daten und deren Aussagekraft werden kurz und prägnant vorgestellt.
Resumo:
Die vorliegende Arbeit befasst sich mit den Fehlern, die bei der Berechnung von Tragstrukturen auftreten können, dem Diskretisierungs- und dem Modellfehler. Ein zentrales Werkzeug für die Betrachtung des lokalen Fehlers in einer FE-Berechnung sind die Greenschen Funktionen, die auch in anderen Bereichen der Statik, wie man zeigen kann, eine tragende Rolle spielen. Um den richtigen Einsatz der Greenschen Funktion mit der FE-Technik sicherzustellen, werden deren Eigenschaften und die konsistente Generierung aufgezeigt. Mit dem vorgestellten Verfahren, der Lagrange-Methode, wird es möglich auch für nichtlineare Probleme eine Greensche Funktion zu ermitteln. Eine logische Konsequenz aus diesen Betrachtungen ist die Verbesserung der Einflussfunktion durch Verwendung von Grundlösungen. Die Greensche Funktion wird dabei in die Grundlösung und einen regulären Anteil, welcher mittels FE-Technik bestimmt wird, aufgespalten. Mit dieser Methode, hier angewandt auf die Kirchhoff-Platte, erhält man deutlich genauere Ergebnisse als mit der FE-Methode bei einem vergleichbaren Rechenaufwand, wie die numerischen Untersuchungen zeigen. Die Lagrange-Methode bietet einen generellen Zugang zur zweiten Fehlerart, dem Modellfehler, und kann für lineare und nichtlineare Probleme angewandt werden. Auch hierbei übernimmt die Greensche Funktion wieder eine tragende Rolle, um die Auswirkungen von Parameteränderungen auf ausgewählte Zielgrößen betrachten zu können.
Resumo:
In dieser Arbeit werden nichtüberlappende Gebietszerlegungsmethoden einerseits hinsichtlich der zu lösenden Problemklassen verallgemeinert und andererseits in bisher nicht untersuchten Kontexten betrachtet. Dabei stehen funktionalanalytische Untersuchungen zur Wohldefiniertheit, eindeutigen Lösbarkeit und Konvergenz im Vordergrund. Im ersten Teil werden lineare elliptische Dirichlet-Randwertprobleme behandelt, wobei neben Problemen mit dominantem Hauptteil auch solche mit singulärer Störung desselben, wie konvektions- oder reaktionsdominante Probleme zugelassen sind. Der zweite Teil befasst sich mit (gleichmäßig) monotonen koerziven quasilinearen elliptischen Dirichlet-Randwertproblemen. In beiden Fällen wird das Lipschitz-Gebiet in endlich viele Lipschitz-Teilgebiete zerlegt, wobei insbesondere Kreuzungspunkte und Teilgebiete ohne Außenrand zugelassen sind. Anschließend werden Transmissionsprobleme mit frei wählbaren $L^{\infty}$-Parameterfunktionen hergeleitet, wobei die Konormalenableitungen als Funktionale auf geeigneten Funktionenräumen über den Teilrändern ($H_{00}^{1/2}(\Gamma)$) interpretiert werden. Die iterative Lösung dieser Transmissionsprobleme mit einem Ansatz von Deng führt auf eine Substrukturierungsmethode mit Robin-artigen Transmissionsbedingungen, bei der eine Auswertung der Konormalenableitungen aufgrund einer geschickten Aufdatierung der Robin-Daten nicht notwendig ist (insbesondere ist die bekannte Robin-Robin-Methode von Lions als Spezialfall enthalten). Die Konvergenz bezüglich einer partitionierten $H^1$-Norm wird für beide Problemklassen gezeigt. Dabei werden keine über $H^1$ hinausgehende Regularitätsforderungen an die Lösungen gestellt und die Gebiete müssen keine zusätzlichen Glattheitsvoraussetzungen erfüllen. Im letzten Kapitel werden nichtmonotone koerzive quasilineare Probleme untersucht, wobei das Zugrunde liegende Gebiet nur in zwei Lipschitz-Teilgebiete zerlegt sein soll. Das zugehörige nichtlineare Transmissionsproblem wird durch Kirchhoff-Transformation in lineare Teilprobleme mit nichtlinearen Kopplungsbedingungen überführt. Ein optimierungsbasierter Lösungsansatz, welcher einen geeigneten Abstand der rücktransformierten Dirichlet-Daten der linearen Teilprobleme auf den Teilrändern minimiert, führt auf ein optimales Kontrollproblem. Die dabei entstehenden regularisierten freien Minimierungsprobleme werden mit Hilfe eines Gradientenverfahrens unter minimalen Glattheitsforderungen an die Nichtlinearitäten gelöst. Unter zusätzlichen Glattheitsvoraussetzungen an die Nichtlinearitäten und weiteren technischen Voraussetzungen an die Lösung des quasilinearen Ausgangsproblems, kann zudem die quadratische Konvergenz des Newton-Verfahrens gesichert werden.
Resumo:
Es wird der Frage nachgegangen, welchen Einfluss Beziehungskonzepte, also die kognitiven Repräsentationen von Paarbeziehungen, auf den Umgang mit begrenzten Bedürfnissen in Paarbeziehungen haben. Als begrenzte Bedürfnisse werden dabei Wünsche der Beziehungspartner verstanden, welche innerhalb des Beziehungsarrangements keine Erfüllung finden, das heißt, im raummetaphorischen Sinne auf Grenzen stoßen. In einem umfangreichen theoretischen Teil der Arbeit werden Untersuchungen zu Beziehungskonzepten vorgestellt. Es wird eine Arbeitsdefinition zu Beziehungskonzepten für die vorliegende Arbeit hergeleitet. Es wird die Determiniertheit von Beziehungskonzepten durch gesellschaftliche Wandlungsprozesse diskutiert. Des Weiteren wird eine Auswahl an Bedürfniskonzeptionen und –klassifikationen vorgestellt. Daraufhin wird der Begriff des Beziehungshandelns eingeführt, indem ein allgemeines Handlungsmodell vorgestellt und in Bezug zu Beziehungskonzepten gestellt wird. Des Weiteren werden die Rolle der Emotionen und der Aspekt der Emotionsregulation im Kontext von Beziehungshandeln diskutiert. Abschließend wird im theoretischen Teil der Arbeit der Einfluss von Beziehungskonzept und Beziehungshandeln auf die Beziehungsqualität erörtert. Der methodische Teil beschreibt die Empirie der vorliegenden Arbeit. Es wurden 12 Interviews geführt, teilweise leitfadenbasiert und teilweise narrationsgenerierend. Interviewt wurden 15 Personen im Alter von 21-75 Jahren, die alle in einer Beziehung leben. Die Interviews fanden entweder paarweise oder im Einzelsetting statt. Alle Interviews wurden gemäß der Grounded Theory-Methodik nach Strauss und Corbin (1996) ausgewertet. Die Ergebnisse werden in Form eines paradigmatischen Modells strukturiert dargestellt, in dessen Zentrum die raummetaphorische Kategorie „Beziehung als Raum“ steht. Paarbeziehung, räumlich betrachtet, öffnet den Blick auf zwei wesentliche Merkmale der individuellen Ausgestaltung von Beziehung und damit auch des spezifischen Umgangs mit partneradressierten Bedürfnissen: 1. Grenzen konstituieren den Beziehungsraum, der damit als begrenztes Phänomen zu verstehen ist. 2. Die Grenzen des Beziehungsraumes variieren in Eigenschaften wie der Bewusstheit, der expliziten vs. impliziten Thematisierung, der Weite vs. Enge, der Statik vs. Flexibilität. Sie bestimmen damit die Form und die Inhalte der jeweiligen Beziehung. Es wurden aus der Variation dieser Merkmale zwei prototypische Beziehungskonzeptionen herausgearbeitet, das „kulturell, verankerte Beziehungskonzept“ sowie das „alternative, freigesetzte Beziehungskonzept“. Beide Beziehungskonzeptionen werden entlang der Dimension eines Freiheitsgrade in Hinblick auf ihre Ziele, Grenzen und Rollen beschrieben und unterschieden und in der Disposition zu verschiedenen Strategien im Umgang mit begrenzten Bedürfnissen miteinander verglichen. Abschließend wird der Einfluss beider Konzeptionen und verwandter Handlungsstrategien auf die Beziehungsqualität dargestellt. In einem anschließenden Diskussionsteil werden die methodische Güte der Ergebnisse, die inhaltliche Güte der Ergebnisse sowie deren Anwendbarkeit diskutiert und ein Forschungsausblick geben.
Resumo:
Die Bedeutung des Dienstgüte-Managements (SLM) im Bereich von Unternehmensanwendungen steigt mit der zunehmenden Kritikalität von IT-gestützten Prozessen für den Erfolg einzelner Unternehmen. Traditionell werden zur Implementierung eines wirksamen SLMs Monitoringprozesse in hierarchischen Managementumgebungen etabliert, die einen Administrator bei der notwendigen Rekonfiguration von Systemen unterstützen. Auf aktuelle, hochdynamische Softwarearchitekturen sind diese hierarchischen Ansätze jedoch nur sehr eingeschränkt anwendbar. Ein Beispiel dafür sind dienstorientierte Architekturen (SOA), bei denen die Geschäftsfunktionalität durch das Zusammenspiel einzelner, voneinander unabhängiger Dienste auf Basis deskriptiver Workflow-Beschreibungen modelliert wird. Dadurch ergibt sich eine hohe Laufzeitdynamik der gesamten Architektur. Für das SLM ist insbesondere die dezentrale Struktur einer SOA mit unterschiedlichen administrativen Zuständigkeiten für einzelne Teilsysteme problematisch, da regelnde Eingriffe zum einen durch die Kapselung der Implementierung einzelner Dienste und zum anderen durch das Fehlen einer zentralen Kontrollinstanz nur sehr eingeschränkt möglich sind. Die vorliegende Arbeit definiert die Architektur eines SLM-Systems für SOA-Umgebungen, in dem autonome Management-Komponenten kooperieren, um übergeordnete Dienstgüteziele zu erfüllen: Mithilfe von Selbst-Management-Technologien wird zunächst eine Automatisierung des Dienstgüte-Managements auf Ebene einzelner Dienste erreicht. Die autonomen Management-Komponenten dieser Dienste können dann mithilfe von Selbstorganisationsmechanismen übergreifende Ziele zur Optimierung von Dienstgüteverhalten und Ressourcennutzung verfolgen. Für das SLM auf Ebene von SOA Workflows müssen temporär dienstübergreifende Kooperationen zur Erfüllung von Dienstgüteanforderungen etabliert werden, die sich damit auch über mehrere administrative Domänen erstrecken können. Eine solche zeitlich begrenzte Kooperation autonomer Teilsysteme kann sinnvoll nur dezentral erfolgen, da die jeweiligen Kooperationspartner im Vorfeld nicht bekannt sind und – je nach Lebensdauer einzelner Workflows – zur Laufzeit beteiligte Komponenten ausgetauscht werden können. In der Arbeit wird ein Verfahren zur Koordination autonomer Management-Komponenten mit dem Ziel der Optimierung von Antwortzeiten auf Workflow-Ebene entwickelt: Management-Komponenten können durch Übertragung von Antwortzeitanteilen untereinander ihre individuellen Ziele straffen oder lockern, ohne dass das Gesamtantwortzeitziel dadurch verändert wird. Die Übertragung von Antwortzeitanteilen wird mithilfe eines Auktionsverfahrens realisiert. Technische Grundlage der Kooperation bildet ein Gruppenkommunikationsmechanismus. Weiterhin werden in Bezug auf die Nutzung geteilter, virtualisierter Ressourcen konkurrierende Dienste entsprechend geschäftlicher Ziele priorisiert. Im Rahmen der praktischen Umsetzung wird die Realisierung zentraler Architekturelemente und der entwickelten Verfahren zur Selbstorganisation beispielhaft für das SLM konkreter Komponenten vorgestellt. Zur Untersuchung der Management-Kooperation in größeren Szenarien wird ein hybrider Simulationsansatz verwendet. Im Rahmen der Evaluation werden Untersuchungen zur Skalierbarkeit des Ansatzes durchgeführt. Schwerpunkt ist hierbei die Betrachtung eines Systems aus kooperierenden Management-Komponenten, insbesondere im Hinblick auf den Kommunikationsaufwand. Die Evaluation zeigt, dass ein dienstübergreifendes, autonomes Performance-Management in SOA-Umgebungen möglich ist. Die Ergebnisse legen nahe, dass der entwickelte Ansatz auch in großen Umgebungen erfolgreich angewendet werden kann.
Resumo:
Der Name einer kleinen Internatsschule im Berner Oberland taucht zunehmend in den Diskussionen über die Gestaltung von selbst organisiertem Lernen auf: Institut Beatenberg. Der Direktor des Instituts, Andreas Müller, und seine Mitarbeiter sind gefragte Referenten auf Veranstaltungen über die Einführung einer Lehr-Lernkultur, die den Lernenden und seine Lernprozesse in den Mittelpunkt der pädagogischen Arbeit stellt. Zudem finden ihre Publikationen zunehmendes Interesse im gesamten deutschsprachigen Raum. Ein Schlüsselinstrument wurde dabei zum Schlagwort: Kompetenzraster. Doch die stellen nur eines der Instrumente dar, die den ‚Wirkungskreislauf des Lernerfolgs’ in Beatenberg stützen. Berufliche Schulen in Hessen und Hamburg haben im Rahmen von Modellprojekten mit der Erarbeitung von Kompetenzrastern nach den Vorbildern in Beatenberg begonnen und versprechen sich damit eine neue, auf selbst organisiertem Lernen aufbauende kompetenzorientierte berufliche Bildung. In dem Beitrag werden die Arbeit mit Kompetenzrastern und den dahinter liegenden ‚Lernlandschaften’ sowie der ‚Wirkungskreislauf den Lernerfolgs’ in Beatenberg kompetenzorientiert dargestellt. Die Dimensionen Definition, Beschreibung, Ordnung, Erwerb, Messung und Anerkennung von Kompetenzen werden herausgearbeitet und die Möglichkeiten von Kompetenzrastern in der beruflichen Bildung kritisch gewürdigt. Der Beitrag ist entlang der genannten Dimensionen gegliedert.
Resumo:
Zur Erholung in die Natur gehen oder doch lieber zur Natursimulation greifen? Intuitiv würden die meisten Menschen der Natur einen größeren Erholungswert zusprechen als einer Natursimulation. Aber ist die Natur tatsächlich erholsamer? In der Naturerholungsforschung (Restorative Environment Research) kommen häufig Natursimulationen zum Einsatz, um die erholsame Wirkung von Natur zu ermitteln. Problematisch ist dabei, dass deren ökologische Validität und Vergleichbarkeit noch nicht empirisch abgesichert ist. Vorliegende Arbeit setzt an dieser methodischen und empirischen Lücke an. Sie überprüft sowohl die ökologische Validität als auch die Vergleichbarkeit von Natursimulationen. Dazu wird die erholsame Wirkung von zwei Natursimulationen im Vergleich zu der physisch-materiellen Natur empirisch untersucht und verglichen. Darüber hinaus werden Aspekte des subjektiven Erlebens und der Bewertung im Naturerholungskontext exploriert. Als bedeutsamer Wirkmechanismus wird die erlebnisbezogene Künstlichkeit/Natürlichkeit angesehen, die sich auf die Erlebnisqualität von Natursimulationen und der physisch-materiellen Natur bezieht: Natursimulationen weisen im Vergleich zur physisch-materiellen Natur eine reduzierte Erlebnisqualität auf (erlebnisbezogene Künstlichkeit), z.B. eine reduzierte Qualität und Quantität der Sinnesansprache. Stellt man einen derartigen Vergleich nicht nur mit der physisch-materiellen Natur, sondern mit unterschiedlichen Natursimulationstypen an, dann zeigen sich auch hier Unterschiede in der erlebnisbezogenen Künstlichkeit. Beispielsweise unterscheidet sich ein Naturfoto von einem Naturfilm durch das Fehlen von auditiven und bewegten Stimuli. Diese erlebnisbezogene Künstlichkeit kann die erholsame Wirkung von Natur - direkt oder indirekt über Bewertungen - hemmen. Als Haupthypothese wird angenommen, dass mit zunehmendem Ausmaß an erlebnisbezogener Künstlichkeit die erholsame Wirkung der Natur abnimmt. Dem kombinierten Feld- und Laborexperiment liegt ein einfaktorielles Vorher-Nachher-Design zugrunde. Den 117 Probanden wurde zunächst eine kognitiv und affektiv belastende Aufgabe vorgelegt, danach folgte die Erholungsphase. Diese bestand aus einem Spaziergang, der entweder in der physisch-materiellen Natur (urbaner Park) oder in einer der beiden audio-visuellen Natursimulationen (videogefilmter vs. computergenerierter Spaziergang durch selbigen urbanen Park) oder auf dem Laufband ohne audio-visuelle Darbietung stattfand. Die erlebnisbezogene Künstlichkeit/Natürlichkeit wurde also wie folgt operationlisiert: die physische Natur steht für die erlebnisbezogene Natürlichkeit. Die beiden Natursimulationen stehen für die erlebnisbezogene Künstlichkeit. Die computergenerierte Version ist im Vergleich zur Videoversion erlebnisbezogen künstlicher, da sie weniger fotorealistisch ist. Die Zuordnung zu einer der vier experimentellen Erholungssettings erfolgte nach dem Zufallsprinzip. Die Effekte von moderater Bewegung wurden in den Natursimulationen durch das Laufen auf dem Laufband kontrolliert. Die Beanspruchungs- bzw. Erholungsreaktionen wurden auf kognitiver (Konzentriertheit, Aufmerksamkeitsleistung) affektiver (3 Befindlichkeitsskalen: Wachheit, Ruhe, gute Stimmung) und physiologischer (Alpha-Amylase) Ebene gemessen, um ein umfassendes Bild der Reaktionen zu erhalten. Insgesamt zeigen die Ergebnisse, dass die beiden Natursimulationen trotz Unterschiede in der erlebnisbezogenen Künstlichkeit/Natürlichkeit zu relativ ähnlichen Erholungsreaktionen führen, wie die physisch-materielle Natur. Eine Ausnahme stellen eine der drei affektiven (Wachheit) und die physiologische Reaktion dar: Probanden der physisch-materiellen Naturbedingung geben an wacher zu sein und weisen - wider erwarten - eine höhere physiologische Erregung auf. Demnach ist die physisch-materielle Natur nicht grundsätzlich erholsamer als die Natursimulationen. Die Hypothese ließ sich somit nicht bestätigen. Vielmehr deuten sich komplexe Erholungsmuster und damit auch unterschiedliche Erholungsqualitäten der Settings an, die einer differenzierten Betrachtung bedürfen. Für die ökologische Validität von Natursimulationen gilt, dass diese nur mit Einschränkung als ökologisch valide bezeichnet werden können, d.h. nur für bestimmte, aber nicht für alle Erholungsreaktionen. Die beiden Natursimulationen führen ebenfalls trotz Unterschiede in der erlebnisbezogenen Künstlichkeit zu ähnlichen Erholungsreaktionen und können somit als gleichwertig behandelt werden. Erstaunlicherweise kommt es hier zu ähnlichen Erholungsreaktionen, obwohl die bestehenden Unterschiede von den Probanden wahrgenommen und die erlebnisbezogen künstlichere computergenerierte Version negativer bewertet wird. Aufgrund der nicht erwartungskonformen Ergebnisse muss das Erklärungskonzept der erlebnisbezogenen Künstlichkeit/Natürlichkeit infrage gestellt werden. Alternative Erklärungskonzepte für die Ergebnisse („Ungewissheit“, mentale räumliche Modelle), die sich andeutenden unterschiedlichen Erholungsqualitäten der Settings, methodische Einschränkungen sowie die praktische Bedeutung der Ergebnisse werden kritisch diskutiert.