108 resultados para Algebraic Bethe-ansatz
Resumo:
Simulation hat sich in der Vergangenheit als unterstützendes Planungsinstrument und Prognosemethode zur Untersuchung von Materialflusssystemen in verschiedenen Branchen etabliert. Dafür werden neben Simulationswerkzeugen auch zunehmend Virtual Reality (VR), insbesondere mit dem Ansatz Digitale Fabrik, eingesetzt. Ein Materialflusssimulator, der für den VR–Einsatz geeignet ist,existiert noch nicht, so dass Anwender gegenwärtig mit verschiedenen Systemen arbeiten müssen, um Untersuchungen eines Simulationsmodells in einem VR–Umfeld wie beispielsweise in einem CAVE zu ermöglichen. Zeitlicher Aufwand ist dadurch vorprogrammiert und das Auftreten von Fehlern bei der Konvertierung des Simulationsmodells möglich. Da auch der hauseigene Materialflusssimulator SIMFLEX/3D nicht für beide Anwendungsgebiete genutzt werden kann und für einen solchen Einsatz mit sehr hohem Aufwand angepasst werden müsste, wurde stattdessen ein neues Simulationssystem entworfen. Das Simulationssystem wird in der vorliegenden Arbeit als ein interoperables und offenes System beschrieben, das über eine flexible Softwarearchitektur verfügt und in einem vernetzten Umfeld mit anderen Werkzeugen Daten austauschen kann. Die grundlegende Idee besteht darin, eine flexible Softwarearchitektur zu entwerfen, die zunächst interaktive und ereignisorientierte 3D–Simulation erlaubt, aber zusätzlich für andere Anwendungszwecke offen gehalten wird. Durch den offenen Ansatz können Erweiterungen, die in Form von Plugins entwickelt werden, mit geringem Aufwand in das System integriert werden, wodurch eine hohe Flexibilität des Systems erreicht wird. Für interoperable Zwecke werden Softwaremodule vorgestellt, die optional eingesetzt werden können und standardisierte Formate wie bspw. XML benutzen. Mit dem neuen Simulationssystem wird die Lücke zwischen Desktop– und VR–Einsatz geschlossen und aus diesem Grund der Zeitaufwand und Fehlerquellen reduziert. Darüber hinaus ermöglicht der offene Ansatz, das Simulationssystem rollen- und aufgabenspezifisch anzupassen, indem die erforderlichen Plugins bereitgestellt werden. Aus diesem Grund kann das Simulationssystem mit sehr geringem Aufwand um weitere Untersuchungsschwerpunkte wie beispielsweise Avatare ergänzt werden. Erste Untersuchungen in einem CAVE wurden erfolgreich durchgeführt. Für die Digitale Fabrik kann der Prototyp eingesetzt werden, um die Produktionsplanung mit Hilfe der Simulation und die Entwicklung mit Hilfe der entwickelten Viewer zu unterstützen. Letzteres ist möglich, da die Viewer zahlreiche CAD–Formate lesen und um weitere Formate ergänzt werden können. Das entwickelte System ist für den Einsatz in verschiedenen Prozessen einer Wertschöpfungskette geeignet,um es als Untersuchungs-, Kommunikations- und Steuerungswerkzeug einzusetzen.
Resumo:
Institutionalistische Theorien und hegemoniale Praktiken Globaler Politikgestaltung. Eine neue Beleuchtung der Prämissen Liberaler Demokratischer National-Staatlicher Ordnungen. Deutsche Zusammenfassung: Moderne Sozialwissenschaften, seien es Metatheorien der Internationalen Beziehungen, die Geschichte politischer Ökonomie oder Institutionentheorien, zeigen eine klare Dreiteilung von Weltanschauungen bzw. Paradigmen auf, die sich in allen „großen Debatten“ nachvollziehen lassen: Realismus, Liberalismus und Historischer Materialismus. Diese Grund legend unterschiedlichen Paradigmen lassen sich auch in aktuellen Ansätzen des Institutionalismus aufzeigen, liegen aber quer zu den von anderen Wissenschaftlern (Meyer, Rittberger, Hasenclever, Peters, Zangl) vorgenommenen Kategorisierungen der Institutionalismusschulen, die systemkritische Perspektiven in der Regel ignorieren oder vergleichsweise rudimentär diskutieren. Deshalb entwickelt diese Arbeit einen Vergleich von Institutionalismusschulen entlang der oben skizzierten Weltanschauungen. Das Ziel ist es, fundamentale Unterschiede zwischen den drei Paradigmen zu verdeutlichen und zu zeigen, wie ihre jeweiligen ontologischen und epistemologischen Prämissen die Forschungsdesigns und Methodologien der Institutionalismusschulen beeinflussen. In Teil I arbeite ich deshalb die Grund legenden Prämissen der jeweiligen Paradigmen heraus und entwickle in Teil II und III diesen Prämissen entsprechende Institutionalismus-Schulen, die Kooperation primär als Organisation von unüberwindbarer Rivalität, als Ergebnis zunehmender Konvergenz, oder als Ergebnis und Weiterentwicklung von Prozeduren der Interaktion versteht. Hier greife ich auf zeitgenössische Arbeiten anderer Autoren zurück und liefere damit einen Vergleich des aktuellen Forschungsstandes in allen drei Denktraditionen. Teil II diskutiert die zwei dominanten Institutionalismusschulen und Teil III entwickelt einen eigenen Gramscianischen Ansatz zur Erklärung von internationaler Kooperation und Institutionalisierung. Die übergeordnete These dieser Arbeit lautet, dass die Methodologien der dominanten Institutionalismusschulen teleologische Effekte haben, die aus dem Anspruch auf universell anwendbare, abstrahiert Konzepte resultieren und die Interpretation von Beobachtungen limitieren. Prämissen eines rational handelnden Individuums - entweder Konsequenzen kalkulierend oder Angemessenheit reflektierend – führen dazu, dass Kooperation und Institutionalisierung notwendiger Weise als die beste Lösung für alle Beteiligten in dieser Situation gelten müssen: Institutionen würden nicht bestehen, wenn sie nicht in der Summe allen Mitgliedern (egoistisch oder kooperativ motiviert) nützten. Durch diese interpretative „Brille“ finden wichtige strukturelle Gründe für die Verabschiedung internationaler Abkommen und Teile ihrer Effekte keine Berücksichtigung. Folglich können auch Abweichungen von erwarteten Ergebnissen nicht hinreichend erklärt werden. Meine entsprechende Hypothese lautet, dass systemkritische Kooperation konsistenter erklären können, da sie Akteure, Strukturen und die sie umgebenden Weltanschauungen selbst als analytische Kriterien berücksichtigen. Institutionalisierung wird dann als ein gradueller Prozess politischer Entscheidungsfindung, –umsetzung und –verankerung verstanden, der durch die vorherrschenden Institutionen und Interpretationen von „Realität“ beeinflusst wird. Jede politische Organisation wird als zeitlich-geographisch markierter Staatsraum (state space) verstanden, dessen Mandat die Festlegung von Prozeduren der Interaktion für gesellschaftliche Entwicklung ist. Politische Akteure handeln in Referenz auf diese offiziellen Prozeduren und reproduzieren und/oder verändern sie damit kontinuierlich. Institutionen werden damit als integraler Bestandteil gesellschaftlicher Entwicklungsprozesse verstanden und die Wirkungsmacht von Weltanschauungen – inklusive theoretischer Konzepte - berücksichtigt. Letztere leiten die Wahrnehmung und Interpretation von festgeschriebenen Regeln an und beeinflussen damit ihre empfundene Legitimation und Akzeptanz. Dieser Effekt wurde als „Staatsgeist“ („State Spirit“) von Montesquieu und Hegel diskutiert und von Antonio Gramsci in seiner Hegemonialtheorie aufgegriffen. Seine Berücksichtigung erlaubt eine konsistente Erklärung scheinbar irrationalen oder unangemessenen individuellen Entscheidens, sowie negativer Effekte konsensualer Abkommen. Zur Veranschaulichung der neu entwickelten Konzepte werden in Teil II existierende Fallstudien zur Welthandelsorganisation analysiert und herausgearbeitet, wie Weltanschauungen oder Paradigmen zu unterschiedlichen Erklärungen der Praxis führen. Während Teil II besonderes Augenmerk auf die nicht erklärten und innerhalb der dominanten Paradigmen nicht erklärbaren Beobachtungen legt, wendet Teil III die Gramscianischen Konzepte auf eben diese blinden Stellen an und liefert neue Einsichten. Im Ausblick wird problematisiert, dass scheinbar „neutrale“ wissenschaftliche Studien politische Positionen und Forderungen legitimieren und verdeutlicht im Sinne der gramscianischen Theorie, dass Wissenschaft selbst Teil politischer Auseinandersetzungen ist.
Resumo:
Im Rahmen der Arbeit wird ein Unterrichtskonzept für den Leistungskurs Stochastik in der gymnasialen Oberstufe vorgestellt, bei welchem Computersimulationen und Lernumgebungen mit der Software FATHOM über das gesamte Kurshalbjahr unterstützend eingesetzt werden. Der experimentelle Zugang zur Wahrscheinlichkeit ergänzt den theoretischen Zugang und soll im Sinn eines handlungsorientierten Lernens die Motivation der Schülerinnen und Schüler fördern. Das Unterrichtskonzept enthält drei Schwerpunktsetzungen: • Einstieg in den Stochastikkurs mit Simulationen • Binomialverteilung • Das Testen von Hypothesen Die Arbeit konzentriert sich in der Darstellung und der Analyse auf den Einstieg in den Stochastikkurs mit Simulationen und computergestützten Lernumgebungen. Der Erwerb der Simulations- und Fathomkompetenzen in der Einstiegsphase wird auf inhaltlicher Seite verknüpft mit dem Wahrscheinlichkeitsbegriff, mit dem Gesetz der großen Zahl, sowie mit weiteren stochastischen Grundlagen. Das Unterrichtskonzept zum Einstieg in das Kurshalbjahr Stochastik wird ausführlich vorgestellt, zu den beiden anderen genannten Schwerpunkten werden die entwickelten Unterrichtskonzepte knapp erläutert. Die ausführlich kommentierten Unterrichtsmaterialien zu allen drei Schwerpunkten sind als Band 2 der KaDiSto-Schriftenreihe publiziert. Im Rahmen unterrichtlicher Erprobungen wurden verschiedene empirische Untersuchungen durchgeführt. Bei diesen Untersuchungen liegt ein Schwerpunkt auf der Transkriptanalyse von Videos des Bildschirmgeschehens und der simultan hierzu aufgenommenen verbalen Kommunikation während der Schülerarbeitsphasen am Computer. Diese Videos ermöglichen tiefer gehende Einblicke in die Kompetenzentwicklung der Schülerinnen und Schüler, in auftretende Probleme bei der Erstellung der Computersimulationen und in den Umgang der Schülerinnen und Schüler mit den Aufgabenstellungen. Die Analyse ausgewählter Transkriptausschnitte wird eingebettet in die Schilderung des Unterrichtsverlaufs auf der Basis von Unterrichtsprotokollen. Weiter wird die Bearbeitung einer komplexen Simulationsaufgabe in einer notenrelevanten Klausur nach Abschluss der Einstiegsphase analysiert. Es werden die Ergebnisse eines Eingangstests vor Beginn der Einstiegsphase und eines Ausgangstests im Anschluss an die Einstiegsphase geschildert. Ergänzend werden die Ergebnisse einer Schülerbefragung vorgestellt. Zum Abschluss der Arbeit wird eine Gesamtbetrachtung des Unterrichtskonzepts vorgenommen, bei der die Stärken aber auch zentrale Probleme des Konzepts beschrieben und teilweise verallgemeinert werden. Aus diesen Betrachtungen werden weitere Entwicklungsmöglichkeiten des geschilderten Projekts abgeleitet. Die Arbeit verfolgt einen stark unterrichtspraktischen Ansatz. Das methodische Vorgehen ist im Bereich einer Design-Research-Studie angesiedelt. Der Autor selber ist Lehrer an dem Kasseler Oberstufengymnasium Jacob-Grimm-Schule und hat über einen längeren Zeitraum im Rahmen einer Abordnung in der Arbeitsgruppe Mathematik-Didaktik der Universität Kassel mitgearbeitet. Die Arbeit stellt die Dissertation des Verfassers dar, die an der Universität Kassel von Prof. Dr. Rolf Biehler betreut wurde. Sie ist identisch mit der Erstveröffentlichung 2008 im Franzbecker Verlag, Hildesheim, der der elektronischen Veröffentlichung im Rahmen von KaDiSto zugestimmt hat
Resumo:
The aim of this paper is to indicate how TOSCANA may be extended to allow graphical representations not only of concept lattices but also of concept graphs in the sense of Contextual Logic. The contextual-logic extension of TOSCANA requires the logical scaling of conceptual and relatioal scales for which we propose the Peircean Algebraic Logic as reconstructed by R. W. Burch. As graphical representations we recommend, besides labelled line diagrams of concept lattices and Sowa's diagrams of conceptual graphs, particular information maps for utilizing background knowledge as much as possible. Our considerations are illustrated by a small information system about the domestic flights in Austria.
Resumo:
Die Verbindung von Wohnarchitektur und Lebensstil der Bewohner wurde in der Architektur bisher kaum analysiert und systematisiert. Selbst in den klassischen Lehrbüchern der Gebäudelehre fehlt in der Regel eine definierte Auffassung des Lebensstils der Bewohner als Einflussparameter für Architektur. Es sind vorwiegend implizite, verkürzte oder nur sehr persönliche Vorstellungen vom Lebensstil zukünftiger Nutzer, die in die Architektur eingehen. Mit der vorliegenden Arbeit wird die Beziehung zwischen Lebensstil, Atmosphäre und architektonischem Programm im Kontext von Wohnarchitektur theoretisch, konzeptionell und an Hand eigener empirischer Analysen expliziert. Lebensstil wird dabei als Resultat eines Kräftefelds zwischen Individuum und Gesellschaft begriffen, also dem Zusammenwirken von individuellen und gesellschaftlichen Bedingungen, die sich in konkreten räumlichen Gegebenheiten vollziehen. Die theoretischen und empirischen Analysen erbrachten, dass eine Verknüpfung von Lebensstil und Architektur auf einer Ebene stattfinden sollte, die ihre inhaltliche Verschneidung erlaubt. Das heißt, dass weder „fertige“ Lebensstiltypen, wie in der soziologischen Lebensstilforschung üblich, noch Wohn(haus)typologien herangezogen werden sollten. Vielmehr sollten die Lebensstilparameter in ihre strukturellen Einzelteile zerlegt und dechiffriert werden, da fertige Typenbeschreibungen oft nur assoziative Verbindungen erzeugen und schwer in räumliche Dimensionen transferierbar sind. Die Entwicklung und Erforschung der Lebensstilparameter stellt im vorliegenden Ansatz die Voraussetzung zur Generierung von Wohnarchitektur unter dem Fokus des Lebensstils dar. Hierzu wurden sog. Integrative Lebensstil-Architektur-Parameter erarbeitet. Diese Parameter sind als Einzeldimensionen konzipiert und ermöglichen so eine freie Kombination und Schwerpunktsetzung durch den Architekten. Dadurch lässt sich Architektur im Sinne des Lebensstils beschreiben und analysieren. Neben der Analyse von Architektur an Hand der Parameter kann ihnen aber auch eine generative Gestaltungskraft in der Architektur zugesprochen werden, woraus eine zielgerichtetere Harmonisierung von Lebensstil und Architektur zu erwarten ist.
Resumo:
Die Diskussion in den Planungswissenschaften beschreibt den Paradigmenwechsel vom so genannten DEAD-Model (Decide-Announce-Defend) zum Tripple-D-Model (Dialogue-Decide-Deliver) und beschäftigt sich intensiv mit dem Thema Governance. Komplexe Planungsaufgaben brauchen eine Vielfalt an Lösungsideen unterschiedlicher gesellschaftlicher Gruppen. Planung verfolgt u. a. die Umsetzung der Ziele einer nachhaltigen Entwicklung, die die Einbeziehung der Öffentlichkeit (Zivilgesellschaft, Unternehmen und Bürger) verlangt. Darüber hinaus wird eine Erweiterung der Perspektive über Verfahren und Steuerungsformen hinaus auf Akteure und Prozesse gefordert. Räumliche Entwicklungen sollen stärker im Zusammenhang mit Entscheidungsfindungsprozesse untersucht werden. Die Dissertation ergänzt eine wirkungsorientierte Perspektive, die Wirkungen, sowohl räumliche als auch soziale, in den Mittelpunkt der Betrachtung stellt. Sie stützt sich auf Beobachtungen, dass klassisches Projektmanagement für erfolgreiche Planungsprozesse nicht ausreicht, sondern zusätzlich Prozessmanagement braucht. Mit der Weiterentwicklung der partizipativen Planung, die zusätzlich in den Kontext gesellschaftlicher Lernprozesse und zukunftsfähiger Veränderungen gesellschaftlicher Bedingungen gestellt wird, ergänzt die Dissertation planungswissenschaftliche Theorien. Aus einem fachübergreifenden Blickwinkel wird die räumliche Planung in die Reihe von Management- und Organisationswissenschaften eingeordnet. Ausgehend von der Frage, welche räumlichen und sozialen Wirkungen durch Beteiligungsprozesse unter welchen Bedingungen erzielt werden, wurden Fallstudien aus der Wasserwirtschaft und ihre Prozessbiografien umfassend evaluiert. Als Evaluierungsmethode wurde ein von der EU-Kommission empfohlener Evaluierungsrahmen gewählt, der sowohl den Prozess selbst, seine Rahmenbedingungen und Durchführung, als auch Wirkungen analysiert und bewertet. Auf der Grundlage der Ergebnisse und theoretischer Erkenntnisse, vorrangig aus der Evaluationsforschung, wird ein umfassender Beteiligungsansatz konzipiert. Dabei handelt es sich um ein offenes Gerüst, in das sich bewährte und innovative Elemente strategisch gezielt integrieren lassen. Die Struktur verbindet verschiedene Beteiligungswerkzeuge unterschiedlicher Intensitäten und für unterschiedliche Zielgruppen zu einem Gesamtkonzept, mit dem Ziel, möglichst die gewünschten Wirkungen zu erreichen. Wesentlich an dem Ansatz ist, dass bereits das Prozessdesign unter Mitwirkung von Projektträgern, Beratern und Schlüsselakteuren erfolgt. Die partizipative Beteiligungsplanung bedeutet somit Klärung der Vorgehensweise und gleichzeitig Bewusstseins- und Kompetenzerweiterung der verantwortlichen Akteure. Im Ausblick werden künftige Forschungsaufgaben im Bereich der Mitwirkung in der räumlichen Planung formuliert und Handlungsmöglichkeiten aufgezeigt, um Partizipation als Teil planerischer „Alltagskultur“ weiterzuentwickeln. Dies erfolgt vor dem Hintergrund der Bedeutung von Partizipation und Bildung als Umsetzungsstrategie von Ideen der Landschaftsentwicklung und Nachhaltigkeit.
Resumo:
The aim of this paper is the numerical treatment of a boundary value problem for the system of Stokes' equations. For this we extend the method of approximate approximations to boundary value problems. This method was introduced by V. Maz'ya in 1991 and has been used until now for the approximation of smooth functions defined on the whole space and for the approximation of volume potentials. In the present paper we develop an approximation procedure for the solution of the interior Dirichlet problem for the system of Stokes' equations in two dimensions. The procedure is based on potential theoretical considerations in connection with a boundary integral equations method and consists of three approximation steps as follows. In a first step the unknown source density in the potential representation of the solution is replaced by approximate approximations. In a second step the decay behavior of the generating functions is used to gain a suitable approximation for the potential kernel, and in a third step Nyström's method leads to a linear algebraic system for the approximate source density. For every step a convergence analysis is established and corresponding error estimates are given.
Resumo:
Die Simulation von Verlusten in Verbrennungsmotoren ermöglicht die Entwicklung optimierter Strategien für Verbrauchs- und Emissionskonzepte sowie die modellbasierte Betrachtung von Steuerungssystemen in Kraftfahrzeugen. Es gibt Simulationswerkzeuge, die die Verluste sehr detailliert auf der Basis von physikalischen Gesetzen nachbilden. Allerdings sind diese Werkzeuge nicht echtzeitfähig und können somit nicht in HiL-Umgebungen und Steuergeräten verwendet werden. Mit dem hier vorgestellten Ansatz können die Verluste in Verbrennungsmotoren unter Berücksichtigung der Einflüsse des variablen Ventiltriebs (VVT) nachgebildet werden. Das Gesamtmodell basiert auf einer physikalischen Grundstruktur mit integrierten datengetriebenen Teilmodellen. Durch den modularen Aufbau des Modells werden die Ladungswechsel- und Reibverluste in getrennten Teilmodellen berechnet, wobei die Reibverluste einer weiteren Unterteilung in Bauteilgruppen (Grundlager, Pleuellager, Kolbengruppe, etc.) unterliegen. Dieser modulare Aufbau ermöglicht kompakte Teilmodelle, die nur komponentenspezifische Eingänge besitzen. Die Modularität der Gesamtstruktur ermöglicht es, die Verluste einzelner Komponenten zu simulieren und zu bewerten. Durch die Einbeziehung von Konstruktionsdaten in den Modellerstellungsprozess können neben den prozessrelevanten Betriebsparametern auch Konstruktionsparameter bei der Simulation berücksichtigt werden. Hierdurch wird eine vereinfachte Skalierung der abgeleiteten Modelle ermöglicht. Die aus dem vorgestellten Ansatz abgeleiteten Verlustmodelle erfüllen den Aspekt der Echtzeitfähigkeit und können daher in HiL-Umgebungen verwendet werden.
Resumo:
Die Arbeit befasst sich mit der Frage nach dem Einfluss von Biohöfen auf die Menschen, die in ihrem Umfeld leben. Sie bietet Einblicke in die Zusammenhänge, in denen Nachbarn, Kollegen, Freunde oder Kunden einen Biohof gezielt oder eher zufällig nutzen, um hier informell Erfahrungen zu sammeln, die zu nachhaltigen Lebennstilen und Wirtschaftsweisen beitragen können. Im Rahmen von sechs Fallstudien wurden hierfür ökologisch wirtschaftende Landwirtschaftsbetriebe in Brandenburg im Hinblick auf die informelle Vermittlung von Wissen und Erfahrungen qualitativ untersucht. Mit Hilfe der Grounded Theory wird die Entstehung von informellen Lernprozessen im sozialen Umfeld der Höfe rekonstruiert. Neben dem empirischen Ausgangsmaterial erwiesen sich die handlungstheoretischen Konstrukte Lebenswelt, Habitus, Lebensstil und Lebensführung als hilfreicher Interpretationshintergrund. Mit diesen theoretischen Ansätzen werden die soziokulturellen Einflussfaktoren für Erfahren, Lernen und Vermitteln betont. Informelles Lernen wird so als ein sozial eingebetteter Prozess verstanden. Aus dieser, weniger subjektorientierten Perspektive treten dann Faktoren wie z.B. die Atmosphäre der Beziehung zwischen einer Person und dem Biohof, die sinnliche Wahrnehmung und die Art der Kommunikation in das Blickfeld der Analyse. In der Untersuchung wird eine Vielzahl von Verhaltensänderungen, Denkanstößen und Anregungen benannt, die im Zusammenhang mit den untersuchten Biohöfen geschildert wurden und die im Hinblick auf eine nachhaltige Entwicklung als förderlich eingeschätzt werden. Sie basieren, so der Ansatz der Arbeit, auf informellen Lernprozessen. Das zentrale Ergebnis der Fallanalysen ist eine strukturierte Zusammenstellung der im Untersuchungskontext relevanten Einflussfaktoren für erfolgreiches informelles Lernen. Als wesentliche erscheinen hierbei insbesondere zwei Variablen: zum einen hat sich das „wohlwollende Interesse“ als förderlich für das Zustandekommen und den Verlauf von informellen Lernprozessen herausgestellt. Mit diesem Begriff wird eine Einstellung dem Biohof gegenüber beschrieben, die ein Wohlgesonnensein, das Vertrauen und die Neugierde am Hof beinhaltet. Zum anderen scheint die „Erlebbarkeit“ der Angebote zur Wissensvermittlung für das informelle, habitus- und lebensstilbezogene Lernen bedeutsam zu sein. Ergänzend zu dem auf die lernenden Subjekte gerichteten Fokus wurden in der Forschungsarbeit auch Beweggründe der Betriebsleiter, für die jeweils praktizierte Wissens- und Erfahrungsvermittlung herausgearbeitet. Die Betrachtung wird durch die Zusammenstellung von Schwierigkeiten und Hindernissen abgerundet, die dem informellen Lernen vom Biohof entgegen stehen können. Ausgehend von den fallbezogenen Ergebnissen liefert die Arbeit damit eine Grundlage, um über die Bedeutung von Lernfeldern, die durch Biolandwirte, aber auch andere Akteursgruppen bereit gestellt werden, nachzudenken und um ihre gesellschaftliche Relevanz zu diskutieren.
Resumo:
Es soll im Folgenden nicht darum gehen, eine neue Methode zu kreieren, eine Bindestrich-Methode wie etwa "psychoanalytische Organisationsberatung" oder dergleichen. Vielmehr gehen wir davon aus, dass jeder Berater, der als Externer mit einer Organisation in Kontakt kommt auf Neues und damit Unbekanntes stößt. Wir machen dabei immer wieder die schmerzhafte Erfahrung, nicht zu durchschauen, nicht zu wissen, d.h. unsicher zu sein über die eigene Rolle und Identität. Die Realität von Institutionen erleben wir als unüberschaubar komplex. Damit ist eine Gefahr verbunden, denn der Organisationsberater selbst bewegt sich in der Unbewusstheit der Institution. Er selbst ist Produkt dieses Prozesses. Mit diesem Neuen und Unbekannten kann man in zweierlei Hinsicht umgehen: Entweder man versucht sich an vorherigen Erfahrungen zu orientieren und subsumiert das Neue unter das Alte, oder man nimmt das Neue bewusst wahr und lässt sich verunsichern, um die Irritationen produktiv im Sinne eines diagnostischen Erkenntnisinteresses zu nutzen. In diesem Sinne geht es nicht um eine Methode, sondern um eine Haltung, die mit anderen methodischen Grundorientierungen durchaus kompatibel sein kann. Im folgenden greifen wir auf unsere Vorarbeiten zu dem Thema "Supervision als praktische Ethnopsychoanalyse" (Pühl 1992, 1998, Möller 1997) zurück und vervollständigen diesen Ansatz um den Kulturbegriff, der der Ethnopsychoanalyse immanent ist.
Resumo:
Zusammenfassung - Der sekundäre Botenstoff zyklisches Adenosinmonophosphat (cAMP) reguliert viele fundamentale zelluläre Prozesse wie Zellproliferation, Differenzierung, Energiemetabolismus und Genexpression. In eukaryotischen Zellen vermittelt die cAMP-abhängige Proteinkinase (PKA) die meisten biologischen Funktionen von cAMP. Die PKA besteht aus jeweils zwei regulatorischen (R) und katalytischen (C) Untereinheiten, die zusammen einen inaktiven Holoenzymkomplex bilden, der durch cAMP aktiviert wird. In dieser Arbeit wurde die Bindung von cAMP und cAMP-Analoga an die R Untereinheit der PKA unter funktionellen und mechanistischen Aspekten untersucht. Eine neue, auf Fluoreszenzpolarisation basierende Methode wurde entwickelt, um die Affinität von cAMP-Analoga in einem homogenen Ansatz schnell, reproduzierbar und nicht radioaktiv zu quantifizieren. Zur detaillierten Untersuchung des Bindungsmechanismus von cAMP und cAMP Analoga (Agonisten und Antagonisten) wurden thermodynamische Studien im direkten Vergleich mittels isothermaler Titrationskalorimetrie und kinetischen Analysen (Oberflächenplasmonresonanz, SPR) durchgeführt, wodurch thermodynamische Signaturen für das Bindungsverhalten der Nukleotide an die R Untereinheit der PKA erhalten werden konnten. Durch Interaktionsstudien an mutagenisierten R Untereinheiten wurde der intramolekulare Aktivierungsmechanismus der PKA in Bezug auf cAMP-Bindung, Holoenzymkomplex-Formierung und -Aktivierung untersucht. Die dabei erhaltenen Ergebnisse wurden mit zwei Modellen der cAMP-induzierten Konformationsänderung verglichen, und ein Aktivierungsmechanismus postuliert, der auf konservierten hydrophoben Aminosäuren basiert. Für in vivo Untersuchungen wurden zusammen mit Kooperationspartnern membranpermeable, fluoreszierende cAMP Analoga entwickelt, die Einblicke in die Dynamik der cAMP-Verteilung in Zellen erlauben. Neu entwickelte, Festphasen gebundene cAMP-Analoga (Agonisten und Antagonisten) wurden in einem (sub)proteomischen Ansatz dazu genutzt, natürliche Komplexe der R Untereinheit und des PKA-Holoenzyms aus Zelllysaten zu isolieren und zu identifizieren. Diese Untersuchungen fließen letztlich in einem systembiologischen Ansatz zusammen, der neue Einblicke in die vielschichtigen cAMP gesteuerten Netzwerke und Regulationsprozesse erlaubt.
Resumo:
In dieser Arbeit werden nichtüberlappende Gebietszerlegungsmethoden einerseits hinsichtlich der zu lösenden Problemklassen verallgemeinert und andererseits in bisher nicht untersuchten Kontexten betrachtet. Dabei stehen funktionalanalytische Untersuchungen zur Wohldefiniertheit, eindeutigen Lösbarkeit und Konvergenz im Vordergrund. Im ersten Teil werden lineare elliptische Dirichlet-Randwertprobleme behandelt, wobei neben Problemen mit dominantem Hauptteil auch solche mit singulärer Störung desselben, wie konvektions- oder reaktionsdominante Probleme zugelassen sind. Der zweite Teil befasst sich mit (gleichmäßig) monotonen koerziven quasilinearen elliptischen Dirichlet-Randwertproblemen. In beiden Fällen wird das Lipschitz-Gebiet in endlich viele Lipschitz-Teilgebiete zerlegt, wobei insbesondere Kreuzungspunkte und Teilgebiete ohne Außenrand zugelassen sind. Anschließend werden Transmissionsprobleme mit frei wählbaren $L^{\infty}$-Parameterfunktionen hergeleitet, wobei die Konormalenableitungen als Funktionale auf geeigneten Funktionenräumen über den Teilrändern ($H_{00}^{1/2}(\Gamma)$) interpretiert werden. Die iterative Lösung dieser Transmissionsprobleme mit einem Ansatz von Deng führt auf eine Substrukturierungsmethode mit Robin-artigen Transmissionsbedingungen, bei der eine Auswertung der Konormalenableitungen aufgrund einer geschickten Aufdatierung der Robin-Daten nicht notwendig ist (insbesondere ist die bekannte Robin-Robin-Methode von Lions als Spezialfall enthalten). Die Konvergenz bezüglich einer partitionierten $H^1$-Norm wird für beide Problemklassen gezeigt. Dabei werden keine über $H^1$ hinausgehende Regularitätsforderungen an die Lösungen gestellt und die Gebiete müssen keine zusätzlichen Glattheitsvoraussetzungen erfüllen. Im letzten Kapitel werden nichtmonotone koerzive quasilineare Probleme untersucht, wobei das Zugrunde liegende Gebiet nur in zwei Lipschitz-Teilgebiete zerlegt sein soll. Das zugehörige nichtlineare Transmissionsproblem wird durch Kirchhoff-Transformation in lineare Teilprobleme mit nichtlinearen Kopplungsbedingungen überführt. Ein optimierungsbasierter Lösungsansatz, welcher einen geeigneten Abstand der rücktransformierten Dirichlet-Daten der linearen Teilprobleme auf den Teilrändern minimiert, führt auf ein optimales Kontrollproblem. Die dabei entstehenden regularisierten freien Minimierungsprobleme werden mit Hilfe eines Gradientenverfahrens unter minimalen Glattheitsforderungen an die Nichtlinearitäten gelöst. Unter zusätzlichen Glattheitsvoraussetzungen an die Nichtlinearitäten und weiteren technischen Voraussetzungen an die Lösung des quasilinearen Ausgangsproblems, kann zudem die quadratische Konvergenz des Newton-Verfahrens gesichert werden.
Resumo:
Die Bedeutung des Dienstgüte-Managements (SLM) im Bereich von Unternehmensanwendungen steigt mit der zunehmenden Kritikalität von IT-gestützten Prozessen für den Erfolg einzelner Unternehmen. Traditionell werden zur Implementierung eines wirksamen SLMs Monitoringprozesse in hierarchischen Managementumgebungen etabliert, die einen Administrator bei der notwendigen Rekonfiguration von Systemen unterstützen. Auf aktuelle, hochdynamische Softwarearchitekturen sind diese hierarchischen Ansätze jedoch nur sehr eingeschränkt anwendbar. Ein Beispiel dafür sind dienstorientierte Architekturen (SOA), bei denen die Geschäftsfunktionalität durch das Zusammenspiel einzelner, voneinander unabhängiger Dienste auf Basis deskriptiver Workflow-Beschreibungen modelliert wird. Dadurch ergibt sich eine hohe Laufzeitdynamik der gesamten Architektur. Für das SLM ist insbesondere die dezentrale Struktur einer SOA mit unterschiedlichen administrativen Zuständigkeiten für einzelne Teilsysteme problematisch, da regelnde Eingriffe zum einen durch die Kapselung der Implementierung einzelner Dienste und zum anderen durch das Fehlen einer zentralen Kontrollinstanz nur sehr eingeschränkt möglich sind. Die vorliegende Arbeit definiert die Architektur eines SLM-Systems für SOA-Umgebungen, in dem autonome Management-Komponenten kooperieren, um übergeordnete Dienstgüteziele zu erfüllen: Mithilfe von Selbst-Management-Technologien wird zunächst eine Automatisierung des Dienstgüte-Managements auf Ebene einzelner Dienste erreicht. Die autonomen Management-Komponenten dieser Dienste können dann mithilfe von Selbstorganisationsmechanismen übergreifende Ziele zur Optimierung von Dienstgüteverhalten und Ressourcennutzung verfolgen. Für das SLM auf Ebene von SOA Workflows müssen temporär dienstübergreifende Kooperationen zur Erfüllung von Dienstgüteanforderungen etabliert werden, die sich damit auch über mehrere administrative Domänen erstrecken können. Eine solche zeitlich begrenzte Kooperation autonomer Teilsysteme kann sinnvoll nur dezentral erfolgen, da die jeweiligen Kooperationspartner im Vorfeld nicht bekannt sind und – je nach Lebensdauer einzelner Workflows – zur Laufzeit beteiligte Komponenten ausgetauscht werden können. In der Arbeit wird ein Verfahren zur Koordination autonomer Management-Komponenten mit dem Ziel der Optimierung von Antwortzeiten auf Workflow-Ebene entwickelt: Management-Komponenten können durch Übertragung von Antwortzeitanteilen untereinander ihre individuellen Ziele straffen oder lockern, ohne dass das Gesamtantwortzeitziel dadurch verändert wird. Die Übertragung von Antwortzeitanteilen wird mithilfe eines Auktionsverfahrens realisiert. Technische Grundlage der Kooperation bildet ein Gruppenkommunikationsmechanismus. Weiterhin werden in Bezug auf die Nutzung geteilter, virtualisierter Ressourcen konkurrierende Dienste entsprechend geschäftlicher Ziele priorisiert. Im Rahmen der praktischen Umsetzung wird die Realisierung zentraler Architekturelemente und der entwickelten Verfahren zur Selbstorganisation beispielhaft für das SLM konkreter Komponenten vorgestellt. Zur Untersuchung der Management-Kooperation in größeren Szenarien wird ein hybrider Simulationsansatz verwendet. Im Rahmen der Evaluation werden Untersuchungen zur Skalierbarkeit des Ansatzes durchgeführt. Schwerpunkt ist hierbei die Betrachtung eines Systems aus kooperierenden Management-Komponenten, insbesondere im Hinblick auf den Kommunikationsaufwand. Die Evaluation zeigt, dass ein dienstübergreifendes, autonomes Performance-Management in SOA-Umgebungen möglich ist. Die Ergebnisse legen nahe, dass der entwickelte Ansatz auch in großen Umgebungen erfolgreich angewendet werden kann.
Resumo:
A real-time analysis of renewable energy sources, such as arable crops, is of great importance with regard to an optimised process management, since aspects of ecology and biodiversity are considered in crop production in order to provide a sustainable energy supply by biomass. This study was undertaken to explore the potential of spectroscopic measurement procedures for the prediction of potassium (K), chloride (Cl), and phosphate (P), of dry matter (DM) yield, metabolisable energy (ME), ash and crude fibre contents (ash, CF), crude lipid (EE), nitrate free extracts (NfE) as well as of crude protein (CP) and nitrogen (N), respectively in pretreated samples and undisturbed crops. Three experiments were conducted, one in a laboratory using near infrared reflectance spectroscopy (NIRS) and two field spectroscopic experiments. Laboratory NIRS measurements were conducted to evaluate to what extent a prediction of quality parameters is possible examining press cakes characterised by a wide heterogeneity of their parent material. 210 samples were analysed subsequent to a mechanical dehydration using a screw press. Press cakes serve as solid fuel for thermal conversion. Field spectroscopic measurements were carried out with regard to further technical development using different field grown crops. A one year lasting experiment over a binary mixture of grass and red clover examined the impact of different degrees of sky cover on prediction accuracies of distinct plant parameters. Furthermore, an artificial light source was used in order to evaluate to what extent such a light source is able to minimise cloud effects on prediction accuracies. A three years lasting experiment with maize was conducted in order to evaluate the potential of off-nadir measurements inside a canopy to predict different quality parameters in total biomass and DM yield using one sensor for a potential on-the-go application. This approach implements a measurement of the plants in 50 cm segments, since a sensor adjusted sideways is not able to record the entire plant height. Calibration results obtained by nadir top-of-canopy reflectance measurements were compared to calibration results obtained by off-nadir measurements. Results of all experiments approve the applicability of spectroscopic measurements for the prediction of distinct biophysical and biochemical parameters in the laboratory and under field conditions, respectively. The estimation of parameters could be conducted to a great extent with high accuracy. An enhanced basis of calibration for the laboratory study and the first field experiment (grass/clover-mixture) yields in improved robustness of calibration models and allows for an extended application of spectroscopic measurement techniques, even under varying conditions. Furthermore, off-nadir measurements inside a canopy yield in higher prediction accuracies, particularly for crops characterised by distinct height increment as observed for maize.
Resumo:
Land use has become a force of global importance, considering that 34% of the Earth’s ice-free surface was covered by croplands or pastures in 2000. The expected increase in global human population together with eminent climate change and associated search for energy sources other than fossil fuels can, through land-use and land-cover changes (LUCC), increase the pressure on nature’s resources, further degrade ecosystem services, and disrupt other planetary systems of key importance to humanity. This thesis presents four modeling studies on the interplay between LUCC, increased production of biofuels and climate change in four selected world regions. In the first study case two new crop types (sugarcane and jatropha) are parameterized in the LPJ for managed Lands dynamic global vegetation model for calculation of their potential productivity. Country-wide spatial variation in the yields of sugarcane and jatropha incurs into substantially different land requirements to meet the biofuel production targets for 2015 in Brazil and India, depending on the location of plantations. Particularly the average land requirements for jatropha in India are considerably higher than previously estimated. These findings indicate that crop zoning is important to avoid excessive LUCC. In the second study case the LandSHIFT model of land-use and land-cover changes is combined with life cycle assessments to investigate the occurrence and extent of biofuel-driven indirect land-use changes (ILUC) in Brazil by 2020. The results show that Brazilian biofuels can indeed cause considerable ILUC, especially by pushing the rangeland frontier into the Amazonian forests. The carbon debt caused by such ILUC would result in no carbon savings (from using plant-based ethanol and biodiesel instead of fossil fuels) before 44 years for sugarcane ethanol and 246 years for soybean biodiesel. The intensification of livestock grazing could avoid such ILUC. We argue that such an intensification of livestock should be supported by the Brazilian biofuel sector, based on the sector’s own interest in minimizing carbon emissions. In the third study there is the development of a new method for crop allocation in LandSHIFT, as influenced by the occurrence and capacity of specific infrastructure units. The method is exemplarily applied in a first assessment of the potential availability of land for biogas production in Germany. The results indicate that Germany has enough land to fulfill virtually all (90 to 98%) its current biogas plant capacity with only cultivated feedstocks. Biogas plants located in South and Southwestern (North and Northeastern) Germany might face more (less) difficulties to fulfill their capacities with cultivated feedstocks, considering that feedstock transport distance to plants is a crucial issue for biogas production. In the fourth study an adapted version of LandSHIFT is used to assess the impacts of contrasting scenarios of climate change and conservation targets on land use in the Brazilian Amazon. Model results show that severe climate change in some regions by 2050 can shift the deforestation frontier to areas that would experience low levels of human intervention under mild climate change (such as the western Amazon forests or parts of the Cerrado savannas). Halting deforestation of the Amazon and of the Brazilian Cerrado would require either a reduction in the production of meat or an intensification of livestock grazing in the region. Such findings point out the need for an integrated/multicisciplinary plan for adaptation to climate change in the Amazon. The overall conclusions of this thesis are that (i) biofuels must be analyzed and planned carefully in order to effectively reduce carbon emissions; (ii) climate change can have considerable impacts on the location and extent of LUCC; and (iii) intensification of grazing livestock represents a promising venue for minimizing the impacts of future land-use and land-cover changes in Brazil.