175 resultados para Horn, Fr. Winkel.
Resumo:
Mit einer Virtuellen Organisation können Flexibilität, Schnelligkeit, Innovationsfähigkeit, Internationalität, Qualität und Effizienz erreicht werden. All dies sind Anforderungen, die Bildungsanbieter heutzutage zwingend erfüllen müssen, um im Wettbewerb bestehen zu können. Die Arbeit geht daher der Frage nach, ob die Virtuelle Organisation eine sinnvolle Organisationsvariante für Bildungsanbieter sein kann bzw. welches Ausmaß an Virtualität sinnvoll sein kann: Der Bildungsanbieter als Netzwerk aus einer koordinierenden Programmzentrale und spezialisierten Anbietern von Lehrleistungen, die situativ in den Bildungsbetrieb einbezogen werden? Im Fokus der Untersuchung steht die Managementausbildung, die angeboten wird von Institutionen des tertiären Bildungssektors und Anbietern berufsbezogener Weiterbildung. Zur Beantwortung der Kernfrage werden zunächst Kriterien erarbeitet, die beschreiben, wann eine Virtuelle Organisation generell Sinn macht. Diese beziehen sich in erster Linie auf die Eigenschaften des von der Organisation hergestellten Produktes. Daher wird im nächsten Schritt eine Produktstruktur für die Managementausbildung hergeleitet, die später mit den Eignungskriterien für die Virtuelle Organisation abgeglichen werden kann. Die Soll-Produktstruktur für die Managementausbildung wird basierend auf dem typischen Karriereverlauf einer Fach- und Führungskraft entwickelt. Ergebnis ist eine Differenzierung des Gesamtkonstrukts Managementausbildung in die Produkte Grundlagenstudium, Vertiefungsstudium und Weiterbildung. Die Eigenschaften der Managementausbildungsprodukte werden untersucht und den Eignungskriterien der Virtuellen Organisation gegenüber gestellt, um so zu einer Aussage über die Virtualisierungsfähigkeit der einzelnen Produkte zu gelangen. Abschließend wird für jedes Produkt der Managementausbildung eine Virtualisierungsvision entwickelt und die Implikationen für die verschiedenen Anbieter von Managementausbildung werden aufgezeigt.
Resumo:
Der Anteil dezentraler eingebetteter Systeme steigt in zahlreichen Andwendungsfeldern, wie der Kfz-Elektronik oder der Anlagenautomatisierung [ScZu03]. Zudem steigen die Anforderungen and die Flexibilität und den Funktionsumfang moderner automatisierungs-technischer Systeme. Der Einsatz agentenorientierter Methoden ist diesbezüglich ein geeigneter Ansatz diesen Anforderungen gerecht zu werden [WGU03]. Mit Agenten können flexible, anpassungsfähige Softwaresysteme entwickelt werden, welche die Verteilung von Informationen, Aufgaben, Ressourcen oder Entscheidungsprozessen der realen Problemstellung im Softwaresystem widerspiegeln. Es ist somit möglich, die gewünschte Flexibilität des Systems, bezüglich der Struktur oder des Verhaltens gezielt zu entwerfen. Nachteilig ist jedoch der Indeterminismus des Verhaltens des Gesamtsystems, der sich aufgrund von schwer vorhersagbaren Interaktionen ergibt [Jen00]. Dem gegenüber stehen statische Softwaresysteme, welche zwar einen hohen Determinismus aufweisen aber wenig flexibel in Bezug auf Änderungen der Struktur des Systems oder des Ablaufs des realen Prozesses sind. Mit der steigenden Komplexität der Systeme ist allerdings selbst mit einem statischen Entwurf die Vorhersagbarkeit immer weniger zu gewährleisten. Die Zahl der möglichen Zustände einer Anlage wird mit der Berücksichtigung von allen möglichen Fehlern, Ausfällen und externen Einflüssen (dynamische Umgebung) so groß, daß diese mit vertretbarem Aufwand kaum noch erfassbar sind und somit auch nicht behandelt werden können. Das von der DFG geförderten Projekt AVE [AVE05], welches in Kooperation mit dem Institut für Automatisierungs- und Softwaretechnik der Universität Stuttgart bearbeitet wird, beschäftigt sich in diesem Kontext mit dem Konflikt, die Vorteile der Flexibilität und Anpassungsfähigkeit von agentenorientierter Software mit den spezifischen Anforderungen der Domäne der Echtzeitsysteme, wie Zeit- und Verlässlichkeitsanforderungen, zu verknüpfen. In einer detaillierten Analyse dieser Anforderungen wurde untersucht, wie die Eigenschaften der Anpassungsfähigkeit und Flexibilität prinzipiell die Anforderungen an Echtzeit- und Verlässlichkeitseigenschaften beeinflussen und wie umgekehrt Anforderungen an Echtzeit- und Verlässlichkeitseigenschaften die Anpassungsfähigkeit und Flexibilität beschränken können. Aufbauend auf diesen Erkenntnissen werden Methoden und Konzepte für den Entwurf und die Implementierung von Agentensystemen auf gängiger Automatisierungshardware, insbesondere Speicher Programmierbare Steuerungen (SPS), entwickelt. In diesem Rahmen wird ein Konzept für die Modellierung von Sicherheit in Agentensystemen vorgestellt, welches insbesondere den modularen Charakter von Agenten berücksichtigt. Kernaspekt ist es, dem Entwickler einen Rahmen vorzugeben, der ihn dabei unterstützt ein möglichst lückenloses Sicherheitskonzept zu erstellen und ihm dabei genug Freiheiten lässt den Aufwand für die Strategien zur Fehlererkennung, Fehlerdiagnose und Fehlerbehandlung je nach Anforderung für jedes Modul individuell festzulegen. Desweiteren ist besonderer Wert darauf gelegt worden, dass die verwendeten Darstellungen und Diagramme aus der Domäne stammen und eine gute Vorlage für die spätere Implementierung auf automatisierungstechnischer Hardware bieten.
Resumo:
Im Mittelpunkt der Dissertation stehen das Schutzgut ‚Landschaft’ sowie ‚Prognosemethoden in der Umweltprüfung’. Mit beiden Themenbereichen verbinden sich bereits heute ungelöste methodische Probleme, die mit der Umsetzung der Richtlinie zur Strategischen Umweltprüfung (SUP) zusätzlich komplexer und deren Lösung mithin anspruchsvoller werden. Dies hängt einerseits damit zusammen, dass eine gesetzeskonforme Gleichbehandlung aller Schutzgüter zunehmend eingefordert wird und gerade das Schutzgut ‚Landschaft’ in einer SUP methodisch besondere Aufmerksamkeit verlangt. Zum anderen führt die gängige planungsmethodische Diskussion allein nicht zu geeigneten Antworten auf o.g. Fragen, und es bedarf der Prüfung verschiedener Methodenbausteine, auch aus anderen Wissensgebieten, um – über ein eindimensionales Landschaftsverständnis einerseits und die bisher bekannten linearen Wirkungsprognosen andererseits hinaus gehend – mehrfach verknüpfte Prognoseschritte zur Anwendung in der SUP zu entwickeln, in denen das Schutzgut ‚Landschaft’ modellhaft für Bewertungsschritte nachvollziehbar abgebildet wird. Hierbei müssen entscheidungsrelevante Prognosezeiträume ebenso beachtet werden, wie in diesen Zeiträumen möglicherweise auftretende sekundäre, kumulative, synergetische, positive und negative Auswirkungen der zu beurteilenden Planung. Dieser Ziel- und Aufgabenstellung entsprechend erfolgt die theoretische Herangehensweise der Arbeit von zwei Seiten: 1. Die Funktionen und Stellung von Prognosen innerhalb der SUP wird erläutert (Kap. 2), und es wird der Frage nachgegangen, welche Anforderungen an Prognosemethoden zu stellen sind (Kap. 2.4) und welche Prognosemethoden in der SUP Verwendung finden bzw. finden können (Kap. 3). Der Schwerpunkt wird dabei auf die Anwendung der Szenariotechnik gelegt. 2. Es wird dargestellt wie Landschaft für Aufgaben der Landschaftsplanung und Umweltprüfung bisher üblicherweise erfasst und analysiert wird, um in Prognoseschritten handhabbar behandelt zu werden (Kap. 4). Beide Zugänge werden sodann zusammengeführt (Kap. 5), um am Beispiel einer Hochwasserschutzkonzeption im Rahmen der SUP Landschaftliche Prognosen zu erarbeiten. Die Prognose setzt methodisch mit der Beschreibung des zu verwendenden Landschaftsmodells und der Klärung des Modellzwecks ein. Bezugsbasis ist die Beschreibung des Charakters einzelner logisch hergeleiteter Landschaftseinheiten bzw. Landschaftsräume, die typisiert werden. Die Prognose selber unterscheidet zwischen der Abschätzung zu erwartender Landschaftsveränderungen im Sinne der ‚Status-quo-Prognose’ (einschließlich der Entwicklung von drei Szenarien möglicher Zukunftslandschaften bis 2030) und der Wirkungsabschätzungen verschiedener Maßnahmen bzw. Planungsalternativen und zwar zunächst raumunabhängig, und dann raumkonkret. Besondere Bedeutung bei den Wirkungsabschätzungen erhält die klare Trennung von Sach- und Wertebene, eine angemessene Visualisierung und die Dokumentation von Informationslücken und Unsicherheiten bei der Prognose. Diskutiert wird u.a. (Kap. 6) · die Bildung und Abgrenzung landschaftlicher Einheiten und Typen in Bezug zu der Aufgabe, landschaftliche Eigenart zu definieren und planerisch handhabbar und anwendbar zu bestimmen, · die Bedeutung angemessener Visualisierung zur Unterstützung von Beteiligungsverfahren und · die Bestimmung des so genannten ‚Raumwiderstandes’. Beigefügt sind zwei Karten des gesamten Bearbeitungsgebietes: Karte 1 „Landschaftstypen“, Karte 2 „Maßnahmentypen des Hochwasserschutzes mit möglichen Synergieeffekten für die Landschaft“.
Resumo:
Die Qualität ökologischer Produkte wird über den Prozess und nicht am Produkt selbst bestimmt. Die zunehmende Nachfrage nach ökologischen Produkten fordert Methoden, die den Prozess am Produkt zeigen (Authentizitätsprüfung). Eine Literaturstudie für die vorliegende Habilitationsschrift ergab, dass ganzheitliche Verfahren sich dazu besonders eignen. Zu solchen ganzheitlichen Verfahren gehört die Biokristallisation. Bei diesem Verfahren kristallisiert eine Mischung aus Probe und CuCl2 auf einer Glasplatte zu einem Bild, das sowohl visuell, als auch computergestützt ausgewertet werden kann. Es wurden zunächst alle Schritte im Labor dokumentiert und entsprechende Standardarbeitsanweisungen erstellt. Mit einem eigens entwickelten Computerprogramm werden die Bedingungen während der Probenaufbereitung und Kristallisation für jede Probe und jedes Bild erfasst. Mit einer Texturanalyse können auch die für diese Arbeiten erstellte große Menge an Bildern ausgewertet und die Ergebnisse statistisch bearbeitet werden. Damit ist es möglich das Verfahren und Methoden für Weizen- und Möhrenproben zu charakterisieren. Es wurden verschiedene Einflussgrößen untersucht. Das Verfahren ist besonders gegenüber Änderungen in der Probenvorbereitung (z.B. Vermahlung, Mischungsverhältnis) empfindlich. Es wurde sowohl die Methodenstreuung, als auch der Anteil einzelner Schritte an der Gesamtstreuung für Weizen-, Möhren- und Apfelproben ermittelt. Die Verdampfung und Kristallisation hat den größten Anteil an der Gesamtstreuung. Die Durchführung eines Laboreignungstests zeigte, dass die so dokumentierten und charakterisierten Methoden in anderen Laboratorien erfolgreich eingesetzt werden können. Das Verfahren wurde für die nominale Unterscheidung von Weizen-, Möhren- und Apfelproben aus unterschiedlichem Anbau und Verarbeitungsschritten eingesetzt. Weizen-, Möhren- und Apfelproben aus definiertem Anbau können signifikant unterschieden werden. Weizen-, Möhren- und Apfelproben vom Erzeuger (Markt) konnten im Paarvergleich (ökologisch, konventionell) teilweise signifikant getrennt werden. Das Verfahren ist auch für die Charakterisierung von verarbeiteten Proben einsetzbar. Es konnte der Einfluss von Saftherstellung, Erwärmung und Alterung signifikant gezeigt werden. Darüber hinaus lässt sich das Verfahren auf weitere Probenarten anwenden. Das Verfahren arbeitet ganzheitlich, d.h. es werden keine Einzelstoffe analytisch bestimmt, sondern als Ergebnis wird ein Bild erhalten. Die Textur- und Struktureigenschaften dieses Bildes können mit standardisierten Methoden ausgewertet werden.
Resumo:
Im Mittelpunkt der Arbeit steht die Entwicklung eines Konzeptes einer psychoanalytischen Prävention zur Verhinderung von psychischen und psychosomatischen Erkrankungen bei Kindern im Alter von 0-3 Jahre unter Einbeziehung ihrer Eltern. Dieses soll nicht lediglich die Entstehung von Symptomen bei Kindern in statu nascendi verhindern, sondern darüber hinausgehend der Entfaltung einer stabilen altersgemäßen Persönlichkeit im Rahmen einer adäquaten, kindlichen, psychischen und körperlichen Entwicklung dienen. Ohne mögliche genetische Kofaktoren in Abrede zu stellen, werden in dieser Arbeit die schon in der Säuglingszeit beginnenden, sozialen und familiendynamischen Entwicklungsbedingungen von Kindern als die entscheidenden Variablen in den Überlegungen zur Psychopathologie angesehen, die auch in der Entwicklung des Gehirns über die daraus resultierenden frühen Bindungserfahrungen mit den Eltern eine entscheidende Rolle spielen. So können die Wurzeln von später verdrängten kindlichen Konflikten mit den Wünschen nach einem emotionalen Austausch in Bezug auf Ohnmachtserlebnisse bis in die früheste Kindheit hinein reichen und später u.a. zu Symptomen von Unaufmerksamkeit und Bewegungsunruhe führen. In der vorliegenden Arbeit werden psychoanalytisch reflektierte Interviews als hypothesengenerierendes Forschungsinstrument angewandt, mit dem sich das in der Übertragung und Gegenübertragung vermittelnde, individuelle, zugrunde liegende, innere Erleben erschließen lässt. Die dabei generierten Hypothesen werden durch Evidenzerlebnisse und Erweiterungen der Handlungsspielräume der Betroffenen bestätigt oder verworfen. Anhand einer nach intrafamiliären Kommunikationsstörungen, sozialen Status, psychischer und körperlicher Komorbidität und Alter ausgewählten Anzahl von fünf Einzelfalldarstellungen von beteiligten Familien wird ein Einblick in die auf die inner familiären Konfliktkonstellationen ausgerichteten Interventionstechniken ermöglicht. Unter Berücksichtigung der Abwehrstruktur der beteiligten Personen und einer auf einem emotionalen Verstehen basierenden Begleitung kommen dabei Interventionen, Konfrontationen, Deutungen und gelegentlich auch Beratungen zur Anwendung. Bei allen Familien konnte durch neue Beziehungserfahrungen zunächst in den Sitzungen und danach auch außerhalb eine Symptom- und Konfliktreduzierung bzw. -auflösung bei den Kindern und einigen der Erwachsenen erreicht werden. Zwei Erwachsene begannen eine eigene Psychotherapie, um u.a. ihre emotionalen Handlungsspielräume ihren Kindern gegenüber zu erweitern. Die Replizierbarkeit der Ergebnisse der Studie müssen der Langzeituntersuchung an ausreichend großen und differenzierten Stichproben vorbehalten bleiben.
Resumo:
Die Arbeit soll einen Einblick in die Theorie der Kettenbrüche geben. Wir haben gesehen, dass schwer greifbare Zahlen als Kettenbrüche ausgedrückt werden können. Es ist besonders hervorzuheben, dass irrationale Zahlen mit Hilfe einer Abschätzung vereinfacht durch Kettenbrüche dargestellt werden können. Weiter sind wir auch darauf eingegangen, wie wir Kettenbrüche wieder in eine rationale Darstellung umwandeln können. Es wurde gezeigt, wie wir rationale Zahlen als endlichen Kettenbrüche schreiben können. Die endlichen Kettenbrüche lieferten uns dann die Grundlage, um unendliche zu betrachten, wobei das größte Augenmerk darauf gerichtet war, dass wir eine irrationale Zahl durch einen unendlichen Kettenbruch abschätzen können. Den Kern der Arbeit bildet der Kettenbruch-Algorithmus, mit dessen Hilfe wir irrationale Zahlen in einen Kettenbruch umwandeln können. Ein wichtiger Aspekt sind auch die Abschätzungen, die wir vorgenommen haben. Mit ihrer Hilfe können wir sehen, wie dicht die letzte Konvergente der Kettenbruchentwicklung an der gesuchten irrationalen Zahl liegt. Da die Konvergenten immer aus teilerfremden Zählern und Nennern bestehen, können wir sogar sagen, dass eine Konvergente die beste Approximation an eine irrationale Zahl bietet. Es ist die beste Approximation in dem Sinne, dass keine rationale Zahl mit kleinerem oder gleichem Nenner existiert, die die irrationale Zahl besser annähert. Ein weiterer wichtiger Aspekt der Kettenbruchtheorie ist, dass quadratische Irrationalitäten endlich durch einen periodischen Kettenbruch dargestellt werden können. Es ist bemerkenswert, dass Kettenbrüche von quadratischen Irrationalitäten eine Regelmäßigkeit aufweisen, so dass sie endlich als periodicher Kettenbruch geschrieben werden können.
Resumo:
Objektorientierte Modellierung (OOM) im Unterricht ist immer noch ein breit diskutiertes Thema - in der Didaktik akzeptiert und gewünscht, von der Praxis oft als unnötiger Overhead oder als schlicht zu komplex empfunden. Ich werde in dieser Arbeit zeigen, wie ein Unterrichtskonzept aufgebaut sein kann, das die lerntheoretischen Vorteile der OOM nutzt und dabei die berichteten Schwierigkeiten größtenteils vermeidet. Ausgehend von den in der Literatur dokumentierten Konzepten zur OOM und ihren Kritikpunkten habe ich ein Unterrichtskonzept entwickelt, das aus Erkenntnissen der Lernpsychologie, allgemeiner Didaktik, Fachdidaktik und auch der Softwaretechnik Unterrichtsmethoden herleitet, um den berichteten Schwierigkeiten wie z.B. dem "Lernen auf Vorrat" zu begegnen. Mein Konzept folgt vier Leitideen: models first, strictly objects first, Nachvollziehbarkeit und Ausführbarkeit. Die strikte Umsetzung dieser Ideen führte zu einem Unterrichtskonzept, das einerseits von Beginn an das Ziel der Modellierung berücksichtigt und oft von der dynamischen Sicht des Problems ausgeht. Da es weitgehend auf der grafischen Modellierungsebene verbleibt, werden viele Probleme eines Programmierkurses vermieden und dennoch entstehen als Ergebnis der Modellierung ausführbare Programme.