17 resultados para Flexibilität

em Universitätsbibliothek Kassel, Universität Kassel, Germany


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Privatisierung im Hochschulwesen ist eine neue internationale Tendenz, die in der Welt in den letzten 25 Jahren zu umfangreichen wissenschaftlichen Diskussionen zwischen den Experten dieses Gebietes geführt hat. Die private Hochschulbildung erstreckt sich über ein großes Feld der verschiedenen Studiengänge. Ihre Ziele und Aufgaben sowie ihre Bedeutung unterscheiden sich von Staat zu Staat. Ebenso ist die private Hochschulbildung unterschiedlich aufgebaut hinsichtlich ihrer Größe, Finanzierung usw. Die Errichtung einiger privater Hochschulen in Ägypten beeinflusste ebenfalls die wissenschaftliche Diskussion zwischen den Experten bis heute. Um die ägyptische Erfahrung in diesem Gebiet beurteilen zu können, wurde die deutsche Situation vergleichend betrachtet. Das Ziel der Dissertation ist die Beschreibung und Analyse des aktuellen Standes der Entwicklung des privaten Hochschulwesens in Ägypten und in Deutschland, um Ähnlichkeiten und Unterschiede herauszuarbeiten, Nachteile und Vorteile der Entwicklung in beiden Ländern zu bewerten sowie Vorschläge zur Verbesserung der Lage zu machen. Als Untersuchungsmethode wurde die Fallstudie benutzt, dabei wurden jeweils fünf repräsentative Hochschulen ausgewählt. Sie unterschieden sich in den Studienangeboten, der regionalen Lage, der Größe, der Hochschulart, der fachlichen Ausrichtung und dem Gründungsdatum. Das Thema wurde in zwei Teilen behandelt, in einem theoretischen und in einem praktischen Teil. Im theoretischen Teil werden die Geschichte des Hochschulwesens allgemein und seine Entwicklung, Ziele und Aufgaben sowie die gegenwärtige Situation behandelt. In diesem Kontext werden auch die Bedeutung der privaten Hochschulen, ihre Entstehung und Entwicklung, ihre Ziele und Aufgaben, ihre Finanzierung und ihre gesetzliche Lage untersucht; die ausgewählten privaten Hochschulen werden detailliert beschrieben. Der praktische Teil dieser Untersuchung erfolgte vorwiegend in Form von Befragungen an den ausgewählten privaten Hochschulen. Die wichtigsten behandelten Bereiche der Befragungen waren: - Beziehungen zwischen Staat und Hochschule, - Ziel und Aufgaben der Leistungsbewertung, - Finanzierung, - Auswahl der Studienbewerber, - Lehrkörper, - Lehrpläne und -programme. Ergebnisse: Die privaten Hochschulen in Ägypten konnten bis zum heutigen Tag ihre Ziele hinsichtlich der Lehre und der Forschung nicht erreichen. Aufgrund der häufigen Veränderungen bei den staatlichen Rahmenbedingungen wurde die angestrebte Flexibilität nicht erreicht. Zusätzlich leiden die neugegründeten privaten Hochschulen unter der mangelhaften Finanzierung, da sie sich vorwiegend aus Studiengebühren tragen. Deshalb leisten sie keinen Beitrag für die Gesamtfinanzierung des ägyptischen Hochschulsektors. Eine Ausnahme stellt die Französische Universität in Kairo dar. Die deutschen privaten Hochschulen haben ihre Ziele hinsichtlich der Lehre und der Forschung zu einem großen Anteil erreicht. Dies erfolgte vor allem durch eine größere Flexibilität, eine bessere finanzielle Ausstattung sowie zusätzliche unterschiedliche Quellen der Finanzierung. Der Beitrag einiger privater Hochschulen an der Gesamtfinanzierung des deutschen Hochschulwesens ist groß. Generell beruht die Qualität des privaten Hochschulwesens auf der Bildungsphilosophie sowie der allgemeinen Politik des Staates und darauf, wie weit den Anforderungen der Gesellschaft entsprochen wird und ob ein Beitrag zu Entwicklung des Hochschulwesens geleistet wird. Weiterhin ist deren Erfolg von einer ausreichenden Finanzierung abhängig.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ausgehend von dem von Friedrich Edding geprägten Begriff der Schlüsselfähigkeit entwickelte Dieter Mertens Anfang der 1970er Jahre sein Konzept der Schlüsselqualifikationen. Damit suchte er Wege, Menschen so zu qualifizieren, dass sie ihnen übertragene berufliche Aufgaben, auch in einem sich rasch verändernden Umfeld, bewältigen können. In der vorliegenden Arbeit wird gezeigt, dass die Rezeption des Begriffs in verschiedenen Bildungsbereichen mit unterschiedlichen Intensitäten und Resultaten verlief. Am folgenreichsten war die Rezeption in der Berufsbildung. Von wenigen skeptischen Stimmen abgesehen, stieß das Konzept der Schlüsselqualifikationen auf positive Zustimmung und mehrere Umsetzungsversuche wurden unternommen. Diese führten allerdings zu einer Verlängerung der Liste der Schlüsselqualifikationen (die ursprünglich von Mertens als abschließbar angedacht war). Ein Konsens, was in der Berufsbildung als Schlüsselqualifikationen zu gelten hat, ist immer noch nicht in Sicht. In den allgemeinbildenden Schulen hingegen fand das Konzept keine große Beachtung. Zwar wurde hin und wieder auf den Begriff zurückgegriffen, um beispielsweise allgemein verbindliche Standards in der Schule zu thematisieren oder neuen Inhalten eine Legitimation zu verschaffen, dennoch griff die Debatte in der Schulpädagogik nicht nachhaltig. Gründe dafür liegen zum einen in der dem Konzept inhärenten berufsvorbereitenden Funktion, die der Idealvorstellung einer zweckfreien Bildung widerspricht, zum anderen in der relativ straffen und zentralisierten Gestaltung der Lehrpläne. Die vorliegende Arbeit setzt sich mit dem Konzept der Schlüsselqualifikationen im Hochschulbereich auseinander. Eine Untersuchung von ca. 130 deutsch- und englischsprachigen Arbeiten, die Schlüsselqualifikationen im Hochschulbereich zum Thema haben, belegt eine sehr große Heterogenität der zugrunde liegenden Vorstellungen und konkreten Modelle. Es wird gezeigt, dass die zwei wichtigsten Ordnungsschemata, die gelegentlich zur Abgrenzung der Schlüsselqualifikationen gegenüber anderen Bildungskomponenten herangezogen werden (nämlich die Taxonomie der Lernziele von Bloom und das Handlungskompetenzmodell von Roth in der Weiterentwicklung von Reetz) mit keinem kohärenten Rahmenwerk, das der Fülle der Modelle von Schlüsselqualifikationen im Hochschulbereich gerecht wäre, aufwarten können. Eine Alternative bietet eine diskursanalytische Perspektive foucaultscher Prägung. Begriffen als eine diskursive Formation, haben Modelle der Schlüsselqualifikationen ihre Gemeinsamkeit nicht in dem vermeintlich gemeinsamen Gegenstand. Demnach sind Schlüsselqualifikationen in der heutigen Hochschuldebatte keine Qualifikationen suis generis, die eine eigene Kategorie bilden, sondern eine Antwort auf die Herausforderungen, die die verschiedenartigen Veränderungen in und um Hochschulen mit sich bringen. Es lassen sich drei Kontexte identifizieren, in denen die Modelle der Schlüsselqualifikationen der Herausforderung zu begegnen versuchen: in der Gesellschaft im Allgemeinen, in der vor-universitären Bildung sowie in der Hochschulbildung und in der Berufswelt. In diesen Kontexten artikulieren die Modelle der Schlüsselqualifikationen verschiedene Dimensionen, um Gesellschafts-, Studier und Beschäftigungsfähigkeit der Studierenden zu fördern. Eine vergleichende Analyse der Debatten und Modelle der Schlüsselqualifikationen in der BRD und in England zeigt, dass diese drei Kontexte in beiden Ländern vorfindbar sind, jedoch deren inhaltliche Vorstellung und konkrete Umsetzung aufgrund der Partikularitäten des jeweiligen Hochschulsystems unterschiedliche Akzentuierungen erfahren. Anders als in der BRD betonen die Modelle der Förderung der Studierfähigkeit in England die Brückenkurse als Hilfestellung bei der Vorbereitung auf das Studium. Das hängt mit den uneinheitlichen Zugangsregelungen zum Hochschulstudium und der hierarchischen Struktur im englischen Hochschulsystem zusammen. Bei der Förderung der Beschäftigungsfähigkeit setzen die Modelle der Schlüsselqualifikationen in Deutschland, wo traditionell ein Hochschulstudium als berufsvorbereitend angesehen wird, den Akzent auf Praxisbezug des Studiums und auf Flexibilität. In England hingegen, wo sich das Studium per se nicht als berufsqualifizierend versteht, rücken die Modelle der Schlüsselqualifikationen den Übergang in den Arbeitsmarkt und das Karrieremanagement - subsumiert unter dem Konzept der employability - in den Vordergrund.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Durch Selbstorganisation gebildete monomolekulare Filme spielen eine große Rolle bei der gezielten Funktionalisierung von Oberflächen. Sie entstehen meist durch in situ Adsorption von Adsorbatmolekülen auf Substratoberflächen. Ankergruppen stellen dabei das mit dem Substrat wechselwirkende Molekülsegment dar. Dreizähnig konstruierte Ankergruppen, die über ein vierbindiges Verzweigungsatom im Molekül integriert sind, zeichnen sich durch den Vorteil aus, dass sie eine senkrechte Anordnung der Adsorbatmoleküle zur Substratoberfläche bevorzugen. Die Interaktion von schwefelhaltigen Ankergruppen in Form von Thioether-Einheiten mit Goldsubstraten stellt dabei ein besonders interessantes und vielversprechendes System dar und wurde in dieser Arbeit durch tripodale (Methylthio)methyl-Einheiten realisiert. Die Ordnung der Monolagen kann durch starr konstruierte Moleküle erhöht werden, da rigide Strukturelemente die intramolekulare Flexibilität der Moleküle herabsetzen. Es ist gelungen, im Rahmen dieser Arbeit zwei neue tripodale Thioetherliganden darzustellen. Die Dreizähnigkeit der Liganden konnte auf Basis molekularer Koordinationschemie belegt werden. Durch Synthese der Tricarbonylwolfram-(0)-Ligand-Komplexe konnten pseudo-oktaedrische Chelat-Komplexe eindeutig charakterisiert werden. Desweiteren ist es gelungen, die geordnete Monolagenbildung auf Gold zu bestätigen und vielfältig zu charakterisieren. Zwei neue ferrocenylfunktionalisierte Halogen-Derivate konnten dargestellt werden und erweitern damit die vorhandene Bibliothek dieser Substanzgruppe. Daraus ist in einer nächsten Stufe ein direktes Edukt für die Synthese ferrocenylfunktionalisierter Schwefel-Tripodliganden entstanden. Diese Arbeit war Teil eines Kooperationsprojekts mit der Arbeitsgruppe Experimentalphysik I in Rahmen des CINSaT. Die neu dargestellten Verbindungen wurden in dieser Arbeitsgruppe hinsichtlich ihrer Adsorptionseigenschaften auf Gold(111)-Oberflächen eingehend untersucht und die entstandenen Monolagen charakterisiert (SHG, Ellipsometrie, XPS, STM, FTIR). Ein Zweistufenprozeß der Filmbildung konnte entwickelt werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Zwischennutzungen sind ein Alltagsphänomen, das seit Ende der 1990er Jahre im wissenschaftlichen Kontext und der kommunalen Praxis der Stadt- und Freiraumentwicklung auffallend an Aufmerksamkeit gewinnt. Die vorliegende Arbeit widmet sich dem Phänomen aus der Perspektive der Freiraumentwicklung als kommunaler Aufgabe. Im Zentrum des Interesses steht die Frage, welche aktuelle Bedeutung Zwischennutzungen, verstanden als die vorübergehende Freiraumnutzung brachliegender Baugrundstücke, für freiraumbezogene öffentliche Aufgaben und Handlungsansätze haben bzw. welche Potentiale sie dafür bieten. Vor dem Hintergrund heterogener gesellschaftlicher und räumlicher Gegebenheiten, der Erkenntnis um eine begrenzte hoheitliche Steuerbarkeit der weiteren stadträumlichen Entwicklung und angesichts knapper Haushaltsmittel ist die kommunale Freiraumentwicklung gefordert, sich bezüglich ihrer Kernaufgaben aber auch bezüglich ihrer Rolle bei der Erfüllung dieser Aufgaben neu zu positionieren. Vermehrt werden Forderungen nach einem Abgehen von „allgemeingültigen“ Versorgungsstandards und traditionellen „Produktionsprozessen“ laut. Flexiblere Freiraumangebote sollen Gestaltungsspielräume für eigeninitiatives Handeln und wechselhafte oder neuartige Nutzungen eröffnen. Mit dem Setzen von Prioritäten, einer verstärkten Kundenorientierung und aktivierenden bzw. kooperativen Handlungsansätzen soll der schlechten Haushaltslage begegnet werden. Zwischennutzungen deuten aufgrund ihrer funktionalen, räumlichen und zeitlichen Flexibilität Möglichkeiten an, auf diese Anforderungen einzugehen. Der Blick in die Verwaltungspraxis einzelner Städte zeigt, dass Zwischennutzungen in der kommunalen Freiraumentwicklung in verschiedenen Zusammenhängen gezielt aufgegriffen werden und dabei diverse Bezüge zu diesen aktuellen Anforderungen herstellen lassen. Der Stellenwert, der ihnen beigemessen wird, reicht dabei vom Ausnahmefall bis zum bewährten Ansatz. Mit den Maßnahmen werden häufig akute bzw. kurzfristige Ziele verfolgt, etwa die vorübergehende Schaffung zusätzlicher Spiel- und Aufenthaltsmöglichkeiten oder die Aufwertung brachliegender Flächen durch extensive Gestaltungsmaßnahmen. Die Projekte sind häufig charakterisiert durch intensive Kooperationen mit anderen öffentlichen und mit nicht-öffentlichen Akteuren. Die Einbindung von Zwischennutzungen in das alltägliche Verwaltungshandeln ist allerdings auch mit diversen Schwierigkeiten verbunden, wie erste Institutionalisierungsansätze in manchen Städten zeigen. Die Verknüpfung unterschiedlicher Zeithorizonte im Planungsgeschehen, die Verbindung des temporären Phänomens Zwischennutzung mit dem traditionellerweise auf Dauerhaftigkeit ausgerichteten Aufgabenverständnis der kommunalen Freiraumentwicklung verlangt nach einer Modifizierung bisheriger Positionen und Herangehensweisen. Ein solcher Anpassungsprozess im Verwaltungshandeln lässt sich nur langfristig und schrittweise bewältigen und ist als Teil der – angesichts aktueller Entwicklungen notwendigen – Weiterentwicklung freiraumbezogener Aufgaben und Handlungsansätze zu verstehen. Zwischennutzungen können neben ihren kurzfristig umsetzbaren Funktionen einen Beitrag dazu leisten.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Das Grünbuch 2006 der Europäischen Kommission "Eine Europäische Strategie für nachhaltige, wettbewerbsfähige und sichere Energie" unterstreicht, dass Europa in ein neues Energie-Zeitalter eingetreten ist. Die vorrangigen Ziele europäischer Energiepolitik müssen Nachhaltigkeit, Wettbewerbsfähigkeit und Versorgungssicherheit sein, wobei sie eine zusammenhängende und logische Menge von Taktiken und Maßnahmen benötigt, um diese Ziele zu erreichen. Die Strommärkte und Verbundnetze Europas bilden das Kernstück unseres Energiesystems und müssen sich weiterentwickeln, um den neuen Anforderungen zu entsprechen. Die europäischen Stromnetze haben die lebenswichtigen Verbindungen zwischen Stromproduzenten und Verbrauchern mit großem Erfolg seit vielen Jahrzehnten gesichert. Die grundlegende Struktur dieser Netze ist entwickelt worden, um die Bedürfnisse großer, überwiegend auf Kohle aufgebauten Herstellungstechnologien zu befriedigen, die sich entfernt von den Verbraucherzentren befinden. Die Energieprobleme, denen Europa jetzt gegenübersteht, ändern die Stromerzeugungslandschaft in zwei Gesichtspunkten: die Notwendigkeit für saubere Kraftwerkstechnologien verbunden mit erheblich verbesserten Wirkungsgraden auf der Verbraucherseite wird es Kunden ermöglichen, mit den Netzen viel interaktiver zu arbeiten; andererseits müssen die zukünftigen europaweiten Stromnetze allen Verbrauchern eine höchst zuverlässige, preiswerte Energiezufuhr bereitstellen, wobei sowohl die Nutzung von großen zentralisierten Kraftwerken als auch kleineren lokalen Energiequellen überall in Europa ausgeschöpft werden müssen. In diesem Zusammenhang wird darauf hingewiesen, dass die Informationen, die in dieser Arbeit dargestellt werden, auf aktuellen Fragen mit großem Einfluss auf die gegenwärtigen technischen und wirtschaftspolitischen Diskussionen basieren. Der Autor hat während der letzten Jahre viele der hier vorgestellten Schlussfolgerungen und Empfehlungen mit Vertretern der Kraftwerksindustrie, Betreibern von Stromnetzen und Versorgungsbetrieben, Forschungsgremien und den Regulierungsstellen diskutiert. Die folgenden Absätze fassen die Hauptergebnisse zusammen: Diese Arbeit definiert das neue Konzept, das auf mehr verbraucherorientierten Netzen basiert, und untersucht die Notwendigkeiten sowie die Vorteile und die Hindernisse für den Übergang auf ein mögliches neues Modell für Europa: die intelligenten Stromnetze basierend auf starker Integration erneuerbarer Quellen und lokalen Kleinkraftwerken. Das neue Modell wird als eine grundlegende Änderung dargestellt, die sich deutlich auf Netzentwurf und -steuerung auswirken wird. Sie fordert ein europäisches Stromnetz mit den folgenden Merkmalen: – Flexibel: es erfüllt die Bedürfnisse der Kunden, indem es auf Änderungen und neue Forderungen eingehen kann – Zugänglich: es gestattet den Verbindungszugang aller Netzbenutzer besonders für erneuerbare Energiequellen und lokale Stromerzeugung mit hohem Wirkungsgrad sowie ohne oder mit niedrigen Kohlendioxidemissionen – Zuverlässig: es verbessert und garantiert die Sicherheit und Qualität der Versorgung mit den Forderungen des digitalen Zeitalters mit Reaktionsmöglichkeiten gegen Gefahren und Unsicherheiten – Wirtschaftlich: es garantiert höchste Wirtschaftlichkeit durch Innovation, effizientes Energiemanagement und liefert „gleiche Ausgangsbedingungen“ für Wettbewerb und Regulierung. Es beinhaltet die neuesten Technologien, um Erfolg zu gewährleisten, während es die Flexibilität behält, sich an weitere Entwicklungen anzupassen und fordert daher ein zuversichtliches Programm für Forschung, Entwicklung und Demonstration, das einen Kurs im Hinblick auf ein Stromversorgungsnetz entwirft, welches die Bedürfnisse der Zukunft Europas befriedigt: – Netztechnologien, die die Stromübertragung verbessern und Energieverluste verringern, werden die Effizienz der Versorgung erhöhen, während neue Leistungselektronik die Versorgungsqualität verbessern wird. Es wird ein Werkzeugkasten erprobter technischer Lösungen geschaffen werden, der schnell und wirtschaftlich eingesetzt werden kann, so dass bestehende Netze Stromeinleitungen von allen Energieressourcen aufnehmen können. – Fortschritte bei Simulationsprogrammen wird die Einführung innovativer Technologien in die praktische Anwendung zum Vorteil sowohl der Kunden als auch der Versorger stark unterstützen. Sie werden das erfolgreiche Anpassen neuer und alter Ausführungen der Netzkomponenten gewährleisten, um die Funktion von Automatisierungs- und Regelungsanordnungen zu garantieren. – Harmonisierung der ordnungspolitischen und kommerziellen Rahmen in Europa, um grenzüberschreitenden Handel von sowohl Energie als auch Netzdienstleistungen zu erleichtern; damit muss eine Vielzahl von Einsatzsituationen gewährleistet werden. Gemeinsame technische Normen und Protokolle müssen eingeführt werden, um offenen Zugang zu gewährleisten und den Einsatz der Ausrüstung eines jeden Herstellers zu ermöglichen. – Entwicklungen in Nachrichtentechnik, Mess- und Handelssystemen werden auf allen Ebenen neue Möglichkeiten eröffnen, auf Grund von Signalen des Marktes frühzeitig technische und kommerzielle Wirkungsgrade zu verbessern. Es wird Unternehmen ermöglichen, innovative Dienstvereinbarungen zu benutzen, um ihre Effizienz zu verbessern und ihre Angebote an Kunden zu vergrößern. Schließlich muss betont werden, dass für einen erfolgreichen Übergang zu einem zukünftigen nachhaltigen Energiesystem alle relevanten Beteiligten involviert werden müssen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mit einer Virtuellen Organisation können Flexibilität, Schnelligkeit, Innovationsfähigkeit, Internationalität, Qualität und Effizienz erreicht werden. All dies sind Anforderungen, die Bildungsanbieter heutzutage zwingend erfüllen müssen, um im Wettbewerb bestehen zu können. Die Arbeit geht daher der Frage nach, ob die Virtuelle Organisation eine sinnvolle Organisationsvariante für Bildungsanbieter sein kann bzw. welches Ausmaß an Virtualität sinnvoll sein kann: Der Bildungsanbieter als Netzwerk aus einer koordinierenden Programmzentrale und spezialisierten Anbietern von Lehrleistungen, die situativ in den Bildungsbetrieb einbezogen werden? Im Fokus der Untersuchung steht die Managementausbildung, die angeboten wird von Institutionen des tertiären Bildungssektors und Anbietern berufsbezogener Weiterbildung. Zur Beantwortung der Kernfrage werden zunächst Kriterien erarbeitet, die beschreiben, wann eine Virtuelle Organisation generell Sinn macht. Diese beziehen sich in erster Linie auf die Eigenschaften des von der Organisation hergestellten Produktes. Daher wird im nächsten Schritt eine Produktstruktur für die Managementausbildung hergeleitet, die später mit den Eignungskriterien für die Virtuelle Organisation abgeglichen werden kann. Die Soll-Produktstruktur für die Managementausbildung wird basierend auf dem typischen Karriereverlauf einer Fach- und Führungskraft entwickelt. Ergebnis ist eine Differenzierung des Gesamtkonstrukts Managementausbildung in die Produkte Grundlagenstudium, Vertiefungsstudium und Weiterbildung. Die Eigenschaften der Managementausbildungsprodukte werden untersucht und den Eignungskriterien der Virtuellen Organisation gegenüber gestellt, um so zu einer Aussage über die Virtualisierungsfähigkeit der einzelnen Produkte zu gelangen. Abschließend wird für jedes Produkt der Managementausbildung eine Virtualisierungsvision entwickelt und die Implikationen für die verschiedenen Anbieter von Managementausbildung werden aufgezeigt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Der Anteil dezentraler eingebetteter Systeme steigt in zahlreichen Andwendungsfeldern, wie der Kfz-Elektronik oder der Anlagenautomatisierung [ScZu03]. Zudem steigen die Anforderungen and die Flexibilität und den Funktionsumfang moderner automatisierungs-technischer Systeme. Der Einsatz agentenorientierter Methoden ist diesbezüglich ein geeigneter Ansatz diesen Anforderungen gerecht zu werden [WGU03]. Mit Agenten können flexible, anpassungsfähige Softwaresysteme entwickelt werden, welche die Verteilung von Informationen, Aufgaben, Ressourcen oder Entscheidungsprozessen der realen Problemstellung im Softwaresystem widerspiegeln. Es ist somit möglich, die gewünschte Flexibilität des Systems, bezüglich der Struktur oder des Verhaltens gezielt zu entwerfen. Nachteilig ist jedoch der Indeterminismus des Verhaltens des Gesamtsystems, der sich aufgrund von schwer vorhersagbaren Interaktionen ergibt [Jen00]. Dem gegenüber stehen statische Softwaresysteme, welche zwar einen hohen Determinismus aufweisen aber wenig flexibel in Bezug auf Änderungen der Struktur des Systems oder des Ablaufs des realen Prozesses sind. Mit der steigenden Komplexität der Systeme ist allerdings selbst mit einem statischen Entwurf die Vorhersagbarkeit immer weniger zu gewährleisten. Die Zahl der möglichen Zustände einer Anlage wird mit der Berücksichtigung von allen möglichen Fehlern, Ausfällen und externen Einflüssen (dynamische Umgebung) so groß, daß diese mit vertretbarem Aufwand kaum noch erfassbar sind und somit auch nicht behandelt werden können. Das von der DFG geförderten Projekt AVE [AVE05], welches in Kooperation mit dem Institut für Automatisierungs- und Softwaretechnik der Universität Stuttgart bearbeitet wird, beschäftigt sich in diesem Kontext mit dem Konflikt, die Vorteile der Flexibilität und Anpassungsfähigkeit von agentenorientierter Software mit den spezifischen Anforderungen der Domäne der Echtzeitsysteme, wie Zeit- und Verlässlichkeitsanforderungen, zu verknüpfen. In einer detaillierten Analyse dieser Anforderungen wurde untersucht, wie die Eigenschaften der Anpassungsfähigkeit und Flexibilität prinzipiell die Anforderungen an Echtzeit- und Verlässlichkeitseigenschaften beeinflussen und wie umgekehrt Anforderungen an Echtzeit- und Verlässlichkeitseigenschaften die Anpassungsfähigkeit und Flexibilität beschränken können. Aufbauend auf diesen Erkenntnissen werden Methoden und Konzepte für den Entwurf und die Implementierung von Agentensystemen auf gängiger Automatisierungshardware, insbesondere Speicher Programmierbare Steuerungen (SPS), entwickelt. In diesem Rahmen wird ein Konzept für die Modellierung von Sicherheit in Agentensystemen vorgestellt, welches insbesondere den modularen Charakter von Agenten berücksichtigt. Kernaspekt ist es, dem Entwickler einen Rahmen vorzugeben, der ihn dabei unterstützt ein möglichst lückenloses Sicherheitskonzept zu erstellen und ihm dabei genug Freiheiten lässt den Aufwand für die Strategien zur Fehlererkennung, Fehlerdiagnose und Fehlerbehandlung je nach Anforderung für jedes Modul individuell festzulegen. Desweiteren ist besonderer Wert darauf gelegt worden, dass die verwendeten Darstellungen und Diagramme aus der Domäne stammen und eine gute Vorlage für die spätere Implementierung auf automatisierungstechnischer Hardware bieten.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Technologie dienstorientierter Architekturen (Service-oriented Architectures, kurz SOA) weckt große Visionen auf Seiten der Industrie wie auch der Forschung. Sie hat sich als derzeit ideale Lösung für Umgebungen, in denen sich die Anforderungen an die IT-Bedürfnisse rapide ändern, erwiesen. Heutige IT-Systeme müssen Managementaufgaben wie Softwareinstallation, -anpassung oder -austausch erlauben, ohne dabei den laufenden Betrieb wesentlich zu stören. Die dafür nötige Flexibilität bieten dienstorientierte Architekturen, in denen Softwarekomponenten in Form von Diensten zur Verfügung stehen. Ein Dienst bietet über seine Schnittstelle lokalen wie entfernten Applikationen einen Zugang zu seiner Funktionalität. Wir betrachten im Folgenden nur solche dienstorientierte Architekturen, in denen Dienste zur Laufzeit dynamisch entdeckt, gebunden, komponiert, verhandelt und adaptiert werden können. Eine Applikation kann mit unterschiedlichen Diensten arbeiten, wenn beispielsweise Dienste ausfallen oder ein neuer Dienst die Anforderungen der Applikation besser erfüllt. Eine unserer Grundvoraussetzungen lautet somit, dass sowohl das Dienstangebot als auch die Nachfrageseite variabel sind. Dienstorientierte Architekturen haben besonderes Gewicht in der Implementierung von Geschäftsprozessen. Im Rahmen des Paradigmas Enterprise Integration Architecture werden einzelne Arbeitsschritte als Dienste implementiert und ein Geschäftsprozess als Workflow von Diensten ausgeführt. Eine solche Dienstkomposition wird auch Orchestration genannt. Insbesondere für die so genannte B2B-Integration (Business-to-Business) sind Dienste das probate Mittel, um die Kommunikation über die Unternehmensgrenzen hinaus zu unterstützen. Dienste werden hier in der Regel als Web Services realisiert, welche vermöge BPEL4WS orchestriert werden. Der XML-basierte Nachrichtenverkehr und das http-Protokoll sorgen für eine Verträglichkeit zwischen heterogenen Systemen und eine Transparenz des Nachrichtenverkehrs. Anbieter dieser Dienste versprechen sich einen hohen Nutzen durch ihre öffentlichen Dienste. Zum einen hofft man auf eine vermehrte Einbindung ihrer Dienste in Softwareprozesse. Zum anderen setzt man auf das Entwickeln neuer Software auf Basis ihrer Dienste. In der Zukunft werden hunderte solcher Dienste verfügbar sein und es wird schwer für den Entwickler passende Dienstangebote zu finden. Das Projekt ADDO hat in diesem Umfeld wichtige Ergebnisse erzielt. Im Laufe des Projektes wurde erreicht, dass der Einsatz semantischer Spezifikationen es ermöglicht, Dienste sowohl im Hinblick auf ihre funktionalen als auch ihre nicht-funktionalen Eigenschaften, insbesondere die Dienstgüte, automatisch zu sichten und an Dienstaggregate zu binden [15]. Dazu wurden Ontologie-Schemata [10, 16], Abgleichalgorithmen [16, 9] und Werkzeuge entwickelt und als Framework implementiert [16]. Der in diesem Rahmen entwickelte Abgleichalgorithmus für Dienstgüte beherrscht die automatische Aushandlung von Verträgen für die Dienstnutzung, um etwa kostenpflichtige Dienste zur Dienstnutzung einzubinden. ADDO liefert einen Ansatz, Schablonen für Dienstaggregate in BPEL4WS zu erstellen, die zur Laufzeit automatisch verwaltet werden. Das Vorgehen konnte seine Effektivität beim internationalen Wettbewerb Web Service Challenge 2006 in San Francisco unter Beweis stellen: Der für ADDO entwickelte Algorithmus zur semantischen Dienstkomposition erreichte den ersten Platz. Der Algorithmus erlaubt es, unter einer sehr großenMenge angebotener Dienste eine geeignete Auswahl zu treffen, diese Dienste zu Dienstaggregaten zusammenzufassen und damit die Funktionalität eines vorgegebenen gesuchten Dienstes zu leisten. Weitere Ergebnisse des Projektes ADDO wurden auf internationalen Workshops und Konferenzen veröffentlicht. [12, 11]

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In der vorliegenden Arbeit wird die Konzeption und Realisierung der Persistenz-, Verteilungs- und Versionierungsbibliothek CoObRA 2 vorgestellt. Es werden zunächst die Anforderungen an ein solches Rahmenwerk aufgenommen und vorhandene Technologien für dieses Anwendungsgebiet vorgestellt. Das in der neuen Bibliothek eingesetzte Verfahren setzt Änderungsprotokolle beziehungsweise -listen ein, um Persistenzdaten für Dokumente und Versionen zu definieren. Dieses Konzept wird dabei durch eine Abbildung auf Kontrukte aus der Graphentheorie gestützt, um die Semantik von Modell, Änderungen und deren Anwendung zu definieren. Bei der Umsetzung werden insbesondere das Design der Bibliothek und die Entscheidungen, die zu der gewählten Softwarearchitektur führten, eingehend erläutert. Dies ist zentraler Aspekt der Arbeit, da die Flexibilität des Rahmenwerks eine wichtige Anforderung darstellt. Abschließend werden die Einsatzmöglichkeiten an konkreten Beispielanwendungen erläutert und bereits gemachte Erfahrungen beim Einsatz in CASE-Tools, Forschungsanwendungen und Echtzeit-Simulationsumgebungen präsentiert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Simulation hat sich in der Vergangenheit als unterstützendes Planungsinstrument und Prognosemethode zur Untersuchung von Materialflusssystemen in verschiedenen Branchen etabliert. Dafür werden neben Simulationswerkzeugen auch zunehmend Virtual Reality (VR), insbesondere mit dem Ansatz Digitale Fabrik, eingesetzt. Ein Materialflusssimulator, der für den VR–Einsatz geeignet ist,existiert noch nicht, so dass Anwender gegenwärtig mit verschiedenen Systemen arbeiten müssen, um Untersuchungen eines Simulationsmodells in einem VR–Umfeld wie beispielsweise in einem CAVE zu ermöglichen. Zeitlicher Aufwand ist dadurch vorprogrammiert und das Auftreten von Fehlern bei der Konvertierung des Simulationsmodells möglich. Da auch der hauseigene Materialflusssimulator SIMFLEX/3D nicht für beide Anwendungsgebiete genutzt werden kann und für einen solchen Einsatz mit sehr hohem Aufwand angepasst werden müsste, wurde stattdessen ein neues Simulationssystem entworfen. Das Simulationssystem wird in der vorliegenden Arbeit als ein interoperables und offenes System beschrieben, das über eine flexible Softwarearchitektur verfügt und in einem vernetzten Umfeld mit anderen Werkzeugen Daten austauschen kann. Die grundlegende Idee besteht darin, eine flexible Softwarearchitektur zu entwerfen, die zunächst interaktive und ereignisorientierte 3D–Simulation erlaubt, aber zusätzlich für andere Anwendungszwecke offen gehalten wird. Durch den offenen Ansatz können Erweiterungen, die in Form von Plugins entwickelt werden, mit geringem Aufwand in das System integriert werden, wodurch eine hohe Flexibilität des Systems erreicht wird. Für interoperable Zwecke werden Softwaremodule vorgestellt, die optional eingesetzt werden können und standardisierte Formate wie bspw. XML benutzen. Mit dem neuen Simulationssystem wird die Lücke zwischen Desktop– und VR–Einsatz geschlossen und aus diesem Grund der Zeitaufwand und Fehlerquellen reduziert. Darüber hinaus ermöglicht der offene Ansatz, das Simulationssystem rollen- und aufgabenspezifisch anzupassen, indem die erforderlichen Plugins bereitgestellt werden. Aus diesem Grund kann das Simulationssystem mit sehr geringem Aufwand um weitere Untersuchungsschwerpunkte wie beispielsweise Avatare ergänzt werden. Erste Untersuchungen in einem CAVE wurden erfolgreich durchgeführt. Für die Digitale Fabrik kann der Prototyp eingesetzt werden, um die Produktionsplanung mit Hilfe der Simulation und die Entwicklung mit Hilfe der entwickelten Viewer zu unterstützen. Letzteres ist möglich, da die Viewer zahlreiche CAD–Formate lesen und um weitere Formate ergänzt werden können. Das entwickelte System ist für den Einsatz in verschiedenen Prozessen einer Wertschöpfungskette geeignet,um es als Untersuchungs-, Kommunikations- und Steuerungswerkzeug einzusetzen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Es wird der Frage nachgegangen, welchen Einfluss Beziehungskonzepte, also die kognitiven Repräsentationen von Paarbeziehungen, auf den Umgang mit begrenzten Bedürfnissen in Paarbeziehungen haben. Als begrenzte Bedürfnisse werden dabei Wünsche der Beziehungspartner verstanden, welche innerhalb des Beziehungsarrangements keine Erfüllung finden, das heißt, im raummetaphorischen Sinne auf Grenzen stoßen. In einem umfangreichen theoretischen Teil der Arbeit werden Untersuchungen zu Beziehungskonzepten vorgestellt. Es wird eine Arbeitsdefinition zu Beziehungskonzepten für die vorliegende Arbeit hergeleitet. Es wird die Determiniertheit von Beziehungskonzepten durch gesellschaftliche Wandlungsprozesse diskutiert. Des Weiteren wird eine Auswahl an Bedürfniskonzeptionen und –klassifikationen vorgestellt. Daraufhin wird der Begriff des Beziehungshandelns eingeführt, indem ein allgemeines Handlungsmodell vorgestellt und in Bezug zu Beziehungskonzepten gestellt wird. Des Weiteren werden die Rolle der Emotionen und der Aspekt der Emotionsregulation im Kontext von Beziehungshandeln diskutiert. Abschließend wird im theoretischen Teil der Arbeit der Einfluss von Beziehungskonzept und Beziehungshandeln auf die Beziehungsqualität erörtert. Der methodische Teil beschreibt die Empirie der vorliegenden Arbeit. Es wurden 12 Interviews geführt, teilweise leitfadenbasiert und teilweise narrationsgenerierend. Interviewt wurden 15 Personen im Alter von 21-75 Jahren, die alle in einer Beziehung leben. Die Interviews fanden entweder paarweise oder im Einzelsetting statt. Alle Interviews wurden gemäß der Grounded Theory-Methodik nach Strauss und Corbin (1996) ausgewertet. Die Ergebnisse werden in Form eines paradigmatischen Modells strukturiert dargestellt, in dessen Zentrum die raummetaphorische Kategorie „Beziehung als Raum“ steht. Paarbeziehung, räumlich betrachtet, öffnet den Blick auf zwei wesentliche Merkmale der individuellen Ausgestaltung von Beziehung und damit auch des spezifischen Umgangs mit partneradressierten Bedürfnissen: 1. Grenzen konstituieren den Beziehungsraum, der damit als begrenztes Phänomen zu verstehen ist. 2. Die Grenzen des Beziehungsraumes variieren in Eigenschaften wie der Bewusstheit, der expliziten vs. impliziten Thematisierung, der Weite vs. Enge, der Statik vs. Flexibilität. Sie bestimmen damit die Form und die Inhalte der jeweiligen Beziehung. Es wurden aus der Variation dieser Merkmale zwei prototypische Beziehungskonzeptionen herausgearbeitet, das „kulturell, verankerte Beziehungskonzept“ sowie das „alternative, freigesetzte Beziehungskonzept“. Beide Beziehungskonzeptionen werden entlang der Dimension eines Freiheitsgrade in Hinblick auf ihre Ziele, Grenzen und Rollen beschrieben und unterschieden und in der Disposition zu verschiedenen Strategien im Umgang mit begrenzten Bedürfnissen miteinander verglichen. Abschließend wird der Einfluss beider Konzeptionen und verwandter Handlungsstrategien auf die Beziehungsqualität dargestellt. In einem anschließenden Diskussionsteil werden die methodische Güte der Ergebnisse, die inhaltliche Güte der Ergebnisse sowie deren Anwendbarkeit diskutiert und ein Forschungsausblick geben.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

English: The present thesis describes the synthesis of 1,1’-ferrocendiyl-based pyridylphosphine ligands, the exploration of their fundamental coordination chemistry and preliminary experiments with selected complexes aimed at potential applications. One main aspect is the synthesis of the bidentate ferrocene-based pyridylphosphine ligands 1-(Pyrid-2-yl)-1’-diphenylphosphinoferrocene, 1-(Pyrid-3-yl)-1’-diphenylphosphinoferrocene and 1-[(Pyrid-2-yl)methyl]-1’-diphenylphosphinoferrocene. A specific feature of these ligands is the ball-bearing like flexibility of the ferrocenebased backbone. An additional flexibility element is the rotation around the C–C single bonds. Consequently, the donor atoms can realise a wide range of positions with respect to each other and are therefore able to adapt to the coordination requirements of different metal centres. The flexibility of the ligand also plays a role in another key aspect of this work, which concerns the coordination mode, i. e. bridging vs. chelating. In addition to the flexibility, also the position of the donor atoms to each other is important. This is largely affected by the position of the pyridyl nitrogen (pyrid-2-yl vs. pyrid-3-yl) and the methylen group in 1-[(Pyrid-2-yl)methyl]-1’-diphenylphosphinoferrocene. Another interesting point is the combination of a soft phosphorus donor atom with a harder nitrogen donor atom, according to the HSAB principle. This combination generates a unique binding profile, since the pi-acceptor character of the P site is able to stabilise a metal centre in a low oxidation state, while the nitrogen sigma-donor ability can make the metal more susceptible to oxidative addition reactions. A P,N-donor combination can afford hemilabile binding profiles, which would be ideal for catalysis. Beyond 1,2-substituted ferrocene derivatives, which are quite successful in catalytic applications, 1,1’-derivatives are rather underrepresented. While a low-yield synthetic pathway to 1-(Pyrid-2-yl)-1’-diphenylphosphinoferrocene was already described in the literature [I. R. Butler, Organometallics 1992, 11, 74.], it was possible to find a new, improved and simplified synthetic pathway. Both other ligands were unknown prior to this work. Satisfactory results in the synthesis of 1-(Pyrid-3-yl)-1’-diphenylphosphinoferrocene could be achieved by working in analogy to the new synthetic procedure for 1-(Pyrid-2-yl)-1’-diphenylphosphinoferrocene. The synthesis of 1-[(Pyrid-2-yl)methyl]-1’-diphenylphosphinoferrocene has been handled by the group of Prof. Petr Stepnicka from Charles University, Prague, Czech Republic. The synthesis of tridentate ligands with an analogous heterodentate arrangement, was investigated briefly as a sideline of this study. The major part of this thesis deals with the fundamental coordination chemistry towards transition metals of the groups 10, 11 and 12. Due to the well-established catalytic properties of analogous palladium complexes, the coordination chemistry towards palladium (group 10) is of particular interest. The metals zinc and cadmium (group 12) are also of substantial importance because they are redox-inert in their divalent state. This is relevant in view of electrochemical investigations concerning the utilisation of the ligands as molecular redox sensors. Also mercury and the monovalent metals silver and gold (group 11) are included because of their rich coordination chemistry. It is essential to answer questions concerning aspects of the ligands’ coordination mode bearing in mind the HSAB principle.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In dieser Arbeit werden die sich abzeichnenden zukünftigen Möglichkeiten, Stärken und Schwächen der Kraft-Wärme-Kopplung (KWK) untersucht. Dies geschieht vor dem Hintergrund des Klimawandels, der Integration steigender Anteile Erneuerbarer Energien in die Stromerzeugung und unter Berücksichtigung der sich damit ergebenden Herausforderungen, eine sichere und nachhaltige Stromversorgung zu gestalten. Der Fokus liegt auf der Dieselmotor-KWK und der Nutzung nachwachsender Kraftstoffe. Es wird davon ausgegangen, dass der Übergang zu einer reinen Stromerzeugung aus Erneuerbaren Energiequellen in Deutschland unter erheblicher Einbindung des hohen Potentials der kostengünstigen, umweltfreundlichen, aber in der Leistung extrem fluktuierenden Windenergie erfolgen wird. Als dezentrales Integrationswerkzeug wurde die Kraft-Wärme-Kopplung mit Dieselmotoren untersucht. Sie entspricht aufgrund ihrer großen Flexibilität und ihrer hohen Wirkungsgrade mit vergleichsweise kleinen Leistungen sehr gut den Anforderungen der gleichzeitigen dezentralen Wärmenutzung. In der Dissertation werden die Randbedingungen der Dieselmotor-KWK untersucht und beschrieben. Darauf aufbauend werden unterschiedliche Modelle der Windintegration durch KWK erarbeitet und in diversen Variationen wird der Ausgleich der Stromerzeugung aus Windenergie durch KWK simuliert. Darüber hinaus werden dezentrale KWK-Anlagen hinsichtlich eines koordinierten gemeinsamen Betriebs und hinsichtlich der optimalen Auslegung für den Windenergieausgleich betrachtet. Es wird für den beschriebenen Kontext der Erneuerbaren Energien und der Kraft-Wärme-Kopplung das Thema „Umweltwirkungen“ diskutiert. Es wird dargelegt, dass die heute verwendeten Ansätze zur Bewertung der KWK zu einer Verzerrung der Ergebnisse führen. Demgegenüber wurde mit der so genannten Outputmethode eine Methode der Ökobilanzierung vorgestellt, die, im Gegensatz zu den anderen Methoden, keine verzerrenden Annahmen in die Wirkungsabschätzung aufnimmt und somit eine eindeutige und rein wissenschaftliche Auswertung bleibt. Hiermit ist die Grundlage für die Bewertung der unterschiedlichen Technologien und Szenarien sowie für die Einordnung der KWK in den Kontext der Energieerzeugung gegeben. Mit der Outputmethode wird u.a. rechnerisch bewiesen, dass die gekoppelte Strom- und Wärmeerzeugung in KWK-Anlagen tatsächlich die optimale Nutzung der regenerativen Kraftstoffe „Biogas“ und „Pflanzenöl“ im Hinblick auf Ressourceneinsatz, Treibhausgaseinsparung und Exergieerzeugung ist. Es wurde darüber hinaus die Frage untersucht woher die für die Stromerzeugung durch Dieselmotor-KWK-Anlagen notwendige Bioenergie genommen werden kann. Es ist erwiesen, dass die in Deutschland nutzbare landwirtschaftliche Fläche nur zur Deckung eines Teils der Stromerzeugung ausreichen würde. Einheimisches Biogas und nachhaltiges importiertes Pflanzenöl, das in hohem Maße auf degradierten Böden angebaut werden sollte, können die notwendige Brennstoffenergie liefern. Um im Ausland ausreichend Pflanzenöl herstellen zu können, wird eine landwirtschaftliche Fläche von 6 bis 12 Mio. ha benötigt. Das Ergebnis ist, dass ein voller Ausgleich von Windenergie-Restlast durch KWK mit Erneuerbaren Energieträgern sinnvoll und machbar ist! Dieses Wind-KWK-DSM-System sollte durch ein Stromnetz ergänzt sein, das Wasserkraftstrom für den Großteil der Regelenergieaufgaben nutzt, und das den großräumigen Ausgleich Erneuerbarer Energien in Europa und den Nachbarregionen ermöglicht.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

We are currently at the cusp of a revolution in quantum technology that relies not just on the passive use of quantum effects, but on their active control. At the forefront of this revolution is the implementation of a quantum computer. Encoding information in quantum states as “qubits” allows to use entanglement and quantum superposition to perform calculations that are infeasible on classical computers. The fundamental challenge in the realization of quantum computers is to avoid decoherence – the loss of quantum properties – due to unwanted interaction with the environment. This thesis addresses the problem of implementing entangling two-qubit quantum gates that are robust with respect to both decoherence and classical noise. It covers three aspects: the use of efficient numerical tools for the simulation and optimal control of open and closed quantum systems, the role of advanced optimization functionals in facilitating robustness, and the application of these techniques to two of the leading implementations of quantum computation, trapped atoms and superconducting circuits. After a review of the theoretical and numerical foundations, the central part of the thesis starts with the idea of using ensemble optimization to achieve robustness with respect to both classical fluctuations in the system parameters, and decoherence. For the example of a controlled phasegate implemented with trapped Rydberg atoms, this approach is demonstrated to yield a gate that is at least one order of magnitude more robust than the best known analytic scheme. Moreover this robustness is maintained even for gate durations significantly shorter than those obtained in the analytic scheme. Superconducting circuits are a particularly promising architecture for the implementation of a quantum computer. Their flexibility is demonstrated by performing optimizations for both diagonal and non-diagonal quantum gates. In order to achieve robustness with respect to decoherence, it is essential to implement quantum gates in the shortest possible amount of time. This may be facilitated by using an optimization functional that targets an arbitrary perfect entangler, based on a geometric theory of two-qubit gates. For the example of superconducting qubits, it is shown that this approach leads to significantly shorter gate durations, higher fidelities, and faster convergence than the optimization towards specific two-qubit gates. Performing optimization in Liouville space in order to properly take into account decoherence poses significant numerical challenges, as the dimension scales quadratically compared to Hilbert space. However, it can be shown that for a unitary target, the optimization only requires propagation of at most three states, instead of a full basis of Liouville space. Both for the example of trapped Rydberg atoms, and for superconducting qubits, the successful optimization of quantum gates is demonstrated, at a significantly reduced numerical cost than was previously thought possible. Together, the results of this thesis point towards a comprehensive framework for the optimization of robust quantum gates, paving the way for the future realization of quantum computers.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Eine wesentliche Funktionalität bei der Verwendung semantischer Technologien besteht in dem als Reasoning bezeichneten Prozess des Ableitens von impliziten Fakten aus einer explizit gegebenen Wissensbasis. Der Vorgang des Reasonings stellt vor dem Hintergrund der stetig wachsenden Menge an (semantischen) Informationen zunehmend eine Herausforderung in Bezug auf die notwendigen Ressourcen sowie der Ausführungsgeschwindigkeit dar. Um diesen Herausforderungen zu begegnen, adressiert die vorliegende Arbeit das Reasoning durch eine massive Parallelisierung der zugrunde liegenden Algorithmen und der Einführung von Konzepten für eine ressourceneffiziente Ausführung. Diese Ziele werden unter Berücksichtigung der Verwendung eines regelbasierten Systems verfolgt, dass im Gegensatz zur Implementierung einer festen Semantik die Definition der anzuwendenden Ableitungsregeln während der Laufzeit erlaubt und so eine größere Flexibilität bei der Nutzung des Systems bietet. Ausgehend von einer Betrachtung der Grundlagen des Reasonings und den verwandten Arbeiten aus den Bereichen des parallelen sowie des regelbasierten Reasonings werden zunächst die Funktionsweise von Production Systems sowie die dazu bereits existierenden Ansätze für die Optimierung und im Speziellen der Parallelisierung betrachtet. Production Systems beschreiben die grundlegende Funktionalität der regelbasierten Verarbeitung und sind somit auch die Ausgangsbasis für den RETE-Algorithmus, der zur Erreichung der Zielsetzung der vorliegenden Arbeit parallelisiert und für die Ausführung auf Grafikprozessoren (GPUs) vorbereitet wird. Im Gegensatz zu bestehenden Ansätzen unterscheidet sich die Parallelisierung insbesondere durch die gewählte Granularität, die nicht durch die anzuwendenden Regeln, sondern von den Eingabedaten bestimmt wird und sich damit an der Zielarchitektur orientiert. Aufbauend auf dem Konzept der parallelen Ausführung des RETE-Algorithmus werden Methoden der Partitionierung und Verteilung der Arbeitslast eingeführt, die zusammen mit Konzepten der Datenkomprimierung sowie der Verteilung von Daten zwischen Haupt- und Festplattenspeicher ein Reasoning über Datensätze mit mehreren Milliarden Fakten auf einzelnen Rechnern erlauben. Eine Evaluation der eingeführten Konzepte durch eine prototypische Implementierung zeigt für die adressierten leichtgewichtigen Ontologiesprachen einerseits die Möglichkeit des Reasonings über eine Milliarde Fakten auf einem Laptop, was durch die Reduzierung des Speicherbedarfs um rund 90% ermöglicht wird. Andererseits kann der dabei erzielte Durchsatz mit aktuellen State of the Art Reasonern verglichen werden, die eine Vielzahl an Rechnern in einem Cluster verwenden.