864 resultados para große Erzählung


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ausgangspunkt der Dissertation ist ein von V. Maz'ya entwickeltes Verfahren, eine gegebene Funktion f : Rn ! R durch eine Linearkombination fh radialer glatter exponentiell fallender Basisfunktionen zu approximieren, die im Gegensatz zu den Splines lediglich eine näherungsweise Zerlegung der Eins bilden und somit ein für h ! 0 nicht konvergentes Verfahren definieren. Dieses Verfahren wurde unter dem Namen Approximate Approximations bekannt. Es zeigt sich jedoch, dass diese fehlende Konvergenz für die Praxis nicht relevant ist, da der Fehler zwischen f und der Approximation fh über gewisse Parameter unterhalb der Maschinengenauigkeit heutiger Rechner eingestellt werden kann. Darüber hinaus besitzt das Verfahren große Vorteile bei der numerischen Lösung von Cauchy-Problemen der Form Lu = f mit einem geeigneten linearen partiellen Differentialoperator L im Rn. Approximiert man die rechte Seite f durch fh, so lassen sich in vielen Fällen explizite Formeln für die entsprechenden approximativen Volumenpotentiale uh angeben, die nur noch eine eindimensionale Integration (z.B. die Errorfunktion) enthalten. Zur numerischen Lösung von Randwertproblemen ist das von Maz'ya entwickelte Verfahren bisher noch nicht genutzt worden, mit Ausnahme heuristischer bzw. experimenteller Betrachtungen zur sogenannten Randpunktmethode. Hier setzt die Dissertation ein. Auf der Grundlage radialer Basisfunktionen wird ein neues Approximationsverfahren entwickelt, welches die Vorzüge der von Maz'ya für Cauchy-Probleme entwickelten Methode auf die numerische Lösung von Randwertproblemen überträgt. Dabei werden stellvertretend das innere Dirichlet-Problem für die Laplace-Gleichung und für die Stokes-Gleichungen im R2 behandelt, wobei für jeden der einzelnen Approximationsschritte Konvergenzuntersuchungen durchgeführt und Fehlerabschätzungen angegeben werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ausgehend von dem von Friedrich Edding geprägten Begriff der Schlüsselfähigkeit entwickelte Dieter Mertens Anfang der 1970er Jahre sein Konzept der Schlüsselqualifikationen. Damit suchte er Wege, Menschen so zu qualifizieren, dass sie ihnen übertragene berufliche Aufgaben, auch in einem sich rasch verändernden Umfeld, bewältigen können. In der vorliegenden Arbeit wird gezeigt, dass die Rezeption des Begriffs in verschiedenen Bildungsbereichen mit unterschiedlichen Intensitäten und Resultaten verlief. Am folgenreichsten war die Rezeption in der Berufsbildung. Von wenigen skeptischen Stimmen abgesehen, stieß das Konzept der Schlüsselqualifikationen auf positive Zustimmung und mehrere Umsetzungsversuche wurden unternommen. Diese führten allerdings zu einer Verlängerung der Liste der Schlüsselqualifikationen (die ursprünglich von Mertens als abschließbar angedacht war). Ein Konsens, was in der Berufsbildung als Schlüsselqualifikationen zu gelten hat, ist immer noch nicht in Sicht. In den allgemeinbildenden Schulen hingegen fand das Konzept keine große Beachtung. Zwar wurde hin und wieder auf den Begriff zurückgegriffen, um beispielsweise allgemein verbindliche Standards in der Schule zu thematisieren oder neuen Inhalten eine Legitimation zu verschaffen, dennoch griff die Debatte in der Schulpädagogik nicht nachhaltig. Gründe dafür liegen zum einen in der dem Konzept inhärenten berufsvorbereitenden Funktion, die der Idealvorstellung einer zweckfreien Bildung widerspricht, zum anderen in der relativ straffen und zentralisierten Gestaltung der Lehrpläne. Die vorliegende Arbeit setzt sich mit dem Konzept der Schlüsselqualifikationen im Hochschulbereich auseinander. Eine Untersuchung von ca. 130 deutsch- und englischsprachigen Arbeiten, die Schlüsselqualifikationen im Hochschulbereich zum Thema haben, belegt eine sehr große Heterogenität der zugrunde liegenden Vorstellungen und konkreten Modelle. Es wird gezeigt, dass die zwei wichtigsten Ordnungsschemata, die gelegentlich zur Abgrenzung der Schlüsselqualifikationen gegenüber anderen Bildungskomponenten herangezogen werden (nämlich die Taxonomie der Lernziele von Bloom und das Handlungskompetenzmodell von Roth in der Weiterentwicklung von Reetz) mit keinem kohärenten Rahmenwerk, das der Fülle der Modelle von Schlüsselqualifikationen im Hochschulbereich gerecht wäre, aufwarten können. Eine Alternative bietet eine diskursanalytische Perspektive foucaultscher Prägung. Begriffen als eine diskursive Formation, haben Modelle der Schlüsselqualifikationen ihre Gemeinsamkeit nicht in dem vermeintlich gemeinsamen Gegenstand. Demnach sind Schlüsselqualifikationen in der heutigen Hochschuldebatte keine Qualifikationen suis generis, die eine eigene Kategorie bilden, sondern eine Antwort auf die Herausforderungen, die die verschiedenartigen Veränderungen in und um Hochschulen mit sich bringen. Es lassen sich drei Kontexte identifizieren, in denen die Modelle der Schlüsselqualifikationen der Herausforderung zu begegnen versuchen: in der Gesellschaft im Allgemeinen, in der vor-universitären Bildung sowie in der Hochschulbildung und in der Berufswelt. In diesen Kontexten artikulieren die Modelle der Schlüsselqualifikationen verschiedene Dimensionen, um Gesellschafts-, Studier und Beschäftigungsfähigkeit der Studierenden zu fördern. Eine vergleichende Analyse der Debatten und Modelle der Schlüsselqualifikationen in der BRD und in England zeigt, dass diese drei Kontexte in beiden Ländern vorfindbar sind, jedoch deren inhaltliche Vorstellung und konkrete Umsetzung aufgrund der Partikularitäten des jeweiligen Hochschulsystems unterschiedliche Akzentuierungen erfahren. Anders als in der BRD betonen die Modelle der Förderung der Studierfähigkeit in England die Brückenkurse als Hilfestellung bei der Vorbereitung auf das Studium. Das hängt mit den uneinheitlichen Zugangsregelungen zum Hochschulstudium und der hierarchischen Struktur im englischen Hochschulsystem zusammen. Bei der Förderung der Beschäftigungsfähigkeit setzen die Modelle der Schlüsselqualifikationen in Deutschland, wo traditionell ein Hochschulstudium als berufsvorbereitend angesehen wird, den Akzent auf Praxisbezug des Studiums und auf Flexibilität. In England hingegen, wo sich das Studium per se nicht als berufsqualifizierend versteht, rücken die Modelle der Schlüsselqualifikationen den Übergang in den Arbeitsmarkt und das Karrieremanagement - subsumiert unter dem Konzept der employability - in den Vordergrund.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Durch Selbstorganisation gebildete monomolekulare Filme spielen eine große Rolle bei der gezielten Funktionalisierung von Oberflächen. Sie entstehen meist durch in situ Adsorption von Adsorbatmolekülen auf Substratoberflächen. Ankergruppen stellen dabei das mit dem Substrat wechselwirkende Molekülsegment dar. Dreizähnig konstruierte Ankergruppen, die über ein vierbindiges Verzweigungsatom im Molekül integriert sind, zeichnen sich durch den Vorteil aus, dass sie eine senkrechte Anordnung der Adsorbatmoleküle zur Substratoberfläche bevorzugen. Die Interaktion von schwefelhaltigen Ankergruppen in Form von Thioether-Einheiten mit Goldsubstraten stellt dabei ein besonders interessantes und vielversprechendes System dar und wurde in dieser Arbeit durch tripodale (Methylthio)methyl-Einheiten realisiert. Die Ordnung der Monolagen kann durch starr konstruierte Moleküle erhöht werden, da rigide Strukturelemente die intramolekulare Flexibilität der Moleküle herabsetzen. Es ist gelungen, im Rahmen dieser Arbeit zwei neue tripodale Thioetherliganden darzustellen. Die Dreizähnigkeit der Liganden konnte auf Basis molekularer Koordinationschemie belegt werden. Durch Synthese der Tricarbonylwolfram-(0)-Ligand-Komplexe konnten pseudo-oktaedrische Chelat-Komplexe eindeutig charakterisiert werden. Desweiteren ist es gelungen, die geordnete Monolagenbildung auf Gold zu bestätigen und vielfältig zu charakterisieren. Zwei neue ferrocenylfunktionalisierte Halogen-Derivate konnten dargestellt werden und erweitern damit die vorhandene Bibliothek dieser Substanzgruppe. Daraus ist in einer nächsten Stufe ein direktes Edukt für die Synthese ferrocenylfunktionalisierter Schwefel-Tripodliganden entstanden. Diese Arbeit war Teil eines Kooperationsprojekts mit der Arbeitsgruppe Experimentalphysik I in Rahmen des CINSaT. Die neu dargestellten Verbindungen wurden in dieser Arbeitsgruppe hinsichtlich ihrer Adsorptionseigenschaften auf Gold(111)-Oberflächen eingehend untersucht und die entstandenen Monolagen charakterisiert (SHG, Ellipsometrie, XPS, STM, FTIR). Ein Zweistufenprozeß der Filmbildung konnte entwickelt werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Bei der Stromversorgung handelte es sich bis zu seiner Liberalisierung 1998 um einen Wirtschaftszweig, der von Gebietsmonopolen auf allen Versorgungsstufen geprägt war. Diese Monopole gründeten im Wesentlichen auf dem natürlichen Monopol des Stromnetzes sowie auf der Bedeutung der Stromversorgung. Auch nach der Liberalisierung ist der Markt noch immer durch die etablierten ehemaligen Gebietsversorger geprägt, die nach wie vor über die Netze verfügen und zudem untereinander und mit der Politik gut vernetzt sind. Damit über das weiterhin bestehende natürliche Monopol bei den Stromnetzen keine wettbewerbswidrigen Interessen verfolgt werden können, bedarf die Transformation der Elektrizitätsversorgung in einen vorwiegend vom Wettbewerb geprägten Markt einiger Anpassungen. Einige Interessenskonflikte können bereits gelöst werden, indem die Marktstruktur an die neuen Bedingungen angepasst wird. Zum einen bedarf es einer Netzzugangsregelung, die dem Netzbetreiber möglichst geringe Missbrauchsmöglichkeiten offen lässt. Damit der Netzbetreiber überdies keine Interessen aus Aktivitäten in wettbewerbsgeprägten Märkten zulasten der Netznutzer verfolgt, ist zumindest der Betrieb des Netzes auf eigentumsrechtlich unabhängige Netzbetreiber zu übertragen. Diese Entflechtungsform sollte scheinbar bequemeren Lösungen, die sich leichter umsetzen lassen, vorgezogen werden. Auf lange Sicht werden die damit verbundenen höheren Regulierungskosten die Markttransformationskosten weit übersteigen. Das Problem des natürlichen Monopols beim Netz bedarf trotz allem einer dauernden Regulierung. Hier empfiehlt sich eine weitreichende ex-ante-Regulierung, in die auch Kriterien einfließen sollten, die den Netzbetreiber zu einem stabilen und sicheren Betrieb des Netzes veranlassen. Infolgedessen dürfte der Bedarf an einer ex-post-Kontrolle durch die Regulierungsinstitution entsprechend gering ausfallen. Die Regulierungsinstitution sollte hierbei nicht auf einige wenige Regulierungsinstrumente festgelegt werden. Die Gefahr der Anmaßung von Wissen, der Regulierungsinstitutionen wegen ihrer im Vergleich zu den Marktteilnehmern größeren Marktferne ausgesetzt sind, lässt sich durch die Akteursbeteiligung in der Regulierungsinstitution verringern: Die Akteure könnten innerhalb eines vorgegebenen Rahmens die Ausgestaltung der Netznutzungsregeln weitestgehend selbst bestimmen, die Aushandelungsmodalitäten hierfür müssen allerdings präzise festgelegt und die getroffenen Regelungen für alle Marktteilnehmer verbindlich sein. Diese Mischform zwischen staatlicher Rahmensetzung und Selbstregulierung nutzt die Regelungspotentiale des Staates und die Selbstorganisationsmöglichkeiten der relevanten Akteure gleichermaßen. Durch die Besetzung der Regulierungsinstitution mit Vertretern der relevanten Akteure wird zudem ein großes Maß an spezifischem Branchenwissen in sie hineingetragen, insbesondere da die vertikal integrierten Elektrizitätsversorgungsunternehmen nach der eigentumsrechtlichen Entflechtung zumindest noch anfangs über einen großen Teil der Informationen über den Netzbetrieb verfügen. Damit wäre das Informationsproblem, das staatlichen Regulierungsstellen anhaftet, geringer. Durch die Interessenlage der Mitglieder der Regulierungsinstitution dürfte sie auf den Netzbetreiber den starken Effizienzdruck ausüben. Der Netzbetreiber sollte hingegen ein Unternehmen im vollständigen öffentlichen Eigentum sein. Damit kann eine Unterwanderung durch Anteilserwerb verhindert und das Netz leichter im Sinne gemeinwirtschaftlicher Verpflichtungen betrieben werden. Dies wäre überdies wegen der Legitimationsprobleme, die mit einer weitgehend unabhängigen, mit umfangreichen und nicht präzise abgegrenzten Eingriffbefugnissen versehenen Regulierungsinstitution einhergehen, vorteilhaft, wenn nicht gar geboten. Damit sind große Teile der Grundrechtsprobleme, die mit der Regulierungsinstitution, ihrer Zusammensetzung und ihren Kompetenzen zusammenhängen, irrelevant.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Physikalische Grundlagenforschung und anwendungsorientierte physikalische Forschung auf den Gebieten nanoskaliger kristalliner und amorpher fester Körper haben in vielfacher Weise eine große Bedeutung. Neben dem Verständnis für die Struktur der Materie und die Wechselwirkung von Objekten von der Größe einiger Atome ist die Erkenntnis über die physikalischen Eigenschaften nanostrukturierter Systeme von hohem Interesse. Diese Forschung eröffnet die Möglichkeit, die mit der Mikroelektronik begonnene Miniaturisierung fortzusetzen und wird darüber hinaus neue Anwendungsfelder eröffnen. Das Erarbeiten der physikalischen Grundlagen der Methoden zur Herstellung und Strukturierung ist dabei zwingend notwendig, da hier Wirkungsprinzipien dominieren, die erst bei Strukturgrößen im Nanometerbereich auftreten oder hinreichend stark ausgeprägt sind. Insbesondere Halbleitermaterialien sind hier von großem Interesse. Die in dieser Arbeit untersuchten Resonatorstrukturen, die auf dem kristallinen Verbindungshalbleitermaterial GaInAsP/InP basieren, erschließen wichtige Anwendungsfelder im Bereich der optischen Datenübertragung sowie der optischen Sensorik. Hergestellt wird das Halbleitermaterial mit der Metallorganischen Gasphasenepitaxie. Die experimentell besimmten Kenngrößen lassen Rückschlüsse auf die Güte der Materialien, die quantenmechanischen Wirkungsprinzipien und die Bauelementcharakteristik zu und führen zu optimal angepassten Kristallstrukturen. Auf Basis dieser optimierten Materialien wurde ein durchstimmbarer Fabry-Perot-Filter hergestellt, der aus einer Kombination aus InP-Membranen und Luftspalten besteht und elektromechanisch aktuiert werden kann. Das GaInAsP dient hierbei als wenige hundert nm dicke Opferschicht, die ätztechnisch hochselektiv beseitigt wird. Die Qualität der Grenzflächen zum InP ist entscheidend für die Qualität der freigeätzten Kavitäten und damit für die mechanische Gesamtstabilität der Struktur. Der in dieser Arbeit beschriebene Filter hat eine Zentralwellenlänge im Bereich von 1550 nm und weist einen Durchstimmbereich von 221 nm auf. Erzielt wurde dieser Wert durch ein konsistentes Modell der wirkenden Verspannungskomponenten und einer optimierten epitaktischen Kontrolle der Verspannungsparameter. Das realisierte Filterbauelement ist vielversprechend für den Einsatz in der optischen Kommunikation im Bereich von WDM (wavelength division multiplexing) Anwendungen. Als weitere Resonatorstrukur wurde ein Asymmetrisch gekoppelter Quantenfilm als optisch aktives Medium, bestehend aus GaInAsP mit variierender Materialkomposition und Verspannung, untersucht, um sein Potential für eine breitbandige Emission zu untersuchen und mit bekannten Modellen zu vergleichen. Als Bauelementdesign wurde eine kantenemittierende Superlumineszenzleuchtdiode gewählt. Das Ergebnis ist eine Emissionskurve von 100 nm, die eine höhere Unabhängigkeit vom Injektionsstrom aufweist als andere bekannte Konzepte. Die quantenmechanischen Wirkungsprinzipien - im wesentlichen die Kopplung der beiden asymmetrischen Potentialtöpfe und die damit verbundene Kopplung der Wellenfunktionen - werden qualitativ diskutiert. Insgesamt bestätigt sich die Eignung des Materials GaInAsP auch für neuartige, qualitativ höchst anspruchsvolle Resonatorstrukturen und die Bedeutung der vorgestellten und untersuchten Resonatorkonzepte. Die vorgestellten Methoden, Materialien und Bauelemente liefern aufgrund ihrer Konzeption und der eingehenden experimentellen Untersuchungen einen Beitrag sowohl zu den zugrunde liegenden mechanischen, optoelektronischen und quantenmechanischen Wirkungsprinzipien der Strukturen, als auch zur Realisierung neuer optoelektronischer Bauelemente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In der Arbeit wird eine Messgröße für die Mobilität im Personenverkehr formuliert und anhand dieser Messgröße eine vergleichende Bewertung von Szenarien der Siedlungs- und Verkehrsentwicklung vorgenommen. Mobilität im Sinne räumlicher Wahlmöglichkeiten sind die Freiheitsgrade der Menschen in der Auswahl ihrer räumlichen Ziele und Beziehungen. Mehr als das tatsächliche Verhalten unterliegen Wahlmöglichkeiten starken Einflüssen der Siedlungsstruktur. Die relevanten Siedlungsstrukturmerkmale werden zu zwei Hauptmerkmalen zusammengefasst, Lokale Urbanität und Regionale Geometrie, und ihre Ausprägungen zu fünf Leitbildern einer integrierten Entwicklung von Siedlung und Verkehr kombiniert: 1. Kompakte Stadt mit hoher lokaler Urbanität und großflächiger, sternförmiger Geometrie. 2. Städtenetz mit hoher lokaler Urbanität und kleinteiliger, netzförmiger Geometrie. 3. Autoland mit geringer lokaler Urbanität und großflächiger Geometrie. 4. Nivellierung mit mittlerer lokaler Urbanität und großflächiger sternförmiger Geometrie. 5. Differenzierung als ein kleinteiliges Nebeneinander von Städtenetz und Autoland bei nur schwacher gegenseitiger Vernetzung Die Leitbilder werden in einem mittelstädtischen Siedlungsraum in Ostwestfalen zu konkreten Szenarien für das Jahr 2050 entwickelt und die Wahlmöglichkeiten in diesen Szenarien berechnet: 1. In der Kompakten Stadt betragen die Wahlmöglichkeiten im Fußgänger-, Fahrrad- und öffentlichen Verkehr ca. das Zwanzigfache des Autolands und ca. das Fünffache des Nivellierungsszenarios. Selbst im Autoverkehr bietet die Kompakte Stadt ca. doppelt so große Wahlmöglichkeiten wie Autoland oder Nivellierung. Dieser Vergleich offenbart zugleich das verkehrliche Desaster der Trendentwicklung. 2. Der Vergleich sternförmiger Urbanität (Kompakte Stadt) mit netzförmiger Urbanität (Städtenetz) endet unentschieden. Die Mobilitätsvorteile hoher Urbanität lassen sich auch in kleinteiligen Strukturen und in allseitigen Siedlungsnetzen realisieren. 3. Die urbanen Szenarien Kompakte Stadt und Städtenetz erscheinen jedoch in der hier simulierten "Reinform" als planerisches Leitbild eher ungeeignet. Von größerer praktischer Relevanz ist der Vergleich der Szenarien Nivellierung und Differenzierung. In diesem Vergleich erweist sich die intensive Stadt-Umland-Verflechtung und die dafür notwendige Angleichung (Nivellierung) der Verkehrsangebote zwischen urbanen und suburbanen Siedlungsstrukturen als nachteilig. Demgegenüber erreicht das kleinteilige Nebeneinander von urbanem Städtenetz und suburbanem Autoland im Szenario Differenzierung sogar ein ähnliches Niveau räumlicher Wahlmöglichkeiten wie das Städtenetz, trotz wesentlich geringerer urbaner Siedlungsstrukturanteile. Es zeigt somit auch, dass die großen Mobilitätsvorteile urbaner Strukturen bereits bei einer teilweisen (Re-)Urbanisierung erzielt werden können. Suburbanisierung, Autoverkehrswachstum und Stadt-Umland-Verflechtung sind nicht zuletzt Folge von mindestens 70 Jahre alten Leitbildern in Planung und Politik. Die für das Differenzierungs-Szenario notwendige Phase teilräumlicher (Re-)Urbanisierung setzt weder massive Planungszwänge "gegen den Markt" noch große Wachstumsschübe voraus. Notwendig ist aber die Überprüfung vieler weiterer Politikfelder, die auf Siedlung und Verkehr einwirken. Nur geänderte Anreize und Spielregeln können die laufenden kleinen Standort- und Verkehrsentscheidungen in eine neue, effizientere Richtung lenken. Die Neubewertung der Standorte und Verkehrsangebote vergrößert dabei auch die Entwicklungsmasse. Ein frühzeitiges, langsames Umsteuern vermeidet ernsthafte Krisen mit möglicherweise nicht mehr beherrschbaren Verkehrskosten.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neueste Entwicklungen in Technologien für dezentrale Energieversorgungsstrukturen, erneuerbare Energien, Großhandelsenergiemarkt, Mini- und Mikronetze, verteilte Intelligenz, sowie Informations- und Datenübertragungstechnologien werden die zukünftige Energiewelt maßgeblich bestimmen. Die derzeitigen Forschungsbemühungen zur Vernutzung aller dieser Technologien bilden die Voraussetzungen für ein zukünftiges, intelligentes Stromnetz. Dieses neue Konzept gründet sich auf die folgenden Säulen: Die Versorgung erfolgt durch dezentrale Erzeugungsanlagen und nicht mehr durch große zentrale Erzeuger; die Steuerung beeinflusst nicht mehr allein die Versorgung sondern ermöglich eine auch aktive Führung des Bedarf; die Eingabeparameter des Systems sind nicht mehr nur mechanische oder elektrische Kenngrößen sondern auch Preissignale; die erneuerbaren Energieträger sind nicht mehr nur angeschlossen, sondern voll ins Energienetz integriert. Die vorgelegte Arbeit fügt sich in dieses neue Konzept des intelligenten Stromnetz ein. Da das zukünftige Stromnetz dezentral konfiguriert sein wird, ist eine Übergangsphase notwendig. Dieser Übergang benötigt Technologien, die alle diese neue Konzepte in die derzeitigen Stromnetze integrieren können. Diese Arbeit beweist, dass ein Mininetz in einem Netzabschnitt mittlerer Größe als netzschützende Element wirken kann. Hierfür wurde ein neues Energiemanagementsystem für Mininetze – das CMS (englisch: Cluster Management System) – entwickelt. Diese CMS funktioniert als eine von ökonomischorientierte Betriebsoptimierung und wirkt wie eine intelligente Last auf das System ein, reagierend auf Preissignale. Sobald wird durch eine Frequenzsenkung eine Überlastung des Systems bemerkt, ändert das Mininetz sein Verhalten und regelt seine Belastung, um die Stabilisierung des Hauptnetzes zu unterstützen. Die Wirksamkeit und die Realisierbarkeit des einwickelten Konzept wurde mit Hilfe von Simulationen und erfolgreichen Laborversuchen bewiesen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Bundesregierung und IT-Wirtschaft setzen zurzeit große Hoffnungen in die sogenannte Job-Card. Da dieses System bei jedem Antragsteller in der gesetzlichen Arbeitslosenversicherung in Deutschland den Besitz einer sicheren Signaturerstellungseinheit nebst Zertifikat voraussetzt, könnte mit seiner Hilfe der Verbreitung von Signaturverfahren ein entscheidender Schub verschafft werden. Neben den zu lösenden technischen und organisatorischen Problemen ergeben sich jedoch auch eine Reihe von rechtlichen Fragestellungen insbesondere aus dem Signatur- und Datenschutzrecht. Aus diesen lassen sich Gestaltungsanforderungen für die rechtliche Grundlage der JobCard und ihre praktische Umsetzung ableiten.

Relevância:

10.00% 10.00%

Publicador:

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die vorliegende Unterrichtsreihe basiert auf zwei grundlegenden Vorstellungen zum Lernen und Lehren von Wahrscheinlichkeitsrechnung für Anfänger in der Sekundarstufe I. Zum einen ist die grundsätzliche Überzeugung der Autoren, dass ein sinnvoller und gewinnbringender Unterricht in Stochastik über den aufwendigeren Weg möglichst authentischer und konkreter Anwendungen im täglichen Leben gehen sollte. Demzufolge reicht eine Einkleidung stochastischer Probleme in realistisch wirkende Kontexte nicht, sondern es sollte eine intensive Erarbeitung authentischer Problemstellungen, z.B. mit Hilfe von realen Medientexten, erfolgen. Die Schüler sollen vor allem lernen, reale Probleme mathematisch zu modellieren und gefundene mathematische Ergebnisse für die reale Situation zu interpretieren und kritisch zu diskutieren. Eine weitere Besonderheit gegenüber traditionellen Zugängen zur Wahrscheinlichkeitsrechnung basiert auf kognitionspsychologischen Ergebnissen zur menschlichen Informationsverarbeitung. Durch eine Serie von Studien wurde gezeigt, dass Menschen – und natürlich auch Schüler – große Probleme haben, mit Wahrscheinlichkeiten (also auf 1 normierte Maße) umzugehen. Als viel einfacher und verständnisfördernder stellte sich die kognitive Verarbeitung von Häufigkeiten (bzw. Verhältnissen von natürlichen Zahlen) heraus. In dieser Reihe wird deshalb auf eine traditionelle formale Einführung der Bayesschen Regel verzichtet und es werden spezielle, auf Häufigkeiten basierende Hilfsmittel zur Lösungsfindung verwendet. Die erwähnten Studien belegen den Vorteil dieser Häufigkeitsdarstellungen gegenüber traditionellen Methoden im Hinblick auf den sofortigen und insbesondere den längerfristigen Lernerfolg (vgl. umfassend zu diesem Thema C. Wassner (2004). Förderung Bayesianischen Denkens, Hildesheim: Franzbecker, http://nbn-resolving.org/urn:nbn:de:hebis:34-2006092214705). Die vorliegende Schrift wurde zuerst im Jahre 2004 als Anhang zur o.g. Schrift bei Franzbecker Hildesheim veröffentlicht. Der Verlag hat einer elektronischen Veröffentlichung in der KaDiSto-Reihe zugestimmt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Aus der Einleitung: "Weder in den klassischen, allgemein erziehungswissenschaftlichen Hand- und Wörterbüchern der letzten drei Dekaden (vgl. u.a. Speck/Wehle 1970; Lenzen 1989; Krüger/Grunert 2004) noch in den entsprechenden Überblickspublikationen der Sozialpädagogik (vgl. u.a. Deutscher Verein für öffentliche und private Fürsorge 2002; Lauermann/Knapp 2003; Otto/Thiersch 2005; Kreft/Mielenz 2005) werden Frage- und Problemstellungen der Relation von Distanz und Nähe – zumindest nicht unter dieser Titulatur – diskutiert. Demgegenüber wird in den pflegeorientierten und gesundheitspräventiven wie auch patientenbezogenen Diskussionen der Medizin, in der Theologie und Ethnologie, in der Medien- und Migrationwissenschaft, der Germanistik und der vergleichenden Geschichtswissenschaft sowie in den psychotherapeutischen Diskursen der Nähe-Distanz-Problematik größere Aufmerksamkeit zuteil als in den pädagogischen und erziehungswissenschaftlichen Reflexionen und Diskursen. Wenn sie dennoch Objekt von erziehungswissenschaftlich gefärbten Beobachtungen wird, dann nur mittelbar und allenfalls in Randnotizen, wenn es – thematisch eingegrenzt – um das Ausbalancieren von Distanz und Nähe in den Beziehungen von PädagogInnen und AdressatInnen und der in diesem pädagogischen Verhältnis eingelagerten Intimität geht (vgl. u. a. Bittner/Rehm 1966). Die 'Erotik' im pädagogischen Alltag, die Ängste und die Verdrängungen dieser Dimension durch Aufbau von Distanz oder schließlich die Angst, durch eine zu große Nähe zu den AdressatInnen 'Kontrolle' über den Beruf zu 'verlieren', bleiben weitgehend ebenso unbeleuchtet wie eine nähere Betrachtung der Auswirkungen von zu viel Nähe zu Beruf und AdressatInnen auf die privaten, intimen wie freundschaftlichen Beziehungen (aus ethnopsychoanalytischer Perspektive hierzu u. a. Parin 1978). Zudem wird das Verhältnis von Nähe und Distanz – wenn überhaupt – jeweils spezifisch und auf eine je eigene Art als ein individuelles, nicht jedoch als ein in die Organisation des Pädagogischen immanent eingelagertes Problem beleuchtet, das sich zusätzlich aus den in den jeweiligen pädagogischen Arbeitsfeldern eingelagerten Handlungslogiken speist. Selbstverständlich kann das ambivalente Verhältnis von Nähe und Distanz nicht aus dem personalen Kontext entlassen werden. Wie immer es auch gewendet und thematisiert wird, es bleibt eine in Interaktionen eingewobene Polarität. Doch, und darauf zielen die Suchbewegungen in diesem Beitrag ab, wird es im pädagogischen Alltag von der jeweiligen Kultur der Organisation des Pädagogischen respektive der Sozialen Arbeit gerahmt – quasi kontextualisiert – und geprägt von den jeweils different modellierten beruflichen Habitus der professionellen AkteurInnen. Organisationskulturelle und habituelle Rahmungen des interaktiven Geschehens wiederum sind nicht ohne die Betrachtung der jeweils vorzufindenden feldspezifischen Regeln (vgl. Bourdieu/Wacquant 1996; zur Berücksichtigung einer Theorie des pädagogischen Feldes für Professionalisierung und Qualität vgl. Honig 2004). Diesen Rahmungen von Distanz und Nähe wird nachfolgend nachgespürt, indem erstens einige Beobachtungen aus dem sozialpädagogischen Alltag vorgestellt (1) und sie zweitens hinsichtlich der Ausbuchstabierung von Distanz und Nähe betrachtet werden (2). Drittens werden die bisherigen Überlegungen mit einem weiteren Fallportrait angereichert (3), um schließlich zu rekonstruieren, in welche Modalitäten Nähe und Distanz habituell, organisationskulturell und feldspezifisch eingebunden sind (4)."

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Soil organic matter (SOM) vitally impacts all soil functions and plays a key role in the global carbon (C) cycle. More than 70% of the terrestric C stocks that participate in the active C cycle are stored in the soil. Therefore, quantitative knowledge of the rates of C incorporation into SOM fractions of different residence time is crucial to understand and predict the sequestration and stabilization of soil organic carbon (SOC). Consequently, there is a need of fractionation procedures that are capable of isolating functionally SOM fractions, i.e. fractions that are defined by their stability. The literature generally refers to three main mechanisms of SOM stabilization: protection of SOM from decomposition by (i) its structural composition, i.e. recalcitrance, (ii) spatial inaccessibility and/or (iii) interaction with soil minerals and metal ions. One of the difficulties in developing fractionation procedures for the isolation of functional SOM fractions is the marked heterogeneity of the soil environment with its various stabilization mechanisms – often several mechanisms operating simultaneously – in soils and soil horizons of different texture and mineralogy. The overall objective of the present thesis was to evaluate present fractionation techniques and to get a better understanding of the factors of SOM sequestration and stabilization. The first part of this study is attended to the structural composition of SOM. Using 13C cross-polarization magic-angle spinning (CPMAS) nuclear magnetic resonance (NMR) spectroscopy, (i) the effect of land use on SOM composition was investigated and (ii) examined whether SOM composition contributes to the different stability of SOM in density and aggregate fractions. The second part of the present work deals with the mineral-associated SOM fraction. The aim was (iii) to evaluate the suitability of chemical fractionation procedures used in the literature for the isolation of stable SOM pools (stepwise hydrolysis, treatments using oxidizing agents like Na2S2O8, H2O2, and NaOCl as well as demineralization of the residue obtained by the NaOCl treatment using HF (NaOCl+HF)) by pool sizes, 13C and 14C data. Further, (iv) the isolated SOM fractions were compared to the inert organic matter (IOM) pool obtained for the investigated soils using the Rothamsted Carbon Model and isotope data in order to see whether the tested chemical fractionation methods produce SOM fractions capable to represent this pool. Besides chemical fractionation, (v) the suitability of thermal oxidation at different temperatures for obtaining stable SOC pools was evaluated. Finally, (vi) the short-term aggregate dynamics and the factors that impact macroaggregate formation and C stabilization were investigated by means of an incubation study using treatments with and without application of 15N labeled maize straw of different degradability (leaves and coarse roots). All treatments were conducted with and without the addition of fungicide. Two study sites with different soil properties and land managements were chosen for these investigations. The first one, located at Rotthalmünster, is a Stagnic Luvisol (silty loam) under different land use regimes. The Ah horizons of a spruce forest and continuous grassland and the Ap and E horizons of two plots with arable crops (continuous maize and wheat cropping) were examined. The soil of the second study site, located at Halle, is a Haplic Phaeozem (loamy sand) where the Ap horizons of two plots with arable crops (continuous maize and rye cropping) were investigated. Both study sites had a C3-/C4-vegetational change on the maize plot for the purpose of tracing the incorporation of the younger, maize-derived C into different SOM fractions and the calculation of apparent C turnover times of these. The Halle site is located near a train station and industrial areas, which caused a contamination with high amounts of fossil C. The investigation of aggregate and density fractions by 13C CPMAS NMR spectroscopy revealed that density fractionation isolated SOM fractions of different composition. The consumption of a considerable part (10–20%) of the easily available O-alkyl-C and the selective preservation of the more recalcitrant alkyl-C when passing from litter to the different particulate organic matter (POM) fractions suggest that density fractionation was able to isolate SOM fractions with different degrees of decomposition. The spectra of the aggregate fractions resembled those of the mineral-associated SOM fraction obtained by density fractionation and no considerable differences were observed between aggregate size classes. Comparison of plant litter, density and aggregate size fractions from soil under different land use showed that the type of land use markedly influenced the composition of SOM. While SOM of the acid forest soil was characterized by a large content (> 50%) of POM, which contained high amounts of spruce-litter derived alkyl-C, the organic matter in the biologically more active grassland and arable soils was dominated by mineral-associated SOM (> 95%). This SOM fraction comprised greater proportions of aryl- and carbonyl-C and is considered to contain a higher amount of microbially-derived organic substances. Land use can alter both, structure and stability of SOM fractions. All applied chemical treatments induced considerable SOC losses (> 70–95% of mineral-associated SOM) in the investigated soils. The proportion of residual C after chemical fractionation was largest in the arable Ap and E horizons and increased with decreasing C content in the initial SOC after stepwise hydrolysis as well as after the oxidative treatments with H2O2 and Na2S2O8. This can be expected for a functional stable pool of SOM, because it is assumed that the more easily available part of SOC is consumed first if C inputs decrease. All chemical treatments led to a preferential loss of the younger, maize-derived SOC, but this was most pronounced after the treatments with Na2S2O8 and H2O2. After all chemical fractionations, the mean 14C ages of SOC were higher than in the mineral-associated SOM fraction for both study sites and increased in the order: NaOCl < NaOCl+HF ≤ stepwise hydrolysis << H2O2 ≈ Na2S2O8. The results suggest that all treatments were capable of isolating a more stable SOM fraction, but the treatments with H2O2 and Na2S2O8 were the most efficient ones. However, none of the chemical fractionation methods was able to fit the IOM pool calculated using the Rothamsted Carbon Model and isotope data. In the evaluation of thermal oxidation for obtaining stable C fractions, SOC losses increased with temperature from 24–48% (200°C) to 100% (500°C). In the Halle maize Ap horizon, losses of the young, maize-derived C were considerably higher than losses of the older C3-derived C, leading to an increase in the apparent C turnover time from 220 years in mineral-associated SOC to 1158 years after thermal oxidation at 300°C. Most likely, the preferential loss of maize-derived C in the Halle soil was caused by the presence of the high amounts of fossil C mentioned above, which make up a relatively large thermally stable C3-C pool in this soil. This agrees with lower overall SOC losses for the Halle Ap horizon compared to the Rotthalmünster Ap horizon. In the Rotthalmünster soil only slightly more maize-derived than C3-derived SOC was removed by thermal oxidation. Apparent C turnover times increased slightly from 58 years in mineral-associated SOC to 77 years after thermal oxidation at 300°C in the Rotthalmünster Ap and from 151 to 247 years in the Rotthalmünster E horizon. This led to the conclusion that thermal oxidation of SOM was not capable of isolating SOM fractions of considerably higher stability. The incubation experiment showed that macroaggregates develop rapidly after the addition of easily available plant residues. Within the first four weeks of incubation, the maximum aggregation was reached in all treatments without addition of fungicide. The formation of water-stable macroaggregates was related to the size of the microbial biomass pool and its activity. Furthermore, fungi were found to be crucial for the development of soil macroaggregates as the formation of water-stable macroaggregates was significantly delayed in the fungicide treated soils. The C concentration in the obtained aggregate fractions decreased with decreasing aggregate size class, which is in line with the aggregate hierarchy postulated by several authors for soils with SOM as the major binding agent. Macroaggregation involved incorporation of large amounts maize-derived organic matter, but macroaggregates did not play the most important role in the stabilization of maize-derived SOM, because of their relatively low amount (less than 10% of the soil mass). Furthermore, the maize-derived organic matter was quickly incorporated into all aggregate size classes. The microaggregate fraction stored the largest quantities of maize-derived C and N – up to 70% of the residual maize-C and -N were stored in this fraction.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Qualität ökologischer Produkte wird über den Prozess und nicht am Produkt selbst bestimmt. Die zunehmende Nachfrage nach ökologischen Produkten fordert Methoden, die den Prozess am Produkt zeigen (Authentizitätsprüfung). Eine Literaturstudie für die vorliegende Habilitationsschrift ergab, dass ganzheitliche Verfahren sich dazu besonders eignen. Zu solchen ganzheitlichen Verfahren gehört die Biokristallisation. Bei diesem Verfahren kristallisiert eine Mischung aus Probe und CuCl2 auf einer Glasplatte zu einem Bild, das sowohl visuell, als auch computergestützt ausgewertet werden kann. Es wurden zunächst alle Schritte im Labor dokumentiert und entsprechende Standardarbeitsanweisungen erstellt. Mit einem eigens entwickelten Computerprogramm werden die Bedingungen während der Probenaufbereitung und Kristallisation für jede Probe und jedes Bild erfasst. Mit einer Texturanalyse können auch die für diese Arbeiten erstellte große Menge an Bildern ausgewertet und die Ergebnisse statistisch bearbeitet werden. Damit ist es möglich das Verfahren und Methoden für Weizen- und Möhrenproben zu charakterisieren. Es wurden verschiedene Einflussgrößen untersucht. Das Verfahren ist besonders gegenüber Änderungen in der Probenvorbereitung (z.B. Vermahlung, Mischungsverhältnis) empfindlich. Es wurde sowohl die Methodenstreuung, als auch der Anteil einzelner Schritte an der Gesamtstreuung für Weizen-, Möhren- und Apfelproben ermittelt. Die Verdampfung und Kristallisation hat den größten Anteil an der Gesamtstreuung. Die Durchführung eines Laboreignungstests zeigte, dass die so dokumentierten und charakterisierten Methoden in anderen Laboratorien erfolgreich eingesetzt werden können. Das Verfahren wurde für die nominale Unterscheidung von Weizen-, Möhren- und Apfelproben aus unterschiedlichem Anbau und Verarbeitungsschritten eingesetzt. Weizen-, Möhren- und Apfelproben aus definiertem Anbau können signifikant unterschieden werden. Weizen-, Möhren- und Apfelproben vom Erzeuger (Markt) konnten im Paarvergleich (ökologisch, konventionell) teilweise signifikant getrennt werden. Das Verfahren ist auch für die Charakterisierung von verarbeiteten Proben einsetzbar. Es konnte der Einfluss von Saftherstellung, Erwärmung und Alterung signifikant gezeigt werden. Darüber hinaus lässt sich das Verfahren auf weitere Probenarten anwenden. Das Verfahren arbeitet ganzheitlich, d.h. es werden keine Einzelstoffe analytisch bestimmt, sondern als Ergebnis wird ein Bild erhalten. Die Textur- und Struktureigenschaften dieses Bildes können mit standardisierten Methoden ausgewertet werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Der Endocytoseweg in Dictyostelium verläuft über definierte endosomale Reifestadien. Dabei werden die reifenden Endosomen im letzten Stadium durch eine Schicht aus filamentösem Aktin umhüllt. Über die biologische Funktion dieser Aktin-Hülle ist derzeit wenig bekannt. Zum weiteren Erkenntnisgewinn sollten daher unterschiedliche Aktin-interagierende Proteine an die endosomale Aktin-Hülle dirigiert und die sich daraus ergebenden Folgen untersucht werden. Dabei wurde der in Drengk et al., 2003 beschriebene Ansatz aufgegriffen, in dem Proteine durch die Fusion an Vacuolin an die späte endosomale Membran transportiert wurden. Die endosomale Lokalisation von DAip1 bewirkte den vollständigen Verlust der endosomalen Aktin-Hülle, ohne dabei das restliche zelluläre Cytoskelett zu beeinträchtigen. Dabei wird die Depolymerisation vermutlich über die nachgewiesene Interaktion von DAip1 mit dem Aktin-depolymerisierenden Protein Cofilin bewirkt. Einhergehend damit trat eine Aggregation der betroffenen Kompartimente, eine Verzögerung des endocytotischen Transits, sowie eine verstärkte Retention lysosomaler Enzyme auf. Diese Ergebnisse ließen auf eine Funktion der endosomalen Aktin-Hülle als Fusionsinhibitor oder in der Regulation von Recycling-Prozessen an späten Endosomen schließen. Die Verlängerung der endosomalen Verweilzeit des den Arp2/3-Komplex negativ regulierenden Proteins Coronin bewirkte dagegen keine offensichtlichen Veränderungen in den betroffenen Zellen. Diese Beoachtung könnte ein Indiz dafür sein, dass nach der Ausbildung der Aktin-Hülle keine weiteren essentiellen Arp2/3-abhängigen mehr an der endosomalen Membran auftreten. Die endosomale Lokalisation des Aktin-Crosslinkers ABP34 induzierte ebenfalls keine Abweichungen vom Wildtyp-Verhalten. Hierbei besteht allerdings die Möglichkeit, dass die Aktivität des Proteins durch die bereits zuvor beschriebene Calcium-Sensitivität beeintächtigt vorliegt. Eine Verstärkung der endosomalen Hülle konnte trotz der Verwendung unterschiedlicher Ansätze nicht hervorgerufen werden. Offensichtlich wirkt die zusätzliche Expression zentraler Regulatoren der Aktin-Polymerisation in der Zelle cytotoxisch. Die Bindung von VASP an die endosomale Membran bewirkte in den Zellen die Ausbildung voluminöser, cytoplasmatischer „Aktin-Bälle“. Diese riefen in den betroffenen Zellen Defekte in unterschiedlichen Aktin-abhängigen Prozessen, wie der Phago- und Pinocytose, sowie der Cytokinese hervor. Dabei gehen die beobachteten Veränderungen vermutlich auf die nachgewiesene Störung im Gleichgewicht zwischen G- und F-Aktin zurück. Obwohl die Aktin-Bälle an der endosomalen Membran entstehen, weisen sie nach vollendeter Entstehung keine inneren oder äußeren Membranen mehr auf und nehmen nicht mehr aktiv am endocytotischen Geschehen teil. Die nähere Charakterisierung offenbarte große Ähnlichkeit zu den mit unterschiedlichen neurodegenerativen Erkrankungen assoziierten Hirano-Bodies. Über das beobachtbare Lokalisationsverhalten der unterschiedlichen im ersten Teil der Arbeit eingesetzten Vacuolin-Hybridproteine ließ sich die Stärke der Lokalisationsinformationen der fusionierten Aktin-interagierenden Proteine miteinander vergleichen. Dies wurde verwendet, um die einzelnen Proteine gemäß ihres Targeting-Potenzials hierarchisch anzuordnen. Im zweiten Teil der Arbeit wurden dieser Hierarchie die beiden cytoplasmatischen Targeting-Signale für Peroxisomen (PTS1) und den Zellkern (SV40-NLS) hinzugefügt. Der vorgenommene Vergleich dieser in vivo gewonnen Daten aus Dictyostelium mit unterschiedlichen in vitro-Bindungsstudien mit homologen Proteinen anderer Organismen zeigte eine erstaunlich gute Übereinstimmung. Diese Beobachtung lässt auf vergleichbare Targeting-Affinitäten innerhalb der Eukaryoten schließen und belegt, dass die zelluläre Lokalisation eines Proteins relativ sicher anhand der in ihm vorhandenen Bindungs-Affinitäten vorhergesagt werden kann. Durch die Kombination der in vivo- und in vitro-Daten war es auch ohne Kenntnis des Oligomerisierungsgrades und des Interaktionspartners erstmals möglich, die Bindungsstärke von Vacuolin an der endosomalen Membran auf einen definierten Bereich einzugrenzen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Technologie dienstorientierter Architekturen (Service-oriented Architectures, kurz SOA) weckt große Visionen auf Seiten der Industrie wie auch der Forschung. Sie hat sich als derzeit ideale Lösung für Umgebungen, in denen sich die Anforderungen an die IT-Bedürfnisse rapide ändern, erwiesen. Heutige IT-Systeme müssen Managementaufgaben wie Softwareinstallation, -anpassung oder -austausch erlauben, ohne dabei den laufenden Betrieb wesentlich zu stören. Die dafür nötige Flexibilität bieten dienstorientierte Architekturen, in denen Softwarekomponenten in Form von Diensten zur Verfügung stehen. Ein Dienst bietet über seine Schnittstelle lokalen wie entfernten Applikationen einen Zugang zu seiner Funktionalität. Wir betrachten im Folgenden nur solche dienstorientierte Architekturen, in denen Dienste zur Laufzeit dynamisch entdeckt, gebunden, komponiert, verhandelt und adaptiert werden können. Eine Applikation kann mit unterschiedlichen Diensten arbeiten, wenn beispielsweise Dienste ausfallen oder ein neuer Dienst die Anforderungen der Applikation besser erfüllt. Eine unserer Grundvoraussetzungen lautet somit, dass sowohl das Dienstangebot als auch die Nachfrageseite variabel sind. Dienstorientierte Architekturen haben besonderes Gewicht in der Implementierung von Geschäftsprozessen. Im Rahmen des Paradigmas Enterprise Integration Architecture werden einzelne Arbeitsschritte als Dienste implementiert und ein Geschäftsprozess als Workflow von Diensten ausgeführt. Eine solche Dienstkomposition wird auch Orchestration genannt. Insbesondere für die so genannte B2B-Integration (Business-to-Business) sind Dienste das probate Mittel, um die Kommunikation über die Unternehmensgrenzen hinaus zu unterstützen. Dienste werden hier in der Regel als Web Services realisiert, welche vermöge BPEL4WS orchestriert werden. Der XML-basierte Nachrichtenverkehr und das http-Protokoll sorgen für eine Verträglichkeit zwischen heterogenen Systemen und eine Transparenz des Nachrichtenverkehrs. Anbieter dieser Dienste versprechen sich einen hohen Nutzen durch ihre öffentlichen Dienste. Zum einen hofft man auf eine vermehrte Einbindung ihrer Dienste in Softwareprozesse. Zum anderen setzt man auf das Entwickeln neuer Software auf Basis ihrer Dienste. In der Zukunft werden hunderte solcher Dienste verfügbar sein und es wird schwer für den Entwickler passende Dienstangebote zu finden. Das Projekt ADDO hat in diesem Umfeld wichtige Ergebnisse erzielt. Im Laufe des Projektes wurde erreicht, dass der Einsatz semantischer Spezifikationen es ermöglicht, Dienste sowohl im Hinblick auf ihre funktionalen als auch ihre nicht-funktionalen Eigenschaften, insbesondere die Dienstgüte, automatisch zu sichten und an Dienstaggregate zu binden [15]. Dazu wurden Ontologie-Schemata [10, 16], Abgleichalgorithmen [16, 9] und Werkzeuge entwickelt und als Framework implementiert [16]. Der in diesem Rahmen entwickelte Abgleichalgorithmus für Dienstgüte beherrscht die automatische Aushandlung von Verträgen für die Dienstnutzung, um etwa kostenpflichtige Dienste zur Dienstnutzung einzubinden. ADDO liefert einen Ansatz, Schablonen für Dienstaggregate in BPEL4WS zu erstellen, die zur Laufzeit automatisch verwaltet werden. Das Vorgehen konnte seine Effektivität beim internationalen Wettbewerb Web Service Challenge 2006 in San Francisco unter Beweis stellen: Der für ADDO entwickelte Algorithmus zur semantischen Dienstkomposition erreichte den ersten Platz. Der Algorithmus erlaubt es, unter einer sehr großenMenge angebotener Dienste eine geeignete Auswahl zu treffen, diese Dienste zu Dienstaggregaten zusammenzufassen und damit die Funktionalität eines vorgegebenen gesuchten Dienstes zu leisten. Weitere Ergebnisse des Projektes ADDO wurden auf internationalen Workshops und Konferenzen veröffentlicht. [12, 11]