430 resultados para dreiteiliger Aufbau


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Aus der Einleitung: "Weder in den klassischen, allgemein erziehungswissenschaftlichen Hand- und Wörterbüchern der letzten drei Dekaden (vgl. u.a. Speck/Wehle 1970; Lenzen 1989; Krüger/Grunert 2004) noch in den entsprechenden Überblickspublikationen der Sozialpädagogik (vgl. u.a. Deutscher Verein für öffentliche und private Fürsorge 2002; Lauermann/Knapp 2003; Otto/Thiersch 2005; Kreft/Mielenz 2005) werden Frage- und Problemstellungen der Relation von Distanz und Nähe – zumindest nicht unter dieser Titulatur – diskutiert. Demgegenüber wird in den pflegeorientierten und gesundheitspräventiven wie auch patientenbezogenen Diskussionen der Medizin, in der Theologie und Ethnologie, in der Medien- und Migrationwissenschaft, der Germanistik und der vergleichenden Geschichtswissenschaft sowie in den psychotherapeutischen Diskursen der Nähe-Distanz-Problematik größere Aufmerksamkeit zuteil als in den pädagogischen und erziehungswissenschaftlichen Reflexionen und Diskursen. Wenn sie dennoch Objekt von erziehungswissenschaftlich gefärbten Beobachtungen wird, dann nur mittelbar und allenfalls in Randnotizen, wenn es – thematisch eingegrenzt – um das Ausbalancieren von Distanz und Nähe in den Beziehungen von PädagogInnen und AdressatInnen und der in diesem pädagogischen Verhältnis eingelagerten Intimität geht (vgl. u. a. Bittner/Rehm 1966). Die 'Erotik' im pädagogischen Alltag, die Ängste und die Verdrängungen dieser Dimension durch Aufbau von Distanz oder schließlich die Angst, durch eine zu große Nähe zu den AdressatInnen 'Kontrolle' über den Beruf zu 'verlieren', bleiben weitgehend ebenso unbeleuchtet wie eine nähere Betrachtung der Auswirkungen von zu viel Nähe zu Beruf und AdressatInnen auf die privaten, intimen wie freundschaftlichen Beziehungen (aus ethnopsychoanalytischer Perspektive hierzu u. a. Parin 1978). Zudem wird das Verhältnis von Nähe und Distanz – wenn überhaupt – jeweils spezifisch und auf eine je eigene Art als ein individuelles, nicht jedoch als ein in die Organisation des Pädagogischen immanent eingelagertes Problem beleuchtet, das sich zusätzlich aus den in den jeweiligen pädagogischen Arbeitsfeldern eingelagerten Handlungslogiken speist. Selbstverständlich kann das ambivalente Verhältnis von Nähe und Distanz nicht aus dem personalen Kontext entlassen werden. Wie immer es auch gewendet und thematisiert wird, es bleibt eine in Interaktionen eingewobene Polarität. Doch, und darauf zielen die Suchbewegungen in diesem Beitrag ab, wird es im pädagogischen Alltag von der jeweiligen Kultur der Organisation des Pädagogischen respektive der Sozialen Arbeit gerahmt – quasi kontextualisiert – und geprägt von den jeweils different modellierten beruflichen Habitus der professionellen AkteurInnen. Organisationskulturelle und habituelle Rahmungen des interaktiven Geschehens wiederum sind nicht ohne die Betrachtung der jeweils vorzufindenden feldspezifischen Regeln (vgl. Bourdieu/Wacquant 1996; zur Berücksichtigung einer Theorie des pädagogischen Feldes für Professionalisierung und Qualität vgl. Honig 2004). Diesen Rahmungen von Distanz und Nähe wird nachfolgend nachgespürt, indem erstens einige Beobachtungen aus dem sozialpädagogischen Alltag vorgestellt (1) und sie zweitens hinsichtlich der Ausbuchstabierung von Distanz und Nähe betrachtet werden (2). Drittens werden die bisherigen Überlegungen mit einem weiteren Fallportrait angereichert (3), um schließlich zu rekonstruieren, in welche Modalitäten Nähe und Distanz habituell, organisationskulturell und feldspezifisch eingebunden sind (4)."

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die ubiquitäre Datenverarbeitung ist ein attraktives Forschungsgebiet des vergangenen und aktuellen Jahrzehnts. Es handelt von unaufdringlicher Unterstützung von Menschen in ihren alltäglichen Aufgaben durch Rechner. Diese Unterstützung wird durch die Allgegenwärtigkeit von Rechnern ermöglicht die sich spontan zu verteilten Kommunikationsnetzwerken zusammen finden, um Informationen auszutauschen und zu verarbeiten. Umgebende Intelligenz ist eine Anwendung der ubiquitären Datenverarbeitung und eine strategische Forschungsrichtung der Information Society Technology der Europäischen Union. Das Ziel der umbebenden Intelligenz ist komfortableres und sichereres Leben. Verteilte Kommunikationsnetzwerke für die ubiquitäre Datenverarbeitung charakterisieren sich durch Heterogenität der verwendeten Rechner. Diese reichen von Kleinstrechnern, eingebettet in Gegenstände des täglichen Gebrauchs, bis hin zu leistungsfähigen Großrechnern. Die Rechner verbinden sich spontan über kabellose Netzwerktechnologien wie wireless local area networks (WLAN), Bluetooth, oder UMTS. Die Heterogenität verkompliziert die Entwicklung und den Aufbau von verteilten Kommunikationsnetzwerken. Middleware ist eine Software Technologie um Komplexität durch Abstraktion zu einer homogenen Schicht zu reduzieren. Middleware bietet eine einheitliche Sicht auf die durch sie abstrahierten Ressourcen, Funktionalitäten, und Rechner. Verteilte Kommunikationsnetzwerke für die ubiquitäre Datenverarbeitung sind durch die spontane Verbindung von Rechnern gekennzeichnet. Klassische Middleware geht davon aus, dass Rechner dauerhaft miteinander in Kommunikationsbeziehungen stehen. Das Konzept der dienstorienterten Architektur ermöglicht die Entwicklung von Middleware die auch spontane Verbindungen zwischen Rechnern erlaubt. Die Funktionalität von Middleware ist dabei durch Dienste realisiert, die unabhängige Software-Einheiten darstellen. Das Wireless World Research Forum beschreibt Dienste die zukünftige Middleware beinhalten sollte. Diese Dienste werden von einer Ausführungsumgebung beherbergt. Jedoch gibt es noch keine Definitionen wie sich eine solche Ausführungsumgebung ausprägen und welchen Funktionsumfang sie haben muss. Diese Arbeit trägt zu Aspekten der Middleware-Entwicklung für verteilte Kommunikationsnetzwerke in der ubiquitären Datenverarbeitung bei. Der Schwerpunkt liegt auf Middleware und Grundlagentechnologien. Die Beiträge liegen als Konzepte und Ideen für die Entwicklung von Middleware vor. Sie decken die Bereiche Dienstfindung, Dienstaktualisierung, sowie Verträge zwischen Diensten ab. Sie sind in einem Rahmenwerk bereit gestellt, welches auf die Entwicklung von Middleware optimiert ist. Dieses Rahmenwerk, Framework for Applications in Mobile Environments (FAME²) genannt, beinhaltet Richtlinien, eine Definition einer Ausführungsumgebung, sowie Unterstützung für verschiedene Zugriffskontrollmechanismen um Middleware vor unerlaubter Benutzung zu schützen. Das Leistungsspektrum der Ausführungsumgebung von FAME² umfasst: • minimale Ressourcenbenutzung, um auch auf Rechnern mit wenigen Ressourcen, wie z.B. Mobiltelefone und Kleinstrechnern, nutzbar zu sein • Unterstützung für die Anpassung von Middleware durch Änderung der enthaltenen Dienste während die Middleware ausgeführt wird • eine offene Schnittstelle um praktisch jede existierende Lösung für das Finden von Diensten zu verwenden • und eine Möglichkeit der Aktualisierung von Diensten zu deren Laufzeit um damit Fehlerbereinigende, optimierende, und anpassende Wartungsarbeiten an Diensten durchführen zu können Eine begleitende Arbeit ist das Extensible Constraint Framework (ECF), welches Design by Contract (DbC) im Rahmen von FAME² nutzbar macht. DbC ist eine Technologie um Verträge zwischen Diensten zu formulieren und damit die Qualität von Software zu erhöhen. ECF erlaubt das aushandeln sowie die Optimierung von solchen Verträgen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mit der Verwirklichung ,Ökologischer Netzwerke‘ werden Hoffnungen zum Stopp des Verlustes der biologischen Vielfalt verknüpft. Sowohl auf gesamteuropäischer Ebene (Pan-European Ecological Network - PEEN) als auch in den einzelnen Staaten entstehen Pläne zum Aufbau von Verbundsystemen. Im föderalen Deutschland werden kleinmaßstäbliche Biotopverbundplanungen auf Landesebene aufgestellt; zum nationalen Biotopverbund bestehen erste Konzepte. Die vorliegende Arbeit ist auf diese überörtlichen, strategisch vorbereitenden Planungsebenen ausgerichtet. Ziele des Verbunds sind der Erhalt von Populationen insbesondere der gefährdeten Arten sowie die Ermöglichung von Ausbreitung und Wanderung. Aufgrund fehlender Datengrundlagen zu den Arten und Populationen ist es nicht ohne weiteres möglich, die Konzepte und Modelle der Populationsökologie in die überörtlichen Planungsebenen zu übertragen. Gemäß der o.g. Zielstellungen sollte sich aber die Planung von Verbundsystemen an den Ansprüchen der auf Verbund angewiesenen Arten orientieren. Ziel der Arbeit war die Entwicklung einer praktikablen GIS-gestützten Planungshilfe zur größtmöglichen Integration ökologischen Wissens unter der Bedingung eingeschränkter Informationsverfügbarkeit. Als Grundlagen dazu werden in Übersichtsform zunächst die globalen, europäisch-internationalen und nationalen Rahmenbedingungen und Anforderungen bezüglich des Aufbaus von Verbundsystemen zusammengestellt. Hier sind die Strategien zum PEEN hervorzuheben, die eine Integration ökologischer Inhalte insbesondere durch die Berücksichtigung räumlich-funktionaler Beziehungen fordern. Eine umfassende Analyse der landesweiten Biotopverbundplanungen der BRD zeigte die teilweise erheblichen Unterschiede zwischen den Länderplanungen auf, die es aktuell nicht ermöglichen, ein schlüssiges nationales Konzept zusammenzufügen. Nicht alle Länder haben landesweite Biotopverbundplanungen und Landeskonzepte, bei denen dem geplanten Verbund die Ansprüche von Arten zugrunde gelegt werden, gibt es nur ansatzweise. Weiterhin wurde eine zielgerichtete Eignungsprüfung bestehender GIS-basierter Modelle und Konzepte zum Verbund unter Berücksichtigung der regelmäßig in Deutschland verfügbaren Datengrundlagen durchgeführt. Da keine integrativen regelorientierten Ansätze vorhanden waren, wurde der vektorbasierte Algorithmus HABITAT-NET entwickelt. Er arbeitet mit ,Anspruchstypen‘ hinsichtlich des Habitatverbunds, die stellvertretend für unterschiedliche ökologische Gruppen von (Ziel-) Arten mit terrestrischer Ausbreitung stehen. Kombiniert wird die Fähigkeit zur Ausbreitung mit einer Grobtypisierung der Biotopbindung. Die wichtigsten Grundlagendaten bilden die jeweiligen (potenziellen) Habitate von Arten eines Anspruchstyps sowie die umgebende Landnutzung. Bei der Bildung von ,Lebensraumnetzwerken‘ (Teil I) werden gestufte ,Funktions- und Verbindungsräume‘ generiert, die zu einem räumlichen System verknüpft sind. Anschließend kann die aktuelle Zerschneidung der Netzwerke durch Verkehrstrassen aufgezeigt werden, um darauf aufbauend prioritäre Abschnitte zur Wiedervernetzung zu ermitteln (Teil II). Begleitend wird das Konzept der unzerschnittenen Funktionsräume (UFR) entworfen, mit dem die Indikation von Habitatzerschneidung auf Landschaftsebene möglich ist. Diskutiert werden schließlich die Eignung der Ergebnisse als kleinmaßstäblicher Zielrahmen, Tests zur Validierung, Vergleiche mit Verbundplanungen und verschiedene Setzungen im GIS-Algorithmus. Erläuterungen zu den Einsatzmöglichkeiten erfolgen beispielsweise für die Bereiche Biotopverbund- und Landschaftsplanung, Raumordnung, Strategische Umweltprüfung, Verkehrswegeplanung, Unterstützung des Konzeptes der Lebensraumkorridore, Kohärenz im Schutzgebietssystem NATURA 2000 und Aufbau von Umweltinformationssystemen. Schließlich wird ein Rück- und Ausblick mit der Formulierung des weiteren Forschungsbedarfs verknüpft.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The process of developing software that takes advantage of multiple processors is commonly referred to as parallel programming. For various reasons, this process is much harder than the sequential case. For decades, parallel programming has been a problem for a small niche only: engineers working on parallelizing mostly numerical applications in High Performance Computing. This has changed with the advent of multi-core processors in mainstream computer architectures. Parallel programming in our days becomes a problem for a much larger group of developers. The main objective of this thesis was to find ways to make parallel programming easier for them. Different aims were identified in order to reach the objective: research the state of the art of parallel programming today, improve the education of software developers about the topic, and provide programmers with powerful abstractions to make their work easier. To reach these aims, several key steps were taken. To start with, a survey was conducted among parallel programmers to find out about the state of the art. More than 250 people participated, yielding results about the parallel programming systems and languages in use, as well as about common problems with these systems. Furthermore, a study was conducted in university classes on parallel programming. It resulted in a list of frequently made mistakes that were analyzed and used to create a programmers' checklist to avoid them in the future. For programmers' education, an online resource was setup to collect experiences and knowledge in the field of parallel programming - called the Parawiki. Another key step in this direction was the creation of the Thinking Parallel weblog, where more than 50.000 readers to date have read essays on the topic. For the third aim (powerful abstractions), it was decided to concentrate on one parallel programming system: OpenMP. Its ease of use and high level of abstraction were the most important reasons for this decision. Two different research directions were pursued. The first one resulted in a parallel library called AthenaMP. It contains so-called generic components, derived from design patterns for parallel programming. These include functionality to enhance the locks provided by OpenMP, to perform operations on large amounts of data (data-parallel programming), and to enable the implementation of irregular algorithms using task pools. AthenaMP itself serves a triple role: the components are well-documented and can be used directly in programs, it enables developers to study the source code and learn from it, and it is possible for compiler writers to use it as a testing ground for their OpenMP compilers. The second research direction was targeted at changing the OpenMP specification to make the system more powerful. The main contributions here were a proposal to enable thread-cancellation and a proposal to avoid busy waiting. Both were implemented in a research compiler, shown to be useful in example applications, and proposed to the OpenMP Language Committee.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RESUMO: A economia solidária é aqui apresentada como um movimento social emancipatório e como uma das formas de resistências das trabalhadoras e trabalhadores ao modelo de desenvolvimento capitalista. O movimento contemporâneo de economia solidária abrange o processo de produção, comercialização e finanças. A economia solidária é caracterizada pela posse coletiva dos meios de produção e pelo controle dos trabalhadores dos empreendimentos através de autogestão, cooperação e solidariedade. Os empreendimentos econômicos solidários se organizam sob a forma de cooperativas, associações e grupos informais. Um dos maiores desafios da economia solidária está no campo educativo, porque impõe a desconstrução dos princípios individualistas e privatistas preponderantes na maioria das relações econômicas, e exige a construção de outra cultura pautada na solidariedade. Nesse sentido, a pesquisa realizada, tem como objeto de estudo as metodologias de incubação fomentadas pelas universidades nas ações de economia solidária. Para isso, analisamos as experiências da Incubadora de Economia Solidária da Universidade Federal da Paraíba - Brasil e da Incubadora na Universidade de Kassel- Alemanha – Verein für Solidarische Ökonomie e.V. A pesquisa buscou conhecer e analisar as práticas de incubagem das universidades na economia solidária, como processos de mudança social. A coleta de informações foi realizada, tendo por base, uma revisão bibliográfica, relatórios das Incubadoras, registros fotográficos, observação participante e entrevistas semi-estruturadas. Os resultados da análise indicam que as metodologias de incubação na economia solidaria, por terem um caráter aberto e participativo, por considerarem os condicionamentos históricos e as diferentes culturas, fazem-nas portadoras de mudanças sociais. Esta metodologia pode ser utilizada por diferentes atores, em lugares e situações distintas. A pesquisa indica ainda, a centralidade da questão ecológica como elemento que poderá unificar o movimento internacional de economia solidária.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Entstehung eines globalen Arbeitsmarktes ist in den letzten Jahren ins öffentliche Bewußtsein gerückt. Die vorliegende Arbeit zeigt, dass ein solcher Markt nicht von alleine entsteht, sondern eines komplexen institutionellen Arrangments auf internationaler Ebene bedarf. Mit ihrem Fokus steht die Arbeit im Kontext einer globalen Arbeitsmarktforschung, die über einen Ländervergleich hinausgeht, um die internationalen Regulierungen in den Blick zu nehmen. Viele der bisherigen Arbeiten in diesem Bereich konzentrieren sich vorallem auf die Welthandelsorganisation, genauer auf das Allgemeine Dienstleistungsabkommen (GATS), das Vorgaben zur Personenfreizügigkeit macht. Diese Forschung hat bislang jedoch die bildungspolitische Dimension des globalen Arbeitsmarktes vernachlässigt. Besonders bei hochqualifizierten Tätigkeiten, die einen nicht unwichtigen Teil des globalen Dienstleistungshandels ausmachen, ist diese Dimension von Bedeutung. Individuelle Dienstleistungsanbieter sind darauf angewiesen, dass ihre Qualifikationen in den Ländern anerkannt werden, in denen sie tätig werden wollen. Das GATS definiert jedoch keine substantiellen Qualifikationsstandards und die Versuche, im Rahmen des GATS Auflagen zu sektorübergreifenden Anerkennungsstandards zu machen, sind bislang gescheitert. Im Gegensatz hierzu sind in den letzten Jahren im Rahmen der Organisation der Vereinten Nationen für Erziehung, Wissenschaft und Kultur (UNESCO) Standards zur Anerkennung von Hochschulbildung maßgeblich weiterentwickelt und konkretisiert worden. Zunächst bezog sich diese Entwicklung auf Europa als Teil eines umfassenderen Prozesses, der als Bologna-Prozess bekannt wurde. Doch auch in anderen Regionen ist die Konkretisierung und Weiterentwicklung der UNESCO-Anerkennungsstandards auf die bildungspolitische Tagesordnung gerückt. Die vorliegende Fallstudie rekonstruiert die Entwicklung dieser Standards, die einen Vergleich sehr unterschiedlicher Qualifikationen ermöglichen sollen. Die Studie wirft so ein Schlaglicht auf ein komplexes multiskalares institutionelles Arrangement, das die Anerkennung von Qualifikationen erleichtert, und verdeutlicht eine Interdependenz zwischen dem GATS und der UNESCO. Diese institutionelle Interdependenz verweist auf eine neue Komplexität internationaler Politik. Zusammen mit einem globalen Arbeitsmarkt, globalen Produktionsketten und Kommunikationsnetzwerken ist sie Ausdruck eines sich transnationalisierenden Vergesellschaftungsprozesses, den es auch in der theoretischen Konzeption internationaler Politik zu berücksichtigen gilt. Auch hierzu will die vorliegende Arbeit aus einer neo-gramscianischen, neo-Poulantza'schen Perspektive einen Beitrag leisten.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Wissensmanagement in zentralisierten Wissensbasen erfordert einen hohen Aufwand für Erstellung und Wartung, und es entspricht nicht immer den Anforderungen der Benutzer. Wir geben in diesem Kapitel einen Überblick über zwei aktuelle Ansätze, die durch kollaboratives Wissensmanagement diese Probleme lösen können. Im Peer-to-Peer-Wissensmanagement unterhalten Benutzer dezentrale Wissensbasen, die dann vernetzt werden können, um andere Benutzer eigene Inhalte nutzen zu lassen. Folksonomies versprechen, die Wissensakquisition so einfach wie möglich zu gestalten und so viele Benutzer in den Aufbau und die Pflege einer gemeinsamen Wissensbasis einzubeziehen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Simulation von Verlusten in Verbrennungsmotoren ermöglicht die Entwicklung optimierter Strategien für Verbrauchs- und Emissionskonzepte sowie die modellbasierte Betrachtung von Steuerungssystemen in Kraftfahrzeugen. Es gibt Simulationswerkzeuge, die die Verluste sehr detailliert auf der Basis von physikalischen Gesetzen nachbilden. Allerdings sind diese Werkzeuge nicht echtzeitfähig und können somit nicht in HiL-Umgebungen und Steuergeräten verwendet werden. Mit dem hier vorgestellten Ansatz können die Verluste in Verbrennungsmotoren unter Berücksichtigung der Einflüsse des variablen Ventiltriebs (VVT) nachgebildet werden. Das Gesamtmodell basiert auf einer physikalischen Grundstruktur mit integrierten datengetriebenen Teilmodellen. Durch den modularen Aufbau des Modells werden die Ladungswechsel- und Reibverluste in getrennten Teilmodellen berechnet, wobei die Reibverluste einer weiteren Unterteilung in Bauteilgruppen (Grundlager, Pleuellager, Kolbengruppe, etc.) unterliegen. Dieser modulare Aufbau ermöglicht kompakte Teilmodelle, die nur komponentenspezifische Eingänge besitzen. Die Modularität der Gesamtstruktur ermöglicht es, die Verluste einzelner Komponenten zu simulieren und zu bewerten. Durch die Einbeziehung von Konstruktionsdaten in den Modellerstellungsprozess können neben den prozessrelevanten Betriebsparametern auch Konstruktionsparameter bei der Simulation berücksichtigt werden. Hierdurch wird eine vereinfachte Skalierung der abgeleiteten Modelle ermöglicht. Die aus dem vorgestellten Ansatz abgeleiteten Verlustmodelle erfüllen den Aspekt der Echtzeitfähigkeit und können daher in HiL-Umgebungen verwendet werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die vorliegende Arbeit ist Teil eines Verbund-Forschungsprojektes mit dem Ziel, eine Präzisions-Bodenbearbeitung in Abhängigkeit von verschiedenen Bodenparametern sowie dem Bodenbedeckungsgrad zu realisieren. Ziel dieses Teilprojektes war die Bereitstellung einer Online-Messung des Bedeckungsgrades, um die Bearbeitungsintensität während der Feldüberfahrt regeln zu können: Ein Kamerasensor vorne am Schlepper ermittelt die Bodenbedeckung und ein Tiefen-Sollwert wird an das Regelsystem eines Gerätes zur teilfächenspezifischen Bodenbearbeitung ausgegeben. Da unter Feldbedingungen Methoden zur Bedeckungsgradmessung nur relativ zueinander verglichen werden können, wurde zunächst ein Laborvergleich mit wohldefinierten Bodenbedeckungen durchgeführt, um die prinzipiellen Stärken und Schwächen von Bildanalyse sowie zwei visuellen Methoden (Gitterraster-Methode und „Meterstick-Methode“) zu ermitteln: • Eine visuelle Methode, die auf einer begrenzten Anzahl von einfachen Stichprobenbeobachtungen beruht (Gitter), überschätzte den Bedeckungsgrad systematisch, wobei dieser Effekt unter Feldbedingungen vermutlich klein gegenüber der bekannten Schwankungsbreite zwischen Messungen verschiedener Beobachter ist. • Eine visuelle Methode, die auch Größe und Orientierung des Strohs berücksichtigt (Meterstick), lieferte präzise mittlere Messwerte. Diese Methode war die mit Abstand arbeitsaufwändigste. • Nach einer einfachen Korrektur des Abbildungsfehlers des Kameraobjektivs war auch die Bildverarbeitungs-Methode in der Lage, die bekannten tatsächlichen Bedeckungsgrade exakt darzustellen, bei gleichzeitig der geringsten Schwankungsbreite der Messwerte. Die Online-Messung der Bodenbedeckung durch Ernterückstände ist bisher jedoch ungelöst. Obwohl in früheren Untersuchungen Texturmerkmale oder Farbunterschiede erfolgreich genutzt wurden, um den Bedeckungsgrad zu bestimmen, wird eine Bedienperson zur interaktiven Festlegung bestimmter Parameter benötigt. Um den Prototypen eines onlinefähigen Kamerasensors zu entwickeln, wurden geeignete Ausrüstung und Bedingungen zur Bildaufnahme untersucht und verschiedene Auswertealgorithmen mit Hilfe einer wissenschaftlichen Bildanalysesoftware geschrieben und getestet: • Da im Nahinfraroten zwischen ca. 800 und 1400 nm der größte Intensitäts-Kontrast zwischen Stroh und Boden besteht wurde zur Bildaufnahme eine Schwarz-Weiss-CCD-Kamera mit aufgesetztem Infrarotfilter gewählt. Eine Diffusor-Box sorgte für homogene Beleuchtungsbedingungen. • Zwei auf Kantendetektion und automatischer Schwellwertsetzung basierende Versionen („A“ und „B“) eines „klassischen“ Segmentierungsalgorithmus wurden geschrieben. Durch einen iterativen Ansatz konnten geeignete Thresholding-Verfahren abhängig von der Größenordnung der Bodenbedeckung verwendet werden. Die zur Online-Regelung der Bearbeitungstiefe nötige Beschränkung der Prozesslaufzeit auf ca. 1000 ms/Bild konnte eingehalten werden. • Eine alternative automatisierbare Kontrollmethode wurde entwickelt, welche Merkmale der Grauwerthistogramme der Stroh/Boden-Bilder auswertet (Algorithmus „C“). Dieser Ansatz ist nochmals deutlich schneller als eine Bildsegmentierung (ca. 5 – 10 Bilder/s). • Der Sensor wurde an einem Quad montiert und die Bodenbedeckung auf drei Testfeldern untersucht. Zwischen den Messergebnissen eines Algorithmus vom Typ A/B und dem Ansatz C wurde eine Pearson-Korrelation von 0,967 für die Messwertegesamtheit gefunden. • Auf Versuchsparzellen mit definiert aufgebrachten Strohmengen (ein weiteres Teil-projekt) wurden an GPS-referenzierten Punkten Bilder mit dem Sensor aufgenommen und Referenzmessungen mit der visuellen Gitterraster-Methode durchgeführt. Zwischen der Bildverarbeitung (A, B) und dem Gitter ergaben sich befriedigende Pearson-Korrelationen im Bereich von 0,7 – 0,8. Allerdings waren für hohe Bedeckungen die Ergebnisse des Sensors meist signifikant niedrigere als der Mittelwert von drei das Gitter auszählenden Personen. Eine Kontrolle mit Ansatz C ergab, dass die Histogramm-Merkmale der einzelnen Bilder deutlich besser mit den per Bildverarbeitung ermittelten Bedeckungsgraden korrelierten als mit den Gittermessungen. – Insgesamt erwies sich die schnelle Bildverarbeitung als geeignet für den Einsatz als neue Referenzmethode zur Messung der Bodenbedeckung durch Ernterückstände. • Da der Aufbau des Sensors ohne die Diffusor-Box praxisgerechter ist, besteht weiterer Forschungsbedarf in Bezug auf die dann auftretenden Probleme durch stark wechselnde Beleuchtung und Schattenwurf. • In einem letzten Schritt wurde der Kamerasensor erfolgreich in ein bereits entwickeltes System zur teilflächenspezifischen Bodenbearbeitung an der Universität Kiel integriert. Eine Regelung der Arbeitstiefe durch den Kamerasensor war problemlos möglich, allerdings gilt es noch belastbare Kriterien für die Vorgabe von Tiefen-Sollwerten in Abhängigkeit vom Bedeckungsgrad zu entwickeln.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Der Europäische Markt für ökologische Lebensmittel ist seit den 1990er Jahren stark gewachsen. Begünstigt wurde dies durch die Einführung der EU-Richtlinie 2092/91 zur Zertifizierung ökologischer Produkte und durch die Zahlung von Subventionen an umstellungswillige Landwirte. Diese Maßnahmen führten am Ende der 1990er Jahre für einige ökologische Produkte zu einem Überangebot auf europäischer Ebene. Die Verbrauchernachfrage stieg nicht in gleichem Maße wie das Angebot, und die Notwendigkeit für eine Verbesserung des Marktgleichgewichts wurde offensichtlich. Dieser Bedarf wurde im Jahr 2004 von der Europäischen Kommission im ersten „Europäischen Aktionsplan für ökologisch erzeugte Lebensmittel und den ökologischen Landbau“ formuliert. Als Voraussetzung für ein gleichmäßigeres Marktwachstum wird in diesem Aktionsplan die Schaffung eines transparenteren Marktes durch die Erhebung statistischer Daten über Produktion und Verbrauch ökologischer Produkte gefordert. Die Umsetzung dieses Aktionsplans ist jedoch bislang nicht befriedigend, da es auf EU-Ebene noch immer keine einheitliche Datenerfassung für den Öko-Sektor gibt. Ziel dieser Studie ist es, angemessene Methoden für die Erhebung, Verarbeitung und Analyse von Öko-Marktdaten zu finden. Geeignete Datenquellen werden identifiziert und es wird untersucht, wie die erhobenen Daten auf Plausibilität untersucht werden können. Hierzu wird ein umfangreicher Datensatz zum Öko-Markt analysiert, der im Rahmen des EU-Forschungsprojektes „Organic Marketing Initiatives and Rural Development” (OMIaRD) erhoben wurde und alle EU-15-Länder sowie Tschechien, Slowenien, Norwegen und die Schweiz abdeckt. Daten für folgende Öko-Produktgruppen werden untersucht: Getreide, Kartoffeln, Gemüse, Obst, Milch, Rindfleisch, Schaf- und Ziegenfleisch, Schweinefleisch, Geflügelfleisch und Eier. Ein zentraler Ansatz dieser Studie ist das Aufstellen von Öko-Versorgungsbilanzen, die einen zusammenfassenden Überblick von Angebot und Nachfrage der jeweiligen Produktgruppen liefern. Folgende Schlüsselvariablen werden untersucht: Öko-Produktion, Öko-Verkäufe, Öko-Verbrauch, Öko-Außenhandel, Öko-Erzeugerpreise und Öko-Verbraucherpreise. Zudem werden die Öko-Marktdaten in Relation zu den entsprechenden Zahlen für den Gesamtmarkt (öko plus konventionell) gesetzt, um die Bedeutung des Öko-Sektors auf Produkt- und Länderebene beurteilen zu können. Für die Datenerhebung werden Primär- und Sekundärforschung eingesetzt. Als Sekundärquellen werden Publikationen von Marktforschungsinstituten, Öko-Erzeugerverbänden und wissenschaftlichen Instituten ausgewertet. Empirische Daten zum Öko-Markt werden im Rahmen von umfangreichen Interviews mit Marktexperten in allen beteiligten Ländern erhoben. Die Daten werden mit Korrelations- und Regressionsanalysen untersucht, und es werden Hypothesen über vermutete Zusammenhänge zwischen Schlüsselvariablen des Öko-Marktes getestet. Die Datenbasis dieser Studie bezieht sich auf ein einzelnes Jahr und stellt damit einen Schnappschuss der Öko-Marktsituation der EU dar. Um die Marktakteure in die Lage zu versetzen, zukünftige Markttrends voraussagen zu können, wird der Aufbau eines EU-weiten Öko-Marktdaten-Erfassungssystems gefordert. Hierzu wird eine harmonisierte Datenerfassung in allen EU-Ländern gemäß einheitlicher Standards benötigt. Die Zusammenstellung der Marktdaten für den Öko-Sektor sollte kompatibel sein mit den Methoden und Variablen der bereits existierenden Eurostat-Datenbank für den gesamten Agrarmarkt (öko plus konventionell). Eine jährlich aktualisierte Öko-Markt-Datenbank würde die Transparenz des Öko-Marktes erhöhen und die zukünftige Entwicklung des Öko-Sektors erleichtern. ---------------------------

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In der vorliegenden Arbeit werden die Erfolge und Misserfolge der Freiraumpolitik im Ruhrgebiet untersucht. Ausgangspunkte sind der Freiraumschwund, der über einen Zeitraum von fast 200 Jahren dokumentiert wird, sowie die Gegenbewegungen, die sich für den Freiraumschutz einsetzen. Nach der Vorstellung einer Freiraumtypologie werden diese Entwicklungen in detaillierten historischen Abrissen für jeden Freiraumtyp dargestellt, woraus sich eine eigene Ruhrgebietsgeschichte - aus der Perspektive der Freiflächen und ihrer Nutzer - ergibt. Folgerichtig beginnt die vorliegende Arbeit nicht mit Kohle und Eisen, sondern mit der Land- und Forstwirtschaft. Anhand historischer Quellen wird die gängige Am-Anfang-war-die-Heide-These widerlegt, denn das Ruhrgebiet war waldreich und ein produktiver Agrarraum. Landwirtschaftliche Flächen- und Waldverluste sind die Basis der Siedlungstätigkeit. Ohne die Gemeinheitsteilungen im 19. Jahrhundert wären die Stadterweiterungen und Industrieansiedlungen im Ruhrgebiet nicht möglich gewesen. Die - in Grundzügen im Ersten Weltkrieg entwickelte - Agrarpolitik mit der Förderung von Produktivitätssteigerungen und Hofaufgaben erleichterte den weiteren Entzug von Agrarflächen, und genauso wirkt heute die Liberalisierung der Agrarmärkte. Alternative Ansätze (z.B. Direktvermarktung) konnten diesen Trend noch nicht aufhalten. Auch das Baumschutzgesetz von 1922 konnte die nationalsozialistischen Kahlschläge, die Waldverluste im Zweiten Weltkrieg und durch den Wiederaufbau nicht verhindern. Erst seit der Deindustrialisierung, der Aufforstung von Halden und der Umweltbewegung nehmen Wälder wieder zu. Demgegenüber treten Ende des 19. Jahrhunderts völlig neue Freiraumtypen auf. Die bürgerschaftliche Kleingartenbewegung wurde dank ihrer Bedeutung für die Ernährung in den Städten seit dem Ersten Weltkrieg vom Staat stark unterstützt, von den Nationalsozialisten gleichgeschaltet, konnte aber in den 1950er Jahren ihren bürgerschaftlichen Charakter und ihre Stärke wieder zurückgewinnen. Auch wenn Kleingärten als bauliche Reserveflächen missbraucht werden, geschieht dies nicht mehr ohne Ersatzland. Im Unterschied hierzu wurde die Stadtparkbewegung kommunalisiert. Sodann entstanden Volksparks mit Sportanlagen, ästhetisch ausgerichtete Gartenschauen, die breit gefächerten Revierparks der 1970er Jahre und neue Parktypen im Emscher Landschaftspark. 1920 wird der Siedlungsverband Ruhrkohlenbezirk gegründet, der mit den Verbandsgrünflächen ein eigenes Instrument zum Freiraumschutz und die Kompetenz zur Fluchtlinien- bzw. Bebauungsplanung erhielt. Inzwischen darf der Verband, vor einigen Jahren in den Regionalverband Ruhr umgewandelt, zu kommunalen Planungen nur noch Stellungnahmen abgeben. Schon früh versuchte der Verband, industrielles Ödland zu begrünen. Nach den Bahndammbegrünungen vor dem Zweiten Weltkrieg hat er seit den 1950er Jahren Halden aufgeforstet, bis in den 1990er Jahren der Aufbau des Emscher Landschaftsparks begann. Zechen- und Industriebrachen werden in neue Parks, Halden und Mülldeponien in Landmarken und Freizeitlandschaften verwandelt. Zu fragen ist, was aus diesen Geschichten für die Freiraumpolitik folgt. Zwei gegensätzliche Thesen werden diskutiert: die Tragedy of the Commons, die im Gemeineigentum die Ursache ökologischer Probleme sieht, während der Common-Property-Ansatz gerade in gemeinschaftlichen Nutzungen einen Ansatz für Problemlösungen sieht. Dabei liegt eine Besonderheit von Freiräumen in ihrem hohen Öffentlichkeitsgrad, d.h. dass sie von vielen Menschen genutzt werden und gleichzeitig mehrere, z.B. produktive, ökologische, politische oder berufliche Funktionen erfüllen. Untersucht wird, inwieweit erfolgreich gesicherte Freiflächen Merkmale von stabilen Common-Property-Institutionen tragen, d.h. welche Funktionen die Freiräume erfüllen, wie ihre Nutzung geregelt ist und vor allem welchen Einfluss die Nutzer auf Entscheidungen haben. Thesenhaft lässt sich zusammenfassen, dass ein Teil der Freiräume sein Wachstum einer derzeit unverzichtbaren Funktion verdankt, nämlich der Camouflage von Müll und Altlasten, die eine bauliche Nutzung ausschließen. Andere Freiräume verdanken ihren Bestand ihren vielfältigen Nutzungen, zur Erholung, durch Denkmäler, für Veranstaltungen, aber auch der Wertsteigerung für umliegende Wohngebiete. Ein kleiner Teil der Freiräume hat tatsächlich einen Common-Property-Charakter: Kleingartenanlagen, die von bürgerschaftlichen Gruppen gegründeten Parks sowie die Flächen, die durch Bürgerinitiativen o.ä. gegen eine bauliche Umnutzung verteidigt werden. Grund genug, um die Idee eines Netzwerks von Parkvereinen aufzugreifen, die sich von bürgerschaftlicher Seite aus für Freiräume einsetzen können.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

English: The present thesis describes the synthesis of 1,1’-ferrocendiyl-based pyridylphosphine ligands, the exploration of their fundamental coordination chemistry and preliminary experiments with selected complexes aimed at potential applications. One main aspect is the synthesis of the bidentate ferrocene-based pyridylphosphine ligands 1-(Pyrid-2-yl)-1’-diphenylphosphinoferrocene, 1-(Pyrid-3-yl)-1’-diphenylphosphinoferrocene and 1-[(Pyrid-2-yl)methyl]-1’-diphenylphosphinoferrocene. A specific feature of these ligands is the ball-bearing like flexibility of the ferrocenebased backbone. An additional flexibility element is the rotation around the C–C single bonds. Consequently, the donor atoms can realise a wide range of positions with respect to each other and are therefore able to adapt to the coordination requirements of different metal centres. The flexibility of the ligand also plays a role in another key aspect of this work, which concerns the coordination mode, i. e. bridging vs. chelating. In addition to the flexibility, also the position of the donor atoms to each other is important. This is largely affected by the position of the pyridyl nitrogen (pyrid-2-yl vs. pyrid-3-yl) and the methylen group in 1-[(Pyrid-2-yl)methyl]-1’-diphenylphosphinoferrocene. Another interesting point is the combination of a soft phosphorus donor atom with a harder nitrogen donor atom, according to the HSAB principle. This combination generates a unique binding profile, since the pi-acceptor character of the P site is able to stabilise a metal centre in a low oxidation state, while the nitrogen sigma-donor ability can make the metal more susceptible to oxidative addition reactions. A P,N-donor combination can afford hemilabile binding profiles, which would be ideal for catalysis. Beyond 1,2-substituted ferrocene derivatives, which are quite successful in catalytic applications, 1,1’-derivatives are rather underrepresented. While a low-yield synthetic pathway to 1-(Pyrid-2-yl)-1’-diphenylphosphinoferrocene was already described in the literature [I. R. Butler, Organometallics 1992, 11, 74.], it was possible to find a new, improved and simplified synthetic pathway. Both other ligands were unknown prior to this work. Satisfactory results in the synthesis of 1-(Pyrid-3-yl)-1’-diphenylphosphinoferrocene could be achieved by working in analogy to the new synthetic procedure for 1-(Pyrid-2-yl)-1’-diphenylphosphinoferrocene. The synthesis of 1-[(Pyrid-2-yl)methyl]-1’-diphenylphosphinoferrocene has been handled by the group of Prof. Petr Stepnicka from Charles University, Prague, Czech Republic. The synthesis of tridentate ligands with an analogous heterodentate arrangement, was investigated briefly as a sideline of this study. The major part of this thesis deals with the fundamental coordination chemistry towards transition metals of the groups 10, 11 and 12. Due to the well-established catalytic properties of analogous palladium complexes, the coordination chemistry towards palladium (group 10) is of particular interest. The metals zinc and cadmium (group 12) are also of substantial importance because they are redox-inert in their divalent state. This is relevant in view of electrochemical investigations concerning the utilisation of the ligands as molecular redox sensors. Also mercury and the monovalent metals silver and gold (group 11) are included because of their rich coordination chemistry. It is essential to answer questions concerning aspects of the ligands’ coordination mode bearing in mind the HSAB principle.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In genannter Schrift soll versucht werden, einen aus der Kantschen und Fichteschen Erkenntnistheorie erfolgenden allgemeinen Zusammenhang herzustellen zwischen dem kategorialen Denken hinsichtlich Denken und Anschauen und dem Problem von Raum und Zeit, wie es sich mit der Entwicklung der modernen Physik durch die Relativitäts- und Quantentheorie deutlich aufdrängt. Es wird gezeigt, dass F.W.J. Schelling grundlegende Lösungsansätze hierzu bereitstellt, welche auf dem Gebiet der Logik, der Epistomologie und Naturphilosophie in der Nachfolge von Kant, Fichte und Spinoza stattfinden, jedoch weit über seine Zeit hinausreichen. Diese Ansätze werden von Schelling selbst unter den Begriff einer „Identität der Identität und Differenz“ gesetzt. In der genannten Dissertation sollen Denkbewegungen dargestellt werden, die eine Anbindung der Schellingschen Naturphilosophie an die sich mit den genannten unterschiedlichen Theorien bzw. deren problematischer Vereinheitlichung beschäftigende Physik zu erreichen versuchen. Der formelle Aufbau der Arbeit gehorcht der inhaltlichen Struktur dieser Anbindungsbemühung, insofern unterstellt wird, dass diese rein nur aus einem dialektischen Denken (sowohl in der Erkenntnistheorie, als auch Naturphilosophie) heraus überhaupt erreicht werden kann. So werden sowohl die Tätigkeiten des Verstandes als die des Anschauens in ihrem Zusammenspiel, wie aber auch die Verstandes- und Anschauungstätigkeiten an sich selbst betrachtet, dialektisch vermittelt dargestellt, was innerhalb der formellen Deduktion der Kantschen Kategorien und der korrespondierenden Anschauungsformen selbst durchgeführt wird. Schellings Intention seines späteren Denkens, die philosophischen Probleme auf die Geschichtlichkeit, die Freiheit und den Erfahrungsbezug des Menschen zu beziehen, wird nicht als Gegenposition zu den frühen Ansätze der Logik und Transzendentalphilosophie gedeutet, sondern selbst als Endpunkt einer dialektischen Entwicklung des Schellingschen Denkens gefasst. Dies ergibt folgenden formellen Aufbau der Arbeit: Zunächst wird in einem einleitenden Abschnitt über die Aufgabe der Philosophie selbst und ihrer Darstellbarkeit im Zusammenhang mit der Hegel-Schelling-Kontroverse gearbeitet, um Schelling als adäquaten Bezugspunkt für unsere moderne Diskussion auf der methodischen und sprachlichen Ebene einzuführen. Im Hauptteil werden die wesentlichen Momente der für Schelling wichtigen Transzendentalphilosophie der Jahrhundertwende dargestellt, um diese dann an den späteren phänomenologisch-epistemologischen Ansätzen zu spiegeln. Von der theoretischen Seite kommend werden die Hauptmomente der praktischen Philosophie Schellings aufgezeigt, um dann den Menschen in einem dritten Schritt Symbol der Ununterschiedenheit von logischen und freien Tätigkeiten bzw. von Leib und Seele zu deuten. Diese Resultate bleiben zunächst einmal liegen, um in dem zweiten Hauptabschnitt auf grundlegende naturphilosophische Voraussetzungen und Resultate derjenigen Physik einzugehen, welche die prinzipiellen Verständnisschwierigkeiten der Physik des frühen 20. Jahrhundert in die heutige kosmologische und atomistische Diskussion mitbringt. Der dritte Hauptabschnitt stellt den Versuch dar, Schellings Naturphilosophie an symptomatische Anschauungen der Physik heranzuführen, um ihn als zeitgenössischen Kritiker einzuführen, wie aber auch als einen, der bestimmte moderne naturwissenschaftliche bzw. physikalische Resultate im Besonderen vorwegzunehmen vermochte. Die Einführung seiner Philosophie in aktuelle naturphilosophische Diskussion wird als unabdingbare Voraussetzung zu einem zukünftigen Verständnis des Natur, des Kosmos´ und des Menschen gefordert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Als von der sozioökonomischen Herkunft unabhängige, in bestimmten Beziehungsstrukturen verankerte Ressource kann soziales Kapital nach Coleman gerade in der Institution Schule zur Kompensation familiär bedingter Benachteiligungen von Schülern herangezogen werden. Vor diesem Hintergrund wirkt schulisches Sozialkapital vor allem in unterstützenden Lernbedingungen, wie sie etwa durch soziale Einbindung, das Lehrer-Schüler-Verhältnis oder Partizipationsmöglichkeiten innerhalb der jeweiligen Schulstruktur abgebildet werden. So stellt die vorliegende Untersuchung die Rolle des schulischen Sozialkapitals am Übergang in die Sekundarstufe II, hier am Beispiel der gymnasialen Oberstufe, in den Fokus. Ausgehend von der Überlegung, dass gerade mit dem Wechsel in die Einführungsphase für Schüler, zumal vor dem Hintergrund der sich gegenwärtig vollziehenden Veränderungen im Hinblick auf die Gestaltung der Oberstufe, besondere Anforderungen einhergehen, rücken jene Investitionen in schulische Strukturen in den Vordergrund, die Schülern vor allem das Lernen, aber auch die erfolgreiche Bewältigung der Statuspassage an sich erleichtern sollen. Gerade die Dimension der vertrauensbasierten Lehrer-Schüler-Beziehung als unterstützender Lernbedingung im Sinne des schulischen Sozialkapitals soll in der vorliegenden Arbeit genauer theoretisch beleuchtet und mittels einer Hypothesenüberprüfung auf ihre angenommene Wirkung auf die von Schülern erlebte Lernatmosphäre hin untersucht werden. Dies geschieht anhand der Auswertung einer evaluativen Fragebogenerhebung, die an der Jacob-Grimm-Schule Kassel durchgeführt werden konnte. Ob der Feststellung, dass besagter Übergang in die Sekundarstufe II in der deutschen Schul- und Bildungsforschung bislang im Hinblick auf die Schülerperspektive noch nicht hinreichend als eigenständiger Forschungsgegenstand gewürdigt wird, wird anhand ausgewählter offener Items zudem untersucht, wie sich der Übergang in die Sekundarstufe II aus Schülersicht darstellt. So dient der Aufbau der Arbeit in ihrem theoretischen Teil der gezielten Hinführung zur empirischen Untersuchung und leistet hier am Beispiel der Jacob-Grimm-Schule Kassel vor allem auch die Übertragung verschiedener theoretischer Ansätze zum Sozialkapital in den Kontext der gymnasialen Oberstufe.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Auszeichnungssprache XML dient zur Annotation von Dokumenten und hat sich als Standard-Datenaustauschformat durchgesetzt. Dabei entsteht der Bedarf, XML-Dokumente nicht nur als reine Textdateien zu speichern und zu transferieren, sondern sie auch persistent in besser strukturierter Form abzulegen. Dies kann unter anderem in speziellen XML- oder relationalen Datenbanken geschehen. Relationale Datenbanken setzen dazu bisher auf zwei grundsätzlich verschiedene Verfahren: Die XML-Dokumente werden entweder unverändert als binäre oder Zeichenkettenobjekte gespeichert oder aber aufgespalten, sodass sie in herkömmlichen relationalen Tabellen normalisiert abgelegt werden können (so genanntes „Flachklopfen“ oder „Schreddern“ der hierarchischen Struktur). Diese Dissertation verfolgt einen neuen Ansatz, der einen Mittelweg zwischen den bisherigen Lösungen darstellt und die Möglichkeiten des weiterentwickelten SQL-Standards aufgreift. SQL:2003 definiert komplexe Struktur- und Kollektionstypen (Tupel, Felder, Listen, Mengen, Multimengen), die es erlauben, XML-Dokumente derart auf relationale Strukturen abzubilden, dass der hierarchische Aufbau erhalten bleibt. Dies bietet zwei Vorteile: Einerseits stehen bewährte Technologien, die aus dem Bereich der relationalen Datenbanken stammen, uneingeschränkt zur Verfügung. Andererseits lässt sich mit Hilfe der SQL:2003-Typen die inhärente Baumstruktur der XML-Dokumente bewahren, sodass es nicht erforderlich ist, diese im Bedarfsfall durch aufwendige Joins aus den meist normalisierten und auf mehrere Tabellen verteilten Tupeln zusammenzusetzen. In dieser Arbeit werden zunächst grundsätzliche Fragen zu passenden, effizienten Abbildungsformen von XML-Dokumenten auf SQL:2003-konforme Datentypen geklärt. Darauf aufbauend wird ein geeignetes, umkehrbares Umsetzungsverfahren entwickelt, das im Rahmen einer prototypischen Applikation implementiert und analysiert wird. Beim Entwurf des Abbildungsverfahrens wird besonderer Wert auf die Einsatzmöglichkeit in Verbindung mit einem existierenden, ausgereiften relationalen Datenbankmanagementsystem (DBMS) gelegt. Da die Unterstützung von SQL:2003 in den kommerziellen DBMS bisher nur unvollständig ist, muss untersucht werden, inwieweit sich die einzelnen Systeme für das zu implementierende Abbildungsverfahren eignen. Dabei stellt sich heraus, dass unter den betrachteten Produkten das DBMS IBM Informix die beste Unterstützung für komplexe Struktur- und Kollektionstypen bietet. Um die Leistungsfähigkeit des Verfahrens besser beurteilen zu können, nimmt die Arbeit Untersuchungen des nötigen Zeitbedarfs und des erforderlichen Arbeits- und Datenbankspeichers der Implementierung vor und bewertet die Ergebnisse.