39 resultados para dreiteiliger Aufbau
Resumo:
RESUMO: A economia solidária é aqui apresentada como um movimento social emancipatório e como uma das formas de resistências das trabalhadoras e trabalhadores ao modelo de desenvolvimento capitalista. O movimento contemporâneo de economia solidária abrange o processo de produção, comercialização e finanças. A economia solidária é caracterizada pela posse coletiva dos meios de produção e pelo controle dos trabalhadores dos empreendimentos através de autogestão, cooperação e solidariedade. Os empreendimentos econômicos solidários se organizam sob a forma de cooperativas, associações e grupos informais. Um dos maiores desafios da economia solidária está no campo educativo, porque impõe a desconstrução dos princípios individualistas e privatistas preponderantes na maioria das relações econômicas, e exige a construção de outra cultura pautada na solidariedade. Nesse sentido, a pesquisa realizada, tem como objeto de estudo as metodologias de incubação fomentadas pelas universidades nas ações de economia solidária. Para isso, analisamos as experiências da Incubadora de Economia Solidária da Universidade Federal da Paraíba - Brasil e da Incubadora na Universidade de Kassel- Alemanha – Verein für Solidarische Ökonomie e.V. A pesquisa buscou conhecer e analisar as práticas de incubagem das universidades na economia solidária, como processos de mudança social. A coleta de informações foi realizada, tendo por base, uma revisão bibliográfica, relatórios das Incubadoras, registros fotográficos, observação participante e entrevistas semi-estruturadas. Os resultados da análise indicam que as metodologias de incubação na economia solidaria, por terem um caráter aberto e participativo, por considerarem os condicionamentos históricos e as diferentes culturas, fazem-nas portadoras de mudanças sociais. Esta metodologia pode ser utilizada por diferentes atores, em lugares e situações distintas. A pesquisa indica ainda, a centralidade da questão ecológica como elemento que poderá unificar o movimento internacional de economia solidária.
Resumo:
Die Entstehung eines globalen Arbeitsmarktes ist in den letzten Jahren ins öffentliche Bewußtsein gerückt. Die vorliegende Arbeit zeigt, dass ein solcher Markt nicht von alleine entsteht, sondern eines komplexen institutionellen Arrangments auf internationaler Ebene bedarf. Mit ihrem Fokus steht die Arbeit im Kontext einer globalen Arbeitsmarktforschung, die über einen Ländervergleich hinausgeht, um die internationalen Regulierungen in den Blick zu nehmen. Viele der bisherigen Arbeiten in diesem Bereich konzentrieren sich vorallem auf die Welthandelsorganisation, genauer auf das Allgemeine Dienstleistungsabkommen (GATS), das Vorgaben zur Personenfreizügigkeit macht. Diese Forschung hat bislang jedoch die bildungspolitische Dimension des globalen Arbeitsmarktes vernachlässigt. Besonders bei hochqualifizierten Tätigkeiten, die einen nicht unwichtigen Teil des globalen Dienstleistungshandels ausmachen, ist diese Dimension von Bedeutung. Individuelle Dienstleistungsanbieter sind darauf angewiesen, dass ihre Qualifikationen in den Ländern anerkannt werden, in denen sie tätig werden wollen. Das GATS definiert jedoch keine substantiellen Qualifikationsstandards und die Versuche, im Rahmen des GATS Auflagen zu sektorübergreifenden Anerkennungsstandards zu machen, sind bislang gescheitert. Im Gegensatz hierzu sind in den letzten Jahren im Rahmen der Organisation der Vereinten Nationen für Erziehung, Wissenschaft und Kultur (UNESCO) Standards zur Anerkennung von Hochschulbildung maßgeblich weiterentwickelt und konkretisiert worden. Zunächst bezog sich diese Entwicklung auf Europa als Teil eines umfassenderen Prozesses, der als Bologna-Prozess bekannt wurde. Doch auch in anderen Regionen ist die Konkretisierung und Weiterentwicklung der UNESCO-Anerkennungsstandards auf die bildungspolitische Tagesordnung gerückt. Die vorliegende Fallstudie rekonstruiert die Entwicklung dieser Standards, die einen Vergleich sehr unterschiedlicher Qualifikationen ermöglichen sollen. Die Studie wirft so ein Schlaglicht auf ein komplexes multiskalares institutionelles Arrangement, das die Anerkennung von Qualifikationen erleichtert, und verdeutlicht eine Interdependenz zwischen dem GATS und der UNESCO. Diese institutionelle Interdependenz verweist auf eine neue Komplexität internationaler Politik. Zusammen mit einem globalen Arbeitsmarkt, globalen Produktionsketten und Kommunikationsnetzwerken ist sie Ausdruck eines sich transnationalisierenden Vergesellschaftungsprozesses, den es auch in der theoretischen Konzeption internationaler Politik zu berücksichtigen gilt. Auch hierzu will die vorliegende Arbeit aus einer neo-gramscianischen, neo-Poulantza'schen Perspektive einen Beitrag leisten.
Resumo:
Wissensmanagement in zentralisierten Wissensbasen erfordert einen hohen Aufwand für Erstellung und Wartung, und es entspricht nicht immer den Anforderungen der Benutzer. Wir geben in diesem Kapitel einen Überblick über zwei aktuelle Ansätze, die durch kollaboratives Wissensmanagement diese Probleme lösen können. Im Peer-to-Peer-Wissensmanagement unterhalten Benutzer dezentrale Wissensbasen, die dann vernetzt werden können, um andere Benutzer eigene Inhalte nutzen zu lassen. Folksonomies versprechen, die Wissensakquisition so einfach wie möglich zu gestalten und so viele Benutzer in den Aufbau und die Pflege einer gemeinsamen Wissensbasis einzubeziehen.
Resumo:
Die Simulation von Verlusten in Verbrennungsmotoren ermöglicht die Entwicklung optimierter Strategien für Verbrauchs- und Emissionskonzepte sowie die modellbasierte Betrachtung von Steuerungssystemen in Kraftfahrzeugen. Es gibt Simulationswerkzeuge, die die Verluste sehr detailliert auf der Basis von physikalischen Gesetzen nachbilden. Allerdings sind diese Werkzeuge nicht echtzeitfähig und können somit nicht in HiL-Umgebungen und Steuergeräten verwendet werden. Mit dem hier vorgestellten Ansatz können die Verluste in Verbrennungsmotoren unter Berücksichtigung der Einflüsse des variablen Ventiltriebs (VVT) nachgebildet werden. Das Gesamtmodell basiert auf einer physikalischen Grundstruktur mit integrierten datengetriebenen Teilmodellen. Durch den modularen Aufbau des Modells werden die Ladungswechsel- und Reibverluste in getrennten Teilmodellen berechnet, wobei die Reibverluste einer weiteren Unterteilung in Bauteilgruppen (Grundlager, Pleuellager, Kolbengruppe, etc.) unterliegen. Dieser modulare Aufbau ermöglicht kompakte Teilmodelle, die nur komponentenspezifische Eingänge besitzen. Die Modularität der Gesamtstruktur ermöglicht es, die Verluste einzelner Komponenten zu simulieren und zu bewerten. Durch die Einbeziehung von Konstruktionsdaten in den Modellerstellungsprozess können neben den prozessrelevanten Betriebsparametern auch Konstruktionsparameter bei der Simulation berücksichtigt werden. Hierdurch wird eine vereinfachte Skalierung der abgeleiteten Modelle ermöglicht. Die aus dem vorgestellten Ansatz abgeleiteten Verlustmodelle erfüllen den Aspekt der Echtzeitfähigkeit und können daher in HiL-Umgebungen verwendet werden.
Resumo:
Die vorliegende Arbeit ist Teil eines Verbund-Forschungsprojektes mit dem Ziel, eine Präzisions-Bodenbearbeitung in Abhängigkeit von verschiedenen Bodenparametern sowie dem Bodenbedeckungsgrad zu realisieren. Ziel dieses Teilprojektes war die Bereitstellung einer Online-Messung des Bedeckungsgrades, um die Bearbeitungsintensität während der Feldüberfahrt regeln zu können: Ein Kamerasensor vorne am Schlepper ermittelt die Bodenbedeckung und ein Tiefen-Sollwert wird an das Regelsystem eines Gerätes zur teilfächenspezifischen Bodenbearbeitung ausgegeben. Da unter Feldbedingungen Methoden zur Bedeckungsgradmessung nur relativ zueinander verglichen werden können, wurde zunächst ein Laborvergleich mit wohldefinierten Bodenbedeckungen durchgeführt, um die prinzipiellen Stärken und Schwächen von Bildanalyse sowie zwei visuellen Methoden (Gitterraster-Methode und „Meterstick-Methode“) zu ermitteln: • Eine visuelle Methode, die auf einer begrenzten Anzahl von einfachen Stichprobenbeobachtungen beruht (Gitter), überschätzte den Bedeckungsgrad systematisch, wobei dieser Effekt unter Feldbedingungen vermutlich klein gegenüber der bekannten Schwankungsbreite zwischen Messungen verschiedener Beobachter ist. • Eine visuelle Methode, die auch Größe und Orientierung des Strohs berücksichtigt (Meterstick), lieferte präzise mittlere Messwerte. Diese Methode war die mit Abstand arbeitsaufwändigste. • Nach einer einfachen Korrektur des Abbildungsfehlers des Kameraobjektivs war auch die Bildverarbeitungs-Methode in der Lage, die bekannten tatsächlichen Bedeckungsgrade exakt darzustellen, bei gleichzeitig der geringsten Schwankungsbreite der Messwerte. Die Online-Messung der Bodenbedeckung durch Ernterückstände ist bisher jedoch ungelöst. Obwohl in früheren Untersuchungen Texturmerkmale oder Farbunterschiede erfolgreich genutzt wurden, um den Bedeckungsgrad zu bestimmen, wird eine Bedienperson zur interaktiven Festlegung bestimmter Parameter benötigt. Um den Prototypen eines onlinefähigen Kamerasensors zu entwickeln, wurden geeignete Ausrüstung und Bedingungen zur Bildaufnahme untersucht und verschiedene Auswertealgorithmen mit Hilfe einer wissenschaftlichen Bildanalysesoftware geschrieben und getestet: • Da im Nahinfraroten zwischen ca. 800 und 1400 nm der größte Intensitäts-Kontrast zwischen Stroh und Boden besteht wurde zur Bildaufnahme eine Schwarz-Weiss-CCD-Kamera mit aufgesetztem Infrarotfilter gewählt. Eine Diffusor-Box sorgte für homogene Beleuchtungsbedingungen. • Zwei auf Kantendetektion und automatischer Schwellwertsetzung basierende Versionen („A“ und „B“) eines „klassischen“ Segmentierungsalgorithmus wurden geschrieben. Durch einen iterativen Ansatz konnten geeignete Thresholding-Verfahren abhängig von der Größenordnung der Bodenbedeckung verwendet werden. Die zur Online-Regelung der Bearbeitungstiefe nötige Beschränkung der Prozesslaufzeit auf ca. 1000 ms/Bild konnte eingehalten werden. • Eine alternative automatisierbare Kontrollmethode wurde entwickelt, welche Merkmale der Grauwerthistogramme der Stroh/Boden-Bilder auswertet (Algorithmus „C“). Dieser Ansatz ist nochmals deutlich schneller als eine Bildsegmentierung (ca. 5 – 10 Bilder/s). • Der Sensor wurde an einem Quad montiert und die Bodenbedeckung auf drei Testfeldern untersucht. Zwischen den Messergebnissen eines Algorithmus vom Typ A/B und dem Ansatz C wurde eine Pearson-Korrelation von 0,967 für die Messwertegesamtheit gefunden. • Auf Versuchsparzellen mit definiert aufgebrachten Strohmengen (ein weiteres Teil-projekt) wurden an GPS-referenzierten Punkten Bilder mit dem Sensor aufgenommen und Referenzmessungen mit der visuellen Gitterraster-Methode durchgeführt. Zwischen der Bildverarbeitung (A, B) und dem Gitter ergaben sich befriedigende Pearson-Korrelationen im Bereich von 0,7 – 0,8. Allerdings waren für hohe Bedeckungen die Ergebnisse des Sensors meist signifikant niedrigere als der Mittelwert von drei das Gitter auszählenden Personen. Eine Kontrolle mit Ansatz C ergab, dass die Histogramm-Merkmale der einzelnen Bilder deutlich besser mit den per Bildverarbeitung ermittelten Bedeckungsgraden korrelierten als mit den Gittermessungen. – Insgesamt erwies sich die schnelle Bildverarbeitung als geeignet für den Einsatz als neue Referenzmethode zur Messung der Bodenbedeckung durch Ernterückstände. • Da der Aufbau des Sensors ohne die Diffusor-Box praxisgerechter ist, besteht weiterer Forschungsbedarf in Bezug auf die dann auftretenden Probleme durch stark wechselnde Beleuchtung und Schattenwurf. • In einem letzten Schritt wurde der Kamerasensor erfolgreich in ein bereits entwickeltes System zur teilflächenspezifischen Bodenbearbeitung an der Universität Kiel integriert. Eine Regelung der Arbeitstiefe durch den Kamerasensor war problemlos möglich, allerdings gilt es noch belastbare Kriterien für die Vorgabe von Tiefen-Sollwerten in Abhängigkeit vom Bedeckungsgrad zu entwickeln.
Resumo:
Der Europäische Markt für ökologische Lebensmittel ist seit den 1990er Jahren stark gewachsen. Begünstigt wurde dies durch die Einführung der EU-Richtlinie 2092/91 zur Zertifizierung ökologischer Produkte und durch die Zahlung von Subventionen an umstellungswillige Landwirte. Diese Maßnahmen führten am Ende der 1990er Jahre für einige ökologische Produkte zu einem Überangebot auf europäischer Ebene. Die Verbrauchernachfrage stieg nicht in gleichem Maße wie das Angebot, und die Notwendigkeit für eine Verbesserung des Marktgleichgewichts wurde offensichtlich. Dieser Bedarf wurde im Jahr 2004 von der Europäischen Kommission im ersten „Europäischen Aktionsplan für ökologisch erzeugte Lebensmittel und den ökologischen Landbau“ formuliert. Als Voraussetzung für ein gleichmäßigeres Marktwachstum wird in diesem Aktionsplan die Schaffung eines transparenteren Marktes durch die Erhebung statistischer Daten über Produktion und Verbrauch ökologischer Produkte gefordert. Die Umsetzung dieses Aktionsplans ist jedoch bislang nicht befriedigend, da es auf EU-Ebene noch immer keine einheitliche Datenerfassung für den Öko-Sektor gibt. Ziel dieser Studie ist es, angemessene Methoden für die Erhebung, Verarbeitung und Analyse von Öko-Marktdaten zu finden. Geeignete Datenquellen werden identifiziert und es wird untersucht, wie die erhobenen Daten auf Plausibilität untersucht werden können. Hierzu wird ein umfangreicher Datensatz zum Öko-Markt analysiert, der im Rahmen des EU-Forschungsprojektes „Organic Marketing Initiatives and Rural Development” (OMIaRD) erhoben wurde und alle EU-15-Länder sowie Tschechien, Slowenien, Norwegen und die Schweiz abdeckt. Daten für folgende Öko-Produktgruppen werden untersucht: Getreide, Kartoffeln, Gemüse, Obst, Milch, Rindfleisch, Schaf- und Ziegenfleisch, Schweinefleisch, Geflügelfleisch und Eier. Ein zentraler Ansatz dieser Studie ist das Aufstellen von Öko-Versorgungsbilanzen, die einen zusammenfassenden Überblick von Angebot und Nachfrage der jeweiligen Produktgruppen liefern. Folgende Schlüsselvariablen werden untersucht: Öko-Produktion, Öko-Verkäufe, Öko-Verbrauch, Öko-Außenhandel, Öko-Erzeugerpreise und Öko-Verbraucherpreise. Zudem werden die Öko-Marktdaten in Relation zu den entsprechenden Zahlen für den Gesamtmarkt (öko plus konventionell) gesetzt, um die Bedeutung des Öko-Sektors auf Produkt- und Länderebene beurteilen zu können. Für die Datenerhebung werden Primär- und Sekundärforschung eingesetzt. Als Sekundärquellen werden Publikationen von Marktforschungsinstituten, Öko-Erzeugerverbänden und wissenschaftlichen Instituten ausgewertet. Empirische Daten zum Öko-Markt werden im Rahmen von umfangreichen Interviews mit Marktexperten in allen beteiligten Ländern erhoben. Die Daten werden mit Korrelations- und Regressionsanalysen untersucht, und es werden Hypothesen über vermutete Zusammenhänge zwischen Schlüsselvariablen des Öko-Marktes getestet. Die Datenbasis dieser Studie bezieht sich auf ein einzelnes Jahr und stellt damit einen Schnappschuss der Öko-Marktsituation der EU dar. Um die Marktakteure in die Lage zu versetzen, zukünftige Markttrends voraussagen zu können, wird der Aufbau eines EU-weiten Öko-Marktdaten-Erfassungssystems gefordert. Hierzu wird eine harmonisierte Datenerfassung in allen EU-Ländern gemäß einheitlicher Standards benötigt. Die Zusammenstellung der Marktdaten für den Öko-Sektor sollte kompatibel sein mit den Methoden und Variablen der bereits existierenden Eurostat-Datenbank für den gesamten Agrarmarkt (öko plus konventionell). Eine jährlich aktualisierte Öko-Markt-Datenbank würde die Transparenz des Öko-Marktes erhöhen und die zukünftige Entwicklung des Öko-Sektors erleichtern. ---------------------------
Resumo:
In der vorliegenden Arbeit werden die Erfolge und Misserfolge der Freiraumpolitik im Ruhrgebiet untersucht. Ausgangspunkte sind der Freiraumschwund, der über einen Zeitraum von fast 200 Jahren dokumentiert wird, sowie die Gegenbewegungen, die sich für den Freiraumschutz einsetzen. Nach der Vorstellung einer Freiraumtypologie werden diese Entwicklungen in detaillierten historischen Abrissen für jeden Freiraumtyp dargestellt, woraus sich eine eigene Ruhrgebietsgeschichte - aus der Perspektive der Freiflächen und ihrer Nutzer - ergibt. Folgerichtig beginnt die vorliegende Arbeit nicht mit Kohle und Eisen, sondern mit der Land- und Forstwirtschaft. Anhand historischer Quellen wird die gängige Am-Anfang-war-die-Heide-These widerlegt, denn das Ruhrgebiet war waldreich und ein produktiver Agrarraum. Landwirtschaftliche Flächen- und Waldverluste sind die Basis der Siedlungstätigkeit. Ohne die Gemeinheitsteilungen im 19. Jahrhundert wären die Stadterweiterungen und Industrieansiedlungen im Ruhrgebiet nicht möglich gewesen. Die - in Grundzügen im Ersten Weltkrieg entwickelte - Agrarpolitik mit der Förderung von Produktivitätssteigerungen und Hofaufgaben erleichterte den weiteren Entzug von Agrarflächen, und genauso wirkt heute die Liberalisierung der Agrarmärkte. Alternative Ansätze (z.B. Direktvermarktung) konnten diesen Trend noch nicht aufhalten. Auch das Baumschutzgesetz von 1922 konnte die nationalsozialistischen Kahlschläge, die Waldverluste im Zweiten Weltkrieg und durch den Wiederaufbau nicht verhindern. Erst seit der Deindustrialisierung, der Aufforstung von Halden und der Umweltbewegung nehmen Wälder wieder zu. Demgegenüber treten Ende des 19. Jahrhunderts völlig neue Freiraumtypen auf. Die bürgerschaftliche Kleingartenbewegung wurde dank ihrer Bedeutung für die Ernährung in den Städten seit dem Ersten Weltkrieg vom Staat stark unterstützt, von den Nationalsozialisten gleichgeschaltet, konnte aber in den 1950er Jahren ihren bürgerschaftlichen Charakter und ihre Stärke wieder zurückgewinnen. Auch wenn Kleingärten als bauliche Reserveflächen missbraucht werden, geschieht dies nicht mehr ohne Ersatzland. Im Unterschied hierzu wurde die Stadtparkbewegung kommunalisiert. Sodann entstanden Volksparks mit Sportanlagen, ästhetisch ausgerichtete Gartenschauen, die breit gefächerten Revierparks der 1970er Jahre und neue Parktypen im Emscher Landschaftspark. 1920 wird der Siedlungsverband Ruhrkohlenbezirk gegründet, der mit den Verbandsgrünflächen ein eigenes Instrument zum Freiraumschutz und die Kompetenz zur Fluchtlinien- bzw. Bebauungsplanung erhielt. Inzwischen darf der Verband, vor einigen Jahren in den Regionalverband Ruhr umgewandelt, zu kommunalen Planungen nur noch Stellungnahmen abgeben. Schon früh versuchte der Verband, industrielles Ödland zu begrünen. Nach den Bahndammbegrünungen vor dem Zweiten Weltkrieg hat er seit den 1950er Jahren Halden aufgeforstet, bis in den 1990er Jahren der Aufbau des Emscher Landschaftsparks begann. Zechen- und Industriebrachen werden in neue Parks, Halden und Mülldeponien in Landmarken und Freizeitlandschaften verwandelt. Zu fragen ist, was aus diesen Geschichten für die Freiraumpolitik folgt. Zwei gegensätzliche Thesen werden diskutiert: die Tragedy of the Commons, die im Gemeineigentum die Ursache ökologischer Probleme sieht, während der Common-Property-Ansatz gerade in gemeinschaftlichen Nutzungen einen Ansatz für Problemlösungen sieht. Dabei liegt eine Besonderheit von Freiräumen in ihrem hohen Öffentlichkeitsgrad, d.h. dass sie von vielen Menschen genutzt werden und gleichzeitig mehrere, z.B. produktive, ökologische, politische oder berufliche Funktionen erfüllen. Untersucht wird, inwieweit erfolgreich gesicherte Freiflächen Merkmale von stabilen Common-Property-Institutionen tragen, d.h. welche Funktionen die Freiräume erfüllen, wie ihre Nutzung geregelt ist und vor allem welchen Einfluss die Nutzer auf Entscheidungen haben. Thesenhaft lässt sich zusammenfassen, dass ein Teil der Freiräume sein Wachstum einer derzeit unverzichtbaren Funktion verdankt, nämlich der Camouflage von Müll und Altlasten, die eine bauliche Nutzung ausschließen. Andere Freiräume verdanken ihren Bestand ihren vielfältigen Nutzungen, zur Erholung, durch Denkmäler, für Veranstaltungen, aber auch der Wertsteigerung für umliegende Wohngebiete. Ein kleiner Teil der Freiräume hat tatsächlich einen Common-Property-Charakter: Kleingartenanlagen, die von bürgerschaftlichen Gruppen gegründeten Parks sowie die Flächen, die durch Bürgerinitiativen o.ä. gegen eine bauliche Umnutzung verteidigt werden. Grund genug, um die Idee eines Netzwerks von Parkvereinen aufzugreifen, die sich von bürgerschaftlicher Seite aus für Freiräume einsetzen können.
Resumo:
English: The present thesis describes the synthesis of 1,1’-ferrocendiyl-based pyridylphosphine ligands, the exploration of their fundamental coordination chemistry and preliminary experiments with selected complexes aimed at potential applications. One main aspect is the synthesis of the bidentate ferrocene-based pyridylphosphine ligands 1-(Pyrid-2-yl)-1’-diphenylphosphinoferrocene, 1-(Pyrid-3-yl)-1’-diphenylphosphinoferrocene and 1-[(Pyrid-2-yl)methyl]-1’-diphenylphosphinoferrocene. A specific feature of these ligands is the ball-bearing like flexibility of the ferrocenebased backbone. An additional flexibility element is the rotation around the C–C single bonds. Consequently, the donor atoms can realise a wide range of positions with respect to each other and are therefore able to adapt to the coordination requirements of different metal centres. The flexibility of the ligand also plays a role in another key aspect of this work, which concerns the coordination mode, i. e. bridging vs. chelating. In addition to the flexibility, also the position of the donor atoms to each other is important. This is largely affected by the position of the pyridyl nitrogen (pyrid-2-yl vs. pyrid-3-yl) and the methylen group in 1-[(Pyrid-2-yl)methyl]-1’-diphenylphosphinoferrocene. Another interesting point is the combination of a soft phosphorus donor atom with a harder nitrogen donor atom, according to the HSAB principle. This combination generates a unique binding profile, since the pi-acceptor character of the P site is able to stabilise a metal centre in a low oxidation state, while the nitrogen sigma-donor ability can make the metal more susceptible to oxidative addition reactions. A P,N-donor combination can afford hemilabile binding profiles, which would be ideal for catalysis. Beyond 1,2-substituted ferrocene derivatives, which are quite successful in catalytic applications, 1,1’-derivatives are rather underrepresented. While a low-yield synthetic pathway to 1-(Pyrid-2-yl)-1’-diphenylphosphinoferrocene was already described in the literature [I. R. Butler, Organometallics 1992, 11, 74.], it was possible to find a new, improved and simplified synthetic pathway. Both other ligands were unknown prior to this work. Satisfactory results in the synthesis of 1-(Pyrid-3-yl)-1’-diphenylphosphinoferrocene could be achieved by working in analogy to the new synthetic procedure for 1-(Pyrid-2-yl)-1’-diphenylphosphinoferrocene. The synthesis of 1-[(Pyrid-2-yl)methyl]-1’-diphenylphosphinoferrocene has been handled by the group of Prof. Petr Stepnicka from Charles University, Prague, Czech Republic. The synthesis of tridentate ligands with an analogous heterodentate arrangement, was investigated briefly as a sideline of this study. The major part of this thesis deals with the fundamental coordination chemistry towards transition metals of the groups 10, 11 and 12. Due to the well-established catalytic properties of analogous palladium complexes, the coordination chemistry towards palladium (group 10) is of particular interest. The metals zinc and cadmium (group 12) are also of substantial importance because they are redox-inert in their divalent state. This is relevant in view of electrochemical investigations concerning the utilisation of the ligands as molecular redox sensors. Also mercury and the monovalent metals silver and gold (group 11) are included because of their rich coordination chemistry. It is essential to answer questions concerning aspects of the ligands’ coordination mode bearing in mind the HSAB principle.
Resumo:
In genannter Schrift soll versucht werden, einen aus der Kantschen und Fichteschen Erkenntnistheorie erfolgenden allgemeinen Zusammenhang herzustellen zwischen dem kategorialen Denken hinsichtlich Denken und Anschauen und dem Problem von Raum und Zeit, wie es sich mit der Entwicklung der modernen Physik durch die Relativitäts- und Quantentheorie deutlich aufdrängt. Es wird gezeigt, dass F.W.J. Schelling grundlegende Lösungsansätze hierzu bereitstellt, welche auf dem Gebiet der Logik, der Epistomologie und Naturphilosophie in der Nachfolge von Kant, Fichte und Spinoza stattfinden, jedoch weit über seine Zeit hinausreichen. Diese Ansätze werden von Schelling selbst unter den Begriff einer „Identität der Identität und Differenz“ gesetzt. In der genannten Dissertation sollen Denkbewegungen dargestellt werden, die eine Anbindung der Schellingschen Naturphilosophie an die sich mit den genannten unterschiedlichen Theorien bzw. deren problematischer Vereinheitlichung beschäftigende Physik zu erreichen versuchen. Der formelle Aufbau der Arbeit gehorcht der inhaltlichen Struktur dieser Anbindungsbemühung, insofern unterstellt wird, dass diese rein nur aus einem dialektischen Denken (sowohl in der Erkenntnistheorie, als auch Naturphilosophie) heraus überhaupt erreicht werden kann. So werden sowohl die Tätigkeiten des Verstandes als die des Anschauens in ihrem Zusammenspiel, wie aber auch die Verstandes- und Anschauungstätigkeiten an sich selbst betrachtet, dialektisch vermittelt dargestellt, was innerhalb der formellen Deduktion der Kantschen Kategorien und der korrespondierenden Anschauungsformen selbst durchgeführt wird. Schellings Intention seines späteren Denkens, die philosophischen Probleme auf die Geschichtlichkeit, die Freiheit und den Erfahrungsbezug des Menschen zu beziehen, wird nicht als Gegenposition zu den frühen Ansätze der Logik und Transzendentalphilosophie gedeutet, sondern selbst als Endpunkt einer dialektischen Entwicklung des Schellingschen Denkens gefasst. Dies ergibt folgenden formellen Aufbau der Arbeit: Zunächst wird in einem einleitenden Abschnitt über die Aufgabe der Philosophie selbst und ihrer Darstellbarkeit im Zusammenhang mit der Hegel-Schelling-Kontroverse gearbeitet, um Schelling als adäquaten Bezugspunkt für unsere moderne Diskussion auf der methodischen und sprachlichen Ebene einzuführen. Im Hauptteil werden die wesentlichen Momente der für Schelling wichtigen Transzendentalphilosophie der Jahrhundertwende dargestellt, um diese dann an den späteren phänomenologisch-epistemologischen Ansätzen zu spiegeln. Von der theoretischen Seite kommend werden die Hauptmomente der praktischen Philosophie Schellings aufgezeigt, um dann den Menschen in einem dritten Schritt Symbol der Ununterschiedenheit von logischen und freien Tätigkeiten bzw. von Leib und Seele zu deuten. Diese Resultate bleiben zunächst einmal liegen, um in dem zweiten Hauptabschnitt auf grundlegende naturphilosophische Voraussetzungen und Resultate derjenigen Physik einzugehen, welche die prinzipiellen Verständnisschwierigkeiten der Physik des frühen 20. Jahrhundert in die heutige kosmologische und atomistische Diskussion mitbringt. Der dritte Hauptabschnitt stellt den Versuch dar, Schellings Naturphilosophie an symptomatische Anschauungen der Physik heranzuführen, um ihn als zeitgenössischen Kritiker einzuführen, wie aber auch als einen, der bestimmte moderne naturwissenschaftliche bzw. physikalische Resultate im Besonderen vorwegzunehmen vermochte. Die Einführung seiner Philosophie in aktuelle naturphilosophische Diskussion wird als unabdingbare Voraussetzung zu einem zukünftigen Verständnis des Natur, des Kosmos´ und des Menschen gefordert.
Resumo:
Als von der sozioökonomischen Herkunft unabhängige, in bestimmten Beziehungsstrukturen verankerte Ressource kann soziales Kapital nach Coleman gerade in der Institution Schule zur Kompensation familiär bedingter Benachteiligungen von Schülern herangezogen werden. Vor diesem Hintergrund wirkt schulisches Sozialkapital vor allem in unterstützenden Lernbedingungen, wie sie etwa durch soziale Einbindung, das Lehrer-Schüler-Verhältnis oder Partizipationsmöglichkeiten innerhalb der jeweiligen Schulstruktur abgebildet werden. So stellt die vorliegende Untersuchung die Rolle des schulischen Sozialkapitals am Übergang in die Sekundarstufe II, hier am Beispiel der gymnasialen Oberstufe, in den Fokus. Ausgehend von der Überlegung, dass gerade mit dem Wechsel in die Einführungsphase für Schüler, zumal vor dem Hintergrund der sich gegenwärtig vollziehenden Veränderungen im Hinblick auf die Gestaltung der Oberstufe, besondere Anforderungen einhergehen, rücken jene Investitionen in schulische Strukturen in den Vordergrund, die Schülern vor allem das Lernen, aber auch die erfolgreiche Bewältigung der Statuspassage an sich erleichtern sollen. Gerade die Dimension der vertrauensbasierten Lehrer-Schüler-Beziehung als unterstützender Lernbedingung im Sinne des schulischen Sozialkapitals soll in der vorliegenden Arbeit genauer theoretisch beleuchtet und mittels einer Hypothesenüberprüfung auf ihre angenommene Wirkung auf die von Schülern erlebte Lernatmosphäre hin untersucht werden. Dies geschieht anhand der Auswertung einer evaluativen Fragebogenerhebung, die an der Jacob-Grimm-Schule Kassel durchgeführt werden konnte. Ob der Feststellung, dass besagter Übergang in die Sekundarstufe II in der deutschen Schul- und Bildungsforschung bislang im Hinblick auf die Schülerperspektive noch nicht hinreichend als eigenständiger Forschungsgegenstand gewürdigt wird, wird anhand ausgewählter offener Items zudem untersucht, wie sich der Übergang in die Sekundarstufe II aus Schülersicht darstellt. So dient der Aufbau der Arbeit in ihrem theoretischen Teil der gezielten Hinführung zur empirischen Untersuchung und leistet hier am Beispiel der Jacob-Grimm-Schule Kassel vor allem auch die Übertragung verschiedener theoretischer Ansätze zum Sozialkapital in den Kontext der gymnasialen Oberstufe.
Resumo:
Die Auszeichnungssprache XML dient zur Annotation von Dokumenten und hat sich als Standard-Datenaustauschformat durchgesetzt. Dabei entsteht der Bedarf, XML-Dokumente nicht nur als reine Textdateien zu speichern und zu transferieren, sondern sie auch persistent in besser strukturierter Form abzulegen. Dies kann unter anderem in speziellen XML- oder relationalen Datenbanken geschehen. Relationale Datenbanken setzen dazu bisher auf zwei grundsätzlich verschiedene Verfahren: Die XML-Dokumente werden entweder unverändert als binäre oder Zeichenkettenobjekte gespeichert oder aber aufgespalten, sodass sie in herkömmlichen relationalen Tabellen normalisiert abgelegt werden können (so genanntes „Flachklopfen“ oder „Schreddern“ der hierarchischen Struktur). Diese Dissertation verfolgt einen neuen Ansatz, der einen Mittelweg zwischen den bisherigen Lösungen darstellt und die Möglichkeiten des weiterentwickelten SQL-Standards aufgreift. SQL:2003 definiert komplexe Struktur- und Kollektionstypen (Tupel, Felder, Listen, Mengen, Multimengen), die es erlauben, XML-Dokumente derart auf relationale Strukturen abzubilden, dass der hierarchische Aufbau erhalten bleibt. Dies bietet zwei Vorteile: Einerseits stehen bewährte Technologien, die aus dem Bereich der relationalen Datenbanken stammen, uneingeschränkt zur Verfügung. Andererseits lässt sich mit Hilfe der SQL:2003-Typen die inhärente Baumstruktur der XML-Dokumente bewahren, sodass es nicht erforderlich ist, diese im Bedarfsfall durch aufwendige Joins aus den meist normalisierten und auf mehrere Tabellen verteilten Tupeln zusammenzusetzen. In dieser Arbeit werden zunächst grundsätzliche Fragen zu passenden, effizienten Abbildungsformen von XML-Dokumenten auf SQL:2003-konforme Datentypen geklärt. Darauf aufbauend wird ein geeignetes, umkehrbares Umsetzungsverfahren entwickelt, das im Rahmen einer prototypischen Applikation implementiert und analysiert wird. Beim Entwurf des Abbildungsverfahrens wird besonderer Wert auf die Einsatzmöglichkeit in Verbindung mit einem existierenden, ausgereiften relationalen Datenbankmanagementsystem (DBMS) gelegt. Da die Unterstützung von SQL:2003 in den kommerziellen DBMS bisher nur unvollständig ist, muss untersucht werden, inwieweit sich die einzelnen Systeme für das zu implementierende Abbildungsverfahren eignen. Dabei stellt sich heraus, dass unter den betrachteten Produkten das DBMS IBM Informix die beste Unterstützung für komplexe Struktur- und Kollektionstypen bietet. Um die Leistungsfähigkeit des Verfahrens besser beurteilen zu können, nimmt die Arbeit Untersuchungen des nötigen Zeitbedarfs und des erforderlichen Arbeits- und Datenbankspeichers der Implementierung vor und bewertet die Ergebnisse.
Resumo:
In dieser Arbeit ist die zentrale Frage, warum dicistronische mRNAs, eine für Eukaryoten untypische Organisation, existieren und wie die Translation des zweiten offenen Leserasters initiiert wird. In sieben von neun anfänglich ausgewählten Genkassetten werden tatsächlich nur dicistronische und keine monocistronischen Transkripte gebildet. Im Laufe der Evolution scheint diese Organisation nicht immer erhalten zu bleiben - es finden sich Hinweise für einen operonartigen Aufbau. Nach Transformation mit einem dicistronischen Reporterkonstrukt und in in vitro Translations-Assays weisen die beiden Genkassetten CG31311 und CG33009 eine interne ribosomale Eintrittstelle (IRES) auf, welche die Translation des zweiten Cistrons einleiten kann. Diese beiden IRESs lassen sich in einen Bereich von unter 100 nt eingrenzen. Die Funktionalität der beiden nachgewiesenen IRESs konnte in vivo in der männlichen Keimbahn von Drosophila bestätigt werden, nachdem das Vorhandensein von kryptischen Promotoren in diesen Bereichen ausgeschlossen wurde. Die anderen fünf Genkassetten hingegen zeigen keine IRES-Aktivität und nutzen wahrscheinlich alternative Methoden wie das leaky scanning oder ribosomal shunting zur Translation des zweiten Cistrons. In weiterführenden Analysen wurden sehr komplexe Expressionsmuster beobachtet, die nicht offensichtlich mit der beschriebenen mRNA Organisation in Einklang zu bringen sind. Bei der Genkassette CG33009 zum Beispiel wird das erste Protein während der gesamten Spermatogenese in den Keimzellen synthetisiert, wohingegen das zweite IRES-abhängig translatierte Protein in den die Keimzellen umschließenden Cystenzellen und zusätzlich in den elongierten Spermatiden auftritt. Diese zusätzliche Expression könnte auf Transportprozessen oder Neusynthese beruhen. Die Cystenzell-spezische Expression eines Fusionskonstruktes führte jedoch nicht zum Nachweis des Fusionsproteins in den Keimzellen. Somit ist eine durch die IRES-vermittelte Neusynthese in den elongierten Spermatiden wahrscheinlicher. Ein Verlust dieses IRES-abhängig translatierten Proteins in den Cystenzellen bringt die Spermatogenese zum Erliegen und belegt somit dessen essentielle Funktion. Bei der Genkassette CG31311 kommt es auch zu einer bemerkenswerten Auffälligkeit in der Expression. Während im Hodengewebe große Mengen an Transkript vorhanden sind, die aber nicht zu nachweisbaren Mengen an Protein führen, lässt sich in den Ommatidien ein differenziertes Expressionsmuster für beide Proteine dokumentieren, obwohl die Transkriptmenge hier unterhalb der Nachweisgrenze liegt. Diese Beobachtung suggeriert eine drastische Kontrolle auf Translationsebene, die für das Hodengewebe zum Beispiel in einer Verzögerung der Translation bis nach der Befruchtung bestehen könnte (paternale mRNA). Erste Ansätze zeigen die Interaktion der IRES von CG33009 mit RNA-bindenden Proteinen, potentiellen ITAFs (IRES trans-acting factors), deren Bindung sequenzspezisch erfolgt. In weiteren Experimenten wäre zu testen, ob die hier identifizierten IRESs mit den gleichen oder mit unterschiedlichen Proteinen interagieren.
Resumo:
Diese Arbeit thematisiert die optimierte Darstellung von organischen Mikro- und Nanodrähten, Untersuchungen bezüglich deren molekularen Aufbaus und die anwendungsorientierte Charakterisierung der Eigenschaften. Mikro- und Nanodrähte haben in den letzten Jahren im Zuge der Miniaturisierung von Technologien an weitreichendem Interesse gewonnen. Solche eindimensionalen Strukturen, deren Durchmesser im Bereich weniger zehn Nanometer bis zu einigen wenigen Mikrometern liegt, sind Gegenstand intensiver Forschung. Neben anorganischen Ausgangssubstanzen zur Erzeugung von Mikro- und Nanodrähten haben organische Funktionsmaterialien aufgrund ihrer einfachen und kostengünstigen Verarbeitbarkeit sowie ihrer interessanten elektrischen und optischen Eigenschaften an Bedeutung gewonnen. Eine wichtige Materialklasse ist in diesem Zusammenhang die Verbindungsklasse der n-halbleitenden Perylentetracarbonsäurediimide (kurz Perylendiimide). Dem erfolgreichen Einsatz von eindimensionalen Strukturen als miniaturisierte Bausteine geht die optimierte und kontrollierte Herstellung voraus. Im Rahmen der Doktorarbeit wurde die neue Methode der Drahterzeugung „Trocknen unter Lösungsmittelatmosphäre“ entwickelt, welche auf Selbstassemblierung der Substanzmoleküle aus Lösung basiert und unter dem Einfluss von Lösungsmitteldampf direkt auf einem vorgegebenen Substrat stattfindet. Im Gegensatz zu literaturbekannten Methoden ist kein Transfer der Drähte aus einem Reaktionsgefäß nötig und damit verbundene Beschädigungen der Strukturen werden vermieden. Während herkömmliche Methoden in einer unkontrolliert großen Menge von ineinander verwundenen Drähten resultieren, erlaubt die substratbasierte Technik die Bildung voneinander separierter Einzelfasern und somit beispielsweise den Einsatz in Einzelstrukturbauteilen. Die erhaltenen Fasern sind morphologisch sehr gleichmäßig und weisen bei Längen von bis zu 5 mm bemerkenswert hohe Aspektverhältnisse von über 10000 auf. Darüber hinaus kann durch das direkte Drahtwachstum auf dem Substrat über den Einsatz von vorstrukturierten Oberflächen und Wachstumsmasken gerichtetes, lokal beschränktes Drahtwachstum erzielt werden und damit aktive Kontrolle auf Richtung und Wachstumsbereich der makroskopisch nicht handhabbaren Objekte ausgeübt werden. Um das Drahtwachstum auch hinsichtlich der Materialauswahl, d. h. der eingesetzten Ausgangsmaterialien zur Drahterzeugung und somit der resultierenden Eigenschaften der gebildeten Strukturen aktiv kontrollieren zu können, wird der Einfluss unterschiedlicher Parameter auf die Morphologie der Selbstassemblierungsprodukte am Beispiel unterschiedlicher Derivate betrachtet. So stellt sich zum einen die Art der eingesetzten Lösungsmittel in flüssiger und gasförmiger Phase beim Trocknen unter Lösungsmittelatmosphäre als wichtiger Faktor heraus. Beide Lösungsmittel dienen als Interaktionspartner für die Moleküle des funktionellen Drahtmaterials im Selbstassemblierungsprozess. Spezifische Wechselwirkungen zwischen Perylendiimid-Molekülen untereinander und mit Lösungsmittel-Molekülen bestimmen dabei die äußere Form der erhaltenen Strukturen. Ein weiterer wichtiger Faktor ist die Molekülstruktur des verwendeten funktionellen Perylendiimids. Es wird der Einfluss einer Bay-Substitution bzw. einer unsymmetrischen Imid-Substitution auf die Morphologie der erhaltenen Strukturen herausgestellt. Für das detaillierte Verständnis des Zusammenhanges zwischen Molekülstruktur und nötigen Wachstumsbedingungen für die Bildung von eindimensionalen Strukturen zum einen, aber auch die resultierenden Eigenschaften der erhaltenen Aggregationsprodukte zum anderen, sind Informationen über den molekularen Aufbau von großer Bedeutung. Im Rahmen der Doktorarbeit konnte ein molekular hoch geordneter, kristalliner Aufbau der Drähte nachgewiesen werden. Durch Kombination unterschiedlicher Messmethoden ist es gelungen, die molekulare Anordnung in Strukturen aus einem Spirobifluoren-substituierten Derivat in Form einer verkippten Molekülstapelung entlang der Drahtlängsrichtung zu bestimmen. Um mögliche Anwendungsbereiche der erzeugten Drähte aufzuzeigen, wurden diese hinsichtlich ihrer elektrischen und optischen Eigenschaften analysiert. Neben dem potentiellen Einsatz im Bereich von Filteranwendungen und Sensoren, sind vor allem die halbleitenden und optisch wellenleitenden Eigenschaften hervorzuheben. Es konnten organische Transistoren auf der Basis von Einzeldrähten mit im Vergleich zu Dünnschichtbauteilen erhöhten Ladungsträgerbeweglichkeiten präpariert werden. Darüber hinaus wurden die erzeugten eindimensionalen Strukturen als aktive optische Wellenleiter charakterisiert. Die im Rahmen der Dissertation erarbeiteten Kenntnisse bezüglich der Bildung von eindimensionalen Strukturen durch Selbstassemblierung, des Drahtaufbaus und erster anwendungsorientierter Charakterisierung stellen eine Basis zur Weiterentwicklung solcher miniaturisierter Bausteine für unterschiedlichste Anwendungen dar. Die neu entwickelte Methode des Trocknens unter Lösungsmittelatmosphäre ist nicht auf den Einsatz von Perylendiimiden beschränkt, sondern kann auf andere Substanzklassen ausgeweitet werden. Dies eröffnet breite Möglichkeiten der Materialauswahl und somit der Einsatzmöglichkeiten der erhaltenen Strukturen.
Resumo:
In der vorliegenden Arbeit wurde die Biofilmbildung bei einem klinischen Isolat von Enterococcus faecalis untersucht. Der Prozess der Biofilmbildung ist in mehrere Abschnitte unterteilt und beinhaltet zu Beginn eine Anhaftung von Zellen an Oberflächen. Dieser adhäsive Schritt wird unter anderem durch Pili vermittelt. Pili bei Grampositiven Mikroorganismen sind kovalent mit der Zellwand verknüpfte Proteinstrukturen, die eine Anheftung an biotische und abiotische Oberflächen sowie den Zell-Zell-Kontakt vermitteln. Bei den Analysen dieser Doktorarbeit lag ein besonderes Interesse bei eben diesen Pili, die für Enterococcus faecalis die Namen Ebp (endocarditis and biofilm associated pili) und Bee (biofilm enhancer in enterococci) tragen. Codiert werden sie durch die entsprechenden ebp-/bee-Loci, deren Aufbau unter den Grampositiven Mikroorganismen hochkonserviert ist. Die Loci bestehen aus Pilusuntereinheiten-codierenden Genen und colokalisierten Pilus-spezifischen Sortase Genen. Während in der Regel drei verschiedene Pilusuntereinheiten vorliegen, kann die Anzahl der Sortasen zwischen einer und zwei variieren. Bei den Experimenten wurde neben einer Komplementationsstudie zu einer Bee-Pilus Defekt-Mutante (1.10.16) das Hauptaugenmerk auf die Analyse des zweiten Pilus (Ebp) gelegt, um die Pilisituation bei Isolat 1.10 im Detail darzustellen Zusätzlich sollten weitere Oberflächenassoziierte Proteinstrukturen bei Isolat 1.10 detektiert werden, die gegebenenfalls an der Biofilmbildung beteiligt sind. Weitere Versuche zur Charakterisierung des Bee-Pilus wurden im Laufe dieser Arbeit durchgeführt, blieben jedoch bisher erfolglos. Die Biofilm-/Pilus-Defekt-Mutante 1.10.16 zeigte aufgrund einer Punktmutation (Pm) in der Pilus-spezifischen Sortase 1 des bee-Locus eine geschwächte Fähigkeit zur Anheftung an abiotische Oberflächen, sowie das Fehlen der Bee2 Untereinheit im Pilus. Nach Komplementation der Mutante (1.10.16K) mit dem Wildtyp-srt1 Gen, wurde die starke Biofilmbildungsfähigkeit zurück erlangt. Die Experimente zeigten, dass der Pilus-Defekt auf die Pm im srt1 Gen zurückzuführen war und der Bee-Pilus in Stamm 1.10.16K wieder korrekt gebildet wurde. Zu sehen war dies in Rasterelektronenmikroskopischen Aufnahmen und ebenfalls im massenspektrometrischen Nachweis aller 3 Pilusuntereinheiten im Bee-Pilus charakteristischen High-Molecular-Weight Komplex (~ 250 kDa). Durch Sequenzierungen konnte gezeigt werden, dass zwei Gene des ebp-Locus (ebpR und ebpC) bei Isolat 1.10 durch die Insertion von IS-Elementen IS1062 und IS6770 inaktiviert wurden. Der proteinbiochemische Nachweis über Pilusspezifische Antikörper gegen die Untereinheiten des Ebp-Pilus verlief negativ. Zusätzlich konnte gezeigt werden, dass die mRNA der beiden inaktivierten Gene nicht gebildet wurde. Dies führte folglich zum vollständigen Verlust des Ebp-Pilus bei Isolat 1.10. Zusammen mit den Ergebnissen der Komplementation konnte somit der große Einfluss mindestens eines intakten Pilus auf die Biofilmbildung gezeigt werden. Sind beide Pili durch Insertionen bzw. Mutationen inaktiviert, kommt es zu einer deutlichen Abnahme der Biofilmbildungsstärke. Dass trotzdem noch ein Biofilm gebildet wurde, zeigt den multifaktoriellen Zusammenhang bzw. Einfluss im Biofilmbildungsprozess. Über das gezielte Markieren von Oberflächenproteinen intakter Zellen mittels der Oberflächenbiotinylierung, konnten in der SDS-PAGE Unterschiede im Bandenmuster im Vergleich zur unbehandelten Probe erkannt werden. Die massenspektrometrische Identifikation dieser Proteine erfolgte bisher nicht, jedoch sind diese vorläufigen Ergebnisse vielversprechender Natur für die Identifikation und Aufklärung der Oberflächenproteinsituation bei Isolat 1.10.
Resumo:
Die bereits seit einigen Jahren stark in der wissenschaftlichen Literatur diskutierte RFID-Technologie ermöglicht es, Informationen (echt-)zeitnah, detailliert und mit einer höheren Objektivität bereitzustellen. Der Fokus vieler Arbeiten lag dabei vor allem auf RFID-spezifischen Einsatzmöglichkeiten in den Bereichen des Supply Chain- und des Customer Relationship Managements. Aber auch für ein modernes Controlling bzw. für die Managementunterstützung sind Innovationen in der Informationstechnik – hier die Besonderheiten und Eigenschaften von RFID-Daten – von sehr hoher Bedeutung. Dieses Forschungsfeld hat bisher jedoch kaum Beachtung gefunden. Mit der vorliegenden Dissertationsschrift wird versucht, diese Forschungslücke sowohl konzeptionell als auch empirisch zu schließen. Sie gliedert sich zu diesem Zweck in vier Kapitel. Nach einer Einleitung werden im zweiten Kapitel die konzeptionellen Grundlagen geschaffen. Dazu werden verschiedene Controllingkonzeptionen vorgestellt und anhand ausgewählter Kriterien dahingehend überprüft, ob diese dazu geeignet sind, die RFID-Nutzenpotenziale im Controlling darzustellen. Der kontributionsorientierte Ansatz nach Link erweist sich hierbei als zweckmäßiger Controllingansatz. Im zweiten Grundlagenkapitel werden u. a. die Funktionsweise sowie verschiedene Vorteile der RFID-Technologie vorgestellt. Im Hauptkapitel wird zunächst der Stand der Controllingforschung in Bezug auf RFID sowie dessen Einordnung in das Controlling gezeigt. Im Anschluss daran folgt die Arbeit dem systematischen Aufbau des kontributionsorientierten Ansatzes wie folgt: - Harmonisation: RFID auf der Ebene der Unternehmensleitung - Harmonisationsunterstützung: RFID auf der Ebene des Controlling • RFID-Einfluss auf das Zielsystem: Sachziele, Formalziele und Sozialziele • RFID und Vorsteuerung • Der RFID-Beitrag zur Umsetzung der Controllingprinzipien: Entscheidungsfundierung, Koordinationsentlastung und Entscheidungsreflexion Da mit dem RFID-Beitrag zur Vorsteuerung die „Kernleistung“ eines modernen Controlling behandelt wurde, besitzt dieser Punkt eine besonders hohe Relevanz. Den Abschluss der Dissertationsschrift bildet eine empirische Untersuchung (Kapitel vier) zum Status Quo der Nutzung von RFID-Daten bzw. -Informationen im Controlling. Darüber hinaus wurden mögliche Problemfelder der RFID-Nutzung im Controlling respektive der Managementunterstützung offengelegt. Die Diskrepanz zwischen den im theoretischen Teil der Arbeit herausgearbeiteten vielfältigen Nutzenpotenzialen von RFID im Controlling und der tatsächlichen Nutzung von RFID-Daten im Controlling deutscher Unternehmen ist dabei ein wesentliches Ergebnis. Die Arbeit schließt mit einer Zusammenfassung der Ergebnisse und einem Ausblick auf den weiteren Forschungsbedarf (Kapitel fünf) ab.