47 resultados para Wissenschaftlichen Abhandlung
Resumo:
Bei Dämmen auf wenig tragfähigem Untergrund ist es zwischenzeitlich Stand der Technik, an der Dammbasis eine Bewehrung aus hochzugfesten Geokunststoffen (Gewebe oder Geogitter) einzulegen. Dabei können die Bewehrungslagen direkt auf den weichen Boden oder über Pfahlelementen angeordnet werden, die die Dammlasten in tiefere, tragfähigere Schichten abtragen. Die horizontale Bewehrung an der Dammbasis hat die Aufgabe, die vertikalen Dammlasten und die nach außen wirkenden Spreizkräfte aufzunehmen. Dies ist besonders für bewehrte Tragschichten über Pfählen von großer Bedeutung, da sonst die Pfähle/Säulen eine Biegebeanspruchung erhalten, die sie aufgrund des geringen Durchmessers (oftmals unbewehrt) nicht aufnehmen können. Abgesicherte wissenschaftliche Erkenntnisse über Größe und Verteilung der Spreizspannung in Höhe ober- und unterhalb der Bewehrungslagen liegen derzeit noch nicht vor, aus denen dann auch die Beanspruchung abzuleiten ist, die aus der Spreizwirkung bei der Geokunststoffbemessung zu berücksichtigen ist. Herr Dr.-Ing. Gourge Fahmi hat dafür zunächst den Kenntnisstand zur Spreizbeanspruchung ohne und mit Bewehrung sowie ohne und mit Pfahlelementen zusammengefasst. Ein wesentlicher Teil einer wissenschaftlichen Untersuchungen stellt die Modellversuche in einem relativ großen Maßstab dar, die u. a. auch zur Validierung von numerischen Berechnungen zur Fragestellung vorgesehen waren. Dabei konnte nach gewissen Parameteranpassungen überwiegend eine gute Übereinstimmung zwischen Modellversuchen und FEM-Berechnungen erreicht werden. Lediglich bei den Dehnungen bzw. Zugkräften in den Geogittern über Pfahlelementen ergab die FEM bei dem verwendeten Programmsystem viel zu niedrige Werte. Es wurde dazu in der Arbeit anhand eigener Untersuchungen und Vergleichsergebnissen aus der Literatur eine Hypothese formuliert und zunächst die Berechnungsergebnisse mit einem Faktor angepasst. Mit den durchgeführten Verifikationen stand damit dann ein weitestgehend abgesichertes numerisches Berechnungsmodell zur Verfügung. Aufbauend auf diesen Vorarbeiten konnten Parameterstudien mit numerischen und analytischen Methoden zur Spreizproblematik durchgeführt werden. Dabei wurden die Randbedingungen und Parametervariationen sinnvoll und für die Fragestellung zutreffend gewählt. Die numerischen Verfahren ergaben vertiefte Erkenntnisse zur Mechanik und zum Verhalten der Konstruktion. Die analytischen Vergleichsberechnungen validierten primär die Güte dieser vereinfachten Ansätze für praktische Berechnungen. Zusammenfassend wurde festgestellt, dass erwartungsgemäß die Spreizkräfte im Geogitter nahezu linear mit der Dammhöhe anwachsen. Von besonderer Bedeutung für die Größe der Spreizkräfte ist die Steifigkeit der Weichschichten. Dieser Parameter wird bei den bisher bekannten analytischen Berechnungsverfahren nicht berücksichtigt. Je weicher der Untergrund, je größer wird das Verhältnis zwischen Spreiz- und Membranbeanspruchung. Eine steilere Dammböschung hat erwartungsgemäß ebenfalls eine höhere Spreizwirkung zur Folge. Des Weiteren ergeben sich bei mehrlagigen Geogittern die höheren Beanspruchungen in der unteren Lage aus dem Membraneffekt und in der oberen Lage aus dem Spreizeffekt. Zu diesen Erkenntnissen wurden in der Arbeit erste Vorschläge für die praktischen Bemessungen gemacht, die aber noch weiter zu optimieren sind. Schließlich erfolgt von Herrn Fahmi eine Betrachtung der Pfahlelementbeanspruchung aus Pfahlkopfverschiebung und Biegemomenten. Dabei wurde ersichtlich, dass die Pfahlelemente bei hohen Dämmen erhebliche Beanspruchungen erhalten können, wenn relativ weicher Untergrund vorhanden ist, und es zeigt die Notwendigkeit entsprechend abgesicherter Bemessungsverfahren auf.
Resumo:
Kommunikation ist ein grundsätzlicher Bestandteil der menschlichen Gesellschaft. In den Wirtschaftswissenschaften wird der Begriff Kommunikation zwar wie in den meisten wissenschaftlichen Disziplinen als allgemein bekannt voraus gesetzt, eine Betrachtung der wirtschaftlichen Zusammenhänge ist bisher aber noch nicht erstellt worden. In dieser Arbeit werden erstmals diese Zusammenhänge in einem Gesamtsystem dargestellt. Mithilfe des statistischen Instrumentariums eines Satellitensystems wird aufgezeigt, welche wirtschaftlich relevanten monetären Ströme durch die Kommunikation der Menschen in Deutschland im Jahr 2003 ausgelöst worden sind. Dafür wird der Gesamtmarkt über Sekundärdaten in detaillierter Aufgliederung analysiert und mit den gefundenen Erkenntnissen der Grundstein für ein zukünftiges Satellitensystem der Kommunikation gelegt. Ein spezielles Bruttoinlandsprodukt der Kommunikation rundet die Darstellung ab.
Resumo:
Diese Arbeit entstand vor dem Hintergrund einer zunehmenden Hinwendung der wissenschaftlichen Didaktiken zum Konstruktivismus und der damit verbundenen Forderung nach schülerzentrierten Lehr- und Lernarrangements. Die Gründe für diese Entwicklung liegen u. a. in der Vorstellung, dass sich Schüler durch eigenes Konstruieren von Problemlösungen intensiver und verständiger mit dem Lernstoff auseinandersetzen. Im Bereich des Wirtschaftslehreunterrichts ergeben sich aufgrund einer nicht unproblematischen Bezugsdisziplin und ihrer begrifflichen Grundlagen Besonderheiten. Diese begründen sich in einem stark an der klassischen Physik angenäherten Grundverständnis der neoklassischen Ökonomik. Hier setzte die Arbeit an einem typischen ökonomischen Konzept, dem Produktlebenszyklus, beispielhaft an. Wenngleich dieser nicht die radikale Stringenz zwischen gesetzten Annahmen und den daraus abgeleiteten logisch wahren Folgerungen aufweist und somit nicht als originär neoklassisches Konzept gelten kann, weist dieser dennoch deutliche Kompatibilitäten zur Machart der Neoklassik auf, wie beispielsweise weit reichende Komplexitätsreduzierungen. Der Umgang mit dem Produktlebenszyklus durch Lernende wird analytisch-experimentell sowie interpretativ in den didaktischen Spannungsfeldern von Instruktion und Konstruktion untersucht. Im Rahmen einer Schulbuchanalyse konnte gezeigt werden, dass die Leistungsfähigkeit des Produktlebenszyklus in den Lehrwerken durch besonders plausible Beispiele und einen auf Instruktionen setzenden Vermittlungsstil besonders deutlich hervorgehoben wird, obwohl dies empirisch nicht haltbar ist. Dies wirkt verengend auf die differenzierte Wahrnehmung von Märkten und Produkten, wie in Testreihen mit angehenden Wirtschaftslehrern gezeigt werden konnte. Diese Experimente machten am Beispiel des Produktlebenszyklus deutlich, wie prägend instruierende und plausibilisierende Unterrichte wirken können, wenn die behandelten Modelle einen plausiblen Kern haben. Trotz offensichtlicher Inkompatibilitäten zur Realität verteidigten die Probanden mehrheitlich das Modell und immunisierten es gegen Kritik. Eine zweite, stärker auf Konstruktionen setzende Experimentreihe konnte diese Haltung zwar aufweichen und legte den Grundstein für einen konstruktiv-kritischen Umgang mit dem Produktlebenszyklus. Es wurde allerdings auch hier deutlich, welch große Hürde es darstellt, durch instruierende und plausibilisierende Unterrichte erworbene Schemata später noch zu korrigieren. Aus diesen Befunden wurden Empfehlungen für die wesentlichen an der Lehrerausbildung beteiligten Institutionen abgeleitet.
Resumo:
Immer wieder und mit viel schlechtem Gewissen hat sich Freud mit der Frage auseinandergesetzt, inwieweit die Psychoanalyse Wissenschaft oder nicht vielmehr Kunst sei. So stellt er etwa fest, daß seine Krankengeschichten wie Novellen zu lesen seien, daß die psychoanalytische Methode einer spezifischen Kunstbetrachtung gleiche und daß die freie Assoziation ihre Vorläuferschaft in einer kreativen Methode der literarischen Produktion finde. Damit droht eine "Ästhetisierung der Erkenntnis", die spätestens seit Nietzsche die Frage nach der Wahrheit grundlegend umwälzt. Diese ist nicht einfach vorfindbar oder abbildbar und existiert nicht prima facie, sondern muß "gedeutet", "erraten" und "konstruiert" werden. Die gleichsam ästhetischen Darstellungsformen des Psychischen reflektieren damit das Dargestellte selbst, nämlich die unbewußte psychische Realität, in der es kein Unterscheidungszeichen zwischen Realität und Fiktion gibt. Daraus erschließt sich auch ein anderes Verständnis des psychoanalytischen Tuns, das sich nicht hierarchisch einem wissenschaftlichen Regelwerk unterstellen läßt, sondern als ein heuristischer Suchprozeß zu beschreiben und mit Hilfe der Erkenntnisse der Kreativitätsforschung zu verstehen ist. Die Autoren plädieren weiterhin dafür, daß Psychoanalyse nur als ein dialogisch-intersubjektives Geschehen begriffen werden kann, in dem die "biographische Wahrheit" in einem gleichsam poetischen Akt gemeinsam erfunden und erzeugt wird.
Resumo:
In der Betrachtung der Supervision begegnen sich zwei unterschiedliche Perspektiven. Einerseits wird Supervision als schlichte Anwendung wissenschaftlich gewonnener Erkenntnisse gewertet. Andererseits läßt sie sich jedoch auch als eine »Kunst« begreifen. Die Autoren gehen davon aus, daß sich professionelles supervisorisches Handeln nicht hierarchisch einem wissenschaftlichen Regelwerk unterstellen läßt, sondern daß beide Bereiche gleichberechtigt ihren je eigenen Diskurs- und Handlungsformen folgen. Sinnvoll scheint es, das supervisorische Tun als einen heuristischen Suchprozeß zu beschreiben und ihn mit Hilfe der Erkenntnisse der Kreativitätsforschung besser zu verstehen. Die Autoren plädieren weiterhin dafür, daß eine psychoanalytisch orientierte Supervision nur als ein dialogisch-intersubjektives Geschehen begriffen werden kann, in dem die biographische "Wahrheit" oder das institutionelle bzw. organisatorische Unbewußte in einem gleichsam poetisch-schöpferischen Akt zwischen Supervisor und Supervisand(en) gemeinsam erfunden und erzeugt wird.
Resumo:
In der Betrachtung der Supervision begegnen sich zwei unterschiedliche Perspektiven. Einerseits wird Supervision als schlichte Anwendung wissenschaftlich gewonnener Erkenntnisse gewertet. Andererseits lässt sie sich jedoch auch als eine "Kunst" begreifen. Die Autoren gehen davon aus, dass sich professionelles supervisorisches Handeln nicht hierarchisch einem wissenschaftlichen Regelwerk unterstellen lässt, sondern dass beide Bereiche gleichberechtigt ihren je eigenen Diskurs- und Handlungsformen folgen. Sinnvoll scheint es, das supervisorische Tun als einen heuristischen Suchprozess zu beschreiben und ihn mit Hilfe der Erkenntnisse der Kreativitätsforschung besser zu verstehen. Die Autoren plädieren weiterhin dafür, dass eine psychoanalytisch orientierte Supervision nur als ein dialogisch-intersubjektives Geschehen begriffen werden kann, in dem die biographische "Wahrheit" oder das institutionelle bzw. organisatorische Unbewusste in einem gleichsam poetischen-schöpferischen Akt zwischen Supervisor und Supervisand(en) gemeinsam erfunden und erzeugt wird.
Resumo:
Diese Arbeit sucht nach den Erwerbstätigkeiten und Kompetenzen deutscher Philosophie-Absolvent(inn)en und nach der Wahrheit ihrer angeblichen Arbeitslosenquote. Anhand von EU-Papieren werden Anknüpfungspunkte für kompetenzorientierte Philosophie-Lehre aufgezeigt. Es wird dargestellt, wie Philosoph(inn)en die Kompetenzdiskussion sowohl in Deutschland als auch – über die OECD – international beeinfluss(t)en und mit gestalt(et)en. Die notwendige Voraussetzung für Lernen und Kompetenzentwicklung ist die Plastizität unseres Gehirnes. Biographisch beginnt das Lernen in der Schule und findet sein vorläufiges Ende in der Arbeitswelt. Diese Arbeit versucht, den zwischen schul- und arbeitsweltorientierten Kompetenzforschern bestehenden Graben zu überwinden. Problemlösefähigkeit in internationalen Teams wird für die gelingende Zukunft unserer Welt als wesentliche fachübergreifende Kompetenz erachtet. Für den in Deutschland sehr einflussreichen Kompetenzforscher John Erpenbeck ist die Selbstorganisationsfähigkeit ein Ankerpunkt. Für den Entwickler der noch heute in Deutschland anerkannten Kompetenzbereiche (Sach-, Sozial- und Selbstkompetenz), Heinrich Roth, liegt die "Höchstform menschlicher Handlungsfähigkeit" in der moralischen Selbstbestimmung. Die Zukunft wird zeigen, inwieweit das Verständnis von Regeln, Werten und Normen bei den arbeitswissenschaftlichen Kompetenzforschern im Korsett einer jeweiligen Unternehmensphilosophie verbleibt, oder inwieweit die Selbstorganisationsfähigkeit im Sinne einer moralischen Selbstbestimmung des Einzelnen die Unternehmensphilosophie prägt. In literaturhistorischen Anhängen wird ein assoziatives Feld von Einzelinformationen dargeboten, die einen roten Faden im Sinne eines sich aufbauenden Argumentes vermissen lassen. Vordergründig wird nur ein loses Band von John Dewey und William James bis Heinrich Roth und die heutige Zeit hergestellt. Hintergründig will der Autor darauf hinweisen, dass es einen Unterschied macht, ob sich der Begriff "Selbstorganisationsfähigkeit" aus einer physikalischen oder einer biologischen Wurzel entwickelt. Der Autor sieht keinen zwingenden Grund für das Bestehen eines eigenständigen Studienganges "Philosophie". Allerdings kann er auch nicht erkennen, warum er abgeschafft werden sollte.
Resumo:
Bewegt man sich als Studentin oder Student in psychologischen, medizinischen oder pädagogischen Studiengängen, ist häufig eine systematische Literaturrecherche unerlässlich, um sich über den neuesten Forschungsstand in einem bestimmten Themenfeld zu informieren oder sich in ein neues Thema beispielsweise für die Abschlussarbeit einzuarbeiten. Literaturrecherchen sind zentraler Bestandteil jeden wissenschaftlichen Arbeitens. Die recherchierten Literaturangaben und Quellen bilden die Bausteine, auf denen die Darstellung des Wissens in Hausarbeiten, Magister-, Diplomarbeiten und später Doktorarbeiten basiert. In Form von Quellenangaben, z.B. durch indirekte oder direkte Zitate oder Paraphrasierungen werden Bezugnahmen auf die bereits vorhandene Literatur transparent gemacht. Häufig genügt ein Blick auf eine Literaturliste um zu erkennen, wie Literatur gesucht und zusammengestellt wurde. Wissenschaftliches Arbeiten unterscheidet sich von künstlerischem Arbeiten durch seine Systematik und intersubjektive Nachvollziehbarkeit. Diese Systematik sollte bereits bei der Literaturrecherche beginnen und sich am Ende der Arbeit in der Literaturliste widerspiegeln. Auch wenn in einer Magister-, Diplom- und noch weniger in einer Hausarbeit die gesamte, gefundene Literatur verwendet wird, sondern nur eine sehr kleine Auswahl in die Arbeit einfließt, ist es anstrebenswert, sich über die möglichen Suchstrategien im Einzelnen klar zu werden und sich systematisch durch den Berg von Literatur(einträgen) nach einer Recherche zu einer einschlägigen und begründeten Auswahl vorzuarbeiten. Hier stellen die schnell wachsenden Wissensbestände eine besondere Herausforderung an Studierende und Wissenschaftler. Die Recherche am „Zettelkasten‟ in der Bibliothek ist durch die Online-Recherche ersetzt worden. Wissenschaftliche Literatur wird heute in erster Linie digital gesucht, gefunden und verwaltet. Für die Literatursuche steht eine Vielfalt an Suchmaschinen zur Verfügung. Doch welche ist die richtige? Und wie suche ich systematisch? Wie dokumentiere ich meine Suche? Wie komme ich an die Literatur und wie verwalte ich die Literatur? Diese und weitere Fragen haben auch wir uns gestellt und für alle Studierenden der Fächer Psychologie, Psychoanalyse, Medizin und Pädagogik diese Handreichung geschrieben. Sie will eine Hilfe bei der konkreten Umsetzung einer Literaturrecherche sein.
Resumo:
Die vorliegende Arbeit ist Teil eines Verbund-Forschungsprojektes mit dem Ziel, eine Präzisions-Bodenbearbeitung in Abhängigkeit von verschiedenen Bodenparametern sowie dem Bodenbedeckungsgrad zu realisieren. Ziel dieses Teilprojektes war die Bereitstellung einer Online-Messung des Bedeckungsgrades, um die Bearbeitungsintensität während der Feldüberfahrt regeln zu können: Ein Kamerasensor vorne am Schlepper ermittelt die Bodenbedeckung und ein Tiefen-Sollwert wird an das Regelsystem eines Gerätes zur teilfächenspezifischen Bodenbearbeitung ausgegeben. Da unter Feldbedingungen Methoden zur Bedeckungsgradmessung nur relativ zueinander verglichen werden können, wurde zunächst ein Laborvergleich mit wohldefinierten Bodenbedeckungen durchgeführt, um die prinzipiellen Stärken und Schwächen von Bildanalyse sowie zwei visuellen Methoden (Gitterraster-Methode und „Meterstick-Methode“) zu ermitteln: • Eine visuelle Methode, die auf einer begrenzten Anzahl von einfachen Stichprobenbeobachtungen beruht (Gitter), überschätzte den Bedeckungsgrad systematisch, wobei dieser Effekt unter Feldbedingungen vermutlich klein gegenüber der bekannten Schwankungsbreite zwischen Messungen verschiedener Beobachter ist. • Eine visuelle Methode, die auch Größe und Orientierung des Strohs berücksichtigt (Meterstick), lieferte präzise mittlere Messwerte. Diese Methode war die mit Abstand arbeitsaufwändigste. • Nach einer einfachen Korrektur des Abbildungsfehlers des Kameraobjektivs war auch die Bildverarbeitungs-Methode in der Lage, die bekannten tatsächlichen Bedeckungsgrade exakt darzustellen, bei gleichzeitig der geringsten Schwankungsbreite der Messwerte. Die Online-Messung der Bodenbedeckung durch Ernterückstände ist bisher jedoch ungelöst. Obwohl in früheren Untersuchungen Texturmerkmale oder Farbunterschiede erfolgreich genutzt wurden, um den Bedeckungsgrad zu bestimmen, wird eine Bedienperson zur interaktiven Festlegung bestimmter Parameter benötigt. Um den Prototypen eines onlinefähigen Kamerasensors zu entwickeln, wurden geeignete Ausrüstung und Bedingungen zur Bildaufnahme untersucht und verschiedene Auswertealgorithmen mit Hilfe einer wissenschaftlichen Bildanalysesoftware geschrieben und getestet: • Da im Nahinfraroten zwischen ca. 800 und 1400 nm der größte Intensitäts-Kontrast zwischen Stroh und Boden besteht wurde zur Bildaufnahme eine Schwarz-Weiss-CCD-Kamera mit aufgesetztem Infrarotfilter gewählt. Eine Diffusor-Box sorgte für homogene Beleuchtungsbedingungen. • Zwei auf Kantendetektion und automatischer Schwellwertsetzung basierende Versionen („A“ und „B“) eines „klassischen“ Segmentierungsalgorithmus wurden geschrieben. Durch einen iterativen Ansatz konnten geeignete Thresholding-Verfahren abhängig von der Größenordnung der Bodenbedeckung verwendet werden. Die zur Online-Regelung der Bearbeitungstiefe nötige Beschränkung der Prozesslaufzeit auf ca. 1000 ms/Bild konnte eingehalten werden. • Eine alternative automatisierbare Kontrollmethode wurde entwickelt, welche Merkmale der Grauwerthistogramme der Stroh/Boden-Bilder auswertet (Algorithmus „C“). Dieser Ansatz ist nochmals deutlich schneller als eine Bildsegmentierung (ca. 5 – 10 Bilder/s). • Der Sensor wurde an einem Quad montiert und die Bodenbedeckung auf drei Testfeldern untersucht. Zwischen den Messergebnissen eines Algorithmus vom Typ A/B und dem Ansatz C wurde eine Pearson-Korrelation von 0,967 für die Messwertegesamtheit gefunden. • Auf Versuchsparzellen mit definiert aufgebrachten Strohmengen (ein weiteres Teil-projekt) wurden an GPS-referenzierten Punkten Bilder mit dem Sensor aufgenommen und Referenzmessungen mit der visuellen Gitterraster-Methode durchgeführt. Zwischen der Bildverarbeitung (A, B) und dem Gitter ergaben sich befriedigende Pearson-Korrelationen im Bereich von 0,7 – 0,8. Allerdings waren für hohe Bedeckungen die Ergebnisse des Sensors meist signifikant niedrigere als der Mittelwert von drei das Gitter auszählenden Personen. Eine Kontrolle mit Ansatz C ergab, dass die Histogramm-Merkmale der einzelnen Bilder deutlich besser mit den per Bildverarbeitung ermittelten Bedeckungsgraden korrelierten als mit den Gittermessungen. – Insgesamt erwies sich die schnelle Bildverarbeitung als geeignet für den Einsatz als neue Referenzmethode zur Messung der Bodenbedeckung durch Ernterückstände. • Da der Aufbau des Sensors ohne die Diffusor-Box praxisgerechter ist, besteht weiterer Forschungsbedarf in Bezug auf die dann auftretenden Probleme durch stark wechselnde Beleuchtung und Schattenwurf. • In einem letzten Schritt wurde der Kamerasensor erfolgreich in ein bereits entwickeltes System zur teilflächenspezifischen Bodenbearbeitung an der Universität Kiel integriert. Eine Regelung der Arbeitstiefe durch den Kamerasensor war problemlos möglich, allerdings gilt es noch belastbare Kriterien für die Vorgabe von Tiefen-Sollwerten in Abhängigkeit vom Bedeckungsgrad zu entwickeln.
Resumo:
Der Europäische Markt für ökologische Lebensmittel ist seit den 1990er Jahren stark gewachsen. Begünstigt wurde dies durch die Einführung der EU-Richtlinie 2092/91 zur Zertifizierung ökologischer Produkte und durch die Zahlung von Subventionen an umstellungswillige Landwirte. Diese Maßnahmen führten am Ende der 1990er Jahre für einige ökologische Produkte zu einem Überangebot auf europäischer Ebene. Die Verbrauchernachfrage stieg nicht in gleichem Maße wie das Angebot, und die Notwendigkeit für eine Verbesserung des Marktgleichgewichts wurde offensichtlich. Dieser Bedarf wurde im Jahr 2004 von der Europäischen Kommission im ersten „Europäischen Aktionsplan für ökologisch erzeugte Lebensmittel und den ökologischen Landbau“ formuliert. Als Voraussetzung für ein gleichmäßigeres Marktwachstum wird in diesem Aktionsplan die Schaffung eines transparenteren Marktes durch die Erhebung statistischer Daten über Produktion und Verbrauch ökologischer Produkte gefordert. Die Umsetzung dieses Aktionsplans ist jedoch bislang nicht befriedigend, da es auf EU-Ebene noch immer keine einheitliche Datenerfassung für den Öko-Sektor gibt. Ziel dieser Studie ist es, angemessene Methoden für die Erhebung, Verarbeitung und Analyse von Öko-Marktdaten zu finden. Geeignete Datenquellen werden identifiziert und es wird untersucht, wie die erhobenen Daten auf Plausibilität untersucht werden können. Hierzu wird ein umfangreicher Datensatz zum Öko-Markt analysiert, der im Rahmen des EU-Forschungsprojektes „Organic Marketing Initiatives and Rural Development” (OMIaRD) erhoben wurde und alle EU-15-Länder sowie Tschechien, Slowenien, Norwegen und die Schweiz abdeckt. Daten für folgende Öko-Produktgruppen werden untersucht: Getreide, Kartoffeln, Gemüse, Obst, Milch, Rindfleisch, Schaf- und Ziegenfleisch, Schweinefleisch, Geflügelfleisch und Eier. Ein zentraler Ansatz dieser Studie ist das Aufstellen von Öko-Versorgungsbilanzen, die einen zusammenfassenden Überblick von Angebot und Nachfrage der jeweiligen Produktgruppen liefern. Folgende Schlüsselvariablen werden untersucht: Öko-Produktion, Öko-Verkäufe, Öko-Verbrauch, Öko-Außenhandel, Öko-Erzeugerpreise und Öko-Verbraucherpreise. Zudem werden die Öko-Marktdaten in Relation zu den entsprechenden Zahlen für den Gesamtmarkt (öko plus konventionell) gesetzt, um die Bedeutung des Öko-Sektors auf Produkt- und Länderebene beurteilen zu können. Für die Datenerhebung werden Primär- und Sekundärforschung eingesetzt. Als Sekundärquellen werden Publikationen von Marktforschungsinstituten, Öko-Erzeugerverbänden und wissenschaftlichen Instituten ausgewertet. Empirische Daten zum Öko-Markt werden im Rahmen von umfangreichen Interviews mit Marktexperten in allen beteiligten Ländern erhoben. Die Daten werden mit Korrelations- und Regressionsanalysen untersucht, und es werden Hypothesen über vermutete Zusammenhänge zwischen Schlüsselvariablen des Öko-Marktes getestet. Die Datenbasis dieser Studie bezieht sich auf ein einzelnes Jahr und stellt damit einen Schnappschuss der Öko-Marktsituation der EU dar. Um die Marktakteure in die Lage zu versetzen, zukünftige Markttrends voraussagen zu können, wird der Aufbau eines EU-weiten Öko-Marktdaten-Erfassungssystems gefordert. Hierzu wird eine harmonisierte Datenerfassung in allen EU-Ländern gemäß einheitlicher Standards benötigt. Die Zusammenstellung der Marktdaten für den Öko-Sektor sollte kompatibel sein mit den Methoden und Variablen der bereits existierenden Eurostat-Datenbank für den gesamten Agrarmarkt (öko plus konventionell). Eine jährlich aktualisierte Öko-Markt-Datenbank würde die Transparenz des Öko-Marktes erhöhen und die zukünftige Entwicklung des Öko-Sektors erleichtern. ---------------------------
Resumo:
English: The present thesis describes the synthesis of 1,1’-ferrocendiyl-based pyridylphosphine ligands, the exploration of their fundamental coordination chemistry and preliminary experiments with selected complexes aimed at potential applications. One main aspect is the synthesis of the bidentate ferrocene-based pyridylphosphine ligands 1-(Pyrid-2-yl)-1’-diphenylphosphinoferrocene, 1-(Pyrid-3-yl)-1’-diphenylphosphinoferrocene and 1-[(Pyrid-2-yl)methyl]-1’-diphenylphosphinoferrocene. A specific feature of these ligands is the ball-bearing like flexibility of the ferrocenebased backbone. An additional flexibility element is the rotation around the C–C single bonds. Consequently, the donor atoms can realise a wide range of positions with respect to each other and are therefore able to adapt to the coordination requirements of different metal centres. The flexibility of the ligand also plays a role in another key aspect of this work, which concerns the coordination mode, i. e. bridging vs. chelating. In addition to the flexibility, also the position of the donor atoms to each other is important. This is largely affected by the position of the pyridyl nitrogen (pyrid-2-yl vs. pyrid-3-yl) and the methylen group in 1-[(Pyrid-2-yl)methyl]-1’-diphenylphosphinoferrocene. Another interesting point is the combination of a soft phosphorus donor atom with a harder nitrogen donor atom, according to the HSAB principle. This combination generates a unique binding profile, since the pi-acceptor character of the P site is able to stabilise a metal centre in a low oxidation state, while the nitrogen sigma-donor ability can make the metal more susceptible to oxidative addition reactions. A P,N-donor combination can afford hemilabile binding profiles, which would be ideal for catalysis. Beyond 1,2-substituted ferrocene derivatives, which are quite successful in catalytic applications, 1,1’-derivatives are rather underrepresented. While a low-yield synthetic pathway to 1-(Pyrid-2-yl)-1’-diphenylphosphinoferrocene was already described in the literature [I. R. Butler, Organometallics 1992, 11, 74.], it was possible to find a new, improved and simplified synthetic pathway. Both other ligands were unknown prior to this work. Satisfactory results in the synthesis of 1-(Pyrid-3-yl)-1’-diphenylphosphinoferrocene could be achieved by working in analogy to the new synthetic procedure for 1-(Pyrid-2-yl)-1’-diphenylphosphinoferrocene. The synthesis of 1-[(Pyrid-2-yl)methyl]-1’-diphenylphosphinoferrocene has been handled by the group of Prof. Petr Stepnicka from Charles University, Prague, Czech Republic. The synthesis of tridentate ligands with an analogous heterodentate arrangement, was investigated briefly as a sideline of this study. The major part of this thesis deals with the fundamental coordination chemistry towards transition metals of the groups 10, 11 and 12. Due to the well-established catalytic properties of analogous palladium complexes, the coordination chemistry towards palladium (group 10) is of particular interest. The metals zinc and cadmium (group 12) are also of substantial importance because they are redox-inert in their divalent state. This is relevant in view of electrochemical investigations concerning the utilisation of the ligands as molecular redox sensors. Also mercury and the monovalent metals silver and gold (group 11) are included because of their rich coordination chemistry. It is essential to answer questions concerning aspects of the ligands’ coordination mode bearing in mind the HSAB principle.