681 resultados para Einführung
Resumo:
Die vorliegende Unterrichtsreihe basiert auf zwei grundlegenden Vorstellungen zum Lernen und Lehren von Wahrscheinlichkeitsrechnung für Anfänger in der Sekundarstufe I. Zum einen ist die grundsätzliche Überzeugung der Autoren, dass ein sinnvoller und gewinnbringender Unterricht in Stochastik über den aufwendigeren Weg möglichst authentischer und konkreter Anwendungen im täglichen Leben gehen sollte. Demzufolge reicht eine Einkleidung stochastischer Probleme in realistisch wirkende Kontexte nicht, sondern es sollte eine intensive Erarbeitung authentischer Problemstellungen, z.B. mit Hilfe von realen Medientexten, erfolgen. Die Schüler sollen vor allem lernen, reale Probleme mathematisch zu modellieren und gefundene mathematische Ergebnisse für die reale Situation zu interpretieren und kritisch zu diskutieren. Eine weitere Besonderheit gegenüber traditionellen Zugängen zur Wahrscheinlichkeitsrechnung basiert auf kognitionspsychologischen Ergebnissen zur menschlichen Informationsverarbeitung. Durch eine Serie von Studien wurde gezeigt, dass Menschen – und natürlich auch Schüler – große Probleme haben, mit Wahrscheinlichkeiten (also auf 1 normierte Maße) umzugehen. Als viel einfacher und verständnisfördernder stellte sich die kognitive Verarbeitung von Häufigkeiten (bzw. Verhältnissen von natürlichen Zahlen) heraus. In dieser Reihe wird deshalb auf eine traditionelle formale Einführung der Bayesschen Regel verzichtet und es werden spezielle, auf Häufigkeiten basierende Hilfsmittel zur Lösungsfindung verwendet. Die erwähnten Studien belegen den Vorteil dieser Häufigkeitsdarstellungen gegenüber traditionellen Methoden im Hinblick auf den sofortigen und insbesondere den längerfristigen Lernerfolg (vgl. umfassend zu diesem Thema C. Wassner (2004). Förderung Bayesianischen Denkens, Hildesheim: Franzbecker, http://nbn-resolving.org/urn:nbn:de:hebis:34-2006092214705). Die vorliegende Schrift wurde zuerst im Jahre 2004 als Anhang zur o.g. Schrift bei Franzbecker Hildesheim veröffentlicht. Der Verlag hat einer elektronischen Veröffentlichung in der KaDiSto-Reihe zugestimmt.
Resumo:
In der Vergangenheit verfolgte die Wasserwirtschaft insbesondere das Ziel, Wasser als Ressource zu nutzen und vom Wasser ausgehende Gefahren, wie zum Beispiel Hochwasser, abzuwehren oder zu vermindern. In den letzten etwa dreißig Jahren stellte sich jedoch eine Veränderung des Verständnisses der Wasserwirtschaft ein. Mit der Einführung des Wasserhaushaltsgesetzes rückte der ökologisch orientierte Gewässerschutz mehr in den Vordergrund, der sich zu einem ganzheitlich gedachten Ansatz entwickelte. Am 22.12.2000 trat die EG-Wasserrahmenrichtlinie der Europäischen Gemeinschaft in Kraft (EG-WRRL). Die Wasserrahmenrichtlinie fordert erstmalig, dass auf der Grundlage eines ökosystemaren Ansatzes ein „guter ökologischer Zustand“ erreicht werden soll. Da der „gute ökologische Zustand“ noch nicht abschließend definiert ist, werden innerhalb Europas derzeit bestehende Klassifizierungssysteme als Indikator für die Bedingungen, denen ein biologischer Zustand zugeordnet wird, benutzt. Die Abschätzung der Wahrscheinlichkeit einer Zielerreichung kann also nur ein Prozess sein, der anhand erster Kriterien vorgenommen und später iterativ verfeinert wird. Dabei ist es von Bedeutung, das Risiko einer Fehleinschätzung zu minimieren, um einerseits sicherzustellen, dass alle hinsichtlich der Zielerreichung unsicheren Gewässer tatsächlich erfasst werden, andererseits aber auch zu verhindern, dass Ressourcen beim Monitoring und möglicherweise bei der Durchführung von Maßnahmen unnötig verbraucht werden. Durch eine Verfeinerung der Kriterien kann dieses Risiko verringert werden. Für die Fließgewässer in Deutschland stellen insbesondere Veränderungen der Gewässermorphologie und Belastungen aufgrund von Nährstoffeinträgen, die besonders in abflussschwachen Gewässerabschnitten häufig zu einer Eutrophierung führen, Probleme dar, die es abzumildern gilt (BMU 2005), um die Ziele der EG-Wasserrahmenrichtlinie erreichen zu können. Vor diesem Hintergrund hat die vorliegende Arbeit zum Ziel, einen methodischen Beitrag zur Risikoanalyse anthropogener Belastungen zu leisten. Im Mittelpunkt standen dabei die folgenden Punkte: 1. Darstellung der Anforderungen bei der Gewässerbewirtschaftung nach Einführung der Europäischen Wasserrahmenrichtlinie. 2. Dokumentation, Analyse und Vergleich der Kriterien und Verfahren im europäischen Kontext(Aufzeigen der relevanten Gewässerbelastungen in Deutschland wie im europäischen Ausland einschließlich eines Vergleichs der Methoden und Datengrundlagen zur Beurteilung signifikanter Gewässerbelastungen). 3. Vergleichende Analyse der ökologischen Bedeutung der im Umweltmanagement angewandten Methoden und Kriterien zur Risikoanalyse hinsichtlich Strukturgüte und Gewässereutrophierung an ausgewählten Fallbeispielen in Hinblick auf Sensitivität, Skalenabhängigkeit sowie weitere Unsicherheiten 4. Entwicklung eines methodischen Vorschlags für eine verbesserte Vorgehensweise bei der verursacherbezogenen Beurteilung der Belastungen vor dem Hintergrund eines effektiven Einsatzes der finanziellen Ressourcen.
Resumo:
Erfolgskontrollen für Agrarumweltprogramme bezogen sich bisher meistens auf einzelne Flächen oder auf programmbezogene, großräumige Evaluationen. Es wurde jedoch kaum untersucht, wie sich die Maßnahmen auf die Entwicklung einzelner Naturräume auswirken. Auch gab es keine Studien, welche die Wechselwirkungen zwischen den Beweggründen der Landnutzer auf der ei-nen- sowie Landnutzung und Vegetation auf der anderen Seite interpretierten. Die Dissertation Wirkungen von Extensivierungs- und Vertragsnaturschutzprogrammen auf die Entwick-lung einer »gerade noch aktuellen Agrarlandschaft« hat diese Lücke geschlossen. Sie erklärt, welche Bedeutung die hessischen Programme HELP und HEKUL für den hohen Anteil naturschutzfachlich wertvollen Grünlands im Rommeroder Hügel-land westlich des Meißner haben. Untersuchungsgegenstand waren die Grünlandvegetation und die landwirtschaftlichen Betriebe mit ihren Menschen und deren Beweggründen. Diese Inhalte er-forderten eine Vorgehensweise, die sowohl sozialwissenschaftliche als auch naturwissenschaftliche Methoden einbindet, um Bezüge zwischen Betrieben und Grünlandvegetation zu er-kennen. Umfangreiche pflanzensoziologische Untersuchungen und Interviews der Betriebsleiter waren Grundlage für eine Schlagdatenbank und weitergehende Auswertungen. Die Interpretation vegetationskundlicher Erhebungen im Kontext betrieblicher Entscheidungen und Beweggründe erforderte es, althergebrachte Ansätze in neuer Form zu verknüpfen. Die Bewertung der Programmwirkungen stützte sich auf die Schlagdatenbank und auf vier Szena-rien zur zukünftigen Gebietsentwicklung bei unterschiedlichen Programmfortschreibungen. Zur Darstellung von Erhebungen und Ergebnissen entstand eine Vielzahl thematischer Karten. Der überdurchschnittlich hohe Anteil naturschutzfachlich bedeutsamer Grünlandtypen auf den Programmflächen und die Interpretation der Szenarien belegten eine hohe Wirksamkeit von HELP und HEKUL im Gebiet. Nicht nur auf den Vertragsnaturschutzflächen des HELP, sondern auch auf dem HEKUL-Grünland sind naturschutzfachlich bedeutende Vegetationstypen überproportional vertreten. Die vier Szenarien ließen erkennen, dass eine Beschränkung des HELP auf Schutzgebiete, eine Abschaffung der HEKUL-Grünlandextensivierung oder gar eine ersatzlose Strei-chung beider Programme zu erheblichen Verschlechterungen der naturschutzfachlichen Situation führen würde. Gleichzeitig war festzustellen, dass es ohne die landwirtschaftlich schwierigen natur-räumlichen Verhältnisse sowie eine eher großteilige Agrarstruktur mit überdurchschnittlich flächen-starken und wirtschaftlich stabilen Vollerwerbsbetrieben keine so deutlichen Programmwirkungen gegeben hätte. Auch die Tatsache, dass viele Landwirte eine intensive Landwirtschaft aus innerer Überzeugung ablehnen und mit einer erheblich geringeren Stickstoffintensität wirtschaften als es HEKUL verlangt, wirkte verstärkend. Die große Bedeutung individueller Beweggründe einzelner Betriebsleiter wurde auch in den engen Beziehungen einzelner Grünland-Pflanzengesellschaften zu bestimmten Betriebstypen und sogar einzelnen Höfen sichtbar, deren Beschreibung und Interpretation wichtige Erkenntnisse zu den so-zioökonomischen Voraussetzungen verschiedener Vegetationstypen lieferte. Für die zukünftige Entwicklung der hessischen Agrarumweltförderung empfiehlt die Dissertation eine Einführung und bevorzugte Anwendung ergebnisorientierter Honorierungsverfahren, eine bessere Berücksichtigung des gering gedüngten Grünlands über eine differenzierte Förderung sehr extensiver Düngeregime, eine stärkere Modularisierung des Gesamtprogramms und eine Durchführung aller Maßnahmen im Vertragsverfahren. Die betriebszweigbezogene Grünlandextensivierung sollte zukünftig in Kulissen angeboten werden, in denen ein verstärktes Wechseln von Betrieben in die Mindestpflege nach DirektZahlVerpflV zu erwarten ist.
Resumo:
Die empirische Studie untersucht das Wechselspiel zwischen der fachbezogenen Sprachentwicklung und dem Fachlernen von Schülerinnen und Schülern bei der Einführung in den Kraftbegriff. Sie betrachtet also sowohl sprachliche wie auch kognitive Aspekte des Lernens in der Mechanik. Dafür wurde ein Unterrichtskonzept entwickelt, das den Gebrauch des Fachwortes Kraft in der Wissenschaft und in der alltäglichen Sprache besonders thematisiert. Dieses Unterrichtskonzept basiert auf Empfehlungen und Ergebnissen der Kognitionspsychologie, Linguistik, Philosophie, Sprachlehrforschung und der Didaktiken der Physik und der Fremdsprachen. Im Rahmen des Unterrichts wurden die Schülerinnen und Schüler mit zwei Aufgabentypen konfrontiert: Beim ersten Aufgabentyp waren die Lerner aufgefordert, den Kraftbegriff so zu verwenden, wie es einer fachsprachlich angemessenen Form entspräche, etwa um die Bewegung eines Zuges zu beschreiben. Aufgaben des zweiten Typs sahen vor, dass die Schülerinnen und Schüler kurze Texte danach klassifizierten, ob sie der Alltagssprache oder der Fachsprache angehörten. Diese als Metadiskurs bezeichnete Form der Auseinandersetzung mit sprachlichen Aspekten verhalf den Schülerinnen und Schülern zu einer Gelegenheit, ihr eigenes Verständnis des Kraftbegriffs zu thematisieren. Weiter lieferte der Metadiskurs wichtige Hinweise darauf, ob die Schülerinnen und Schüler sich bei ihren Beurteilungen eher auf formal-sprachliche oder inhaltliche Aspekte der Sprache bezogen. Für die Datenerhebung wurden alle Unterrichtsstunden videografiert und transkribiert. Zusammen mit schriftlichen Arbeitsergebnissen und Tests stand ein umfangreicher Datensatz zur Verfügung, für dessen Auswertung ein inhaltsanalytisches Verfahren Anwendung fand. Die Ergebnisse zeigen, dass das Lernen im Fach Physik bestimmte Ähnlichkeiten mit dem Lernen einer Fremdsprache zeigt: Wenn die Schülerinnen und Schüler den Kraftbegriff fachsprachlich verwenden sollen, sehen sie sich oft einer Alternativentscheidung gegenüber. Entweder sie versuchen, einer fachsprachlichen Form zu gehorchen und verlieren dabei den Inhalt aus den Augen, oder sie konzentrieren sich auf den Inhalt, drücken sich dabei aber in ihrer Alltagssprache aus und folgen Alltagskonzepten, die weit entfernt von den fachlich intendierten liegen. Ähnliche Beobachtungen kann man im Sprachunterricht machen, wenn Schüler eine neue grammatische Regel einüben: Sie konzentrieren sich entweder auf die neu zu erlernende Regel, oder aber auf den Inhalt des Gesagten, wobei sie die grammatische Regel, die an sich Gegenstand der Übung ist, verletzen. Meistens fällt diese Entscheidung derart, dass die Konzentration auf den Inhalt des Gesagten gerichtet ist, nicht oder wenig auf seine Form. Im Unterschied zum Sprachunterricht ist der Physikunterricht allerdings nicht nur darauf gerichtet, fachsprachlich angemessene Formen einzuüben, sondern insbesondere darauf, den Blick für neue und ungewohnte Konzepte zu öffnen. Damit müssen die Schülerinnen und Schüler hier häufig sprachliche und kognitive Hürden zur selben Zeit bewältigen. Die detaillierte Analyse des Metadiskurses zeigt, dass das Problem des Nebeneinanders zweier unterschiedlicher Anforderung entschäft werden kann: Während die Schüler im Metadiskurs unterschiedliche Aspekte der Sprache diskutieren, sind sie eher in der Lage, sowohl formale wie inhaltsbezogene Merkmale der Sprache wahrzunehmen. Der Text referiert weitere Parallelen zwischen dem Physikunterricht und dem Fremdsprachenlernen, sodass die Auffassung gerechtfertigt ist, dass die Fremdsprachendidaktik als Ideenlieferantin dafür dienen kann, neue Verbesserungsmöglichkeiten für den Physikunterricht aufzufinden.
Resumo:
Speckle Pattern Shearing Interferometrie (Shearografie) ist eine speckle-interferometrische Messmethode und zeichnet sich durch die ganzflächige, berührungslose Arbeitsweise, hohe räumliche Auflösung und hohe Messempfindlichkeit aus. Diese Dissertation beinhaltet die neue bzw. weitere Entwicklung der Shearografie zur qualitativen Schwingungsbeobachtung und zur quantitativen Schwingungsmessung. Für die qualitative Schwingungsbeobachtung in Echtzeit werden die Optimierung des Zeitmittelungsverfahrens und die neue entwickelte Online-Charakterisierung von Streifenmustern mit statistischen Verfahren vorgestellt. Auf dieser Basis können sowohl eine genaue Fehlstellen-Detektion bei der zerstörungsfreien Materialprüfung als auch eine präzise Resonanzuntersuchung zeitsparend und vollautomatisch durchgeführt werden. Für die quantitative Schwingungsmessung wird eine sog. dynamische Phasenschiebe-Technik neu entwickelt, welche durch die Einführung eines synchron zum Objekt schwingenden Referenzspiegels realisiert wird. Mit dieser Technik ermöglicht das Zeitmittelungsverfahren die Amplituden und Phasen einer Objektschwingung quantitativ zu ermitteln. Auch eine Weiterentwicklung des stroboskopischen Verfahrens in Kombination mit zeitlicher Phasenverschiebung wird in der Arbeit präsentiert, womit der gesamte Prozess der Schwingungsmessung und -rekonstruktion beschleunigt und automatisch durchgeführt wird. Zur Bestimmung des Verschiebungsfeldes aus den gemessenen Amplituden und Phasen des Verformungsgradienten stellt diese Arbeit auch eine Weiterentwicklung des Summationsverfahrens vor. Das Verfahren zeichnet sich dadurch aus, dass die Genauigkeit des ermittelten Verschiebungsfelds unabhängig von der Sheargröße ist und gleichzeitig das praktische Problem - Unstetigkeit - gelöst wird. Eine quantitative Messung erfordert eine genaue Kalibrierung der gesamten Messkette. Ein auf dem Least-Square-Verfahren basierendes Kalibrierverfahren wird in der Arbeit zur Kalibrierung der statischen und dynamischen Phasenverschiebung vorgestellt. Auch die Ermittelung der Sheargröße mit Hilfe der 1D- bzw. 2D-Kreuz-Korrelation wird präsentiert. Zum Schluss wurde die gesamte Entwicklung durch eine Vergleichsmessung mit einem handelsüblichen Scanning-Laser-Doppler-Vibrometer experimentell verifiziert.
Resumo:
Zulässigkeit der Einführung der Kulturflatrate nach Verfassungsrecht, Urheberrecht, Datenschutzrecht, Europarecht und Drei-Stufen-Test
Resumo:
The oil price rises more and more, and the world energy consumption is projected to expand by 50 percent from 2005 to 2030. Nowadays intensive research is focused on the development of alternative energies. Among them, there are dye-sensitized nanocrystalline solar cells (DSSCs) “the third generation solar cells”. The latter have gained attention during the last decade and are currently subject of intense research in the framework of renewable energies as a low-cost photovoltaic. At present DSSCs with ruthenium based dyes exhibit highest efficiencies (ca 11%). The objective of the present work is to fabricate, characterize and improve the performance of DSSCs based on metal free dyes as sensitizers, especially on perylene derivatives. The work begins by a general introduction to the photovoltaics and dye-sensitized solar cells, such as the operating principles and the characteristics of the DSSCs. Chapter 2 and 3 discuss the state of the art of sensitizers used in DSSCs, present the compounds used as sensitizer in the present work and illustrate practical issues of experimental techniques and device preparation. A comparative study of electrolyte-DSSCs based on P1, P4, P7, P8, P9, and P10 are presented in chapter 4. Experimental results show that the dye structure plays a crucial role in the performance of the devices. The dye based on the spiro-concept (bipolar spiro compound) exhibited a higher efficiency than the non-spiro compounds. The presence of tert-butylpyridine as additive in the electrolyte was found to increase the open circuit voltage and simultaneously decrease the efficiency. The presence of lithium ions in the electrolyte increases both output current and the efficiency. The sensitivity of the dye to cations contained in the electrolyte was investigated in the chapter 5. FT-IR and UV-Vis were used to investigate the in-situ coordination of the cation to the adsorbed dye in the working devices. The open-circuit voltage was found to depend on the number of coordination sites in the dye. P1 with most coordination sites has shown the lowest potential drop, opposite to P7, which is less sensitive to cations in the working cells. A strategy to improve the dye adsorption onto the TiO2 surface, and thus the light harvesting efficiency of the photoanode by UV treatment, is presented in chapter 6. The treatment of the TiO2 film with UV light generates hydroxyl groups and renders the TiO2 surface more and more hydrophilic. The treated TiO2 surface reacts readily with the acid anhydride group of the dye that acts as an anchoring group and improves the dye adsorption. The short-circuit current density and the efficiency of the electrolyte-based dye cells was considerably improved by the UV treatment of the TiO2 film. Solid-state dye-sensitized solar cells (SSDs) based on spiro-MeOTAD (used as hole transport material) are studied in chapter 7. The efficiency of SSDs was globally found to be lower than that of electrolyte-based solar cells. That was due to poor pore filling of the dye-loaded TiO2 film by the spin-coated spiro-MeOTAD and to the significantly slower charge transport in the spiro-MeOTAD compared to the electrolyte redox mediator. However, the presence of the donor moieties in P1 that are structurally similar to spiro-MeOTAD was found to improve the wettability of the P1-loaded TiO2 film. As a consequence the performance of the P1-based solid-state cells is better compared to the cells based on non-spiro compounds.
Resumo:
Der Name einer kleinen Internatsschule im Berner Oberland taucht zunehmend in den Diskussionen über die Gestaltung von selbst organisiertem Lernen auf: Institut Beatenberg. Der Direktor des Instituts, Andreas Müller, und seine Mitarbeiter sind gefragte Referenten auf Veranstaltungen über die Einführung einer Lehr-Lernkultur, die den Lernenden und seine Lernprozesse in den Mittelpunkt der pädagogischen Arbeit stellt. Zudem finden ihre Publikationen zunehmendes Interesse im gesamten deutschsprachigen Raum. Ein Schlüsselinstrument wurde dabei zum Schlagwort: Kompetenzraster. Doch die stellen nur eines der Instrumente dar, die den ‚Wirkungskreislauf des Lernerfolgs’ in Beatenberg stützen. Berufliche Schulen in Hessen und Hamburg haben im Rahmen von Modellprojekten mit der Erarbeitung von Kompetenzrastern nach den Vorbildern in Beatenberg begonnen und versprechen sich damit eine neue, auf selbst organisiertem Lernen aufbauende kompetenzorientierte berufliche Bildung. In dem Beitrag werden die Arbeit mit Kompetenzrastern und den dahinter liegenden ‚Lernlandschaften’ sowie der ‚Wirkungskreislauf den Lernerfolgs’ in Beatenberg kompetenzorientiert dargestellt. Die Dimensionen Definition, Beschreibung, Ordnung, Erwerb, Messung und Anerkennung von Kompetenzen werden herausgearbeitet und die Möglichkeiten von Kompetenzrastern in der beruflichen Bildung kritisch gewürdigt. Der Beitrag ist entlang der genannten Dimensionen gegliedert.
Resumo:
Der Europäische Markt für ökologische Lebensmittel ist seit den 1990er Jahren stark gewachsen. Begünstigt wurde dies durch die Einführung der EU-Richtlinie 2092/91 zur Zertifizierung ökologischer Produkte und durch die Zahlung von Subventionen an umstellungswillige Landwirte. Diese Maßnahmen führten am Ende der 1990er Jahre für einige ökologische Produkte zu einem Überangebot auf europäischer Ebene. Die Verbrauchernachfrage stieg nicht in gleichem Maße wie das Angebot, und die Notwendigkeit für eine Verbesserung des Marktgleichgewichts wurde offensichtlich. Dieser Bedarf wurde im Jahr 2004 von der Europäischen Kommission im ersten „Europäischen Aktionsplan für ökologisch erzeugte Lebensmittel und den ökologischen Landbau“ formuliert. Als Voraussetzung für ein gleichmäßigeres Marktwachstum wird in diesem Aktionsplan die Schaffung eines transparenteren Marktes durch die Erhebung statistischer Daten über Produktion und Verbrauch ökologischer Produkte gefordert. Die Umsetzung dieses Aktionsplans ist jedoch bislang nicht befriedigend, da es auf EU-Ebene noch immer keine einheitliche Datenerfassung für den Öko-Sektor gibt. Ziel dieser Studie ist es, angemessene Methoden für die Erhebung, Verarbeitung und Analyse von Öko-Marktdaten zu finden. Geeignete Datenquellen werden identifiziert und es wird untersucht, wie die erhobenen Daten auf Plausibilität untersucht werden können. Hierzu wird ein umfangreicher Datensatz zum Öko-Markt analysiert, der im Rahmen des EU-Forschungsprojektes „Organic Marketing Initiatives and Rural Development” (OMIaRD) erhoben wurde und alle EU-15-Länder sowie Tschechien, Slowenien, Norwegen und die Schweiz abdeckt. Daten für folgende Öko-Produktgruppen werden untersucht: Getreide, Kartoffeln, Gemüse, Obst, Milch, Rindfleisch, Schaf- und Ziegenfleisch, Schweinefleisch, Geflügelfleisch und Eier. Ein zentraler Ansatz dieser Studie ist das Aufstellen von Öko-Versorgungsbilanzen, die einen zusammenfassenden Überblick von Angebot und Nachfrage der jeweiligen Produktgruppen liefern. Folgende Schlüsselvariablen werden untersucht: Öko-Produktion, Öko-Verkäufe, Öko-Verbrauch, Öko-Außenhandel, Öko-Erzeugerpreise und Öko-Verbraucherpreise. Zudem werden die Öko-Marktdaten in Relation zu den entsprechenden Zahlen für den Gesamtmarkt (öko plus konventionell) gesetzt, um die Bedeutung des Öko-Sektors auf Produkt- und Länderebene beurteilen zu können. Für die Datenerhebung werden Primär- und Sekundärforschung eingesetzt. Als Sekundärquellen werden Publikationen von Marktforschungsinstituten, Öko-Erzeugerverbänden und wissenschaftlichen Instituten ausgewertet. Empirische Daten zum Öko-Markt werden im Rahmen von umfangreichen Interviews mit Marktexperten in allen beteiligten Ländern erhoben. Die Daten werden mit Korrelations- und Regressionsanalysen untersucht, und es werden Hypothesen über vermutete Zusammenhänge zwischen Schlüsselvariablen des Öko-Marktes getestet. Die Datenbasis dieser Studie bezieht sich auf ein einzelnes Jahr und stellt damit einen Schnappschuss der Öko-Marktsituation der EU dar. Um die Marktakteure in die Lage zu versetzen, zukünftige Markttrends voraussagen zu können, wird der Aufbau eines EU-weiten Öko-Marktdaten-Erfassungssystems gefordert. Hierzu wird eine harmonisierte Datenerfassung in allen EU-Ländern gemäß einheitlicher Standards benötigt. Die Zusammenstellung der Marktdaten für den Öko-Sektor sollte kompatibel sein mit den Methoden und Variablen der bereits existierenden Eurostat-Datenbank für den gesamten Agrarmarkt (öko plus konventionell). Eine jährlich aktualisierte Öko-Markt-Datenbank würde die Transparenz des Öko-Marktes erhöhen und die zukünftige Entwicklung des Öko-Sektors erleichtern. ---------------------------
Resumo:
In genannter Schrift soll versucht werden, einen aus der Kantschen und Fichteschen Erkenntnistheorie erfolgenden allgemeinen Zusammenhang herzustellen zwischen dem kategorialen Denken hinsichtlich Denken und Anschauen und dem Problem von Raum und Zeit, wie es sich mit der Entwicklung der modernen Physik durch die Relativitäts- und Quantentheorie deutlich aufdrängt. Es wird gezeigt, dass F.W.J. Schelling grundlegende Lösungsansätze hierzu bereitstellt, welche auf dem Gebiet der Logik, der Epistomologie und Naturphilosophie in der Nachfolge von Kant, Fichte und Spinoza stattfinden, jedoch weit über seine Zeit hinausreichen. Diese Ansätze werden von Schelling selbst unter den Begriff einer „Identität der Identität und Differenz“ gesetzt. In der genannten Dissertation sollen Denkbewegungen dargestellt werden, die eine Anbindung der Schellingschen Naturphilosophie an die sich mit den genannten unterschiedlichen Theorien bzw. deren problematischer Vereinheitlichung beschäftigende Physik zu erreichen versuchen. Der formelle Aufbau der Arbeit gehorcht der inhaltlichen Struktur dieser Anbindungsbemühung, insofern unterstellt wird, dass diese rein nur aus einem dialektischen Denken (sowohl in der Erkenntnistheorie, als auch Naturphilosophie) heraus überhaupt erreicht werden kann. So werden sowohl die Tätigkeiten des Verstandes als die des Anschauens in ihrem Zusammenspiel, wie aber auch die Verstandes- und Anschauungstätigkeiten an sich selbst betrachtet, dialektisch vermittelt dargestellt, was innerhalb der formellen Deduktion der Kantschen Kategorien und der korrespondierenden Anschauungsformen selbst durchgeführt wird. Schellings Intention seines späteren Denkens, die philosophischen Probleme auf die Geschichtlichkeit, die Freiheit und den Erfahrungsbezug des Menschen zu beziehen, wird nicht als Gegenposition zu den frühen Ansätze der Logik und Transzendentalphilosophie gedeutet, sondern selbst als Endpunkt einer dialektischen Entwicklung des Schellingschen Denkens gefasst. Dies ergibt folgenden formellen Aufbau der Arbeit: Zunächst wird in einem einleitenden Abschnitt über die Aufgabe der Philosophie selbst und ihrer Darstellbarkeit im Zusammenhang mit der Hegel-Schelling-Kontroverse gearbeitet, um Schelling als adäquaten Bezugspunkt für unsere moderne Diskussion auf der methodischen und sprachlichen Ebene einzuführen. Im Hauptteil werden die wesentlichen Momente der für Schelling wichtigen Transzendentalphilosophie der Jahrhundertwende dargestellt, um diese dann an den späteren phänomenologisch-epistemologischen Ansätzen zu spiegeln. Von der theoretischen Seite kommend werden die Hauptmomente der praktischen Philosophie Schellings aufgezeigt, um dann den Menschen in einem dritten Schritt Symbol der Ununterschiedenheit von logischen und freien Tätigkeiten bzw. von Leib und Seele zu deuten. Diese Resultate bleiben zunächst einmal liegen, um in dem zweiten Hauptabschnitt auf grundlegende naturphilosophische Voraussetzungen und Resultate derjenigen Physik einzugehen, welche die prinzipiellen Verständnisschwierigkeiten der Physik des frühen 20. Jahrhundert in die heutige kosmologische und atomistische Diskussion mitbringt. Der dritte Hauptabschnitt stellt den Versuch dar, Schellings Naturphilosophie an symptomatische Anschauungen der Physik heranzuführen, um ihn als zeitgenössischen Kritiker einzuführen, wie aber auch als einen, der bestimmte moderne naturwissenschaftliche bzw. physikalische Resultate im Besonderen vorwegzunehmen vermochte. Die Einführung seiner Philosophie in aktuelle naturphilosophische Diskussion wird als unabdingbare Voraussetzung zu einem zukünftigen Verständnis des Natur, des Kosmos´ und des Menschen gefordert.