123 resultados para Königliche Lyceum und Gymnasium zu Aschaffenburg.
Resumo:
Gerade männliche Jugendliche nutzen in ihrer Pubertät und Adoleszenz zu einer gelingenden Gestaltung ihres Alltags und zur Ausbildung ihrer Identität zahlreiche Erscheinungsformen des Fantasy-Rollenspielens. In einem Prozess von Aneignung und Entäußerung integrieren dabei die Jugendlichen das überaus reiche multimediale Angebot, welches die Spiele bieten, in ihre Alltagsgestaltung, indem sie sich daraus spezifische Medien-, Text- und Ereignisarrangements bauen. Diese dienen einerseits der sozialen Integration und Distinktion, andererseits der Präsentation ihrer Identitätsentwürfe sich und anderen. Die Jugendlichen schaffen sich mittels dieser spezifischen Medien-, Text- und Ereignisarrangements eine in weiten Teilen von ihnen selbst bestimmte Welt, in der sie ihre Phantasie wie Kreativität mit großer Intensität, ja Obsession, innerhalb integrativer und solidarischer Interaktionsformen selbststeuernd und professionell ausleben. Diese Medien-, Text- und Ereignisarrangements zeigen Angebots- und Nutzungsformen, die sich nach einem medienkommunikativen Aneignungs- und Entäußerungsmodell in der Tradition der Cultural Studies (Stuart Hall) beschreiben lassen. Die Langzeitbeobachtung der Jugendlichen zeigt, dass sie alltagspragmatische Kulturtechniken zur selbstbestimmten Gestaltung von Alltag entwickeln: zunächst eine Strukturierung ihrer kognitiven, affektiven und pragmatischen Interaktion nach Kriterien erfolgreicher intrinsischer Interaktion, mit dem Ziel derer Perpetuierung im Flow-Erleben (Mihalyi Csikszentmihalyi), dann eine Ästhetisierung von Alltagswirklichkeit mittels kollektiver Fiktionalisierung in der Tradition des Collective Story Telling (Janet H. Murray). Diese Kulturtechniken stellen vor dem Hintergrund der Enkodierung und Dekodierung sozialer Codes spezifische Adaptionen von Prozessen der Bedeutungszuweisung und Subjekt- bzw. Identitätskonstitution dar. Die sie evozierenden und mit ihnen korrespondierenden handlungsleitenden Themen der Jugendlichen sind der Wunsch nach Rekonstitution von Gesamtheit in einer sich fragmentarisierenden Wirklichkeit, die Affirmation von Selbstbestimmung- und Autonomieerfahrungen, das Erleben von Reintegration und Solidarität für das sich dissoziiert erfahrende Individuum. Das Handeln der Jugendlichen basiert damit auf dem momentan dominanten Prozess einer Individualisierung von Lebenswelt unter den Bedingungen von Reflexivität und Erlebnisrationalität in der postmodernen Gesellschaft. Mit ihren Versuchen selbstbestimmter Gestaltung folgen sie dem aktuellen gesellschaftlichen Auftrag einer weitgehend in eigener Regie vorzunehmenden Lokalisierung dieses Prozesses. Zunehmend tritt diese von den Jugendlichen selbstgesteuerte Sozialisation neben die traditionell heteronome Sozialisation von gesellschaftlichen Instituten wie etwa die von Schule. Damit wird das Handeln der Jugendlichen zu einer Herausforderung an Pädagogik und Schule. Schule muss, wenn sie ihrem eigentlichen Auftrag von Förderung gerecht werden will, eine Sensibilität für diese Eigenständigkeit von Jugendlichen entwickeln und in der Beobachtung ihres Handelns didaktische Innovationen für Lehren und Lernen entwickeln. Im Mittelpunkt steht dabei die Wiederentdeckung des pädagogischen Dialogs, besonders aber die Entwicklung einer individualisierten Lernkultur und die Förderung jugendlicher Gestaltungskompetenzen, welche von deren alltagsästhetischen Erfahrungen und Kompetenzen im Umgang mit multimedialen Kulturprodukten ausgeht. Schule kann und muss für diese Prozesse selbstgesteuerten Lernens angemessene pädagogische Räume bereitstellen, in denen die Jugendlichen innerhalb eines geschützten Kontextes in der Auseinandersetzung mit eigenen wie fremden Entwürfen ihre Identität entwickeln können.
Resumo:
Sowohl die Ressourcenproblematik als auch die drohenden Ausmaße der Klimaänderung lassen einen Umstieg auf andere Energiequellen langfristig unausweichlich erscheinen und mittelfristig als dringend geboten. Unabhängig von der Frage, auf welchem Niveau sich der Energiebedarf stabilisieren lässt, bleibt dabei zu klären, welche Möglichkeiten sich aus technischer und wirtschaftlicher Sicht in Zukunft zur Deckung unseres Energiebedarfs anbieten. Eine aussichtsreiche Option besteht in der Nutzung regenerativer Energien in ihrer ganzen Vielfalt. Die Arbeit "Szenarien zur zukünftigen Stromversorgung, kostenoptimierte Variationen zur Versorgung Europas und seiner Nachbarn mit Strom aus erneuerbaren Energien" konzentriert sich mit der Stromversorgung auf einen Teilaspekt der Energieversorgung, der zunehmend an Wichtigkeit gewinnt und als ein Schlüssel zur nachhaltigen Energieversorgung interpretiert werden kann. Die Stromversorgung ist heute weltweit für etwa die Hälfte des anthropogenen CO2-Ausstoßes verantwortlich. In dieser Arbeit wurden anhand verschiedener Szenarien Möglichkeiten einer weitgehend CO2–neutralen Stromversorgung für Europa und seine nähere Umgebung untersucht, wobei das Szenariogebiet etwa 1,1 Mrd. Einwohner und einen Stromverbrauch von knapp 4000 TWh/a umfasst. Dabei wurde untersucht, wie die Stromversorgung aufgebaut sein sollte, damit sie möglichst kostengünstig verwirklicht werden kann. Diese Frage wurde beispielsweise für Szenarien untersucht, in denen ausschließlich heute marktverfügbare Techniken berücksichtigt wurden. Auch der Einfluss der Nutzung einiger neuer Technologien, die bisher noch in Entwicklung sind, auf die optimale Gestaltung der Stromversorgung, wurde anhand einiger Beispiele untersucht. Die Konzeption der zukünftigen Stromversorgung sollte dabei nach Möglichkeit objektiven Kriterien gehorchen, die auch die Vergleichbarkeit verschiedener Versorgungsansätze gewährleisten. Dafür wurde ein Optimierungsansatz gewählt, mit dessen Hilfe sowohl bei der Konfiguration als auch beim rechnerischen Betrieb des Stromversorgungssystems weitgehend auf subjektive Entscheidungsprozesse verzichtet werden kann. Die Optimierung hatte zum Ziel, für die definierte möglichst realitätsnahe Versorgungsaufgabe den idealen Kraftwerks- und Leitungspark zu bestimmen, der eine kostenoptimale Stromversorgung gewährleistet. Als Erzeugungsoptionen werden dabei u.a. die Nutzung Regenerativer Energien durch Wasserkraftwerke, Windenergiekonverter, Fallwindkraftwerke, Biomassekraftwerke sowie solare und geothermische Kraftwerke berücksichtigt. Abhängig von den gewählten Randbedingungen ergaben sich dabei unterschiedliche Szenarien. Das Ziel der Arbeit war, mit Hilfe unterschiedlicher Szenarien eine breite Basis als Entscheidungsgrundlage für zukünftige politische Weichenstellungen zu schaffen. Die Szenarien zeigen Optionen für eine zukünftige Gestaltung der Stromversorgung auf, machen Auswirkungen verschiedener – auch politischer – Rahmenbedingungen deutlich und stellen so die geforderte Entscheidungsgrundlage bereit. Als Grundlage für die Erstellung der Szenarien mussten die verschiedenen Potentiale erneuerbarer Energien in hoher zeitlicher und räumlicher Auflösung ermittelt werden, mit denen es erstmals möglich war, die Fragen einer großräumigen regenerativen Stromversorgung ohne ungesicherte Annahmen anhand einer verlässlichen Datengrundlage anzugehen. Auch die Charakteristika der verschiedensten Energiewandlungs- und Transportsysteme mussten studiert werden und sind wie deren Kosten und die verschiedenen Potentiale in der vorliegenden Arbeit ausführlich diskutiert. Als Ausgangsszenario und Bezugspunkt dient ein konservatives Grundszenario. Hierbei handelt es sich um ein Szenario für eine Stromversorgung unter ausschließlicher Nutzung erneuerbarer Energien, die wiederum ausschließlich auf heute bereits entwickelte Technologien zurückgreift und dabei für alle Komponenten die heutigen Kosten zugrundelegt. Dieses Grundszenario ist dementsprechend auch als eine Art konservative Worst-Case-Abschätzung für unsere Zukunftsoptionen bei der regenerativen Stromversorgung zu verstehen. Als Ergebnis der Optimierung basiert die Stromversorgung beim Grundszenario zum größten Teil auf der Stromproduktion aus Windkraft. Biomasse und schon heute bestehende Wasserkraft übernehmen den überwiegenden Teil der Backup-Aufgaben innerhalb des – mit leistungsstarker HGÜ (Hochspannungs–Gleichstrom–Übertragung) verknüpften – Stromversorgungsgebiets. Die Stromgestehungskosten liegen mit 4,65 €ct / kWh sehr nahe am heute Üblichen. Sie liegen niedriger als die heutigen Preisen an der Strombörse. In allen Szenarien – außer relativ teuren, restriktiv ”dezentralen” unter Ausschluss großräumig länderübergreifenden Stromtransports – spielt der Stromtransport eine wichtige Rolle. Er wird genutzt, um Ausgleichseffekte bei der dargebotsabhängigen Stromproduktion aus erneuerbaren Quellen zu realisieren, gute kostengünstige Potentiale nutzbar zu machen und um die Speicherwasserkraft sowie die dezentral genutzte Biomasse mit ihrer Speicherfähigkeit für großräumige Backup-Aufgaben zu erschließen. Damit erweist sich der Stromtransport als einer der Schlüssel zu einer kostengünstigen Stromversorgung. Dies wiederum kann als Handlungsempfehlung bei politischen Weichenstellungen interpretiert werden, die demnach gezielt auf internationale Kooperation im Bereich der Nutzung erneuerbarer Energien setzen und insbesondere den großräumigen Stromtransport mit einbeziehen sollten. Die Szenarien stellen detaillierte und verlässliche Grundlagen für wichtige politische und technologische Zukunftsentscheidungen zur Verfügung. Sie zeigen, dass bei internationaler Kooperation selbst bei konservativen Annahmen eine rein regenerative Stromversorgung möglich ist, die wirtschaftlich ohne Probleme zu realisieren wäre und verweisen den Handlungsbedarf in den Bereich der Politik. Eine wesentliche Aufgabe der Politik läge darin, die internationale Kooperation zu organisieren und Instrumente für eine Umgestaltung der Stromversorgung zu entwickeln. Dabei kann davon ausgegangen werden, dass nicht nur ein sinnvoller Weg zu einer CO2–neutralen Stromversorgung beschritten würde, sondern sich darüber hinaus ausgezeichnete Entwicklungsperspektiven für die ärmeren Nachbarstaaten der EU und Europas eröffnen.
Resumo:
Ausgehend von neueren Entwicklungen im Publikations- und Informationswesen, die einen nicht unwesentlichen Einfluss auf das zukünftige wissenschaftliche Publizieren haben werden, wird der künftige Zugriff auf Open-Access-Archive thematisiert. Um dringend notwendige Veränderungen herbeizuführen, bedarf es neben einem Mentalitätswandel bei den Autoren auch der Schaffung einer funktionierenden umfassenden Infrastruktur von Dokumentenservern mit Recherche und Archivierung, um die nötige Akzeptanz bei Autoren und Lesern zu erlangen. Eine Möglichkeit dazu böte eine OpenRep-Initiative, ein Netz von modular aufgebauten "Institutional Repositories".
Resumo:
Mobile genetische Elementen wie Transposons wurden in unbelasteten Böden nachgewiesen. Hierzu wurden unterschiedliche Ansätze gewählt: Verschiedene, unbelastete Böden wurden mittels PCR auf das Vorhandensein von Markergenen, in diesem Fall Transposasen vom Typ Tn3, Tn21 und Tn501, hin untersucht. Hierzu wurde ein System entwickelt, welches es ermöglichte die Gesamt-DNA aus verschiedensten Böden mit einem System einfach und reproduzierbar zu extrahieren und anschließend mittels PCR zu untersuchen. Die mittlere Nachweisgrenze dieses Systems lag bei 9 x 10 *3 Templates / g Boden. Ein paralleler Ansatz erfolgte, indem aus den gleichen, unbelasteten Böden Bakterien mittels Selektivmedien isoliert wurden. Diese Isolate wurden anschließend auf genetische Marker hin untersucht. Transposons, bzw. Transposasen konnten in den unbelasteten Böden in weitaus geringerer Zahl als aus belasteten Böden bekannt nachgewiesen werden. Jedoch verhielten sich die unterschiedlichen Elemente in der Verteilung wie aus belasteten Böden bekannt. Am häufigsten wurde Tn21 dann Tn501 nachgewiesen. Tn3, nach dem auch gescreent wurde, konnte nicht nachgewiesen werden. Anschließend wurden diese Böden mittels Bodensäulen unter Laborbedingungen auf die Übertragung von potentiell transponierbaren Elementen aus der autochthonen Flora hin untersucht. Mittels dieses Experimentes konnte kein transponierbares Element nachgewiesen werden. Weiterhin wurden vorhandene Boden-Bakterienkollektive auf das Vorhandensein von Transposons mittels Gensondentechnik und PCR auf Transposasen hin gescreent. Auch hier konnten wiederum Signale zu Tn21, Tn501 und in diesem Falle auch Tn3 erhalten werden. Einige dieser Isolate wurden mittels Southern-Blot und Sequenzierung näher charakterisiert. Bei den Sequenzvergleichen einer so erhaltenen 2257 bp langen Sequenz wurde diese als Transposase der Tn21-Familie mit großer Homologie zur Transposase von Tn5060 bestimmt.
Resumo:
Die vorliegende Untersuchung analysiert die Eignung der "Spechtgemeinschaft" als ökologische Indikatorengruppe und formuliert vor dem Hintergrund der Ergebnisse Forderungen und Empfehlungen für einen "spechtgerechten" Umgang mit Wäldern. Die Habitatnutzung von sieben Spechtarten beim Nahrungserwerb wurde über einen Zeitraum von zwei Jahren in urwaldartigen und forstlich genutzten Beständen verschiedener Waldgesellschaften systematisch beobachtet. Das Untersuchungsgebiet ist der Bialowieza-Wald im äußersten Osten Polens, wo in enger räumlicher Nachbarschaft Natur- und Wirtschaftswaldflächen bearbeitet werden konnten. Die Beobachtungen erfolgten zwischen Anfang März 1999 und Ende Februar 2001 und wurden zu allen Jahreszeiten durchgeführt. Vier der insgesamt sechs Probeflächen repräsentieren die wichtigste Laubwaldgesellschaft des Gebietes, das Tilio-Carpinetum, die übrigen zwei die wichtigste Nadelwaldgesellschaft, das Peucedano-Pinetum. Die Hälfte der zwischen 42 und 54 ha großen Probeflächen lag im streng geschützten Urwaldreservat des Bialowieza-Nationalparkes, die übrigen in forstlich genutzten Waldbeständen. Zusätzlich wurde ein 2,5 km langes Transekt durch bewirtschafteten Erlen-Eschen-Auenwald und sehr naturnahen Erlenbruch bearbeitet. Die Probeflächen wurden in ein Raster aus 50x50m großen Quadranten unterteilt. Zur Beobachtung der Spechte beim Nahrungserwerb erfolgten 21 Begehungen je Probefläche bzw. Transekt. Die Probeflächen wurden dazu auf parallelen Linien mit Abständen von je 100m begangen, Startpunkt und Startrichtung wurden variiert. Zur Charakterisierung der Vegetation und Bestandesstruktur erfolgten Erhebungen zur Baumartenzusammensetzung, Größenklassenverteilung der Bäume, Totholzanteil und Krautvegetation. 1332 Beobachtungen von Spechten beim Nahrungserwerb konnten ausgewertet werden. Der Buntspecht wurde in allen Flächen am häufigsten gesehen. Mittel-, Weißrücken- und Kleinspecht wurden überwiegend in den Tilio-Carpineten beobachtet, in den Naturwäldern häufiger als in den bewirtschafteten Beständen. Der Dreizehenspecht wurde im Nadelwald und stärker mit Fichten durchmischtem Laubwald angetroffen. Bei Schwarz- und Grauspecht konnte keine klare Vorliebe für bestimmte Waldgesellschaften ermittelt werden. Der Buntspecht ernährte sich vor allem im Herbst und Winter überwiegend von fetthaltigen Samen und wurde dann meist beim Bearbeiten von Fichten- oder Kiefernzapfen in Schmieden beobachtet. Der Mittelspecht suchte als "Sammelspecht" seine Nahrung vor allem an den Oberflächen der Stämme und Äste. Klein-, Weißrücken-, Dreizehen- und Schwarzspecht traten als Hackspechte in Erscheinung. Die wenigen Daten zum Grauspecht reichen nicht zur Ermittlung der bevorzugten Nahrungserwerbstechnik aus. Bei Bunt-, Mittel- und Weißrückenspecht konnte eine deutliche Vorliebe für die Stieleiche als Nahrungsbaum nachgewiesen werden. Der Dreizehenspecht ist jedoch die einzige der beobachteten Arten mit einer weitgehenden Spezialisierung auf eine bestimmte Baumart, er nutzte in allen Waldgesellschaften meist die Fichte. Insgesamt bevorzugten die Spechte Bäume mit großen Stammdurchmessern, beim Kleinspecht ist diese Vorliebe allerdings nur schwach ausgeprägt. Totholz wurde von Weißrücken-, Dreizehen- und Kleinspecht bei der Nahrungssuche bevorzugt, vom Mittelspecht jedoch nur gelegentlich genutzt. Beim Buntspecht zeigte der Totholz-Nutzungsanteil erhebliche Unterschiede zwischen verschiedenen Baumarten. Liegendes Totholz spielte in den Tilio-Carpineten im Vergleich zu stehendem Totholz und toten Teilen lebender Bäume nur eine geringe Rolle für Nahrung suchende Spechte.
Resumo:
Die Verwendung von Aktivkohlen und -koksen stellt eine Alternative zu herkömmlichen Prozessen zur Verminderung der NOx-Emissionen in Rauchgasen dar. An diesen Materialien wird Stickstoffmonoxid adsorbiert und katalytisch zu N2 reduziert. Eine einheitliche Erklärung über die ablaufenden Vorgänge und die Reaktionsmechanismen gibt es noch nicht. Die Ergebnisse der bisher veröffentlichten wissenschaftlichen Arbeiten sind sehr unterschiedlich, wenn nicht sogar widersprüchlich. In dieser Arbeit wird, anhand der Messung von NO-Durchbruchskurven und thermischen Desorptionsspektren, die Adsorption und Reaktion von Stickstoffmonoxid an Aktivkohlen und -koksen in Anwesenheit von Sauerstoff und Wasserdampf untersucht. Zur Durchführung der experimentellen Untersuchungen wird eine Versuchsanlage, bestehend aus einer Vorrichtung zur Gasgemischaufbereitung, einem Festbettreaktor und einer Gasanalytik, konzipiert und aufgebaut. Die Untersuchungen erfolgen bei Temperaturen zwischen 100 und 150 °C. Die NO-, O2- und H2O-Konzentrationen werden anhand der Rauchgaszusammensetzung kohlegefeuerter Kraftwerke gewählt. Die experimentellen Untersuchungen konzentrieren sich auf die Verwendung einer Aktivkohle aus Ölpalmschalen, die in einem Drehrohrreaktor am Institut für Thermische Energietechnik der Universität Kassel hergestellt wurde. Die experimentellen Ergebnisse zeigen, dass während des Prozesses NO-Adsorption, -Reduktion und -Oxidation, NO2-Bildung, -Adsorption und -reduktive Desorption, H2O-Adsorption sowie O2-Vergasung gleichzeitig stattfinden. Bei niedrigen Temperaturen werden die NO2-Bildung und die Adsorption bevorzugt. Die NO-Reduktion läuft über adsorbiertes NO mit CO2- und CO-Bildung. Durch O2-Vergasung werden aktive freie Cf-Plätzen für die NO-Reaktion und -Adsorption gebildet. Wasserdampf wird an der Aktivkohle adsorbiert und belegt aktive Plätze für diese Prozesse. Aus den experimentellen Ergebnissen werden kinetische und Gleichgewichtsparameter der NO-Sorption bestimmt. Ein vereinfachtes mathematisches Modell des Festbettreaktors, das zur Berechnung der NO-Durchbruchskurven bei unterschiedlichen Temperaturen dient, wird aufgestellt.
Resumo:
Aufgrund der breiten aktuellen Verwendung des Mythen-Begriffs in Kunst und Werbung, aber darüber hinaus auch in nahezu allen Bereichen gesellschaftlichen Lebens und vor allem in der Philosophie ergibt sich die Notwendigkeit, einen erweiterten Mythos-Begriff über das Historisch-Authentische hinaus zu verfolgen. Ausgehend von einer strukturalen Annäherung an den Mythos-Begriff im Sinne des von Roland Barthes vorgeschlagenen sekundären semiologischen Systems, d.h. einer semiologischen Sinnverschiebung zur Schaffung einer neuen – mythischen – Bedeutung, fordert diese neue Bedeutung eine Analyse, eine Mythenanalyse heraus. Dies ist deshalb so entscheidend, weil eben diese neue Bedeutung ihr mythisches Profil im Sinne von Hans Blumenberg durch forcierte Bedeutsamkeit für Individuen oder für bestimmte gesellschaftliche Gruppierungen unterlegt, z.B. durch bewusst intensive Wiederholung eines Themas oder durch unerwartete Koinzidenzen von Ereignissen oder durch Steigerung bzw. Depotenzierung von Fakten. Der erweiterte Mythen-Begriff verlangt nach einer Strukturierung und führt dabei zu unterschiedlichen Mythen-Ansätzen: zum Ursprungsstoff des authentischen Mythos und darauf basierender Geisteslage, zum Erkennen eines reflektierten Mythos, wenn es um das Verhältnis Mythos/Aufklärung geht, zum Zeitgeist-Mythos mit seinen umfangreichen Ausprägungen ideologischer, affirmativer und kritischer Art oder zu Alltagsmythen, die sich auf Persönlichkeitskulte und Sachverherrlichungen beziehen. Gerade der letztere Typus ist das Terrain der Werbung, die über den Gebrauchswert eines Produktes hinaus Wert steigernde Tauschwerte durch symbolische Zusatzattribute erarbeiten möchte. Hierbei können Markenmythen unterschiedlichster Prägung entstehen, denen wir täglich im Fernsehen oder im Supermarkt begegnen. Die Manifestation des Mythos in der Kunst ist einerseits eine unendliche Transformationsgeschichte mythischer Substanzen und andererseits ein überhöhender Bezug auf Zeitgeisterscheinungen, etwa bei dem Mythos des Künstlers selbst oder der durch ihn vorgenommenen „Verklärung des Gewöhnlichen“. Die Transformationsprozesse können u.a . prototypisch an zwei Beispielketten erläutert werden, die für den Kunst/Werbung-Komplex besonders interessant sind, weil ihr Charakter sich in einem Fall für die Werbung als äußerst Erfolg versprechend erwiesen hat und weil sich im zweiten Fall geradezu das Gegenteil abzeichnet: Zum einen ist es die Mythengestalt der Nymphe, jene jugendliche, erotisch-verführerische Frauengestalt, die über ihre antiken Wurzeln als Sinnbild der Lebensfreude und Fruchtbarkeit hinaus in und nach der Renaissance ihre Eignung als Verbildlichung der Wiederzulassung des Weiblichen in der Kunst beweist und schließlich der Instrumen-talisierung der Werbung dient. Im anderen Fall ist es die Geschichte der Medusa, die man idealtypisch als die andere Seite der Nympha bezeichnen kann. Hier hat Kunst Auf-klärungsarbeit geleistet, vor allem durch die Verschiebung des medusischen Schreckens von ihr weg zu einer allgemein-medusischen Realität, deren neue Träger nicht nur den Schrecken, sondern zugleich ihre Beteiligung an der Schaffung dieses Schreckens auf sich nehmen. Mythosanalyse ist erforderlich, um die Stellungnahmen der Künstler über alle Epochen hinweg und dabei vor allem diese Transformationsprozesse zu erkennen und im Sinne von Ent- oder Remythologisierung einzuordnen. Die hierarchische Zuordnung der dabei erkannten Bedeutungen kann zu einem Grundbestandteil einer praktischen Philosophie werden, wenn sie einen Diskurs durchläuft, der sich an Jürgen Habermas’ Aspekt der Richtigkeit für kommunikatives Handeln unter dem Gesichtspunkt der Toleranz orientiert. Dabei ist nicht nur zu beachten, dass eine verstärkte Mythenbildung in der Kunst zu einem erweiterten Mythen-begriff und damit zu dem erweiterten, heute dominierenden Kunstbegriff postmoderner Prägung geführt hat, sondern dass innerhalb des aktuellen Mythenpakets sich die Darstellungen von Zeitgeist- und Alltagsmythen zu Lasten des authentischen und des reflektierten Mythos entwickelt haben, wobei zusätzlich werbliche Markenmythen ihre Entstehung auf Verfahrensvorbildern der Kunst basieren. Die ökonomische Rationalität der aktuellen Gesellschaft hat die Mythenbildung keines-wegs abgebaut, sie hat sie im Gegenteil gefördert. Der neuerliche Mythenbedarf wurde stimuliert durch die Sinnentleerung der zweckrationalisierten Welt, die Ersatzbedarf anmeldete. Ihre Ordnungsprinzipien durchdringen nicht nur ihre Paradedisziplin, die Ökonomie, sondern Politik und Staat, Wissenschaft und Kunst. Das Umschlagen der Aufklärung wird nur zu vermeiden sein, wenn wir uns Schritt für Schritt durch Mythenanalyse unserer Unmündigkeit entledigen.
Resumo:
Durch Selbstorganisation gebildete monomolekulare Filme spielen eine große Rolle bei der gezielten Funktionalisierung von Oberflächen. Sie entstehen meist durch in situ Adsorption von Adsorbatmolekülen auf Substratoberflächen. Ankergruppen stellen dabei das mit dem Substrat wechselwirkende Molekülsegment dar. Dreizähnig konstruierte Ankergruppen, die über ein vierbindiges Verzweigungsatom im Molekül integriert sind, zeichnen sich durch den Vorteil aus, dass sie eine senkrechte Anordnung der Adsorbatmoleküle zur Substratoberfläche bevorzugen. Die Interaktion von schwefelhaltigen Ankergruppen in Form von Thioether-Einheiten mit Goldsubstraten stellt dabei ein besonders interessantes und vielversprechendes System dar und wurde in dieser Arbeit durch tripodale (Methylthio)methyl-Einheiten realisiert. Die Ordnung der Monolagen kann durch starr konstruierte Moleküle erhöht werden, da rigide Strukturelemente die intramolekulare Flexibilität der Moleküle herabsetzen. Es ist gelungen, im Rahmen dieser Arbeit zwei neue tripodale Thioetherliganden darzustellen. Die Dreizähnigkeit der Liganden konnte auf Basis molekularer Koordinationschemie belegt werden. Durch Synthese der Tricarbonylwolfram-(0)-Ligand-Komplexe konnten pseudo-oktaedrische Chelat-Komplexe eindeutig charakterisiert werden. Desweiteren ist es gelungen, die geordnete Monolagenbildung auf Gold zu bestätigen und vielfältig zu charakterisieren. Zwei neue ferrocenylfunktionalisierte Halogen-Derivate konnten dargestellt werden und erweitern damit die vorhandene Bibliothek dieser Substanzgruppe. Daraus ist in einer nächsten Stufe ein direktes Edukt für die Synthese ferrocenylfunktionalisierter Schwefel-Tripodliganden entstanden. Diese Arbeit war Teil eines Kooperationsprojekts mit der Arbeitsgruppe Experimentalphysik I in Rahmen des CINSaT. Die neu dargestellten Verbindungen wurden in dieser Arbeitsgruppe hinsichtlich ihrer Adsorptionseigenschaften auf Gold(111)-Oberflächen eingehend untersucht und die entstandenen Monolagen charakterisiert (SHG, Ellipsometrie, XPS, STM, FTIR). Ein Zweistufenprozeß der Filmbildung konnte entwickelt werden.
Resumo:
Die Arbeit behandelt den Vorschlag für eine EU-Verordnung KOM/2000/7/final, 2000/0212(COD) des europäischen Parlaments und des Rates von der Kommission der Europäischen Gemeinschaften als Grundlage einer Marktöffnungsverordnung und welche Veränderungen sich dadurch in Deutschland einstellen werden. Ausschreibungen von Verkehrsleistungen werden zunehmen. Die Ausschreibungsarten werden sich in ländlichen Regionen von denen in Verkehrszentren unterscheiden. In der Region werden sich Bedarfslösungen stärker durchsetzen. Kürzungen von Verkehrsleistungen werden hier stärker ausfallen als in den Zentren und damit zu einem kleineren Leistungsvolumen führen. Aufgrund des geringen Leistungsumfangs gibt es weniger Interessenten. Bei Standardausschreibungen werden deshalb auch häufig die Varianten der beschränkten oder die freihändige Vergabe gewählt. Funktionale Ausschreibungen haben nur eine untergeordnete Bedeutung. In den Verkehrszentren sind die Lose größer und damit für viele Anbieter interessant. Die Verkehrszusatzleistungen sind zudem komplexer. Standardausschreibungen in öffentlicher Vergabeart werden sich hier vermutlich als Norm durchsetzen. Die VOL/A wird sicherlich ihre Bedeutung und ihren dafür notwendigen Regelungsumfang in Deutschland als deutsches oder als europäisches Recht behalten. Ob der empfehlende Charakter der DIN EN 13816 Norm „ÖPNV: Definition, Festlegung von Leistungszielen und Messung der Servicequalität“ erhalten werden kann und nicht als Steuerungselement zur Standardisierung im ÖPNV beitragen wird, ist dabei zu bezweifeln. Durch diese Wettbewerbspflicht wird der Aufgabenträger zum Besteller von Verkehrsleistungen. Damit geht die Verkehrsplanung in die Verantwortung des Aufgabenträgers über und gerät stärker in den Einflussbereich der Politik. Die strategisch abstrakte und die konkrete Verkehrsplanung wachsen für den Normfall der Standardausschreibung zusammen. Die Hoffnung auf eine bessere Netzintegration und eine Standardisierung des ÖPNV Angebots und der ÖPNV Qualität entsteht. Es entwickelt sich dadurch aber auch die Gefahr der Abhängigkeit des Nahverkehrsangebots von der derzeitigen Haushaltslage oder der Interessenlage der Politik. Kontinuität in Angebot und Qualität werden zu erklärten Planungszielen. Der Verkehrsplaner auf der Bestellerseite muss die Planung in Ausschreibungsunterlagen umsetzen. Dies erfordert erweiterte Kompetenzen in den Bereichen Betriebswirtschaft, Logistik, Jura, Informatik und Führungskompetenzen. Ausbildende Institutionen müssen darauf bereits im Vorfeld der Umsetzung reagieren. Durch die zeitliche Verzögerung der Umsetzung der Planung durch die Ausschreibungsschritte sind in der Verkehrsplanung längere Planungsvorlaufzeiten einzukalkulieren. Vorausschauender zu planen, wird dabei wichtiger. Auch eventuelle Fehler in der Planung sind nicht mehr so einfach zu korrigieren. Durch den gestiegenen Einsatz von Technologien in den Fahrzeugen besteht für den Verkehrsplaner dafür häufiger die Möglichkeit, Planungsänderungen auf ihre Wirksamkeit im Hinblick auf Attraktivität für den Fahrgast anhand von den ermittelten Fahrgastzahlen zu kontrollieren. Dasselbe gilt auch für Marketing- und Vertriebsmaßnahmen, wie für die Tarifpolitik. Die Zahlen stehen nicht nur für diese Rückkopplung zur Verfügung, sondern dienen auch als Planungsgrundlage für zukünftige Maßnahmen. Dem Planer stehen konkretere Zahlen für die Planung zur Verfügung. Ein Aspekt, der aufgrund der Sanktionsmaßnahmen bei Ausschreibungen an Bedeutung gewinnen wird, ist die Möglichkeit, Qualität von Verkehrsleistungen möglichst objektiv beurteilen zu können. Praxisrelevante Auswirkungen auf die Verkehrsplanung des öffentlichen Personennahverkehrs ergeben sich hauptsächlich durch die gestiegene Komplexität in der Planung selbst und den dadurch unverzichtbaren gewordenen Einsatz von Computerunterstützung. Die Umsetzung in Ausschreibungsunterlagen der Planung und die Kontrolle stellen neue Elemente im Aufgabenbereich des Verkehrsplaners dar und erfordern damit breiter ausgelegte Kernkompetenzen. Es werden mehr Verkehrsplaner mit breiterer Ausbildung benötigt werden. Diese Arbeit hat aufgezeigt, dass sich mit der Integration des Ausschreibungsgedankens in den Ablauf der Verkehrsplanung eine sprunghafte Entwicklung in der Planungstätigkeit ergeben wird. Aufgrund der in Zukunft steigenden Qualität und Quantität der Planungsgrundlagen und der ebenfalls gestiegenen Ansprüche an die Bewertungsparameter ergeben sich Veränderungen und neue Anforderungen auf diesem Gebiet, die in erster Linie für die Hochschulen und andere ausbildende Einrichtungen, aber auch für die Verkehrsplanung unterstützende Industrie.
Resumo:
Persönlichkeiten, wie sie in der Arbeit beschrieben werden, treten zu Beginn ihres biografischen Weges noch ungeprägt auf. Erst ihre Lebens- und Arbeitsverhältnisse, die Auseinandersetzung mit Menschen, öffentlichen Institutionen sowie ihr Handeln, sei es positiv oder negativ, lassen die Person zur Persönlichkeit werden. Dabei beeinflussen neben individueller Veranlagung gesellschaftliche Rahmenbedingungen diesen Bildungsprozess. Der erste Teil setzt sich mit allgemeiner Interessenwahrnehmung und deren Umsetzung als ein Ausdruck von Macht auseinander, wobei erfolgsorientiertes Handeln sich auch als Kampf um Anerkennung bezeichnen ließe. Mit den dazu aufgeführten Kriterien soll am Ende der Arbeit der Aktor gemessen werden. Das persönliche Anspruchsdenken basiert auf einem gesellschaftlichen Umfeld, in dem Abbau ständischer Privilegien zum einen und Veränderung absolutistischer Staatsgewalt zum anderen voranschreiten. Unter den ökonomischen Bedingungen einer noch zeitlich begrenzt funktionierenden kurfürstlichen Administration versucht ein junger Kaufmann nach marktwirtschaftlichen Kriterien ein Leinenverlagssystem zu entwickeln, das die Zeit der Heimindustrie erneut kurz aufleben lässt, um nach Durchbruch des Industriekapitalismus wieder zu verschwinden. Von flexiblem Unternehmergeist getragen, wird der mit dem Verlag erwirtschaftete Mehrwert nicht in den Aufbau einer „neuen Industrie“ investiert, sondern als mobiles Kapital für den Erwerb von Grund und Boden benutzt. Hier wird die Notwendigkeit eines sich entwickelnden städtischen Wohnungsmarktes rechtzeitig erkannt. Eine bereits vorhandene kapitalistische Ordnung mit einem expandierenden Markt ermöglicht, Wohnungsbedarf mit Stadterweiterungsprojekten zu begegnen. Diese sind notwendig, da die Zentrierung von Arbeit in Form von Industriebetrieben eine Migration aus ländlichen Gebieten zum Arbeitsangebot in Gang setzt. Der Stadtbau verzögert sich in verschiedenen Kleinstaaten im Verhältnis zu Preußen. Die Finanzierung des „Produktes Stadt“ wird im Gegensatz zu landesherrlicher Zeit zu einem Instrument des kapitalistischen Marktes. Die industrielle Entwicklung ist an eine Organisation von Kreditvermittlungen gebunden. Das führt zu Erfolg und Misserfolg mit Bankgeschäften. Vergrößerungen kapitalistischer Unternehmungen erfordern Vermehrung des Kapitals. Der Aufschwung des deutschen Wirtschaftslebens ist von Krediten durch Geldgeber abhängig und diese treiben als Schrittmacher Industrie und Handel an. Die Vorgänge lassen sich auf den Stadtbauprozess übertragen. Klassengeist und Klassenhochmut einer bürgerlichen Gesellschaft führen zu mangelnder politischer Gleichberechtigung, die bei Unterschichten, politischen und gesellschaftlichen Randgruppen häufiger zu sozialer Diskriminierung beitragen. Mit besonderem Engagement auf ökonomischem Terrain versuchen Juden, ihre gesellschaftliche Isolierung aufzuheben, indem sie materiellen Erfolg benutzen, um als Wirtschaftsbürger, als „Bourgeois“ im Sinne von Marx, zu gelten. Die „Titelordnung“ der wilhelminischen Gesellschaft verändert sich von Leistungsauszeichnung zu Beförderung durch Bezahlung, um damit die monarchische „Schatulle“ und im sozialen Bereich den Staatshaushalt zu entlasten. Die Ausgezeichneten erkennen diesen Wandel nicht und sehen dagegen in der Verleihung eine Geste gesellschaftlicher Anerkennung. Die Orden tragen dazu bei, die äußerliche Kluft zwischen den ausgezeichneten bürgerlichen Trägern und dem die Gesellschaft führenden Feudaladel zu verringern. Die vorliegende Arbeit stützt sich auf Quellen aus unterschiedlichen politischen Entscheidungsebenen. Sie sind nur soweit umfassend, wie sie als Archivmaterial auszuheben sind. Die dort gesammelten Schriftstücke unterlagen bei ihrer Archivierung einem hausinternen Auswahlvorgang. Somit ist eine umfassende Darstellung nicht möglich. Die Schriftstücke liegen, von wenigen Ausnahmen abgesehen, handgeschrieben vor und sind häufig schwer zu lesen. Der Rückgriff auf Äußerungen von administrativer Seite könnte auch als Blick von „oben“ gedeutet werden. Jedoch verbergen sich hinter jedem Vorgang ganz normale menschliche Interessen, die für viele Abläufe keines wissenschaftlichen Überbaus bedürfen. Meine Arbeit beabsichtigt, den Untersuchungsgegenstand aus einem bisher nicht erschlossenen Blickwinkel zu beleuchten. Straßennamen erfahren im Untersuchungszeitraum verifizierte Schreibweisen, die möglicherweise auf Vorstellungen des jeweiligen Planverfassers zurückzuführen sind. Für Kölnische Straße wird auch Kölnische Allee, Cölnische Str. oder Cöllnsche Str. gebraucht. Gleiches gilt z.B. bei Querallee mit Quer Allee, Quer-Allee oder Cölnische Querallee. Werden Erklärungen zu bestimmten Karten formuliert wird auch die dortige Schreibweise verwandt, um einen Zusammenhang zwischen Text und Karte zu erleichtern. Die nach dem 2. Weltkrieg im Untersuchungsraum aufgenommenen Straßennamen stehen in keiner Verbindung zur Entstehungsgeschichte. Marxistische Terminologie als Erklärung wirtschaftlicher Zusammenhänge schließt ein marxistisches Gesellschaftsbild nicht mit ein. Wirtschaftliche Entwicklungen des 19. Jahrhundert bis 1915 werden mit ihrer impliziten liberalen Wirtschaftsauffassung dargestellt. Im Dezember 2005 erschien zur Denkmalstopografie, Kulturdenkmäler Hessen, die Ausgabe Stadt Kassel II. Diese setzt sich auch mit Problemstellungen der vorliegenden Arbeit auseinander. Der Verfasser hat versucht, nach bereits fertig gestelltem Gesamttext, wesentliche Aspekte daraus aufzugreifen, um damit die Relevanz eigener Erkenntnisse zu überprüfen. Dabei bleiben verschiedene Fragestellungen, wie z.B. der mögliche Einfluss von Reinhard Baumeister (1833-1917) auf die Kasseler Stadterweiterung, ungelöst. Derartige Hypothesen bedürfen weiterer Überprüfung. Kartografische Darstellungen sollen die historisch-genetische Schichtung des Siedlungsraumes erfassen, um durch veränderte Sichtweise Textaussagen zu unterstützen. Hierzu bilden Kartenblätter um 1840 die Basis für kartografische Aussagen zu Siedlungs- und Landschaftsformen. Ferner werden Stadtpläne ab 1822 die westliche Gemarkung der Stadt betreffend, sogenannte Kataster „Urkarten“ der „Feldmark Cassel“ sowie dem „Kreis Kassel“ als Gemarkungskarten ab 1848, bezüglich Fragestellungen zum Siedlungsraum vor der westlichen Stadterweiterung herangezogen. Fluchtlinien- und Stadtpläne besonders Möckel- 1866, Neumann- 1878 sowie Blumenauer-Plan 1891-97 unterstützen Aussagen zum Bauprozess des Quartiers. Für Gestaltung bestimmter kartografischer Zustände wird die jeweilige Kartenschreibweise benutzt, was zu Abweichungen gegenüber heutiger Namensgebung führt. Bei allgemeinen Feststellungen zieht der Verfasser die gebräuchliche Schreibweise des 19. Jahrhunderts bis 1913 heran. Mit dieser Vorgehensweise wird versucht, eine urbane Entwicklung auch bei der verbalen Akzentuierung als Gesamtprozess zu erfassen. Um mehrere Zeitzustände zu visualisieren und deren Entwicklungszustände zu deuten, werden Kartendarstellungen in verschiedene Ebenen gebracht. Der Endzustand gründet sich auf Stadtpläne von 1913 und 1943. Grundlage der digitalisierten Kartenproduktion sowie ihre Georeferenzierung erfolgt mit dem Programm Arc View sowie Informationen aus GIS-DATA/kassel. Einheitliches Kartenbild soll die Interpretation erleichtern. In der gedruckten Arbeit ist das umfangreiche Kartenmaterial nur partiell berücksichtigt. Deshalb sind auf beiliegender CD neben bereits verwendeten Karten andere Originalabbildungen aufgenommen, um dem Interessierten spezielle Detailinformationen zu vermitteln und für weitere Forschungsvorhaben eine Plattform zu schaffen.
Resumo:
Die vorliegende Unterrichtsreihe basiert auf zwei grundlegenden Vorstellungen zum Lernen und Lehren von Wahrscheinlichkeitsrechnung für Anfänger in der Sekundarstufe I. Zum einen ist die grundsätzliche Überzeugung der Autoren, dass ein sinnvoller und gewinnbringender Unterricht in Stochastik über den aufwendigeren Weg möglichst authentischer und konkreter Anwendungen im täglichen Leben gehen sollte. Demzufolge reicht eine Einkleidung stochastischer Probleme in realistisch wirkende Kontexte nicht, sondern es sollte eine intensive Erarbeitung authentischer Problemstellungen, z.B. mit Hilfe von realen Medientexten, erfolgen. Die Schüler sollen vor allem lernen, reale Probleme mathematisch zu modellieren und gefundene mathematische Ergebnisse für die reale Situation zu interpretieren und kritisch zu diskutieren. Eine weitere Besonderheit gegenüber traditionellen Zugängen zur Wahrscheinlichkeitsrechnung basiert auf kognitionspsychologischen Ergebnissen zur menschlichen Informationsverarbeitung. Durch eine Serie von Studien wurde gezeigt, dass Menschen – und natürlich auch Schüler – große Probleme haben, mit Wahrscheinlichkeiten (also auf 1 normierte Maße) umzugehen. Als viel einfacher und verständnisfördernder stellte sich die kognitive Verarbeitung von Häufigkeiten (bzw. Verhältnissen von natürlichen Zahlen) heraus. In dieser Reihe wird deshalb auf eine traditionelle formale Einführung der Bayesschen Regel verzichtet und es werden spezielle, auf Häufigkeiten basierende Hilfsmittel zur Lösungsfindung verwendet. Die erwähnten Studien belegen den Vorteil dieser Häufigkeitsdarstellungen gegenüber traditionellen Methoden im Hinblick auf den sofortigen und insbesondere den längerfristigen Lernerfolg (vgl. umfassend zu diesem Thema C. Wassner (2004). Förderung Bayesianischen Denkens, Hildesheim: Franzbecker, http://nbn-resolving.org/urn:nbn:de:hebis:34-2006092214705). Die vorliegende Schrift wurde zuerst im Jahre 2004 als Anhang zur o.g. Schrift bei Franzbecker Hildesheim veröffentlicht. Der Verlag hat einer elektronischen Veröffentlichung in der KaDiSto-Reihe zugestimmt.
Resumo:
Der Anteil dezentraler eingebetteter Systeme steigt in zahlreichen Andwendungsfeldern, wie der Kfz-Elektronik oder der Anlagenautomatisierung [ScZu03]. Zudem steigen die Anforderungen and die Flexibilität und den Funktionsumfang moderner automatisierungs-technischer Systeme. Der Einsatz agentenorientierter Methoden ist diesbezüglich ein geeigneter Ansatz diesen Anforderungen gerecht zu werden [WGU03]. Mit Agenten können flexible, anpassungsfähige Softwaresysteme entwickelt werden, welche die Verteilung von Informationen, Aufgaben, Ressourcen oder Entscheidungsprozessen der realen Problemstellung im Softwaresystem widerspiegeln. Es ist somit möglich, die gewünschte Flexibilität des Systems, bezüglich der Struktur oder des Verhaltens gezielt zu entwerfen. Nachteilig ist jedoch der Indeterminismus des Verhaltens des Gesamtsystems, der sich aufgrund von schwer vorhersagbaren Interaktionen ergibt [Jen00]. Dem gegenüber stehen statische Softwaresysteme, welche zwar einen hohen Determinismus aufweisen aber wenig flexibel in Bezug auf Änderungen der Struktur des Systems oder des Ablaufs des realen Prozesses sind. Mit der steigenden Komplexität der Systeme ist allerdings selbst mit einem statischen Entwurf die Vorhersagbarkeit immer weniger zu gewährleisten. Die Zahl der möglichen Zustände einer Anlage wird mit der Berücksichtigung von allen möglichen Fehlern, Ausfällen und externen Einflüssen (dynamische Umgebung) so groß, daß diese mit vertretbarem Aufwand kaum noch erfassbar sind und somit auch nicht behandelt werden können. Das von der DFG geförderten Projekt AVE [AVE05], welches in Kooperation mit dem Institut für Automatisierungs- und Softwaretechnik der Universität Stuttgart bearbeitet wird, beschäftigt sich in diesem Kontext mit dem Konflikt, die Vorteile der Flexibilität und Anpassungsfähigkeit von agentenorientierter Software mit den spezifischen Anforderungen der Domäne der Echtzeitsysteme, wie Zeit- und Verlässlichkeitsanforderungen, zu verknüpfen. In einer detaillierten Analyse dieser Anforderungen wurde untersucht, wie die Eigenschaften der Anpassungsfähigkeit und Flexibilität prinzipiell die Anforderungen an Echtzeit- und Verlässlichkeitseigenschaften beeinflussen und wie umgekehrt Anforderungen an Echtzeit- und Verlässlichkeitseigenschaften die Anpassungsfähigkeit und Flexibilität beschränken können. Aufbauend auf diesen Erkenntnissen werden Methoden und Konzepte für den Entwurf und die Implementierung von Agentensystemen auf gängiger Automatisierungshardware, insbesondere Speicher Programmierbare Steuerungen (SPS), entwickelt. In diesem Rahmen wird ein Konzept für die Modellierung von Sicherheit in Agentensystemen vorgestellt, welches insbesondere den modularen Charakter von Agenten berücksichtigt. Kernaspekt ist es, dem Entwickler einen Rahmen vorzugeben, der ihn dabei unterstützt ein möglichst lückenloses Sicherheitskonzept zu erstellen und ihm dabei genug Freiheiten lässt den Aufwand für die Strategien zur Fehlererkennung, Fehlerdiagnose und Fehlerbehandlung je nach Anforderung für jedes Modul individuell festzulegen. Desweiteren ist besonderer Wert darauf gelegt worden, dass die verwendeten Darstellungen und Diagramme aus der Domäne stammen und eine gute Vorlage für die spätere Implementierung auf automatisierungstechnischer Hardware bieten.
Resumo:
Die Qualität ökologischer Produkte wird über den Prozess und nicht am Produkt selbst bestimmt. Die zunehmende Nachfrage nach ökologischen Produkten fordert Methoden, die den Prozess am Produkt zeigen (Authentizitätsprüfung). Eine Literaturstudie für die vorliegende Habilitationsschrift ergab, dass ganzheitliche Verfahren sich dazu besonders eignen. Zu solchen ganzheitlichen Verfahren gehört die Biokristallisation. Bei diesem Verfahren kristallisiert eine Mischung aus Probe und CuCl2 auf einer Glasplatte zu einem Bild, das sowohl visuell, als auch computergestützt ausgewertet werden kann. Es wurden zunächst alle Schritte im Labor dokumentiert und entsprechende Standardarbeitsanweisungen erstellt. Mit einem eigens entwickelten Computerprogramm werden die Bedingungen während der Probenaufbereitung und Kristallisation für jede Probe und jedes Bild erfasst. Mit einer Texturanalyse können auch die für diese Arbeiten erstellte große Menge an Bildern ausgewertet und die Ergebnisse statistisch bearbeitet werden. Damit ist es möglich das Verfahren und Methoden für Weizen- und Möhrenproben zu charakterisieren. Es wurden verschiedene Einflussgrößen untersucht. Das Verfahren ist besonders gegenüber Änderungen in der Probenvorbereitung (z.B. Vermahlung, Mischungsverhältnis) empfindlich. Es wurde sowohl die Methodenstreuung, als auch der Anteil einzelner Schritte an der Gesamtstreuung für Weizen-, Möhren- und Apfelproben ermittelt. Die Verdampfung und Kristallisation hat den größten Anteil an der Gesamtstreuung. Die Durchführung eines Laboreignungstests zeigte, dass die so dokumentierten und charakterisierten Methoden in anderen Laboratorien erfolgreich eingesetzt werden können. Das Verfahren wurde für die nominale Unterscheidung von Weizen-, Möhren- und Apfelproben aus unterschiedlichem Anbau und Verarbeitungsschritten eingesetzt. Weizen-, Möhren- und Apfelproben aus definiertem Anbau können signifikant unterschieden werden. Weizen-, Möhren- und Apfelproben vom Erzeuger (Markt) konnten im Paarvergleich (ökologisch, konventionell) teilweise signifikant getrennt werden. Das Verfahren ist auch für die Charakterisierung von verarbeiteten Proben einsetzbar. Es konnte der Einfluss von Saftherstellung, Erwärmung und Alterung signifikant gezeigt werden. Darüber hinaus lässt sich das Verfahren auf weitere Probenarten anwenden. Das Verfahren arbeitet ganzheitlich, d.h. es werden keine Einzelstoffe analytisch bestimmt, sondern als Ergebnis wird ein Bild erhalten. Die Textur- und Struktureigenschaften dieses Bildes können mit standardisierten Methoden ausgewertet werden.