999 resultados para Tronchet, Fr.-Den
Resumo:
Die Technologie dienstorientierter Architekturen (Service-oriented Architectures, kurz SOA) weckt große Visionen auf Seiten der Industrie wie auch der Forschung. Sie hat sich als derzeit ideale Lösung für Umgebungen, in denen sich die Anforderungen an die IT-Bedürfnisse rapide ändern, erwiesen. Heutige IT-Systeme müssen Managementaufgaben wie Softwareinstallation, -anpassung oder -austausch erlauben, ohne dabei den laufenden Betrieb wesentlich zu stören. Die dafür nötige Flexibilität bieten dienstorientierte Architekturen, in denen Softwarekomponenten in Form von Diensten zur Verfügung stehen. Ein Dienst bietet über seine Schnittstelle lokalen wie entfernten Applikationen einen Zugang zu seiner Funktionalität. Wir betrachten im Folgenden nur solche dienstorientierte Architekturen, in denen Dienste zur Laufzeit dynamisch entdeckt, gebunden, komponiert, verhandelt und adaptiert werden können. Eine Applikation kann mit unterschiedlichen Diensten arbeiten, wenn beispielsweise Dienste ausfallen oder ein neuer Dienst die Anforderungen der Applikation besser erfüllt. Eine unserer Grundvoraussetzungen lautet somit, dass sowohl das Dienstangebot als auch die Nachfrageseite variabel sind. Dienstorientierte Architekturen haben besonderes Gewicht in der Implementierung von Geschäftsprozessen. Im Rahmen des Paradigmas Enterprise Integration Architecture werden einzelne Arbeitsschritte als Dienste implementiert und ein Geschäftsprozess als Workflow von Diensten ausgeführt. Eine solche Dienstkomposition wird auch Orchestration genannt. Insbesondere für die so genannte B2B-Integration (Business-to-Business) sind Dienste das probate Mittel, um die Kommunikation über die Unternehmensgrenzen hinaus zu unterstützen. Dienste werden hier in der Regel als Web Services realisiert, welche vermöge BPEL4WS orchestriert werden. Der XML-basierte Nachrichtenverkehr und das http-Protokoll sorgen für eine Verträglichkeit zwischen heterogenen Systemen und eine Transparenz des Nachrichtenverkehrs. Anbieter dieser Dienste versprechen sich einen hohen Nutzen durch ihre öffentlichen Dienste. Zum einen hofft man auf eine vermehrte Einbindung ihrer Dienste in Softwareprozesse. Zum anderen setzt man auf das Entwickeln neuer Software auf Basis ihrer Dienste. In der Zukunft werden hunderte solcher Dienste verfügbar sein und es wird schwer für den Entwickler passende Dienstangebote zu finden. Das Projekt ADDO hat in diesem Umfeld wichtige Ergebnisse erzielt. Im Laufe des Projektes wurde erreicht, dass der Einsatz semantischer Spezifikationen es ermöglicht, Dienste sowohl im Hinblick auf ihre funktionalen als auch ihre nicht-funktionalen Eigenschaften, insbesondere die Dienstgüte, automatisch zu sichten und an Dienstaggregate zu binden [15]. Dazu wurden Ontologie-Schemata [10, 16], Abgleichalgorithmen [16, 9] und Werkzeuge entwickelt und als Framework implementiert [16]. Der in diesem Rahmen entwickelte Abgleichalgorithmus für Dienstgüte beherrscht die automatische Aushandlung von Verträgen für die Dienstnutzung, um etwa kostenpflichtige Dienste zur Dienstnutzung einzubinden. ADDO liefert einen Ansatz, Schablonen für Dienstaggregate in BPEL4WS zu erstellen, die zur Laufzeit automatisch verwaltet werden. Das Vorgehen konnte seine Effektivität beim internationalen Wettbewerb Web Service Challenge 2006 in San Francisco unter Beweis stellen: Der für ADDO entwickelte Algorithmus zur semantischen Dienstkomposition erreichte den ersten Platz. Der Algorithmus erlaubt es, unter einer sehr großenMenge angebotener Dienste eine geeignete Auswahl zu treffen, diese Dienste zu Dienstaggregaten zusammenzufassen und damit die Funktionalität eines vorgegebenen gesuchten Dienstes zu leisten. Weitere Ergebnisse des Projektes ADDO wurden auf internationalen Workshops und Konferenzen veröffentlicht. [12, 11]
Resumo:
Erfolgskontrollen für Agrarumweltprogramme bezogen sich bisher meistens auf einzelne Flächen oder auf programmbezogene, großräumige Evaluationen. Es wurde jedoch kaum untersucht, wie sich die Maßnahmen auf die Entwicklung einzelner Naturräume auswirken. Auch gab es keine Studien, welche die Wechselwirkungen zwischen den Beweggründen der Landnutzer auf der ei-nen- sowie Landnutzung und Vegetation auf der anderen Seite interpretierten. Die Dissertation Wirkungen von Extensivierungs- und Vertragsnaturschutzprogrammen auf die Entwick-lung einer »gerade noch aktuellen Agrarlandschaft« hat diese Lücke geschlossen. Sie erklärt, welche Bedeutung die hessischen Programme HELP und HEKUL für den hohen Anteil naturschutzfachlich wertvollen Grünlands im Rommeroder Hügel-land westlich des Meißner haben. Untersuchungsgegenstand waren die Grünlandvegetation und die landwirtschaftlichen Betriebe mit ihren Menschen und deren Beweggründen. Diese Inhalte er-forderten eine Vorgehensweise, die sowohl sozialwissenschaftliche als auch naturwissenschaftliche Methoden einbindet, um Bezüge zwischen Betrieben und Grünlandvegetation zu er-kennen. Umfangreiche pflanzensoziologische Untersuchungen und Interviews der Betriebsleiter waren Grundlage für eine Schlagdatenbank und weitergehende Auswertungen. Die Interpretation vegetationskundlicher Erhebungen im Kontext betrieblicher Entscheidungen und Beweggründe erforderte es, althergebrachte Ansätze in neuer Form zu verknüpfen. Die Bewertung der Programmwirkungen stützte sich auf die Schlagdatenbank und auf vier Szena-rien zur zukünftigen Gebietsentwicklung bei unterschiedlichen Programmfortschreibungen. Zur Darstellung von Erhebungen und Ergebnissen entstand eine Vielzahl thematischer Karten. Der überdurchschnittlich hohe Anteil naturschutzfachlich bedeutsamer Grünlandtypen auf den Programmflächen und die Interpretation der Szenarien belegten eine hohe Wirksamkeit von HELP und HEKUL im Gebiet. Nicht nur auf den Vertragsnaturschutzflächen des HELP, sondern auch auf dem HEKUL-Grünland sind naturschutzfachlich bedeutende Vegetationstypen überproportional vertreten. Die vier Szenarien ließen erkennen, dass eine Beschränkung des HELP auf Schutzgebiete, eine Abschaffung der HEKUL-Grünlandextensivierung oder gar eine ersatzlose Strei-chung beider Programme zu erheblichen Verschlechterungen der naturschutzfachlichen Situation führen würde. Gleichzeitig war festzustellen, dass es ohne die landwirtschaftlich schwierigen natur-räumlichen Verhältnisse sowie eine eher großteilige Agrarstruktur mit überdurchschnittlich flächen-starken und wirtschaftlich stabilen Vollerwerbsbetrieben keine so deutlichen Programmwirkungen gegeben hätte. Auch die Tatsache, dass viele Landwirte eine intensive Landwirtschaft aus innerer Überzeugung ablehnen und mit einer erheblich geringeren Stickstoffintensität wirtschaften als es HEKUL verlangt, wirkte verstärkend. Die große Bedeutung individueller Beweggründe einzelner Betriebsleiter wurde auch in den engen Beziehungen einzelner Grünland-Pflanzengesellschaften zu bestimmten Betriebstypen und sogar einzelnen Höfen sichtbar, deren Beschreibung und Interpretation wichtige Erkenntnisse zu den so-zioökonomischen Voraussetzungen verschiedener Vegetationstypen lieferte. Für die zukünftige Entwicklung der hessischen Agrarumweltförderung empfiehlt die Dissertation eine Einführung und bevorzugte Anwendung ergebnisorientierter Honorierungsverfahren, eine bessere Berücksichtigung des gering gedüngten Grünlands über eine differenzierte Förderung sehr extensiver Düngeregime, eine stärkere Modularisierung des Gesamtprogramms und eine Durchführung aller Maßnahmen im Vertragsverfahren. Die betriebszweigbezogene Grünlandextensivierung sollte zukünftig in Kulissen angeboten werden, in denen ein verstärktes Wechseln von Betrieben in die Mindestpflege nach DirektZahlVerpflV zu erwarten ist.
Resumo:
In dieser Arbeit werden zwei Aspekte bei Randwertproblemen der linearen Elastizitätstheorie untersucht: die Approximation von Lösungen auf unbeschränkten Gebieten und die Änderung von Symmetrieklassen unter speziellen Transformationen. Ausgangspunkt der Dissertation ist das von Specovius-Neugebauer und Nazarov in "Artificial boundary conditions for Petrovsky systems of second order in exterior domains and in other domains of conical type"(Math. Meth. Appl. Sci, 2004; 27) eingeführte Verfahren zur Untersuchung von Petrovsky-Systemen zweiter Ordnung in Außenraumgebieten und Gebieten mit konischen Ausgängen mit Hilfe der Methode der künstlichen Randbedingungen. Dabei werden für die Ermittlung von Lösungen der Randwertprobleme die unbeschränkten Gebiete durch das Abschneiden mit einer Kugel beschränkt, und es wird eine künstliche Randbedingung konstruiert, um die Lösung des Problems möglichst gut zu approximieren. Das Verfahren wird dahingehend verändert, dass das abschneidende Gebiet ein Polyeder ist, da es für die Lösung des Approximationsproblems mit üblichen Finite-Element-Diskretisierungen von Vorteil sei, wenn das zu triangulierende Gebiet einen polygonalen Rand besitzt. Zu Beginn der Arbeit werden die wichtigsten funktionalanalytischen Begriffe und Ergebnisse der Theorie elliptischer Differentialoperatoren vorgestellt. Danach folgt der Hauptteil der Arbeit, der sich in drei Bereiche untergliedert. Als erstes wird für abschneidende Polyedergebiete eine formale Konstruktion der künstlichen Randbedingungen angegeben. Danach folgt der Nachweis der Existenz und Eindeutigkeit der Lösung des approximativen Randwertproblems auf dem abgeschnittenen Gebiet und im Anschluss wird eine Abschätzung für den resultierenden Abschneidefehler geliefert. An die theoretischen Ausführungen schließt sich die Betrachtung von Anwendungsbereiche an. Hier werden ebene Rissprobleme und Polarisationsmatrizen dreidimensionaler Außenraumprobleme der Elastizitätstheorie erläutert. Der letzte Abschnitt behandelt den zweiten Aspekt der Arbeit, den Bereich der Algebraischen Äquivalenzen. Hier geht es um die Transformation von Symmetrieklassen, um die Kenntnis der Fundamentallösung der Elastizitätsprobleme für transversalisotrope Medien auch für Medien zu nutzen, die nicht von transversalisotroper Struktur sind. Eine allgemeine Darstellung aller Klassen konnte hier nicht geliefert werden. Als Beispiel für das Vorgehen wird eine Klasse von orthotropen Medien im dreidimensionalen Fall angegeben, die sich auf den Fall der Transversalisotropie reduzieren lässt.
Resumo:
Das Ziel der vorliegenden Arbeit war die Synthese und Charakterisierung von donor-funktionalisierten Spiro-Perylencarboximiden, welche für den Einsatz in optoelektronischen Bauelementen wie z.B. organischen Phototransistoren, Feldeffekttransistoren oder Solarzellen vorgesehen sind. Die donorfunktionalisierten Spiro-Perylencarboximide stellen kovalent gebundene Donor-Akzeptor-Verbindungen dar, die unter geeigneter Belichtung einen ladungsgetrennten Zustand bilden können. Die Verbindungen wurden aus unterschiedlichen Spiroamin- und Perylenanhydrid-Edukten synthetisiert, die im Baukastenprinzip zu den entsprechenden Zielverbindungen umgesetzt wurden. Mittels unterschiedlicher Charakterisierungsmethoden (z.B. DSC, TGA, CV, Absorptions- und Fluoreszenzmessungen) wurden die Eigenschaften der neuartigen Zielverbindungen untersucht. Im Rahmen der Arbeit wurden vier neue Spiroamin-Edukte erstmalig synthetisiert und charakterisiert. Sie wurden durch Reduktion aus den bisher noch nicht beschriebenen Nitroverbindungen bzw. mittels Pd-katalysierter Kreuzkupplung (Hartwig-Buchwald-Reaktion) aus einer halogenierten Spiroverbindung erhalten. Als Perylenanhydrid-Edukt wurde erstmals eine perfluorierte Perylenanhydrid-Imid-Verbindung hergestellt. Aus den Spiroamin- und Perylenanhydrid-Edukten wurden insgesamt neun neue, donorfunktionalisierte Spiro-Perylencarboximide synthetisiert. Zusätzlich wurden sechs neuartige Spiro-Perylencarboximide ohne Diphenylamin-Donor hergestellt, die als Vergleichsverbindungen dienten. Die donorfunktionalisierten Spiro-Perylencarboximide besitzen eine Absorption im UV- und sichtbaren Spektralbereich, wobei hohe Extinktionskoeffizienten erreicht werden. Die Verbindungen zeigen in verdünnter Lösung (sowohl in polaren als auch in unpolaren Lösungsmitteln) eine Fluoreszenzquantenausbeute unter 1 %, was auf einen effizienten Ladungstransfer zurückzuführen ist. Alle donorfunktionalisierten Spiro-Perylencarboximide zeigen in den CV-Messungen reversibles Verhalten. Mittels CV-Messungen und optischer Methode konnten die HOMO- und LUMO-Lagen der jeweiligen Molekülhälften berechnet und das Fluoreszenzverhalten der Verbindungen erklärt werden. Ebenso konnten die Auswirkungen von unterschiedlichen Substituenten auf die jeweiligen HOMO-/LUMO-Lagen näher untersucht werden. Die durchgeführten DSC- und TGA-Untersuchungen zeigen hohe morphologische und thermische Stabilität der Verbindungen, wobei Glasübergangstemperaturen > 211 °C, Schmelztemperaturen > 388 °C und Zersetzungstemperaturen > 453 °C gemessen wurden. Diese Werte sind höher als die bisher in der Literatur für ähnliche spiroverknüpfte Verbindungen berichteten. Als besonders interessant haben sich die unsymmetrischen donorfunktionalisierten Spiro-Perylencarboximide herausgestellt. Sie zeigen hohe Löslichkeit in gängigen Lösungsmitteln, sind bis zu einer Molmasse < 1227 g/mol aufdampfbar und bilden stabile, amorphe Schichten.
Resumo:
Der Kempter Wald ist aufgrund seiner großflächigen prioritären Lebensräume - den Hoch- und Übergangsmooren - aber auch den landesweit selten gewordenen und durch Nutzungsaufgabe bedrohten Streuwiesen und Flachmoorgesellschaften ein Landschaftsraum von herausragender naturschutzfachlicher Bedeutung. Ausgehend von der nach wie vor aktuellen Debatte um die Schutzgebietsausweisung im Kempter Wald wurde auf dem Gebiet der Marktgemeinde Unterthingau und der Gemeinde Kraftisried die vorhandene Grünlandvegetation auf Feuchtstandorten im Kempter Wald vegetationskundlich erfasst mit der Absicht, auf der Grundlage dieser Untersuchung exemplarisch ein Entwicklungskonzept für die Streu- und Feuchtwiesen zu erarbeiten. Erfasst wurden auf der Grundlage von insgesamt über 170 Vegetationsaufnahmen nach BRAUN-BLANQUET (1965) neben mehrschnittigem Wirtschaftsgrünland auf Feuchtstandorten ein- und zweischnittig genutzte Bachdistel-Wiesen, Pfeifengraswiesen in zwei unterschiedlichen Ausbildungen, Flachmoorgesellschaften auf eher basischen Standorten – das Davallseggen-Quellmoor – sowie im Kontaktbereich der Moore gelegene Kleinseggenrieder auf bodensauren Standorten - der Herzblatt-Braunseggensumpf. Sowohl in den Pfeifengraswiesen als auch in den Kleinseggensümpfen kennzeichnen Blöcke mit Fettwiesenarten in den Vegetationstabellen einen streuwiesenuntypischen Frühschnitt der Flächen im Sommer. Ein Grundkennartengerüst der jeweiligen Gesellschaften ist aber trotzdem bislang noch erhalten geblieben. Im zweiten Teil der Untersuchung wird ein Konzept für eine zukünftige Entwicklung der Streu- und Feuchtwiesennutzung vorgestellt. Das Entwicklungskonzept greift den hohen Stellenwert der offenen Flächen für die Naherholung und den Tourismus auf und versucht auf der Grundlage der beiden Bewertungsfaktoren „Arten- und Biotopschutz“ und „Erholungsnutzung“ Prioritäten für eine zukünftige Entwicklung herauszuarbeiten. So wird im Bereich der Haupterschließungswege der Erhalt der artenreichen Streu- und Feuchtwiesen als vorrangig erachtet. In abgelegenen, z. T. von Wald eingeschlossenen Streuwiesen oder im Randbereich der Hochmoore, kann dagegen für den Fall, dass eine Fortsetzung der Bewirtschaftung aufgrund ausbleibender Fördermittel gefährdet ist, eine natürliche Sukzession zugelassen werden. Isoliert inmitten intensiv genutzter Grünlandflächen gelegene Streuwiesen können sich bei Nutzungsaufgabe zu Feuchtwäldchen oder Feldgehölzen weiterentwickeln. Hinsichtlich der Streuwiesenpflege sollten die Schnittzeitpunkte insgesamt flexibler gehandhabt werden. Nasse Kleinseggenrieder können auch durch eine Mahd in größeren Zeitabständen von 2 bis 5 Jahren erhalten werden. In Randbereichen der Hochmoore sollte in Streuwiesenbrachen in größeren Zeitabständen (10 bis 20 Jahre) auflaufender Gehölzbestand entfernt werden um den Offenlandcharakter für bestimmte Tierartengruppen zu erhalten. In der Beweidung der Streuwiesen wird für Gebiete wie dem Kempter Wald keine realistische Alternative gesehen. Bei der großen Anzahl an Eigentümern und Pächtern ist die Organisation der Beweidung äußerst schwierig. Die Offenhaltung durch Beweidung erfordert außerdem eine gezielte Weideführung sowie die Nachmahd nicht abgefressener Nassbereiche. Eine Kosteneinsparung durch Beweidung erscheint daher eher unwahrscheinlich. Als ergänzende Maßnahmen werden für brachfallende Streuwiesen die Anlage von Kleingewässern sowie der Rückbau von Entwässerungsgräben vorgeschlagen.
Resumo:
Die empirische Studie untersucht das Wechselspiel zwischen der fachbezogenen Sprachentwicklung und dem Fachlernen von Schülerinnen und Schülern bei der Einführung in den Kraftbegriff. Sie betrachtet also sowohl sprachliche wie auch kognitive Aspekte des Lernens in der Mechanik. Dafür wurde ein Unterrichtskonzept entwickelt, das den Gebrauch des Fachwortes Kraft in der Wissenschaft und in der alltäglichen Sprache besonders thematisiert. Dieses Unterrichtskonzept basiert auf Empfehlungen und Ergebnissen der Kognitionspsychologie, Linguistik, Philosophie, Sprachlehrforschung und der Didaktiken der Physik und der Fremdsprachen. Im Rahmen des Unterrichts wurden die Schülerinnen und Schüler mit zwei Aufgabentypen konfrontiert: Beim ersten Aufgabentyp waren die Lerner aufgefordert, den Kraftbegriff so zu verwenden, wie es einer fachsprachlich angemessenen Form entspräche, etwa um die Bewegung eines Zuges zu beschreiben. Aufgaben des zweiten Typs sahen vor, dass die Schülerinnen und Schüler kurze Texte danach klassifizierten, ob sie der Alltagssprache oder der Fachsprache angehörten. Diese als Metadiskurs bezeichnete Form der Auseinandersetzung mit sprachlichen Aspekten verhalf den Schülerinnen und Schülern zu einer Gelegenheit, ihr eigenes Verständnis des Kraftbegriffs zu thematisieren. Weiter lieferte der Metadiskurs wichtige Hinweise darauf, ob die Schülerinnen und Schüler sich bei ihren Beurteilungen eher auf formal-sprachliche oder inhaltliche Aspekte der Sprache bezogen. Für die Datenerhebung wurden alle Unterrichtsstunden videografiert und transkribiert. Zusammen mit schriftlichen Arbeitsergebnissen und Tests stand ein umfangreicher Datensatz zur Verfügung, für dessen Auswertung ein inhaltsanalytisches Verfahren Anwendung fand. Die Ergebnisse zeigen, dass das Lernen im Fach Physik bestimmte Ähnlichkeiten mit dem Lernen einer Fremdsprache zeigt: Wenn die Schülerinnen und Schüler den Kraftbegriff fachsprachlich verwenden sollen, sehen sie sich oft einer Alternativentscheidung gegenüber. Entweder sie versuchen, einer fachsprachlichen Form zu gehorchen und verlieren dabei den Inhalt aus den Augen, oder sie konzentrieren sich auf den Inhalt, drücken sich dabei aber in ihrer Alltagssprache aus und folgen Alltagskonzepten, die weit entfernt von den fachlich intendierten liegen. Ähnliche Beobachtungen kann man im Sprachunterricht machen, wenn Schüler eine neue grammatische Regel einüben: Sie konzentrieren sich entweder auf die neu zu erlernende Regel, oder aber auf den Inhalt des Gesagten, wobei sie die grammatische Regel, die an sich Gegenstand der Übung ist, verletzen. Meistens fällt diese Entscheidung derart, dass die Konzentration auf den Inhalt des Gesagten gerichtet ist, nicht oder wenig auf seine Form. Im Unterschied zum Sprachunterricht ist der Physikunterricht allerdings nicht nur darauf gerichtet, fachsprachlich angemessene Formen einzuüben, sondern insbesondere darauf, den Blick für neue und ungewohnte Konzepte zu öffnen. Damit müssen die Schülerinnen und Schüler hier häufig sprachliche und kognitive Hürden zur selben Zeit bewältigen. Die detaillierte Analyse des Metadiskurses zeigt, dass das Problem des Nebeneinanders zweier unterschiedlicher Anforderung entschäft werden kann: Während die Schüler im Metadiskurs unterschiedliche Aspekte der Sprache diskutieren, sind sie eher in der Lage, sowohl formale wie inhaltsbezogene Merkmale der Sprache wahrzunehmen. Der Text referiert weitere Parallelen zwischen dem Physikunterricht und dem Fremdsprachenlernen, sodass die Auffassung gerechtfertigt ist, dass die Fremdsprachendidaktik als Ideenlieferantin dafür dienen kann, neue Verbesserungsmöglichkeiten für den Physikunterricht aufzufinden.
Resumo:
In Folge der Ergebnisse der PISA und IGLU Studien ist das Thema Diagnose und individuelle Förderung in die öffentliche Diskussion geraten. Vor diesem Hintergrund richtet sich im Herbst 2002 die Aufmerksamkeit der Arbeitsgruppe Wollring auf ein mathematikdidaktisches empirisches Forschungsprojekt in Australien: Early Numeracy Research Project (ENRP) (Clarke et al. 2002). Eine Besonderheit dieses Projektes besteht in der Eins-zu-eins-Situation zwischen Lehrer und Schüler bei einem Interview über Mathematik. Dieses Projekt bildet den Ausgangspunkt der vorliegenden Arbeit. Im ersten Kapitel wird das australische Projekt sowie seine Umsetzung in Deutschland vorgestellt. Ziel des Projektes ist es, die individuellen mathematischen Performanzen von Grund-schulkindern mit Hilfe eines Interviews in einer Eins-zu-eins-Situation des Schülers mit dem Lehrer (Schüler-Interview) zu erheben und damit mathematikdidaktische Orientierungshilfen für den Unterricht zu liefern. Das Schüler-Interview bestimmt den Lernstandort eines Kindes, der als Ausgangspunkt für eine Diagnose dienen kann. Daher werden unterschiedlichen Sichtweisen der Disziplinen – Psychologie, Medizin, Pädagogik, Sonderpädagogik und Fachdidaktik – in Hinblick auf den Begriff „Diagnose“ diskutiert. Die Durchführung von Schüler-Interviews kann neben ihrem diagnostischen Wert auch eine Bedeutung für die Professionalisierung von Lehrern einnehmen, da sie die Lehrer herausfordert, sich mit den Denk- und Lösungswege von Kindern aller Leistungsniveaus intensiv auseinanderzusetzen. In einer Studie von Steinberg et al. (2004, p. 238) wird deutlich, dass dieses Wissen des Lehrers sowohl als ein Index der Veränderung als auch als ein Mechanismus zur Veränderung des Unterrichts dient. In dieser Arbeit werden über den Zeitraum eines Jahres der Umgang der Lehrer mit dem Führen von Schüler-Interviews und den von ihnen daraus gewonnenen Erkenntnissen ausgewertet. Dabei werden mit den Lehrern nach einem halben und nach einem Jahr Erprobung mehrerer von ihnen selbst geführter Schüler-Interviews je ein Interview mit der Forscherin geführt, um herauszufinden, in welchen verschiedenen Bereichen das Führen von Schüler-Interviews den einzelnen Lehrern Unterstützung bietet. Die erhobenen Daten werden qualitativ mit Hilfe der Grounded Theory ausgewertet. Im empirischen Teil der Arbeit werden drei, der am Projekt beteiligten, Lehrerinnen in Form von Fallstudien vorgestellt und ausgewertet. Bei der Lehrerin, die Mathematik nicht als Fach studiert hat, besteht vor allem ein eigener Lernzuwachs in der Sicht auf Mathematik. Zu Beginn der Untersuchung hatte sie laut ihrer eigenen Aussagen eine eher ergebnisorientierte Sicht auf die Mathematik. Die Aussagen der drei Lehrerinnen beruhen auf einzelnen Schülern und ihren Besonderheiten. Im Laufe der Studie verallgemeinern sie ihre Erkenntnisse und beginnen Konsequenzen für ihren Unterricht aus den Schüler-Interviews zu folgern, wie sie in den abschließenden Interviews berichten. Das Schüler-Interview scheint dem Lehrer einen geschützten Raum zu bieten, um die Reflexion über die mathematischen Performanzen seiner Schüler und seinen eigenen Unterricht anzuregen, ohne ihn bloßzustellen und ohne ihm Vorschriften zu machen. Nach der einjährigen Erprobung von Schüler-Interviews betonen alle drei Lehrerinnen größeren Wert auf prozessorientiertes Mathematiklernen zu legen. Sie berichten, dass sie die Performanzen der Kinder stärker kompetenzorientiert wahrnehmen. Jedoch haben sie Schwierigkeiten, die für sich selbst gewonnene Transparenz über die mathematischen Performanzen des interviewten Kindes, den Schülern mitzuteilen und ihnen ermutigende Rückmeldungen zu geben. Außerdem können die Lehrer die problematischen mathematischen Bereiche der Schüler zwar beschreiben, sehen sich laut ihrer eigenen Aussage aber nicht in der Lage mit den Schülern daran zu arbeiten und sie angemessen zu för-dern. Selbst nach den ausführlichen Analysen der ausgewählten Lehrerinnen bleibt unklar, ob und in welcher Weise sie die Erkenntnisse aus dem Führen der Schüler-Interviews für ihren Unterricht nutzen. Laut der Aussage zweier beteiligter Lehrerinnen sollten Lehrer offen und interessiert sein und sich bereitwillig mit ihren eigenen Kompetenzen auseinandersetzen, damit das Führen von Schüler-Interviews für die Lehrer selbst und für die Schüler einen besonderen Nutzen besitzt. Um diese Auseinandersetzung stärker anzuregen und zu vermeiden, dass sich im Schüler-Interview mit dem Kind nicht die Einstellungen des Lehrers gegenüber den Leistungen des Schülers widerspiegeln, könnten sie vor Beginn des Führens von Schüler-Interviews verstärkt in der Ausbildung ihrer Interviewkompetenzen unterstützt und geschult werden. Obwohl sich die Lehrer zuerst Freiräume schaffen mussten, in denen sie trotz ihres Zeitmangels Schüler interviewen konnten, bietet das Führen von Schüler-Interviews die Chance, den Ist-Zustand der Schülerperformanzen in den mathematischen Bereichen Zahlen, Größen und Raum zu erfassen.
Resumo:
Begehbare Bilder: // „Ist die Moderne unsere Antike?“ Der moderne Themenpark ist beliebtes ‚Feindbild’ der Kulturkritik, die häufig verkennt, dass dessen Grundlagen gerade der Kultur entsprangen, die gegen ihn verteidigt werden soll. Die Analyse des modernen Themenparks zeigt, dass dessen wichtigsten Merkmale: Ästhetisierung, Simulation und Sensation schon in den repräsentativen Gärten des Barock angelegt und im Landschaftspark voll ausgebildet wurden. Nicht erst in Disney World wird die Welt zur Landschaft. Die Paradigmen für den modernen Themenpark sind zu Beginn der Moderne entwickelt worden und bilden den geschichtlichen Bezugspunkt für dominante Repräsentationsstrategien des modernen Lebens. // Die These wird am Beispiel des Bergparks Wilhelmshöhe bei Kassel, der seit der Renaissance immer wieder umgestaltet wurde, illustriert. Aus dieser Interpretation des modernen Themenparks wird eine Kritik an der Absicht, den Bergpark Wilhelmshöhe zu einem Museum zu machen, entfaltet. Der Bergpark hat eine Entwicklungsgeschichte und Motive, die zu jeder Zeit sowohl neue Sichtweisen, Interpretationen und Veränderungen erfuhren. Die Autoren wollen hierzu Einblicke geben und die Diskussion um Denkmalschutz und Perspektiven für den Park beleben.
Resumo:
Im Rahmen dieser Arbeit wurde mittels einer umfassenden und von einer Projektgruppe begleiteten Literaturanalyse sowie anhand von Praxiserhebungen der Frage nachgegangen, wie es um die Tiergesundheit in der ökologischen Schweinehaltung bestellt ist. Ferner wurde untersucht, ob die ökologischen Rahmenrichtlinien (EWG-VO 2092/91) ein Hemmnis für die Sicherstellung eines hohen Gesundheitsstatus der Nutztiere darstellen. Die Literaturauswertung ergab, dass die Erkrankungsraten sowohl auf ökologisch wie auf konventionell geführten Betrieben ein hohes Niveau aufwiesen. Die Ursachen wurden vorrangig in einem unzureichenden betrieblichen Management gesehen, während den EG-Rahmenrichtlinien in der Regel keine maßgebliche Bedeutung für den Gesundheitsstatus beigemessen wurde. In Praxiserhebungen wurde die Status-quo-Situation zur Tiergesundheit auf sechs ökologisch wirt- schaftenden Schweinemastbetrieben erfasst. Ferner wurde untersucht, inwieweit eine Verbesserung des Gesundheitsstatus auf den Betrieben mit einem Mehraufwand an Arbeitszeit und Investitionen verbunden ist. Hierzu wurden die Bereiche Haltung, Fütterung und Hygienemanagement mittels einer Schwachstellenanalyse (Hazard Analysis Critical Control Points-Konzept) beurteilt. Der Zeit- bedarf für Maßnahmen zur Gesundheitsvorsorge wurde durch Arbeitszeitaufzeichnungen erfasst. Die Untersuchungen zeigten, dass auf den Betrieben zum Teil erhebliche Mängel im Hygiene- management bestanden. Anhand von Schlachtkörperbefunden wurde eine hohe Rate pathologischer Leberveränderungen, verursacht durch Larven des Schweinespulwurms Ascaris suum, diagnosti- ziert. Insgesamt wiesen die Schlachtkörper der Tiere von den sechs Betrieben mit durchschnittlich 48,8 % sowie die Schlachtkörper von ökologischen Vergleichsbetrieben mit 63,9 % signifikant höhere Befundraten auf als die Schlachtkörper konventioneller Vergleichsbetriebe (17,4 %). Der Arbeitszeitbedarf für die Mastschweinehaltung auf den sechs Betrieben variierte zwischen 2,0 und 3,7 Arbeitskraftstunden pro Mastplatz und Jahr und lag damit deutlich höher als vergleichbare Literaturdaten. Zwischen den Betrieben traten hohe Unterschiede hinsichtlich der zeitlichen Aufwendungen für Hygiene- und Tiergesundheitsmaßnahmen auf. Während der Interventionsphase wurden das Entwurmungs- und das Hygieneregime der sechs Betriebe optimiert. Die Buchten wurden ordnungsgemäß gereinigt und desinfiziert und der erforderliche Arbeitszeitaufwand quantifiziert. Dieser lag zusammen mit den zusätzlichen Kosten um ca. 46 % höher als der betrieblich übliche Arbeitszeitaufwand. Betriebe mit neu konzipierten Ställen und glatten Buchtenböden und -wänden konnten diese mit vergleichsweise geringem Arbeitsaufwand reinigen und desinfizieren. In einigen Altgebäuden hingegen war aufgrund rauer und schadhafter Oberflächen eine ordnungsgemäße Reinigung und Desinfektion nur bedingt durchzuführen. Die Rate der Leberveränderungen am Schlachthof konnte von durchschnittlich 48,9 % auf 32,7 % gesenkt werden. Während sich die Befundraten auf einigen Betrieben signifikant verbesserten, trat bei der Nutzung von unrenovierten Ställen in Altgebäuden keine Besserung ein. Es wird geschlussfolgert, dass die Rahmenbedingungen der EG-Verordnung einem hohen Tiergesundheitsstatus nicht entgegen stehen, in der Regel jedoch mit einem erhöhten Aufwand für Hygienemaßnahmen verbunden sind. Voraussetzung für eine geringe Parasitenbelastung sind ein konsequent umgesetztes Hygiene- und Entwurmungsregime sowie gut zu reinigende Buchten. Letzteres ist allerdings bei der Nutzung von Altgebäuden nicht immer gegeben.
Resumo:
Kurzfassung: Der Markt für ökologische Lebensmittel wächst stark. Verbraucher kaufen Produkte aus ökologischem Landbau aus einer Vielzahl von Gründen. Ein Teil dieser Gründe lässt sich nicht auf die Produktqualität zurückführen, sondern beruht auf der Annahme, dass sich der Produktionsprozess des Ökologischen Landbaus hinsichtlich der Schonung von Umweltressourcen, der Nachhaltigkeit der Produktion und sozialen Komponenten vom konventionellen Anbau unterscheidet. Daneben spielt der Wunsch nach einer gesunden Ernährung eine Rolle. Ökologische Lebensmittel können als Vertrauensgüter verstanden werden. Lebensmittelskandale machten in den vergangenen Jahren auch vor ökologischen Lebens¬mitteln nicht Halt. Folgerichtig erschütterte dies das Vertrauen der Verbraucher in ökologische Produkte. Mit steigender Produktion könnte die Gefahr, das weitere solche Ereignisse auftreten, steigen. Daher besteht Bedarf für Methoden, die die ökologische Produktqualität im Sinne einer Authentizitätsprüfung prüfen. Eine solche Prüfung könnte sich auf die Analyse sekundärer Pflanzenstoffe stützen. Diese Gruppe von Pflanzeninhaltsstoffen spielt bei der Diskussion um die besondere Qualität ökologischer Pflanzenprodukte eine große Rolle. Postuliert wird, dass ökologisch angebaute Pflanzen mangels mineralischer Düngung und mangels Schädlingsbekämpfung mit synthetischen Pestiziden einem erhöhten Stress ausgesetzt sind. Dies soll sich in einem höheren Niveau der mit den Selbstverteidigungsmechanismen der Pflanze eng verbundenen sekundären Pflanzenstoffe ausdrücken. Wichtige Untergruppen der sekundären Pflanzenstoffe sind Carotinoide und Polyphenole. An Weizen (Triticum aestivum L. und Triticum durum L.) und Möhre (Daucus carota L.) als für den ökologischen Landbau wichtigen Produkten wurden Messungen der Carotinoid- und Polyphenolkonzentration mit dem Ziel durchgeführt, die potentielle Eignung dieser Pflanzenstoffe als Biomarker zur Authentizitätsprüfung ökologischer Produkte zu evaluieren. Dazu wurden Proben aus ökologischem und konventionellem Anbau (Paarvergleich) untersucht. Diese stammten aus Langzeit-Feldversuchen (Weizen aus dem DOK- und dem MASCOT-Versuch), Feldversuchen und von Betriebspaaren untersucht. Ein generell höheres Niveau sekundärer Pflanzenstoffe in Möhren bzw. Weizen aus ökologischem Anbau gegenüber Proben aus konventionellem Anbau wurde nicht gefunden. Die Carotinoide waren weder bei der Möhre noch beim Weizen zur Authentizitätsprüfung geeignet. Die Konzentration der Carotinoide wurde stark durch die nicht dem Anbau¬verfahren zuzuordnenden Faktoren Klima, Sorte und Standort beeinflusst. Die Luteinkonzentration war das einzige durch das Anbauverfahren systematisch beeinflusste Carotenoid bei Weizen und Möhre. Die Unterschiede der Luteinkonzentration waren aber im Paarvergleich von Proben (ökologischer versus konventioneller Anbau) nicht durchgängig signifikant. Die Eignung von Polyphenolen als potentielles Authentizitätskriterium wurde nur an Möhren geprüft. Im Paarvergleich unterschieden sich die Konzentrationen einzelner Polyphenole signifikant und konsistent über Probenjahre und Standorte, nicht jedoch über Sorten hinweg. Wie bei den Carotinoiden konnte auch hier ein starker Einfluss von Probenjahr, Standort und Sorte gezeigt werden. Trotz der Variation durch diese nicht dem Anbau zuzuordnenden Faktoren war eine korrekte Klassifizierung der Proben nach Anbauverfahren möglich. Dies wurde mittels Diskriminanzanalyse getestet. Die Polyphenole sind daher potentiell als Authentizitätskriterium geeignet.
Resumo:
Die vorliegende Arbeit berichtet über ein neuartiges, kombiniertes Messverfahren zur gleichzeitigen Erfassung von Form und Material einer glänzenden Probenoberfläche. Die Materialerkennung erfolgt über die polarisationsoptische Brechzahlbestimmung im Messpunkt mit Mikroellipsometrie. Die Mikroellipsometrie ist ein fokussierendes Ellipsometer, das aus der Polarisationsänderung, bedingt durch die Wechselwirkung Licht – Materie, die materialcharakteristische komplexe Brechzahl eines reflektierenden Materials ermitteln kann. Bei der fokussierenden Ellipsometrie ist die Anordnung der fokussierenden Optiken von Bedeutung. Die hier vorgestellte ellipsometerexterne Fokussierung vermeidet Messfehler durch optische Anisotropien und ermöglicht die multispektrale ellipsometrische Messung. Für die ellipsometrische Brechzahlbestimmung ist zwingend die Kenntnis des Einfallswinkels des Messstrahls und die räumliche Orientierung der Oberflächenneigung zum Koordinatensystem des Ellipsometers notwendig. Die Oberflächenneigung wird mit einem Deflektometer ermittelt, das speziell für den Einsatz in Kombination mit der Ellipsometrie entwickelt wurde. Aus der lokalen Oberflächenneigung kann die Topographie einer Probe rekonstruiert werden. Der Einfallswinkel ist ebenfalls aus den Oberflächenneigungen ableitbar. Die Arbeit stellt die Systemtheorie der beiden kombinierten Messverfahren vor, außerdem werden Beiträge zu Messunsicherheiten diskutiert. Der experimentelle Teil der Arbeit beinhaltet die separate Untersuchung zur Leistungsfähigkeit der beiden zu kombinierenden Messverfahren. Die experimentellen Ergebnisse erlauben die Schlussfolgerung, dass ein Mikro-Deflexions-Ellipsometer erfolgreich realisierbar ist.
Resumo:
Recently Itatani et al. [Nature 432, 876 (2004)] introduced the new concept of molecular orbital tomography, where high harmonic generation (HHG) is used to image electronic wave functions. We describe an alternative reconstruction form, using momentum instead of dipole matrix elements for the electron recombination step in HHG. We show that using this velocity-form reconstruction, one obtains better results than using the original length-form reconstruction. We provide numerical evidence for our claim that one has to resort to extremely short pulses to perform the reconstruction for an orbital with arbitrary symmetry. The numerical evidence is based on the exact solution of the time-dependent Schrödinger equation for 2D model systems to simulate the experiment. Furthermore we show that in the case of cylindrically symmetric orbitals, such as the N2 orbital that was reconstructed in the original work, one can obtain the full 3D wave function and not only a 2D projection of it. Vor kurzem führten Itatani et al. [Nature 432, 876 (2004)] das Konzept der Molelkülorbital-Tomographie ein. Hierbei wird die Erzeugung hoher Harmonischer verwendet, um Bilder von elektronischen Wellenfunktionen zu gewinnen. Wir beschreiben eine alternative Form der Rekonstruktion, die auf Impuls- statt Dipol-Matrixelementen für den Rekombinationsschritt bei der Erzeugung der Harmonischen basiert. Wir zeigen, dass diese "Geschwindigkeitsform" der Rekonstruktion bessere Ergebnisse als die ursprüngliche "Längenform" liefert. Wir zeigen numerische Beweise für unsere Behauptung, dass man zu extrem kurzen Laserpulsen gehen muss, um Orbitale mit beliebiger Symmetrie zu rekonstruieren. Diese Ergebnisse basieren auf der exakten Lösung der zeitabhängigen Schrödingergleichung für 2D-Modellsysteme. Wir zeigen ferner, dass für zylindersymmetrische Orbitale wie das N2-Orbital, welches in der oben zitierten Arbeit rekonstruiert wurde, das volle 3D-Orbital rekonstruiert werden kann, nicht nur seine 2D-Projektion.
Resumo:
Simulation hat sich in der Vergangenheit als unterstützendes Planungsinstrument und Prognosemethode zur Untersuchung von Materialflusssystemen in verschiedenen Branchen etabliert. Dafür werden neben Simulationswerkzeugen auch zunehmend Virtual Reality (VR), insbesondere mit dem Ansatz Digitale Fabrik, eingesetzt. Ein Materialflusssimulator, der für den VR–Einsatz geeignet ist,existiert noch nicht, so dass Anwender gegenwärtig mit verschiedenen Systemen arbeiten müssen, um Untersuchungen eines Simulationsmodells in einem VR–Umfeld wie beispielsweise in einem CAVE zu ermöglichen. Zeitlicher Aufwand ist dadurch vorprogrammiert und das Auftreten von Fehlern bei der Konvertierung des Simulationsmodells möglich. Da auch der hauseigene Materialflusssimulator SIMFLEX/3D nicht für beide Anwendungsgebiete genutzt werden kann und für einen solchen Einsatz mit sehr hohem Aufwand angepasst werden müsste, wurde stattdessen ein neues Simulationssystem entworfen. Das Simulationssystem wird in der vorliegenden Arbeit als ein interoperables und offenes System beschrieben, das über eine flexible Softwarearchitektur verfügt und in einem vernetzten Umfeld mit anderen Werkzeugen Daten austauschen kann. Die grundlegende Idee besteht darin, eine flexible Softwarearchitektur zu entwerfen, die zunächst interaktive und ereignisorientierte 3D–Simulation erlaubt, aber zusätzlich für andere Anwendungszwecke offen gehalten wird. Durch den offenen Ansatz können Erweiterungen, die in Form von Plugins entwickelt werden, mit geringem Aufwand in das System integriert werden, wodurch eine hohe Flexibilität des Systems erreicht wird. Für interoperable Zwecke werden Softwaremodule vorgestellt, die optional eingesetzt werden können und standardisierte Formate wie bspw. XML benutzen. Mit dem neuen Simulationssystem wird die Lücke zwischen Desktop– und VR–Einsatz geschlossen und aus diesem Grund der Zeitaufwand und Fehlerquellen reduziert. Darüber hinaus ermöglicht der offene Ansatz, das Simulationssystem rollen- und aufgabenspezifisch anzupassen, indem die erforderlichen Plugins bereitgestellt werden. Aus diesem Grund kann das Simulationssystem mit sehr geringem Aufwand um weitere Untersuchungsschwerpunkte wie beispielsweise Avatare ergänzt werden. Erste Untersuchungen in einem CAVE wurden erfolgreich durchgeführt. Für die Digitale Fabrik kann der Prototyp eingesetzt werden, um die Produktionsplanung mit Hilfe der Simulation und die Entwicklung mit Hilfe der entwickelten Viewer zu unterstützen. Letzteres ist möglich, da die Viewer zahlreiche CAD–Formate lesen und um weitere Formate ergänzt werden können. Das entwickelte System ist für den Einsatz in verschiedenen Prozessen einer Wertschöpfungskette geeignet,um es als Untersuchungs-, Kommunikations- und Steuerungswerkzeug einzusetzen.
Resumo:
Hintergrund und Ziel: Ausgehend von einem Forschungsdefizit im Bereich von Performance-Tests, das von der Arbeitsgruppe um Bührlen et al. (2002) gekennzeichnet wurde, war es das Ziel der Arbeit einen Performance-Tests of lower limb activities (Polla) zu validieren. Methode: In einer Längsschnittstudie wurden die Ergebnisse einer sechswöchigen physiotherapeutischen Behandlung an einem 19-75jährigem orthopädisch-traumatologisch orientierten Patientenkollektiv (n=81) mit dem Polla und dem SF-36 Fragebogen erfasst. Ergebnisse: Die Ergebnisse machen eine gute Absicherung der Teststatistik deutlich. Bei ausgezeichneter Intrarater- (n=29) sowie guter Interrater-Reliabilität (n=32) weist die Konsistenzanalyse eine zufrieden stellende Zuverlässigkeit auf. Die Kriteriumsvalidität macht moderate Zusammenhänge zwischen dem Polla und den Dimensionen Schmerz, Körperliche Rollenfunktion und Körperliche Funktionsfähigkeit des SF-36 deutlich. Über die Standardized Response Mean zeigen die Instrumente eine große Änderungssensitivität, die nur für den Polla auch zum Follow-up (n=26) gilt. Schlussfolgerung: Der Polla ist ein kostenloses Testverfahren mit hoher praktischer Relevanz, wobei aus zeitökonomischen Gründen eine modifizierte Form des Polla mit nur zehn Items und einem gemessenen Test zu empfehlen ist.