124 resultados para Das Weisse Band : eine deutsche Kindergeschichte (elokuva)


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Die tropischen Anden sind eines der artenreichsten Gebiete der Erde. Fast die Hälfte der 45.000 in diesem Gebiet vorkommenden Gefäßpflanzenarten sind in den Anden endemisch (Myers et al. 2000). Die Gattung Fosterella (Bromeliaceae) ist eine den Anden zugeordnete Pflanzengruppe, denn die meisten ihrer 31 Arten kommen in den Anden vor. Achtzehn Arten sind kleinräumige Endemiten. Fosterella hat damit Modellcharakter für diese Region. In der vorliegenden Arbeit wurde die Evolution der Gattung in Raum und Zeit mithilfe der vergleichenden Sequenzierung von sechs plastidären Loci (atpB-rbcL, matK, psbB-psbH, rpl32-trnL, rps16-trnK, rps16-Intron) und einem nukleären Marker (PHYC) untersucht. Es wurden über 90 Akzessionen von 24 Fosterella-Arten untersucht. Mit 5,6 % informativer Merkmale innerhalb der Gattung war rpl32-trnL der informativste Chloroplastenmarker. Es wurden mit den kombinierten Sequenzdaten eine Maximum Parsimony-, eine Maximum Likelihood- und eine Bayes´sche Analyse berechnet. Weiterhin wurden biogeographische und ultrametrische Untersuchungen durchgeführt. Die 6-Locus-Phylogenie zeigt eine Aufteilung der monophyletischen Gattung Fosterella in sechs Gruppen, von denen vier – die penduliflora-, weddelliana-, weberbaueri- und micrantha-Gruppe - klar monophyletisch und gut gestützt sind. Die albicans- und die rusbyi-Gruppe bilden hingegen einen Komplex. Ultrametrische Analysen legen ein Alter der Gattung von ca. 9,6 Mio. Jahren nahe. Der geographische Ursprung von Fosterella befindet sich nach den vorliegenden biogeographischen Analysen in den Anden und nach der Biom-Analyse zu gleicher Wahrscheinlichkeit entweder in andinen Trockenwäldern (seasonally dry tropical forests, SDTFs) oder in azonalen Standorten des amazonischen Tieflands östlich der Anden. Es gab mehrere Ausbreitungsereignisse, von denen die beiden Fernausbreitungsereignisse nach Mittelamerika (F. micrantha) und in das zentrale Amazonasgebiet (F. batistana) die auffälligsten sind. Die feuchten Bergregenwälder (Yungas) der Anden wurden offenbar mehrfach unabhängig von Fosterella-Arten besiedelt. Insgesamt wurden elf nukleäre Marker (XDH, GS, RPB2, MS, ADH, MS, GLO/PI, CHS, FLO/LFY, NIAi3 und PHYC) auf ihre Anwendbarkeit für molekularsystematische Studien in Fosterella getestet. Davon konnten acht Marker erfolgreich mithilfe einer PCR amplifiziert werden. Die Fragmentgrößen lagen zwischen 350 bp und 1.500 bp. Nur für drei Loci (FLO/LFY, NIAi3 und PHYC) konnten lesbare DNA-Sequenzen in Fosterella erzeugt werden. FLO/LFY zeigte nur 1,5 % Variabilität innerhalb der Gattung. Der NIA-Locus erzeugte bei der Amplifikation mehrere Fragmente, die separat voneinander sequenziert wurden. Der Locus PHYC konnte hingegen aufgrund der guten Amplifizier- und Sequenzierbarkeit für das gesamte Probenset sequenziert werden. Dieser Marker zeigte eine Variabilität innerhalb der Gattung von 10,2 %, davon waren 6,8 % informativ. In der Phylogenie basierend auf PHYC ist Fosterella klar monophyletisch, innerhalb der Gattung zeigt sich jedoch an der Basis eine unaufgelöste Polytomie. Es lassen sich neun mehr oder weniger gut gestützte Artengruppen definieren – rusbyi-, villosula-, albicans-, weddelliana-, penduliflora-, weberbaueri-, micrantha-, robertreadii- und spectabilis-Gruppe - die sich in ihrer Zusammensetzung mit Ausnahme der weddelliana-Gruppe von den nach Chloroplastendaten definierten Gruppen unterscheiden. Viele Arten sind para- oder polyphyletisch, so z. B. F. albicans, F. penduliflora und F. rusbyi. Bei den beiden erstgenannten Arten weisen die unterschiedlichen Stellungen in Chloroplasten- und Kernphylogenie auf Hybridisierungsereignisse hin.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Zur Sicherung von Handlungsspielräumen der Kommunalverwaltungen auch unter dem Vorzeichen geänderter Rahmenbedingungen wie der prognostizierten demographischen Entwicklung in Deutschland erscheint es fraglich, ob die fortgesetzte Anwendung der bisherigen binnenorientierten Modernisierungsstrategie nachhaltig erfolgversprechend ist oder ob andere Konzepte über mehr Potenzial zur weiteren Leistungssteigerung der kommunalen Verwaltung verfügen. Zur Beantwortung dieser Frage wurde eine Pilot-Studie durchgeführt, die neben einer Literaturdurchsicht aus der Analyse von 9 Experteninterviews und einer Analyse von 3 typischen Beispielen einer IKZ besteht. Die Analyse der aktuellen Rahmenbedingungen deutscher Kommunalverwaltungen zeigt dynamische Veränderungen. Diese erzeugen Veränderungsdruck auf die Kommunalverwaltungen, um die Leistungsfähigkeit bei der Aufgabenerledigung zu sichern und zu verbessern. Als Modernisierungskonzepte können die Gebiets- und Funktionalreform, die Binnenmodernisierung, die Wettbewerbsstrategie sowie Formen der Zusammenarbeit unterschieden werden. Die Potenziale von territorialen Reformen, Binnenmodernisierung und Wettbewerb scheinen jedoch weitgehend ausgeschöpft zu sein, an Dynamik verloren zu haben oder anderen Restriktionen zu begegnen. Es wird daher untersucht, ob die IKZ weitere Möglichkeiten zur Steigerung von Effektivität und Effizienz des kommunalen Verwaltungshandelns bietet. Das Potenzial von Kooperationen und kooperationsfördernde Aspekte wurden unter Zugrundelegung von Erkenntnissen der Rational-Choice-Theorie bzw. der Public-Choice-Theorie betrachtet. Daneben wurden hochrangige Experten aus der deutschen Verwaltungspraxis zu den Möglichkeiten der Leistungssteigerung von Kommunalverwaltungen befragt. Die Experten waren übereinstimmend der Auffassung, dass eine Leistungssteigerung der Kommunalverwaltung durch Interkommunale Kooperationen eintreten könne. Nach Auffassung der Experten ist es für den Erfolg von Kooperationsvorhaben allerdings notwendig, dass die Interkommunale Kooperation durch die Verwaltungsleitung nachdrücklich unterstützt wird. Die Bereitschaft der Kommunen kann nach Expertenmeinung durch das jeweilige Land und von den kommunalen Spitzenverbänden durch Beratungsmaßnahmen, Beseitigung noch bestehender rechtlicher Hürden oder auch finanzieller Anreize gefördert werden. Zusätzlich wurden 3 Beispiele verschiedener IKZ-Projekte in die Studie einbezogen. Aus diesen Erfahrungen ergibt sich bezüglich der Einschätzung von IKZ eine Bestätigung der Expertenmeinungen. Im Gesamtergebnis dieser Pilot-Studie zeigt sich, dass Interkommunale Kooperationen ein großes Potenzial für die Verwaltungsmodernisierung umfassen, das von einigen Kommunen bereits genutzt wird. Die Erkenntnisse aus dieser Vorstudie könnten als Planungsgrundlage für eine vertiefende Untersuchung dienen. Zentrale Aufgabe einer weiterführenden Untersuchung wäre es, harte Daten zur Effektivität und Effizienz von IKZ zu generieren, um durch diese Daten den Nutzen der IKZ nachzuweisen und dadurch die Akzeptanz der IKZ zu fördern.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Diese wissenschaftliche Examensarbeit beschäftigt sich mit der Frage, welche Rolle die Intuition beim Mathematischen Modellieren spielt. Da bisher kaum Erkenntnisse zu diesem Thema in der Welt der Mathematik existieren, findet hierzu eine empirische Annäherung in Form von Befragungen, Beobachtungen und Interviews von einer Gruppe von Schülern und Schülerinnen an einer Schule statt. Der erste theoretische Ausarbeitungsteil wird die Frage beantworten, was unter Intuition zu verstehen ist und wie dieser Begriff einzuordnen ist. Im zweiten Theorieteil wird das Mathematische Modellieren erklärt. Hierzu wird ein kurzer Überblick über die Aspekte der Begriffserklärung, des Prozesses und der Entwicklung von Aufgaben beim Mathematischen Modellieren gegeben. Dies soll dazu führen, dass sich der Leser/ die Leserin unter dem Mathematischen Modellieren und deren Bedeutung in der Welt der Mathematik etwas vorstellen kann. Im dritten Theorieteil werden die bisherigen empirischen Erkenntnisse im Bereich der Mathematik und der Intuition vorgestellt. Seitens des Mathematischen Modellierens kann lediglich auf eine empirische Quelle eingegangen werden, da die Intuition in diesem Bereich bisher kaum untersucht wurde. Im zweiten Kapitel dieser Arbeit werden die methodologischen und methodischen Grundlagen der empirischen Annäherung dargestellt. Innerhalb dieses Kapitels sind auch die von mir entwickelten und eingesetzten Fragebögen, die Fragen des Leitfadeninterviews und die Modellierungs-aufgaben samt ihrer stoffdidaktischen Analyse zu finden. Des Weiteren befindet sich hier der Zeitplan der Untersuchung und die Darstellung über die von mir verwendeten Auswertungsmethoden der empirischen Annäherung. Das dritte Kapitel gibt einen Überblick über meine gewonnenen Ergebnis-se und geht speziell auf die von mir aufgestellten Hypothesengenerierungen ein. Des Weiteren wird an Hand eines Fallbeispieles mein Vorgehen bei der Datenauswertung exemplarisch und detailliert erläutert. Im letzten Kapitel dieser wissenschaftlichen Examensarbeit findet eine Zusammenfassung aller wichtigen Erkenntnisse statt. Hier wird auch erklärt, ob Intuition beim Mathematischen Modellieren erkennbar ist oder nicht. Wenn ja, welche Rolle die Intuition beim Mathematischen Modellieren spielt und wie sich die Intuition beim Mathematischen Modellieren erkennen lässt. Darüber hinaus werden Perspektiven für eine mögliche vertiefende Untersuchung aufgezeigt.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Es ist bekannt, dass die Umsatzdynamik der organischen Substanz von der Bodenbearbeitungsintensität abhängt. Bis jetzt sind nur wenige Daten zum Einfluss der Bearbeitungsintensität und des Zwischenfruchtanbaus auf C-, N-, und P-Dynamik im Ober- (0-5 cm Tiefe) und Unterboden (5-25 cm Tiefe) von Lössböden verfügbar. Hauptziele dieser Arbeit waren die (i) Quantifizierung des Einflusses von verschiedenen langzeitig durchgeführten Bearbeitungssystemen auf labile, intermediäre, und passive C- und N-Pools; (ii) Quantifizierung des Einflusses dieser Systeme auf P-Fraktionen mit unterschiedlicher Verfügbarkeit für die Pflanzenaufnahme; (iii) Quantifizierung des Einflusses des Zwischenfruchtanbaus in Verbindung mit einer unterschiedlichen Einarbeitungstiefe der der Zwischenfrüchte auf mineralisierbares C und N. Die Ergebnisse des 1. und 2. Teilexperiments basieren auf Untersuchungen von 4 Langzeitfeldexperimenten (LFE) in Ost- und Süddeutschland, die zwischen 1990 und 1997 durch das Institut für Zuckerrübenforschung angelegt wurden. Jedes LFE umfasst 3 Bearbeitungssysteme: konventionelle Bearbeitung (CT), reduzierte Bearbeitung (RT) und Direktsaat (NT). Die Ergebnisse des 3. Teilexperiments basieren auf einem Inkubationsexperiment. Entsprechend den Hauptfragestellungen wurden folgende Untersuchungsergebnisse beschrieben: (i) Im Oberboden von NT wurden höhere labile C-Vorräte gefunden (C: 1.76 t ha-1, N: 166 kg ha-1), verglichen mit CT (C: 0.44 t ha-1, N: 52 kg ha-1). Im Gegensatz dazu waren die labile- C-Vorräte höher im Unterboden von CT mit 2.68 t ha-1 verglichen zu NT mit 2 t ha-1 und RT mit 1.87 t ha-1. Die intermediären C-Vorräte betrugen 73-85% der gesamten organischen C-Vorräte, intermediäre N-Vorräte betrugen 70-95% des Gesamt-N im Ober- und Unterboden und waren vielfach größer als die labilen und passiven C- und N-Vorräte. Nur im Oberboden konnte ein Effekt der Bearbeitungsintensität auf die intermediären N-Pools mit höheren Vorräten unter NT als CT festgestellt werden. Die passiven C- und N-Pools waren eng mit den mineralischen Bodeneigenschaften verbunden und unabhängig vom Bearbeitungssystem. Insgesamt hat sich gezeigt, dass 14 bis 22 Jahre durchgängige Direktsaatverfahren nur im Oberboden zu höheren labilen C- und N-Vorräten führen, verglichen zu konventionellen Systemen. Dies lässt eine tiefenabhängige Stärke der Dynamik der organischen Bodensubstanz vermuten. (ii) Die Konzentration des Gesamt-P (Pt) im Oberboden war höher in NT (792 mg kg-1) und ~15% höher als die Pt-Konzentration in CT (691 mg kg 1). Die Abnahme der Pt-Konzentration mit zunehmender Bodentiefe war höher in NT als in CT. Dies gilt auch für die einzelnen P-Fraktionen, ausgenommen der stabilsten P-Fraktion (residual-P). Generell hatte das Bearbeitungssystem nur einen kleinen Einfluss auf die P-Konzentration mit höheren Pt-Konzentrationen in Böden unter NT als CT. Dies resultiert vermutlich aus der flacheren Einarbeitung der Pflanzenreste als in CT. (iii) Im Zwischenfruchtexperiment war der Biomassezuwachs von Senf am höchsten und nimmt in der Reihenfolge ab (oberirdischer Ertrag in t / ha): Senf (7.0 t ha-1) > Phacelia (5.7 t ha-1) > Ölrettich (4.4 t ha-1). Damit war potentiell mineralisierbares C und N am höchsten in Böden mit Senfbewuchs. Kumulative CO2- und N2O-Emissionen während der Inkubation unterschieden sich nicht signifikant zwischen den Zwischenfruchtvarianten und waren unabhängig von der Verteilung der Pflanzenreste im Boden. Die kumulativen ausgewaschenen mineralisierten N (Nmin)-Vorräte waren in den brachliegenden Böden am höchsten. Die Nmin-Vorräte waren 51-72% niedriger in den Varianten mit Zwischenfrucht und Einarbeitung verglichen zur Brache. In den Varianten ohne Einarbeitung waren die Nmin-Vorräte 36-55% niedriger verglichen zur Brache. Dies weißt auf einen deutlichen Beitrag von Zwischenfrüchten zur Reduzierung von Nitrat-Auswaschung zwischen Winter und Frühjahr hin. Insgesamt führte reduzierte Bearbeitung zu einer Sequestrierung von C und N im Boden und der Zwischenfruchtanbau führte zu reduzierten N-Verlusten. Die P-Verfügbarkeit war höher unter Direktsaat verglichen zur konventionellen Bearbeitung. Diese Ergebnisse resultieren aus den höheren Konzentrationen der OS in den reduzierten, als in den konventionellen Systemen. Die Ergebnisse zeigen deutlich das Potential von reduzierter Bearbeitung zur Sequestrierung von intermediärem C und N zur Reduzierung von klimarelevanten Treibhausgasen. Gleichzeitig steigen die Konzentrationen an pflanzenverfügaren P-Gehalten. Zwischenfrüchte führen auch zu einem Anstieg der C- und N-Vorräte im Boden, offensichtlich unabhängig von der Zwischenfruchtart.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Das Ziel der vorliegenden Arbeit war die Herstellung und Charakterisierung mikromechanisch durchstimmbarer, dielektrischer Fabry-Pérot-Filter im nahen Infrarot-Bereich bei einer Zentralwellenlänge von λc = 950 nm. Diese Bauelemente wurden auf Basis kostengünstiger Technologien realisiert, dank deren Entwicklung extreme Miniaturisierung und gleichzeitig hohe spektrale Anforderungen möglich sind. Der Vorteil solcher Filter liegt darin, dass sie direkt in einen Photodetektor integriert werden können und mit ganz wenigen Komponenten zu einem kompakten Spektrometermodul zusammengesetzt werden können. Die Baugröße ist nur durch die Größe des Photodetektors limitiert und die gesamte Intensität des einfallenden Lichts kann vorteilhaft auf eine einzelne Filtermembran des Fabry-Pérot-Filters fokussiert werden. Für den Filteraufbau werden zwei hochreflektierende, dielektrische DBR-Spiegel, ein organisches Opferschichtmaterial, welches zur Erzeugung einer Luftkavität im Filter dient, und zwei unterschiedliche Elektroden aus ITO und Aluminium verwendet. Die mikromechanische Auslenkung der freigelegten Filtermembran geschieht mittels elektrostatischer Aktuation, wobei auf diese Weise die Kavitätshöhe des Fabry-Pérot-Filters geändert wird und somit dieser im erforderlichen Spektralbereich optisch durchgestimmt wird. Das in dieser Arbeit gewählte Filterkonzept stellt eine Weiterentwicklung eines bereits bestehenden Filterkonzepts für den sichtbaren Spektralbereich dar. Zum Einen wurden in dieser Arbeit das vertikale und das laterale Design der Filterstrukturen geändert. Eine entscheidende Änderung lag im mikromechanisch beweglichen Teil des Fabry-Pérot-Filters. Dieser schließt den oberen DBR-Spiegel und ein aus dielektrischen Schichten und der oberen Aluminium-Elektrode bestehendes Membranhaltesystem ein, welches später durch Entfernung der Opferschicht freigelegt wird. Die Fläche des DBR-Spiegels wurde auf die Fläche der Filtermembran reduziert und auf dem Membranhaltesystem positioniert. Zum Anderen wurde im Rahmen dieser Arbeit der vertikale Schichtaufbau des Membranhaltesystems variiert und der Einfluss der gewählten Materialien auf die Krümmung der freistehenden Filterstrukturen, auf das Aktuationsverhalten und auf die spektralen Eigenschaften des gesamten Filters untersucht. Der Einfluss der mechanischen Eigenschaften dieser Materialien spielt nämlich eine bedeutende Rolle bei der Erhaltung der erforderlichen optischen Eigenschaften des gesamten Filters. Bevor Fabry-Pérot-Filter ausgeführt wurden, wurde die mechanische Spannung in den einzelnen Materialien des Membranhaltesystems bestimmt. Für die Messung wurde Substratkrümmungsmethode angewendet. Es wurde gezeigt, dass die Plasmaanregungsfrequenzen der plasmaunterstützten chemischen Gasphasenabscheidung bei einer Prozesstemperatur von 120 °C die mechanische Spannung von Si3N4 enorm beeinflussen. Diese Ergebnisse wurden im Membranhaltesystem umgesetzt, wobei verschiedene Filter mit unterschiedlichen mechanischen Eigenschaften des Membranhaltesystems gezeigt wurden. Darüber hinaus wurden optische Eigenschaften der Filter unter dem Einfluss des lateralen Designs der Filterstrukturen untersucht. Bei den realisierten Filtern wurden ein optischer Durchstimmbereich von ca. 70 nm und eine spektrale Auflösung von 5 nm erreicht. Die erreichte Intensität der Transmissionslinie liegt bei 45-60%. Diese Parameter haben für den späteren spektroskopischen Einsatz der realisierten Fabry-Pérot-Filter eine hohe Bedeutung. Die Anwendung soll erstmalig in einem „Proof of Concept“ stattfinden, wobei damit die Oberflächentemperatur eines GaAs-Wafers über die Messung der spektralen Lage seiner Bandlücke bestimmt werden kann.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

WIR SIND WIEDER WER konnte es in den fünfziger Jahren in Kassel heißen. Kassel war aber nicht nur eine Metropole der fünfziger Jahre, nein, sie ist auch heute noch eine Metropole der Fünfziger-Jahre-Architektur. Die wichtigen Impulse und Theorien für die deutsche Architektur der fünfziger Jahre werden, neben den Erfahrungen durch Reisen der Architekten ins umliegende Ausland, vor allem durch die Architekturzeitschriften verbreitet, aber natürlich liegt es auch vielfach an den Baumaterialien, die vorhanden sind, wie gebaut wird. Der Stahlbetonskelettbau, verkleidet mit Naturstein oder verputzt, wird zunächst die führende Bauweise. Die dadurch entstehenden Raster oder Rahmen werden auch dort aufgegriffen, wo sie nicht zwingend entstehen, und sind somit ein typisches Merkmal der Repräsentationsarchitektur der fünfziger Jahre. Accessoires, gefordert durch die gesellschaftlichen Einflüsse, werden im und am Bau in Form von Einrichtungsgegenständen, Treppen, transluzenten Wänden und Kunst-am-Bau bedient. Der bereits von dem niederländischen Architekten Oud fünfzehn Jahre zuvor geprägte Stilbegriff `poetischer Funktionalismus´ beschreibt nicht nur das Werk, sondern eben auch die Intention der Architekten der damaligen Zeit, den Aufbruch in eine helle, leichte und demokratische Zukunft sichtbar zu machen. Die säkulare Repräsentationsarchitektur ist in Kassel daher eindeutig ortstypisch und der bislang empfundene Pluralismus keine Unentschlossenheit, sondern eben die prägende Eigenart dieses Stils. Anhand von über 70 detailliert beschriebenen Gebäuden werden die aufgestellten Thesen und Schlussfolgerungen dargelegt. 14 Architektenportraits, eine, die Repräsentationsgebäude in Kassel im internationalen Vergleich darstellende Tabelle und 220, zum großen Teil selbstangefertigte Abbildungen runden neben einem großen Übersichtsplan diese Arbeit ab.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Das Ernährungsverhalten einer Bevölkerung hat einen wesentlichen Einfluss auf das Wohlbefinden, die Gesundheit und Leistungsfähigkeit der Menschen. Ernährungsbedingte, chronische Erkrankungen weisen in den westlichen Industrienationen eine hohe Inzidenz und Prävalenz auf. Präventionsmaßnahmen im Setting Schule sollen das Ernährungsverhalten der Kinder- und Jugendlichen positiv beeinflussen. Gerade in diesem Setting können Personen mit unterschiedlichem sozioökonomischem Status, sowie Personen aus diversen Lebensbereichen angesprochen werden. Der Ernährungsführerschein (EFS) ist eine schulbasierte Primärpräventions-maßnahme, der in der 3. Jahrgangsstufe/Grundschule durchgeführt wird. In 6 – 7 Unterrichtseinheiten erfolgt eine praxisnahe Vermittlung von Grundkenntnissen über Ernährung, Lebensmittel und deren Zubereitung. Der EFS möchte eine Verhaltensänderung der Schulkinder bewirken. Sie erlernen Kompetenzen, damit sie in der Lage sind, sich selbst eine gesunde Mahlzeit zubereiten zu können. Aber kann dieses Projekt eine nachhaltige Verhaltensänderung bewirken? Die folgende Studie mit Mixed-Methods-Ansatz im Explanatory-Sequential-Design versucht genau dieser Frage nachzugehen. Auf eine quantitative Prä- und Postbefragung in 16 Klassen an 12 Grundschulen im Landkreis Marburg Biedenkopf und insgesamt 992 Befragungen folgte eine qualitative Studie mit neun problemzentrierten, leitfadengestützten Interviews. Der EFS zeigt keinen signifikanten Einfluss auf die Veränderung des Ernährungsverhaltens. Positiv zu bewerten ist, dass durch den EFS Alltagskompetenzen bei der Nahrungszubereitung gefördert wurden. Dieser positive Einfluss muss jedoch differenziert betrachtet werden, denn die qualitativen Studie zeigt, dass der EFS sehr gut in Familien aufgenommen wird, die sich bereits mit Ernährungsfragen auseinandersetzen und darauf achten, einen ernährungsphysiologisch günstigen Ernährungsstil zu leben oder anzustreben. In Familien der Billig- und Fleischesser konnte der EFS die Türen nicht öffnen. Aber gerade in diesem Segment wäre eine Veränderung des Essverhaltens induziert. Die Untersuchung ergab, dass der EFS für sich alleine nicht den Anspruch erheben kann, die Ernährungssituation der Kinder und Familien zu verbessern. Aber er bietet ein methodisch-didaktisch gut ausgearbeitetes Konzept und könnte als Baustein in die Entwicklung eines praxisnahen, erlebnisorientierten und ganzheitlichen Ernährungsbildungskonzepts unter Berücksichtigung diverser Settings und Lebenswelten der Kinder und Familien einfließen.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Albert Einstein gilt wohl als einer der genialsten Menschen und größten Physiker aller Zeiten. Das Zitat „Es ist schwieriger, eine vorgefasste Meinung zu zertrümmern als ein Atom.“ stammte ebenfalls von ihm und verweist auf eine schier unmögliche Aufgabe. Doch bedenkt man, dass zu Einsteins Zeiten der griechische Begriff „atomos“, der dem „Atom“ seinen Namen verlieh, noch „unteilbar“ meinte, konnte (vermutlich einige Zeit nach diesem Zitat) das Unmögliche doch möglich gemacht werden. Heute, im Zeitalter der Atomenergie ist Einsteins Zitat wohl nur noch zu belächeln. Wie aber verhält es sich nun mit den vorgefassten Meinungen, mit den Stereotypen und Vorurteilen? Ist es auch heute, trotz fokussierter Anti-Diskriminierungs-Arbeit, noch nicht möglich, diese zu überwinden? Zunächst möchte ich die Begrifflichkeiten „Stereotyp“ und „Vorurteil“ in Abhängigkeit voneinander definieren. Danach soll erörtert werden, ob Stereotypen komplett erfunden sind, oder vielleicht doch einen wahren Kern besitzen. In Anlehnung an die hier dargestellten Ergebnisse, möchte ich schließlich zeigen, wie aus einem kulturellen Unterschied ein Vorurteil werden kann. Dabei stehen psychologische und soziologische Erscheinungen wie Ethnozentrismus, Wahrnehmungskonstruktion, kognitive Vereinfachung, Kategorisierung, Sozialisation und das Phänomen der selbsterfüllenden Prophezeiung im Zentrum meiner Aufmerksamkeit und sollen durch die Schilderung verschiedener Experimente ergänzt und bewiesen werden. Das vierte Kapitel soll der Relevanz von Stereotypen und Vorurteilen gelten. Dabei werde ich zuerst auf ihre allgemeinen Wirkungen und Folgen eingehen, da Vorurteile gesellschaftlich oft verpönt sind, kaum aber jemand weiß, warum. Danach möchte ich auch die Bedeutsamkeit von vorgefassten Meinungen auf Seite der Lehrer betrachten und gleichzeitig zeigen, dass niemand frei von Vorurteilen zu sein scheint. Schließlich soll auch die bildungspolitische Wichtigkeit der Abschaffung von Intoleranzen beleuchtet werden. Dazu werde ich beispielhaft die fächerübergreifenden Kompetenzen sowie den Lehrplan Französisch untersuchen. Nachdem nun die Entstehung von Vorurteilen sowie deren Bedeutung erläutert wurde, soll im darauffolgenden Kapitel gezeigt werden, wie diese abgeschafft werden können und wo die Gestaltpädagogik ansetzt. Dazu werde ich die zwölf gestaltpädagogischen Prinzipien nach Burow (1988) theoretisch auf ihre Möglichkeiten und Grenzen in der Vorurteilsüberwindung untersuchen. Diese Theorie soll schließlich auch in die Praxis umgesetzt werden. Demzufolge möchte ich in Kapitel 6 meine Erfahrungen mit Gestaltpädagogik, angewendet auf die Vorurteile französischer Schüler über Deutsche, darstellen und herausfinden, ob es tatsächlich möglich ist, Stereotypen mit Hilfe dieser Erziehungswissenschaft zu verhindern.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Das Dissertationsprojekt befasst sich mit dem synthetischen Potential acyclischer Diaminocarbene (aDACs; Verbindungen des Typs (R2N)2C:) und prüft dabei insbesondere deren Reaktivität gegenüber Kohlenmonoxid (CO). Grundlage des Vorhabens ist eine Aufsehen erregende Beobachtung von SIEMELING et al. (Chem. Sci., 2010, 1, 697): Der Prototyp der aDACs, das Bis(diisopropylamino)carben, ist in der Lage CO zu aktivieren. Dabei wird zunächst ein intermediäres Keten des Typs (R2N)2C=C=O generiert, das in Folge einer intramolekularen Reaktion ein stabiles β-Lactamderivat ausbildet. Eine Sensation, schließlich ging man in der Fachwelt bis dato davon aus, dass cyclische und acyclische Diaminocarbene für derartige Reaktionen nicht elektrophil genug seien. Ziel der vorliegenden Arbeit war eine systematische Auslotung der aDAC-Reaktivität gegenüber CO. Im Rahmen der durchgeführten Untersuchungen ist es gelungen, das Feld der literaturbekannten aDACs von 12 auf 19 zu erweitern. Die Carbene, ihre Formamidiniumsalz-Vorstufen, sowie die korrespondierenden Carben–Metallkomplexe konnten in den meisten Fällen vollständig charakterisiert werden. Es konnte gezeigt werden, dass manche Isopropyl-substituierten aDACs in inertem Lösemittel einer β-Umlagerung unterliegen sowie, dass eine solche intramolekulare Reaktivität innerhalb dieser Substanzklasse nicht trivial ist: Zum Teil ganz ähnlich substituierte aDACs sind in Lösung unbegrenzt haltbar. Die Reaktivität gegenüber CO konnte an etwa einem Dutzend aDACs studiert werden. Lediglich in einem Fall zeigte sich das Carben inert. In einem sterisch überfrachteten Fall entstand in einer regio- und stereoselektiven Folgereaktion ein biologisch aktives bicyclisches β-Lactamderivat. In den meisten Fällen ergaben sich betainische Oxyallylspezies des Typs [(R2N)2C]2CO als intermolekulare Folgeprodukte. Die mechanistische Scheidelinie zwischen intra- und intermolekularer Keten-Folgereaktion konnte anhand der Carbonylierung sterisch ganz ähnlich substituierter aDACs aufgezeigt werden. Die gewonnenen Erkenntnisse liefern deutliche Hinweise darauf, dass das chemische Verhalten der aDACs gegenüber CO eher durch feinste elektronische Unterschiede als durch den sterischen Anspruch der Carben-Substituenten beeinflusst wird. Mit Hilfe von In-Situ-IR-Spektroskopie gelang es in manchen Fällen, bei denen eine Isolierung der Carbonylierungsprodukte nicht glückte, die Generierung hochreaktiver Oxyallylspezies zu belegen. Weiterhin konnte im Zuge der In-Situ-IR-Studien das zuvor nur postulierte Diaminoketen als primäres Carbonylierungsprodukt dingfest gemacht werden (ν(C=C=O) = 2085 1/cm): Es handelt sich hierbei um den ersten experimentellen Nachweis eines Diaminoketens überhaupt.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In dieser Arbeit wird ein Verfahren zum Einsatz neuronaler Netzwerke vorgestellt, das auf iterative Weise Klassifikation und Prognoseschritte mit dem Ziel kombiniert, bessere Ergebnisse der Prognose im Vergleich zu einer einmaligen hintereinander Ausführung dieser Schritte zu erreichen. Dieses Verfahren wird am Beispiel der Prognose der Windstromerzeugung abhängig von der Wettersituation erörtert. Eine Verbesserung wird in diesem Rahmen mit einzelnen Ausreißern erreicht. Verschiedene Aspekte werden in drei Kapiteln diskutiert: In Kapitel 1 werden die verwendeten Daten und ihre elektronische Verarbeitung vorgestellt. Die Daten bestehen zum einen aus Windleistungshochrechnungen für die Bundesrepublik Deutschland der Jahre 2011 und 2012, welche als Transparenzanforderung des Erneuerbaren Energiegesetzes durch die Übertragungsnetzbetreiber publiziert werden müssen. Zum anderen werden Wetterprognosen, die der Deutsche Wetterdienst im Rahmen der Grundversorgung kostenlos bereitstellt, verwendet. Kapitel 2 erläutert zwei aus der Literatur bekannte Verfahren - Online- und Batchalgorithmus - zum Training einer selbstorganisierenden Karte. Aus den dargelegten Verfahrenseigenschaften begründet sich die Wahl des Batchverfahrens für die in Kapitel 3 erläuterte Methode. Das in Kapitel 3 vorgestellte Verfahren hat im modellierten operativen Einsatz den gleichen Ablauf, wie eine Klassifikation mit anschließender klassenspezifischer Prognose. Bei dem Training des Verfahrens wird allerdings iterativ vorgegangen, indem im Anschluss an das Training der klassenspezifischen Prognose ermittelt wird, zu welcher Klasse der Klassifikation ein Eingabedatum gehören sollte, um mit den vorliegenden klassenspezifischen Prognosemodellen die höchste Prognosegüte zu erzielen. Die so gewonnene Einteilung der Eingaben kann genutzt werden, um wiederum eine neue Klassifikationsstufe zu trainieren, deren Klassen eine verbesserte klassenspezifisch Prognose ermöglichen.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Enterprise-Resource-Planning-Systeme (ERP-Systeme) bilden für die meisten mittleren und großen Unternehmen einen essentiellen Bestandteil ihrer IT-Landschaft zur Verwaltung von Geschäftsdaten und Geschäftsprozessen. Geschäftsdaten werden in ERP-Systemen in Form von Geschäftsobjekten abgebildet. Ein Geschäftsobjekt kann mehrere Attribute enthalten und über Assoziationen zu anderen Geschäftsobjekten einen Geschäftsobjektgraphen aufspannen. Existierende Schnittstellen ermöglichen die Abfrage von Geschäftsobjekten, insbesondere mit Hinblick auf deren Attribute. Die Abfrage mit Bezug auf ihre Position innerhalb des Geschäftsobjektgraphen ist jedoch über diese Schnittstellen häufig nur sehr schwierig zu realisieren. Zur Vereinfachung solcher Anfragen können semantische Technologien, wie RDF und die graphbasierte Abfragesprache SPARQL, verwendet werden. SPARQL ermöglicht eine wesentlich kompaktere und intuitivere Formulierung von Anfragen gegen Geschäftsobjektgraphen, als es mittels der existierenden Schnittstellen möglich ist. Die Motivation für diese Arbeit ist die Vereinfachung bestimmter Anfragen gegen das im Rahmen dieser Arbeit betrachtete SAP ERP-System unter Verwendung von SPARQL. Zur Speicherung von Geschäftsobjekten kommen in ERP-Systemen typischerweise relationale Datenbanken zum Einsatz. Die Bereitstellung von SPARQL-Endpunkten auf Basis von relationalen Datenbanken ist ein seit längerem untersuchtes Gebiet. Es existieren verschiedene Ansätze und Tools, welche die Anfrage mittels SPARQL erlauben. Aufgrund der Komplexität, der Größe und der Änderungshäufigkeit des ERP-Datenbankschemas können solche Ansätze, die direkt auf dem Datenbankschema aufsetzen, nicht verwendet werden. Ein praktikablerer Ansatz besteht darin, den SPARQL-Endpunkt auf Basis existierender Schnittstellen zu realisieren. Diese sind weniger komplex als das Datenbankschema, da sie die direkte Abfrage von Geschäftsobjekten ermöglichen. Dadurch wird die Definition des Mappings erheblich vereinfacht. Das ERP-System bietet mehrere Schnittstellen an, die sich hinsichtlich des Aufbaus, der Zielsetzung und der verwendeten Technologie unterscheiden. Unter anderem wird eine auf OData basierende Schnittstelle zur Verfügung gestellt. OData ist ein REST-basiertes Protokoll zur Abfrage und Manipulation von Daten. Von den bereitgestellten Schnittstellen weist das OData-Interface gegenüber den anderen Schnittstellen verschiedene Vorteile bei Realisierung eines SPARQL-Endpunktes auf. Es definiert eine Abfragesprache und einen Link-Adressierungsmechanismus, mit dem die zur Beantwortung einer Anfrage benötigten Service-Aufrufe und die zu übertragende Datenmenge erheblich reduziert werden können. Das Ziel dieser Arbeit besteht in der Entwicklung eines Verfahrens zur Realisierung eines SPARQL-Endpunktes auf Basis von OData-Services. Dazu wird zunächst eine Architektur vorgestellt, die als Grundlage für die Implementierung eines entsprechenden Systems dienen kann. Ausgehend von dieser Architektur, werden die durch den aktuellen Forschungsstand noch nicht abgedeckten Bereiche ermittelt. Nach bestem Wissen ist diese Arbeit die erste, welche die Abfrage von OData-Schnittstellen mittels SPARQL untersucht. Dabei wird als Teil dieser Arbeit ein neuartiges Konzept zur semantischen Beschreibung von OData-Services vorgestellt. Dieses ermöglicht die Definition von Abbildungen der von den Services bereitgestellten Daten auf RDF-Graphen. Aufbauend auf den Konzepten zur semantischen Beschreibung wird eine Evaluierungssemantik erarbeitet, welche die Auflösung von Ausdrücken der SPARQL-Algebra gegen semantisch annotierte OData-Services definiert. Dabei werden die Daten aller OData-Services ermittelt, die zur vollständigen Abarbeitung einer Anfrage benötigt werden. Zur Abfrage der relevanten Daten wurden Konzepte zur Erzeugung der entsprechenden OData-URIs entwickelt. Das vorgestellte Verfahren wurde prototypisch implementiert und anhand zweier Anwendungsfälle für die im betrachteten Szenario maßgeblichen Servicemengen evaluiert. Mit den vorgestellten Konzepten besteht nicht nur die Möglichkeit, einen SPARQL-Endpunkt für ein ERP-System zu realisieren, vielmehr kann jede Datenquelle, die eine OData-Schnittstelle anbietet, mittels SPARQL angefragt werden. Dadurch werden große Datenmengen, die bisher für die Verarbeitung mittels semantischer Technologien nicht zugänglich waren, für die Integration mit dem Semantic Web verfügbar gemacht. Insbesondere können auch Datenquellen, deren Integration miteinander bisher nicht oder nur schwierig möglich war, über Systeme zur föderierten Abfrage miteinander integriert werden.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Anliegen dieser Dissertation ist die Untersuchung des Einflusses eines Lesestrategietrainings auf die Entwicklung des Leseverständnisses in den Klassen 2 und 4. In einer experimentellen Studie mit Prä-Post-Test-Design wurde die Wirksamkeit eines 25 Sitzungen umfassenden Trainings der Strategien Vorhersagen, kleinschrittiges Wiederholen und Zusammenfassen den Effekten einer lesefernen Kontrollbedingung gegenübergestellt. Die Lesestrategien wurden peergestützt vermittelt, d. h. in Dyaden aus einem leseschwächeren und einem lesestärkeren Kind. In drei Teilstudien wurden Fragestellungen zur differenzierten Analyse der Trainingswirksamkeit untersucht: (1) Wird die Trainingswirksamkeit durch die Effizienz der Worterkennungsprozesse beeinflusst?, (2) Kann die Entwicklung der Leseflüssigkeit durch das Lesestrategietraining gefördert werden? und (3) Können leseschwache Kinder von der Zusammenarbeit mit lesestärkeren Tutor(inn)en hinsichtlich der Verbesserung ihres Leseverständnisses profitieren?. Die Ergebnisse dieser Dissertation sprechen dafür, dass das eingesetzte peergestützte Lesestrategietraining das Leseverständnis und die Leseflüssigkeit von Zweit- und Viertklässler(inne)n unter bestimmten Voraussetzungen positiv beeinflussen konnte. Die Leseleistungen vor dem Training, die Effizienz der Worterkennungsprozesse und die Rolle im dyadischen Lernen erwiesen sich als relevante Einflussfaktoren für die Wirksamkeit des Strategietrainings. Zweitklässler(innen), die aufgrund guter Prä-Test Leseleistungen die Tutor(inn)enrolle erhielten, konnten ihr Leseverständnis gegenüber Kindern mit gleichen Leseleistungen in der Kontrollbedingung signifikant steigern. Leseschwache Zweitklässler(innen) hingegen schienen nur bei (relativ) effizienten Worterkennungsprozessen die Lesestrategien zur Steigerung ihres globalen Leseverständnisses nutzen zu können, wobei sie keinen Zugewinn aus der dyadischen Zusammenarbeit ziehen konnten. Bei ineffizienten Worterkennungsprozessen hatte das Strategietraining negative Auswirkungen auf das allgemeine Leseverständnis. Anders in Klasse 4: Kinder, die aufgrund unterdurchschnittlicher Leseleistungen im Prä-Test als Tutand(inn)en am Training teilnahmen, verbesserten ihr Leseverständnis und konnten dabei von der Zusammenarbeit mit lesestarken Tutor(inn)en profitieren. Für die Tutor(inn)en in Klasse 4 zeigte sich kein Effekt des Strategietrainings gegenüber der Kontrollgruppe. In beiden Klassenstufen stellte sich im Verlauf des Strategietrainings eine schnellere Entwicklung der Leseflüssigkeit der schwachen Leser(innen) ein. Zusammengefasst erzielte das Training die größten Effekte für gute Leser(innen) in Klasse 2 und schwache Leser(innen) in Klasse 4 – beide Gruppen konnten ihr Leseverständnis praktisch bedeutsam gegenüber Kindern mit gleichen Leseleistungen in der Kontrollbedingung steigern.