994 resultados para Weniger, Erich
Resumo:
Optische Spektrometer sind bekannte Instrumente für viele Anwendungen in Life Sciences, Produktion und Technik aufgrund ihrer guten Selektivität und Sensitivität zusammen mit ihren berührungslosen Messverfahren. MEMS (engl. Micro-electro-mechanical system)-basierten Spektrometer werden als disruptive Technologie betrachtet, in der miniaturisierte Fabry-Pérot Filter als sehr attraktiv für die optische Kommunikation und 'Smart Personal Environments', einschließlich des medizinischen Anwendungen, zu nennen sind. Das Ziel dieser Arbeit ist, durchstimmbare Filter-Arrays mit kostengünstigen Technologien herzustellen. Materialien und technologische Prozesse, die für die Herstellung der Filter-Arrays benötigt werden, wurden untersucht. Im Rahmen dieser Arbeit, wurden durchstimmbare Fabry Pérot Filter-Arrays für den sichtbaren Spektralbereich untersucht, die als Nano-Spektrometer eingesetzt werden. Darüber hinaus wurde ein Modell der numerischen Simulation vorgestellt, die zur Ermittlung eines optimales geometrisches Designs verwendet wurde, wobei sich das Hauptaugenmerk der Untersuchung auf die Durchbiegung der Filtermembranen aufgrund der mechanischen Verspannung der Schichten richtet. Die geometrische Form und Größe der Filtermembranen zusammen mit der Verbindungsbrücken sind von entscheidender Bedeutung, da sie die Durchbiegung beeinflussen. Lange und schmale Verbindungsbrücken führen zur stärkeren Durchbiegung der Filtermembranen. Dieser Effekt wurde auch bei der Vergrößerung der Durchmesser der Membran beobachtet. Die Filter mit spiralige (engl. curl-bent) Verbindungsbrücken führten zu geringerer Deformation als die mit geraden oder gebogenen Verbindungsbrücken. Durchstimmbare Si3N4/SiO2 DBR-basierende Filter-Arrays wurden erfolgreich hergestellt. Eine Untersuchung über die UV-NIL Polymere, die als Opferschicht und Haltepfosten-Material der Filter verwendet wurden, wurde durchgeführt. Die Polymere sind kompatibel zu dem PECVD-Verfahren, das für die Spiegel-Herstellung verwendet wird. Die laterale Strukturierung der DBR-Spiegel mittels des RIE (engl. Reactive Ion Etching)-Prozesses sowie der Unterätz-Prozess im Sauerstoffplasma zur Entfernung der Opferschicht und zum Erreichen der Luftspalt-Kavität, wurden durchgeführt. Durchstimmbare Filter-Arrays zeigten einen Abstimmbereich von 70 nm bei angelegten Spannungen von weniger als 20 V. Optimierungen bei der Strukturierung von TiO2/SiO2 DBR-basierenden Filtern konnte erzielt werden. Mit der CCP (engl. Capacitively Coupling Plasma)-RIE, wurde eine Ätzrate von 20 nm/min erreicht, wobei Fotolack als Ätzmaske diente. Mit der ICP (engl. Inductively Coupling Plasma)-RIE, wurden die Ätzrate von mehr als 60 nm/min mit einem Verhältniss der Ar/SF6 Gasflüssen von 10/10 sccm und Fotolack als Ätzmasken erzielt. Eine Ätzrate von 80 bis 90 nm/min wurde erreicht, hier diente ITO als Ätzmaske. Ausgezeichnete geätzte Profile wurden durch den Ätzprozess unter Verwendung von 500 W ICP/300 W RF-Leistung und Ar/SF6 Gasflüsse von 20/10 sccm erreicht. Die Ergebnisse dieser Arbeit ermöglichen die Realisierung eines breiten Spektralbereichs der Filter-Arrays im Nano-Spektrometer.
Resumo:
Der Nationalsozialismus und damit auch der Holocaust gilt als die am besten erforschte Periode der deutschen Geschichte. Unzählige Berichte und Dokumente belegen den Völkermord an den europäischen Juden und ermöglichen so ein genaues und detailliertes Bild der Vorgänge. Trotz der sehr guten Quellenlage behaupten Holocaustleugner, dass es sich bei der Shoah um eine Inszenierung handele oder dass die geschätzten Opferzahlen als maßlose Übertreibung zurückzuweisen seien. Die vorliegende Studie untersucht, wie Holocaustleugner argumentieren und mit welchen Manipulationstechniken sie historische Tatsachen verfälschen. Im Zentrum stehen dabei propagandistische Texte im Internet, dem Medium, welches gegenwärtig als häufigster Verbreitungskanal für holocaustleugnende Propaganda genutzt wird. Um aktuelle Tendenzen deutlich zu machen und um Brüche und Kontinuitäten herauszuarbeiten, werden jüngste Internet-Publikationen mit Printmedien aus den 1970er und 1980er Jahren verglichen. Die Analyse macht dabei deutlich, dass sich holocaustleugnende Argumentationsmuster mit der „digitalen Revolution“ gewandelt haben und die Protagonisten der Szene sich auf neue Zielgruppen einstellen. Während frühe Printmedien vor allem für einen begrenzten Kreis einschlägig Interessierter publiziert wurden, haben Holocaustleugner heute die Gesamtheit der Internet-Nutzer als Zielgruppe erkannt. Vor diesem Hintergrund wandeln sich die Verschleierungstaktiken und Täuschungsmanöver, auch aber der Habitus der Texte. Argumentierten die Autoren in früheren Veröffentlichungen oftmals offensiv und radikal, konzentrieren sie sich gegenwärtig auf moderatere Argumentationsmuster, die darauf abzielen, die Shoah zu trivialisieren und zu minimieren. Derartige Propagandaformen sind kompatibler mit dem politischem Mainstream, weil sie weniger verschwörungstheoretisch angelegt sind und ihr antisemitisches Motiv besser verbergen können. Radikale Holocaustleugnung, die behauptet, der gesamte wissenschaftliche Erkenntnisbestand zur Shoah sei ein Phantasiegebilde, findet sich seltener im Internet. Häufiger wird eine „Nadelstich-Taktik“ verfolgt, die einzelne Detailaspekte aufgreift, in Frage stellt oder zu widerlegen vorgibt. Diese Angriffe sollen ihre Wirkung nicht für sich entfalten, sondern in der Summe suggerieren, dass die Tatsachenbasis des Holocaust durchaus hinterfragenswert sei.
Resumo:
Im europäischen Raum, welcher geprägt ist von einer hohen kulturellen und sprachlichen Diversität auf vergleichsweise engem Raum, ist eine Austausch der Kulturen und wirtschaftlich gesehen, ein Austausch von Know-How und Export- und Importgütern, zu einer treibenden multilateralen Kraft geworden. Dieses Treiben ist jedoch stark von der Verständigung abhängig. Bildungspolitisch hat sich viel Bewegt, als die ersten PISA-Ergebnisse dem so überlegen geglaubten deutschen Bildungssystem eine gehörige Ohrfeige verpasst haben. Diese Entwicklung hat vielerlei Blüten hervorgerufen, welche sich in der Bildungslandschaft mal weniger und mal mehr manifestiert haben. Eine wohl nicht mehr wegzudenkende Blüte ist der bilinguale Unterricht. Dieser, so verspricht man sich, birgt ein Potenzial in sich, welches das Zusammenwachsen Europas forcieren kann. Es werden demnach nicht nur Sprache und Fachwissen nebeneinander gelehrt und gelernt, sondern dies passiert auf einer ganz neuen Ebene: Nämlich zeitgleich! Das Problem an dieser Blüte ist, dass sie gesellschaftlich viel gefordert wird, da ihr Potenzial so verführerisch duftet. Aus diesem Grund hat die Schullandschaft sehr schnell darauf reagiert und Konzepte bilingualen Unterrichts ins Leben gerufen, die schnellen Erfolg versprechen. Die Forschung konnte mit dieser rasanten Entwicklung jedoch nicht mithalten, sodass es mittlerweile viele Etablierte bilinguale Angebote gibt, deren Erfolg jedoch nicht wissenschaftlich nachgewiesen ist. Das Spracherwerbspotenzial des bilingualen Unterrichts ist zwar weitestgehend untersucht und bestätigt worden, allerdings hat dieser Forschungsansatz seinen Ursprung in der Fremdsprachendidaktik. Wie es sich mit der fachlichen Kompetenz verhält ist dagegen umstritten. Aber sollten nicht zwei Fliegen mit einer Klappe geschlagen werden? Kann also eine bilinguale Fachkompetenz erfolgreich vermittelt und von den Schülern angewandt werden? Diese Arbeit konzentriert sich daher auf zwei dieser Blüten des bilingualen Biologieunterrichts, um festzustellen, ob es einen Unterschied in der Ausprägung der Kompetenzen zwischen modularem, oder auch epochal genannten, Biologieunterricht und dem Biologieunterricht in einem bilingualen Schulzweig gibt. Es wird davon ausgegangen, dass aufgrund der Klassen- und Unterrichtsstruktur der Schulzweig diesen Anforderungen eher gewachsen ist, als es im modularen bilingualen Biologieunterricht der Fall ist. Weiterhin werden motivationale Faktoren und Faktoren des Selbstkonzepts der Schüler untersucht, um Aufschluss darüber zu erhalten, was zum vermeintlichen Erfolg der einen Blüte beiträgt.
Resumo:
In der vorliegenden Arbeit wurde eine LC-IRMS Methode zur aminozucker-spezifischen δ13C-Analyse in Pflanzenmaterialien optimiert und etabliert, um die Bildung und den Umsatz von mikrobiellen Residuen in Boden- und Pflanzenmaterialien mit hoher Genauigkeit erfassen zu können. Weiterhin wurde mit der etablierten Methode ein Pilzwachstumsexperiment durchgeführt. Der Fokus dieser Arbeit lag jedoch auf der Methodenentwicklung. Ziel des ersten Artikels war es eine HPLC-Umkehrphasen-Methode zur simultanen Bestimmung von Muraminsäure, Mannosamin, Galaktosamin und Glucosamin so hingehend zu verbessern, dass an verschieden HPLC-Systemen zuverlässige Ergebnisse für alle vier Aminozucker in Boden- und Pflanzenhydrolysaten erhalten werden. Dafür wurde zunächst die mobile Phase optimiert. So wurde der Tetrahydrofurananteil erhöht, was kürzere Retentionszeiten und eine bessere Trennung zwischen Muraminsäure und Mannosamin zur Folge hatte. Weiterhin wurde ein höheres Signal durch das Herabsetzen der Extinktionswellenlänge und der Anpassung der OPA-Derivatisierungsreaktionszeit erzielt. Nach Optimierung der genannten Parameter erfolgte die Validierung der Methode. Für Muraminsäure wurde eine Bestimmungsgrenze (LOQ) von 0,5 µmol l-1 was 0,13 µg ml -1 entspricht und für die drei anderen Aminozucker 5,0 µmol l-1 (entspricht 0,90 µg ml)erhalten. Weiterhin wurden Wasser und Phosphatpuffer als Probenlösungsmittel getestet, um den Einfluss des pH-Wertes auf die OPA-Reaktion zu testen. Zur aminozucker-spezifischen δ13C–Analyse am IRMS ist eine HPLC-Methode mit einer kohlenstofffreien mobilen Phase notwendig, andernfalls kann aufgrund des hohen Hintergrundrauschens kein vernünftiges Signal mehr detektiert werden. Da die im ersten Artikel beschriebene Umkehrphasenmethode einen kohlenstoffhaltigen Eluenten enthält, musste eine ebenso zuverlässige Methode, die jedoch keine organische Lösungsmittel benötigt, getestet und mit der schon etablierten Methode verglichen werden. Es gibt eine Reihe von HPLC-Methoden, die ohne organische Lösungsmittel auskommen, wie z. B. (1) Hochleistungsanionenaustauschchromatographie (HPAEC), (2) Hochleistungskationenaustauschchromatographie (HPCEC) und (3) die Hochleistungsanionenausschlusschromatographie (HPEXC). Ziele des zweiten Artikels waren (1) eine zuverlässige Purifikations- und Konzentrierungsmethode für Aminozucker in HCl-Hydrolysaten und (2) eine optimale HPLC-Methode zu finden. Es wurden fünf Aufarbeitungsmethoden zur Purifikation und Konzentrierung der Probenhydrolysate und vier HPLC-Methoden getestet. Schlussfolgernd kann zusammengefasst werden, dass für Detektoren mit geringer Empfindlichkeit (z.B. IRMS) eine Konzentrierung und Purifikation insbesondere von Muraminsäure über ein Kationenaustauscherharz sinnvoll ist. Eine Basislinientrennung für alle Aminozucker war nur mit der HPAEC möglich. Da mit dieser Methode gute Validierungsdaten erzielt wurden und die Aminozuckergehalte mit der Umkehrphasenmethode vergleichbar waren, stellt die HPAEC die Methode der Wahl zur aminozucker-spezifischen δ13C–Analyse am IRMS dar. Der dritte Artikel befasst sich mit der Optimierung der aminozucker-spezifischen δ13C–Analyse mittels HPAEC-IRMS in Pflanzenhydrolysaten sowie mit der Bestimmung des Umsatzes von saprotrophen Pilzen in verschieden Substraten. Die in der Literatur beschriebene HPAEC-IRMS- Methode ist für die aminozucker-spezifische δ13C–Analyse in Bodenhydrolysaten jedoch nicht in Pflanzenhydrolysaten geeignet. In Pflanzenhydrolysaten wird der Glucosaminpeak von Peaks aus der Matrix interferiert. Folglich war das erste Ziel dieses Artikels, die Methode so zu optimieren, dass eine aminozucker-spezifische δ13C–Analyse in Pflanzenhydrolysaten möglich ist. Weiterhin sollten mit der optimierten HPAEC-IRMS-Methode die Bildung und der Umsatz von saprotrophen Pilzen bestimmt werden. Durch Erhöhung der Säulentemperatur und durch Herabsetzung der NaOH-Konzentration konnte eine Basislinientrennung erzielt werden. Die Validierungsparameter waren gut und die bestimmten Aminozuckergehalte waren mit der Umkehrphasen-HPLC-Methode vergleichbar. Zur Bestimmung der Bildung und des Umsatzes von saprotrophen Pilzen auf verschiedenen Substraten wurden Lentinula edodes P., Pleurotus ostreatus K. und Pleurotus citrinopileatus S. auf Mais-Holz- und auf Weizen-Holz-Substrat für vier Wochen bei 24 °C kultiviert. Dieser Pilzwachstumsversuch zeigte, dass 80% des neu gebildeten pilzlichen Glucusamins maisbürtig und nicht holzbürtig waren. Weiterhin wurde der bevorzugte Abbau von Maissubstrat im Vergleich zu Weizensubstrat an diesem Versuch verdeutlicht. Außerdem lassen die Ergebnisse darauf schließen, dass die beobachtete zunehmende δ13C Anreicherung in dem neu gebildeten pilzlichen Glucosamin während der vier Wochen auf die Inkorporation des angereichten 13C aus dem Substrat und eher weniger auf kinetische Isotopeneffekte zurückzuführen ist.
Resumo:
Durch die vermehrte Nachfrage von Biomöhren im Lebensmitteleinzelhandel ist die Anbaufläche ökologisch erzeugter Möhren in den letzten zehn Jahren deutlich angestiegen. Der Anbau konzentriert sich auf bestimmte Regionen und erfolgte damit zunehmend auf großen Schlägen in enger räumlicher und zeitlicher Abfolge. Mit der steigenden Wirtspflanzenpräsenz steigt auch der Befallsdruck durch die Möhrenfliege. Während der Schädling im konventionellen Anbau mit Insektiziden kontrolliert wird, stehen dem Ökologischen Landbau bisher keine direkten Regulative zur Verfügung. Ziel der Untersuchungen war es, unter den Praxisbedingungen des ökologischen Möhrenanbaus einzelbetriebliche und überregionale Muster beteiligter Risikofaktoren im Befallsgeschehen zu identifizieren und so Möglichkeiten einer verbesserten Prävention und Regulation aufzuzeigen. Über einen Zeitraum von drei Jahren wurden auf fünf Betrieben in Niedersachsen und Hessen umfangreiche Felddaten erhoben und diese unter Verwendung von GIS – Software und dem Simulationsmodell SWAT analysiert. Untersuchte Einflussgrößen umfassten (1) die Distanz zu vorjährigen Möhrenfeldern, (2) die zeitliche Möhrenanbauperiode, (3) Vegetationselemente und (4) der experimentelle Einsatz von Fangpflanzen zur Unterdrückung der Fliegenentwicklung. Unter der Berücksichtigung deutlicher einzelbetrieblicher Unterschiede sind die wichtigsten Ergebnisse der Studie wie folgt zu benennen: (1) Auf Betrieben mit Befall im zurückliegenden Anbaujahr zeigte sich die Distanz zu vorjährigen Möhrenfeldern als der wichtigste Risikofaktor. Das Ausbreitungsverhalten der 1. Generation Möhrenfliege erwies sich zudem als situationsgebunden anpassungsfähig. Fliegensumme und Befall waren jeweils in dem zu Vorjahresflächen nächstgelegen Feld am größten, während jeweils dahinter liegende Möhrenschläge entsprechend weniger Fliegenzahlen und Befall auswiesen. Aus den Ergebnissen wird als vorrangige Verbreitungskapazität der 1. Generation Möhrenfliegen innerhalb von 1000 m abgeleitet. (2) Betriebe mit kontinuierlicher Möhren - Anbaubauperiode (ca. April – Oktober), die langfristig die Entwicklung sowohl der 1. als auch der 2. Generation Fliegen unterstützten, verzeichneten stärkere Fliegenprobleme. Hinsichtlich einer verbesserten Prävention wird empfohlen mit einer strikten räumlichen Trennung früher und später Sätze ein Aufschaukeln zwischen den Generationen zu vermeiden. (3) Der Einfluss der Vegetation ließ sich weniger eindeutig interpretieren. Einzelbetriebliche Hinweise, dass Kleingehölze (Hecken und Bäume) im Radius zwischen aktueller und vorjähriger Möhrenfläche die Befallswahrscheinlichkeit erhöhen, konnten mit einem berechneten Gesamtmaß für die regionale holzige Vegetation nicht bestätigt werden. Der großräumigen holzigen Vegetation wird im Vergleich zur Feldrandvegetation daher beim Befallsgeschehen eine geringe Bedeutung zugeschrieben. (4) Drei Meter (vier Dämme) breiter Möhren – Fangstreifen auf den vorjährigen Möhrenfeldern eignen sich bereits ab dem Keimblattstadium, um erhebliches Befallspotential zu binden. Eine mechanische Entfernung der Fangpflanzen (Grubbern) mitsamt dem Befallspotential erzielte in 2008 eine 100 %-ige Unterdrückung der Möhrenfliegenentwicklung, in 2009 jedoch nur zu maximal 41 %. Als mögliche Synthese der Ergebnisse zur Ausbreitung der Möhrenfliegen im Frühjahr und zur zeitlichen Koinzidenz mit der Möhrenentwicklung wird als Empfehlung diskutiert, mit Hilfe einer angepassten Flächenwahl die Fliegenausbreitung räumlich an frühen Sätzen zu binden, um entsprechend befallsarme Regionen für entfernt liegende späte (empfindlichere) Möhrensätze zu schaffen.
Resumo:
Die tropischen Anden sind eines der artenreichsten Gebiete der Erde. Fast die Hälfte der 45.000 in diesem Gebiet vorkommenden Gefäßpflanzenarten sind in den Anden endemisch (Myers et al. 2000). Die Gattung Fosterella (Bromeliaceae) ist eine den Anden zugeordnete Pflanzengruppe, denn die meisten ihrer 31 Arten kommen in den Anden vor. Achtzehn Arten sind kleinräumige Endemiten. Fosterella hat damit Modellcharakter für diese Region. In der vorliegenden Arbeit wurde die Evolution der Gattung in Raum und Zeit mithilfe der vergleichenden Sequenzierung von sechs plastidären Loci (atpB-rbcL, matK, psbB-psbH, rpl32-trnL, rps16-trnK, rps16-Intron) und einem nukleären Marker (PHYC) untersucht. Es wurden über 90 Akzessionen von 24 Fosterella-Arten untersucht. Mit 5,6 % informativer Merkmale innerhalb der Gattung war rpl32-trnL der informativste Chloroplastenmarker. Es wurden mit den kombinierten Sequenzdaten eine Maximum Parsimony-, eine Maximum Likelihood- und eine Bayes´sche Analyse berechnet. Weiterhin wurden biogeographische und ultrametrische Untersuchungen durchgeführt. Die 6-Locus-Phylogenie zeigt eine Aufteilung der monophyletischen Gattung Fosterella in sechs Gruppen, von denen vier – die penduliflora-, weddelliana-, weberbaueri- und micrantha-Gruppe - klar monophyletisch und gut gestützt sind. Die albicans- und die rusbyi-Gruppe bilden hingegen einen Komplex. Ultrametrische Analysen legen ein Alter der Gattung von ca. 9,6 Mio. Jahren nahe. Der geographische Ursprung von Fosterella befindet sich nach den vorliegenden biogeographischen Analysen in den Anden und nach der Biom-Analyse zu gleicher Wahrscheinlichkeit entweder in andinen Trockenwäldern (seasonally dry tropical forests, SDTFs) oder in azonalen Standorten des amazonischen Tieflands östlich der Anden. Es gab mehrere Ausbreitungsereignisse, von denen die beiden Fernausbreitungsereignisse nach Mittelamerika (F. micrantha) und in das zentrale Amazonasgebiet (F. batistana) die auffälligsten sind. Die feuchten Bergregenwälder (Yungas) der Anden wurden offenbar mehrfach unabhängig von Fosterella-Arten besiedelt. Insgesamt wurden elf nukleäre Marker (XDH, GS, RPB2, MS, ADH, MS, GLO/PI, CHS, FLO/LFY, NIAi3 und PHYC) auf ihre Anwendbarkeit für molekularsystematische Studien in Fosterella getestet. Davon konnten acht Marker erfolgreich mithilfe einer PCR amplifiziert werden. Die Fragmentgrößen lagen zwischen 350 bp und 1.500 bp. Nur für drei Loci (FLO/LFY, NIAi3 und PHYC) konnten lesbare DNA-Sequenzen in Fosterella erzeugt werden. FLO/LFY zeigte nur 1,5 % Variabilität innerhalb der Gattung. Der NIA-Locus erzeugte bei der Amplifikation mehrere Fragmente, die separat voneinander sequenziert wurden. Der Locus PHYC konnte hingegen aufgrund der guten Amplifizier- und Sequenzierbarkeit für das gesamte Probenset sequenziert werden. Dieser Marker zeigte eine Variabilität innerhalb der Gattung von 10,2 %, davon waren 6,8 % informativ. In der Phylogenie basierend auf PHYC ist Fosterella klar monophyletisch, innerhalb der Gattung zeigt sich jedoch an der Basis eine unaufgelöste Polytomie. Es lassen sich neun mehr oder weniger gut gestützte Artengruppen definieren – rusbyi-, villosula-, albicans-, weddelliana-, penduliflora-, weberbaueri-, micrantha-, robertreadii- und spectabilis-Gruppe - die sich in ihrer Zusammensetzung mit Ausnahme der weddelliana-Gruppe von den nach Chloroplastendaten definierten Gruppen unterscheiden. Viele Arten sind para- oder polyphyletisch, so z. B. F. albicans, F. penduliflora und F. rusbyi. Bei den beiden erstgenannten Arten weisen die unterschiedlichen Stellungen in Chloroplasten- und Kernphylogenie auf Hybridisierungsereignisse hin.
Resumo:
In dieser Arbeit wurde ein gemischt-ganzzahliges lineares Einsatzoptimierungsmodell für Kraftwerke und Speicher aufgebaut und für die Untersuchung der Energieversorgung Deutschlands im Jahre 2050 gemäß den Leitstudie-Szenarien 2050 A und 2050 C ([Nitsch und Andere, 2012]) verwendet, in denen erneuerbare Energien einen Anteil von über 85 % an der Stromerzeugung haben und die Wind- und Solarenergie starke Schwankungen der durch steuerbare Kraftwerke und Speicher zu deckenden residualen Stromnachfrage (Residuallast) verursachen. In Szenario 2050 A sind 67 TWh Wasserstoff, die elektrolytisch aus erneuerbarem Strom zu erzeugen sind, für den Verkehr vorgesehen. In Szenario 2050 C ist kein Wasserstoff für den Verkehr vorgesehen und die effizientere Elektromobilität hat einen Anteil von 100% am Individualverkehr. Daher wird weniger erneuerbarer Strom zur Erreichung desselben erneuerbaren Anteils im Verkehrssektor benötigt. Da desweiteren Elektrofahrzeuge Lastmanagementpotentiale bieten, weisen die Residuallasten der Szenarien eine unterschiedliche zeitliche Charakteristik und Jahressumme auf. Der Schwerpunkt der Betrachtung lag auf der Ermittlung der Auslastung und Fahrweise des in den Szenarien unterstellten ’Kraftwerks’-parks bestehend aus Kraftwerken zur reinen Stromerzeugung, Kraft-Wärme-Kopplungskraftwerken, die mit Wärmespeichern, elektrischen Heizstäben und Gas-Backupkesseln ausgestattet sind, Stromspeichern und Wärmepumpen, die durch Wärmespeicher zum Lastmanagment eingesetzt werden können. Der Fahrplan dieser Komponenten wurde auf minimale variable Gesamtkosten der Strom- und Wärmeerzeugung über einen Planungshorizont von jeweils vier Tagen hin optimiert. Das Optimierungsproblem wurde mit dem linearen Branch-and-Cut-Solver der software CPLEX gelöst. Mittels sogenannter rollierender Planung wurde durch Zusammensetzen der Planungsergebnisse für überlappende Planungsperioden der Kraftwerks- und Speichereinsatz für die kompletten Szenariojahre erhalten. Es wurde gezeigt, dass der KWK-Anteil an der Wärmelastdeckung gering ist. Dies wurde begründet durch die zeitliche Struktur der Stromresiduallast, die wärmeseitige Dimensionierung der Anlagen und die Tatsache, dass nur eine kurzfristige Speicherung von Wärme vorgesehen war. Die wärmeseitige Dimensionierung der KWK stellte eine Begrenzung des Deckungsanteils dar, da im Winter bei hoher Stromresiduallast nur wenig freie Leistung zur Beladung der Speicher zur Verfügung stand. In den Berechnungen für das Szenario 2050 A und C lag der mittlere Deckungsanteil der KWK an der Wärmenachfrage von ca. 100 TWh_th bei 40 bzw. 60 %, obwohl die Auslegung der KWK einen theoretischen Anteil von über 97 % an der Wärmelastdeckung erlaubt hätte, gäbe es die Beschränkungen durch die Stromseite nicht. Desweiteren wurde die CO2-Vermeidungswirkung der KWK-Wärmespeicher und des Lastmanagements mit Wärmepumpen untersucht. In Szenario 2050 A ergab sich keine signifikante CO2-Vermeidungswirkung der KWK-Wärmespeicher, in Szenario 2050 C hingegen ergab sich eine geringe aber signifikante CO2-Einsparung in Höhe von 1,6 % der Gesamtemissionen der Stromerzeugung und KWK-gebundenen Wärmeversorgung. Das Lastmanagement mit Wärmepumpen vermied Emissionen von 110 Tausend Tonnen CO2 (0,4 % der Gesamtemissionen) in Szenario A und 213 Tausend Tonnen in Szenario C (0,8 % der Gesamtemissionen). Es wurden darüber hinaus Betrachtungen zur Konkurrenz zwischen solarthermischer Nahwärme und KWK bei Einspeisung in dieselben Wärmenetze vorgenommen. Eine weitere Einschränkung der KWK-Erzeugung durch den Einspeisevorrang der Solarthermie wurde festgestellt. Ferner wurde eine untere Grenze von 6,5 bzw. 8,8 TWh_th für die in den Szenarien mindestens benötigte Wasserstoff-Speicherkapazität ermittelt. Die Ergebnisse dieser Arbeit legen nahe, das technisch-ökonomische Potential von Langzeitwärmespeichern für eine bessere Integration von KWK ins System zu ermitteln bzw. generell nach geeigneteren Wärmesektorszenarien zu suchen, da deutlich wurde, dass für die öffentliche Wärmeversorgung die KWK in Kombination mit Kurzzeitwärmespeicherung, Gaskesseln und elektrischen Heizern keine sehr effektive CO2 -Reduktion in den Szenarien erreicht. Es sollte dabei z.B. untersucht werden, ob ein multivalentes System aus KWK, Wärmespeichern und Wärmepumpen eine ökonomisch darstellbare Alternative sein könnte und im Anschluss eine Betrachtung der optimalen Anteile von KWK, Wärmepumpen und Solarthermie im Wärmemarkt vorgenommen werden.
Resumo:
Diese Arbeit thematisiert die optimierte Darstellung von organischen Mikro- und Nanodrähten, Untersuchungen bezüglich deren molekularen Aufbaus und die anwendungsorientierte Charakterisierung der Eigenschaften. Mikro- und Nanodrähte haben in den letzten Jahren im Zuge der Miniaturisierung von Technologien an weitreichendem Interesse gewonnen. Solche eindimensionalen Strukturen, deren Durchmesser im Bereich weniger zehn Nanometer bis zu einigen wenigen Mikrometern liegt, sind Gegenstand intensiver Forschung. Neben anorganischen Ausgangssubstanzen zur Erzeugung von Mikro- und Nanodrähten haben organische Funktionsmaterialien aufgrund ihrer einfachen und kostengünstigen Verarbeitbarkeit sowie ihrer interessanten elektrischen und optischen Eigenschaften an Bedeutung gewonnen. Eine wichtige Materialklasse ist in diesem Zusammenhang die Verbindungsklasse der n-halbleitenden Perylentetracarbonsäurediimide (kurz Perylendiimide). Dem erfolgreichen Einsatz von eindimensionalen Strukturen als miniaturisierte Bausteine geht die optimierte und kontrollierte Herstellung voraus. Im Rahmen der Doktorarbeit wurde die neue Methode der Drahterzeugung „Trocknen unter Lösungsmittelatmosphäre“ entwickelt, welche auf Selbstassemblierung der Substanzmoleküle aus Lösung basiert und unter dem Einfluss von Lösungsmitteldampf direkt auf einem vorgegebenen Substrat stattfindet. Im Gegensatz zu literaturbekannten Methoden ist kein Transfer der Drähte aus einem Reaktionsgefäß nötig und damit verbundene Beschädigungen der Strukturen werden vermieden. Während herkömmliche Methoden in einer unkontrolliert großen Menge von ineinander verwundenen Drähten resultieren, erlaubt die substratbasierte Technik die Bildung voneinander separierter Einzelfasern und somit beispielsweise den Einsatz in Einzelstrukturbauteilen. Die erhaltenen Fasern sind morphologisch sehr gleichmäßig und weisen bei Längen von bis zu 5 mm bemerkenswert hohe Aspektverhältnisse von über 10000 auf. Darüber hinaus kann durch das direkte Drahtwachstum auf dem Substrat über den Einsatz von vorstrukturierten Oberflächen und Wachstumsmasken gerichtetes, lokal beschränktes Drahtwachstum erzielt werden und damit aktive Kontrolle auf Richtung und Wachstumsbereich der makroskopisch nicht handhabbaren Objekte ausgeübt werden. Um das Drahtwachstum auch hinsichtlich der Materialauswahl, d. h. der eingesetzten Ausgangsmaterialien zur Drahterzeugung und somit der resultierenden Eigenschaften der gebildeten Strukturen aktiv kontrollieren zu können, wird der Einfluss unterschiedlicher Parameter auf die Morphologie der Selbstassemblierungsprodukte am Beispiel unterschiedlicher Derivate betrachtet. So stellt sich zum einen die Art der eingesetzten Lösungsmittel in flüssiger und gasförmiger Phase beim Trocknen unter Lösungsmittelatmosphäre als wichtiger Faktor heraus. Beide Lösungsmittel dienen als Interaktionspartner für die Moleküle des funktionellen Drahtmaterials im Selbstassemblierungsprozess. Spezifische Wechselwirkungen zwischen Perylendiimid-Molekülen untereinander und mit Lösungsmittel-Molekülen bestimmen dabei die äußere Form der erhaltenen Strukturen. Ein weiterer wichtiger Faktor ist die Molekülstruktur des verwendeten funktionellen Perylendiimids. Es wird der Einfluss einer Bay-Substitution bzw. einer unsymmetrischen Imid-Substitution auf die Morphologie der erhaltenen Strukturen herausgestellt. Für das detaillierte Verständnis des Zusammenhanges zwischen Molekülstruktur und nötigen Wachstumsbedingungen für die Bildung von eindimensionalen Strukturen zum einen, aber auch die resultierenden Eigenschaften der erhaltenen Aggregationsprodukte zum anderen, sind Informationen über den molekularen Aufbau von großer Bedeutung. Im Rahmen der Doktorarbeit konnte ein molekular hoch geordneter, kristalliner Aufbau der Drähte nachgewiesen werden. Durch Kombination unterschiedlicher Messmethoden ist es gelungen, die molekulare Anordnung in Strukturen aus einem Spirobifluoren-substituierten Derivat in Form einer verkippten Molekülstapelung entlang der Drahtlängsrichtung zu bestimmen. Um mögliche Anwendungsbereiche der erzeugten Drähte aufzuzeigen, wurden diese hinsichtlich ihrer elektrischen und optischen Eigenschaften analysiert. Neben dem potentiellen Einsatz im Bereich von Filteranwendungen und Sensoren, sind vor allem die halbleitenden und optisch wellenleitenden Eigenschaften hervorzuheben. Es konnten organische Transistoren auf der Basis von Einzeldrähten mit im Vergleich zu Dünnschichtbauteilen erhöhten Ladungsträgerbeweglichkeiten präpariert werden. Darüber hinaus wurden die erzeugten eindimensionalen Strukturen als aktive optische Wellenleiter charakterisiert. Die im Rahmen der Dissertation erarbeiteten Kenntnisse bezüglich der Bildung von eindimensionalen Strukturen durch Selbstassemblierung, des Drahtaufbaus und erster anwendungsorientierter Charakterisierung stellen eine Basis zur Weiterentwicklung solcher miniaturisierter Bausteine für unterschiedlichste Anwendungen dar. Die neu entwickelte Methode des Trocknens unter Lösungsmittelatmosphäre ist nicht auf den Einsatz von Perylendiimiden beschränkt, sondern kann auf andere Substanzklassen ausgeweitet werden. Dies eröffnet breite Möglichkeiten der Materialauswahl und somit der Einsatzmöglichkeiten der erhaltenen Strukturen.
Resumo:
In den bundesweit rund 670 anerkannten Werkstätten für behinderte Menschen (WfbM) arbeiten aktuell über 290 000 Menschen mit Behinderung. Rund ein Viertel dieser Einrichtungen bieten auch landwirtschaftliche oder gartenbauliche Arbeitsplätze (`Grüne WfbM´). Die UN-Behindertenrechtskonvention fordert u. a. eine inklusive Teilhabe der Menschen mit Behinderung am Arbeitsleben in Form von Zugangsmöglichkeiten zu sozialversicherungspflichtiger Beschäftigung auf dem allgemeinen Arbeitsmarkt. Gleichzeitig können arbeitswirtschaftlich immer mehr landwirtschaftliche Betriebe aufgrund wachsender Betriebsgrößen nicht mehr allein durch die Unternehmerfamilie geführt werden. Neben der Zuhilfenahme von Dienstleistungsanbietern ist die Suche nach Fremdarbeitskräften zwangsläufig. Neben dem Bedarf an qualifiziertem Fachpersonal werden auch Arbeitskräfte für einfachere, tägliche Routinearbeiten gesucht. Die vorliegende Arbeit begleitet wissenschaftlich ein vom Bundesministerium für Ernährung, Landwirtschaft und Verbraucherschutz gefördertes bundesweites Modellvorhaben zur Vernetzung `Grüner WfbM´ mit landwirtschaftlichen Betrieben. Forschungsleitende Fragestellungen sind die betrieblichen Interessen und Voraussetzungen aus Sicht der landwirtschaftlichen Betriebe für die Beschäftigung von Menschen mit Behinderung sowie für bilaterale Kooperationen mit diesen Einrichtungen. Anhand von 44 Betriebsinterviews und unter Anwendung einer qualitativen, rechnerbasierten Fallstudienanalyse zeigen die Ergebnisse eine Vielzahl von Möglichkeiten wirtschaftlich tragfähiger Beschäftigung behinderter Menschen auch in Kernproduktionsprozessen. Unabdingbar dafür sind angepasste Sozialtugenden und ausreichende Arbeitsmotivation auf Arbeitnehmerseite sowie eine offen-innovative und sozial geprägte Grundeinstellung auf Betriebsleitungsseite. Betriebe wünschen sich dauerhafte und verlässliche Arbeitsverhältnisse. Praktika oder gar Experimente kommen für sie eher nicht in Frage. Weniger als 10% aller `Grünen WfbM´ kooperieren bilateral mit umliegenden Betrieben. Dort wo keine Kontakte bestehen, sind Vorbehalte seitens der Landwirte hinsichtlich Wettbewerbsverzerrungen durch vermeintliche Sozialsubventionierung bzw. im Wettbewerb um Ressourcen (z.B. Land) gegenüber den Einrichtungen anzutreffen. Kooperationen fördern gegenseitiges Verständnis und sind so auch idealer `Türöffner´ für Beschäftigungsverhältnisse.
Resumo:
Livestock production contributes substantially to the livelihoods of poor rural farmers in Pakistan; strengthening pastoral communities plays an imperative role in the country’s thrive for poverty alleviation. Intestinal helminths constitute a major threat for pastoral livestock keepers in the whole country because chronic infestation leads to distinct losses in livestock productivity, particularly the growth of young animals. Synthetic anthelmintics have long been considered the only effective way of controlling this problem but high prices, side effects and chemical residues/toxicity problems, or development of resistance, lead to their very limited use in many pastoral systems. Additionally, poor pastoralists in remote areas of Pakistan hardly have access to appropriate anthelmintic drugs, which are also relatively expensive due to the long routes of transportation. The search for new and more sustainable ways of supporting livestock keepers in remote areas has given rise to studies of ethno-botanicals or traditional plant-based remedies to be used in livestock health care. Plant-based remedies are cheap or free of cost, environmentally safe and generally create no problem of drug resistance; they thus might substitute allopathic drugs. Furthermore, these remedies are easily available in remote areas and simple to prepare and/or administer. Cholistan desert is a quite poor region of Pakistan and the majority of its inhabitants are practicing a nomadic life. The region’s total livestock population (1.29 million heads) is almost twice that of the human population. Livestock husbandry is the primordial occupation of the communities and traditionally wealth assessment was based on the number of animals, especially goats and sheep, owned by an individual. Fortunately, about 60% of this desert region is richly endowed with highly adapted grasses, shrubs and trees. This natural flora has a rich heritage of scientifically unexplored botanical pharmacopoeia. Against this background, the present research project that was conducted under the umbrella of the International Center for Development and Decent Work at Kassel University, focused on a development aspect: in the Cholistan desert region it was firstly examined how pastoralists manage their livestock, which major health problems they face for the different animal species, and which of the naturally occurring plants they use for the treatment of animal diseases (Chapter 2). For this purpose, a baseline survey was carried out across five locations in Cholistan, using a structured questionnaire to collect data from 100 livestock farmers (LF) and 20 local healers (LH). Most of LF and LH were illiterate (66%; 70%). On average, LH had larger herds (109 animals) than LF (85 animals) and were more experienced in livestock husbandry and management. On average LF spent about 163 Euro per year on the treatment of their livestock, with a huge variability in expenditures. Eighty-six traditional remedies based on 64 plants belonging to 43 families were used. Capparaceae was the botanical family with the largest number of species used (4), followed by Chenopodiaceae, Poaceae, Solanaceae and Zygophyllaceae (3). The plants Capparis decidua (n=55 mentions), Salsola foetida (n=52), Suaeda fruticosa (n=46), Haloxylon salicornicum (n=42) and Haloxylon recurvum (n=39) were said to be most effective against the infestations with gastrointestinal parasites. Aerial parts (43%), leaves (26%), fruits (9%), seeds and seed oils (9%) were the plant parts frequently used for preparation of remedies, while flowers, roots, bulbs and pods were less frequently used (<5%). Common preparations were decoction, jaggery and ball drench; oral drug administration was very common. There was some variation in the doses used for different animal species depending on age, size and physical condition of the animal and severity of the disease. In a second step the regionally most prevalent gastrointestinal parasites of sheep and goats were determined (Chapter 3) in 500 animals per species randomly chosen from pastoral herds across the previously studied five localities. Standard parasitological techniques were applied to identify the parasites in faecal samples manually collected at the rectum. Overall helminth prevalence was 78.1% across the 1000 animals; pure nematode infestations were most prevalent (37.5%), followed by pure trematode (7.9%), pure cestode (2.6%) and pure protozoa infestations (0.8%). Mixed infestations with nematodes and trematodes occurred in 6.4% of all animals, mixed nematode-cestode infestations in 3.8%, and all three groups were found in 19.1% of the sheep and goats. In goats more males (81.1%) than females (77.0%) were infested, the opposite was found in sheep (73.6% males, 79.5% females). Parasites were especially prevalent in suckling goats (85.2%) and sheep (88.5%) and to a lesser extent in young (goats 80.6%, sheep 79.3%) and adult animals (goats 72.8%, sheep 73.8%). Haemonchus contortus, Trichuris ovis and Paramphistomum cervi were the most prevalent helminths. In a third step the in vitro anthelmintic activity of C. decidua, S. foetida, S. fruticosa, H. salicornicum and H. recurvum (Chapter 2) was investigated against adult worms of H. contortus, T. ovis and P. cervi (Chapter 3) via adult motility assay (Chapter 4). Various concentrations ranging from 7.8 to 500 mg dry matter/ml of three types of extracts of each plant, i.e. aqueous, methanol, and aqueous-methanol (30:70), were used at different time intervals to access their anthelmintic activity. Levamisol (0.55 mg/ml) and oxyclozanide (30 mg/ml) served as positive and phosphate-buffered saline as negative control. All extracts exhibited minimum and maximum activity at 2 h and 12 h after parasite exposure; the 500 mg/ml extract concentrations were most effective. Plant species (P<0.05), extract type (P<0.01), parasite species (P<0.01), extract concentration (P<0.01), time of exposure (P<0.01) and their interactions (P<0.01) had significant effects on the number of immobile/dead helminths. From the comparison of LC50 values it appeared that the aqueous extract of C. decidua was more potent against H. contortus and T. ovis, while the aqueous extract of S. foetida was effective against P. cervi. The methanol extracts of H. recurvum were most potent against all three types of parasites, and its aqueous-methanol extract was also very effective against T. ovis and P. cervi. Based on these result it is concluded that the aqueous extract of C. decidua, as well as the methanol and aqueous-methanol extract of H. recurvum have the potential to be developed into plant-based drugs for treatment against H. contortus, T. ovis and P. cervi infestations. Further studies are now needed to investigate the in vivo anthelmintic activity of these plants and plant extracts, respectively, in order to develop effective, cheap and locally available anthelmintics for pastoralists in Cholistan and neighboring desert regions. This will allow developing tangible recommendations for plant-based anthelminthic treatment of sheep and goat herds, and by this enable pastoralists to maintain healthy and productive flocks at low costs and probably even manufacture herbal drugs for marketing on a regional scale.
Resumo:
Das Beurteilen von Schülerleistungen, das Erfassen ihrer unterschiedlichen Lernvoraussetzungen und das Beobachten und Beurteilen von Schülerlernprozessen stellen wichtige Handlungsroutinen im Alltag von Lehrkräften dar. Dem gegenüber steht die Tatsache, dass sich noch bis vor einigen Jahren nur wenige Arbeiten und Projekte explizit mit der Diagnosekompetenz von angehenden und praktizierenden Lehrkräften beschäftigt haben. Die vorliegende Arbeit, die ein Teilprojekt innerhalb eines größeren interdisziplinären Projektes zur Diagnosekompetenz von Lehramtsstudierenden darstellt, möchte einen Beitrag leisten zur Debatte um die diagnostische Kompetenz. Ihr Hauptaugenmerk richtet sie dabei auf die diagnostische Kompetenz von Biologie-Lehramtsstudierenden im Bereich der naturwissenschaftlichen Erkenntnisgewinnung. Im Zuge der notwenigen theoretischen Konzeptionierung präsentiert die Arbeit einen im Gesamtprojekt erarbeiteten Vorschlag für eine Modellierung der (fachbezogenen) Diagnosekompetenz von Lehramtsstudierenden. Ergänzend dazu findet im Rahmen der Arbeit eine Klärung der in der Forschungsliteratur oftmals uneinheitlich benutzten Begrifflichkeiten zur diagnostischen Kompetenz statt. Weiterhin wird ein Vergleich von verschiedenen in der Literatur verwendeten Konzeptualisierungsansätzen vorgenommen. Da in der Forschungsliteratur keine geeigneten Instrumente zum Erfassen der hier im Speziellen betrachteten diagnostischen Kompetenz vorlagen, mussten diese im Rahmen der Arbeit neu entwickelt werden. Ein wesentlicher Ansatz dabei war eine Unterscheidung von status- und prozessdiagnostischen Kompetenzen und die Entwicklung entsprechend geeigneter Erhebungsinstrumente. Die neu entwickelten Testinstrumente wurden bei zwei Studierenden-Jahrgängen an verschiedenen Zeitpunkten im Verlauf ihres Studiums eingesetzt. Im Test zur Messung ihrer statusdiagnostischen Kompetenzen hatten die Studierenden Schülerlösungen aus dem Bereich der naturwissenschaftlichen Erkenntnisgewinnung zu analysieren und zu beurteilen. Dabei zeigte sich als ein zentraler Befund, dass die Probanden das Leistungsniveau der Schülerlösungen umso schlechter korrekt beurteilen konnten, je höher es war. Weiterhin wurde deutlich, dass die diagnostische Kompetenz der Lehramtsstudierenden für die typischen Teilschritte im Rahmen der Erkenntnisgewinnung unterschiedlich hoch ausgeprägt ist. So fiel es ihnen am leichtesten, die Schülerlösungen zum Teilschritt „Datenanalyse“ zu beurteilen, wohingegen sie deutlich größere Schwierigkeiten hatten, das Leistungsniveau der Schülerlösungen zum Teilschritt „Planen einer Untersuchung“ korrekt einzuschätzen. Im Test zum Erfassen der prozessdiagnostischen Fähigkeiten der Studierenden wurde ihnen ein Experimentierprozess zweier Schüler vorgelegt. Auffällig in Bezug auf ihre diagnostische Kompetenz waren die massiven Schwierigkeiten beim Beurteilen des Schülerumgangs mit den Variablen. Im Vergleich der status- und prozessdiagnostischen Fähigkeiten erwies sich die Prozessdiagnostik als die für die Studierenden schwierigere Tätigkeit. Ein wesentliches Plus in Bezug auf das Gewinnen von Informationen über die diagnostische Kompetenz brachte der Einsatz von Videoanalysen zusätzlich zu den beschriebenen paper-pencil basierten Testinstrumenten. Über eine Analyse der Testbearbeitungsprozesse der Studierenden wurde untersucht, aus welchen Beweggründen und auf Basis welcher Annahmen diese zu ihren diagnostischen Urteilen gekommen waren. Mit Hilfe der auf diese Weise gewonnenen prozessbezogenen Informationen war es möglich, die spezifischen Schwierigkeiten der Studierenden beim Diagnostizieren genauer herauszuarbeiten. Neben den genannten Untersuchungen zu den Ausprägungen von diagnostischer Kompetenz im Bereich Erkenntnisgewinnung wurden im Rahmen der Arbeit auch ihre postulierten Bedingungsfaktoren untersucht: das fachmethodische Vorwissen der Studierenden und ihr Wissenschaftsverständnis. Nur für ersteres konnte ein wenngleich geringer, aber doch signifikanter Zusammenhang festgestellt werden. Ergänzend zum Blick auf die möglichen Bedingungsfaktoren wurden auch Zusammenhänge zwischen der diagnostischen Kompetenz und verschiedenen ausgewählten Personen- und Kontextvariablen untersucht (z.B. die von den Studierenden gewählte Lehramtsform, ihre Fächerkombination, ihr Geschlecht und ihre Abiturnote). Von allen untersuchten Variablen erwies sich die von den Studierenden gewählte Lehramtsform als derjenige Faktor, der den wenngleich ebenfalls nur schwachen, aber doch durchgängig vorhandensten Zusammenhang aufwies. Zusätzlich zu der (objektiven) Erfassung der diagnostischen Kompetenzen mit Hilfe der Messinstrumente präsentiert die Arbeit Ergebnisse zum Verlauf der subjektiven Selbsteinschätzungen der Studierenden hinsichtlich ihres diagnostischen Wissens. Es zeigte sich, dass die Studierenden das Studium für die Ausbildung ihrer diagnostischen Kompetenz als weniger hilfreich empfinden als für den Aufbau der anderen Bereiche ihres Professionswissens. Die Arbeit endet mit einem Fazit zu den Testinstrument-Entwicklungen und den in den verschiedenen Untersuchungen gewonnenen Befunden, verbunden mit einem Ausblick auf mögliche Implikationen für die Lehrerausbildung und sich anschließende Forschungsvorhaben.
Resumo:
Summary - Cooking banana is one of the most important crops in Uganda; it is a staple food and source of household income in rural areas. The most common cooking banana is locally called matooke, a Musa sp triploid acuminate genome group (AAA-EAHB). It is perishable and traded in fresh form leading to very high postharvest losses (22-45%). This is attributed to: non-uniform level of harvest maturity, poor handling, bulk transportation and lack of value addition/processing technologies, which are currently the main challenges for trade and export, and diversified utilization of matooke. Drying is one of the oldest technologies employed in processing of agricultural produce. A lot of research has been carried out on drying of fruits and vegetables, but little information is available on matooke. Drying of matooke and milling it to flour extends its shelf-life is an important means to overcome the above challenges. Raw matooke flour is a generic flour developed to improve shelf stability of the fruit and to find alternative uses. It is rich in starch (80 - 85%db) and subsequently has a high potential as a calorie resource base. It possesses good properties for both food and non-food industrial use. Some effort has been done to commercialize the processing of matooke but there is still limited information on its processing into flour. It was imperative to carry out an in-depth study to bridge the following gaps: lack of accurate information on the maturity window within which matooke for processing into flour can be harvested leading to non-uniform quality of matooke flour; there is no information on moisture sorption isotherm for matooke from which the minimum equilibrium moisture content in relation to temperature and relative humidity is obtainable, below which the dry matooke would be microbiologically shelf-stable; and lack of information on drying behavior of matooke and standardized processing parameters for matooke in relation to physicochemical properties of the flour. The main objective of the study was to establish the optimum harvest maturity window and optimize the processing parameters for obtaining standardized microbiologically shelf-stable matooke flour with good starch quality attributes. This research was designed to: i) establish the optimum maturity harvest window within which matooke can be harvested to produce a consistent quality of matooke flour, ii) establish the sorption isotherms for matooke, iii) establish the effect of process parameters on drying characteristics of matooke, iv) optimize the drying process parameters for matooke, v) validate the models of maturity and optimum process parameters and vi) standardize process parameters for commercial processing of matooke. Samples were obtained from a banana plantation at Presidential Initiative on Banana Industrial Development (PIBID), Technology Business Incubation Center (TBI) at Nyaruzunga – Bushenyi in Western Uganda. A completely randomized design (CRD) was employed in selecting the banana stools from which samples for the experiments were picked. The cultivar Mbwazirume which is soft cooking and commonly grown in Bushenyi was selected for the study. The static gravitation method recommended by COST 90 Project (Wolf et al., 1985), was used for determination of moisture sorption isotherms. A research dryer developed for this research. All experiments were carried out in laboratories at TBI. The physiological maturity of matooke cv. mbwazirume at Bushenyi is 21 weeks. The optimum harvest maturity window for commercial processing of matooke flour (Raw Tooke Flour - RTF) at Bushenyi is between 15-21 weeks. The finger weight model is recommended for farmers to estimate harvest maturity for matooke and the combined model of finger weight and pulp peel ratio is recommended for commercial processors. Matooke isotherms exhibited type II curve behavior which is characteristic of foodstuffs. The GAB model best described all the adsorption and desorption moisture isotherms. For commercial processing of matooke, in order to obtain a microbiologically shelf-stable dry product. It is recommended to dry it to moisture content below or equal to 10% (wb). The hysteresis phenomenon was exhibited by the moisture sorption isotherms for matooke. The isoteric heat of sorption for both adsorptions and desorption isotherms increased with decreased moisture content. The total isosteric heat of sorption for matooke: adsorption isotherm ranged from 4,586 – 2,386 kJ/kg and desorption isotherm from 18,194– 2,391 kJ/kg for equilibrium moisture content from 0.3 – 0.01 (db) respectively. The minimum energy required for drying matooke from 80 – 10% (wb) is 8,124 kJ/kg of water removed. Implying that the minimum energy required for drying of 1 kg of fresh matooke from 80 - 10% (wb) is 5,793 kJ. The drying of matooke takes place in three steps: the warm-up and the two falling rate periods. The drying rate constant for all processing parameters ranged from 5,793 kJ and effective diffusivity ranged from 1.5E-10 - 8.27E-10 m2/s. The activation energy (Ea) for matooke was 16.3kJ/mol (1,605 kJ/kg). Comparing the activation energy (Ea) with the net isosteric heat of sorption for desorption isotherm (qst) (1,297.62) at 0.1 (kg water/kg dry matter), indicated that Ea was higher than qst suggesting that moisture molecules travel in liquid form in matooke slices. The total color difference (ΔE*) between the fresh and dry samples, was lowest for effect of thickness of 7 mm, followed by air velocity of 6 m/s, and then drying air temperature at 70˚C. The drying system controlled by set surface product temperature, reduced the drying time by 50% compared to that of a drying system controlled by set air drying temperature. The processing parameters did not have a significant effect on physicochemical and quality attributes, suggesting that any drying air temperature can be used in the initial stages of drying as long as the product temperature does not exceed gelatinization temperature of matooke (72˚C). The optimum processing parameters for single-layer drying of matooke are: thickness = 3 mm, air temperatures 70˚C, dew point temperature 18˚C and air velocity 6 m/s overflow mode. From practical point of view it is recommended that for commercial processing of matooke, to employ multi-layer drying of loading capacity equal or less than 7 kg/m², thickness 3 mm, air temperatures 70˚C, dew point temperature 18˚C and air velocity 6 m/s overflow mode.
Resumo:
In the process of urbanization, natural and semi-natural landscapes are increasingly cherished as open space and recreational resource. Urban rivers are part of this kind of resource and thus play an important role in managing urban resilience and health. Employing the example of Tianjin, this doctoral dissertation research aims at learning to understand how to plan and design for the interface zones between urban water courses and for the land areas adjacent to such water courses. This research also aims at learning how to link waterfront space with other urban space in order to make a recreational space system for the benefit of people. Five questions of this dissertation are: 1) what is the role of rivers in spatial and open space planning? 2) What are the human needs regarding outdoor open space? 3) How do river and water front spatial structures affect people's recreational activities? 4) How to define the recreational service of urban river and waterfront open space? 5) How might answering these question change planning and design of urban open space? Quantitative and qualitative empirical approaches were combined in this study for which literature review and theoretical explorations provide the basis. Empirical investigations were conducted in the city of Tianjin. The quantitative approach includes conducting 267 quantitative interviews, and the qualitative approach includes carrying out field observations and mappings. GIS served to support analysis and visualization of empirical information that was generated through this study. By responding to the five research questions, findings and lessons include the following: 1) In the course of time rivers have gained importance in all levels and scales of spatial planning and decision making. Regarding the development of ecological networks, mainly at national scale, rivers are considered significant linear elements. Regarding regional and comprehensive development, river basins and watersheds are often considered as the structural link for strategic ecological, economic, social and recreational planning. For purposes of urban planning, particularly regarding recreational services in cities, the distribution of urban open spaces often follows the structure of river systems. 2) For the purpose of classifying human recreational needs that relate to outdoor open space Maslow's hierarchy of human needs serves as theoretical basis. The classes include geographical, safety, physiological, social and aesthetic need. These classes serve as references while analyzing river and waterfront open space and other kinds of open space. 3) Regarding the question how river and waterfront spatial structures might affect people's recreational activities, eight different landscape units were identified and compared in the case study area. Considering the thermal conditions of Tianjin, one of these landscape units was identified as affording the optimal spatial arrangement which mostly meets recreational needs. The size and the shape of open space, and the plants present in an open space have been observed as being most relevant regarding recreational activities. 4) Regarding the recreational service of urban river and waterfront open space the results of this research suggest that the recreational service is felt less intensively as the distances between water 183 front and open space user’s places of residence are increasing. As a method for estimating this ‘Service Distance Effect’ the following formula may be used: Y = a*ebx. In this equation Y means the ‘Service Distance’ between homes and open space, and X means the percentage of the people who live within this service distance. Coefficient "a" represents the distance of the residential area nearest to the water front. The coefficient "b" is a comprehensive capability index that refers to the size of the available and suitable recreational area. 5) Answers found to the questions above have implications for the planning and design of urban open space. The results from the quantitative study of recreational services of waterfront open space were applied to the assessment of river-based open space systems. It is recommended that such assessments might be done employing the network analysis function available with any GIS. In addition, several practical planning and designing suggestions are made that would help remedy any insufficient base for satisfying recreational needs. The understanding of recreational need is considered helpful for the proposing planning and designing ideas and for the changing of urban landscapes. In the course of time Tianjin's urban water system has shrunk considerably. At the same time rivers and water courses have shaped Tianjin's urban structure in noticeable ways. In the process of urbanization water has become increasingly important to the citizens and their everyday recreations. Much needs to be changed in order to improve recreational opportunities and to better provide for a livable city, most importantly when considering the increasing number of old people. Suggestions made that are based on results of this study, might be implemented in Tianjin. They are 1) to promote the quality of the waterfront open space and to make all linear waterfront area accessible recreational spaces. Then, 2), it is advisable to advocate the concept of green streets and to combine green streets with river open space in order to form an everyday recreational network. And 3) any sound urban everyday recreational service made cannot rely on only urban rivers; the whole urban structure needs to be improved, including adding small open space and optimize the form of urban communities, finally producing a multi-functional urban recreational network.
Resumo:
Enterprise-Resource-Planning-Systeme (ERP-Systeme) bilden für die meisten mittleren und großen Unternehmen einen essentiellen Bestandteil ihrer IT-Landschaft zur Verwaltung von Geschäftsdaten und Geschäftsprozessen. Geschäftsdaten werden in ERP-Systemen in Form von Geschäftsobjekten abgebildet. Ein Geschäftsobjekt kann mehrere Attribute enthalten und über Assoziationen zu anderen Geschäftsobjekten einen Geschäftsobjektgraphen aufspannen. Existierende Schnittstellen ermöglichen die Abfrage von Geschäftsobjekten, insbesondere mit Hinblick auf deren Attribute. Die Abfrage mit Bezug auf ihre Position innerhalb des Geschäftsobjektgraphen ist jedoch über diese Schnittstellen häufig nur sehr schwierig zu realisieren. Zur Vereinfachung solcher Anfragen können semantische Technologien, wie RDF und die graphbasierte Abfragesprache SPARQL, verwendet werden. SPARQL ermöglicht eine wesentlich kompaktere und intuitivere Formulierung von Anfragen gegen Geschäftsobjektgraphen, als es mittels der existierenden Schnittstellen möglich ist. Die Motivation für diese Arbeit ist die Vereinfachung bestimmter Anfragen gegen das im Rahmen dieser Arbeit betrachtete SAP ERP-System unter Verwendung von SPARQL. Zur Speicherung von Geschäftsobjekten kommen in ERP-Systemen typischerweise relationale Datenbanken zum Einsatz. Die Bereitstellung von SPARQL-Endpunkten auf Basis von relationalen Datenbanken ist ein seit längerem untersuchtes Gebiet. Es existieren verschiedene Ansätze und Tools, welche die Anfrage mittels SPARQL erlauben. Aufgrund der Komplexität, der Größe und der Änderungshäufigkeit des ERP-Datenbankschemas können solche Ansätze, die direkt auf dem Datenbankschema aufsetzen, nicht verwendet werden. Ein praktikablerer Ansatz besteht darin, den SPARQL-Endpunkt auf Basis existierender Schnittstellen zu realisieren. Diese sind weniger komplex als das Datenbankschema, da sie die direkte Abfrage von Geschäftsobjekten ermöglichen. Dadurch wird die Definition des Mappings erheblich vereinfacht. Das ERP-System bietet mehrere Schnittstellen an, die sich hinsichtlich des Aufbaus, der Zielsetzung und der verwendeten Technologie unterscheiden. Unter anderem wird eine auf OData basierende Schnittstelle zur Verfügung gestellt. OData ist ein REST-basiertes Protokoll zur Abfrage und Manipulation von Daten. Von den bereitgestellten Schnittstellen weist das OData-Interface gegenüber den anderen Schnittstellen verschiedene Vorteile bei Realisierung eines SPARQL-Endpunktes auf. Es definiert eine Abfragesprache und einen Link-Adressierungsmechanismus, mit dem die zur Beantwortung einer Anfrage benötigten Service-Aufrufe und die zu übertragende Datenmenge erheblich reduziert werden können. Das Ziel dieser Arbeit besteht in der Entwicklung eines Verfahrens zur Realisierung eines SPARQL-Endpunktes auf Basis von OData-Services. Dazu wird zunächst eine Architektur vorgestellt, die als Grundlage für die Implementierung eines entsprechenden Systems dienen kann. Ausgehend von dieser Architektur, werden die durch den aktuellen Forschungsstand noch nicht abgedeckten Bereiche ermittelt. Nach bestem Wissen ist diese Arbeit die erste, welche die Abfrage von OData-Schnittstellen mittels SPARQL untersucht. Dabei wird als Teil dieser Arbeit ein neuartiges Konzept zur semantischen Beschreibung von OData-Services vorgestellt. Dieses ermöglicht die Definition von Abbildungen der von den Services bereitgestellten Daten auf RDF-Graphen. Aufbauend auf den Konzepten zur semantischen Beschreibung wird eine Evaluierungssemantik erarbeitet, welche die Auflösung von Ausdrücken der SPARQL-Algebra gegen semantisch annotierte OData-Services definiert. Dabei werden die Daten aller OData-Services ermittelt, die zur vollständigen Abarbeitung einer Anfrage benötigt werden. Zur Abfrage der relevanten Daten wurden Konzepte zur Erzeugung der entsprechenden OData-URIs entwickelt. Das vorgestellte Verfahren wurde prototypisch implementiert und anhand zweier Anwendungsfälle für die im betrachteten Szenario maßgeblichen Servicemengen evaluiert. Mit den vorgestellten Konzepten besteht nicht nur die Möglichkeit, einen SPARQL-Endpunkt für ein ERP-System zu realisieren, vielmehr kann jede Datenquelle, die eine OData-Schnittstelle anbietet, mittels SPARQL angefragt werden. Dadurch werden große Datenmengen, die bisher für die Verarbeitung mittels semantischer Technologien nicht zugänglich waren, für die Integration mit dem Semantic Web verfügbar gemacht. Insbesondere können auch Datenquellen, deren Integration miteinander bisher nicht oder nur schwierig möglich war, über Systeme zur föderierten Abfrage miteinander integriert werden.
Resumo:
In der psycholinguistischen Forschung ist die Annahme weitverbreitet, dass die Bewertung von Informationen hinsichtlich ihres Wahrheitsgehaltes oder ihrer Plausibilität (epistemische Validierung; Richter, Schroeder & Wöhrmann, 2009) ein strategischer, optionaler und dem Verstehen nachgeschalteter Prozess ist (z.B. Gilbert, 1991; Gilbert, Krull & Malone, 1990; Gilbert, Tafarodi & Malone, 1993; Herbert & Kübler, 2011). Eine zunehmende Anzahl an Studien stellt dieses Zwei-Stufen-Modell von Verstehen und Validieren jedoch direkt oder indirekt in Frage. Insbesondere Befunde zu Stroop-artigen Stimulus-Antwort-Kompatibilitätseffekten, die auftreten, wenn positive und negative Antworten orthogonal zum aufgaben-irrelevanten Wahrheitsgehalt von Sätzen abgegeben werden müssen (z.B. eine positive Antwort nach dem Lesen eines falschen Satzes oder eine negative Antwort nach dem Lesen eines wahren Satzes; epistemischer Stroop-Effekt, Richter et al., 2009), sprechen dafür, dass Leser/innen schon beim Verstehen eine nicht-strategische Überprüfung der Validität von Informationen vornehmen. Ausgehend von diesen Befunden war das Ziel dieser Dissertation eine weiterführende Überprüfung der Annahme, dass Verstehen einen nicht-strategischen, routinisierten, wissensbasierten Validierungsprozesses (epistemisches Monitoring; Richter et al., 2009) beinhaltet. Zu diesem Zweck wurden drei empirische Studien mit unterschiedlichen Schwerpunkten durchgeführt. Studie 1 diente der Untersuchung der Fragestellung, ob sich Belege für epistemisches Monitoring auch bei Informationen finden lassen, die nicht eindeutig wahr oder falsch, sondern lediglich mehr oder weniger plausibel sind. Mithilfe des epistemischen Stroop-Paradigmas von Richter et al. (2009) konnte ein Kompatibilitätseffekt von aufgaben-irrelevanter Plausibilität auf die Latenzen positiver und negativer Antworten in zwei unterschiedlichen experimentellen Aufgaben nachgewiesen werden, welcher dafür spricht, dass epistemisches Monitoring auch graduelle Unterschiede in der Übereinstimmung von Informationen mit dem Weltwissen berücksichtigt. Darüber hinaus belegen die Ergebnisse, dass der epistemische Stroop-Effekt tatsächlich auf Plausibilität und nicht etwa auf der unterschiedlichen Vorhersagbarkeit von plausiblen und unplausiblen Informationen beruht. Das Ziel von Studie 2 war die Prüfung der Hypothese, dass epistemisches Monitoring keinen evaluativen Mindset erfordert. Im Gegensatz zu den Befunden anderer Autoren (Wiswede, Koranyi, Müller, Langner, & Rothermund, 2013) zeigte sich in dieser Studie ein Kompatibilitätseffekt des aufgaben-irrelevanten Wahrheitsgehaltes auf die Antwortlatenzen in einer vollständig nicht-evaluativen Aufgabe. Die Ergebnisse legen nahe, dass epistemisches Monitoring nicht von einem evaluativen Mindset, möglicherweise aber von der Tiefe der Verarbeitung abhängig ist. Studie 3 beleuchtete das Verhältnis von Verstehen und Validieren anhand einer Untersuchung der Online-Effekte von Plausibilität und Vorhersagbarkeit auf Augenbewegungen beim Lesen kurzer Texte. Zusätzlich wurde die potentielle Modulierung dieser Effeke durch epistemische Marker, die die Sicherheit von Informationen anzeigen (z.B. sicherlich oder vielleicht), untersucht. Entsprechend der Annahme eines schnellen und nicht-strategischen epistemischen Monitoring-Prozesses zeigten sich interaktive Effekte von Plausibilität und dem Vorhandensein epistemischer Marker auf Indikatoren früher Verstehensprozesse. Dies spricht dafür, dass die kommunizierte Sicherheit von Informationen durch den Monitoring-Prozess berücksichtigt wird. Insgesamt sprechen die Befunde gegen eine Konzeptualisierung von Verstehen und Validieren als nicht-überlappenden Stufen der Informationsverarbeitung. Vielmehr scheint eine Bewertung des Wahrheitsgehalts oder der Plausibilität basierend auf dem Weltwissen – zumindest in gewissem Ausmaß – eine obligatorische und nicht-strategische Komponente des Sprachverstehens zu sein. Die Bedeutung der Befunde für aktuelle Modelle des Sprachverstehens und Empfehlungen für die weiterführende Forschung zum Vehältnis von Verstehen und Validieren werden aufgezeigt.