898 resultados para Extrusion dies
Resumo:
Die Arbeit beschäftigt sich mit der Frage, wie Bürger an der Inventarisierung historischer Kulturlandschaftselemente mitwirken können und welche Leistungen von ihnen erbracht werden können. Dabei wird der Fokus darauf gerichtet, ob mit einer optimalen organisatorischen und methodischen Herangehensweise ein Inventar historischer Kulturlandschaftselemente erstellt werden kann, das auch den Anforderungen für eine planerische Anwendung genügt. Forschungsschwerpunkte der Arbeit sind entsprechend die Inventarisierung historischer Kulturlandschaftselemente und die Anforderungen an die dabei erstellten Inventare sowie die Möglichkeiten für bürgerschaftliches Engagement bei der Inventarisierung. Darüber hinaus wird der Frage nachgegangen, ob mit dem bürgerschaftlichen Engagement bei der Inventarisierung ein sonstiger Mehrwert verbunden ist. Die Untersuchung wird anhand von Fallstudien durchgeführt. Empirische Grundlage sind acht ausgewählte Beispielprojekte, in denen Bürger an der Inventarisierung historischer Kulturlandschaftselemente mitwirken bzw. diese durchführen. Um einen möglichst großen Erfahrungspool zu erschließen wurden Fallbeispiele gewählt, die sich u. a. hinsichtlich der Rahmenbedingungen, der Organisationsstrukturen, dem Maß und der Art der Mitwirkung von Bürgern unterscheiden. Die detaillierte Analyse dieser Projekte und die Evaluierung der in ihrem Rahmen erstellten Inventare ist Hauptgegenstand dieser Arbeit und eine Grundlage für die Entwicklung von Empfehlungen für bürgerschaftliches Engagement bei der Inventarisierung historischer Kulturlandschaftselemente. Die Datenerhebung für die Analyse und Evaluierung erfolgt in erster Linie mittels Befragungen. Die Untersuchung zeigt, dass durch bürgerschaftliches Engagement wertvolle Beiträge zur Inventarisierung historischer Kulturlandschaftselemente geleistet werden können. In der Bevölkerung gibt es sowohl Interesse an der aktiven Mitwirkung als auch Kompetenzen, um unter Anleitung historische Kulturlandschaftselemente zu erfassen. Es müssen jedoch einige methodische Hinweise berücksichtigt und Maßnahmen getroffen werden, um Defizite, die sich durch die Erfassung durch Freiwillige ergeben können, zu vermeiden. So ist es bspw. zwingend notwendig, organisatorische Strukturen, Methoden und Standards vorzugeben, die Freiwilligen anzuleiten und ggf. zu unterstützen sowie die erhobenen Daten zu prüfen und in einem gewissen Umfang auch zu qualifizieren. Wenn die Inventarisierungen von Fachexperten aufgebaut und gesteuert werden, kann verhindert werden, dass die methodische Vorgehensweise von den fachlichen Anforderungen abweicht, und dass falsch erhobene und bewertete Daten verbreitet werden. Nicht von der Hand zu weisen ist der hohe Organisations- und Betreuungsaufwand sowie der Aufwand zur Prüfung und Nachbesserung der Daten, der mit der Beteiligung von Bürgern einhergeht. Doch selbst wenn die erfassten Daten der Bürger nur eine Grundlage bilden, die geprüft und für eine planerische Verwendung weiter qualifiziert werden muss, können durch die Einbindung von Bürgern wichtige Beiträge zum Erhalt der Kulturlandschaft geleistet werden. Neben der Datenerfassung werden zahlreiche Bürger für das Themenfeld Kulturlandschaft sensibilisiert, so dass die Anliegen zum Erhalt der Kulturlandschaft in weiten Teilen der Bevölkerung an Bedeutung gewinnen und verankert werden können. Um das Potenzial bürgerschaftlichen Engagements für die Inventarisierung historischer Kulturlandschaftselemente optimal nutzen zu können, und um möglichst bundes- oder landesweit einheitliche Inventare zu erstellen die Akzeptanz finden und für die Planung und weitere Anwendungszwecke genutzt werden, besteht noch Entwicklungs- und Abstimmungsbedarf. Manche Entwicklungen stehen nicht in Zusammenhang mit der Beteiligung von Bürgern, sondern sind generell notwendig, um einheitliche und möglichst landes- oder gar bundesweite Inventarisierungen historischer Kulturlandschaftselemente zu realisieren. Dies betrifft z. B. die Konsensfindung unter den Behörden und Fachstellen bezüglich methodischer Fragen und der Zuständigkeiten oder die Entwicklung eines geeigneten GIS-basierten Online-Inventars.
Resumo:
Die Trocknung ist eines der am häufigsten verwendeten Verfahren, um die Haltbarkeit von landwirtschaftlichen Gütern zu verlängern. Von den vielen gebräuchlichen Trocknungsarten ist die Konvektionstrocknung, die Luft als Energie- und Feuchteträger verwendet, weiterhin die wichtigste. Trotz ihrer Nachteile und ihres hohen spezifischen Energieverbrauchs sind Satztrockner für die Getreide-, Kräuter- und Heutrocknung noch weit verbreitet. Ferner werden Konvektionstrockner gemeinhin zur künstlichen Trocknung eingesetzt. Diese Arbeit ist Teil eines Forschungsprojekts, welches eine sorptionsgestützte solare Trocknung von landwirtschaftlichen Gütern untersucht. Bei dieser wird kühle feuchte Luft in Kontakt mit einer konzentrierten hygroskopischen Salzlösung gebracht. Während dieses Prozesses wird die Luft entfeuchtet und mit Hilfe der freigesetzten Verdampfungsenthalpie erwärmt. Die Anwendung dieses Verfahrens zur Trocknung landwirtschaftlicher Güter ist besonders interessant für Produkte, die bei niedrigen Temperaturen verarbeitet werden, um ihre Qualität nicht negativ zu beeinflussen. Bei allen energieintensiven Prozessen und vor allem bei der Verwendung von Solarenergie ist ein effizienter Energieverbrauch äußerst wichtig für den technischen und ökonomischen Erfolg. Eine ungleichmäßige Trocknung ist oftmals bei Satztrocknern zu beobachten, was die Energieeffizienz negativ beeinflusst. Aus diesem Grund lag im agrartechnischen Teil des Projekts der Schwerpunkt auf der Trocknung bei niedrigen Temperaturen und geringer Luftfeuchte, die der Sorptionsprozess liefert, sowie auf der Verbesserung der Luftverteilung und der Gleichmäßigkeit der Trocknung in lockeren und verdichteten Schüttungen. Es wurden Dünnschicht-Trocknungsexperminente für Blattsellerie bei unterschiedlichen Lufttemperaturen und unterschiedlicher relativer Luftfeuchte durchgeführt. Die Ergebnisse zeigen eindeutig, dass nicht nur die Lufttemperatur einen großen Einfluss auf die Trocknungsgeschwindigkeit hat, sondern auch die relative Luftfeuchte. Dies ist vor allem bei niedrigen Temperaturen, wie sie vom Sorptionssystem geliefert werden, der Fall. Um die Luftverteilung und Gleichmäßigkeit der Trocknung lockerer Schüttungen zu untersuchen, wurde ein Kistentrockner experimentell und in Strömungssimulationen getestet. Die Leistung des ursprünglichen Trockners wurde signifikant durch einfache Veränderungen des Designs verbessert. Diese stellten einen gleichmäßigeren Luftstrom durch das Produkt sicher. Die Trocknung von Heu-Rundballen stellt eine Herausforderung dar, da diese sehr stark verdichtet sind und die Dichte innerhalb eines Ballens stark schwankt. Strömungs- und Trocknungssimulationen so wie experimentelle Messungen zeigten, dass das Trocknerdesign einen großen Einfluss auf die Gleichmäßigkeit der Trocknung hat. Bei den einfachsten Trocknervarianten war die Verteilung auch bei optimal gepressten Ballen unzureichend, während komplexere Trockner eine gleichmäßigere Trocknung erzielten. Jedoch werden auch hier die Ergebnisse stark von der Verteilung der Dichte im Ballen beeinflusst, welche in der Praxis weiterhin nicht ideal ist. Abschließend wurde, um den Trocknungsfortschritt zu überwachen, eine Methodik getestet, bei der zur Messung des durchschnittlichen aktuellen Feuchtegehalts des Produktes psychrometrische Messungen und Messungen des Luftstroms in kurzen Abständen durchgeführt wurden. Die Menge des tatsächlich entfernten Wassers stimmte in den meisten Fällen gut mit der geschätzten Menge überein. Jedoch hängt der Erfolg dieser Methode stark von der Genauigkeit der Messfühler ab.
Resumo:
In this work investigation of the QDs formation and the fabrication of QD based semiconductor lasers for telecom applications are presented. InAs QDs grown on AlGaInAs lattice matched to InP substrates are used to fabricate lasers operating at 1.55 µm, which is the central wavelength for far distance data transmission. This wavelength is used due to its minimum attenuation in standard glass fibers. The incorporation of QDs in this material system is more complicated in comparison to InAs QDs in the GaAs system. Due to smaller lattice mismatch the formation of circular QDs, elongated QDs and quantum wires is possible. The influence of the different growth conditions, such as the growth temperature, beam equivalent pressure, amount of deposited material on the formation of the QDs is investigated. It was already demonstrated that the formation process of QDs can be changed by the arsenic species. The formation of more round shaped QDs was observed during the growth of QDs with As2, while for As4 dash-like QDs. In this work only As2 was used for the QD growth. Different growth parameters were investigated to optimize the optical properties, like photoluminescence linewidth, and to implement those QD ensembles into laser structures as active medium. By the implementation of those QDs into laser structures a full width at half maximum (FWHM) of 30 meV was achieved. Another part of the research includes the investigation of the influence of the layer design of lasers on its lasing properties. QD lasers were demonstrated with a modal gain of more than 10 cm-1 per QD layer. Another achievement is the large signal modulation with a maximum data rate of 15 Gbit/s. The implementation of optimized QDs in the laser structure allows to increase the modal gain up to 12 cm-1 per QD layer. A reduction of the waveguide layer thickness leads to a shorter transport time of the carriers into the active region and as a result a data rate up to 22 Gbit/s was achieved, which is so far the highest digital modulation rate obtained with any 1.55 µm QD laser. The implementation of etch stop layers into the laser structure provide the possibility to fabricate feedback gratings with well defined geometries for the realization of DFB lasers. These DFB lasers were fabricated by using a combination of dry and wet etching. Single mode operation at 1.55 µm with a high side mode suppression ratio of 50 dB was achieved.
Einfluss von Erhitzung und Gefriertrocknung auf die Lutein- und Zeaxanthin-Konzentrationen in Eigelb
Resumo:
Veränderungen der Matrixbindung und der molekularen Struktur der antioxidativ wirkenden Carotinoide können die Bioakzessibilität dieser Substanzen beeinflussen. Die vorliegende Studie untersuchte die Einflüsse von Erhitzung und Gefriertrocknung auf die Massenkonzentrationen der all-E- und 13-Z-Isomere von Lutein und Zeaxanthin in Eigelb und dessen Fraktionen Plasma und Granula. Dabei wurden die Strukturveränderungen der Lipoproteine, mit deren Lipiden die Eigelb-Xanthophylle assoziiert sind, betrachtet. Die Strukturentfaltungen der Low-Density und High-Density Lipoproteine (LDL und HDL) erhöhten die Extrahierbarkeit sowie Z-Isomerisierungen und oxidative Degradationen der Xanthophylle, die der Temperatureinfluss und Reaktanten katalysierten. Die Extrahierbarkeit, Z-Isomerisierungen und oxidative Degradationen der Xanthophylle waren durch den Aufschluss, die Gelbildung, die Oberflächenvergrößerung und die Erhöhung des Trockenmassegehalts der Matrix beeinflusst. Die Strukturentfaltung der in hohen Mengen in Plasma enthaltenen LDL findet bei geringeren Temperaturen (ca. 65 - 76 °C) als die der in Granula dominanten HDL (ca. 75 - 84 °C) statt. Zudem schien die gefriertrocknungsinduzierte Strukturentfaltung der LDL im Gegensatz zu HDL und Granula durch Rehydratation nicht vollständig reversibel zu sein. Daher wies Plasma eine geringere Stabilität bei der Erhitzung und Gefriertrocknung als Eigelb und Granula auf. Die Entfaltung von Lipoproteinstrukturen und die thermisch katalysierte Z-Isomerisierung sind wahrscheinlich für die signifikante 13-Z-Lutein-Zunahme nach Erhitzung von Plasma und Granula bei 82 und 87 °C sowie von Granula bei 77 °C verantwortlich. Der signifikante Verlust der all-E-Isomere der bei 87 °C erhitzten Proben von Eigelb und Granula war vermutlich durch 13-Z-Isomerisierungen und oxidative Degradationen der Xanthophylle bedingt. Marginale Veränderungen der Xanthophylle basierten vermutlich darauf, dass die multifaktoriellen Einflüsse bei der Erhitzung einander kompensierten. Die Erhitzung bei 67 °C bedingte zudem aufgrund der weitgehenden Erhaltung der Lipoproteine ähnliche Xanthophyll-Gehalte wie bei den unerhitzten Proben. Bei der Gefriertrocknung führten die Strukturentfaltung der Lipoproteine unter Abspaltung der Lipide und die abtrocknungsbedingte Oberflächenvergrößerung zu signifikanten Zunahmen der Xanthophylle bei Plasma und Granula. Dies bestätigte sich für gefriergetrocknetes Eigelb vermutlich aufgrund von oxidativen Degradationen und Aggregationen der Xanthophylle nicht. Unterschiedliche Massenkonzentrationsänderungen der Xanthophylle im Vergleich der beiden Chargen wurden mit unterschiedlichen Anteilen an ungesättigten Fettsäuren erklärt. Die charakteristischen Anteile an Proteinen und Lipoproteinen, deren Gelbildungseigenschaften und die Lipidkomposition der Lipoproteine sowie die methodisch bedingte Verdünnung von Plasma waren vermutlich für die bei Granula, Plasma und Eigelb differierenden Massenkonzentrationsänderungen der Xanthophylle verantwortlich. Die Ergebnisse ließen eine höhere 13-Z-Isomerisierungsneigung von all-E-Lutein im Vergleich zu all-E-Zeaxanthin vermuten.
Resumo:
Thema der vorliegenden Arbeit ist die Bestimmung von Basen von Räumen spezieller harmonischer 2-Koketten auf Bruhat-Tits-Gebäuden der PGL(3) über Funktionenkörpern. Hierzu wird der Raum der speziellen harmonischen 2-Koketten auf dem Bruhat-Tits-Gebäude der PGL(3) zunächst mit gewissen komplexen Linearkombinationen von 2-Simplizes des Quotientenkomplexes, sogenannten geschlossenen Flächen, identifiziert und anschließend durch verallgemeinerte Modulsymbole beschrieben. Die Darstellung der Gruppe der Modulsymbole durch Erzeuger und Relationen ermöglicht die Bestimmung einer endlichen Basis des Raums der speziellen harmonischen 2-Koketten. Die so gewonnenen Erkenntnisse können zur Untersuchung von Hecke-Operatoren auf speziellen harmonischen 2-Koketten genutzt werden. Mithilfe des hergeleiteten Isomorphismus zwischen dem Raum der speziellen harmonischen 2-Koketten und dem Raum der geschlossenen Flächen wird die Theorie der Hecke-Operatoren auf den Raum der geschlossenen Flächen übertragen. Dies ermöglicht die Berechnung von Abbildungsmatrizen der Hecke-Operatoren auf dem Raum der harmonischen 2-Koketten durch die Auswertung auf den geschlossenen Flächen.
Resumo:
In der psycholinguistischen Forschung ist die Annahme weitverbreitet, dass die Bewertung von Informationen hinsichtlich ihres Wahrheitsgehaltes oder ihrer Plausibilität (epistemische Validierung; Richter, Schroeder & Wöhrmann, 2009) ein strategischer, optionaler und dem Verstehen nachgeschalteter Prozess ist (z.B. Gilbert, 1991; Gilbert, Krull & Malone, 1990; Gilbert, Tafarodi & Malone, 1993; Herbert & Kübler, 2011). Eine zunehmende Anzahl an Studien stellt dieses Zwei-Stufen-Modell von Verstehen und Validieren jedoch direkt oder indirekt in Frage. Insbesondere Befunde zu Stroop-artigen Stimulus-Antwort-Kompatibilitätseffekten, die auftreten, wenn positive und negative Antworten orthogonal zum aufgaben-irrelevanten Wahrheitsgehalt von Sätzen abgegeben werden müssen (z.B. eine positive Antwort nach dem Lesen eines falschen Satzes oder eine negative Antwort nach dem Lesen eines wahren Satzes; epistemischer Stroop-Effekt, Richter et al., 2009), sprechen dafür, dass Leser/innen schon beim Verstehen eine nicht-strategische Überprüfung der Validität von Informationen vornehmen. Ausgehend von diesen Befunden war das Ziel dieser Dissertation eine weiterführende Überprüfung der Annahme, dass Verstehen einen nicht-strategischen, routinisierten, wissensbasierten Validierungsprozesses (epistemisches Monitoring; Richter et al., 2009) beinhaltet. Zu diesem Zweck wurden drei empirische Studien mit unterschiedlichen Schwerpunkten durchgeführt. Studie 1 diente der Untersuchung der Fragestellung, ob sich Belege für epistemisches Monitoring auch bei Informationen finden lassen, die nicht eindeutig wahr oder falsch, sondern lediglich mehr oder weniger plausibel sind. Mithilfe des epistemischen Stroop-Paradigmas von Richter et al. (2009) konnte ein Kompatibilitätseffekt von aufgaben-irrelevanter Plausibilität auf die Latenzen positiver und negativer Antworten in zwei unterschiedlichen experimentellen Aufgaben nachgewiesen werden, welcher dafür spricht, dass epistemisches Monitoring auch graduelle Unterschiede in der Übereinstimmung von Informationen mit dem Weltwissen berücksichtigt. Darüber hinaus belegen die Ergebnisse, dass der epistemische Stroop-Effekt tatsächlich auf Plausibilität und nicht etwa auf der unterschiedlichen Vorhersagbarkeit von plausiblen und unplausiblen Informationen beruht. Das Ziel von Studie 2 war die Prüfung der Hypothese, dass epistemisches Monitoring keinen evaluativen Mindset erfordert. Im Gegensatz zu den Befunden anderer Autoren (Wiswede, Koranyi, Müller, Langner, & Rothermund, 2013) zeigte sich in dieser Studie ein Kompatibilitätseffekt des aufgaben-irrelevanten Wahrheitsgehaltes auf die Antwortlatenzen in einer vollständig nicht-evaluativen Aufgabe. Die Ergebnisse legen nahe, dass epistemisches Monitoring nicht von einem evaluativen Mindset, möglicherweise aber von der Tiefe der Verarbeitung abhängig ist. Studie 3 beleuchtete das Verhältnis von Verstehen und Validieren anhand einer Untersuchung der Online-Effekte von Plausibilität und Vorhersagbarkeit auf Augenbewegungen beim Lesen kurzer Texte. Zusätzlich wurde die potentielle Modulierung dieser Effeke durch epistemische Marker, die die Sicherheit von Informationen anzeigen (z.B. sicherlich oder vielleicht), untersucht. Entsprechend der Annahme eines schnellen und nicht-strategischen epistemischen Monitoring-Prozesses zeigten sich interaktive Effekte von Plausibilität und dem Vorhandensein epistemischer Marker auf Indikatoren früher Verstehensprozesse. Dies spricht dafür, dass die kommunizierte Sicherheit von Informationen durch den Monitoring-Prozess berücksichtigt wird. Insgesamt sprechen die Befunde gegen eine Konzeptualisierung von Verstehen und Validieren als nicht-überlappenden Stufen der Informationsverarbeitung. Vielmehr scheint eine Bewertung des Wahrheitsgehalts oder der Plausibilität basierend auf dem Weltwissen – zumindest in gewissem Ausmaß – eine obligatorische und nicht-strategische Komponente des Sprachverstehens zu sein. Die Bedeutung der Befunde für aktuelle Modelle des Sprachverstehens und Empfehlungen für die weiterführende Forschung zum Vehältnis von Verstehen und Validieren werden aufgezeigt.
„Alles hat seine Stunde. Für jedes Geschehen unter dem Himmel gibt es eine bestimmte Zeit“ (Koh 3,1)
Resumo:
Armut/Reichtum, Arbeit, Glück, Tod, Gott und Mensch sowie Zeit – Dies alles sind Themen, die als existentiell bezeichnet werden können. Mit ihnen beschäftigt sich das alttestamentliche Buch Kohelet, das ca. zwischen 250 und 190 v. Chr. entstanden ist. Trotz des Alters dieses Buches behandelt Kohelet Fragen, die hoch aktuell sind: Gibt es einen Gott? Greift dieser ein? Ist Reichtum etwas Erstrebenswertes? Warum mühen wir uns so ab, wenn wir doch sowieso sterben und all das Erarbeitete hinterlassen müssen? Und haben wir überhaupt Entscheidungs- und Handlungsfreiheit? Ist nicht vielleicht sogar alles von Gott bestimmt? Die Fragen hängen eng mit dem eigenen Selbstbild zusammen. Besonders im Jugendalter befindet sich der Mensch auf der Suche nach einer Identität, nach Erkenntnissen und einer eigenen Weltanschauung. Kohelets Fragen gewinnen in dieser Zeit an Relevanz. Das alttestamentliche Buch kann insbesondere in dieser Lebensphase fruchtbar gemacht werden und anregend sein. Es kann Heranwachsende dazu auffordern, das bisherige Selbstbild und die eigene Weltanschauung zu hinterfragen. Aus diesen Überlegungen heraus ergibt sich das Buch Kohelet als wertvoller Gesprächspartner Jugendlicher. Daneben erscheint es auch naheliegend, Jugendliche mit Kohelet ins Gespräch zu bringen, weil der Adressat des Buches nach Schmitz der junge Erwachsene sei (vgl. Schmitz, 2004, S. 325). Obwohl eine Relevanz des Buches für Jugendliche auszumachen ist, kann das Buch Kohelet bisher als „bibeldidaktisches Stiefkind“ (G. Langenhorst, 2004, S. 317) angesehen werden. Vereinzelt finden sich Umsetzungsvorschläge des Buches im Unterricht. In Lehrplänen wird es jedoch kaum aufgegriffen. Hinzu kommt, dass sich kaum Ausführungen dazu finden, wie Jugendliche die Gedanken Kohelets überhaupt verstehen. Aus diesem Grund hat die vorliegende Arbeit das Ziel, dies in Erfahrung zu bringen. Um die Ausgangsfrage zu beantworten, wurde eine empirische Untersuchung der Rezeption durchgeführt. Dabei wurde das Zeitgedicht des Koheletbuches fokussiert, das das menschliche Leben als Ganzes thematisiert und implizit ein Menschenbild entfaltet. Über die Frage der Rezeption durch OberstufenschülerInnen hinaus, möchte die Arbeit auch Rückschlüsse auf eine mögliche Beschäftigung mit Kohelet im Religionsunterricht schließen. Zunächst wird das hier grundgelegte Verständnis von Textrezeption erläutert. Daraufhin wird der Blick auf die Texteinheit gerichtet. Diese wird eingehend exegetisch untersucht, wobei auch die verschiedenen Lesarten thematisiert werden. In einem nächsten Kapitel rücken die SchülerInnen als Adoleszente ins Zentrum, woraufhin die Untersuchung des Dialogs zwischen Text und SchülerInnen und somit der Rezeption vollzogen wird. Den Schluss bildet ein Fazit mit einem Ausblick.
Resumo:
In Oman, during the last three decades, agricultural water use and groundwater extraction has dramatically increased to meet the needs of a rapidly growing population and major changes in lifestyle. This has triggered agricultural land-use changes which have been poorly investigated. In view of this our study aimed at analysing patterns of shortterm land-use changes (2007-2009) in the five irrigated mountain oases of Ash Sharayjah, Al’Ayn, Al’Aqr, Qasha’ and Masayrat ar Ruwajah situated in the northern Oman Hajar mountains of Al Jabal Al Akhdar where competitive uses of irrigation water are particularly apparent. Comprehensive GIS-based field surveys were conducted over three years to record changes in terrace use in these five oases where farmers have traditionally adapted to rain-derived variations of irrigation water supply, e.g. by leaving agricultural terraces of annual crops uncultivated in drought years. Results show that the area occupied with field crops decreased in the dry years of 2008 and 2009 for all oases. In Ash Sharayjah, terrace areas grown with field crops declined from 4.7 ha (32.4 % of total terrace area) in 2007 to 3.1 ha (21.6 %) in 2008 and 3.0 ha (20.5 %) in 2009. Similarly, the area proportion of field crops shrunk in Al’Ayn, Qasha’ and Masayrat from 35.2, 36.3 and 49.6 % in 2007 to 19.8, 8.5 and 41.3 % in 2009, respectively. In Al’Aqr, the area of field crops slightly increased from 0.3 ha (17.0 %) in 2007 to 0.7 (39.1 %) in 2008, and decreased to 0.5 ha (28.8 %) in 2009. During the same period annual dry matter yields of the cash crop garlic in Ash Sharayjah increased from 16.3 t ha-1 in 2007 to 19.8 t ha-1 in 2008 and 18.3 t ha-1 in 2009, while the same crop yielded only 0.4, 1.6 and 1.1 t ha-1 in Masayrat. In 2009, the total estimated agricultural area of the new town of Sayh Qatanah above the five oases was around 13.5 ha. Our results suggest that scarcity of irrigation water as a result of low precipitation and increased irrigation and home water consumption in the new urban settlements above the five oases have led to major shifts in the land-use pattern and increasingly threaten the centuries-long tradition and drought-resilience of agriculture in the oases of the studied watershed.
Resumo:
The research of this thesis dissertation covers developments and applications of short-and long-term climate predictions. The short-term prediction emphasizes monthly and seasonal climate, i.e. forecasting from up to the next month over a season to up to a year or so. The long-term predictions pertain to the analysis of inter-annual- and decadal climate variations over the whole 21st century. These two climate prediction methods are validated and applied in the study area, namely, Khlong Yai (KY) water basin located in the eastern seaboard of Thailand which is a major industrial zone of the country and which has been suffering from severe drought and water shortage in recent years. Since water resources are essential for the further industrial development in this region, a thorough analysis of the potential climate change with its subsequent impact on the water supply in the area is at the heart of this thesis research. The short-term forecast of the next-season climate, such as temperatures and rainfall, offers a potential general guideline for water management and reservoir operation. To that avail, statistical models based on autoregressive techniques, i.e., AR-, ARIMA- and ARIMAex-, which includes additional external regressors, and multiple linear regression- (MLR) models, are developed and applied in the study region. Teleconnections between ocean states and the local climate are investigated and used as extra external predictors in the ARIMAex- and the MLR-model and shown to enhance the accuracy of the short-term predictions significantly. However, as the ocean state – local climate teleconnective relationships provide only a one- to four-month ahead lead time, the ocean state indices can support only a one-season-ahead forecast. Hence, GCM- climate predictors are also suggested as an additional predictor-set for a more reliable and somewhat longer short-term forecast. For the preparation of “pre-warning” information for up-coming possible future climate change with potential adverse hydrological impacts in the study region, the long-term climate prediction methodology is applied. The latter is based on the downscaling of climate predictions from several single- and multi-domain GCMs, using the two well-known downscaling methods SDSM and LARS-WG and a newly developed MLR-downscaling technique that allows the incorporation of a multitude of monthly or daily climate predictors from one- or several (multi-domain) parent GCMs. The numerous downscaling experiments indicate that the MLR- method is more accurate than SDSM and LARS-WG in predicting the recent past 20th-century (1971-2000) long-term monthly climate in the region. The MLR-model is, consequently, then employed to downscale 21st-century GCM- climate predictions under SRES-scenarios A1B, A2 and B1. However, since the hydrological watershed model requires daily-scale climate input data, a new stochastic daily climate generator is developed to rescale monthly observed or predicted climate series to daily series, while adhering to the statistical and geospatial distributional attributes of observed (past) daily climate series in the calibration phase. Employing this daily climate generator, 30 realizations of future daily climate series from downscaled monthly GCM-climate predictor sets are produced and used as input in the SWAT- distributed watershed model, to simulate future streamflow and other hydrological water budget components in the study region in a multi-realization manner. In addition to a general examination of the future changes of the hydrological regime in the KY-basin, potential future changes of the water budgets of three main reservoirs in the basin are analysed, as these are a major source of water supply in the study region. The results of the long-term 21st-century downscaled climate predictions provide evidence that, compared with the past 20th-reference period, the future climate in the study area will be more extreme, particularly, for SRES A1B. Thus, the temperatures will be higher and exhibit larger fluctuations. Although the future intensity of the rainfall is nearly constant, its spatial distribution across the region is partially changing. There is further evidence that the sequential rainfall occurrence will be decreased, so that short periods of high intensities will be followed by longer dry spells. This change in the sequential rainfall pattern will also lead to seasonal reductions of the streamflow and seasonal changes (decreases) of the water storage in the reservoirs. In any case, these predicted future climate changes with their hydrological impacts should encourage water planner and policy makers to develop adaptation strategies to properly handle the future water supply in this area, following the guidelines suggested in this study.
Resumo:
In der gesamten Hochschullandschaft begleiten eLearning-Szenarien organisatorische Erneuerungsprozesse und stellen damit ein vielversprechendes Instrument zur Unterstützung und Verbesserung der klassischen Präsenzlehre dar. Davon ausgehend wurde von 2010 bis 2011 das Kasseler Sportspiel-Modell um die integrative Vermittlung der Einkontakt-Rückschlagspiele erweitert (Heyer, Albert, Scheid & Blömeke-Rumpf, 2011) und in einen modularisierten eLearning-Content, bestehend aus insgesamt 4 Modulen (17 Lernkurse, 171 Kursseiten, 73 Grafiken, 73 Videos, 38 Lernkontrollfragen), eingebunden. Dieser Content wurde im Rahmen einer Evaluationsstudie in Blended Learning Seminaren, welche die didaktischen Vorteile von Online- und Präsenzphasen zu einer Seminarform vereinen (Treumann, Ganguin & Arens, 2012), vergleichend zur klassischen Präsenzlehre im Sportstudium betrachtet. Die Studie gliedert sich in insgesamt drei Phasen: 1.) Pilotstudie am IfSS in Kassel (WS 2011/12; N=17, Lehramt), 2.) Hauptuntersuchung I am IfSS in Kassel (SS 2012; N=67, Lehramt) und 3.) Hauptuntersuchung II am IfS in Frankfurt a. M. (WS 2012/13; N=112, BA). Mittels varianzanalytischer Untersuchungsverfahren erfasst die Studie auf drei unterschiedlichen Qualitätsebenen folgende Aspekte der Lehr-Lernforschung: 1.) Ebene der Inputqualität: Bewertung der Seminarform (BS), 2.) Ebene der Prozessqualität: Motivation (SELLMO-ST), Lernstrategien (LIST) und computerbezogene Einstellung (FIDEC), 3.) Ebene der Outcomequalität: Lernleistung (Abschlusstest und Transferaufgabe). In der vergleichenden Betrachtung der beiden Hauptuntersuchungen erfolgt eine Gegenüberstellung von je einem Präsenzseminar zu zwei unterschiedlichen Varianten von Blended Learning Seminaren (BL-1, BL-2). Während der Online-Phasen bearbeiten die Sportstudierenden in BL-1 die Module in Lerngruppen. Die Teilnehmer in BL-2 führen in diesen Phasen zusätzlich persönliche Lerntagebücher. Dies soll zu einer vergleichsweise intensiveren Auseinandersetzung mit den Inhalten der Lernkurse sowie dem eigenen Lernprozess auf kognitiver und metakognitiver Ebene anregen (Hübner, Nückles & Renkl, 2007) und folglich zu besseren Ergebnissen auf den drei Qualitätsebenen führen. Die Ergebnisse der beiden Hauptuntersuchungen zeigen in der direkten, standortbezogenen Gegenüberstellung aller drei Seminarformen überwiegend keine statistisch signifikanten Unterschiede. Der erwartete positive Effekt durch die Einführung des Lerntagebuchs bleibt ebenfalls aus. Im standortübergreifenden Vergleich der Blended-Learning-Seminare ist bemerkenswert, dass die Probanden aus Frankfurt gegenüber ihrer Seminarform eine tendenziell kritischere Haltung einnehmen, was möglicherweise mit den vorherrschenden, unterschiedlichen Studiengängen – Lehramt und BA – korrespondiert. Zusammenfassend lässt sich somit für den untersuchten Bereich der Rückschlagspielvermittlung festhalten, dass Blended-Learning-Seminare eine qualitativ gleichwertige Alternative zur klassischen Präsenzlehre im Sportstudium darstellen.
Resumo:
Biogasgüllen haben bezüglich ihrer Wirkung auf die Bodenfruchtbarkeit, das Pflanzenwachstum und die Umwelt, Vor- und Nachteile. Als Folge der intensiven Nutzung von Biogas zur Energieerzeugung wurde die Biogasgülle eine der wichtigsten organischen Dünger, mit zunehmender Relevanz für den konventionellen aber auch den ökologischen Landbau. Aufgrund der frühen Entwicklung von Biogas und dem Einsatz von Biogasgüllen in der ökologischen Landwirtschaft in den achtziger Jahren im Nord-Osten Baden-Württembergs sind heute Ackerflächen vorhanden, die seit mehr als 25 Jahren mit Biogasgülle gedüngt werden. Somit bestand hier eine Möglichkeit, Informationen über die Langzeiteffekte von Biogasgüllen auf Parameter der Bodenfruchtbarkeit in der ökologischen, landwirtschaftlichen Praxis zu erlangen. Im ersten Projekt wurde daher eine On-Farm Boden- und Gülleprobenahme durchgeführt. Ziel war es, Parameter der Bodenfruchtbarkeit wie die mikrobielle Aktivität (Basalatmung), den mikrobiellen Biomasse C und N, pilzliches Ergosterol, mikrobielle Residuen (Aminozucker), organischen C, gesamt N und den pH-Wert im Boden auf fünf Flächenpaaren des biologisch-dynamischen Landbaus zu messen. Die sich daraus ergebende Hypothese war hierbei, dass der langjährige Einsatz von Biogasgülle im Vergleich zu Rohgüllen keinen Effekt auf die organische Bodensubstanz und die mikrobiellen Eigenschaften des Bodens hat, da die negativen Effekte wie zum Beispiel der reduzierte C-Input durch positive Effekte wie z.B. die erhöhte Nährstoffverfügbarkeit für Pflanzen kompensiert wird. Die Ergebnisse zeigten, dass die Langzeitanwendung von Biogasgülle keinen negativen Einfluss auf die C- und N-Vorräte im Boden hatte. Der Einsatz von Biogasgülle führte jedoch zu einem engeren Verhältnis von mikrobiellem C zu organischem C im Boden, was auf eine reduzierte C-Verfügbarkeit für Mikroorganismen im Vergleich zu Rohgüllen schließen lässt. Die Biogasgülleanwendung führte zu einer tendenziellen Abnahme der mikrobiellen Residuen, wobei die unterschiedlichen Tongehalte der untersuchten Flächen mögliche signifikante Gülleeffekte auf die mikrobiellen Eigenschaften verdeckt haben. Es gab keine generellen Effekte der Biogasgülle auf das Verhältnis von Pilzen zu Bakterien, wohingegen ein zunehmender Tongehalt eine signifikante Verlagerung in Richtung der Bakterien verursachte. Die Übereinstimmung der erhobenen Daten aller angewendeten Methoden weist auf die starke Aussagekraft dieser On-Farm Studie zum Vergleich benachbarter Flächen hin. Im Anschluss an das On-Farm Projekt, in dem die Langzeitwirkung von Biogasgülle auf den Boden untersucht wurde, sollten die Auswirkungen der Düngung mit unterschiedlichen Biogas-und Rohgüllen unter kontrollierten Bedingungen geprüft werden. Daher wurde ein 70-tägiger Gewächshausversuch mit den Güllen der biologisch-dynamischen Betriebe auf einem tonigen Schluff und unter Weidelgras (Lolium multiflorum, var. Ligrande) durchgeführt. Ziel war es, die Effekte unterschiedlicher Güllen auf das Pflanzenwachstum und die mikrobiellen Eigenschaften im Boden und an Wurzeln zu untersuchen. Die Düngung erhöhte die durchschnittliche oberirdische Pflanzenbiomasse um 69% unter Biogasgülle und um 36% unter Rohgülle im Vergleich zur ungedüngten Kontrolle. Zwischen der oberirdischen Biomasse und dem zugeführten NH4-N wurde ein stark linearer Zusammenhang festgestellt. Im Gegensatz zu den Biogasgüllen gab es unter den Rohgüllen einen signifikanten Anstieg des mikrobiellen Biomasse C und N um etwa 25% verglichen zur ungedüngten Kontrollvariante. Der Einsatz von Biogasgüllen führte gegenüber der Rohgülle und Kontrolle zu geringeren Ergosterolgehalten im Boden, was ein engeres Verhältnis von Ergosterol zu mikrobieller Biomasse C zur Folge hatte. Bezogen auf die Wurzeltrockenmasse verringerte die Düngung die Konzentrationen der Aminozucker Muraminsäure, Galaktosamin und Glukosamin um 24, 29 und 37%, gleichzeitig wurde jedoch kein Einfluss auf die Ergosterolgehalte festgestellt. Dies war höchstwahrscheinlich Folge der reduzierten Kolonisierung mit arbuskulärer Mykorrhiza in Gegenwart ausreichend verfügbarer Pflanzennährstoffen. Um einen Eindruck über die mikrobielle Biomasse und die mikrobielle Gemeinschaft in Biogas- und Rohgüllen zu bekommen, wurde ein drittes Projekt durchgeführt. Die von den 6 biologisch-dynamischen Betrieben erhaltenen Güllen wurden auf ihre Ergosterol- und Aminozuckerkonzentrationen untersucht. Hierbei entstand eine zuverlässige und präzise Methode zur Bestimmung von Ergosterol in Biogas- und Roghüllen. Die Biogasgüllen enthielten signifikant geringere Konzentrationen an Ergosterol (-34%), MurN (-42%), GalN (-32%) und pilzlichem GlcN (-40%) im Vergleich zu den Rohgüllen. Die durchschnittlichen Verhältnisse von pilzlichem GlcN zu Ergosterol (50) und pilzlichem C zu bakteriellem C (0.29) zeigten keine signifikanten Unterschiede zwischen den Gülletypen. Die durchschnittliche Konzentration von mikrobiellem C war in Biogasgülle signifikant geringer als in Rohgülle. Demzufolge lag der Anteil des mikrobiellen C am organischen C bei 3.6% in den Biogasgüllen und 5.7% in den Rohgüllen. Zwischen dem mikrobiellen C der Güllen und deren Faser- und Aschegehalte, sowie den pH-Werten und den CN Verhältnissen konnten nicht-lineare Zusammenhänge festgestellt werden.
Resumo:
We are currently at the cusp of a revolution in quantum technology that relies not just on the passive use of quantum effects, but on their active control. At the forefront of this revolution is the implementation of a quantum computer. Encoding information in quantum states as “qubits” allows to use entanglement and quantum superposition to perform calculations that are infeasible on classical computers. The fundamental challenge in the realization of quantum computers is to avoid decoherence – the loss of quantum properties – due to unwanted interaction with the environment. This thesis addresses the problem of implementing entangling two-qubit quantum gates that are robust with respect to both decoherence and classical noise. It covers three aspects: the use of efficient numerical tools for the simulation and optimal control of open and closed quantum systems, the role of advanced optimization functionals in facilitating robustness, and the application of these techniques to two of the leading implementations of quantum computation, trapped atoms and superconducting circuits. After a review of the theoretical and numerical foundations, the central part of the thesis starts with the idea of using ensemble optimization to achieve robustness with respect to both classical fluctuations in the system parameters, and decoherence. For the example of a controlled phasegate implemented with trapped Rydberg atoms, this approach is demonstrated to yield a gate that is at least one order of magnitude more robust than the best known analytic scheme. Moreover this robustness is maintained even for gate durations significantly shorter than those obtained in the analytic scheme. Superconducting circuits are a particularly promising architecture for the implementation of a quantum computer. Their flexibility is demonstrated by performing optimizations for both diagonal and non-diagonal quantum gates. In order to achieve robustness with respect to decoherence, it is essential to implement quantum gates in the shortest possible amount of time. This may be facilitated by using an optimization functional that targets an arbitrary perfect entangler, based on a geometric theory of two-qubit gates. For the example of superconducting qubits, it is shown that this approach leads to significantly shorter gate durations, higher fidelities, and faster convergence than the optimization towards specific two-qubit gates. Performing optimization in Liouville space in order to properly take into account decoherence poses significant numerical challenges, as the dimension scales quadratically compared to Hilbert space. However, it can be shown that for a unitary target, the optimization only requires propagation of at most three states, instead of a full basis of Liouville space. Both for the example of trapped Rydberg atoms, and for superconducting qubits, the successful optimization of quantum gates is demonstrated, at a significantly reduced numerical cost than was previously thought possible. Together, the results of this thesis point towards a comprehensive framework for the optimization of robust quantum gates, paving the way for the future realization of quantum computers.
Resumo:
In the past decades since Schumpeter’s influential writings economists have pursued research to examine the role of innovation in certain industries on firm as well as on industry level. Researchers describe innovations as the main trigger of industry dynamics, while policy makers argue that research and education are directly linked to economic growth and welfare. Thus, research and education are an important objective of public policy. Firms and public research are regarded as the main actors which are relevant for the creation of new knowledge. This knowledge is finally brought to the market through innovations. What is more, policy makers support innovations. Both actors, i.e. policy makers and researchers, agree that innovation plays a central role but researchers still neglect the role that public policy plays in the field of industrial dynamics. Therefore, the main objective of this work is to learn more about the interdependencies of innovation, policy and public research in industrial dynamics. The overarching research question of this dissertation asks whether it is possible to analyze patterns of industry evolution – from evolution to co-evolution – based on empirical studies of the role of innovation, policy and public research in industrial dynamics. This work starts with a hypothesis-based investigation of traditional approaches of industrial dynamics. Namely, the testing of a basic assumption of the core models of industrial dynamics and the analysis of the evolutionary patterns – though with an industry which is driven by public policy as example. Subsequently it moves to a more explorative approach, investigating co-evolutionary processes. The underlying questions of the research include the following: Do large firms have an advantage because of their size which is attributable to cost spreading? Do firms that plan to grow have more innovations? What role does public policy play for the evolutionary patterns of an industry? Are the same evolutionary patterns observable as those described in the ILC theories? And is it possible to observe regional co-evolutionary processes of science, innovation and industry evolution? Based on two different empirical contexts – namely the laser and the photovoltaic industry – this dissertation tries to answer these questions and combines an evolutionary approach with a co-evolutionary approach. The first chapter starts with an introduction of the topic and the fields this dissertation is based on. The second chapter provides a new test of the Cohen and Klepper (1996) model of cost spreading, which explains the relationship between innovation, firm size and R&D, at the example of the photovoltaic industry in Germany. First, it is analyzed whether the cost spreading mechanism serves as an explanation for size advantages in this industry. This is related to the assumption that the incentives to invest in R&D increase with the ex-ante output. Furthermore, it is investigated whether firms that plan to grow will have more innovative activities. The results indicate that cost spreading serves as an explanation for size advantages in this industry and, furthermore, growth plans lead to higher amount of innovative activities. What is more, the role public policy plays for industry evolution is not finally analyzed in the field of industrial dynamics. In the case of Germany, the introduction of demand inducing policy instruments stimulated market and industry growth. While this policy immediately accelerated market volume, the effect on industry evolution is more ambiguous. Thus, chapter three analyzes this relationship by considering a model of industry evolution, where demand-inducing policies will be discussed as a possible trigger of development. The findings suggest that these instruments can take the same effect as a technical advance to foster the growth of an industry and its shakeout. The fourth chapter explores the regional co-evolution of firm population size, private-sector patenting and public research in the empirical context of German laser research and manufacturing over more than 40 years from the emergence of the industry to the mid-2000s. The qualitative as well as quantitative evidence is suggestive of a co-evolutionary process of mutual interdependence rather than a unidirectional effect of public research on private-sector activities. Chapter five concludes with a summary, the contribution of this work as well as the implications and an outlook of further possible research.
Resumo:
Since no physical system can ever be completely isolated from its environment, the study of open quantum systems is pivotal to reliably and accurately control complex quantum systems. In practice, reliability of the control field needs to be confirmed via certification of the target evolution while accuracy requires the derivation of high-fidelity control schemes in the presence of decoherence. In the first part of this thesis an algebraic framework is presented that allows to determine the minimal requirements on the unique characterisation of arbitrary unitary gates in open quantum systems, independent on the particular physical implementation of the employed quantum device. To this end, a set of theorems is devised that can be used to assess whether a given set of input states on a quantum channel is sufficient to judge whether a desired unitary gate is realised. This allows to determine the minimal input for such a task, which proves to be, quite remarkably, independent of system size. These results allow to elucidate the fundamental limits regarding certification and tomography of open quantum systems. The combination of these insights with state-of-the-art Monte Carlo process certification techniques permits a significant improvement of the scaling when certifying arbitrary unitary gates. This improvement is not only restricted to quantum information devices where the basic information carrier is the qubit but it also extends to systems where the fundamental informational entities can be of arbitary dimensionality, the so-called qudits. The second part of this thesis concerns the impact of these findings from the point of view of Optimal Control Theory (OCT). OCT for quantum systems utilises concepts from engineering such as feedback and optimisation to engineer constructive and destructive interferences in order to steer a physical process in a desired direction. It turns out that the aforementioned mathematical findings allow to deduce novel optimisation functionals that significantly reduce not only the required memory for numerical control algorithms but also the total CPU time required to obtain a certain fidelity for the optimised process. The thesis concludes by discussing two problems of fundamental interest in quantum information processing from the point of view of optimal control - the preparation of pure states and the implementation of unitary gates in open quantum systems. For both cases specific physical examples are considered: for the former the vibrational cooling of molecules via optical pumping and for the latter a superconducting phase qudit implementation. In particular, it is illustrated how features of the environment can be exploited to reach the desired targets.
Resumo:
Das Mahafaly Plateau im südwestlichen Madagaskar ist gekennzeichnet durch raue klimatische Bedingungen, vor allem regelmäßige Dürren und Trockenperioden, geringe Infrastruktur, steigende Unsicherheit, hohe Analphabetenrate und regelmäßige Zerstörung der Ernte durch Heuschreckenplagen. Da 97% der Bevölkerung von der Landwirtschaft abhängen, ist eine Steigerung der Produktivität von Anbausystemen die Grundlage für eine Verbesserung der Lebensbedingungen und Ernährungssicherheit in der Mahafaly Region. Da wenig über die Produktivität von traditionellen extensiven und neu eingeführten Anbaumethoden in diesem Gebiet bekannt ist, waren die Zielsetzungen der vorliegenden Arbeit, die limitierenden Faktoren und vielversprechende alternative Anbaumethoden zu identifizieren und diese unter Feldbedingungen zu testen. Wir untersuchten die Auswirkungen von lokalem Viehmist und Holzkohle auf die Erträge von Maniok, der Hauptanbaufrucht der Region, sowie die Beiträge von weiteren Faktoren, die im Untersuchungsgebiet ertragslimitierend sind. Darüber hinaus wurde in der Küstenregion das Potenzial für bewässerten Gemüseanbau mit Mist und Holzkohle untersucht, um zu einer Diversifizierung von Einkommen und Ernährung beizutragen. Ein weiterer Schwerpunkt dieser Arbeit war die Schätzung von Taubildung und deren Beitrag in der Jahreswasserbilanz durch Testen eines neu entworfenen Taumessgerätes. Maniok wurde über drei Jahre und in drei Versuchsfeldern in zwei Dörfern auf dem Plateau angebaut, mit applizierten Zeburindermistraten von 5 und 10 t ha-1, Holzkohleraten von 0,5 und 2 t ha-1 und Maniokpflanzdichten von 4500 Pflanzen ha-1. Maniokknollenerträge auf Kontrollflächen erreichten 1 bis 1,8 t Trockenmasse (TM) ha-1. Mist führte zu einer Knollenertragssteigerung um 30 - 40% nach drei Jahren in einem kontinuierlich bewirtschafteten Feld mit geringer Bodenfruchtbarkeit, hatte aber keinen Effekt auf den anderen Versuchsfeldern. Holzkohle hatte keinen Einfluss auf Erträge über den gesamten Testzeitraum, während die Infektion mit Cassava-Mosaikvirus zu Ertragseinbußen um bis zu 30% führte. Pflanzenbestände wurden felder-und jahresübergreifend um 4-54% des vollen Bestandes reduziert, was vermutlich auf das Auftreten von Trockenperioden und geringe Vitalität von Pflanzmaterial zurückzuführen ist. Karotten (Daucus carota L. var. Nantaise) und Zwiebeln (Allium cepa L. var. Red Créole) wurden über zwei Trockenzeiten mit lokal erhältlichem Saatgut angebaut. Wir testeten die Auswirkungen von lokalem Rindermist mit einer Rate von 40 t ha-1, Holzkohle mit einer Rate von 10 t ha-1, sowie Beschattung auf die Gemüseernteerträge. Lokale Bewässerungswasser hatte einen Salzgehalt von 7,65 mS cm-1. Karotten- und Zwiebelerträge über Behandlungen und Jahre erreichten 0,24 bis 2,56 t TM ha-1 beziehungsweise 0,30 bis 4,07 DM t ha-1. Mist und Holzkohle hatten keinen Einfluss auf die Erträge beider Kulturen. Beschattung verringerte Karottenerträge um 33% im ersten Jahr, während sich die Erträge im zweiten Jahr um 65% erhöhten. Zwiebelerträge wurden unter Beschattung um 148% und 208% im ersten und zweiten Jahr erhöht. Salines Bewässerungswasser sowie Qualität des lokal verfügbaren Saatgutes reduzierten die Keimungsraten deutlich. Taubildung im Küstendorf Efoetsy betrug 58,4 mm und repräsentierte damit 19% der Niederschlagsmenge innerhalb des gesamten Beobachtungszeitraum von 18 Monaten. Dies weist darauf hin, dass Tau in der Tat einen wichtigen Beitrag zur jährlichen Wasserbilanz darstellt. Tageshöchstwerte erreichten 0,48 mm. Die getestete Tauwaage-Vorrichtung war in der Lage, die nächtliche Taubildung auf der metallischen Kondensationsplatte zuverlässig zu bestimmen. Im abschließenden Kapitel werden die limitierenden Faktoren für eine nachhaltige Intensivierung der Landwirtschaft in der Untersuchungsregion diskutiert.