160 resultados para Szenario-Methode


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Summary - Cooking banana is one of the most important crops in Uganda; it is a staple food and source of household income in rural areas. The most common cooking banana is locally called matooke, a Musa sp triploid acuminate genome group (AAA-EAHB). It is perishable and traded in fresh form leading to very high postharvest losses (22-45%). This is attributed to: non-uniform level of harvest maturity, poor handling, bulk transportation and lack of value addition/processing technologies, which are currently the main challenges for trade and export, and diversified utilization of matooke. Drying is one of the oldest technologies employed in processing of agricultural produce. A lot of research has been carried out on drying of fruits and vegetables, but little information is available on matooke. Drying of matooke and milling it to flour extends its shelf-life is an important means to overcome the above challenges. Raw matooke flour is a generic flour developed to improve shelf stability of the fruit and to find alternative uses. It is rich in starch (80 - 85%db) and subsequently has a high potential as a calorie resource base. It possesses good properties for both food and non-food industrial use. Some effort has been done to commercialize the processing of matooke but there is still limited information on its processing into flour. It was imperative to carry out an in-depth study to bridge the following gaps: lack of accurate information on the maturity window within which matooke for processing into flour can be harvested leading to non-uniform quality of matooke flour; there is no information on moisture sorption isotherm for matooke from which the minimum equilibrium moisture content in relation to temperature and relative humidity is obtainable, below which the dry matooke would be microbiologically shelf-stable; and lack of information on drying behavior of matooke and standardized processing parameters for matooke in relation to physicochemical properties of the flour. The main objective of the study was to establish the optimum harvest maturity window and optimize the processing parameters for obtaining standardized microbiologically shelf-stable matooke flour with good starch quality attributes. This research was designed to: i) establish the optimum maturity harvest window within which matooke can be harvested to produce a consistent quality of matooke flour, ii) establish the sorption isotherms for matooke, iii) establish the effect of process parameters on drying characteristics of matooke, iv) optimize the drying process parameters for matooke, v) validate the models of maturity and optimum process parameters and vi) standardize process parameters for commercial processing of matooke. Samples were obtained from a banana plantation at Presidential Initiative on Banana Industrial Development (PIBID), Technology Business Incubation Center (TBI) at Nyaruzunga – Bushenyi in Western Uganda. A completely randomized design (CRD) was employed in selecting the banana stools from which samples for the experiments were picked. The cultivar Mbwazirume which is soft cooking and commonly grown in Bushenyi was selected for the study. The static gravitation method recommended by COST 90 Project (Wolf et al., 1985), was used for determination of moisture sorption isotherms. A research dryer developed for this research. All experiments were carried out in laboratories at TBI. The physiological maturity of matooke cv. mbwazirume at Bushenyi is 21 weeks. The optimum harvest maturity window for commercial processing of matooke flour (Raw Tooke Flour - RTF) at Bushenyi is between 15-21 weeks. The finger weight model is recommended for farmers to estimate harvest maturity for matooke and the combined model of finger weight and pulp peel ratio is recommended for commercial processors. Matooke isotherms exhibited type II curve behavior which is characteristic of foodstuffs. The GAB model best described all the adsorption and desorption moisture isotherms. For commercial processing of matooke, in order to obtain a microbiologically shelf-stable dry product. It is recommended to dry it to moisture content below or equal to 10% (wb). The hysteresis phenomenon was exhibited by the moisture sorption isotherms for matooke. The isoteric heat of sorption for both adsorptions and desorption isotherms increased with decreased moisture content. The total isosteric heat of sorption for matooke: adsorption isotherm ranged from 4,586 – 2,386 kJ/kg and desorption isotherm from 18,194– 2,391 kJ/kg for equilibrium moisture content from 0.3 – 0.01 (db) respectively. The minimum energy required for drying matooke from 80 – 10% (wb) is 8,124 kJ/kg of water removed. Implying that the minimum energy required for drying of 1 kg of fresh matooke from 80 - 10% (wb) is 5,793 kJ. The drying of matooke takes place in three steps: the warm-up and the two falling rate periods. The drying rate constant for all processing parameters ranged from 5,793 kJ and effective diffusivity ranged from 1.5E-10 - 8.27E-10 m2/s. The activation energy (Ea) for matooke was 16.3kJ/mol (1,605 kJ/kg). Comparing the activation energy (Ea) with the net isosteric heat of sorption for desorption isotherm (qst) (1,297.62) at 0.1 (kg water/kg dry matter), indicated that Ea was higher than qst suggesting that moisture molecules travel in liquid form in matooke slices. The total color difference (ΔE*) between the fresh and dry samples, was lowest for effect of thickness of 7 mm, followed by air velocity of 6 m/s, and then drying air temperature at 70˚C. The drying system controlled by set surface product temperature, reduced the drying time by 50% compared to that of a drying system controlled by set air drying temperature. The processing parameters did not have a significant effect on physicochemical and quality attributes, suggesting that any drying air temperature can be used in the initial stages of drying as long as the product temperature does not exceed gelatinization temperature of matooke (72˚C). The optimum processing parameters for single-layer drying of matooke are: thickness = 3 mm, air temperatures 70˚C, dew point temperature 18˚C and air velocity 6 m/s overflow mode. From practical point of view it is recommended that for commercial processing of matooke, to employ multi-layer drying of loading capacity equal or less than 7 kg/m², thickness 3 mm, air temperatures 70˚C, dew point temperature 18˚C and air velocity 6 m/s overflow mode.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Im Rahmen der Dichtefunktionaltheorie wurden Orbitalfunktionale wie z.B. B3LYP entwickelt. Diese lassen sich mit der „optimized effective potential“ – Methode selbstkonsistent auswerten. Während sie früher nur im 1D-Fall genau berechnet werden konnte, entwickelten Kümmel und Perdew eine Methode, bei der das OEP-Problem unter Verwendung einer Differentialgleichung selbstkonsistent gelöst werden kann. In dieser Arbeit wird ein Finite-Elemente-Mehrgitter-Verfahren verwendet, um die entstehenden Gleichungen zu lösen und damit Energien, Dichten und Ionisationsenergien für Atome und zweiatomige Moleküle zu berechnen. Als Orbitalfunktional wird dabei der „exakte Austausch“ verwendet; das Programm ist aber leicht auf jedes beliebige Funktional erweiterbar. Für das Be-Atom ließ sich mit 8.Ordnung –FEM die Gesamtenergien etwa um 2 Größenordnungen genauer berechnen als der Finite-Differenzen-Code von Makmal et al. Für die Eigenwerte und die Eigenschaften der Atome N und Ne wurde die Genauigkeit anderer numerischer Methoden erreicht. Die Rechenzeit wuchs erwartungsgemäß linear mit der Punktzahl. Trotz recht langsamer scf-Konvergenz wurden für das Molekül LiH Genauigkeiten wie bei FD und bei HF um 2-3 Größenordnungen bessere als mit Basismethoden erzielt. Damit zeigt sich, dass auf diese Weise benchmark-Rechnungen durchgeführt werden können. Diese dürften wegen der schnellen Konvergenz über der Punktzahl und dem geringen Zeitaufwand auch auf schwerere Systeme ausweitbar sein.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In the process of urbanization, natural and semi-natural landscapes are increasingly cherished as open space and recreational resource. Urban rivers are part of this kind of resource and thus play an important role in managing urban resilience and health. Employing the example of Tianjin, this doctoral dissertation research aims at learning to understand how to plan and design for the interface zones between urban water courses and for the land areas adjacent to such water courses. This research also aims at learning how to link waterfront space with other urban space in order to make a recreational space system for the benefit of people. Five questions of this dissertation are: 1) what is the role of rivers in spatial and open space planning? 2) What are the human needs regarding outdoor open space? 3) How do river and water front spatial structures affect people's recreational activities? 4) How to define the recreational service of urban river and waterfront open space? 5) How might answering these question change planning and design of urban open space? Quantitative and qualitative empirical approaches were combined in this study for which literature review and theoretical explorations provide the basis. Empirical investigations were conducted in the city of Tianjin. The quantitative approach includes conducting 267 quantitative interviews, and the qualitative approach includes carrying out field observations and mappings. GIS served to support analysis and visualization of empirical information that was generated through this study. By responding to the five research questions, findings and lessons include the following: 1) In the course of time rivers have gained importance in all levels and scales of spatial planning and decision making. Regarding the development of ecological networks, mainly at national scale, rivers are considered significant linear elements. Regarding regional and comprehensive development, river basins and watersheds are often considered as the structural link for strategic ecological, economic, social and recreational planning. For purposes of urban planning, particularly regarding recreational services in cities, the distribution of urban open spaces often follows the structure of river systems. 2) For the purpose of classifying human recreational needs that relate to outdoor open space Maslow's hierarchy of human needs serves as theoretical basis. The classes include geographical, safety, physiological, social and aesthetic need. These classes serve as references while analyzing river and waterfront open space and other kinds of open space. 3) Regarding the question how river and waterfront spatial structures might affect people's recreational activities, eight different landscape units were identified and compared in the case study area. Considering the thermal conditions of Tianjin, one of these landscape units was identified as affording the optimal spatial arrangement which mostly meets recreational needs. The size and the shape of open space, and the plants present in an open space have been observed as being most relevant regarding recreational activities. 4) Regarding the recreational service of urban river and waterfront open space the results of this research suggest that the recreational service is felt less intensively as the distances between water 183 front and open space user’s places of residence are increasing. As a method for estimating this ‘Service Distance Effect’ the following formula may be used: Y = a*ebx. In this equation Y means the ‘Service Distance’ between homes and open space, and X means the percentage of the people who live within this service distance. Coefficient "a" represents the distance of the residential area nearest to the water front. The coefficient "b" is a comprehensive capability index that refers to the size of the available and suitable recreational area. 5) Answers found to the questions above have implications for the planning and design of urban open space. The results from the quantitative study of recreational services of waterfront open space were applied to the assessment of river-based open space systems. It is recommended that such assessments might be done employing the network analysis function available with any GIS. In addition, several practical planning and designing suggestions are made that would help remedy any insufficient base for satisfying recreational needs. The understanding of recreational need is considered helpful for the proposing planning and designing ideas and for the changing of urban landscapes. In the course of time Tianjin's urban water system has shrunk considerably. At the same time rivers and water courses have shaped Tianjin's urban structure in noticeable ways. In the process of urbanization water has become increasingly important to the citizens and their everyday recreations. Much needs to be changed in order to improve recreational opportunities and to better provide for a livable city, most importantly when considering the increasing number of old people. Suggestions made that are based on results of this study, might be implemented in Tianjin. They are 1) to promote the quality of the waterfront open space and to make all linear waterfront area accessible recreational spaces. Then, 2), it is advisable to advocate the concept of green streets and to combine green streets with river open space in order to form an everyday recreational network. And 3) any sound urban everyday recreational service made cannot rely on only urban rivers; the whole urban structure needs to be improved, including adding small open space and optimize the form of urban communities, finally producing a multi-functional urban recreational network.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In dieser Arbeit wird ein Verfahren zum Einsatz neuronaler Netzwerke vorgestellt, das auf iterative Weise Klassifikation und Prognoseschritte mit dem Ziel kombiniert, bessere Ergebnisse der Prognose im Vergleich zu einer einmaligen hintereinander Ausführung dieser Schritte zu erreichen. Dieses Verfahren wird am Beispiel der Prognose der Windstromerzeugung abhängig von der Wettersituation erörtert. Eine Verbesserung wird in diesem Rahmen mit einzelnen Ausreißern erreicht. Verschiedene Aspekte werden in drei Kapiteln diskutiert: In Kapitel 1 werden die verwendeten Daten und ihre elektronische Verarbeitung vorgestellt. Die Daten bestehen zum einen aus Windleistungshochrechnungen für die Bundesrepublik Deutschland der Jahre 2011 und 2012, welche als Transparenzanforderung des Erneuerbaren Energiegesetzes durch die Übertragungsnetzbetreiber publiziert werden müssen. Zum anderen werden Wetterprognosen, die der Deutsche Wetterdienst im Rahmen der Grundversorgung kostenlos bereitstellt, verwendet. Kapitel 2 erläutert zwei aus der Literatur bekannte Verfahren - Online- und Batchalgorithmus - zum Training einer selbstorganisierenden Karte. Aus den dargelegten Verfahrenseigenschaften begründet sich die Wahl des Batchverfahrens für die in Kapitel 3 erläuterte Methode. Das in Kapitel 3 vorgestellte Verfahren hat im modellierten operativen Einsatz den gleichen Ablauf, wie eine Klassifikation mit anschließender klassenspezifischer Prognose. Bei dem Training des Verfahrens wird allerdings iterativ vorgegangen, indem im Anschluss an das Training der klassenspezifischen Prognose ermittelt wird, zu welcher Klasse der Klassifikation ein Eingabedatum gehören sollte, um mit den vorliegenden klassenspezifischen Prognosemodellen die höchste Prognosegüte zu erzielen. Die so gewonnene Einteilung der Eingaben kann genutzt werden, um wiederum eine neue Klassifikationsstufe zu trainieren, deren Klassen eine verbesserte klassenspezifisch Prognose ermöglichen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In the theory of the Navier-Stokes equations, the proofs of some basic known results, like for example the uniqueness of solutions to the stationary Navier-Stokes equations under smallness assumptions on the data or the stability of certain time discretization schemes, actually only use a small range of properties and are therefore valid in a more general context. This observation leads us to introduce the concept of SST spaces, a generalization of the functional setting for the Navier-Stokes equations. It allows us to prove (by means of counterexamples) that several uniqueness and stability conjectures that are still open in the case of the Navier-Stokes equations have a negative answer in the larger class of SST spaces, thereby showing that proof strategies used for a number of classical results are not sufficient to affirmatively answer these open questions. More precisely, in the larger class of SST spaces, non-uniqueness phenomena can be observed for the implicit Euler scheme, for two nonlinear versions of the Crank-Nicolson scheme, for the fractional step theta scheme, and for the SST-generalized stationary Navier-Stokes equations. As far as stability is concerned, a linear version of the Euler scheme, a nonlinear version of the Crank-Nicolson scheme, and the fractional step theta scheme turn out to be non-stable in the class of SST spaces. The positive results established in this thesis include the generalization of classical uniqueness and stability results to SST spaces, the uniqueness of solutions (under smallness assumptions) to two nonlinear versions of the Euler scheme, two nonlinear versions of the Crank-Nicolson scheme, and the fractional step theta scheme for general SST spaces, the second order convergence of a version of the Crank-Nicolson scheme, and a new proof of the first order convergence of the implicit Euler scheme for the Navier-Stokes equations. For each convergence result, we provide conditions on the data that guarantee the existence of nonstationary solutions satisfying the regularity assumptions needed for the corresponding convergence theorem. In the case of the Crank-Nicolson scheme, this involves a compatibility condition at the corner of the space-time cylinder, which can be satisfied via a suitable prescription of the initial acceleration.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Enterprise-Resource-Planning-Systeme (ERP-Systeme) bilden für die meisten mittleren und großen Unternehmen einen essentiellen Bestandteil ihrer IT-Landschaft zur Verwaltung von Geschäftsdaten und Geschäftsprozessen. Geschäftsdaten werden in ERP-Systemen in Form von Geschäftsobjekten abgebildet. Ein Geschäftsobjekt kann mehrere Attribute enthalten und über Assoziationen zu anderen Geschäftsobjekten einen Geschäftsobjektgraphen aufspannen. Existierende Schnittstellen ermöglichen die Abfrage von Geschäftsobjekten, insbesondere mit Hinblick auf deren Attribute. Die Abfrage mit Bezug auf ihre Position innerhalb des Geschäftsobjektgraphen ist jedoch über diese Schnittstellen häufig nur sehr schwierig zu realisieren. Zur Vereinfachung solcher Anfragen können semantische Technologien, wie RDF und die graphbasierte Abfragesprache SPARQL, verwendet werden. SPARQL ermöglicht eine wesentlich kompaktere und intuitivere Formulierung von Anfragen gegen Geschäftsobjektgraphen, als es mittels der existierenden Schnittstellen möglich ist. Die Motivation für diese Arbeit ist die Vereinfachung bestimmter Anfragen gegen das im Rahmen dieser Arbeit betrachtete SAP ERP-System unter Verwendung von SPARQL. Zur Speicherung von Geschäftsobjekten kommen in ERP-Systemen typischerweise relationale Datenbanken zum Einsatz. Die Bereitstellung von SPARQL-Endpunkten auf Basis von relationalen Datenbanken ist ein seit längerem untersuchtes Gebiet. Es existieren verschiedene Ansätze und Tools, welche die Anfrage mittels SPARQL erlauben. Aufgrund der Komplexität, der Größe und der Änderungshäufigkeit des ERP-Datenbankschemas können solche Ansätze, die direkt auf dem Datenbankschema aufsetzen, nicht verwendet werden. Ein praktikablerer Ansatz besteht darin, den SPARQL-Endpunkt auf Basis existierender Schnittstellen zu realisieren. Diese sind weniger komplex als das Datenbankschema, da sie die direkte Abfrage von Geschäftsobjekten ermöglichen. Dadurch wird die Definition des Mappings erheblich vereinfacht. Das ERP-System bietet mehrere Schnittstellen an, die sich hinsichtlich des Aufbaus, der Zielsetzung und der verwendeten Technologie unterscheiden. Unter anderem wird eine auf OData basierende Schnittstelle zur Verfügung gestellt. OData ist ein REST-basiertes Protokoll zur Abfrage und Manipulation von Daten. Von den bereitgestellten Schnittstellen weist das OData-Interface gegenüber den anderen Schnittstellen verschiedene Vorteile bei Realisierung eines SPARQL-Endpunktes auf. Es definiert eine Abfragesprache und einen Link-Adressierungsmechanismus, mit dem die zur Beantwortung einer Anfrage benötigten Service-Aufrufe und die zu übertragende Datenmenge erheblich reduziert werden können. Das Ziel dieser Arbeit besteht in der Entwicklung eines Verfahrens zur Realisierung eines SPARQL-Endpunktes auf Basis von OData-Services. Dazu wird zunächst eine Architektur vorgestellt, die als Grundlage für die Implementierung eines entsprechenden Systems dienen kann. Ausgehend von dieser Architektur, werden die durch den aktuellen Forschungsstand noch nicht abgedeckten Bereiche ermittelt. Nach bestem Wissen ist diese Arbeit die erste, welche die Abfrage von OData-Schnittstellen mittels SPARQL untersucht. Dabei wird als Teil dieser Arbeit ein neuartiges Konzept zur semantischen Beschreibung von OData-Services vorgestellt. Dieses ermöglicht die Definition von Abbildungen der von den Services bereitgestellten Daten auf RDF-Graphen. Aufbauend auf den Konzepten zur semantischen Beschreibung wird eine Evaluierungssemantik erarbeitet, welche die Auflösung von Ausdrücken der SPARQL-Algebra gegen semantisch annotierte OData-Services definiert. Dabei werden die Daten aller OData-Services ermittelt, die zur vollständigen Abarbeitung einer Anfrage benötigt werden. Zur Abfrage der relevanten Daten wurden Konzepte zur Erzeugung der entsprechenden OData-URIs entwickelt. Das vorgestellte Verfahren wurde prototypisch implementiert und anhand zweier Anwendungsfälle für die im betrachteten Szenario maßgeblichen Servicemengen evaluiert. Mit den vorgestellten Konzepten besteht nicht nur die Möglichkeit, einen SPARQL-Endpunkt für ein ERP-System zu realisieren, vielmehr kann jede Datenquelle, die eine OData-Schnittstelle anbietet, mittels SPARQL angefragt werden. Dadurch werden große Datenmengen, die bisher für die Verarbeitung mittels semantischer Technologien nicht zugänglich waren, für die Integration mit dem Semantic Web verfügbar gemacht. Insbesondere können auch Datenquellen, deren Integration miteinander bisher nicht oder nur schwierig möglich war, über Systeme zur föderierten Abfrage miteinander integriert werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Trocknung ist eines der am häufigsten verwendeten Verfahren, um die Haltbarkeit von landwirtschaftlichen Gütern zu verlängern. Von den vielen gebräuchlichen Trocknungsarten ist die Konvektionstrocknung, die Luft als Energie- und Feuchteträger verwendet, weiterhin die wichtigste. Trotz ihrer Nachteile und ihres hohen spezifischen Energieverbrauchs sind Satztrockner für die Getreide-, Kräuter- und Heutrocknung noch weit verbreitet. Ferner werden Konvektionstrockner gemeinhin zur künstlichen Trocknung eingesetzt. Diese Arbeit ist Teil eines Forschungsprojekts, welches eine sorptionsgestützte solare Trocknung von landwirtschaftlichen Gütern untersucht. Bei dieser wird kühle feuchte Luft in Kontakt mit einer konzentrierten hygroskopischen Salzlösung gebracht. Während dieses Prozesses wird die Luft entfeuchtet und mit Hilfe der freigesetzten Verdampfungsenthalpie erwärmt. Die Anwendung dieses Verfahrens zur Trocknung landwirtschaftlicher Güter ist besonders interessant für Produkte, die bei niedrigen Temperaturen verarbeitet werden, um ihre Qualität nicht negativ zu beeinflussen. Bei allen energieintensiven Prozessen und vor allem bei der Verwendung von Solarenergie ist ein effizienter Energieverbrauch äußerst wichtig für den technischen und ökonomischen Erfolg. Eine ungleichmäßige Trocknung ist oftmals bei Satztrocknern zu beobachten, was die Energieeffizienz negativ beeinflusst. Aus diesem Grund lag im agrartechnischen Teil des Projekts der Schwerpunkt auf der Trocknung bei niedrigen Temperaturen und geringer Luftfeuchte, die der Sorptionsprozess liefert, sowie auf der Verbesserung der Luftverteilung und der Gleichmäßigkeit der Trocknung in lockeren und verdichteten Schüttungen. Es wurden Dünnschicht-Trocknungsexperminente für Blattsellerie bei unterschiedlichen Lufttemperaturen und unterschiedlicher relativer Luftfeuchte durchgeführt. Die Ergebnisse zeigen eindeutig, dass nicht nur die Lufttemperatur einen großen Einfluss auf die Trocknungsgeschwindigkeit hat, sondern auch die relative Luftfeuchte. Dies ist vor allem bei niedrigen Temperaturen, wie sie vom Sorptionssystem geliefert werden, der Fall. Um die Luftverteilung und Gleichmäßigkeit der Trocknung lockerer Schüttungen zu untersuchen, wurde ein Kistentrockner experimentell und in Strömungssimulationen getestet. Die Leistung des ursprünglichen Trockners wurde signifikant durch einfache Veränderungen des Designs verbessert. Diese stellten einen gleichmäßigeren Luftstrom durch das Produkt sicher. Die Trocknung von Heu-Rundballen stellt eine Herausforderung dar, da diese sehr stark verdichtet sind und die Dichte innerhalb eines Ballens stark schwankt. Strömungs- und Trocknungssimulationen so wie experimentelle Messungen zeigten, dass das Trocknerdesign einen großen Einfluss auf die Gleichmäßigkeit der Trocknung hat. Bei den einfachsten Trocknervarianten war die Verteilung auch bei optimal gepressten Ballen unzureichend, während komplexere Trockner eine gleichmäßigere Trocknung erzielten. Jedoch werden auch hier die Ergebnisse stark von der Verteilung der Dichte im Ballen beeinflusst, welche in der Praxis weiterhin nicht ideal ist. Abschließend wurde, um den Trocknungsfortschritt zu überwachen, eine Methodik getestet, bei der zur Messung des durchschnittlichen aktuellen Feuchtegehalts des Produktes psychrometrische Messungen und Messungen des Luftstroms in kurzen Abständen durchgeführt wurden. Die Menge des tatsächlich entfernten Wassers stimmte in den meisten Fällen gut mit der geschätzten Menge überein. Jedoch hängt der Erfolg dieser Methode stark von der Genauigkeit der Messfühler ab.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Circadiane Schrittmacher koordinieren die täglichen Rhythmen in Physiologie und Verhalten in lebenden Organismen. Die Madeira Schabe Rhyparobia maderae (Synonym: Leucophaea maderae) ist ein gut etabliertes Modell, um die neuronalen Mechanismen der circadianen Rhythmen bei Insekten zu studieren. Die akzessorische Medulla (AME) in den optischen Loben des Gehirns wurde als das circadiane Schrittmacherzentrum der Madeira Schabe identifiziert, das circadiane Rhythmen in der Laufaktivität steuert. Über die Neurotransmitter der Eingangswege in das circadiane System der Madeira Schabe ist noch nicht viel bekannt. Das Hauptziel dieser Arbeit war es, mögliche Eingangssignale in die innere Uhr der Madeira Schabe zu bestimmen. An primären Zellkulturen von AME-Neuronen wurden Calcium-Imaging Experimente durchgeführt, um die Neurotransmitter-abhängigen Veränderungen in der intrazellulären Calcium-Konzentration zu messen. Darüber hinaus wurde die Signalkaskade des Neuropeptids Pigment Dispersing Factor (PDF), dem wichtigsten Kopplungsfaktor in circadianen Schrittmachern von Insekten, in Calcium-Imaging und Förster-Resonanzenergietransfer (FRET) Experimenten untersucht. Acetylcholin (ACh) erhöht die intrazelluläre Calcium-Konzentration in der Mehrzahl der circadianen Schrittmacherneurone der Madeiraschabe. Applikation von GABA, Serotonin und Octopamin erhöhten oder reduzierten die intrazelluläre Calcium-Konzentration in den AME-Neuronen, während Histamin und Glutamat die intrazelluläre Calcium-Konzentration ausschließlich reduzierten. Pharmakologische Experimente zeigten, dass die AME-Neurone ACh über ionotrope nikotinische ACh-Rezeptoren detektierten, während GABA über ionotrope GABAA-Rezeptoren und metabotrope GABAB-Rezeptoren detektiert wurde. Diese Ergebnisse deuten darauf hin, dass die circadiane Aktivität der Schabe durch verschiedene Eingänge, einschließlich ACh, GABA, Glutamat, Histamin, Octopamin und Serotonin, moduliert wird. Bei den FRET Studien wurde ein Proteinkinase A (PKA)-basierter FRET Sensor zur Detektion von cyclischem AMP (cAMP) verwendet. Es wurde gezeigt, dass PDF über Adenylylcyclase-abhängige und -unabhängige Signalwege wirken kann. Zusätzlich wurden Laufrad-Assays durchgeführt, um Phasenverschiebungen im Rhythmus der circadianen Laufaktivität zu detektieren, nachdem der Neurotransmitter Histamin zu verschiedenen circadianen Zeiten injiziert wurde. Histamin-Injektionen durch die Komplexaugen der Schabe ergaben eine biphasische Phasenantwortkurve (phase response curve) mit Phasenverzögerungen in der Laufaktivität am späten subjektiven Tag und am Beginn der subjektiven Nacht und Phasenbeschleunigungen in der späten subjektiven Nacht. Schließlich wurde eine extrazelluläre Ableittechnik an lebenden Schaben etabliert, die gleichzeitige Langzeit-Ableitungen von der AME, des Komplexauges (Elektroretinogramm = ERG), und der Beinmuskulatur (Elektromyogramm = EMG) für mehrere Tage ermöglichte. Diese Methode bietet einen Ausgangspunkt für weitere elektrophysiologische Untersuchungen des circadianen Systems der Schabe, in denen Substanzen (z.B. Neurotransmitter und Neuropeptide) analysiert werden können, die einen Einfluss auf den circadianen Rhythmus in der Laufaktivität haben

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Biogasgüllen haben bezüglich ihrer Wirkung auf die Bodenfruchtbarkeit, das Pflanzenwachstum und die Umwelt, Vor- und Nachteile. Als Folge der intensiven Nutzung von Biogas zur Energieerzeugung wurde die Biogasgülle eine der wichtigsten organischen Dünger, mit zunehmender Relevanz für den konventionellen aber auch den ökologischen Landbau. Aufgrund der frühen Entwicklung von Biogas und dem Einsatz von Biogasgüllen in der ökologischen Landwirtschaft in den achtziger Jahren im Nord-Osten Baden-Württembergs sind heute Ackerflächen vorhanden, die seit mehr als 25 Jahren mit Biogasgülle gedüngt werden. Somit bestand hier eine Möglichkeit, Informationen über die Langzeiteffekte von Biogasgüllen auf Parameter der Bodenfruchtbarkeit in der ökologischen, landwirtschaftlichen Praxis zu erlangen. Im ersten Projekt wurde daher eine On-Farm Boden- und Gülleprobenahme durchgeführt. Ziel war es, Parameter der Bodenfruchtbarkeit wie die mikrobielle Aktivität (Basalatmung), den mikrobiellen Biomasse C und N, pilzliches Ergosterol, mikrobielle Residuen (Aminozucker), organischen C, gesamt N und den pH-Wert im Boden auf fünf Flächenpaaren des biologisch-dynamischen Landbaus zu messen. Die sich daraus ergebende Hypothese war hierbei, dass der langjährige Einsatz von Biogasgülle im Vergleich zu Rohgüllen keinen Effekt auf die organische Bodensubstanz und die mikrobiellen Eigenschaften des Bodens hat, da die negativen Effekte wie zum Beispiel der reduzierte C-Input durch positive Effekte wie z.B. die erhöhte Nährstoffverfügbarkeit für Pflanzen kompensiert wird. Die Ergebnisse zeigten, dass die Langzeitanwendung von Biogasgülle keinen negativen Einfluss auf die C- und N-Vorräte im Boden hatte. Der Einsatz von Biogasgülle führte jedoch zu einem engeren Verhältnis von mikrobiellem C zu organischem C im Boden, was auf eine reduzierte C-Verfügbarkeit für Mikroorganismen im Vergleich zu Rohgüllen schließen lässt. Die Biogasgülleanwendung führte zu einer tendenziellen Abnahme der mikrobiellen Residuen, wobei die unterschiedlichen Tongehalte der untersuchten Flächen mögliche signifikante Gülleeffekte auf die mikrobiellen Eigenschaften verdeckt haben. Es gab keine generellen Effekte der Biogasgülle auf das Verhältnis von Pilzen zu Bakterien, wohingegen ein zunehmender Tongehalt eine signifikante Verlagerung in Richtung der Bakterien verursachte. Die Übereinstimmung der erhobenen Daten aller angewendeten Methoden weist auf die starke Aussagekraft dieser On-Farm Studie zum Vergleich benachbarter Flächen hin. Im Anschluss an das On-Farm Projekt, in dem die Langzeitwirkung von Biogasgülle auf den Boden untersucht wurde, sollten die Auswirkungen der Düngung mit unterschiedlichen Biogas-und Rohgüllen unter kontrollierten Bedingungen geprüft werden. Daher wurde ein 70-tägiger Gewächshausversuch mit den Güllen der biologisch-dynamischen Betriebe auf einem tonigen Schluff und unter Weidelgras (Lolium multiflorum, var. Ligrande) durchgeführt. Ziel war es, die Effekte unterschiedlicher Güllen auf das Pflanzenwachstum und die mikrobiellen Eigenschaften im Boden und an Wurzeln zu untersuchen. Die Düngung erhöhte die durchschnittliche oberirdische Pflanzenbiomasse um 69% unter Biogasgülle und um 36% unter Rohgülle im Vergleich zur ungedüngten Kontrolle. Zwischen der oberirdischen Biomasse und dem zugeführten NH4-N wurde ein stark linearer Zusammenhang festgestellt. Im Gegensatz zu den Biogasgüllen gab es unter den Rohgüllen einen signifikanten Anstieg des mikrobiellen Biomasse C und N um etwa 25% verglichen zur ungedüngten Kontrollvariante. Der Einsatz von Biogasgüllen führte gegenüber der Rohgülle und Kontrolle zu geringeren Ergosterolgehalten im Boden, was ein engeres Verhältnis von Ergosterol zu mikrobieller Biomasse C zur Folge hatte. Bezogen auf die Wurzeltrockenmasse verringerte die Düngung die Konzentrationen der Aminozucker Muraminsäure, Galaktosamin und Glukosamin um 24, 29 und 37%, gleichzeitig wurde jedoch kein Einfluss auf die Ergosterolgehalte festgestellt. Dies war höchstwahrscheinlich Folge der reduzierten Kolonisierung mit arbuskulärer Mykorrhiza in Gegenwart ausreichend verfügbarer Pflanzennährstoffen. Um einen Eindruck über die mikrobielle Biomasse und die mikrobielle Gemeinschaft in Biogas- und Rohgüllen zu bekommen, wurde ein drittes Projekt durchgeführt. Die von den 6 biologisch-dynamischen Betrieben erhaltenen Güllen wurden auf ihre Ergosterol- und Aminozuckerkonzentrationen untersucht. Hierbei entstand eine zuverlässige und präzise Methode zur Bestimmung von Ergosterol in Biogas- und Roghüllen. Die Biogasgüllen enthielten signifikant geringere Konzentrationen an Ergosterol (-34%), MurN (-42%), GalN (-32%) und pilzlichem GlcN (-40%) im Vergleich zu den Rohgüllen. Die durchschnittlichen Verhältnisse von pilzlichem GlcN zu Ergosterol (50) und pilzlichem C zu bakteriellem C (0.29) zeigten keine signifikanten Unterschiede zwischen den Gülletypen. Die durchschnittliche Konzentration von mikrobiellem C war in Biogasgülle signifikant geringer als in Rohgülle. Demzufolge lag der Anteil des mikrobiellen C am organischen C bei 3.6% in den Biogasgüllen und 5.7% in den Rohgüllen. Zwischen dem mikrobiellen C der Güllen und deren Faser- und Aschegehalte, sowie den pH-Werten und den CN Verhältnissen konnten nicht-lineare Zusammenhänge festgestellt werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In vielen Industrieanlagen werden verschiedenste Fluide in der Produktion eingesetzt, die bei einer Freisetzung, z. B. durch ihre toxische oder karzinogene Eigenschaft oder wegen der Brand- und Explosionsgefahr, sowohl die Umwelt als auch Investitionsgüter gefährden können. In Deutschland sind zur Risikominimierung die maximal zulässigen Emissionsmengen von Stoffen und Stoffgruppen in verschiedenen Umweltvorschriften festgelegt, wodurch zu deren Einhaltung eine ausreichende Überwachung aller relevanten Anlagenkomponenten seitens der Betreiber notwendig ist. Eine kontinuierliche und flächendeckende Überwachung der Anlagen ist aber weder personell, noch finanziell mit klassischer In-situ-Sensorik realisierbar. In der vorliegenden Arbeit wird die Problemstellung der autonomen mobilen Gasferndetektion und Gasleckortung in industrieller Umgebung mittels optischer Gasfernmesstechnik adressiert, die zum Teil im Rahmen des Verbundprojekts RoboGasInspector entstand. Neben der Beschreibung des verwendeten mobilen Robotersystems und der Sensorik, werden die eingesetzten Techniken zur Messdatenverarbeitung vorgestellt. Für die Leckortung, als Sonderfall im Inspektionsablauf, wurde die TriMax-Methode entwickelt, die zusätzlich durch einen Bayes-Klassifikator basierten Gasleckschätzer (Bayes classification based gas leak estimator (BeaGLE)) erweitert wurde, um die Erstellung von Leckhypothesen zu verbessern. Der BeaGLE basiert auf Techniken, die in der mobilen Robotik bei der Erstellung von digitalen Karten mittels Entfernungsmessungen genutzt werden. Die vorgestellten Strategien wurden in industrieller Umgebung mittels simulierter Lecks entwickelt und getestet. Zur Bestimmung der Strategieparameter wurden diverse Laborund Freifelduntersuchungen mit dem verwendeten Gasfernmessgerät durchgeführt. Die abschließenden Testergebnisse mit dem Gesamtsystem haben gezeigt, dass die automatische Gasdetektion und Gaslecksuche mittels autonomer mobiler Roboter und optischer Gasfernmesstechnik innerhalb praktikabler Zeiten und mit hinreichender Präzision realisierbar sind. Die Gasdetektion und Gasleckortung mittels autonomer mobiler Roboter und optischer Gasfernmesstechnik ist noch ein junger Forschungszweig der industriellen Servicerobotik. In der abschließenden Diskussion der vorliegenden Arbeit wird deutlich, dass noch weitergehende, interessante Forschungs- und Entwicklungspotentiale erkennbar sind.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Soil microorganisms have evolved two possible mechanisms for their uptake of organic N: the direct route and the mobilization-immobilization-turnover (MIT) route. In the direct route, simple organic molecules are taken up via various mechanisms directly into the cell. In the MIT route, the deamination occurs outside the cell and all N is mineralized to NH4+ before assimilation. A better understanding of the mechanisms controlling the different uptake routes of soil microorganisms under different environmental conditions is crucial for understanding mineralization processes of organic material in soil. For the first experiment we incubated soil samples from the long term trial in Bad Lauchstädt with corn residues with different C to N ratios and inorganic N for 21 days at 20 °C. Under the assumption that all added amino acids were taken up or mineralized, the direct uptake route was more important in soil amended with corn residues with a wide C to N ratio. After 21 days of incubation the direct uptake of added amino acids increased in the order addition of corn residue with a: “C to N ratio of 40 & (NH4)2SO4 and no addition (control)” (69% and 68%, respectively) < “C to N ratio of 20” (73%) < “C to N ratio of 40” (95%). In all treatments the proportion of the added amino acids that were mineralized increased with time, indicating that the MIT route became more important over time. To investigate the effects of soil depth on the N uptake route of soil microorganisms (experiment II), soil samples in two soil depths (0-5 cm; 30-40 cm) were incubated with corn residues with different C to N ratios and inorganic N for 21 days at 20 °C and 60% (WHC). The addition of corn residue resulted in a marked increase of protease activity in both depths due to the induction from the added substrate. Addition of corn residue with a wide C to N ratio resulted in a significantly greater part of the direct uptake (97% and 94%) than without the addition of residues (85% and 80%) or addition of residue with a small C to N ratio (90% and 84%) or inorganic N (91% and 79% in the surface soil and subsoil, respectively), suggesting that under conditions of sufficient mineralizable N (C to N ratio of 20) or increased concentrations of NH4+, the enzyme system involved in the direct uptake is slightly repressed. Substrate additions resulted in an initially significantly higher increase of the direct uptake in the surface soil than in the subsoil. As a large proportion of the organic N input into soil is in form of proteinaceous material, the deamination of amino acids is a key reaction of the MIT route. Therefore the enzyme amino acid oxidase contribute to the extracellular N mineralization in soil. The objective of experiment III was to adapt a method to determine amino acid oxidase in soil. The detection via synthetic fluorescent Lucifer Yellow derivatives of the amino acid lysine is possible in soil. However, it was not possible to find the substrate concentration at which the reaction rate is independent of substrate concentration and therefore we were not able to develop a valid soil enzyme assay.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Punktförmig messende optische Sensoren zum Erfassen von Oberflächentopografien im Nanometerbereich werden in der Forschung und Industrie benötigt. Dennoch ist die Auswahl unterschiedlicher Technologien und kommerziell verfügbarer Sensoren gering. In dieser Dissertationsschrift werden die wesentlichen Aspekte eines Messsystems untersucht das über das Potenzial verfügt, zu den künftigen Standardmessmethoden zu gehören. Das Messprinzip beruht auf einem Common-Path-Interferometer. In einer mikrooptischen Sonde wird das Laserlicht auf die zu untersuchende Oberfläche gerichtet. Das vom Messobjekt reflektierte Licht interferiert sondenintern mit einem Referenzreflex. Die kompakte Bauweise bewirkt kurze optische Wege und eine gewisse Robustheit gegen Störeinflüsse. Die Abstandsinformation wird durch eine mechanische Oszillation in eine Phasenmodulation überführt. Die Phasenmodulation ermöglicht eine robuste Auswertung des Interferenzsignals, auch wenn eine zusätzliche Amplitudenmodulation vorhanden ist. Dies bietet den Vorteil, unterschiedlich geartete Oberflächen messen zu können, z. B. raue, teilweise transparente und geneigte Oberflächen. Es können wiederholbar Messungen mit einer Standardabweichung unter einem Nanometer erzielt werden. Die beschriebene mechanische Oszillation wird durch ein periodisches elektrisches Signal an einem piezoelektrischen Aktor hervorgerufen, der in einem Biegebalken integriert ist. Die Bauform des Balkens gestattet eine Hybridisierung von optischen und mechanischen Komponenten zu einer Einheit, welche den Weg zur weiteren Miniaturisierung aufzeigt. Im Rahmen dieser Arbeit konnte so u. a. eine Sonde mit einer Bauhöhe unter 10 mm gefertigt werden. Durch eine zweite optische Wellenlänge lässt sich der eingeschränkte Eindeutigkeitsbereich des Laserinterferometers nachweislich vergrößern. Die hierfür eingesetzte Methode, die Stand der Technik ist, konnte erfolgreich problemspezifisch angepasst werden. Um das volle Potenzial des Sensors nutzen zu können, wurden zudem zahlreiche Algorithmen entworfen und erfolgreich getestet. Anhand von hier dokumentierten Messergebnissen können die Möglichkeiten, als auch die Schwächen des Messsystems abgeschätzt werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die zunehmende Vernetzung der Energie-, Stoff- und Informationsströme, z. B. innerhalb von Produktionsanlagen, begründet das Interesse an Methoden, welche eine Analyse der Systemeigenschaften von großen und verkoppelten dynamischen Systemen bereits in einem frühen Entwicklungsstadium ermöglichen. Dabei ist das Gesamtsystemverhalten von Interesse, welches sowohl auf der Dynamik der Teilsysteme als auch der Verkopplungen beruht. In der vorliegenden Arbeit wird eine neue Methode zur qualitativen Analyse von Systemen auf Inverse-Response-Verhalten vorgestellt. Der Ansatz nutzt Komplexe Netzwerke zur Modellbeschreibung, wobei diese um Kantengewichte ergänzt werden, welche das dynamische Verhalten des modellierten Systems beschreiben. Der vorgestellte Detektionsalgorithmus vergleicht die Pfade des Graphen zwischen den betrachteten Ein- und Ausgängen. Hierfür werden die aggregierten Kantengewichte der Pfade bestimmt und zur Ermittlung der qualitativen Aussage zum Inverse-Response-Verhalten herangezogen. Der Analyseansatz bietet somit eine einfach anwendbare Alternative zur Auswertung der positiven Nullstellen des Systems, welche auf die notwendige sowie hinreichende Bedingung für das Inverse-Response-Verhalten eines linearen Systems zurückgreift: eine ungerade Anzahl positiver Nullstellen. Das entwickelte Verfahren wurde erfolgreich an einer flexibel konfigurierbaren Prozessinsel der Modellfabrik μPlant des Fachgebiets Mess- und Regelungstechnik der Universität Kassel getestet.