292 resultados para Singulett-Zustand
Resumo:
Aziridine, Stickstoffanaloga der Epoxide, können regio- und stereoselektive Ringöffnungsreaktionen eingehen, wodurch ihnen als „building blocks“ in der Organischen Synthese eine große Bedeutung zukommt. In dieser Arbeit wurden unterschiedliche N-Aminoverbindungen synthetisiert sowie die Anwendungsmöglichkeit dieser Hydrazinderivate als Stickstoffquellen in Aziridinierungen von Olefinen untersucht. In der vorliegenden Dissertation wurde eine neue Methode zur Darstellung von N-Aminosuccinimid entwickelt und die Einsatzmöglichkeit als Stickstoffquelle in Aziridinierungsreaktionen in einer Reihe von Umsetzungen mit funktionalisierten ebenso wie mit nicht-funktionalisierten Olefinen demonstriert. Die ableitbaren Aziridine wurden hierbei in Ausbeuten von bis zu 80 % erhalten. In der Aziridinierungsreaktion von N-Aminosuccinimid mit 4,7-Dihydro-2-isopropyl-1,3-dioxepin resultieren bicyclische Aziridinierungsprodukte, die als endo/exo-Isomere in einem 1:1-Verhältnis anfallen. Es ist in dieser Arbeit gelungen, die Isomere in guten Ausbeuten zu erhalten, sie säulenchromatographisch zu trennen und ihre Konfiguration im festen Zustand mittels Kristallstrukturanalyse eindeutig zu bestimmen. Enantiomerenangereicherte Olefine, wie z. B. in 2-Position alkylsubstituierte 5-Methyl-4H-1,3-dioxine mit Enantiomerenüberschüssen von 92% ee liefern in der Aziridinierung mit N-Aminosuccinimid und Iodosylbenzol ein 4-Methyl-1,3-oxazolidin-4-carbaldehydderivat in einer zweistufigen Reaktion- der Aziridinierung und einer Umlagerung- ein 4-Methyl-1,3-oxazolidin-4-carbaldehydderivat. Für die Diastereoselektivität des Aziridinierungsschrittes wurde 65 % de bestimmt. In einer neuen Synthese über zwei Stufen ausgehend von (+)-3,4-Dimethoxysuccinanhydrid konnte ein chiraler Stickstoffüberträger - (+)-N-Amino-3,4-dimethoxysuccinimid - in Ausbeuten bis zu 86 % synthetisiert. Die Umsetzung dieser optisch aktiven Stickstoffquelle mit einer Vielzahl prochiraler Alkene führt zu diastereomeren Aziridinen in Ausbeuten bis zu 65% und Diastereoselektivitäten von bis zu 66% de. Anhand ausgewählter Verbindungen konnten die Absolutkonfigurationen der Reaktionsprodukte mittels Kristallstrukturanalyse eindeutig geklärt werden.
Resumo:
Bei der Begehung von Olebach, Losse und Alte Losse wurden der ökomorphologische Zustand von Sohle, Böschung, Linienführung, Verzahnung von Wasser und Land und der Ufergehölze sowie die Landnutzung notiert. Einleitungen von Abwässern und die Ablagerung von Abfällen auf Böschung und Ufer wurde protokolliert. Wassertemperatur und elektrische Leitfähigkeit wurden an mehreren Punkten gemessen. Die Leitfähigkeitswerte werden vor dem Hintergrund der Geologie der Einzugsgebiete interpretiert und zur chemischen Indikation von diffusen und punktförmigen Einleitungen genutzt. Es werden Maßnahmen zur Renaturierung, Maßnahmen gegen die Ablagerung von Gartenabfällen auf Ufer und Böschung, Maßnahmen gegen die ackerbauliche Nutzung und Bebauung im Gewässerrandstreifen vorgeschlagen.
Resumo:
Bei der Begehung von Neuem Wasserfallgraben, Marbachsgraben und Dönchebach wurden der ökomorphologische Zustand von Sohle, Böschung, Linienführung, Verzahnung von Wasser und Land und der Ufergehölze sowie die Landnutzung notiert. Einleitungen von Abwässern und die Ablagerung von Abfällen auf Böschung und Ufer wurden protokolliert. Wassertemperatur und elektrische Leitfähigkeit wurden an mehreren Punkten gemessen. Es werden Maßnahmen zur Renaturierung, Regenwasserbewirtschaftung sowie zur Pflege des Naturschutzgebiets Dönche, Maßnahmen gegen die Ablagerung von Gartenabfällen auf Ufer und Böschung, Maßnahmen gegen die ackerbauliche Nutzung, Viehtritt und die Bebauung im Gewässerrandstreifen vorgeschlagen.
Resumo:
The 21st century has brought new challenges for forest management at a time when globalization in world trade is increasing and global climate change is becoming increasingly apparent. In addition to various goods and services like food, feed, timber or biofuels being provided to humans, forest ecosystems are a large store of terrestrial carbon and account for a major part of the carbon exchange between the atmosphere and the land surface. Depending on the stage of the ecosystems and/or management regimes, forests can be either sinks, or sources of carbon. At the global scale, rapid economic development and a growing world population have raised much concern over the use of natural resources, especially forest resources. The challenging question is how can the global demands for forest commodities be satisfied in an increasingly globalised economy, and where could they potentially be produced? For this purpose, wood demand estimates need to be integrated in a framework, which is able to adequately handle the competition for land between major land-use options such as residential land or agricultural land. This thesis is organised in accordance with the requirements to integrate the simulation of forest changes based on wood extraction in an existing framework for global land-use modelling called LandSHIFT. Accordingly, the following neuralgic points for research have been identified: (1) a review of existing global-scale economic forest sector models (2) simulation of global wood production under selected scenarios (3) simulation of global vegetation carbon yields and (4) the implementation of a land-use allocation procedure to simulate the impact of wood extraction on forest land-cover. Modelling the spatial dynamics of forests on the global scale requires two important inputs: (1) simulated long-term wood demand data to determine future roundwood harvests in each country and (2) the changes in the spatial distribution of woody biomass stocks to determine how much of the resource is available to satisfy the simulated wood demands. First, three global timber market models are reviewed and compared in order to select a suitable economic model to generate wood demand scenario data for the forest sector in LandSHIFT. The comparison indicates that the ‘Global Forest Products Model’ (GFPM) is most suitable for obtaining projections on future roundwood harvests for further study with the LandSHIFT forest sector. Accordingly, the GFPM is adapted and applied to simulate wood demands for the global forestry sector conditional on selected scenarios from the Millennium Ecosystem Assessment and the Global Environmental Outlook until 2050. Secondly, the Lund-Potsdam-Jena (LPJ) dynamic global vegetation model is utilized to simulate the change in potential vegetation carbon stocks for the forested locations in LandSHIFT. The LPJ data is used in collaboration with spatially explicit forest inventory data on aboveground biomass to allocate the demands for raw forest products and identify locations of deforestation. Using the previous results as an input, a methodology to simulate the spatial dynamics of forests based on wood extraction is developed within the LandSHIFT framework. The land-use allocation procedure specified in the module translates the country level demands for forest products into woody biomass requirements for forest areas, and allocates these on a five arc minute grid. In a first version, the model assumes only actual conditions through the entire study period and does not explicitly address forest age structure. Although the module is in a very preliminary stage of development, it already captures the effects of important drivers of land-use change like cropland and urban expansion. As a first plausibility test, the module performance is tested under three forest management scenarios. The module succeeds in responding to changing inputs in an expected and consistent manner. The entire methodology is applied in an exemplary scenario analysis for India. A couple of future research priorities need to be addressed, particularly the incorporation of plantation establishments; issue of age structure dynamics; as well as the implementation of a new technology change factor in the GFPM which can allow the specification of substituting raw wood products (especially fuelwood) by other non-wood products.
Resumo:
In dieser Arbeit wurde das Adsorptionsverhalten zweier azobenzolfunktionalisierter Liganden auf Goldoberflächen untersucht. Diese Liganden zeichnen sich dadurch aus, dass sie mithilfe von Licht bestimmter Wellenlängen zwischen zwei Isomerisierungszuständen – sowohl in Lösung als auch in den auf der Oberfläche resultierenden Monolage – hin und her geschaltet werden können. Somit ist es möglich, Oberflächen herzustellen, deren physikalische und chemische Eigenschaften zwischen zwei Zuständen variiert werden können. Die Messungen des Adsorptionsverhaltens wurden mittels optischer Frequenzverdopplung durchgeführt. Diese Messmethode ist höchst grenzflächensensitiv und ermöglicht es somit die Adsorption der Liganden in situ und ich Echtzeit zu verfolgen. Neben den Adsorptionsmessungen wurde auch die Phase des frequenzverdoppelten Signals über eine Interferenzmethode gemessen. Die Ergebnisse dieser Phasenmessungen ermöglichen es, eine Aussage über eine mögliche Nichtlinearität der untersuchten Moleküle zu treffen. An die in den Adsorptionsmessungen gewonnenen Messdaten wurden drei kinetische Standardmodelle angepasst. Beschreibt eines dieser Modelle den im Experiment bestimmten Adsorptionsverlauf, kann eine Aussage über die zugrunde liegenden Prozesse des Adsorptionsvorganges getroffen werden. Die Ergebnisse der Adsorptionsmessungen zeigen einen deutlichen Einfluss des Isomerisierungszustandes der Liganden auf den Verlauf der Adsorption. Liegen die Moleküle im geschalteten Zustand vor, so verläuft die Adsorption langsamer. Weiterhin konnte gezeigt werden, dass ebenso intermolekulare Wechselwirkungen über Wasserstoffbrückenbindungen einen verlangsamenden Einfluss auf die Adsorption der Liganden haben. In den durchgeführten Phasenmessungen zeigte sich darüber hinaus, dass Liganden, die über an die Azobenzolgruppe angebundene Amidgruppen verfügen, eine Nichtlinearität aufweisen. Diese Nichtlinearität ist zudem vom Isomerisierungszustand der Liganden abhängig. In den kinetischen Untersuchungen konnte darüber hinaus gezeigt werden, dass sich die Adsorption der Liganden bis auf eine Ausnahme durch die Langmuirkinetik 2. Ordnung beschreiben lässt. Somit handelt es ich bei der Adsorption der untersuchten Liganden um eine Reaktion, der eine Bindungsspaltung voran geht. Dieser Befund konnte durch Vergleich mit weiteren Experimenten bestätigt werden.
Resumo:
Die Fluoreszenzspektroskopie ist eine der wenigen Methoden, die eine Untersuchung von Zerfallsprozessen nach einer Anregung mit schmalbandiger Synchrotronstrahlung ermöglicht, wenn die Zerfallsprodukte nicht geladen sind. In der vorliegenden Arbeit wurden in erster Linie Anregungen des molekularen Wasserstoffs untersucht, die zur Erzeugung ungeladener aber angeregter Fragmente führten. Eine Bestimmung der absoluten Querschnitte für die drei möglichen Zerfallskanäle: Ionisation, Dissoziation und molekulare Fluoreszenz nach einer Anregung des Wasserstoffmoleküls im Anregungswellenlängenbereich zwischen 72,4 nm und 80 nm stand im ersten Teil der Arbeit im Vordergrund. Die oben erwähnten Zerfallskanäle und das Transmissionsspektrum wurden simultan aufgenommen und mit Hilfe des Lambert-Beerschen-Gesetzes absolut ermittelt. Die Verwendung der erhaltenen Querschnitte ermöglichte die Bestimmung der Dominanz der einzelnen Zerfallskanäle für 3p-D Pi-, 4p-D' Pi- und 5p-D’’ Pi-Zustände in Abhängigkeit von Vibrationsniveaus. Diese Zustände koppeln über eine nicht adiabatische Kopplung mit einem 2p-C Pi-Zustand, was zur Prädissoziation führt. Des Weiteren koppeln die angeregten Zustände zu höher liegenden Rydberg-Zuständen, damit wird eine starke Variation der Ionisationswahrscheinlichkeit in Abhängigkeit von Vibrationsniveaus verursacht. Die Stärke der Kopplung ist dabei entscheidend welcher der drei möglichen Zerfallswege dominant zur Relaxation des angeregten Zustandes beiträgt. Alle Werte wurden mit theoretisch ermittelten Daten aus MQDT- Berechnungen [Phys. Rev. A 82 (2010), 062511] verglichen und zeigten sehr gute Übereinstimmungen. Im zweiten Teil der Arbeit ist eine neue Apparatur für winkel- und zeitauflösende Photon-Photon-Koinzidenz entwickelt worden. Die zwei Off-Axis-Parabolspiegel, die das Herzstück der Apparatur bilden, parallelisieren die im Fokus abgestrahlte Emission des doppelt angeregten Wasserstoffmoleküls und projizieren diese auf jeweils einen Detektor. Die an zwei Strahlrohren bei BESSY II durchgeführten Messungen zeigten gute Übereinstimmungen mit den schon vorher veröffentlichten Daten: Messungen [J. Chem. Phys. 88 (1988), 3016] und theoretische Berechnungen [J. Phys. B: At Mol. Opt. Phys. 38 (2005), 1093-1105] der Koinzidenzrate in Abhängigkeit von der anregenden Strahlung. Durch die Bestimmung der gemessenen Zerfallszeit einzelner Prozesse konnten einzelne doppelt angeregte Zustände identifiziert werden.
Resumo:
ZUSAMMENFASSUNG: Das Phosphorylierungsmuster eines Proteins ist kein statischer Zustand, sondern vielmehr ein dynamischer Status, den es in der modernen funktionellen (Phospho-) Proteomik und Analytik abzubilden gilt. Klassischerweise erfolgt der Nachweis der Proteinphosphorylierung auf Peptid-Ebene mittels MS/MS Sequenzierung. Diese Standardmethode der shotgun Phosphoproteomanalytik vernachlässigt jedoch wegen den in LC MS/MS Analysen oftmals schwer detektierbaren Phosphopeptiden gerade den variablen und oftmals nur geringen Phosphorylierungsgrad vieler Phosphorylierungsstellen (P-Stellen). Mittels phosphospezifischer Anreicherungsstrategien und MS/MS Sequenzierung konnten an der Modellkinase PKA-Cα nach rekombinanter Expression in E. coli insgesamt acht P-Stellen identifiziert werden. Der Phosphorylierungsgrad wurde in Kooperation mit Dr. J. Seidler über quantitative Signalintensitätsmessungen bestimmt und zeigte eine nahezu vollständige Phosphorylierung von pS10, pS139, pT197 und pS338, während der Phosphorylierungsgrad für pS34, pS53, pS65 und pS259 zwischen <5 und 45 % variierte. Neben der Quantifizierung der P-Stellen wurde auch das Auftreten und die Verteilung definierter Phosphoformen der PKA-Cα untersucht und deren Abhängigkeit von der primären Aminosäureabfolge, dem Auftreten von zusätzlichen Modifikationen sowie den gewählten Expressions- und Reinigungsbedingungen aufgezeigt. Endogene, aus Säugergewebe isolierte PKA-Cα wies nur eine einzige Phosphoform mit den P-Stellen pT197 und pS338 auf. Auch in vitro autophosphorylierte rekombinante PKA-Cα, die zuvor dephosphoryliert worden war, wies eine zweifach modifizierte Phosphoform auf. Im Vergleich zum endogenen Protein ließ sich dieses Protein an S10 und S338 exzessiv phosphorylieren, wohingegen an T197 keine Autophosphorylierung nachzuweisen war. Das Ausbleiben weiterer Phosphorylierungen stellt in Frage, ob die Hyperphosphorylierung in E. coli ausschließlich auf Autophosphorylierungsprozessen beruht, was anhand einer nicht phosphorylierten, katalytisch inaktiven Variante von PKA-Cα (PKA-Cα K72H) vermutet wurde. Im Hinblick auf die funktionellen P-Stellen pT197 und pS338 erfordert diese Entdeckung sowie der unabhängige Nachweis, dass zellfrei exprimierte PKA-Cα nur an S338 phosphoryliert ist, eine Modifizierung des sequenziellen Vorhersagemodells, wonach die Phosphorylierung an T197 eine zwingende Voraussetzung für die nachfolgende Phosphorylierung an S338 ist. Ferner konnte über phosphomimetische Mutagenese die Funktionalität der Phosphorylierung an S53 innerhalb der glycinreichen Schleife der PKA-Cα und somit ein potenzieller Weg zur Regulation der enzymatischen Aktivität gezeigt werden. Ein weiterer möglicher upstream Regulator von PKA-Cα ist die Proteinphosphatase 5, die in der Lage war, die bislang als phosphatasestabil beschriebene P Stelle pT197 in vitro zu dephosphorylieren. Die vorliegende Arbeit zeigt, dass der Phosphorylierungszustand eines Proteins von zahlreichen internen und externen Faktoren abhängt – eine Tatsache, die gerade für rekombinante Proteine, insbesondere enzymatisch aktive Kinasen, oft vernachlässigt wurde. Daher müssen auch in der shotgun Phosphoproteomanalytik P-Stellen nicht mehr nur identifiziert und quantifiziert werden, sondern die resultierenden Proteinphosphoformen differenziert auch in ihrem physiologischen Kontext beschrieben werden.
Resumo:
Im Zentrum der Dissertation steht die höfische Tierhaltung in der ehemaligen Residenzstadt Kassel. Die Auswertung der Archivquellen stellt ein kontinuierliches Bild des Aufkommens exotischer Tiere vom 15. bis ins 18. Jahrhundert dar. Der Fokus richtet sich auf die barocke Menagerie des Landgrafen Karl von Hessen-Kassel (ca. 1680 - 1730), die mit ihrem systematisch aufgebauten und umfangreichen Tierbestand die Einrichtungen seiner Vorgänger weit übertraf. Die Sammlung lebender Raritäten aus allen Regionen der Welt diente der absolutistischen Selbstdarstellung und der Visualisierung des Herrschaftsstatus. Die Untersuchung der zeitgenössischen Reiseberichte zeigt, dass die Menagerietiere vom Betrachter ebenso als kuriose und/oder rare Sehenswürdigkeiten empfunden wurden wie die musealen Ausstellungsstücke einer Kunstkammer. Da sie als lebende Schauobjekte Staunen auslösten, müssen sie mit der „frühneuzeitlichen Neugierde“ (curiositas) in Verbindung gebracht werden und bildeten einen wesentlichen Bestandteil des imaginären Welttheaters „Macrocosmos in Microcosmo“. Gerade hier kann die Dissertation eine enge Verbindung zwischen Menagerie und Kunstkammer belegen, die in der Forschungsliteratur bisher kaum thematisiert wurde. Die Tiersammlung bildete einen räumlich separierten Teil der Sammlungen des kunstsinnigen und naturwissenschaftlich interessierten Fürsten, die ansonsten im Kunsthaus untergebracht waren. Der Menagerie kam die gleiche reichspolitisch repräsentative Bedeutung zu, welche auch die begehbare Sammlung inne hatte. Die von 1764 bis 1785 bestehende Menagerie seines Enkelsohnes, Friedrich II., folgte dagegen anderen Zielsetzungen. Sie ist in Zusammenhang mit pädagogischen und kulturellen Bemühungen seiner Regierung im Sinne des aufgeklärten Absolutismus zu sehen. Ein weiterer Teil der Untersuchung widmet sich dem Kasseler „Tierstück“ von Johann Melchior Roos („Die Menagerie des Landgrafen Carl“, 1722-1728, mhk). Die kunsthistorische Analyse ordnet das Gemälde in die Tradition der niederländischen Sammelbilder des 17. Jahrhunderts ein. Der Maler bedient sich traditioneller Paradiesdarstellungen, welche die Utopie von der friedlichen Koexistenz aller Lebewesen zum Thema haben. Ebenso steht das Kasseler „Tierstück“ als Sammelbild wertvoller gemalter Raritäten den naturhistorisch-enzyklopädischen Stillleben nahe, die bevorzugt Muscheln und Blumenbuketts zeigen. Die Präsentation des Gemäldes als Bestandteil der enzyklopädisch gedachten Naturaliensammlung im „Kunsthaus“ (Ottoneum) ordnet es von Beginn an der begehbaren höfischen Welt zu. Dabei wird die zeitgenössische Wahrnehmung des „Tierstücks“ als kurioses Kunstwerk herausgearbeitet, dem im Ensemble von Naturalia und Artificialia ein universalistisches Bildprogramm zukam. Die Authentizität der im Gemälde dargestellten Tiersammlung lässt sich nicht bestätigen. Der Maler hat mit seiner fiktiven Bildkompilation einen idealen Zustand erzeugt. Als typisches Sammlungsbild ist es eher als Metonymie der Sammlung wahrzunehmen, das seinen Verweiszusammenhang innerhalb der als Mikrokosmos organisierten Sammlung entfalten konnte.
Resumo:
The ongoing depletion of the coastal aquifer in the Gaza strip due to groundwater overexploitation has led to the process of seawater intrusion, which is continually becoming a serious problem in Gaza, as the seawater has further invaded into many sections along the coastal shoreline. As a first step to get a hold on the problem, the artificial neural network (ANN)-model has been applied as a new approach and an attractive tool to study and predict groundwater levels without applying physically based hydrologic parameters, and also for the purpose to improve the understanding of complex groundwater systems and which is able to show the effects of hydrologic, meteorological and anthropogenic impacts on the groundwater conditions. Prediction of the future behaviour of the seawater intrusion process in the Gaza aquifer is thus of crucial importance to safeguard the already scarce groundwater resources in the region. In this study the coupled three-dimensional groundwater flow and density-dependent solute transport model SEAWAT, as implemented in Visual MODFLOW, is applied to the Gaza coastal aquifer system to simulate the location and the dynamics of the saltwater–freshwater interface in the aquifer in the time period 2000-2010. A very good agreement between simulated and observed TDS salinities with a correlation coefficient of 0.902 and 0.883 for both steady-state and transient calibration is obtained. After successful calibration of the solute transport model, simulation of future management scenarios for the Gaza aquifer have been carried out, in order to get a more comprehensive view of the effects of the artificial recharge planned in the Gaza strip for some time on forestall, or even to remedy, the presently existing adverse aquifer conditions, namely, low groundwater heads and high salinity by the end of the target simulation period, year 2040. To that avail, numerous management scenarios schemes are examined to maintain the ground water system and to control the salinity distributions within the target period 2011-2040. In the first, pessimistic scenario, it is assumed that pumping from the aquifer continues to increase in the near future to meet the rising water demand, and that there is not further recharge to the aquifer than what is provided by natural precipitation. The second, optimistic scenario assumes that treated surficial wastewater can be used as a source of additional artificial recharge to the aquifer which, in principle, should not only lead to an increased sustainable yield of the latter, but could, in the best of all cases, revert even some of the adverse present-day conditions in the aquifer, i.e., seawater intrusion. This scenario has been done with three different cases which differ by the locations and the extensions of the injection-fields for the treated wastewater. The results obtained with the first (do-nothing) scenario indicate that there will be ongoing negative impacts on the aquifer, such as a higher propensity for strong seawater intrusion into the Gaza aquifer. This scenario illustrates that, compared with 2010 situation of the baseline model, at the end of simulation period, year 2040, the amount of saltwater intrusion into the coastal aquifer will be increased by about 35 %, whereas the salinity will be increased by 34 %. In contrast, all three cases of the second (artificial recharge) scenario group can partly revert the present seawater intrusion. From the water budget point of view, compared with the first (do nothing) scenario, for year 2040, the water added to the aquifer by artificial recharge will reduces the amount of water entering the aquifer by seawater intrusion by 81, 77and 72 %, for the three recharge cases, respectively. Meanwhile, the salinity in the Gaza aquifer will be decreased by 15, 32 and 26% for the three cases, respectively.
Resumo:
Summary - Cooking banana is one of the most important crops in Uganda; it is a staple food and source of household income in rural areas. The most common cooking banana is locally called matooke, a Musa sp triploid acuminate genome group (AAA-EAHB). It is perishable and traded in fresh form leading to very high postharvest losses (22-45%). This is attributed to: non-uniform level of harvest maturity, poor handling, bulk transportation and lack of value addition/processing technologies, which are currently the main challenges for trade and export, and diversified utilization of matooke. Drying is one of the oldest technologies employed in processing of agricultural produce. A lot of research has been carried out on drying of fruits and vegetables, but little information is available on matooke. Drying of matooke and milling it to flour extends its shelf-life is an important means to overcome the above challenges. Raw matooke flour is a generic flour developed to improve shelf stability of the fruit and to find alternative uses. It is rich in starch (80 - 85%db) and subsequently has a high potential as a calorie resource base. It possesses good properties for both food and non-food industrial use. Some effort has been done to commercialize the processing of matooke but there is still limited information on its processing into flour. It was imperative to carry out an in-depth study to bridge the following gaps: lack of accurate information on the maturity window within which matooke for processing into flour can be harvested leading to non-uniform quality of matooke flour; there is no information on moisture sorption isotherm for matooke from which the minimum equilibrium moisture content in relation to temperature and relative humidity is obtainable, below which the dry matooke would be microbiologically shelf-stable; and lack of information on drying behavior of matooke and standardized processing parameters for matooke in relation to physicochemical properties of the flour. The main objective of the study was to establish the optimum harvest maturity window and optimize the processing parameters for obtaining standardized microbiologically shelf-stable matooke flour with good starch quality attributes. This research was designed to: i) establish the optimum maturity harvest window within which matooke can be harvested to produce a consistent quality of matooke flour, ii) establish the sorption isotherms for matooke, iii) establish the effect of process parameters on drying characteristics of matooke, iv) optimize the drying process parameters for matooke, v) validate the models of maturity and optimum process parameters and vi) standardize process parameters for commercial processing of matooke. Samples were obtained from a banana plantation at Presidential Initiative on Banana Industrial Development (PIBID), Technology Business Incubation Center (TBI) at Nyaruzunga – Bushenyi in Western Uganda. A completely randomized design (CRD) was employed in selecting the banana stools from which samples for the experiments were picked. The cultivar Mbwazirume which is soft cooking and commonly grown in Bushenyi was selected for the study. The static gravitation method recommended by COST 90 Project (Wolf et al., 1985), was used for determination of moisture sorption isotherms. A research dryer developed for this research. All experiments were carried out in laboratories at TBI. The physiological maturity of matooke cv. mbwazirume at Bushenyi is 21 weeks. The optimum harvest maturity window for commercial processing of matooke flour (Raw Tooke Flour - RTF) at Bushenyi is between 15-21 weeks. The finger weight model is recommended for farmers to estimate harvest maturity for matooke and the combined model of finger weight and pulp peel ratio is recommended for commercial processors. Matooke isotherms exhibited type II curve behavior which is characteristic of foodstuffs. The GAB model best described all the adsorption and desorption moisture isotherms. For commercial processing of matooke, in order to obtain a microbiologically shelf-stable dry product. It is recommended to dry it to moisture content below or equal to 10% (wb). The hysteresis phenomenon was exhibited by the moisture sorption isotherms for matooke. The isoteric heat of sorption for both adsorptions and desorption isotherms increased with decreased moisture content. The total isosteric heat of sorption for matooke: adsorption isotherm ranged from 4,586 – 2,386 kJ/kg and desorption isotherm from 18,194– 2,391 kJ/kg for equilibrium moisture content from 0.3 – 0.01 (db) respectively. The minimum energy required for drying matooke from 80 – 10% (wb) is 8,124 kJ/kg of water removed. Implying that the minimum energy required for drying of 1 kg of fresh matooke from 80 - 10% (wb) is 5,793 kJ. The drying of matooke takes place in three steps: the warm-up and the two falling rate periods. The drying rate constant for all processing parameters ranged from 5,793 kJ and effective diffusivity ranged from 1.5E-10 - 8.27E-10 m2/s. The activation energy (Ea) for matooke was 16.3kJ/mol (1,605 kJ/kg). Comparing the activation energy (Ea) with the net isosteric heat of sorption for desorption isotherm (qst) (1,297.62) at 0.1 (kg water/kg dry matter), indicated that Ea was higher than qst suggesting that moisture molecules travel in liquid form in matooke slices. The total color difference (ΔE*) between the fresh and dry samples, was lowest for effect of thickness of 7 mm, followed by air velocity of 6 m/s, and then drying air temperature at 70˚C. The drying system controlled by set surface product temperature, reduced the drying time by 50% compared to that of a drying system controlled by set air drying temperature. The processing parameters did not have a significant effect on physicochemical and quality attributes, suggesting that any drying air temperature can be used in the initial stages of drying as long as the product temperature does not exceed gelatinization temperature of matooke (72˚C). The optimum processing parameters for single-layer drying of matooke are: thickness = 3 mm, air temperatures 70˚C, dew point temperature 18˚C and air velocity 6 m/s overflow mode. From practical point of view it is recommended that for commercial processing of matooke, to employ multi-layer drying of loading capacity equal or less than 7 kg/m², thickness 3 mm, air temperatures 70˚C, dew point temperature 18˚C and air velocity 6 m/s overflow mode.
Resumo:
Im Rahmen des vom Hessischen Ministerium der Finanzen geförderten Forschungsprojektes „Bausteine für die CO2-Neutralität im Liegenschaftsbestand hessischer Hochschulen“ wird die neu entwickelte Teilenergiekennwertmethode, kurz TEK - an dem Hochschulgebäude L der Fachhochschule Fulda (1936) in der Leipziger Straße 119, 36037 Fulda, angewandt. Das massive Gebäude wurde vom Bundesgrenzschutz durch die Universität übernommen und weist eine kompakte, rechteckige Bauweise auf. Im Jahr 2007 fanden einige Umbau- und Sanierungsmaßnahmen statt, so dass es sich derzeit in einem sehr guten baulichen und anlagentechnischen Zustand befindet. Die aus den Analysen gewonnenen Gebäude- und Anlagendaten dienen als Datengrundlage für eine Querschnittsanalyse zum Nichtwohngebäudebestand. Der folgende Kurzbericht umfasst: • Eine kurze Beschreibung des Projektes und des Gebäudes, • die Bewertung des Ist-Zustands des Gebäudes, • die Angabe von Modernisierungsmaßnahmen unter Nennung der Energieeinsparung, der Grobkosten und der sich hieraus ergebenden Wirtschaftlichkeit, • einen Anhang mit ausführlichen Informationen zur Gebäudeanalyse. Der Primärenergiebedarf des Objektes wurde mit 187 kWh/(m²a) unter Berücksichtigung der vorhandenen Nutzung als „gering“ eingestuft. Trotz des vorhandenen Denkmalschutzes wird eine Dämmung der Außenfassade, aufgrund eines deutlichen Vorteils aus baulicher Sicht und einer erst kürzlich stattgefundenen innenseitigen Renovierung, empfohlen. Zusätzlich kann eine Senkung des Stromverbrauchs durch den Einsatz moderner Beleuchtungstechnik mit Präsenzmeldern geschaffen werden.
Resumo:
Intensive, ultrakurze Laserpulse regen Festkörper in einen Zustand an, in dem die Elektronen hohe Temperaturen erlangen, während das Gitter kalt bleibt. Die heißen Elektronen beeinflussen das sog. Laser-angeregte interatomare Potential bzw. die Potentialenergiefläche, auf der die Ionen sich bewegen. Dieses kann neben anderen ultrakurzen Prozessen zu Änderungen der Phononfrequenzen (phonon softening oder phonon hardening) führen. Viele ultrakurze strukturelle Phänomene in Festkörpern hängen bei hohen Laseranregungen von Änderungen der Phononfrequenzen bei niedrigeren Anregungen ab. Um die Laser-bedingten Änderungen des Phononenspektrums von Festkörpern beschreiben zu können, haben wir ein auf Temperatur-abhängiger Dichtefunktionaltheorie basierendes Verfahren entwickelt. Die dramatischen Änderungen nach einer Laseranregung in der Potentialenergiefläche werden durch die starke Veränderung der Zustandsdichte und der Besetzungen der Elektronen hervorgerufen. Diese Änderungen in der Zustandsdichte und den Besetzungszahlen können wir mit unserer Methode berechnen, um dann damit das Verhalten der Phononen nach einer Laseranregung zu analysieren. Auf diese Art und Weise studierten wir den Einfluss einer Anregung mit einem intensiven, ultrakurzen Laserpuls auf repräsentative Phonon Eigenmoden in Magnesium, Kupfer und Aluminium. Wir stellten dabei in manchen Gitterschwingungen entweder eine Abnahme (softening) und in anderen eine Zunahme (hardening) der Eigenfrequenz fest. Manche Moden zeigten bei Variation der Laseranregungsstärke sogar beide Verhaltensweisen. Das eine Phonon-Eigenmode ein hardening und softening zeigen kann, wird durch das Vorhandensein von van Hove Singularitäten in der elektronischen Zustandsdichte des betrachteten Materials erklärt. Für diesen Fall stellt unser Verfahren zusammen mit der Sommerfeld-Entwicklung die Eigenschaften der Festkörper Vibrationen in Verbindung mit den Laser induzierten Veränderungen in den elektronischen Besetzungen für verschiedene Phonon-eingefrorene Atomkonfigurationen. Auch die absolute Größe des softening und hardening wurde berechnet. Wir nehmen an, dass unsere Theorie Licht in die Effekte der Laseranregung von verschiedenen Materialien bringt. Außerdem studierten wir mit Hilfe von Dichtefunktionaltheorie die strukturellen Material-Eigenschaften, die durch kurze XUV Pulse induziert werden. Warme dichte Materie in Ultrakurzpuls angeregten Magnesium wurde analysiert und verglichen mit den Ergebnissen bei durch Laser Anregung bedingten Änderungen. Unter Verwendung von elektronischer-Temperatur-abhängiger Dichtefunktionaltheorie wurden die Änderungen in den Bindungseigenschaften von warmen dichten Magnesium studiert. Wir stellten dabei beide Effekte, Verstärkung und Abschwächung von Bindungen, bei jeweils verschiedenen Phonon Eigenmoden von Magnesium auf Grund von der Erzeugung von Rumpflöchern und dem Vorhandensein von heißen Elektronen fest. Die zusätzliche Erzeugung von heißen Elektronen führt zu einer Änderung der Bindungscharakteristik, die der Änderung, die durch die bereits vorhandenen Rumpflöcher hervorgerufen wurde, entgegen wirkt. Die thermischen Eigenschaften von Nanostrukturen sind teilweise sehr wichtig für elektronische Bauteile. Wir studierten hier ebenfalls den Effekt einer einzelnen Graphen Lage auf Kupfer. Dazu untersuchten wir mit Dichtefunktionaltheorie die strukturellen- und Schwingungseigenschaften von Graphen auf einem Kupfer Substrat. Wir zeigen, dass die schwache Wechselwirkung zwischen Graphen und Kupfer die Frequenz der aus der Ebene gerichteten akustischen Phonon Eigenmode anhebt und die Entartung zwischen den aus der Ebene gerichteten akustischen und optischen Phononen im K-Punkt des Graphen Spektrums aufhebt. Zusätzlich führten wir ab initio Berechnungen zur inelastischen Streuung eines Helium Atoms mit Graphen auf einem Kuper(111) Substrat durch. Wir berechneten dazu das Leistungsspektrum, das uns eine Idee über die verschiedenen Gitterschwingungen des Graphene-Kuper(111) Systems gibt, die durch die Kollision des Helium Atom angeregt werden. Wir brachten die Positionen der Peaks im Leistungsspektrum mit den Phonon Eigenfrequenzen, die wir aus den statischen Rechnungen erhalten haben, in Beziehung. Unsere Ergebnisse werden auch verglichen mit den Ergebnissen experimenteller Daten zur Helium Streuung an Graphen-Kupfer(111) Oberflächen.
Resumo:
In den letzten Jahrzehnten haben sich makroskalige hydrologische Modelle als wichtige Werkzeuge etabliert um den Zustand der globalen erneuerbaren Süßwasserressourcen flächendeckend bewerten können. Sie werden heutzutage eingesetzt um eine große Bandbreite wissenschaftlicher Fragestellungen zu beantworten, insbesondere hinsichtlich der Auswirkungen anthropogener Einflüsse auf das natürliche Abflussregime oder der Auswirkungen des globalen Wandels und Klimawandels auf die Ressource Wasser. Diese Auswirkungen lassen sich durch verschiedenste wasserbezogene Kenngrößen abschätzen, wie z.B. erneuerbare (Grund-)Wasserressourcen, Hochwasserrisiko, Dürren, Wasserstress und Wasserknappheit. Die Weiterentwicklung makroskaliger hydrologischer Modelle wurde insbesondere durch stetig steigende Rechenkapazitäten begünstigt, aber auch durch die zunehmende Verfügbarkeit von Fernerkundungsdaten und abgeleiteten Datenprodukten, die genutzt werden können, um die Modelle anzutreiben und zu verbessern. Wie alle makro- bis globalskaligen Modellierungsansätze unterliegen makroskalige hydrologische Simulationen erheblichen Unsicherheiten, die (i) auf räumliche Eingabedatensätze, wie z.B. meteorologische Größen oder Landoberflächenparameter, und (ii) im Besonderen auf die (oftmals) vereinfachte Abbildung physikalischer Prozesse im Modell zurückzuführen sind. Angesichts dieser Unsicherheiten ist es unabdingbar, die tatsächliche Anwendbarkeit und Prognosefähigkeit der Modelle unter diversen klimatischen und physiographischen Bedingungen zu überprüfen. Bisher wurden die meisten Evaluierungsstudien jedoch lediglich in wenigen, großen Flusseinzugsgebieten durchgeführt oder fokussierten auf kontinentalen Wasserflüssen. Dies steht im Kontrast zu vielen Anwendungsstudien, deren Analysen und Aussagen auf simulierten Zustandsgrößen und Flüssen in deutlich feinerer räumlicher Auflösung (Gridzelle) basieren. Den Kern der Dissertation bildet eine umfangreiche Evaluierung der generellen Anwendbarkeit des globalen hydrologischen Modells WaterGAP3 für die Simulation von monatlichen Abflussregimen und Niedrig- und Hochwasserabflüssen auf Basis von mehr als 2400 Durchflussmessreihen für den Zeitraum 1958-2010. Die betrachteten Flusseinzugsgebiete repräsentieren ein breites Spektrum klimatischer und physiographischer Bedingungen, die Einzugsgebietsgröße reicht von 3000 bis zu mehreren Millionen Quadratkilometern. Die Modellevaluierung hat dabei zwei Zielsetzungen: Erstens soll die erzielte Modellgüte als Bezugswert dienen gegen den jegliche weiteren Modellverbesserungen verglichen werden können. Zweitens soll eine Methode zur diagnostischen Modellevaluierung entwickelt und getestet werden, die eindeutige Ansatzpunkte zur Modellverbesserung aufzeigen soll, falls die Modellgüte unzureichend ist. Hierzu werden komplementäre Modellgütemaße mit neun Gebietsparametern verknüpft, welche die klimatischen und physiographischen Bedingungen sowie den Grad anthropogener Beeinflussung in den einzelnen Einzugsgebieten quantifizieren. WaterGAP3 erzielt eine mittlere bis hohe Modellgüte für die Simulation von sowohl monatlichen Abflussregimen als auch Niedrig- und Hochwasserabflüssen, jedoch sind für alle betrachteten Modellgütemaße deutliche räumliche Muster erkennbar. Von den neun betrachteten Gebietseigenschaften weisen insbesondere der Ariditätsgrad und die mittlere Gebietsneigung einen starken Einfluss auf die Modellgüte auf. Das Modell tendiert zur Überschätzung des jährlichen Abflussvolumens mit steigender Aridität. Dieses Verhalten ist charakteristisch für makroskalige hydrologische Modelle und ist auf die unzureichende Abbildung von Prozessen der Abflussbildung und –konzentration in wasserlimitierten Gebieten zurückzuführen. In steilen Einzugsgebieten wird eine geringe Modellgüte hinsichtlich der Abbildung von monatlicher Abflussvariabilität und zeitlicher Dynamik festgestellt, die sich auch in der Güte der Niedrig- und Hochwassersimulation widerspiegelt. Diese Beobachtung weist auf notwendige Modellverbesserungen in Bezug auf (i) die Aufteilung des Gesamtabflusses in schnelle und verzögerte Abflusskomponente und (ii) die Berechnung der Fließgeschwindigkeit im Gerinne hin. Die im Rahmen der Dissertation entwickelte Methode zur diagnostischen Modellevaluierung durch Verknüpfung von komplementären Modellgütemaßen und Einzugsgebietseigenschaften wurde exemplarisch am Beispiel des WaterGAP3 Modells erprobt. Die Methode hat sich als effizientes Werkzeug erwiesen, um räumliche Muster in der Modellgüte zu erklären und Defizite in der Modellstruktur zu identifizieren. Die entwickelte Methode ist generell für jedes hydrologische Modell anwendbar. Sie ist jedoch insbesondere für makroskalige Modelle und multi-basin Studien relevant, da sie das Fehlen von feldspezifischen Kenntnissen und gezielten Messkampagnen, auf die üblicherweise in der Einzugsgebietsmodellierung zurückgegriffen wird, teilweise ausgleichen kann.
Resumo:
Die Miniaturisierung von konventioneller Labor- und Analysetechnik nimmt eine zentrale Rolle im Bereich der allgemeinen Lebenswissenschaften und medizinischen Diagnostik ein. Neuartige und preiswerte Technologieplattformen wie Lab-on-a-Chip (LOC) oder Mikrototalanalysesysteme (µTAS) versprechen insbesondere im Bereich der Individualmedizin einen hohen gesellschaftlichen Nutzen zur frühzeitigen und nichtinvasiven Diagnose krankheitsspezifischer Indikatoren. Durch den patientennahen Einsatz preiswerter und verlässlicher Mikrochips auf Basis hoher Qualitätsstandards entfallen kostspielige und zeitintensive Zentrallaboranalysen, was gleichzeitig Chancen für den globalen Einsatz - speziell in Schwellen- und Entwicklungsländern - bietet. Die technischen Herausforderungen bei der Realisierung moderner LOC-Systeme sind in der kontrollierten und verlässlichen Handhabung kleinster Flüssigkeitsmengen sowie deren diagnostischem Nachweis begründet. In diesem Kontext wird der erfolgreichen Integration eines fernsteuerbaren Transports von biokompatiblen, magnetischen Mikro- und Nanopartikeln eine Schlüsselrolle zugesprochen. Die Ursache hierfür liegt in der vielfältigen Einsetzbarkeit, die durch die einzigartigen Materialeigenschaften begründet sind. Diese reichen von der beschleunigten, aktiven Durchmischung mikrofluidischer Substanzvolumina über die Steigerung der molekularen Interaktionsrate in Biosensoren bis hin zur Isolation und Aufreinigung von krankheitsspezifischen Indikatoren. In der Literatur beschriebene Ansätze basieren auf der dynamischen Transformation eines makroskopischen, zeitabhängigen externen Magnetfelds in eine mikroskopisch veränderliche potentielle Energielandschaft oberhalb magnetisch strukturierter Substrate, woraus eine gerichtete und fernsteuerbare Partikelbewegung resultiert. Zentrale Kriterien, wie die theoretische Modellierung und experimentelle Charakterisierung der magnetischen Feldlandschaft in räumlicher Nähe zur Oberfläche der strukturierten Substrate sowie die theoretische Beschreibung der Durchmischungseffekte, wurden jedoch bislang nicht näher beleuchtet, obwohl diese essentiell für ein detailliertes Verständnis der zu Grunde liegenden Mechanismen und folglich für einen Markteintritt zukünftiger Geräte sind. Im Rahmen der vorgestellten Arbeit wurde daher ein neuartiger Ansatz zur erfolgreichen Integration eines Konzepts zum fernsteuerbaren Transport magnetischer Partikel zur Anwendung in modernen LOC-Systemen unter Verwendung von magnetisch strukturierten Exchange-Bias (EB) Dünnschichtsystemen verfolgt. Die Ergebnisse zeigen, dass sich das Verfahren der ionenbe-schussinduzierten magnetischen Strukturierung (IBMP) von EB-Systemen zur Herstellung von maßgeschneiderten magnetischen Feldlandschaften (MFL) oberhalb der Substratoberfläche, deren Stärke und räumlicher Verlauf auf Nano- und Mikrometerlängenskalen gezielt über die Veränderung der Materialparameter des EB-Systems via IBMP eingestellt werden kann, eignet. Im Zuge dessen wurden erstmals moderne, experimentelle Verfahrenstechniken (Raster-Hall-Sonden-Mikroskopie und rastermagnetoresistive Mikroskopie) in Kombination mit einem eigens entwickelten theoretischen Modell eingesetzt, um eine Abbildung der MFL in unterschiedlichen Abstandsbereichen zur Substratoberfläche zu realisieren. Basierend auf der quantitativen Kenntnis der MFL wurde ein neuartiges Konzept zum fernsteuerbaren Transport magnetischer Partikel entwickelt, bei dem Partikelgeschwindigkeiten im Bereich von 100 µm/s unter Verwendung von externen Magnetfeldstärken im Bereich weniger Millitesla erzielt werden können, ohne den magnetischen Zustand des Substrats zu modifizieren. Wie aus den Untersuchungen hervorgeht, können zudem die Stärke des externen Magnetfelds, die Stärke und der Gradient der MFL, das magnetfeldinduzierte magnetische Moment der Partikel sowie die Größe und der künstlich veränderliche Abstand der Partikel zur Substratoberfläche als zentrale Einflussgrößen zur quantitativen Modifikation der Partikelgeschwindigkeit genutzt werden. Abschließend wurde erfolgreich ein numerisches Simulationsmodell entwickelt, das die quantitative Studie der aktiven Durchmischung auf Basis des vorgestellten Partikeltransportkonzepts von theoretischer Seite ermöglicht, um so gezielt die geometrischen Gegebenheiten der mikrofluidischen Kanalstrukturen auf einem LOC-System für spezifische Anwendungen anzupassen.
Resumo:
A transição de fase sol-gel em reticulados de poli-(butadieno) sintetizados com 1,6-hexano-bis-1,2,4-triazolina-3,5-diona (HMTD) foi caracterizada através de um estudo cinético e de um estudo viscosimétrico. Verificou-se que a reação de reticulação segue um esquema cinético de pseudo-primeira ordem, o qual a baixas conversões é equivalente a um de primeira ordem, sendo a reação neste estágio controlada por processo de ativação. A conversões mais altas ocorre um desvio do comportamento inicial, tornando-se a reção acentuadamente mais lenta. Através de medidas de viscosidade intrínseca de sistemas ramificados (estado de sol), determinou-se o ponto de gelificação em função da concentração inicial HMTD. Verificou-se ser necessário observar-se um aumento acentuado da viscosidade intrínseca com a concentração de HMTD, para que o ponto de gelificação obtido seja coerente aos dados experimentais. Relacionando-se a cinética da reação à viscosimetria, calculou-se o tempo de gelificação, i.e. o ponto de gelificação em função do tempo. Através da constante de velocidade da reação, do ponto de gelificação em função da concentração de HMTD, da conversão crítica e do tempo de gelificação, caracterizou-se a transição de fase sol-gel do sistema estudado.