648 resultados para experimentelle Atomphysik, Speicherung einzelner Teilchen
Resumo:
Durch die vermehrte Nachfrage von Biomöhren im Lebensmitteleinzelhandel ist die Anbaufläche ökologisch erzeugter Möhren in den letzten zehn Jahren deutlich angestiegen. Der Anbau konzentriert sich auf bestimmte Regionen und erfolgte damit zunehmend auf großen Schlägen in enger räumlicher und zeitlicher Abfolge. Mit der steigenden Wirtspflanzenpräsenz steigt auch der Befallsdruck durch die Möhrenfliege. Während der Schädling im konventionellen Anbau mit Insektiziden kontrolliert wird, stehen dem Ökologischen Landbau bisher keine direkten Regulative zur Verfügung. Ziel der Untersuchungen war es, unter den Praxisbedingungen des ökologischen Möhrenanbaus einzelbetriebliche und überregionale Muster beteiligter Risikofaktoren im Befallsgeschehen zu identifizieren und so Möglichkeiten einer verbesserten Prävention und Regulation aufzuzeigen. Über einen Zeitraum von drei Jahren wurden auf fünf Betrieben in Niedersachsen und Hessen umfangreiche Felddaten erhoben und diese unter Verwendung von GIS – Software und dem Simulationsmodell SWAT analysiert. Untersuchte Einflussgrößen umfassten (1) die Distanz zu vorjährigen Möhrenfeldern, (2) die zeitliche Möhrenanbauperiode, (3) Vegetationselemente und (4) der experimentelle Einsatz von Fangpflanzen zur Unterdrückung der Fliegenentwicklung. Unter der Berücksichtigung deutlicher einzelbetrieblicher Unterschiede sind die wichtigsten Ergebnisse der Studie wie folgt zu benennen: (1) Auf Betrieben mit Befall im zurückliegenden Anbaujahr zeigte sich die Distanz zu vorjährigen Möhrenfeldern als der wichtigste Risikofaktor. Das Ausbreitungsverhalten der 1. Generation Möhrenfliege erwies sich zudem als situationsgebunden anpassungsfähig. Fliegensumme und Befall waren jeweils in dem zu Vorjahresflächen nächstgelegen Feld am größten, während jeweils dahinter liegende Möhrenschläge entsprechend weniger Fliegenzahlen und Befall auswiesen. Aus den Ergebnissen wird als vorrangige Verbreitungskapazität der 1. Generation Möhrenfliegen innerhalb von 1000 m abgeleitet. (2) Betriebe mit kontinuierlicher Möhren - Anbaubauperiode (ca. April – Oktober), die langfristig die Entwicklung sowohl der 1. als auch der 2. Generation Fliegen unterstützten, verzeichneten stärkere Fliegenprobleme. Hinsichtlich einer verbesserten Prävention wird empfohlen mit einer strikten räumlichen Trennung früher und später Sätze ein Aufschaukeln zwischen den Generationen zu vermeiden. (3) Der Einfluss der Vegetation ließ sich weniger eindeutig interpretieren. Einzelbetriebliche Hinweise, dass Kleingehölze (Hecken und Bäume) im Radius zwischen aktueller und vorjähriger Möhrenfläche die Befallswahrscheinlichkeit erhöhen, konnten mit einem berechneten Gesamtmaß für die regionale holzige Vegetation nicht bestätigt werden. Der großräumigen holzigen Vegetation wird im Vergleich zur Feldrandvegetation daher beim Befallsgeschehen eine geringe Bedeutung zugeschrieben. (4) Drei Meter (vier Dämme) breiter Möhren – Fangstreifen auf den vorjährigen Möhrenfeldern eignen sich bereits ab dem Keimblattstadium, um erhebliches Befallspotential zu binden. Eine mechanische Entfernung der Fangpflanzen (Grubbern) mitsamt dem Befallspotential erzielte in 2008 eine 100 %-ige Unterdrückung der Möhrenfliegenentwicklung, in 2009 jedoch nur zu maximal 41 %. Als mögliche Synthese der Ergebnisse zur Ausbreitung der Möhrenfliegen im Frühjahr und zur zeitlichen Koinzidenz mit der Möhrenentwicklung wird als Empfehlung diskutiert, mit Hilfe einer angepassten Flächenwahl die Fliegenausbreitung räumlich an frühen Sätzen zu binden, um entsprechend befallsarme Regionen für entfernt liegende späte (empfindlichere) Möhrensätze zu schaffen.
Resumo:
Im Zuge der Novellierung der Gasnetzzugangsverordnung sowie des Erneuerbare-Energien-Gesetzes entwickelte sich die Einspeisung von Biomethan in das Erdgasnetz als alternative Investitionsmöglichkeit der Erneuerbare-Energien-Branche. Als problematisch erweist sich dabei die Identifikation und Strukturierung einzelner Risikofaktoren zu einem Risikobereich, sowie die anschließende Quantifizierung dieser Risikofaktoren innerhalb eines Risikoportfolios. Darüber hinaus besteht die Schwierigkeit, diese Risikofaktoren in einem cashflowbasierten und den Ansprüchen der Investoren gewachsenem Risikomodell abzubilden. Zusätzlich müssen dabei Wechselwirkungen zwischen einzelnen Risikofaktoren berücksichtigt werden. Aus diesem Grund verfolgt die Dissertation das Ziel, die Risikosituation eines Biomethanprojektes anhand aggregierter und isolierter Risikosimulationen zu analysieren. Im Rahmen einer Diskussion werden Strategien und Instrumente zur Risikosteuerung angesprochen sowie die Implementierungsfähigkeit des Risikomodells in das Risikomanagementsystem von Investoren. Die Risikomaße zur Beschreibung der Risikoauswirkung betrachten die Shortfälle einer Verteilung. Dabei beziehen sich diese auf die geplanten Ausschüttungen sowie interne Verzinsungsansprüche der Investoren und die von Kreditinstituten geforderte minimale Schuldendienstdeckungsrate. Im Hinblick auf die Risikotragfähigkeit werden liquiditätsorientierte Kennzahlen hinzugezogen. Investoren interessieren sich vor dem Hintergrund einer gezielten Risikosteuerung hauptsächlich für den gefahrvollsten Risikobereich und innerhalb dessen für den Risikofaktor, der die größten Risikoauswirkungen hervorruft. Zudem spielt der Zeitpunkt maximaler Risikoauswirkung eine große Rolle. Als Kernaussage dieser Arbeit wird festgestellt, dass in den meisten Fällen die Aussagefähigkeit aggregierter Risikosimulationen durch Überlagerungseffekte negativ beeinträchtigt wird. Erst durch isoliert durchgeführte Risikoanalysen können diese Effekte eliminiert werden. Besonders auffällig gestalten sich dabei die Ergebnisse der isoliert durchgeführten Risikoanalyse des Risikobereichs »Politik«. So verursacht dieser im Vergleich zu den übrigen Risikobereichen, wie »Infrastruktur«, »Rohstoffe«, »Absatzmarkt« und »Finanzmarkt«, die geringsten Wahrscheinlichkeiten avisierte Planwerte der Investoren zu unterschreiten. Kommt es jedoch zu einer solchen Planwert-Unterschreitung, nehmen die damit verbundenen Risikoauswirkungen eine überraschende Position im Risikoranking der Investoren ein. Hinsichtlich der Aussagefähigkeit des Risikomodells wird deutlich, dass spezifische Risikosichtweisen der Investoren ausschlaggebend dafür sind, welche Strategien und Instrumente zur Risikosenkung umgesetzt werden. Darüber hinaus wird festgestellt, dass die Grenzen des Risikomodells in der Validität der Expertenmeinungen und dem Auffinden einer Optimallösung zu suchen sind.
Resumo:
Spätestens seit der Formulierung der modernen Portfoliotheorie durch Harry Markowitz (1952) wird den aktiven Portfoliomanagementstrategien besondere Aufmerksamkeit in Wissenschaft und Anlagepraxis gewidmet. Diese Arbeit ist im Schnittstellenbereich zwischen neoklassischer Kapitalmarkttheorie und technischer Analyse angesiedelt. Es wird untersucht, inwieweit eine passive Buy&Hold-Strategie, die als einzige im Einklang mit der Effizienzmarkthypothese nach Fama (1970) steht, durch Verwendung von aktiven Strategien geschlagen werden kann. Der Autor präsentiert einen Wavelet-basierten Ansatz für die Analyse der Finanzzeitreihen. Die Wavelet-Transformation wird als ein mathematisches Datenaufbereitungstool herangezogen und ermöglicht eine Multiskalendarstellung einer Datenreihe, durch das Aufspalten dieser in eine Approximationszeitreihe und eine Detailszeitreihe, ohne dass dadurch Informationen verloren gehen. Diese Arbeit beschränkt sich auf die Verwendung der Daubechies Wavelets. Die Multiskalendarstellung dient als Grundlage für die Entwicklung von zwei technischen Indikatoren. Der Wavelet Stochastik Indikator greift auf die Idee des bekannten Stochastik-Indikators zurück und verwendet nicht mehr die Kurszeitreihe, sondern die Approximationszeitreihe als Input. Eine auf diesem Indikator basierende Investmentstrategie wird umfangreicher Sensitivitätsanalyse unterworfen, die aufzeigt, dass eine Buy&Hold-Strategie durchaus outperformt werden kann. Die Idee des Momentum-Indikators wird durch den Wavelet Momentum Indikator aufgegriffen, welcher die Detailszeitreihen als Input heranzieht. Im Rahmen der Sensitivitätsanalyse einer Wavelet Momentum Strategie wird jedoch die Buy&Hold -Strategie nicht immer geschlagen. Ein Wavelet-basiertes Prognosemodell verwendet ähnlich wie die technischen Indikatoren die Multiskalendarstellung. Die Approximationszeitreihen werden dabei durch das Polynom 2. Grades und die Detailszeitreihen durch die Verwendung der Sinusregression extrapoliert. Die anschließende Aggregation der extrapolierten Zeitreihen führt zu prognostizierten Wertpapierkursen. Kombinierte Handelsstrategien zeigen auf, wie Wavelet Stochastik Indikator, Wavelet Momentum Indikator und das Wavelet-basierte Prognosemodell miteinander verknüpft werden können. Durch die Verknüpfung einzelner Strategien gelingt es, die Buy&Hold-Strategie zu schlagen. Der letzte Abschnitt der Arbeit beschäftigt sich mit der Modellierung von Handelssystem-portfolios. Angestrebt wird eine gleichzeitige Diversifikation zwischen Anlagen und Strategien, die einer ständigen Optimierung unterworfen wird. Dieses Verfahren wird als ein systematischer, an bestimmte Optimierungskriterien gebundener Investmentprozess verstanden, mit welchem es gelingt, eine passive Buy&Hold-Strategie zu outperformen. Die Arbeit stellt eine systematische Verknüpfung zwischen der diskreten Wavelet Transformation und technisch quantitativen Investmentstrategien her. Es werden auch die Problemfelder der durchaus viel versprechenden Verwendung der Wavelet Transformation im Rahmen der technischen Analyse beleuchtet.
Resumo:
Auf dem Gebiet der Strukturdynamik sind computergestützte Modellvalidierungstechniken inzwischen weit verbreitet. Dabei werden experimentelle Modaldaten, um ein numerisches Modell für weitere Analysen zu korrigieren. Gleichwohl repräsentiert das validierte Modell nur das dynamische Verhalten der getesteten Struktur. In der Realität gibt es wiederum viele Faktoren, die zwangsläufig zu variierenden Ergebnissen von Modaltests führen werden: Sich verändernde Umgebungsbedingungen während eines Tests, leicht unterschiedliche Testaufbauten, ein Test an einer nominell gleichen aber anderen Struktur (z.B. aus der Serienfertigung), etc. Damit eine stochastische Simulation durchgeführt werden kann, muss eine Reihe von Annahmen für die verwendeten Zufallsvariablengetroffen werden. Folglich bedarf es einer inversen Methode, die es ermöglicht ein stochastisches Modell aus experimentellen Modaldaten zu identifizieren. Die Arbeit beschreibt die Entwicklung eines parameter-basierten Ansatzes, um stochastische Simulationsmodelle auf dem Gebiet der Strukturdynamik zu identifizieren. Die entwickelte Methode beruht auf Sensitivitäten erster Ordnung, mit denen Parametermittelwerte und Kovarianzen des numerischen Modells aus stochastischen experimentellen Modaldaten bestimmt werden können.
Resumo:
In dieser Arbeit wurde ein gemischt-ganzzahliges lineares Einsatzoptimierungsmodell für Kraftwerke und Speicher aufgebaut und für die Untersuchung der Energieversorgung Deutschlands im Jahre 2050 gemäß den Leitstudie-Szenarien 2050 A und 2050 C ([Nitsch und Andere, 2012]) verwendet, in denen erneuerbare Energien einen Anteil von über 85 % an der Stromerzeugung haben und die Wind- und Solarenergie starke Schwankungen der durch steuerbare Kraftwerke und Speicher zu deckenden residualen Stromnachfrage (Residuallast) verursachen. In Szenario 2050 A sind 67 TWh Wasserstoff, die elektrolytisch aus erneuerbarem Strom zu erzeugen sind, für den Verkehr vorgesehen. In Szenario 2050 C ist kein Wasserstoff für den Verkehr vorgesehen und die effizientere Elektromobilität hat einen Anteil von 100% am Individualverkehr. Daher wird weniger erneuerbarer Strom zur Erreichung desselben erneuerbaren Anteils im Verkehrssektor benötigt. Da desweiteren Elektrofahrzeuge Lastmanagementpotentiale bieten, weisen die Residuallasten der Szenarien eine unterschiedliche zeitliche Charakteristik und Jahressumme auf. Der Schwerpunkt der Betrachtung lag auf der Ermittlung der Auslastung und Fahrweise des in den Szenarien unterstellten ’Kraftwerks’-parks bestehend aus Kraftwerken zur reinen Stromerzeugung, Kraft-Wärme-Kopplungskraftwerken, die mit Wärmespeichern, elektrischen Heizstäben und Gas-Backupkesseln ausgestattet sind, Stromspeichern und Wärmepumpen, die durch Wärmespeicher zum Lastmanagment eingesetzt werden können. Der Fahrplan dieser Komponenten wurde auf minimale variable Gesamtkosten der Strom- und Wärmeerzeugung über einen Planungshorizont von jeweils vier Tagen hin optimiert. Das Optimierungsproblem wurde mit dem linearen Branch-and-Cut-Solver der software CPLEX gelöst. Mittels sogenannter rollierender Planung wurde durch Zusammensetzen der Planungsergebnisse für überlappende Planungsperioden der Kraftwerks- und Speichereinsatz für die kompletten Szenariojahre erhalten. Es wurde gezeigt, dass der KWK-Anteil an der Wärmelastdeckung gering ist. Dies wurde begründet durch die zeitliche Struktur der Stromresiduallast, die wärmeseitige Dimensionierung der Anlagen und die Tatsache, dass nur eine kurzfristige Speicherung von Wärme vorgesehen war. Die wärmeseitige Dimensionierung der KWK stellte eine Begrenzung des Deckungsanteils dar, da im Winter bei hoher Stromresiduallast nur wenig freie Leistung zur Beladung der Speicher zur Verfügung stand. In den Berechnungen für das Szenario 2050 A und C lag der mittlere Deckungsanteil der KWK an der Wärmenachfrage von ca. 100 TWh_th bei 40 bzw. 60 %, obwohl die Auslegung der KWK einen theoretischen Anteil von über 97 % an der Wärmelastdeckung erlaubt hätte, gäbe es die Beschränkungen durch die Stromseite nicht. Desweiteren wurde die CO2-Vermeidungswirkung der KWK-Wärmespeicher und des Lastmanagements mit Wärmepumpen untersucht. In Szenario 2050 A ergab sich keine signifikante CO2-Vermeidungswirkung der KWK-Wärmespeicher, in Szenario 2050 C hingegen ergab sich eine geringe aber signifikante CO2-Einsparung in Höhe von 1,6 % der Gesamtemissionen der Stromerzeugung und KWK-gebundenen Wärmeversorgung. Das Lastmanagement mit Wärmepumpen vermied Emissionen von 110 Tausend Tonnen CO2 (0,4 % der Gesamtemissionen) in Szenario A und 213 Tausend Tonnen in Szenario C (0,8 % der Gesamtemissionen). Es wurden darüber hinaus Betrachtungen zur Konkurrenz zwischen solarthermischer Nahwärme und KWK bei Einspeisung in dieselben Wärmenetze vorgenommen. Eine weitere Einschränkung der KWK-Erzeugung durch den Einspeisevorrang der Solarthermie wurde festgestellt. Ferner wurde eine untere Grenze von 6,5 bzw. 8,8 TWh_th für die in den Szenarien mindestens benötigte Wasserstoff-Speicherkapazität ermittelt. Die Ergebnisse dieser Arbeit legen nahe, das technisch-ökonomische Potential von Langzeitwärmespeichern für eine bessere Integration von KWK ins System zu ermitteln bzw. generell nach geeigneteren Wärmesektorszenarien zu suchen, da deutlich wurde, dass für die öffentliche Wärmeversorgung die KWK in Kombination mit Kurzzeitwärmespeicherung, Gaskesseln und elektrischen Heizern keine sehr effektive CO2 -Reduktion in den Szenarien erreicht. Es sollte dabei z.B. untersucht werden, ob ein multivalentes System aus KWK, Wärmespeichern und Wärmepumpen eine ökonomisch darstellbare Alternative sein könnte und im Anschluss eine Betrachtung der optimalen Anteile von KWK, Wärmepumpen und Solarthermie im Wärmemarkt vorgenommen werden.
Resumo:
An improved understanding of soil organic carbon (Corg) dynamics in interaction with the mechanisms of soil structure formation is important in terms of sustainable agriculture and reduction of environmental costs of agricultural ecosystems. However, information on physical and chemical processes influencing formation and stabilization of water stable aggregates in association with Corg sequestration is scarce. Long term soil experiments are important in evaluating open questions about management induced effects on soil Corg dynamics in interaction with soil structure formation. The objectives of the present thesis were: (i) to determine the long term impacts of different tillage treatments on the interaction between macro aggregation (>250 µm) and light fraction (LF) distribution and on C sequestration in plots differing in soil texture and climatic conditions. (ii) to determine the impact of different tillage treatments on temporal changes in the size distribution of water stable aggregates and on macro aggregate turnover. (iii) to evaluate the macro aggregate rebuilding in soils with varying initial Corg contents, organic matter (OM) amendments and clay contents in a short term incubation experiment. Soil samples were taken in 0-5 cm, 5-25 cm and 25-40 cm depth from up to four commercially used fields located in arable loess regions of eastern and southern Germany after 18-25 years of different tillage treatments with almost identical experimental setups per site. At each site, one large field with spatially homogenous soil properties was divided into three plots. One of the following three tillage treatments was carried in each plot: (i) Conventional tillage (CT) with annual mouldboard ploughing to 25-30 cm (ii) mulch tillage (MT) with a cultivator or disc harrow 10-15 cm deep, and (iii) no tillage (NT) with direct drilling. The crop rotation at each site consisted of sugar beet (Beta vulgaris L.) - winter wheat (Triticum aestivum L.) - winter wheat. Crop residues were left on the field and crop management was carried out following the regional standards of agricultural practice. To investigate the above mentioned research objectives, three experiments were conducted: Experiment (i) was performed with soils sampled from four sites in April 2010 (wheat stand). Experiment (ii) was conducted with soils sampled from three sites in April 2010, September 2011 (after harvest or sugar beet stand), November 2011 (after tillage) and April 2012 (bare soil or wheat stand). An incubation study (experiment (iii)) was performed with soil sampled from one site in April 2010. Based on the aforementioned research objectives and experiments the main findings were: (i) Consistent results were found between the four long term tillage fields, varying in texture and climatic conditions. Correlation analysis of the yields of macro aggregate against the yields of free LF ( ≤1.8 g cm-3) and occluded LF, respectively, suggested that the effective litter translocation in higher soil depths and higher litter input under CT and MT compensated in the long term the higher physical impact by tillage equipment than under NT. The Corg stocks (kg Corg m−2) in 522 kg soil, based on the equivalent soil mass approach (CT: 0–40 cm, MT: 0–38 cm, NT: 0–36 cm) increased in the order CT (5.2) = NT (5.2) < MT (5.7). Significantly (p ≤ 0.05) highest Corg stocks under MT were probably a result of high crop yields in combination with reduced physical tillage impact and effective litter incorporation, resulting in a Corg sequestration rate of 31 g C-2 m-2 yr-1. (ii) Significantly higher yields of macro aggregates (g kg-2 soil) under NT (732-777) and MT (680-726) than under CT (542-631) were generally restricted to the 0-5 cm sampling depth for all sampling dates. Temporal changes on aggregate size distribution were only small and no tillage induced net effect was detectable. Thus, we assume that the physical impact by tillage equipment was only small or the impact was compensated by a higher soil mixing and effective litter translocation into higher soil depths under CT, which probably resulted in a high re aggregation. (iii) The short term incubation study showed that macro aggregate yields (g kg-2 soil) were higher after 28 days in soils receiving OM (121.4-363.0) than in the control soils (22.0-52.0), accompanied by higher contents of microbial biomass carbon and ergosterol. Highest soil respiration rates after OM amendments within the first three days of incubation indicated that macro aggregate formation is a fast process. Most of the rebuilt macro aggregates were formed within the first seven days of incubation (42-75%). Nevertheless, it was ongoing throughout the entire 28 days of incubation, which was indicated by higher soil respiration rates at the end of the incubation period in OM amended soils than in the control soils. At the same time, decreasing carbon contents within macro aggregates over time indicated that newly occluded OM within the rebuilt macro aggregates served as Corg source for microbial biomass. The different clay contents played only minor role in macro aggregate formation under the particular conditions of the incubation study. Overall, no net changes on macro aggregation were identified in the short term. Furthermore, no indications for an effective Corg sequestration on the long term under NT in comparison to CT were found. The interaction of soil disturbance, litter distribution and the fast re aggregation suggested that a distinct steady state per tillage treatment in terms of soil aggregation was established. However, continuous application of MT with a combination of reduced physical tillage impact and effective litter incorporation may offer some potential in improving the soil structure and may therefore prevent incorporated LF from rapid decomposition and result in a higher C sequestration on the long term.
Resumo:
Die Gabe von organischem Dünger beeinflusst die Menge und die Zusammensetzung der organischen Substanz im landwirtschaftlich genutzten Boden. Dies wirkt sich auch auf den Umfang der mikrobiellen Biomasse im Boden und ihrer Gemeinschaftsstruktur aus. Diese Arbeit beschäftigte sich mit der Untersuchung von mineralischer und organischer Düngung auf die der mikrobiellen Gemeinschaft im Oberboden, Unterboden und unter subtropischen Bedingungen. Der Fokus der Arbeit lag zum einen in der Bestimmung der physiologischen Substratnutzungsdiversität der mikrobiellen Gemeinschaft, zum anderen in der Untersuchung der mikrobiellen Biomasse und deren Residuen nach organischer Düngung. Es konnte in der vorliegenden Arbeit gezeigt werden, dass das Substratnutzungsmuster der mikrobiellen Gemeinschaft sich signifikant zwischen langfristiger Rottemistdüngung und mineralischer Düngung unterscheidet. Diese Trennung wurde hauptsächlich durch die erhöhte Mineralisation von Kohlenhydraten und Aminosäuren gesteuert. Auch wurden der Boden pH-Wert und der Gehalt an organischer Substanz im Boden als Hauptmechanismen für die Unterscheidung der Düngevarianten identifiziert. Wenn auch die multi-SIR Methode keine Effekte von biodynamischen Präparaten auf die Funktion der mikrobiellen Gemeinschaft zeigen konnte, so war eine Trennung zwischen den Düngeintensitäten bei Rottemistdüngung mit biodynamischen Präparaten und mineralischer Düngung möglich. In Bezug dazu war die multi-SIR Methode empfindlicher, als die Bestimmung der mikrobiellen Biomasse oder des organischen Kohlenstoffs im Boden. Ergänzend dazu wurde der Substratnutzungsdiversitätsindex nach langjähriger mineralischer Düngung gegenüber der Rottemistdüngung verringert. Dies könnte auf eine Verminderung der Bodenfruchtbarkeit hindeuten. Auch wurde untersucht, inwieweit die Düngung mit Rottemist die Speicherung des organischen Materials (SOC und N) im Unterboden, einem weltweit bedeutenden C-Speicher, beeinflusst. Ein steigendes C/N-Verhältnis ging einher mit einer Verringerung der mikrobiellen Residualmasse am gesamten organischen Kohlenstoff mit der Tiefe. Langfristige organische Düngung führte zu einer Erhöhung des Verhältnisses pilzlicher zu bakterieller Residuen im Oberboden und steigerte den Gehalt an bakteriellen Residuen im Unterboden gegenüber mineralischer Düngung. Da keine Steigerung des gesamten organischen Kohlenstoffs im Unterboden vorliegt, kann eine Erhöhung des mikrobiellen Umsatzes im Unterboden bei organischer Düngung vermutet werden. Daneben sank das Verhältnis der pilzlichen zu bakteriellen Residuen von 2,6 im Oberboden auf 2,1 im Unterboden. Weitere Untersuchungen sind hier noch nötig, um die Rolle von mikrobiellen Residuen im Unterboden zu zeigen. Des Weiteren wurden die Auswirkungen von mit Aktivkohle und Tanninen angereichertem Ziegenkot auf die mikrobielle Biomasse, ihre Residuen und des organischem Kohlenstoff im Boden untersucht. Die Applikation der Aktivkohle sowie der Tannine erfolgte als Futterzusatz und direkt auf dem Feld. Nach zweijähriger Versuchsdauer unter subtropischen Bedingungen stieg die mikrobielle Biomasse im Boden nach organischer Düngung am stärksten an, gefolgt von den mikrobiellen Residuen und dem organischen Kohlenstoff. Der Anteil des Ergosterols an der gesamten mikrobiellen Biomasse deutete darauf hin, dass der Boden durch einen hohen Gehalt an saprotrophischen Pilzen gekennzeichnet war. Eine Dominanz der bakteriellen Residualmasse lässt einen schnellen Abbau der pilzlichen Residuen vermuten. Auch hatte die Aktivkohle einen positiven Einfluss auf die organische Bodensubstanz und die Zugabe von Tanninen erhöhte den extrahierbaren Stickstoff im Boden. Doch gab es keine Effekte durch die unterschiedlichen Applikationsmethoden auf dem Versuchsfeld. Es wurde gezeigt, dass die organische Düngung sich positiv auf die Bodenqualität auswirkt. Nicht nur das physiologische Profil der mikrobiellen Gemeinschaft wird verändert, sondern auch die mikrobiellen Residuen im gesamten Bodenprofil (0 – 100 cm) werden durch organische Düngung im Vergleich zur mineralischen Düngung erhöht. Die Rolle der mikrobiellen Biomasse und ihrer Residuen als Anzeiger für die Veränderungen in der mikrobiellen Gemeinschaftsstruktur wurde in der vorliegenden Arbeit dargestellt. Dies zeigt einmal mehr, dass diese als Indikator für Veränderungen in der mikrobiellen Gemeinschaftsstruktur herangezogen werden können. Speziell in Nutzungssystemen mit einem schnellen Umsatz der organischen Substanz, wie unter ariden subtropischen Bedingungen, bildet die Bestimmung der mikrobiellen Biomasse und ihrer Residuen eine Möglichkeit, die Dynamik der mikrobiellen Biomasse und der organischen Substanz durch Düngung zu dokumentieren.
Resumo:
Mit der Methode der photoneninduzierten Fluoreszenzspektroskopie (PIFS) wurden spektro- und polarimetrische Fluoreszenzspektren des Xenon-Atoms und der NO- und CO-Moleküle untersucht. Im Bereich der Atomphysik konnten für das Xenon-Atom eindeutige Fluoreszenzkaskadeneffekte vom sichtbaren (VIS) in den vakuumultravioleten (VUV) Spektralbereich beobachtet werden. Das untersuchte Energieintervall zeichnete sich durch 15 gefundene Resonanzen entlang der Anregungsenergieachse der Synchrotronphotonen aus, die auf doppeltangeregte nln′l′-Resonanzen zurückgeführt werden konnten. Im Bereich der Molekülphysik wurden Messdaten der NO A 1Π → X 1Σ+- und CO A 2Π → X 2Σ+-Fluoreszenz nach der Anregung der 1s−1 → 2π-Resonanz untersucht. Durch polarimetrische Untersuchungen konnten in beiden Fällen die Winkelanisotropieparameter β(ω) der Fluoreszenz ermittelt werden und mit ab initio Berechnungen mit unterschiedlichen theoretischen Näherungen vergleichen werden. Der Einfluss quantenmechanischer Interferenzeffekte (LVI und ESI) auf die Winkelanisotropieparameter wurde aufgezeigt. Im Falle des NO- und des CO-Moleküls konnte eine sehr gute Übereinstimmung zwischen der Theorie und dem Experiment nachgewiesen werden. Durch Pioniermessungen an Diamantoiden konnte erstmalig dispergierte Lumineszenz der kleinsten Vertreter der Nanodiamanten nachgewiesen werden. Diese Messungen legen eine Grundlage für eine systematische Erforschung der Nanokristalle zugrunde.
Resumo:
Wir leben in einer schnelllebigen unsicheren Welt. In einer Welt, in der fast jede Person schon einmal ein Gefühl von Wertlosigkeit und Ausgrenzung verspürt hat. Im vorliegenden an einer Schnittstelle zwischen Soziologie und Psychologie lokalisierten Dissertationsprojekt wird sich mit eben diesem aversiven Empfinden, sozial sowie gesellschaftlich überflüssig und ausgeschlossen zu sein, in Entstehung und möglichen Auswirkungen auseinandergesetzt. Dafür wurden eine deutschlandweite Telefon- und zwei experimentelle Laborstudien durchgeführt. Die theoretische und empirische Basis der Arbeit bilden soziologische Ansätze wie die Theorie der Desintegration (Anhut & Heitmeyer, 2000, 2009), psychologische Modelle wie das "Need-Threat"-Modell sozialer Ausgrenzung (Williams, 2009) und interdisziplinäre sozialwissenschaftliche Studien (Bude & Lantermann, 2006; Heitmeyer, 2002-2012; Lantermann, Döring-Seipel, Eierdanz & Gerhold, 2009). Die Befunde der Telefonstudie zeigen, dass die individuelle Wahrnehmung und Empfindung nicht unweigerlich vorhandene objektiv prekäre Lebenslagen akkurat spiegelt. So können ausgeprägte interne Ressourcen wie die des Kohärenzsinns einen positiven Effekt objektiver zum Beispiel finanzieller und/oder sozialer Prekarität auf subjektives soziales sowie gesellschaftliches Exklusionsempfinden abschwächen. Auch zeigte sich im experimentellen Kontext, dass induzierter sozialer Ausschluss nicht zu empfundener sozialer Exklusion führen muss. Als mögliche Auswirkungen empfundener sozialer und gesellschaftlicher Exklusion wurden ein Streben nach sozialem Anschluss über eine verstärkte Identifikation mit sozialen Eigengruppen wie der religiösen oder nationalen Eigengruppe (Telefonstudie, Laborstudie II) sowie ebenfalls aggressive feindselige Tendenzen über fremdenfeindliche oder antisemitische Haltungen (Telefonstudie) aufgedeckt. Weiterhin stellt generelle Selbstunsicherheit einen Mediator zwischen empfundener Exklusion und der sozialen Eigengruppenidentifikation über die nationale Eigengruppe dar (Telefonstudie). Ein Fokus des Dissertationsprojekts lag zudem auf einer ersten Untersuchung von Indikatoren eines kontrollbasierten Drei-Phasenmodells im Umgang mit subjektiv empfundener Exklusion (Telefonstudie, Laborstudie I). Basierend auf dem Modell kann ein Prozess empfundener Exklusion erstmalig empirisch analysiert werden, welcher sich auch in potenziellen Folgen wie einem erhöhten sozialen Anschlussstreben oder verstärkten aggressiven Tendenzen spiegeln sollte. Das Phasenmodell wurde aus den Theorien psychologischer Reaktanz (Brehm & Brehm, 1981), sekundärer Kontrolle (Rothbaum, Weisz & Snyder, 1982) und erlernter Hilflosigkeit (Seligman, 1975, 1992) abgeleitet. Aus den empirischen Befunden gezogene theoretische Schlussfolgerungen werden abschließend dargestellt und diskutiert. Zudem werden Hinweise für eine zukünftige Exklusionsforschung gegeben. So erscheint beispielsweise eine Differenzierung zwischen sozial und gesellschaftlich empfundener Exklusion auch hinsichtlich resultierender Gedanken, Gefühle und Verhaltensweisen für weitere sozialwissenschaftliche Untersuchungen interessant.
Resumo:
Enterprise-Resource-Planning-Systeme (ERP-Systeme) bilden für die meisten mittleren und großen Unternehmen einen essentiellen Bestandteil ihrer IT-Landschaft zur Verwaltung von Geschäftsdaten und Geschäftsprozessen. Geschäftsdaten werden in ERP-Systemen in Form von Geschäftsobjekten abgebildet. Ein Geschäftsobjekt kann mehrere Attribute enthalten und über Assoziationen zu anderen Geschäftsobjekten einen Geschäftsobjektgraphen aufspannen. Existierende Schnittstellen ermöglichen die Abfrage von Geschäftsobjekten, insbesondere mit Hinblick auf deren Attribute. Die Abfrage mit Bezug auf ihre Position innerhalb des Geschäftsobjektgraphen ist jedoch über diese Schnittstellen häufig nur sehr schwierig zu realisieren. Zur Vereinfachung solcher Anfragen können semantische Technologien, wie RDF und die graphbasierte Abfragesprache SPARQL, verwendet werden. SPARQL ermöglicht eine wesentlich kompaktere und intuitivere Formulierung von Anfragen gegen Geschäftsobjektgraphen, als es mittels der existierenden Schnittstellen möglich ist. Die Motivation für diese Arbeit ist die Vereinfachung bestimmter Anfragen gegen das im Rahmen dieser Arbeit betrachtete SAP ERP-System unter Verwendung von SPARQL. Zur Speicherung von Geschäftsobjekten kommen in ERP-Systemen typischerweise relationale Datenbanken zum Einsatz. Die Bereitstellung von SPARQL-Endpunkten auf Basis von relationalen Datenbanken ist ein seit längerem untersuchtes Gebiet. Es existieren verschiedene Ansätze und Tools, welche die Anfrage mittels SPARQL erlauben. Aufgrund der Komplexität, der Größe und der Änderungshäufigkeit des ERP-Datenbankschemas können solche Ansätze, die direkt auf dem Datenbankschema aufsetzen, nicht verwendet werden. Ein praktikablerer Ansatz besteht darin, den SPARQL-Endpunkt auf Basis existierender Schnittstellen zu realisieren. Diese sind weniger komplex als das Datenbankschema, da sie die direkte Abfrage von Geschäftsobjekten ermöglichen. Dadurch wird die Definition des Mappings erheblich vereinfacht. Das ERP-System bietet mehrere Schnittstellen an, die sich hinsichtlich des Aufbaus, der Zielsetzung und der verwendeten Technologie unterscheiden. Unter anderem wird eine auf OData basierende Schnittstelle zur Verfügung gestellt. OData ist ein REST-basiertes Protokoll zur Abfrage und Manipulation von Daten. Von den bereitgestellten Schnittstellen weist das OData-Interface gegenüber den anderen Schnittstellen verschiedene Vorteile bei Realisierung eines SPARQL-Endpunktes auf. Es definiert eine Abfragesprache und einen Link-Adressierungsmechanismus, mit dem die zur Beantwortung einer Anfrage benötigten Service-Aufrufe und die zu übertragende Datenmenge erheblich reduziert werden können. Das Ziel dieser Arbeit besteht in der Entwicklung eines Verfahrens zur Realisierung eines SPARQL-Endpunktes auf Basis von OData-Services. Dazu wird zunächst eine Architektur vorgestellt, die als Grundlage für die Implementierung eines entsprechenden Systems dienen kann. Ausgehend von dieser Architektur, werden die durch den aktuellen Forschungsstand noch nicht abgedeckten Bereiche ermittelt. Nach bestem Wissen ist diese Arbeit die erste, welche die Abfrage von OData-Schnittstellen mittels SPARQL untersucht. Dabei wird als Teil dieser Arbeit ein neuartiges Konzept zur semantischen Beschreibung von OData-Services vorgestellt. Dieses ermöglicht die Definition von Abbildungen der von den Services bereitgestellten Daten auf RDF-Graphen. Aufbauend auf den Konzepten zur semantischen Beschreibung wird eine Evaluierungssemantik erarbeitet, welche die Auflösung von Ausdrücken der SPARQL-Algebra gegen semantisch annotierte OData-Services definiert. Dabei werden die Daten aller OData-Services ermittelt, die zur vollständigen Abarbeitung einer Anfrage benötigt werden. Zur Abfrage der relevanten Daten wurden Konzepte zur Erzeugung der entsprechenden OData-URIs entwickelt. Das vorgestellte Verfahren wurde prototypisch implementiert und anhand zweier Anwendungsfälle für die im betrachteten Szenario maßgeblichen Servicemengen evaluiert. Mit den vorgestellten Konzepten besteht nicht nur die Möglichkeit, einen SPARQL-Endpunkt für ein ERP-System zu realisieren, vielmehr kann jede Datenquelle, die eine OData-Schnittstelle anbietet, mittels SPARQL angefragt werden. Dadurch werden große Datenmengen, die bisher für die Verarbeitung mittels semantischer Technologien nicht zugänglich waren, für die Integration mit dem Semantic Web verfügbar gemacht. Insbesondere können auch Datenquellen, deren Integration miteinander bisher nicht oder nur schwierig möglich war, über Systeme zur föderierten Abfrage miteinander integriert werden.
Resumo:
Die Trocknung ist eines der am häufigsten verwendeten Verfahren, um die Haltbarkeit von landwirtschaftlichen Gütern zu verlängern. Von den vielen gebräuchlichen Trocknungsarten ist die Konvektionstrocknung, die Luft als Energie- und Feuchteträger verwendet, weiterhin die wichtigste. Trotz ihrer Nachteile und ihres hohen spezifischen Energieverbrauchs sind Satztrockner für die Getreide-, Kräuter- und Heutrocknung noch weit verbreitet. Ferner werden Konvektionstrockner gemeinhin zur künstlichen Trocknung eingesetzt. Diese Arbeit ist Teil eines Forschungsprojekts, welches eine sorptionsgestützte solare Trocknung von landwirtschaftlichen Gütern untersucht. Bei dieser wird kühle feuchte Luft in Kontakt mit einer konzentrierten hygroskopischen Salzlösung gebracht. Während dieses Prozesses wird die Luft entfeuchtet und mit Hilfe der freigesetzten Verdampfungsenthalpie erwärmt. Die Anwendung dieses Verfahrens zur Trocknung landwirtschaftlicher Güter ist besonders interessant für Produkte, die bei niedrigen Temperaturen verarbeitet werden, um ihre Qualität nicht negativ zu beeinflussen. Bei allen energieintensiven Prozessen und vor allem bei der Verwendung von Solarenergie ist ein effizienter Energieverbrauch äußerst wichtig für den technischen und ökonomischen Erfolg. Eine ungleichmäßige Trocknung ist oftmals bei Satztrocknern zu beobachten, was die Energieeffizienz negativ beeinflusst. Aus diesem Grund lag im agrartechnischen Teil des Projekts der Schwerpunkt auf der Trocknung bei niedrigen Temperaturen und geringer Luftfeuchte, die der Sorptionsprozess liefert, sowie auf der Verbesserung der Luftverteilung und der Gleichmäßigkeit der Trocknung in lockeren und verdichteten Schüttungen. Es wurden Dünnschicht-Trocknungsexperminente für Blattsellerie bei unterschiedlichen Lufttemperaturen und unterschiedlicher relativer Luftfeuchte durchgeführt. Die Ergebnisse zeigen eindeutig, dass nicht nur die Lufttemperatur einen großen Einfluss auf die Trocknungsgeschwindigkeit hat, sondern auch die relative Luftfeuchte. Dies ist vor allem bei niedrigen Temperaturen, wie sie vom Sorptionssystem geliefert werden, der Fall. Um die Luftverteilung und Gleichmäßigkeit der Trocknung lockerer Schüttungen zu untersuchen, wurde ein Kistentrockner experimentell und in Strömungssimulationen getestet. Die Leistung des ursprünglichen Trockners wurde signifikant durch einfache Veränderungen des Designs verbessert. Diese stellten einen gleichmäßigeren Luftstrom durch das Produkt sicher. Die Trocknung von Heu-Rundballen stellt eine Herausforderung dar, da diese sehr stark verdichtet sind und die Dichte innerhalb eines Ballens stark schwankt. Strömungs- und Trocknungssimulationen so wie experimentelle Messungen zeigten, dass das Trocknerdesign einen großen Einfluss auf die Gleichmäßigkeit der Trocknung hat. Bei den einfachsten Trocknervarianten war die Verteilung auch bei optimal gepressten Ballen unzureichend, während komplexere Trockner eine gleichmäßigere Trocknung erzielten. Jedoch werden auch hier die Ergebnisse stark von der Verteilung der Dichte im Ballen beeinflusst, welche in der Praxis weiterhin nicht ideal ist. Abschließend wurde, um den Trocknungsfortschritt zu überwachen, eine Methodik getestet, bei der zur Messung des durchschnittlichen aktuellen Feuchtegehalts des Produktes psychrometrische Messungen und Messungen des Luftstroms in kurzen Abständen durchgeführt wurden. Die Menge des tatsächlich entfernten Wassers stimmte in den meisten Fällen gut mit der geschätzten Menge überein. Jedoch hängt der Erfolg dieser Methode stark von der Genauigkeit der Messfühler ab.
Resumo:
In this thesis, a dual mode tunable gas sensor based on intracavity laser absorption spectroscopy (ICLAS) principle is investigated, both, numerically and experimentally. In order to minimize the cost and size of the gas sensor, relative intensity noise (RIN) is implemented as a detection parameter. Investigation is performed to determine the effect of injection current, operating temperature, mode spacing, and cavity length on RIN. It has been found that it is best to operate the gas sensor at smaller mode spacing and near the threshold current or at larger mode spacing and far above the threshold current for the use of RIN as the readout parameter.
Resumo:
Das Kleine Immergrün (Vinca minor L.) aus der Familie der Apocynaceae ist in der Krautschicht sommergrüner Wälder Südeuropas heimisch, während es in weiten Teilen Mitteleuropas als wahrscheinlich von den Römern eingeführter, altetablierter Archäophyt gilt. Noch heute ist die Art als Kulturreliktzeiger häufig in der Umgebung ehemaliger römischer Tempel und mittelalterlicher Burgruinen zu finden. Zudem wird V. minor in zahlreichen Gartenformen kultiviert. In Teilen Nordamerikas wird der Chamaephyt hingegen als eingeführte, invasive Art eingestuft, die die einheimische Flora und Fauna bedroht. Da V. minor Stolonen bilden kann und in Mitteleuropa selten reife Samen beobachtet werden, wurde bislang vermutet, dass V. minor Bestände in Mitteleuropa sich rein asexuell erhalten. Diese Hypothese wurde aber bisher nie mit molekularen Methoden überprüft. Auch zur Populationsgenetik der Art ist bisher nichts bekannt. Aus diesen Gegebenheiten resultieren folgende Fragen: Wie hoch ist die genetische Diversität von V. minor im submediterranen Ursprungsgebiet im Vergleich zu Mitteleuropa und Nordamerika und wie ist sie in den Großregionen jeweils strukturiert? Korreliert die anthropogen bedingte Einführung mit einer genetischen Verarmung in Mitteleuropa? Gibt es in mitteleuropäischen und nordamerikanischen Populationen Hinweise auf sexuelle Reproduktion, oder erfolgt eine rein vegetative Vermehrung? Gibt es genetische Hinweise für Auswilderungen aus Gärten? Lassen sich die historischen Ausbreitungswege der Art von Süd- nach Mitteleuropa, innerhalb Mitteleuropas sowie nach Nordamerika rekonstruieren? Mikrosatellitenmarker stellen für populationsgenetische Analysen heute die weitaus gängigste Technik dar. Als codominante, locusspezifische Marker erlauben sie die präzise Erfassung populationsgenetischer Parameter zur Quantifizierung der genetischen Diversität und Struktur, die Abschätzung von Genfluss, und die Detektion von Klonen. Mikrosatelliten sind mit Hilfe neuer DNA-Sequenziertechniken (NGS) unproblematisch und kosteneffektiv isolierbar. Im Rahmen der hier vorliegenden Arbeit wurden daher zunächst nukleäre und plastidäre Mikrosatellitenmarker über NGS-454-Sequenzierung entwickelt. Etablierung von nukleären und plastidären Mikrosatellitenmarkern Zur Etablierung artspezifischer nukleärer Mikrosatellitenmarker wurden zwei Verfahren angewendet. Zum einen wurde in einer öffentlich zugänglichen, über 454-Sequenzierung der cDNA von V. minor gewonnene und im 'sequence read archive' von NCBI hinterlegte Datenbank (Akzessionsnummer SRX039641) nach Mikrosatelliten gesucht. Zum anderen wurde die 454-Technologie eingesetzt, um in Kooperation mit Dr. Bruno Huettel vom Max-Planck-Institut für Pflanzenzüchtung in Köln genomische Sequenzdaten anhand einer V. minor-Akzession zu generieren und aus diesen Mikrosatelliten zu etablieren. Eine Assemblierung der 723.230 cDNA-Sequenzen mit insgesamt 387 Mbp erzielte eine Reduzierung auf 267.199 Unigenes (267 Mbp), die der genomischen Sequenzen eine Reduzierung von 43.565 (18 Mbp) auf 24.886 Sequenzen (13,7 Mbp). Die assemblierten Datensätze enthielten 25.253 bzw. 1.371 Mikrosatellitenloci aus Mono- bis Hexa-Nukleotidmotiven. Die Effizienz der Assemblierung war somit v. a. bei den cDNA-Sequenzen gering. Da die Etablierung von Mikrosatellitenloci aber auch auf Basis redundanter Sequenzen möglich ist, sofern ein manueller Abgleich der selektierten Sequenzen erfolgt, wurde auf eine weitere Optimierung der Assemblierung verzichtet. Aus den so identifizierten Loci wurden 60 (cDNA) bzw. 35 (genomische DNA) Di-, Tri- und Tetranukleotidmotive selektiert, flankierende Primer synthetisiert und in umfangreichen Pilotstudien getestet. Jeweils neun der Loci erwiesen sich als robuste, polymorphe Marker. Die sieben vielversprechendsten Marker wurden schließlich für die populationsgenetische Untersuchung ausgewählt. Auch die Etablierung plastidärer Mikrosatellitenmarker erfolgte über zwei Ansätze. Zum einen wurde das Plastom von V. minor aus dem genomischen 454-Sequenzdatensatz rekonstruiert und auf das Vorhandensein von (A)n/(T)n-Wiederholungseinheiten hin untersucht. Für 14 der 17 dabei detektierten Loci konnten Primer entworfen werden. In einer Pilotstudie erwiesen sich vier der Loci als funktionelle, polymorphe Marker. Zusätzlich wurden die zehn universellen (ccmp) Primerpaare zur Amplifikation plastidärer Mikrosatellitenloci aus Weising & Gardner (1999) getestet, von denen zwei als funktionelle, polymorphe Marker für die Hauptstudie geeignet waren. Populationsgenetische und phylogeographische Analyse Ein Probenset aus insgesamt 967 Pflanzenproben aus 70 Populationen aus Mitteleuropa inkl. der Alpen, den Regionen südlich und westlich der Alpen sowie aus Kanada und 18 Cultivaren wurde mittels der sieben neu etablierten, artspezifischen nukleären Mikrosatellitenmarker populationsgenetisch untersucht. Dabei erwiesen sich 21 der 31 untersuchten Populationen südlich und westlich der Alpen als genetisch hoch divers, die übrigen 10 zeigten vor allem klonales Wachstum und wiesen jeweils ein bis drei Multilocus-Genotypen (MLGs) auf. In 30 der 36 mitteleuropäischen Vorkommen (inkl. der Alpen) sowie den kanadischen Beständen war jeweils nur ein einziger MLG präsent. Drei der Vorkommen zeigten mit einem Heterozygotendefizit einzelner Stichproben Hinweise auf Geitonogamie, an drei weiteren Vorkommen traten jeweils zwei sowohl hinsichtlich der Blütenfarbe und -architektur als auch des MLG unterschiedliche Linien auf. An einem dieser Vorkommen wurde ein Hybrid-Genotyp detektiert, bisher der einzige molekulare Hinweis auf sexuelle Reproduktion im engeren Sinn in Mitteleuropa. Die 967 Stichproben konnten insgesamt 310 individuellen Multilocus-Genotypen (MLGs) zugeordnet werden. Davon traten 233 MLGs nur in jeweils einer einzigen Probe auf, die 77 verbleibenden wurden in mehreren Akzessionen detektiert. Aus einer Simulation ging hervor, dass diese wiederholten MLGs auf rein asexuelle Reproduktion zurückzuführen sind. In Mitteleuropa waren lediglich 18 MLGs vertreten, von denen sieben an bis zu zehn, mehrere hundert Kilometer entfernten Fundorten auftraten. In Nordamerika gehören gar alle drei untersuchten Populationen dem gleichen Klon an. In Mitteleuropa traten in zwei Fällen somatische Mutationen zwischen zwei MLGs auf, sodass diese zu klonalen Linien (Multilocus-Linien; MLL) zusammengefasst werden konnten. Sieben der 18 Cultivare weisen einen zu diversen Freilandvorkommen identischen Genotypen auf. Die Ergebnisse reflektieren den durch die anthropogene Selektion bedingten genetischen Flaschenhalseffekt, in dessen Folge der Genpool von Vinca minor in Mitteleuropa gegenüber der südeuropäischen Heimat der Art stark reduziert wurde. Sexuelle Reproduktion in Mitteleuropa zwischen zwei genetisch unterschiedlichen Individuen ist nur an wenigen Standorten überhaupt möglich und da meist nur ein Klon am gleichen Fundort auftritt, sehr selten. Die Ausbreitung erfolgt zudem rein anthropogen und über erhebliche Strecken, wie die identischen MLGs an unterschiedlichen, weit auseinander liegenden Fundorten belegen. Südlich und westlich der Alpen hingegen ist sexuelle Reproduktion über Samen häufig. Aus den kalkulierten Neighbour-Joining Phenogrammen, Neighbour-Nets und der Bayes'schen Analyse ergibt sich prinzipiell eine Abtrennung der in Norditalien und Slowenien gelegenen Vorkommen von den übrigen Regionen, wohingegen mehrere mittelitalienische Populationen mit denen westlich der Alpen und den mitteleuropäischen Vorkommen in einer engeren genetischen Beziehung stehen. Da die mittelitalienischen Vorkommen jedoch Anzeichen anthropogenen Ursprungs aufweisen (Monoklonalität, Lage an Wegrändern oder Burgen), lassen sich diese Populationen nur bedingt als potentielle Ursprungspopulationen ableiten. Die genetisch diversen norditalienischen und slowenischen Populationen sind trotz der Fragmentierung der norditalienischen Waldvegetation insgesamt nur moderat voneinander differenziert (FST=0,14, GST=0,17, RST=0,19). Die AMOVA ergab, dass über 80 % der genetischen Variation auf Variation innerhalb der Populationen zurückzuführen ist. Dennoch ergab sich aus einem Mantel-Test eine zunehmende genetische Differenzierung mit zunehmender geographischer Distanz (r=0,59). Die phylogeographische Analyse wurde mit Hilfe von vier plastidären Mikrosatellitenmarkern aus der 454-Sequenzierung und zwei universellen plastidären ccmp-Mikrosatellitenloci durchgeführt. Untersucht wurden jeweils eine bis sechs Stichproben aus den o. g. 70 Populationen, die 18 Cultivare sowie zusätzliche Einzelproben aus mehreren Ländern, deren DNA aus Herbarbelegen isoliert wurde. Insgesamt wurden 297 Proben untersucht. Unter diesen wurden in der phylogeographischen Analyse sieben plastidäre Haplotypen detektiert. In der Region südlich der Alpen traten sechs Haplotypen auf (H1 bis H5, H7), in Mitteleuropa vier Haplotypen (H1 bis H3, H6), in Nordamerika, Großbritannien, Schweden und Nordamerika trat hingegen nur ein einziger Haplotyp H1 auf. Die beiden häufigsten Haplotypen nahmen im berechneten Haplotypen-Netzwerk periphere Positionen ein und waren durch sieben Mutationschritte voneinander getrennt. Südlich der Alpen ergab sich jedoch keine klare geographische Verteilung der Haplotypen. Auch die plastidären Daten indizieren somit eine geringere genetische Diversität in den Gebieten, wo V. minor eingeführt wurde. Der geographische Ursprung der mitteleuropäischen Vorkommen in Südeuropa konnte nicht abschließend geklärt werden, jedoch lässt das Vorkommen von zwei weit entfernten Haplotypen den Schluss zu, dass Vinca minor mindestens zweimal (und vermutlich mehrfach) unabhängig in Mitteleuropa eingeführt wurde.
Resumo:
Wenn sich in einem wichtigen Bereich der Elektrotechnik ein neues Halbleitermaterial zu etablieren beginnt, weckt dies einerseits Erwartungen der Wirtschaft und Industrie, andererseits kann es eine erhebliche Herausforderung für die Hersteller bedeuten. Nachdem Gallium-Nitrid erstmalig vor 20 Jahren als Transistor verwendet wurde und seit über einer Dekade serienmäßig in der Hochfrequenztechnik eingesetzt wird, erobert es nun die Leistungselektronik. Die ausschlaggebenden Kriterien sind hier die Verwendbarkeit bei höheren Betriebstemperaturen, die Energieeffizienz und die Reduzierung von Größe und Gewicht durch den Betrieb bei höheren Schaltfrequenzen. Die vorliegende Arbeit basiert auf der Motivation zunächst einen möglichst breit angelegten Überblick des ständig wachsenden Angebotsspektrums zu geben, das mittlerweile durch die vielfältigen Varianten der verfügbaren Transistoren an Übersichtlichkeit etwas verloren hat. Nach einer ausführlichen Erläuterung der physikalischen und elektrischen Eigenschaften, werden die jeweiligen Typen in überschaubaren Abschnitten beschrieben und im Anschluss tabellarisch zusammengefasst. Die elektrischen Eigenschaften der hier ausgewählten EPC 2010 eGaN-HFETs (200 V Spannungsklasse) werden eingehend diskutiert. Das Schaltverhalten der eGaN-HFETs in einem Synchron-Tiefsetzsteller wird untersucht und modelliert. Eine Analyse aller in den GaN-FETs entstehenden Verlustleistungen wird durchgeführt. Zur Abschätzung der dynamischen Verlustleistungen wird eine analytische Methode umgesetzt und weiter entwickelt. Um die Vorteile der erhöhten Schaltfrequenzen nutzen zu können, erfolgt eine sehr ausführliche Betrachtung der notwendigen magnetischen Komponenten, deren Auswahl- und Verwendungskriterien im Detail untersucht, evaluiert und aufgegliedert werden. Diese werden im praktischen Teil ausgiebig in Verbindung mit den GaN-Transistoren ausgesucht und messtechnisch bewertet. Theoretische Betrachtungen hinsichtlich der Grenzen, die magnetische Bauelemente schnell schaltenden Halbleitern auferlegen, werden durchgeführt. Da die untersuchten Niedervolt-GaN-HFETs quasi kein Gehäuse haben, ist eine korrekte Strommessung nicht realisierbar. Am praktischen Beispiel eines Synchron-Tiefsetzstellers werden zwei experimentelle Methoden entwickelt, mit deren Hilfe die Verlustleistungen in den EPC 2010 eGaN-HFETs ermittelt werden. Anschließend wird das Verbesserungspotential der GaN-Leistungstransistoren erläutert sowie deren Anwendungsbereiche diskutiert.
Resumo:
Die lokale Anlagerung molekularer Substanzen auf Oberflächen ist technologisch von großem Interesse. Die Beeinflussung selbstassemblierender Materialien bietet dabei große Vorteile, da sie kostengünstig und großflächig angewendet werden kann. Untersuchungen einer solchen Beeinflussung mithilfe von magnetischen Feldern wurden bisher jedoch noch nicht durchgeführt. Ursache hierfür ist das, insbesondere bei der Verwendung von diamagnetischen Substanzen, geringe induzierte magnetische Moment und die daraus resultierenden geringen magnetischen Kräfte. In der vorliegenden Arbeit wurde untersucht, ob es möglich ist, die lokale Anlagerung von selbstassemblierenden, diamagnetischen Substanzen durch die Verwendung von magnetischen Streufeldern zu beeinflussen und somit ein Schichtwachstum bevorzugt in gewünschten Bereichen eines Substrats zu erreichen. Es wurde ein austauschverschobenes Dünnschichtsystem über das Verfahren der ionenbeschuss-induzierten magnetischen Strukturierung mit einem künstlichen Domänenmuster in streifenförmiger Anordnung im Mikrometermaßstab erzeugt. Über experimentelle Untersuchungen wurden die aus diesem Schichtsystem austretenden magnetischen Streufelder erstmals quantifiziert. Die experimentell unvermeidbaren Mittelungen und technischen Limitierungen wurden mithilfe eines theoretischen Modells herausgerechnet, sodass letztlich die resultierende Magnetfeldlandschaft in allen drei Dimensionen über der Probenoberfläche erhalten wurde. Durch die Bestimmung der magnetischen Suszeptibilitäten der hier verwendeten thioethersubstituierten Subphthalocyanin-Derivate konnte somit die Berechnung der induzierten magnetischen Kräfte erfolgen, deren Vergleich mit Literaturwerten eine erfolgreiche Beeinflussung der Anlagerung dieser Substanzen erhoffen ließ. Aufgrund der Kombination diverser, anspruchsvoller Nachweisverfahren konnte der experimentelle Beweis für die erfolgreiche Positionierung der molekularen Substanzen durch die magnetischen Streufelder des Dünnschichtsystems erbracht werden. Zunächst wurde nachgewiesen, dass sich die Subphthalocyanin-Derivate auf der Probenoberfläche befinden und in einer mit der Periode der magnetischen Domänenstruktur korrelierenden Geometrie anlagern. Über Untersuchungen an Synchrotronstrahlungsquellen konnte die magnetische Streifenstruktur mit der Struktur der angelagerten Moleküle überlagert werden, sodass bekannt wurde, dass sich die Moleküle bevorzugt in den magnetisch begünstigten Bereichen anlagern. Um mögliche Einflüsse einer eventuell durch den magnetischen Strukturierungsprozess lokal modifizierten Substratoberfläche als Ursache für die lokale Molekülanlagerung ausschließen zu können, wurden zusätzliche Referenzmessungen durchgeführt. Alle Untersuchungen zeigen, dass die Molekülpositionierung auf der Wechselwirkung der diamagnetischen Substanzen mit den Streufeldern des Substrats zurückzuführen ist. Der im Rahmen dieser Arbeit entwickelte Mechanismus der magnetischen Beeinflussung der lokalen Molekülanlagerung besagt dabei, dass insbesondere die Oberflächendiffusion der selbstassemblierenden Substanz durch die in-plane-Magnetfeldkomponente beeinflusst wird und vermutlich die Nukleationsphase der Selbstassemblierung entscheidend für die lokale Materialabscheidung ist. Es konnte in dieser Arbeit somit gezeigt werden, dass eine Beeinflussung der Selbstassemblierung von diamagnetischen Subphthalocyanin-Derivaten und somit eine lokal bevorzugte Anlagerung dieser Substanzen durch magnetische Streufelder von magnetisch strukturierten austauschverschobenen Dünnschichtsystemen erreicht werden kann. Es resultiert somit eine neue Möglichkeit die technologisch wichtigen Selbstassemblierungsprozesse nun auch über magnetische Streufelder beeinflussen und kontrollieren zu können. Durch die hohe Flexibilität bei den Strukturierungsmöglichkeiten der magnetischen Domänengeometrien der hier verwendeten austauschverschobenen Dünnschichtsysteme resultieren aus den hier gezeigten Ergebnissen vielfältige Anwendungsmöglichkeiten im Bereich der Beschichtungstechnik.