204 resultados para Mechanische Eigenschaft
Resumo:
Lipid Droplets dienen zur Speicherung von Neutrallipiden wie z. B. Triglyceriden und Sterolestern. Im ersten Teil der vorliegenden Arbeit wurde die Bildung dieser zellulären Fettspeicher in D. discoideum untersucht. Es konnte herausgefunden werden, dass Lipid Droplets entstehen, wenn die Zellen entweder in einer Suspension von Bakterien oder in Gegenwart von Palmitinsäure kultiviert werden. Die Bildung der Lipidtröpfchen wird dabei von einem schnelleren Zellwachstum, einem Anstieg des Triglyceridgehalts, einer Reduktion der Phagozytoserate und einer Abnahme des Zellvolumens begleitet. Wurde die Lipid Droplet-Bildung durch Kultivierung der Zellen mit Palmitinsäure angeregt, entsteht neben Triglyceriden noch eine weitere Verbindung, bei der es sich entweder um Fettsäureethylester oder Wachsester handelt. Eine weitere Eigenschaft von Zellen, die in Gegenwart der Palmitinsäure inkubiert wurden, ist die Fähigkeit exogene Fettsäuren schneller aufzunehmen, als normal kultivierte Zellen. Aus der vorliegenden Arbeit wurde gefolgert, dass dies durch eine zusätzliche Aufnahme der Fettsäuren über die Plasmamembran hervorgerufen wird. In Zellen, die ohne Fettsäuren inkubiert wurden, findet hingegen der Fettsäureimport über die Endosomen statt. Ein Protein, das nicht direkt am Prozess der Fettsäureaufnahme beteiligt ist, aber importierte Fettsäuren mit CoA aktiviert, ist die LC-FACS1. Aus Versuchen mit der Knockout-Mutante ging hervor, dass die aktivierten Fettsäuren, in Zellen, die zuvor mit Palmitinsäure oder Bakterien inkubiert wurden, in Triglyceride eingebaut werden. Der reduzierte Triglyceridgehalt im Knockout rief eine Erhöhung der Phagozytoserate hervor. Im zweiten Teil dieser Arbeit wurden die Lipidtröpfchen mit einem Saccharosegradienten aufgereinigt. Mit Hilfe der Massenspektrometrie konnten 281 Proteine in der Lipid Droplet-Fraktion identifiziert werden. Ein Teil dieser Proteine könnte durch die Interaktion der Lipidtröpfchen mit anderen Organellen in die Lipid Droplet-Fraktion gelangt sein und ist ebenso wenig Teil des Lipid Droplet-Proteoms wie die zytoplasmatischen Proteine, die eine Verunreinigung darstellen. Vier der zehn Proteine aus der Lipid Droplet-Fraktion, die in der vorliegenden Arbeit untersucht wurden, konnten nach Kultivierung in palmitinsäurehaltigem Medium tatsächlich auf der Oberfläche der Lipidtröpfchen beobachtet werden. Eines dieser Proteine ist LSD1. Es stellt das einzige PAT-Protein in D. discoideum dar und gehört der Kategorie der CPATs an. Analog zu Perilipin/PLIN1 und Adipophilin/PLIN2 könnte LSD1 eine Schutzfunktion der Lipid Droplets vor zytoplasmatischen Lipasen haben. Neben DdLSD1 konnten auch die Proteine ADH und ALI auf den Lipidtröpfchen lokalisiert werden. Bei beiden handelt es sich um 17beta-Hydroxysteroid-Dehydrogenasen - Proteine, die eine Funktion im Lipid- oder Fettsäuremetabolismus besitzen können. Das Protein SMT katalysiert die C24-Methylierung des Sterolgerüsts in D. discoideum und war nach Inkubation der Zellen mit exogenen Fettsäuren ebenfalls auf den Lipid Droplets zu beobachten.
Resumo:
Evolutionäre Algorithmen werden gerne für Optimierungsaufgaben mit sehr vielen Freiheitsgraden eingesetzt. Eine spezielle Konvergenzeigenschaft, daß nämlich der Rechenaufwand nur mit der Wurzel der Anzahl der Unbekannten steigt, prädestiniert sie dafür. Die evolutionären Algorithmen haben aber auch noch eine weitere interessante Eigenschaft: Von der Zielfunktion wird nur verlangt, daß sie monoton ist - nichts weiter. Speziell wird, im Gegensatz zu gradientenbasierten Verfahren, keinerlei Ableitung von der Zielfunktion benötigt. Dadurch können evolutionäre Algorithmen auch in solchen Fällen eingesetzt werden, in denen Ableitungen der Zielfunktion nicht oder nur schwierig zu beschaffen sind. Die evolutionären Algorithmen kommen deshalb mit so geringen Anforderungen an die Zielfunktion aus, weil nur absolute Bewertungen einzelner Punkte (hier Vektoren) im Lösungsraum durch die Zielfunktion vorgenommen werden. Dafür werden eine gewisse Anzahl Punkte gleichzeitig betrachtet. Im direkten Vergleich untereinander relativ günstig liegende Punkte werden für die weitere Rechnung übernommen, die anderen verworfen. Aus den Komponenten der übernommenen Punkte werden nun zufällig neue Punkte zusammengesetzt und ein wenig verschoben. Dann schließt sich der Kreis, indem diese neuen Punkte ebenfalls bewertet werden. Im Verlauf einer solchen Iteration konvergiert die Punktmenge in der Regel gegen ein Optimum. Oft kommt es gerade zu Beginn der Iteration zu schnellen Fortschritten. In dieser Arbeit wird ein Verfahren vorgestellt, bei dem mit Hilfe von evolutionären Algorithmen verbessernde Eingriffe in laufenden Echtzeitsystemen vorgenommen werden. Was gut oder schlecht ist, wird zu diesem Zweck über die Zielfunktion für die Optimierung definiert. Da von der Zielfunktion letztlich das Verhalten des Gesamtsystems abhängt, sollte sie sorgfältig ausgewählt werden. Die Eingriffe in das System sind zeitlich begrenzte Steuertrajektorien. Sie werden zusätzlich zur permanent wirkenden Regelung auf das System aufgebracht. Um die Anzahl der zu optimierenden Variablen in Grenzen zu halten, werden die Steuertrajektorien durch wenige Parameter repräsentiert. Da die Steuertrajektorien im voraus berechnet werden müssen, wird das Systemverhalten mittels eines Modells für eine gewisse, in der Zukunft liegende, Zeitspanne vorhergesagt. Wird die geforderte Qualität während dieser Zeitspanne unterschritten, kann so schon im Vorfeld ein Optimierungslauf des evolutionären Algorithmus durchgeführt werden. Allerdings ist die zur Verfügung stehende Rechenzeit von vornherein begrenzt. Daher ist es wesentlich, daß die mit evolutionären Algorithmen häufig assoziierte lange Rechenzeit nicht benötigt wird. Tatsächlich läßt sich unter Umständen mit wenig Rechenzeit auskommen. Erstens wird nur mit wenigen Variablen gerechnet, zweitens kommt es bei dem beschriebenen Verfahren - halbwegs gutmütige Systeme vorausgesetzt - gar nicht auf die letzte Nachkommastelle, sondern (ähnlich wie bei Sliding-Mode-Regelungen) mehr auf eine Tendenz an. Da evolutionäre Algorithmen aber gerade zu Beginn einer Iteration die größten Fortschritte in Richtung des Optimums machen, kann schon nach vergleichsweise wenigen Schritten eine deutliche Verbesserung der Gesamtsituation erreicht werden. Gerade um eine schnelle Konvergenz zu erreichen, sind die spezielle Ausprägung und die Parameter des evolutionären Algorithmus mit Bedacht zu wählen. Dafür werden im Rahmen der Arbeit einige Experimente durchgeführt. Anhand der Ergebnisse der Experimente können konkrete Empfehlungen für eine günstige Konfiguration des evolutionären Algorithmus gegeben werden. Um es vorwegzunehmen: Zuviel Aufwand beim evolutionären Algorithmus zu treiben, lohnt sich nicht. Schon mit einfachen Konfigurationen können gute Ergebnisse erzielt werden. Die einzige Maßnahme, die sich bei den Experimenten tatsächlich als vorteilhaft herausstellte, war die Aufteilung der Gesamtpopulation (betrachtete Punktmenge im Lösungsraum) in mehrere Subpopulationen. Schließlich wird noch ein Computerprogramm beschrieben, das die Arbeitsweise des vorgestellten Verfahrens am Bildschirm erlebbar macht. Die einzelnen Komponenten werden vom Programm während der Ausführung mit einigen wesentlichen Rechengrößen visualisiert. Der Betrachter erhält so einen besseren Eindruck vom Zusammenwirken der einzelnen Verfahrens-Teile.
Resumo:
Durch die vermehrte Nachfrage von Biomöhren im Lebensmitteleinzelhandel ist die Anbaufläche ökologisch erzeugter Möhren in den letzten zehn Jahren deutlich angestiegen. Der Anbau konzentriert sich auf bestimmte Regionen und erfolgte damit zunehmend auf großen Schlägen in enger räumlicher und zeitlicher Abfolge. Mit der steigenden Wirtspflanzenpräsenz steigt auch der Befallsdruck durch die Möhrenfliege. Während der Schädling im konventionellen Anbau mit Insektiziden kontrolliert wird, stehen dem Ökologischen Landbau bisher keine direkten Regulative zur Verfügung. Ziel der Untersuchungen war es, unter den Praxisbedingungen des ökologischen Möhrenanbaus einzelbetriebliche und überregionale Muster beteiligter Risikofaktoren im Befallsgeschehen zu identifizieren und so Möglichkeiten einer verbesserten Prävention und Regulation aufzuzeigen. Über einen Zeitraum von drei Jahren wurden auf fünf Betrieben in Niedersachsen und Hessen umfangreiche Felddaten erhoben und diese unter Verwendung von GIS – Software und dem Simulationsmodell SWAT analysiert. Untersuchte Einflussgrößen umfassten (1) die Distanz zu vorjährigen Möhrenfeldern, (2) die zeitliche Möhrenanbauperiode, (3) Vegetationselemente und (4) der experimentelle Einsatz von Fangpflanzen zur Unterdrückung der Fliegenentwicklung. Unter der Berücksichtigung deutlicher einzelbetrieblicher Unterschiede sind die wichtigsten Ergebnisse der Studie wie folgt zu benennen: (1) Auf Betrieben mit Befall im zurückliegenden Anbaujahr zeigte sich die Distanz zu vorjährigen Möhrenfeldern als der wichtigste Risikofaktor. Das Ausbreitungsverhalten der 1. Generation Möhrenfliege erwies sich zudem als situationsgebunden anpassungsfähig. Fliegensumme und Befall waren jeweils in dem zu Vorjahresflächen nächstgelegen Feld am größten, während jeweils dahinter liegende Möhrenschläge entsprechend weniger Fliegenzahlen und Befall auswiesen. Aus den Ergebnissen wird als vorrangige Verbreitungskapazität der 1. Generation Möhrenfliegen innerhalb von 1000 m abgeleitet. (2) Betriebe mit kontinuierlicher Möhren - Anbaubauperiode (ca. April – Oktober), die langfristig die Entwicklung sowohl der 1. als auch der 2. Generation Fliegen unterstützten, verzeichneten stärkere Fliegenprobleme. Hinsichtlich einer verbesserten Prävention wird empfohlen mit einer strikten räumlichen Trennung früher und später Sätze ein Aufschaukeln zwischen den Generationen zu vermeiden. (3) Der Einfluss der Vegetation ließ sich weniger eindeutig interpretieren. Einzelbetriebliche Hinweise, dass Kleingehölze (Hecken und Bäume) im Radius zwischen aktueller und vorjähriger Möhrenfläche die Befallswahrscheinlichkeit erhöhen, konnten mit einem berechneten Gesamtmaß für die regionale holzige Vegetation nicht bestätigt werden. Der großräumigen holzigen Vegetation wird im Vergleich zur Feldrandvegetation daher beim Befallsgeschehen eine geringe Bedeutung zugeschrieben. (4) Drei Meter (vier Dämme) breiter Möhren – Fangstreifen auf den vorjährigen Möhrenfeldern eignen sich bereits ab dem Keimblattstadium, um erhebliches Befallspotential zu binden. Eine mechanische Entfernung der Fangpflanzen (Grubbern) mitsamt dem Befallspotential erzielte in 2008 eine 100 %-ige Unterdrückung der Möhrenfliegenentwicklung, in 2009 jedoch nur zu maximal 41 %. Als mögliche Synthese der Ergebnisse zur Ausbreitung der Möhrenfliegen im Frühjahr und zur zeitlichen Koinzidenz mit der Möhrenentwicklung wird als Empfehlung diskutiert, mit Hilfe einer angepassten Flächenwahl die Fliegenausbreitung räumlich an frühen Sätzen zu binden, um entsprechend befallsarme Regionen für entfernt liegende späte (empfindlichere) Möhrensätze zu schaffen.
Resumo:
In der vorliegenden Dissertation werden Systeme von parallel arbeitenden und miteinander kommunizierenden Restart-Automaten (engl.: systems of parallel communicating restarting automata; abgekürzt PCRA-Systeme) vorgestellt und untersucht. Dabei werden zwei bekannte Konzepte aus den Bereichen Formale Sprachen und Automatentheorie miteinander vescrknüpft: das Modell der Restart-Automaten und die sogenannten PC-Systeme (systems of parallel communicating components). Ein PCRA-System besteht aus endlich vielen Restart-Automaten, welche einerseits parallel und unabhängig voneinander lokale Berechnungen durchführen und andererseits miteinander kommunizieren dürfen. Die Kommunikation erfolgt dabei durch ein festgelegtes Kommunikationsprotokoll, das mithilfe von speziellen Kommunikationszuständen realisiert wird. Ein wesentliches Merkmal hinsichtlich der Kommunikationsstruktur in Systemen von miteinander kooperierenden Komponenten ist, ob die Kommunikation zentralisiert oder nichtzentralisiert erfolgt. Während in einer nichtzentralisierten Kommunikationsstruktur jede Komponente mit jeder anderen Komponente kommunizieren darf, findet jegliche Kommunikation innerhalb einer zentralisierten Kommunikationsstruktur ausschließlich mit einer ausgewählten Master-Komponente statt. Eines der wichtigsten Resultate dieser Arbeit zeigt, dass zentralisierte Systeme und nichtzentralisierte Systeme die gleiche Berechnungsstärke besitzen (das ist im Allgemeinen bei PC-Systemen nicht so). Darüber hinaus bewirkt auch die Verwendung von Multicast- oder Broadcast-Kommunikationsansätzen neben Punkt-zu-Punkt-Kommunikationen keine Erhöhung der Berechnungsstärke. Desweiteren wird die Ausdrucksstärke von PCRA-Systemen untersucht und mit der von PC-Systemen von endlichen Automaten und mit der von Mehrkopfautomaten verglichen. PC-Systeme von endlichen Automaten besitzen bekanntermaßen die gleiche Ausdrucksstärke wie Einwegmehrkopfautomaten und bilden eine untere Schranke für die Ausdrucksstärke von PCRA-Systemen mit Einwegkomponenten. Tatsächlich sind PCRA-Systeme auch dann stärker als PC-Systeme von endlichen Automaten, wenn die Komponenten für sich genommen die gleiche Ausdrucksstärke besitzen, also die regulären Sprachen charakterisieren. Für PCRA-Systeme mit Zweiwegekomponenten werden als untere Schranke die Sprachklassen der Zweiwegemehrkopfautomaten im deterministischen und im nichtdeterministischen Fall gezeigt, welche wiederum den bekannten Komplexitätsklassen L (deterministisch logarithmischer Platz) und NL (nichtdeterministisch logarithmischer Platz) entsprechen. Als obere Schranke wird die Klasse der kontextsensitiven Sprachen gezeigt. Außerdem werden Erweiterungen von Restart-Automaten betrachtet (nonforgetting-Eigenschaft, shrinking-Eigenschaft), welche bei einzelnen Komponenten eine Erhöhung der Berechnungsstärke bewirken, in Systemen jedoch deren Stärke nicht erhöhen. Die von PCRA-Systemen charakterisierten Sprachklassen sind unter diversen Sprachoperationen abgeschlossen und einige Sprachklassen sind sogar abstrakte Sprachfamilien (sogenannte AFL's). Abschließend werden für PCRA-Systeme spezifische Probleme auf ihre Entscheidbarkeit hin untersucht. Es wird gezeigt, dass Leerheit, Universalität, Inklusion, Gleichheit und Endlichkeit bereits für Systeme mit zwei Restart-Automaten des schwächsten Typs nicht semientscheidbar sind. Für das Wortproblem wird gezeigt, dass es im deterministischen Fall in quadratischer Zeit und im nichtdeterministischen Fall in exponentieller Zeit entscheidbar ist.
Resumo:
Das Ziel der vorliegenden Arbeit war die Herstellung und Charakterisierung mikromechanisch durchstimmbarer, dielektrischer Fabry-Pérot-Filter im nahen Infrarot-Bereich bei einer Zentralwellenlänge von λc = 950 nm. Diese Bauelemente wurden auf Basis kostengünstiger Technologien realisiert, dank deren Entwicklung extreme Miniaturisierung und gleichzeitig hohe spektrale Anforderungen möglich sind. Der Vorteil solcher Filter liegt darin, dass sie direkt in einen Photodetektor integriert werden können und mit ganz wenigen Komponenten zu einem kompakten Spektrometermodul zusammengesetzt werden können. Die Baugröße ist nur durch die Größe des Photodetektors limitiert und die gesamte Intensität des einfallenden Lichts kann vorteilhaft auf eine einzelne Filtermembran des Fabry-Pérot-Filters fokussiert werden. Für den Filteraufbau werden zwei hochreflektierende, dielektrische DBR-Spiegel, ein organisches Opferschichtmaterial, welches zur Erzeugung einer Luftkavität im Filter dient, und zwei unterschiedliche Elektroden aus ITO und Aluminium verwendet. Die mikromechanische Auslenkung der freigelegten Filtermembran geschieht mittels elektrostatischer Aktuation, wobei auf diese Weise die Kavitätshöhe des Fabry-Pérot-Filters geändert wird und somit dieser im erforderlichen Spektralbereich optisch durchgestimmt wird. Das in dieser Arbeit gewählte Filterkonzept stellt eine Weiterentwicklung eines bereits bestehenden Filterkonzepts für den sichtbaren Spektralbereich dar. Zum Einen wurden in dieser Arbeit das vertikale und das laterale Design der Filterstrukturen geändert. Eine entscheidende Änderung lag im mikromechanisch beweglichen Teil des Fabry-Pérot-Filters. Dieser schließt den oberen DBR-Spiegel und ein aus dielektrischen Schichten und der oberen Aluminium-Elektrode bestehendes Membranhaltesystem ein, welches später durch Entfernung der Opferschicht freigelegt wird. Die Fläche des DBR-Spiegels wurde auf die Fläche der Filtermembran reduziert und auf dem Membranhaltesystem positioniert. Zum Anderen wurde im Rahmen dieser Arbeit der vertikale Schichtaufbau des Membranhaltesystems variiert und der Einfluss der gewählten Materialien auf die Krümmung der freistehenden Filterstrukturen, auf das Aktuationsverhalten und auf die spektralen Eigenschaften des gesamten Filters untersucht. Der Einfluss der mechanischen Eigenschaften dieser Materialien spielt nämlich eine bedeutende Rolle bei der Erhaltung der erforderlichen optischen Eigenschaften des gesamten Filters. Bevor Fabry-Pérot-Filter ausgeführt wurden, wurde die mechanische Spannung in den einzelnen Materialien des Membranhaltesystems bestimmt. Für die Messung wurde Substratkrümmungsmethode angewendet. Es wurde gezeigt, dass die Plasmaanregungsfrequenzen der plasmaunterstützten chemischen Gasphasenabscheidung bei einer Prozesstemperatur von 120 °C die mechanische Spannung von Si3N4 enorm beeinflussen. Diese Ergebnisse wurden im Membranhaltesystem umgesetzt, wobei verschiedene Filter mit unterschiedlichen mechanischen Eigenschaften des Membranhaltesystems gezeigt wurden. Darüber hinaus wurden optische Eigenschaften der Filter unter dem Einfluss des lateralen Designs der Filterstrukturen untersucht. Bei den realisierten Filtern wurden ein optischer Durchstimmbereich von ca. 70 nm und eine spektrale Auflösung von 5 nm erreicht. Die erreichte Intensität der Transmissionslinie liegt bei 45-60%. Diese Parameter haben für den späteren spektroskopischen Einsatz der realisierten Fabry-Pérot-Filter eine hohe Bedeutung. Die Anwendung soll erstmalig in einem „Proof of Concept“ stattfinden, wobei damit die Oberflächentemperatur eines GaAs-Wafers über die Messung der spektralen Lage seiner Bandlücke bestimmt werden kann.
Resumo:
Ziel der vorliegenden Arbeit war es, den Mischfruchtanbau von Sommer- oder Wintererbsen und Getreide zu bewerten und die Eignung einer flachwendenden Bodenbearbeitung im ökologischen Erbsenanbau zu ermitteln. Weiterhin war im Rahmen dieser Arbeit beabsichtigt, den Einfluss einer mechanischen Bodenbelastung zur Saat auf die Leistungsfähigkeit von Sommererbsen in Reinsaat und Gemenge nach tief- (Pflug, 25-30 cm) und flachwendender (Stoppelhobel, 7-12 cm) Bodenbearbeitung zu untersuchen. Zu diesem Zweck wurden Feldversuche mit den Versuchsfaktoren Anbauform (Sommererbsen und Hafer in Reinsaat oder Gemenge), Pflugsystem (flach- und tiefwendend), mechanische Bodenbelastung (0 t; 2,6 t; 4,6 t Hinterradlast) und Standort (Köllitsch, Trenthorst) in 2009 und 2010 durchgeführt. Der Mischfruchtanbau zweier Wintererbsen-Sorten (E.F.B. 33: normalblättrig, buntblühend; James: halbblattlos, weißblühend) nach flach- und tiefwendender Bodenbearbeitung wurde am Standort Trenthorst in den Jahren 2009/10 und 2010/11 untersucht. Zur Untersuchung der Vorfruchtwirkung wurde im Anschluss an die Wintererbsen-Versuche Winterweizen angebaut. Ein Gefäßversuch und ein Bioassay wurde ergänzend zu den Mischfruchtversuchen mit Sommererbsen durchgeführt, um die Ursachen eines unterschiedlichen Unkrautunterdrückungsvermögens in Reinsaaten und Gemenge von Sommererbsen und Hafer bestimmen zu können. Mischfruchtbestände von Erbsen und Getreide unterdrückten annuelle Unkräuter stärker als Erbsen-Reinsaaten, was insbesondere bei halbblattlosen Erbsen zu beobachten war. Die Ergebnisse weisen darauf hin, dass eine stärkere unterirdische Interaktion zwischen Kulturpflanzen und Unkräutern für die stärkere Unkrautunterdrückung in Erbsen-Hafer-Gemengen im Vergleich zu Erbsen-Reinsaaten verantwortlich war. Die flachwendende Bearbeitung führte in Sommererbsen-Reinsaaten zu einem signifikant höheren Unkrautaufkommen, wohingegen in den Erbsen-Hafer-Gemengen eine vergleichbare (Köllitsch) oder signifikant höhere (Trenthorst) Verunkrautung nach flachwendender Bearbeitung vorhanden war. In den Wintererbsen-Versuchen waren keine signifikanten Unterschiede hinsichtlich des Unkrautaufkommens zwischen den Pflugsystemen festzustellen. Der Mischfruchtanbau von Wintererbsen und Triticale reduzierte den Befall mit der Grünen Erbsenblattlaus und verbesserte die Standfestigkeit der normalblättrigen Wintererbse, wohingegen kein positiver Effekt des Mischfruchtanbaus in Hinsicht auf Auswinterungsverluste der Wintererbsen und einen Befall mit dem Erbsenwickler festgestellt werden konnte. Die Mischfruchtbestände von Sommer- oder Wintererbsen und Getreidepartnern wiesen unter der Voraussetzung, dass keine Ertragsbildungsprobleme beim Getreide auftraten, höhere Gesamterträge im Vergleich zu den entsprechenden Erbsen-Reinsaaten auf. Die Getreidepartner unterdrückten in den Mischfruchtbeständen insbesondere die halbblattlosen Erbsen. Die flachwendende Bodenbearbeitung führte im Vergleich zur tiefwendenden Bearbeitung zu einer vergleichbaren oder signifikant besseren Ertragsleistung der Rein- und Mischfruchtbestände von Erbsen und Getreide. Die mechanische Bodenbelastung hat die Ertragsleistung und die Kornqualität der Kulturen im Jahr 2009 nicht beeinflusst. Im Jahr 2010 führte die mechanische Bodenbelastung, im Gegensatz zum Hafer, zu einer Reduzierung der Erbsen-Erträge um 12,1 % (2,6 t) und 20,8 % (4,6 t). Zudem nahmen der Rohproteingehalt der Erbsen und die Gesamterträge mit zunehmender mechanischer Bodenbelastung nach tiefwendender Bodenbearbeitung kontinuierlich ab, wohingegen nach flachwendender Bearbeitung keine signifikanten Unterschiede festgestellt wurden. Der Winterweizen, der nach den Rein- und Mischsaaten von E.F.B. 33 angebaut wurde (2010/11: 35,9; 2011/12: 20,1 dt TM ha-1), war dem Winterweizen nach den Rein- und Mischsaaten von James (2010/11: 23,8; 2011/12: 16,7 dt TM ha-1) ertraglich überlegen. Während im Jahr 2010/11 kein signifikanter Unterschied der Ertragsleistung der Nachfrucht Winterweizen in den beiden Pflugsystemen festgestellt wurde, führte die flachwendende Bodenbearbeitung im Jahr 2011/12 zu signifikant geringeren Winterweizen-Erträgen (12,9 dt TM ha-1) im Vergleich zur tiefwendenden Bodenbearbeitung (20,5 dt TM ha-1). Der metabolische Energiegehalt der weißblühenden Winter- (15,2 MJ kg-1) und Sommererbsen (15,7 MJ kg-1) lag signifikant über demjenigen der buntblühenden Wintererbsen-Sorte E.F.B. 33 (13,3 MJ kg-1). Das Pflugsystem hatte nur geringe Auswirkungen auf die Kornqualität und den energetischen Futterwert.
Resumo:
The traditional task of a central bank is to preserve price stability and, in doing so, not to impair the real economy more than necessary. To meet this challenge, it is of great relevance whether inflation is only driven by inflation expectations and the current output gap or whether it is, in addition, influenced by past inflation. In the former case, as described by the New Keynesian Phillips curve, the central bank can immediately and simultaneously achieve price stability and equilibrium output, the so-called ‘divine coincidence’ (Blanchard and Galí 2007). In the latter case, the achievement of price stability is costly in terms of output and will be pursued over several periods. Similarly, it is important to distinguish this latter case, which describes ‘intrinsic’ inflation persistence, from that of ‘extrinsic’ inflation persistence, where the sluggishness of inflation is not a ‘structural’ feature of the economy but merely ‘inherited’ from the sluggishness of the other driving forces, inflation expectations and output. ‘Extrinsic’ inflation persistence is usually considered to be the less challenging case, as policy-makers are supposed to fight against the persistence in the driving forces, especially to reduce the stickiness of inflation expectations by a credible monetary policy, in order to reestablish the ‘divine coincidence’. The scope of this dissertation is to contribute to the vast literature and ongoing discussion on inflation persistence: Chapter 1 describes the policy consequences of inflation persistence and summarizes the empirical and theoretical literature. Chapter 2 compares two models of staggered price setting, one with a fixed two-period duration and the other with a stochastic duration of prices. I show that in an economy with a timeless optimizing central bank the model with the two-period alternating price-setting (for most parameter values) leads to more persistent inflation than the model with stochastic price duration. This result amends earlier work by Kiley (2002) who found that the model with stochastic price duration generates more persistent inflation in response to an exogenous monetary shock. Chapter 3 extends the two-period alternating price-setting model to the case of 3- and 4-period price durations. This results in a more complex Phillips curve with a negative impact of past inflation on current inflation. As simulations show, this multi-period Phillips curve generates a too low degree of autocorrelation and too early turnings points of inflation and is outperformed by a simple Hybrid Phillips curve. Chapter 4 starts from the critique of Driscoll and Holden (2003) on the relative real-wage model of Fuhrer and Moore (1995). While taking the critique seriously that Fuhrer and Moore’s model will collapse to a much simpler one without intrinsic inflation persistence if one takes their arguments literally, I extend the model by a term for inequality aversion. This model extension is not only in line with experimental evidence but results in a Hybrid Phillips curve with inflation persistence that is observably equivalent to that presented by Fuhrer and Moore (1995). In chapter 5, I present a model that especially allows to study the relationship between fairness attitudes and time preference (impatience). In the model, two individuals take decisions in two subsequent periods. In period 1, both individuals are endowed with resources and are able to donate a share of their resources to the other individual. In period 2, the two individuals might join in a common production after having bargained on the split of its output. The size of the production output depends on the relative share of resources at the end of period 1 as the human capital of the individuals, which is built by means of their resources, cannot fully be substituted one against each other. Therefore, it might be rational for a well-endowed individual in period 1 to act in a seemingly ‘fair’ manner and to donate own resources to its poorer counterpart. This decision also depends on the individuals’ impatience which is induced by the small but positive probability that production is not possible in period 2. As a general result, the individuals in the model economy are more likely to behave in a ‘fair’ manner, i.e., to donate resources to the other individual, the lower their own impatience and the higher the productivity of the other individual. As the (seemingly) ‘fair’ behavior is modelled as an endogenous outcome and as it is related to the aspect of time preference, the presented framework might help to further integrate behavioral economics and macroeconomics.
Resumo:
In vielen Industrieanlagen werden verschiedenste Fluide in der Produktion eingesetzt, die bei einer Freisetzung, z. B. durch ihre toxische oder karzinogene Eigenschaft oder wegen der Brand- und Explosionsgefahr, sowohl die Umwelt als auch Investitionsgüter gefährden können. In Deutschland sind zur Risikominimierung die maximal zulässigen Emissionsmengen von Stoffen und Stoffgruppen in verschiedenen Umweltvorschriften festgelegt, wodurch zu deren Einhaltung eine ausreichende Überwachung aller relevanten Anlagenkomponenten seitens der Betreiber notwendig ist. Eine kontinuierliche und flächendeckende Überwachung der Anlagen ist aber weder personell, noch finanziell mit klassischer In-situ-Sensorik realisierbar. In der vorliegenden Arbeit wird die Problemstellung der autonomen mobilen Gasferndetektion und Gasleckortung in industrieller Umgebung mittels optischer Gasfernmesstechnik adressiert, die zum Teil im Rahmen des Verbundprojekts RoboGasInspector entstand. Neben der Beschreibung des verwendeten mobilen Robotersystems und der Sensorik, werden die eingesetzten Techniken zur Messdatenverarbeitung vorgestellt. Für die Leckortung, als Sonderfall im Inspektionsablauf, wurde die TriMax-Methode entwickelt, die zusätzlich durch einen Bayes-Klassifikator basierten Gasleckschätzer (Bayes classification based gas leak estimator (BeaGLE)) erweitert wurde, um die Erstellung von Leckhypothesen zu verbessern. Der BeaGLE basiert auf Techniken, die in der mobilen Robotik bei der Erstellung von digitalen Karten mittels Entfernungsmessungen genutzt werden. Die vorgestellten Strategien wurden in industrieller Umgebung mittels simulierter Lecks entwickelt und getestet. Zur Bestimmung der Strategieparameter wurden diverse Laborund Freifelduntersuchungen mit dem verwendeten Gasfernmessgerät durchgeführt. Die abschließenden Testergebnisse mit dem Gesamtsystem haben gezeigt, dass die automatische Gasdetektion und Gaslecksuche mittels autonomer mobiler Roboter und optischer Gasfernmesstechnik innerhalb praktikabler Zeiten und mit hinreichender Präzision realisierbar sind. Die Gasdetektion und Gasleckortung mittels autonomer mobiler Roboter und optischer Gasfernmesstechnik ist noch ein junger Forschungszweig der industriellen Servicerobotik. In der abschließenden Diskussion der vorliegenden Arbeit wird deutlich, dass noch weitergehende, interessante Forschungs- und Entwicklungspotentiale erkennbar sind.
Resumo:
Punktförmig messende optische Sensoren zum Erfassen von Oberflächentopografien im Nanometerbereich werden in der Forschung und Industrie benötigt. Dennoch ist die Auswahl unterschiedlicher Technologien und kommerziell verfügbarer Sensoren gering. In dieser Dissertationsschrift werden die wesentlichen Aspekte eines Messsystems untersucht das über das Potenzial verfügt, zu den künftigen Standardmessmethoden zu gehören. Das Messprinzip beruht auf einem Common-Path-Interferometer. In einer mikrooptischen Sonde wird das Laserlicht auf die zu untersuchende Oberfläche gerichtet. Das vom Messobjekt reflektierte Licht interferiert sondenintern mit einem Referenzreflex. Die kompakte Bauweise bewirkt kurze optische Wege und eine gewisse Robustheit gegen Störeinflüsse. Die Abstandsinformation wird durch eine mechanische Oszillation in eine Phasenmodulation überführt. Die Phasenmodulation ermöglicht eine robuste Auswertung des Interferenzsignals, auch wenn eine zusätzliche Amplitudenmodulation vorhanden ist. Dies bietet den Vorteil, unterschiedlich geartete Oberflächen messen zu können, z. B. raue, teilweise transparente und geneigte Oberflächen. Es können wiederholbar Messungen mit einer Standardabweichung unter einem Nanometer erzielt werden. Die beschriebene mechanische Oszillation wird durch ein periodisches elektrisches Signal an einem piezoelektrischen Aktor hervorgerufen, der in einem Biegebalken integriert ist. Die Bauform des Balkens gestattet eine Hybridisierung von optischen und mechanischen Komponenten zu einer Einheit, welche den Weg zur weiteren Miniaturisierung aufzeigt. Im Rahmen dieser Arbeit konnte so u. a. eine Sonde mit einer Bauhöhe unter 10 mm gefertigt werden. Durch eine zweite optische Wellenlänge lässt sich der eingeschränkte Eindeutigkeitsbereich des Laserinterferometers nachweislich vergrößern. Die hierfür eingesetzte Methode, die Stand der Technik ist, konnte erfolgreich problemspezifisch angepasst werden. Um das volle Potenzial des Sensors nutzen zu können, wurden zudem zahlreiche Algorithmen entworfen und erfolgreich getestet. Anhand von hier dokumentierten Messergebnissen können die Möglichkeiten, als auch die Schwächen des Messsystems abgeschätzt werden.
Resumo:
In dieser Arbeit wurde das lokale Relaxationsverhalten niedermolekularer glasbildender Materialien mit der Methode der Solvatationsdynamik untersucht. Bei dieser Methode werden phosphoreszente Farbstoffe als molekulare Sonden für die lokale Dynamik im Glasbildner eingesetzt. Je nach verwendeter Sonde sind unterschiedliche Eigenschaften zugänglich:Mit Farbstoffen, die ihr Dipolmoment bei optischer Anregung nicht ändern, wird eine mechanische Solvatation gemessen, die die lokale viskoelastische Antwort des Materials widerspiegelt. Mit Farbstoffen, die eine Änderung des Dipolmoments bei optischer Anregung aufweisen,sind zusätzlich lokale dielektrische Eigenschaften des Materials zugänglich, die bei endlicher Polarität des Lösungsmittels dominieren. Das heterogene Relaxationsverhalten des Glasbildners 2-Methyltetrahydrofuran wurde quantitativ untersucht.Auf einem Temperaturbereich, auf dem die mittlere Relaxationszeit um mehr als 4 Dekaden variiert, konnte gezeigt werden, daß die Relaxation lokal rein exponentiell verläuft. Zur Abschätzung von Reichweiteneffekten wurden Solvatationsmessungen in einschränkenden Geometrien in Form von porösen Sol-Gel Gläsern mit Porendurchmessern zwischen 7,5-2,5 nm durchgeführt. Der Einfluß der Beschaffenheit der Porenoberfläche wurde durch Vergleichzwischen der Solvatation in nativen und in silanisierten Gläsern untersucht. Es wurde gezeigt, daß auch in den kleinsten verwendeten silanisierten Poren alle Charakteristika des jeweiligen Bulk-Systems erhalten bleiben.In den nativen porösen Gläsern dagegen führt der Einfluß der stark polaren Oberfläche zu einer Änderung der Dynamik.
Resumo:
Lokale sekundäre Prozesse in glasbildenden Materialien sind wegen ihrer Wechselwirkung mit der primären Relaxation von besonderem Interesse. Für D-Sorbitol wurde die beta-Relaxation mit drei verschiedenen dielektrischen Meßtechniken untersucht und die Ergebnisse miteinander verglichen. Im Gegensatz zu konventionellen Messungen der dielektrischen Retardation, detektiert eine echte dielektrische Relaxationsmessung den Zerfall des elektrischen Feldes unter der Bedingung einer konstanten dielektrischen Verschiebung. Eine weitere dielektrische Relaxationsmethode ist die Solvatationsdynamik. Sie detektiert die dielektrische Relaxation in der direkten Umgebung eines Farbstoffmoleküls. Die Übereinstimmung der lokal ermittelten und der makroskopisch gemittelten Ergebnisse für den Glaszustand weisen darauf hin, daß die Sekundärrelaxation in D-Sorbitol eine räumlich homogene Eigenschaft ist. Im Gegensatz zu beta-Prozessen anderer Materialien, zeigt nur der abgeschreckte Glaszustand von ortho-Terphenyl einen sekundären Prozeß. Es wurde beobachtet, daß die beta-Amplitude beim Ausheilen langsam abnimmt und im Gleichgewichtszustand der Flüssigkeit oberhalb der Glasübergangstemperatur völlig verschwindet. Viele glasbildende Materialien, wie z. B. Salol zeigen keinen dielektrischen beta-Prozeß. Im Gegensatz zu Messungen mit Standardkühlraten, zeigt eine stark abgeschreckte Salol-Probe eine symmetrische dielektrische Sekundärrelaxation. Diese neuartige Eigenschaft von Salol verschwindet irreversibel, wenn sich die Temperatur der Glasübergangstemperatur nähert.
Resumo:
Synthese und Charakterisierung neuer funktionalisierter Mono- und Bis-tetrahydro-pyrrolo[3,4-b]carbazole als potentielle DNA-Liganden In der Carbazol-Chemie sollen neue anellierte Verbindungen mit potentieller DNA-Affinität und damit verbundener Antitumoraktivität entwickelt werden. Auf molekularer Ebene sind DNA-Interkalation oder DNA-Rinnenbindung zu erwarten. Darauf aufbauend wurden in Anlehnung an literaturbekannte Cytostatika Mono- und Bis-tetrahydropyrrolo[3,4-b]carbazole synthetisiert, die zur Entwicklung neuer Leitstrukturen bzw. -substanzen beitragen können.In der vorliegenden Arbeit wurde als synthetische Schlüsselreaktion die in unserem Arbeitkreis etablierte Indol-2,3-chinodimethan-Diels-Alder-Reaktion mit geeigneten cyclischen Mono- und Bismaleinimiden als Dienophilen weiterführend genutzt. Auf Grund des Aufbaus von künftigen Struktur-Wirkungsbeziehungen wurden variable Linker zwischen die beiden zu verbindenden Pyrrolotetrahydrocarbazole eingeführt. Diese waren aliphatischer und diamidischer Natur. Diamidische Strukturelemente wurden im Hinblick auf die Entwicklung neuer Peptidomimetika eingeführt. Deren Synthese gelang zum einen über die gemischte Säureanhydrid-Methode und zum anderen über die Azolid-Methode. Die Struktursicherung der als Cycloaddukte erhaltenen Tetrahydrocarbazole erfolgte mittels Standardverfahren (1D-, 2D-NMR-, IR-Spektroskopie und Massenspektrometrie).Enantiomere bzw. Diastereomere chiraler Wirkstoffe unterscheiden sich stark in ihren pharmakologischen Eigenschaften, deshalb müssen Verfahren entwickelt werden, um diese Substanzen gegebenenfalls auch in enantiomerenreiner Form darstellen zu können. Die Racemate der Monotetrahydrocarbazole und die Racemate sowie die dazu diastereomeren meso-Formen der Bistetrahydrocarbazole, die bei der Reaktion entstehen, konnten erstmals mittels chiraler HPLC analytisch getrennt werden.In einer der Synthese ergänzten theoretischen Studie wurde Computer-Molecular-Modelling zur Problematik der Diels-Alder-Reaktion durchgeführt, außerdem wurden kraftfeld-mechanische Berechnungen zur Konformationsanalyse der 'einfachen' Monotetrahydro-carbazole herangezogen und darauf aufbauend schließlich einfache DNA-Docking-Experimente zur ersten Abschätzung des DNA-Binde-Verhaltens der synthetisierten Verbindungen vorgenommen.
Resumo:
Zusammenfassung: Im Rahmen der Arbeit wird über die Darstellung neuartiger, konjugierter Polyarylene mit Leiterstruktur berichtet. Über eine zweistufige Synthese wurde ein ethylenüberbrücktes Leiterpolymer (LPDP) hergestellt. Dabei wurde das Vorläuferpolymer mit Samarium(II)jodid unter milden Bedingungen zum Leiterpolymeren cyclisiert. Erste Untersuchungen zeigen, daß LPDP im Gegensatz zum 'gewinkelten Polyacen' eine sehr vielversprechende Elektrolumineszenz-Eigenschaft besitzt. Durch den Einbau chiraler Alkylsubstituenten in entsprechenden meta-Phenylen-Analoga der Leiterpolymere vom Polyacen-Typ wurde versucht, eine Vorzugsdrehrichtung der helikalen Leiterpolymere im Laufe der polymeranalogen Cyclisierung zu induzieren. Es zeigt sich, daß für eines der chiralen Derivate ein CD-Effekt im Bereich der Absorption der helikalen Polyacen-Hauptkette auch auf molekularer Ebene auftritt. Weiterhin wird die erfolgreiche Synthese eines neuen, heteroaromatischen Leiterpolymeren, LPPPT, beschrieben, welches alternierend aus 1,4-Phenylen- und 2,5-Thienylen-Einheiten aufgebaut ist. Eine LED in der Konfiguration ITO/LPPPT/Al zeigt eine orange Lichtemission. Die Quanteneffizienz der freien Ladungsträgerbildung für LPPPT wurde in Experimenten zur Ladungstraegergeneration im elektrischen Feld (Coronaentladung) zu ca. 1 % bei 10E7 V/m bestimmt. Letztlich wurde die Synthese eines neuen, heteroaromatischen Leiterpolymeren mit Carbazol-Einheiten, LPPPC, in der Hauptkette beschrieben, das alternierend aus 1,4-Phenylen- und Carbazol-3,6-diyl-Einheiten aufgebaut ist. Untersuchungen am LPPPC ergaben, daß das Polymer gute Lochleitereigenschaften besitzt, daneben weisen dünne Filme von LPPPC auch photovoltaische Eigenschaften auf.