44 resultados para Optimierung
Resumo:
Der Startabschnitt im Schwimmen stellt insbesondere in den Sprintwettbewerben über 50m und 100m eine leistungsdeterminierende Größe dar. Gerade in den letzten Jahren ist das Aufkommen von neuen Starttechniken, die zu einer Optimierung der Startleistung führen sollen, zu beobachten. Ziel der Dissertation ist es, anhand einer kinematischen und dynamischen Analyse des Starts, Aussagen über die wesentlichen Einflussfaktoren auf die Leistung zu treffen. Hierzu wird eine biomechanische Analyse von Grab- und Trackstarts unter Einbeziehung der Eintauch- und Übergangsphase durchgeführt. Für die Entwicklung von Trainingsempfehlungen sind solche Zusammenhangsanalysen unerlässlich. Im theoretischen Teil der Dissertation wird die morphologische Phasenstruktur der Startbewegung im Schwimmen thematisiert. Hierbei werden unterschiedliche Modelle vorgestellt und miteinander verglichen. Durch den Vergleich der publizierten Studien zum Schwimmstart können sowohl Aussagen zu den leistungsrelevanten kinematischen und den dynamischen Kennwerten der Startbewegung zusammengefasst werden als auch Gemeinsamkeiten und Unterschiede in der Untersuchungs-methodik aufdeckt und in Relation zu der eigenen Studie gestellt werden. Im methodischen Teil wird sich zunächst mit Problemfeldern in der Datenerhebung (Berechnung der Linsenfehler und der Genauigkeit bei der Bestimmung unterschiedlicher Erhebungsmethoden der Abfluggeschwindigkeit) auseinander gesetzt. Weiterhin wird eine Methodenbeschreibung des eingesetzten ABKuS-Verfahrens beschrieben. Hierbei handelt es sich um ein selbstentwickeltes Berechnungsverfahren zur Bestimmung von Körpersegmentkoordinaten unter unscharfen Sichtbedingungen. Widrige Aufnahmebedingungen stellen insbesondere für markerlose kinematische Analysen ein Problem dar. Dies gilt insbesondere für den Eintauchvorgang beim Schwimmstart, da hier durch das Mitreißen von Luftteilchen erhebliche Sichtbehinderungen auftreten. Aus diesem Grund gibt es bisher für solche markerlosen Analysen noch keine etablierten Verfahren gibt. Für die eigentliche Hauptuntersuchung konnte eine leistungsstarke Probandenstichprobe gewonnen werden. Gegenstand der zentralen Messung war der Startsprung, den die Probanden innerhalb eines Sprinttests über 25m bzw. 50m durchführten. Die Bodenreaktionskräfte werden dabei durch den mobilen Messstartblock erhoben. Gleichzeitig werden die Blockaktionen und die Flugphase durch eine digitale Kamera und die Eintauschbewegung durch eine zweite Kamera in einem Unterwassergehäuse aufgezeichnet. Die so ermittelten umfangreichen Daten gehen in die weiteren statistischen Analysen ein. Wesentlich für die statistischen Analysen ist die Einteilung der Schwimmer und Schwimmerinnen hinsichtlich ihrer Starttechnik. Bei der Startbewegung wurde zunächst zwischen einem Track- und einem Grabstart unterschieden. Weiter wurde dann eine Einteilung des Trackstarts hinsichtlich der Ausgangsposition vorgenommen. Ausgehend von dieser Einteilung wurde der Einfluss der Starttechnik auf die Kennwerte des Startverhaltens analysiert. Die Verlaufskurven der Bodenreaktionskräfte wurden mit einer Hauptkomponentenanalyse (PCA) hinsichtlich der funktionellen und zufälligen Variation in den zeitabhängigen, koordinativen Mustern analysiert. Durch eine Clusteranalyse konnten unterschiedliche Kraftverläufe in der Anschwung- und Absprungphase identifiziert werden. Zur Bestimmung der relevanten Einflussfaktoren in der Eintauchphase wurde eine Hauptkomponentenanalyse mit einer rotierten Komponentenmatrix durchgeführt. Darüberhinaus wurden mittels einer Clusteranalyse unterschiedliche Eintauchstrategien aufgedeckt. Die komplexen Zusammenhänge des Startverhaltens wurden auf Basis theoretisch abgeleiteter Erklärungsmodelle überprüft. Hierbei kamen Strukturgleichungsmodelle zum Einsatz. Die Diskussion beinhaltet das Aufzeigen von Unterschieden bzw. die Erweiterung des Wissensstandes auf Basis der Forschungsergebnisse im Vergleich zu international anerkannten Forschungsarbeiten. Dabei wird auf die besondere Bedeutung der Eintauchphase, der in der bisherigen Forschung wenig Beachtung geschenkt wurde, hingewiesen.
Resumo:
Vor dem Hintergund der Integration des wissensbasierten Managementsystems Precision Farming in den Ökologischen Landbau wurde die Umsetzung bestehender sowie neu zu entwickelnder Strategien evaluiert und diskutiert. Mit Blick auf eine im Precision Farming maßgebende kosteneffiziente Ertragserfassung der im Ökologischen Landbau flächenrelevanten Leguminosen-Grasgemenge wurden in zwei weiteren Beiträgen die Schätzgüten von Ultraschall- und Spektralsensorik in singulärer und kombinierter Anwendung analysiert. Das Ziel des Precision Farming, ein angepasstes Management bezogen auf die flächeninterne Variabilität der Standorte umzusetzen, und damit einer Reduzierung von Betriebsmitteln, Energie, Arbeit und Umwelteffekten bei gleichzeitiger Effektivitätssteigerung und einer ökonomischen Optimierung zu erreichen, deckt sich mit wesentlichen Bestrebungen im Ökogischen Landbau. Es sind vorrangig Maßnahmen zur Erfassung der Variabilität von Standortfaktoren wie Geländerelief, Bodenbeprobung und scheinbare elektrische Leitfähigkeit sowie der Ertragserfassung über Mähdrescher, die direkt im Ökologischen Landbau Anwendung finden können. Dagegen sind dynamisch angepasste Applikationen zur Düngung, im Pflanzenschutz und zur Beseitigung von Unkräutern aufgrund komplexer Interaktionen und eines eher passiven Charakters dieser Maßnahmen im Ökologischen Landbau nur bei Veränderung der Applikationsmodelle und unter Einbindung weiterer dynamischer Daten umsetzbar. Beispiele hiefür sind einzubeziehende Mineralisierungsprozesse im Boden und organischem Dünger bei der Düngemengenberechnung, schwer ortsspezifisch zuzuordnende präventive Maßnamen im Pflanzenschutz sowie Einflüsse auf bodenmikrobiologische Prozesse bei Hack- oder Striegelgängen. Die indirekten Regulationsmechanismen des Ökologischen Landbaus begrenzen daher die bisher eher auf eine direkte Wirkung ausgelegten dynamisch angepassten Applikationen des konventionellen Precision Farming. Ergänzend sind innovative neue Strategien denkbar, von denen die qualitätsbezogene Ernte, der Einsatz hochsensibler Sensoren zur Früherkennung von Pflanzenkrankheiten oder die gezielte teilflächen- und naturschutzorientierte Bewirtschaftung exemplarisch in der Arbeit vorgestellt werden. Für die häufig große Flächenanteile umfassenden Leguminosen-Grasgemenge wurden für eine kostengünstige und flexibel einsetzbare Ertragserfassung die Ultraschalldistanzmessung zur Charakterisierung der Bestandeshöhe sowie verschiedene spektrale Vegetationsindices als Schätzindikatoren analysiert. Die Vegetationsindices wurden aus hyperspektralen Daten nach publizierten Gleichungen errechnet sowie als „Normalized Difference Spectral Index“ (NDSI) stufenweise aus allen möglichen Wellenlängenkombinationen ermittelt. Die Analyse erfolgte für Ultraschall und Vegetationsindices in alleiniger und in kombinierter Anwendung, um mögliche kompensatorische Effekte zu nutzen. In alleiniger Anwendung erreichte die Ultraschallbestandeshöhe durchweg bessere Schätzgüten, als alle einzelnen Vegetationsindices. Bei den letztgenannten erreichten insbesondere auf Wasserabsorptionsbanden basierende Vegetationsindices eine höhere Schätzgenauigkeit als traditionelle Rot/Infrarot-Indices. Die Kombination beider Sensorda-ten ließ eine weitere Steigerung der Schätzgüte erkennen, insbesondere bei bestandesspezifischer Kalibration. Hierbei kompensieren die Vegetationsindices Fehlschätzungen der Höhenmessung bei diskontinuierlichen Bestandesdichtenänderungen entlang des Höhengradienten, wie sie beim Ährenschieben oder durch einzelne hochwachsende Arten verursacht werden. Die Kombination der Ultraschallbestandeshöhe mit Vegetationsindices weist das Potential zur Entwicklung kostengünstiger Ertragssensoren für Leguminosen-Grasgemenge auf. Weitere Untersuchungen mit hyperspektralen Vegetationsindices anderer Berechnungstrukturen sowie die Einbindung von mehr als zwei Wellenlängen sind hinsichtlich der Entwicklung höherer Schätzgüten notwendig. Ebenso gilt es, Kalibrierungen und Validationen der Sensorkombination im artenreichen Grasland durchzuführen. Die Ertragserfassung in den Leguminosen-Grasgemengen stellt einen wichtigen Beitrag zur Erstellung einer Ertragshistorie in den vielfältigen Fruchtfolgen des Ökologischen Landbaus dar und ermöglicht eine verbesserte Einschätzung von Produktionspotenzialen und Defizitarealen für ein standortangepasstes Management.
Resumo:
Summary - Cooking banana is one of the most important crops in Uganda; it is a staple food and source of household income in rural areas. The most common cooking banana is locally called matooke, a Musa sp triploid acuminate genome group (AAA-EAHB). It is perishable and traded in fresh form leading to very high postharvest losses (22-45%). This is attributed to: non-uniform level of harvest maturity, poor handling, bulk transportation and lack of value addition/processing technologies, which are currently the main challenges for trade and export, and diversified utilization of matooke. Drying is one of the oldest technologies employed in processing of agricultural produce. A lot of research has been carried out on drying of fruits and vegetables, but little information is available on matooke. Drying of matooke and milling it to flour extends its shelf-life is an important means to overcome the above challenges. Raw matooke flour is a generic flour developed to improve shelf stability of the fruit and to find alternative uses. It is rich in starch (80 - 85%db) and subsequently has a high potential as a calorie resource base. It possesses good properties for both food and non-food industrial use. Some effort has been done to commercialize the processing of matooke but there is still limited information on its processing into flour. It was imperative to carry out an in-depth study to bridge the following gaps: lack of accurate information on the maturity window within which matooke for processing into flour can be harvested leading to non-uniform quality of matooke flour; there is no information on moisture sorption isotherm for matooke from which the minimum equilibrium moisture content in relation to temperature and relative humidity is obtainable, below which the dry matooke would be microbiologically shelf-stable; and lack of information on drying behavior of matooke and standardized processing parameters for matooke in relation to physicochemical properties of the flour. The main objective of the study was to establish the optimum harvest maturity window and optimize the processing parameters for obtaining standardized microbiologically shelf-stable matooke flour with good starch quality attributes. This research was designed to: i) establish the optimum maturity harvest window within which matooke can be harvested to produce a consistent quality of matooke flour, ii) establish the sorption isotherms for matooke, iii) establish the effect of process parameters on drying characteristics of matooke, iv) optimize the drying process parameters for matooke, v) validate the models of maturity and optimum process parameters and vi) standardize process parameters for commercial processing of matooke. Samples were obtained from a banana plantation at Presidential Initiative on Banana Industrial Development (PIBID), Technology Business Incubation Center (TBI) at Nyaruzunga – Bushenyi in Western Uganda. A completely randomized design (CRD) was employed in selecting the banana stools from which samples for the experiments were picked. The cultivar Mbwazirume which is soft cooking and commonly grown in Bushenyi was selected for the study. The static gravitation method recommended by COST 90 Project (Wolf et al., 1985), was used for determination of moisture sorption isotherms. A research dryer developed for this research. All experiments were carried out in laboratories at TBI. The physiological maturity of matooke cv. mbwazirume at Bushenyi is 21 weeks. The optimum harvest maturity window for commercial processing of matooke flour (Raw Tooke Flour - RTF) at Bushenyi is between 15-21 weeks. The finger weight model is recommended for farmers to estimate harvest maturity for matooke and the combined model of finger weight and pulp peel ratio is recommended for commercial processors. Matooke isotherms exhibited type II curve behavior which is characteristic of foodstuffs. The GAB model best described all the adsorption and desorption moisture isotherms. For commercial processing of matooke, in order to obtain a microbiologically shelf-stable dry product. It is recommended to dry it to moisture content below or equal to 10% (wb). The hysteresis phenomenon was exhibited by the moisture sorption isotherms for matooke. The isoteric heat of sorption for both adsorptions and desorption isotherms increased with decreased moisture content. The total isosteric heat of sorption for matooke: adsorption isotherm ranged from 4,586 – 2,386 kJ/kg and desorption isotherm from 18,194– 2,391 kJ/kg for equilibrium moisture content from 0.3 – 0.01 (db) respectively. The minimum energy required for drying matooke from 80 – 10% (wb) is 8,124 kJ/kg of water removed. Implying that the minimum energy required for drying of 1 kg of fresh matooke from 80 - 10% (wb) is 5,793 kJ. The drying of matooke takes place in three steps: the warm-up and the two falling rate periods. The drying rate constant for all processing parameters ranged from 5,793 kJ and effective diffusivity ranged from 1.5E-10 - 8.27E-10 m2/s. The activation energy (Ea) for matooke was 16.3kJ/mol (1,605 kJ/kg). Comparing the activation energy (Ea) with the net isosteric heat of sorption for desorption isotherm (qst) (1,297.62) at 0.1 (kg water/kg dry matter), indicated that Ea was higher than qst suggesting that moisture molecules travel in liquid form in matooke slices. The total color difference (ΔE*) between the fresh and dry samples, was lowest for effect of thickness of 7 mm, followed by air velocity of 6 m/s, and then drying air temperature at 70˚C. The drying system controlled by set surface product temperature, reduced the drying time by 50% compared to that of a drying system controlled by set air drying temperature. The processing parameters did not have a significant effect on physicochemical and quality attributes, suggesting that any drying air temperature can be used in the initial stages of drying as long as the product temperature does not exceed gelatinization temperature of matooke (72˚C). The optimum processing parameters for single-layer drying of matooke are: thickness = 3 mm, air temperatures 70˚C, dew point temperature 18˚C and air velocity 6 m/s overflow mode. From practical point of view it is recommended that for commercial processing of matooke, to employ multi-layer drying of loading capacity equal or less than 7 kg/m², thickness 3 mm, air temperatures 70˚C, dew point temperature 18˚C and air velocity 6 m/s overflow mode.
Resumo:
In dieser Dissertation werden Methoden zur optimalen Aufgabenverteilung in Multirobotersystemen (engl. Multi-Robot Task Allocation – MRTA) zur Inspektion von Industrieanlagen untersucht. MRTA umfasst die Verteilung und Ablaufplanung von Aufgaben für eine Gruppe von Robotern unter Berücksichtigung von operativen Randbedingungen mit dem Ziel, die Gesamteinsatzkosten zu minimieren. Dank zunehmendem technischen Fortschritt und sinkenden Technologiekosten ist das Interesse an mobilen Robotern für den Industrieeinsatz in den letzten Jahren stark gestiegen. Viele Arbeiten konzentrieren sich auf Probleme der Mobilität wie Selbstlokalisierung und Kartierung, aber nur wenige Arbeiten untersuchen die optimale Aufgabenverteilung. Da sich mit einer guten Aufgabenverteilung eine effizientere Planung erreichen lässt (z. B. niedrigere Kosten, kürzere Ausführungszeit), ist das Ziel dieser Arbeit die Entwicklung von Lösungsmethoden für das aus Inspektionsaufgaben mit Einzel- und Zweiroboteraufgaben folgende Such-/Optimierungsproblem. Ein neuartiger hybrider Genetischer Algorithmus wird vorgestellt, der einen teilbevölkerungbasierten Genetischen Algorithmus zur globalen Optimierung mit lokalen Suchheuristiken kombiniert. Zur Beschleunigung dieses Algorithmus werden auf die fittesten Individuen einer Generation lokale Suchoperatoren angewendet. Der vorgestellte Algorithmus verteilt die Aufgaben nicht nur einfach und legt den Ablauf fest, sondern er bildet auch temporäre Roboterverbünde für Zweiroboteraufgaben, wodurch räumliche und zeitliche Randbedingungen entstehen. Vier alternative Kodierungsstrategien werden für den vorgestellten Algorithmus entworfen: Teilaufgabenbasierte Kodierung: Hierdurch werden alle möglichen Lösungen abgedeckt, allerdings ist der Suchraum sehr groß. Aufgabenbasierte Kodierung: Zwei Möglichkeiten zur Zuweisung von Zweiroboteraufgaben wurden implementiert, um die Effizienz des Algorithmus zu steigern. Gruppierungsbasierte Kodierung: Zeitliche Randbedingungen zur Gruppierung von Aufgaben werden vorgestellt, um gute Lösungen innerhalb einer kleinen Anzahl von Generationen zu erhalten. Zwei Umsetzungsvarianten werden vorgestellt. Dekompositionsbasierte Kodierung: Drei geometrische Zerlegungen wurden entworfen, die Informationen über die räumliche Anordnung ausnutzen, um Probleme zu lösen, die Inspektionsgebiete mit rechteckigen Geometrien aufweisen. In Simulationsstudien wird die Leistungsfähigkeit der verschiedenen hybriden Genetischen Algorithmen untersucht. Dazu wurde die Inspektion von Tanklagern einer Erdölraffinerie mit einer Gruppe homogener Inspektionsroboter als Anwendungsfall gewählt. Die Simulationen zeigen, dass Kodierungsstrategien, die auf der geometrischen Zerlegung basieren, bei einer kleinen Anzahl an Generationen eine bessere Lösung finden können als die anderen untersuchten Strategien. Diese Arbeit beschäftigt sich mit Einzel- und Zweiroboteraufgaben, die entweder von einem einzelnen mobilen Roboter erledigt werden können oder die Zusammenarbeit von zwei Robotern erfordern. Eine Erweiterung des entwickelten Algorithmus zur Behandlung von Aufgaben, die mehr als zwei Roboter erfordern, ist möglich, würde aber die Komplexität der Optimierungsaufgabe deutlich vergrößern.
Resumo:
Tunable Optical Sensor Arrays (TOSA) based on Fabry-Pérot (FP) filters, for high quality spectroscopic applications in the visible and near infrared spectral range are investigated within this work. The optical performance of the FP filters is improved by using ion beam sputtered niobium pentoxide (Nb2O5) and silicon dioxide (SiO2) Distributed Bragg Reflectors (DBRs) as mirrors. Due to their high refractive index contrast, only a few alternating pairs of Nb2O5 and SiO2 films can achieve DBRs with high reflectivity in a wide spectral range, while ion beam sputter deposition (IBSD) is utilized due to its ability to produce films with high optical purity. However, IBSD films are highly stressed; resulting in stress induced mirror curvature and suspension bending in the free standing filter suspensions of the MEMS (Micro-Electro-Mechanical Systems) FP filters. Stress induced mirror curvature results in filter transmission line degradation, while suspension bending results in high required filter tuning voltages. Moreover, stress induced suspension bending results in higher order mode filter operation which in turn degrades the optical resolution of the filter. Therefore, the deposition process is optimized to achieve both near zero absorption and low residual stress. High energy ion bombardment during film deposition is utilized to reduce the film density, and hence the film compressive stress. Utilizing this technique, the compressive stress of Nb2O5 is reduced by ~43%, while that for SiO2 is reduced by ~40%. Filters fabricated with stress reduced films show curvatures as low as 100 nm for 70 μm mirrors. To reduce the stress induced bending in the free standing filter suspensions, a stress optimized multi-layer suspension design is presented; with a tensile stressed metal sandwiched between two compressively stressed films. The stress in Physical Vapor Deposited (PVD) metals is therefore characterized for use as filter top-electrode and stress compensating layer. Surface micromachining is used to fabricate tunable FP filters in the visible spectral range using the above mentioned design. The upward bending of the suspensions is reduced from several micrometers to less than 100 nm and 250 nm for two different suspension layer combinations. Mechanical tuning of up to 188 nm is obtained by applying 40 V of actuation voltage. Alternatively, a filter line with transmission of 65.5%, Full Width at Half Maximum (FWHM) of 10.5 nm and a stopband of 170 nm (at an output wavelength of 594 nm) is achieved. Numerical model simulations are also performed to study the validity of the stress optimized suspension design for the near infrared spectral range, wherein membrane displacement and suspension deformation due to material residual stress is studied. Two bandpass filter designs based on quarter-wave and non-quarter-wave layers are presented as integral components of the TOSA. With a filter passband of 135 nm and a broad stopband of over 650 nm, high average filter transmission of 88% is achieved inside the passband, while maximum filter transmission of less than 1.6% outside the passband is achieved.
Resumo:
The traditional task of a central bank is to preserve price stability and, in doing so, not to impair the real economy more than necessary. To meet this challenge, it is of great relevance whether inflation is only driven by inflation expectations and the current output gap or whether it is, in addition, influenced by past inflation. In the former case, as described by the New Keynesian Phillips curve, the central bank can immediately and simultaneously achieve price stability and equilibrium output, the so-called ‘divine coincidence’ (Blanchard and Galí 2007). In the latter case, the achievement of price stability is costly in terms of output and will be pursued over several periods. Similarly, it is important to distinguish this latter case, which describes ‘intrinsic’ inflation persistence, from that of ‘extrinsic’ inflation persistence, where the sluggishness of inflation is not a ‘structural’ feature of the economy but merely ‘inherited’ from the sluggishness of the other driving forces, inflation expectations and output. ‘Extrinsic’ inflation persistence is usually considered to be the less challenging case, as policy-makers are supposed to fight against the persistence in the driving forces, especially to reduce the stickiness of inflation expectations by a credible monetary policy, in order to reestablish the ‘divine coincidence’. The scope of this dissertation is to contribute to the vast literature and ongoing discussion on inflation persistence: Chapter 1 describes the policy consequences of inflation persistence and summarizes the empirical and theoretical literature. Chapter 2 compares two models of staggered price setting, one with a fixed two-period duration and the other with a stochastic duration of prices. I show that in an economy with a timeless optimizing central bank the model with the two-period alternating price-setting (for most parameter values) leads to more persistent inflation than the model with stochastic price duration. This result amends earlier work by Kiley (2002) who found that the model with stochastic price duration generates more persistent inflation in response to an exogenous monetary shock. Chapter 3 extends the two-period alternating price-setting model to the case of 3- and 4-period price durations. This results in a more complex Phillips curve with a negative impact of past inflation on current inflation. As simulations show, this multi-period Phillips curve generates a too low degree of autocorrelation and too early turnings points of inflation and is outperformed by a simple Hybrid Phillips curve. Chapter 4 starts from the critique of Driscoll and Holden (2003) on the relative real-wage model of Fuhrer and Moore (1995). While taking the critique seriously that Fuhrer and Moore’s model will collapse to a much simpler one without intrinsic inflation persistence if one takes their arguments literally, I extend the model by a term for inequality aversion. This model extension is not only in line with experimental evidence but results in a Hybrid Phillips curve with inflation persistence that is observably equivalent to that presented by Fuhrer and Moore (1995). In chapter 5, I present a model that especially allows to study the relationship between fairness attitudes and time preference (impatience). In the model, two individuals take decisions in two subsequent periods. In period 1, both individuals are endowed with resources and are able to donate a share of their resources to the other individual. In period 2, the two individuals might join in a common production after having bargained on the split of its output. The size of the production output depends on the relative share of resources at the end of period 1 as the human capital of the individuals, which is built by means of their resources, cannot fully be substituted one against each other. Therefore, it might be rational for a well-endowed individual in period 1 to act in a seemingly ‘fair’ manner and to donate own resources to its poorer counterpart. This decision also depends on the individuals’ impatience which is induced by the small but positive probability that production is not possible in period 2. As a general result, the individuals in the model economy are more likely to behave in a ‘fair’ manner, i.e., to donate resources to the other individual, the lower their own impatience and the higher the productivity of the other individual. As the (seemingly) ‘fair’ behavior is modelled as an endogenous outcome and as it is related to the aspect of time preference, the presented framework might help to further integrate behavioral economics and macroeconomics.
Resumo:
Das Kleine Immergrün (Vinca minor L.) aus der Familie der Apocynaceae ist in der Krautschicht sommergrüner Wälder Südeuropas heimisch, während es in weiten Teilen Mitteleuropas als wahrscheinlich von den Römern eingeführter, altetablierter Archäophyt gilt. Noch heute ist die Art als Kulturreliktzeiger häufig in der Umgebung ehemaliger römischer Tempel und mittelalterlicher Burgruinen zu finden. Zudem wird V. minor in zahlreichen Gartenformen kultiviert. In Teilen Nordamerikas wird der Chamaephyt hingegen als eingeführte, invasive Art eingestuft, die die einheimische Flora und Fauna bedroht. Da V. minor Stolonen bilden kann und in Mitteleuropa selten reife Samen beobachtet werden, wurde bislang vermutet, dass V. minor Bestände in Mitteleuropa sich rein asexuell erhalten. Diese Hypothese wurde aber bisher nie mit molekularen Methoden überprüft. Auch zur Populationsgenetik der Art ist bisher nichts bekannt. Aus diesen Gegebenheiten resultieren folgende Fragen: Wie hoch ist die genetische Diversität von V. minor im submediterranen Ursprungsgebiet im Vergleich zu Mitteleuropa und Nordamerika und wie ist sie in den Großregionen jeweils strukturiert? Korreliert die anthropogen bedingte Einführung mit einer genetischen Verarmung in Mitteleuropa? Gibt es in mitteleuropäischen und nordamerikanischen Populationen Hinweise auf sexuelle Reproduktion, oder erfolgt eine rein vegetative Vermehrung? Gibt es genetische Hinweise für Auswilderungen aus Gärten? Lassen sich die historischen Ausbreitungswege der Art von Süd- nach Mitteleuropa, innerhalb Mitteleuropas sowie nach Nordamerika rekonstruieren? Mikrosatellitenmarker stellen für populationsgenetische Analysen heute die weitaus gängigste Technik dar. Als codominante, locusspezifische Marker erlauben sie die präzise Erfassung populationsgenetischer Parameter zur Quantifizierung der genetischen Diversität und Struktur, die Abschätzung von Genfluss, und die Detektion von Klonen. Mikrosatelliten sind mit Hilfe neuer DNA-Sequenziertechniken (NGS) unproblematisch und kosteneffektiv isolierbar. Im Rahmen der hier vorliegenden Arbeit wurden daher zunächst nukleäre und plastidäre Mikrosatellitenmarker über NGS-454-Sequenzierung entwickelt. Etablierung von nukleären und plastidären Mikrosatellitenmarkern Zur Etablierung artspezifischer nukleärer Mikrosatellitenmarker wurden zwei Verfahren angewendet. Zum einen wurde in einer öffentlich zugänglichen, über 454-Sequenzierung der cDNA von V. minor gewonnene und im 'sequence read archive' von NCBI hinterlegte Datenbank (Akzessionsnummer SRX039641) nach Mikrosatelliten gesucht. Zum anderen wurde die 454-Technologie eingesetzt, um in Kooperation mit Dr. Bruno Huettel vom Max-Planck-Institut für Pflanzenzüchtung in Köln genomische Sequenzdaten anhand einer V. minor-Akzession zu generieren und aus diesen Mikrosatelliten zu etablieren. Eine Assemblierung der 723.230 cDNA-Sequenzen mit insgesamt 387 Mbp erzielte eine Reduzierung auf 267.199 Unigenes (267 Mbp), die der genomischen Sequenzen eine Reduzierung von 43.565 (18 Mbp) auf 24.886 Sequenzen (13,7 Mbp). Die assemblierten Datensätze enthielten 25.253 bzw. 1.371 Mikrosatellitenloci aus Mono- bis Hexa-Nukleotidmotiven. Die Effizienz der Assemblierung war somit v. a. bei den cDNA-Sequenzen gering. Da die Etablierung von Mikrosatellitenloci aber auch auf Basis redundanter Sequenzen möglich ist, sofern ein manueller Abgleich der selektierten Sequenzen erfolgt, wurde auf eine weitere Optimierung der Assemblierung verzichtet. Aus den so identifizierten Loci wurden 60 (cDNA) bzw. 35 (genomische DNA) Di-, Tri- und Tetranukleotidmotive selektiert, flankierende Primer synthetisiert und in umfangreichen Pilotstudien getestet. Jeweils neun der Loci erwiesen sich als robuste, polymorphe Marker. Die sieben vielversprechendsten Marker wurden schließlich für die populationsgenetische Untersuchung ausgewählt. Auch die Etablierung plastidärer Mikrosatellitenmarker erfolgte über zwei Ansätze. Zum einen wurde das Plastom von V. minor aus dem genomischen 454-Sequenzdatensatz rekonstruiert und auf das Vorhandensein von (A)n/(T)n-Wiederholungseinheiten hin untersucht. Für 14 der 17 dabei detektierten Loci konnten Primer entworfen werden. In einer Pilotstudie erwiesen sich vier der Loci als funktionelle, polymorphe Marker. Zusätzlich wurden die zehn universellen (ccmp) Primerpaare zur Amplifikation plastidärer Mikrosatellitenloci aus Weising & Gardner (1999) getestet, von denen zwei als funktionelle, polymorphe Marker für die Hauptstudie geeignet waren. Populationsgenetische und phylogeographische Analyse Ein Probenset aus insgesamt 967 Pflanzenproben aus 70 Populationen aus Mitteleuropa inkl. der Alpen, den Regionen südlich und westlich der Alpen sowie aus Kanada und 18 Cultivaren wurde mittels der sieben neu etablierten, artspezifischen nukleären Mikrosatellitenmarker populationsgenetisch untersucht. Dabei erwiesen sich 21 der 31 untersuchten Populationen südlich und westlich der Alpen als genetisch hoch divers, die übrigen 10 zeigten vor allem klonales Wachstum und wiesen jeweils ein bis drei Multilocus-Genotypen (MLGs) auf. In 30 der 36 mitteleuropäischen Vorkommen (inkl. der Alpen) sowie den kanadischen Beständen war jeweils nur ein einziger MLG präsent. Drei der Vorkommen zeigten mit einem Heterozygotendefizit einzelner Stichproben Hinweise auf Geitonogamie, an drei weiteren Vorkommen traten jeweils zwei sowohl hinsichtlich der Blütenfarbe und -architektur als auch des MLG unterschiedliche Linien auf. An einem dieser Vorkommen wurde ein Hybrid-Genotyp detektiert, bisher der einzige molekulare Hinweis auf sexuelle Reproduktion im engeren Sinn in Mitteleuropa. Die 967 Stichproben konnten insgesamt 310 individuellen Multilocus-Genotypen (MLGs) zugeordnet werden. Davon traten 233 MLGs nur in jeweils einer einzigen Probe auf, die 77 verbleibenden wurden in mehreren Akzessionen detektiert. Aus einer Simulation ging hervor, dass diese wiederholten MLGs auf rein asexuelle Reproduktion zurückzuführen sind. In Mitteleuropa waren lediglich 18 MLGs vertreten, von denen sieben an bis zu zehn, mehrere hundert Kilometer entfernten Fundorten auftraten. In Nordamerika gehören gar alle drei untersuchten Populationen dem gleichen Klon an. In Mitteleuropa traten in zwei Fällen somatische Mutationen zwischen zwei MLGs auf, sodass diese zu klonalen Linien (Multilocus-Linien; MLL) zusammengefasst werden konnten. Sieben der 18 Cultivare weisen einen zu diversen Freilandvorkommen identischen Genotypen auf. Die Ergebnisse reflektieren den durch die anthropogene Selektion bedingten genetischen Flaschenhalseffekt, in dessen Folge der Genpool von Vinca minor in Mitteleuropa gegenüber der südeuropäischen Heimat der Art stark reduziert wurde. Sexuelle Reproduktion in Mitteleuropa zwischen zwei genetisch unterschiedlichen Individuen ist nur an wenigen Standorten überhaupt möglich und da meist nur ein Klon am gleichen Fundort auftritt, sehr selten. Die Ausbreitung erfolgt zudem rein anthropogen und über erhebliche Strecken, wie die identischen MLGs an unterschiedlichen, weit auseinander liegenden Fundorten belegen. Südlich und westlich der Alpen hingegen ist sexuelle Reproduktion über Samen häufig. Aus den kalkulierten Neighbour-Joining Phenogrammen, Neighbour-Nets und der Bayes'schen Analyse ergibt sich prinzipiell eine Abtrennung der in Norditalien und Slowenien gelegenen Vorkommen von den übrigen Regionen, wohingegen mehrere mittelitalienische Populationen mit denen westlich der Alpen und den mitteleuropäischen Vorkommen in einer engeren genetischen Beziehung stehen. Da die mittelitalienischen Vorkommen jedoch Anzeichen anthropogenen Ursprungs aufweisen (Monoklonalität, Lage an Wegrändern oder Burgen), lassen sich diese Populationen nur bedingt als potentielle Ursprungspopulationen ableiten. Die genetisch diversen norditalienischen und slowenischen Populationen sind trotz der Fragmentierung der norditalienischen Waldvegetation insgesamt nur moderat voneinander differenziert (FST=0,14, GST=0,17, RST=0,19). Die AMOVA ergab, dass über 80 % der genetischen Variation auf Variation innerhalb der Populationen zurückzuführen ist. Dennoch ergab sich aus einem Mantel-Test eine zunehmende genetische Differenzierung mit zunehmender geographischer Distanz (r=0,59). Die phylogeographische Analyse wurde mit Hilfe von vier plastidären Mikrosatellitenmarkern aus der 454-Sequenzierung und zwei universellen plastidären ccmp-Mikrosatellitenloci durchgeführt. Untersucht wurden jeweils eine bis sechs Stichproben aus den o. g. 70 Populationen, die 18 Cultivare sowie zusätzliche Einzelproben aus mehreren Ländern, deren DNA aus Herbarbelegen isoliert wurde. Insgesamt wurden 297 Proben untersucht. Unter diesen wurden in der phylogeographischen Analyse sieben plastidäre Haplotypen detektiert. In der Region südlich der Alpen traten sechs Haplotypen auf (H1 bis H5, H7), in Mitteleuropa vier Haplotypen (H1 bis H3, H6), in Nordamerika, Großbritannien, Schweden und Nordamerika trat hingegen nur ein einziger Haplotyp H1 auf. Die beiden häufigsten Haplotypen nahmen im berechneten Haplotypen-Netzwerk periphere Positionen ein und waren durch sieben Mutationschritte voneinander getrennt. Südlich der Alpen ergab sich jedoch keine klare geographische Verteilung der Haplotypen. Auch die plastidären Daten indizieren somit eine geringere genetische Diversität in den Gebieten, wo V. minor eingeführt wurde. Der geographische Ursprung der mitteleuropäischen Vorkommen in Südeuropa konnte nicht abschließend geklärt werden, jedoch lässt das Vorkommen von zwei weit entfernten Haplotypen den Schluss zu, dass Vinca minor mindestens zweimal (und vermutlich mehrfach) unabhängig in Mitteleuropa eingeführt wurde.
Resumo:
We are currently at the cusp of a revolution in quantum technology that relies not just on the passive use of quantum effects, but on their active control. At the forefront of this revolution is the implementation of a quantum computer. Encoding information in quantum states as “qubits” allows to use entanglement and quantum superposition to perform calculations that are infeasible on classical computers. The fundamental challenge in the realization of quantum computers is to avoid decoherence – the loss of quantum properties – due to unwanted interaction with the environment. This thesis addresses the problem of implementing entangling two-qubit quantum gates that are robust with respect to both decoherence and classical noise. It covers three aspects: the use of efficient numerical tools for the simulation and optimal control of open and closed quantum systems, the role of advanced optimization functionals in facilitating robustness, and the application of these techniques to two of the leading implementations of quantum computation, trapped atoms and superconducting circuits. After a review of the theoretical and numerical foundations, the central part of the thesis starts with the idea of using ensemble optimization to achieve robustness with respect to both classical fluctuations in the system parameters, and decoherence. For the example of a controlled phasegate implemented with trapped Rydberg atoms, this approach is demonstrated to yield a gate that is at least one order of magnitude more robust than the best known analytic scheme. Moreover this robustness is maintained even for gate durations significantly shorter than those obtained in the analytic scheme. Superconducting circuits are a particularly promising architecture for the implementation of a quantum computer. Their flexibility is demonstrated by performing optimizations for both diagonal and non-diagonal quantum gates. In order to achieve robustness with respect to decoherence, it is essential to implement quantum gates in the shortest possible amount of time. This may be facilitated by using an optimization functional that targets an arbitrary perfect entangler, based on a geometric theory of two-qubit gates. For the example of superconducting qubits, it is shown that this approach leads to significantly shorter gate durations, higher fidelities, and faster convergence than the optimization towards specific two-qubit gates. Performing optimization in Liouville space in order to properly take into account decoherence poses significant numerical challenges, as the dimension scales quadratically compared to Hilbert space. However, it can be shown that for a unitary target, the optimization only requires propagation of at most three states, instead of a full basis of Liouville space. Both for the example of trapped Rydberg atoms, and for superconducting qubits, the successful optimization of quantum gates is demonstrated, at a significantly reduced numerical cost than was previously thought possible. Together, the results of this thesis point towards a comprehensive framework for the optimization of robust quantum gates, paving the way for the future realization of quantum computers.
Resumo:
Since no physical system can ever be completely isolated from its environment, the study of open quantum systems is pivotal to reliably and accurately control complex quantum systems. In practice, reliability of the control field needs to be confirmed via certification of the target evolution while accuracy requires the derivation of high-fidelity control schemes in the presence of decoherence. In the first part of this thesis an algebraic framework is presented that allows to determine the minimal requirements on the unique characterisation of arbitrary unitary gates in open quantum systems, independent on the particular physical implementation of the employed quantum device. To this end, a set of theorems is devised that can be used to assess whether a given set of input states on a quantum channel is sufficient to judge whether a desired unitary gate is realised. This allows to determine the minimal input for such a task, which proves to be, quite remarkably, independent of system size. These results allow to elucidate the fundamental limits regarding certification and tomography of open quantum systems. The combination of these insights with state-of-the-art Monte Carlo process certification techniques permits a significant improvement of the scaling when certifying arbitrary unitary gates. This improvement is not only restricted to quantum information devices where the basic information carrier is the qubit but it also extends to systems where the fundamental informational entities can be of arbitary dimensionality, the so-called qudits. The second part of this thesis concerns the impact of these findings from the point of view of Optimal Control Theory (OCT). OCT for quantum systems utilises concepts from engineering such as feedback and optimisation to engineer constructive and destructive interferences in order to steer a physical process in a desired direction. It turns out that the aforementioned mathematical findings allow to deduce novel optimisation functionals that significantly reduce not only the required memory for numerical control algorithms but also the total CPU time required to obtain a certain fidelity for the optimised process. The thesis concludes by discussing two problems of fundamental interest in quantum information processing from the point of view of optimal control - the preparation of pure states and the implementation of unitary gates in open quantum systems. For both cases specific physical examples are considered: for the former the vibrational cooling of molecules via optical pumping and for the latter a superconducting phase qudit implementation. In particular, it is illustrated how features of the environment can be exploited to reach the desired targets.
Resumo:
Eine wesentliche Funktionalität bei der Verwendung semantischer Technologien besteht in dem als Reasoning bezeichneten Prozess des Ableitens von impliziten Fakten aus einer explizit gegebenen Wissensbasis. Der Vorgang des Reasonings stellt vor dem Hintergrund der stetig wachsenden Menge an (semantischen) Informationen zunehmend eine Herausforderung in Bezug auf die notwendigen Ressourcen sowie der Ausführungsgeschwindigkeit dar. Um diesen Herausforderungen zu begegnen, adressiert die vorliegende Arbeit das Reasoning durch eine massive Parallelisierung der zugrunde liegenden Algorithmen und der Einführung von Konzepten für eine ressourceneffiziente Ausführung. Diese Ziele werden unter Berücksichtigung der Verwendung eines regelbasierten Systems verfolgt, dass im Gegensatz zur Implementierung einer festen Semantik die Definition der anzuwendenden Ableitungsregeln während der Laufzeit erlaubt und so eine größere Flexibilität bei der Nutzung des Systems bietet. Ausgehend von einer Betrachtung der Grundlagen des Reasonings und den verwandten Arbeiten aus den Bereichen des parallelen sowie des regelbasierten Reasonings werden zunächst die Funktionsweise von Production Systems sowie die dazu bereits existierenden Ansätze für die Optimierung und im Speziellen der Parallelisierung betrachtet. Production Systems beschreiben die grundlegende Funktionalität der regelbasierten Verarbeitung und sind somit auch die Ausgangsbasis für den RETE-Algorithmus, der zur Erreichung der Zielsetzung der vorliegenden Arbeit parallelisiert und für die Ausführung auf Grafikprozessoren (GPUs) vorbereitet wird. Im Gegensatz zu bestehenden Ansätzen unterscheidet sich die Parallelisierung insbesondere durch die gewählte Granularität, die nicht durch die anzuwendenden Regeln, sondern von den Eingabedaten bestimmt wird und sich damit an der Zielarchitektur orientiert. Aufbauend auf dem Konzept der parallelen Ausführung des RETE-Algorithmus werden Methoden der Partitionierung und Verteilung der Arbeitslast eingeführt, die zusammen mit Konzepten der Datenkomprimierung sowie der Verteilung von Daten zwischen Haupt- und Festplattenspeicher ein Reasoning über Datensätze mit mehreren Milliarden Fakten auf einzelnen Rechnern erlauben. Eine Evaluation der eingeführten Konzepte durch eine prototypische Implementierung zeigt für die adressierten leichtgewichtigen Ontologiesprachen einerseits die Möglichkeit des Reasonings über eine Milliarde Fakten auf einem Laptop, was durch die Reduzierung des Speicherbedarfs um rund 90% ermöglicht wird. Andererseits kann der dabei erzielte Durchsatz mit aktuellen State of the Art Reasonern verglichen werden, die eine Vielzahl an Rechnern in einem Cluster verwenden.
Resumo:
In dieser Arbeit wird ein Prozess für den frühen aerothermodynamischen Entwurf von Axialturbinen konzipiert und durch Kopplung einzelner Computerprogramme im DLR Göttingen realisiert. Speziell für die Erstauslegung von Geometrien und die Vorhersage von globalen Leistungsdaten beliebiger Axialturbinen wurde ein neues Programm erzeugt. Dessen effiziente Anwendung wird mit einer zu diesem Zweck konzipierten grafischen Entwurfsumgebung ausgeführt. Kennzeichnend für den Vorentwurfsprozess in dieser Arbeit ist die Anwendung von ein- und zweidimensionaler Strömungssimulation sowie der hohe Grad an Verknüpfung der verwendeten Programme sowohl auf prozesstechnischer wie auch auf datentechnischer Ebene. Dabei soll dem sehr frühen Entwurf eine deutlich stärkere Rolle zukommen als bisher üblich und im Gegenzug die Entwurfszeit mit höher auflösenden Vorentwurfsprogrammen reduziert werden. Die Anwendung der einzelnen Programme im Rahmen von Subprozessen wird anhand von exemplarischen Turbinenkonfigurationen in der Arbeit ebenso dargestellt, wie die Validierung des gesamten Entwurfsprozesses anhand der Auslegung einer folgend realisierten und erfolgreich operierenden Axialturbine eines Triebwerkssimulators für Flugzeug-Windkanalmodelle (TPS). Neben der Erleichterung von manueller Entwurfstätigkeit durch grafische Benutzerinteraktion kommt in einzelnen Subprozessen eine automatisierte Mehrziel-Optimierung zum Einsatz.
Resumo:
Im Rahmen dieser Arbeit wird die Herstellung von miniaturisierten NIR-Spektrometern auf Basis von Fabry-Pérot (FP) Filter Arrays behandelt. Bisher ist die kostengünstige Strukturierung von homogenen und vertikal erweiterten Kavitäten für NIR FP-Filter mittels Nanoimprint Technologie noch nicht verfügbar, weil die Qualität der Schichten des Prägematerials unzureichend ist und die geringe Mobilität der Prägematerialien nicht ausreicht, um die vertikal erweiterten Kavitäten zu füllen. Diese Arbeit konzentriert sich auf die Reduzierung des technischen Aufwands zur Herstellung von homogenen und vertikal erweiterten Kavitäten. Zur Strukturierung der Kavitäten wird ein großflächiger substratkonformer UV-Nanoimprint Prozess (SCIL - Substrate Conformal Imprint Lithoghaphy) verwendet, der auf einem Hybridstempel basiert und Vorteile von harten und weichen Stempeln vereint. Um die genannten Limitierungen zu beseitigen, werden alternative Designs der Kavitäten untersucht und ein neues Prägematerial eingesetzt. Drei Designlösungen zur Herstellung von homogenen und erweiterten Kavitäten werden untersucht und verglichen: (i) Das Aufbringen des Prägematerials mittel mehrfacher Rotationsbeschichtung, um eine höhere Schichtdicke des Prägematerials vor dem Prägeprozess zu erzeugen, (ii) die Verwendung einer hybriden Kavität bestehend aus einer strukturierten Schicht des Prägematerials eingebettet zwischen zwei Siliziumoxidschichten, um die Schichtdicke der organischen Kavität zu erweitern und (iii) die Optimierung des Prägeprozesses durch Verwendung eines neuen Prägematerials. Die mit diesen drei Ansätzen hergestellten FP-Filter Arrays zeigen, hohe Transmissionen (beste Transmission > 90%) und kleine Linienbreiten (Halbwertsbreiten <5 nm).
Resumo:
In this work, fabrication processes for daylight guiding systems based on micromirror arrays are developed, evaluated and optimized.Two different approaches are used: At first, nanoimprint lithography is used to fabricate large area micromirrors by means of Substrate Conformal Imprint Lithography (SCIL).Secondly,a new lithography technique is developed using a novel bi-layered photomask to fabricate large area micromirror arrays. The experimental results showing a reproducible stable process, high yield, and is consuming less material, time, cost and effort.
Resumo:
In most agroecosystems, nitrogen (N) is the most important nutrient limiting plant growth. One management strategy that affects N cycling and N use efficiency (NUE) is conservation agriculture (CA), an agricultural system based on a combination of minimum tillage, crop residue retention and crop rotation. Available results on the optimization of NUE in CA are inconsistent and studies that cover all three components of CA are scarce. Presently, CA is promoted in the Yaqui Valley in Northern Mexico, the country´s major wheat-producing area in which from 1968 to 1995, fertilizer application rates for the cultivation of irrigated durum wheat (Triticum durum L.) at 6 t ha-1 increased from 80 to 250 kg ha-1, demonstrating the high intensification potential in this region. Given major knowledge gaps on N availability in CA this thesis summarizes the current knowledge of N management in CA and provides insights in the effects of tillage practice, residue management and crop rotation on wheat grain quality and N cycling. Major aims of the study were to identify N fertilizer application strategies that improve N use efficiency and reduce N immobilization in CA with the ultimate goal to stabilize cereal yields, maintain grain quality, minimize N losses into the environment and reduce farmers’ input costs. Soil physical and chemical properties in CA were measured and compared with those in conventional systems and permanent beds with residue burning focusing on their relationship to plant N uptake and N cycling in the soil and how they are affected by tillage and N fertilizer timing, method and doses. For N fertilizer management, we analyzed how placement, time and amount of N fertilizer influenced yield and quality parameters of durum and bread wheat in CA systems. Overall, grain quality parameters, in particular grain protein concentration decreased with zero-tillage and increasing amount of residues left on the field compared with conventional systems. The second part of the dissertation provides an overview of applied methodologies to measure NUE and its components. We evaluated the methodology of ion exchange resin cartridges under irrigated, intensive agricultural cropping systems on Vertisols to measure nitrate leaching losses which through drainage channels ultimately end up in the Sea of Cortez where they lead to algae blooming. A throughout analysis of N inputs and outputs was conducted to calculate N balances in three different tillage-straw systems. As fertilizer inputs are high, N balances were positive in all treatments indicating the risk of N leaching or volatilization during or in subsequent cropping seasons and during heavy rain fall in summer. Contrary to common belief, we did not find negative effects of residue burning on soil nutrient status, yield or N uptake. A labeled fertilizer experiment with urea 15N was implemented in micro-plots to measure N fertilizer recovery and the effects of residual fertilizer N in the soil from summer maize on the following winter crop wheat. Obtained N fertilizer recovery rates for maize grain were with an average of 11% very low for all treatments.