152 resultados para Änderung
Resumo:
Die ubiquitäre Datenverarbeitung ist ein attraktives Forschungsgebiet des vergangenen und aktuellen Jahrzehnts. Es handelt von unaufdringlicher Unterstützung von Menschen in ihren alltäglichen Aufgaben durch Rechner. Diese Unterstützung wird durch die Allgegenwärtigkeit von Rechnern ermöglicht die sich spontan zu verteilten Kommunikationsnetzwerken zusammen finden, um Informationen auszutauschen und zu verarbeiten. Umgebende Intelligenz ist eine Anwendung der ubiquitären Datenverarbeitung und eine strategische Forschungsrichtung der Information Society Technology der Europäischen Union. Das Ziel der umbebenden Intelligenz ist komfortableres und sichereres Leben. Verteilte Kommunikationsnetzwerke für die ubiquitäre Datenverarbeitung charakterisieren sich durch Heterogenität der verwendeten Rechner. Diese reichen von Kleinstrechnern, eingebettet in Gegenstände des täglichen Gebrauchs, bis hin zu leistungsfähigen Großrechnern. Die Rechner verbinden sich spontan über kabellose Netzwerktechnologien wie wireless local area networks (WLAN), Bluetooth, oder UMTS. Die Heterogenität verkompliziert die Entwicklung und den Aufbau von verteilten Kommunikationsnetzwerken. Middleware ist eine Software Technologie um Komplexität durch Abstraktion zu einer homogenen Schicht zu reduzieren. Middleware bietet eine einheitliche Sicht auf die durch sie abstrahierten Ressourcen, Funktionalitäten, und Rechner. Verteilte Kommunikationsnetzwerke für die ubiquitäre Datenverarbeitung sind durch die spontane Verbindung von Rechnern gekennzeichnet. Klassische Middleware geht davon aus, dass Rechner dauerhaft miteinander in Kommunikationsbeziehungen stehen. Das Konzept der dienstorienterten Architektur ermöglicht die Entwicklung von Middleware die auch spontane Verbindungen zwischen Rechnern erlaubt. Die Funktionalität von Middleware ist dabei durch Dienste realisiert, die unabhängige Software-Einheiten darstellen. Das Wireless World Research Forum beschreibt Dienste die zukünftige Middleware beinhalten sollte. Diese Dienste werden von einer Ausführungsumgebung beherbergt. Jedoch gibt es noch keine Definitionen wie sich eine solche Ausführungsumgebung ausprägen und welchen Funktionsumfang sie haben muss. Diese Arbeit trägt zu Aspekten der Middleware-Entwicklung für verteilte Kommunikationsnetzwerke in der ubiquitären Datenverarbeitung bei. Der Schwerpunkt liegt auf Middleware und Grundlagentechnologien. Die Beiträge liegen als Konzepte und Ideen für die Entwicklung von Middleware vor. Sie decken die Bereiche Dienstfindung, Dienstaktualisierung, sowie Verträge zwischen Diensten ab. Sie sind in einem Rahmenwerk bereit gestellt, welches auf die Entwicklung von Middleware optimiert ist. Dieses Rahmenwerk, Framework for Applications in Mobile Environments (FAME²) genannt, beinhaltet Richtlinien, eine Definition einer Ausführungsumgebung, sowie Unterstützung für verschiedene Zugriffskontrollmechanismen um Middleware vor unerlaubter Benutzung zu schützen. Das Leistungsspektrum der Ausführungsumgebung von FAME² umfasst: • minimale Ressourcenbenutzung, um auch auf Rechnern mit wenigen Ressourcen, wie z.B. Mobiltelefone und Kleinstrechnern, nutzbar zu sein • Unterstützung für die Anpassung von Middleware durch Änderung der enthaltenen Dienste während die Middleware ausgeführt wird • eine offene Schnittstelle um praktisch jede existierende Lösung für das Finden von Diensten zu verwenden • und eine Möglichkeit der Aktualisierung von Diensten zu deren Laufzeit um damit Fehlerbereinigende, optimierende, und anpassende Wartungsarbeiten an Diensten durchführen zu können Eine begleitende Arbeit ist das Extensible Constraint Framework (ECF), welches Design by Contract (DbC) im Rahmen von FAME² nutzbar macht. DbC ist eine Technologie um Verträge zwischen Diensten zu formulieren und damit die Qualität von Software zu erhöhen. ECF erlaubt das aushandeln sowie die Optimierung von solchen Verträgen.
Resumo:
Die technischen Oberflächen werden oft als Bauteilversagungsorte definiert. Deswegen ist eine optimale Ausnutzung der Werkstoffeigenschaften ohne mechanische Oberflächenbehandlungsverfahren nicht mehr wegzudenken. Mechanische Randschichtoptimierungsverfahren sind vergleichsweise einfach, Kosten sparend und hocheffektiv. Gerade das Festwalzen wird wegen seiner günstigen Auswirkungen wie die exzellente Oberflächengüte, die hohen Druckeigenspannungen sowie die hohe Oberflächenverfestigung zunehmend an Bedeutung gewinnen. Außerdem wird durch das Festwalzen in einigen Legierungen eine nanokristalline Oberflächenschicht gebildet. Diese brillanten Eigenschaften führen nach einer mechanischen Oberflächenbehandlung zur Erhöhung des Werkstoffwiderstandes unter anderem gegen Verschleiß, Spannungsrisskorrosion und insbesondere zur Steigerung der Schwingfestigkeit. Ein etabliertes Beispiel zur Steigerung der Schwingfestigkeit ist das Festwalzen von Achsen und Kurbelwellen. Auch solche komplexen Komponenten wie Turbinenschaufeln werden zur Schwingfestigkeitssteigerung laserschockverfestigt oder festgewalzt. Die Laserschockverfestigung ist ein relativ neues Verfahren auf dem Gebiet der mechanischen Oberflächenbehandlungen, das z.B. bereits in der Flugturbinenindustrie Anwendung fand und zur Schwingfestigkeitsverbesserung beiträgt. Das Verfahrensprinzip besteht darin, dass ein kurzer Laserimpuls auf die zu verfestigende, mit einer Opferschicht versehene Materialoberfläche fokussiert wird. Das Auftreffen des Laserimpulses auf der verwendeten Opferschicht erzeugt ein expandierendes Plasma, welches eine Schockwelle in randnahen Werkstoffbereichen erzeugt, die elastisch-plastische Verformungen bewirkt. Eine konsekutive Wärmebehandlung, Auslagerung nach dem Festwalzen, nutzt den statischen Reckalterungseffekt. Hierdurch werden die Mikrostrukturen stabilisiert. Die Änderung der Mikrostrukturen kann jedoch zu einer beträchtlichen Abnahme der mittels Festwalzen entstandenen Druckeigenspannungen und der Kaltverfestigungsrate führen. Das Festwalzen bei erhöhter Temperatur bietet eine weitere Möglichkeit die Schwingfestigkeit von metallischen Werkstoffen zu verbessern. Die Mikrostruktur wird durch den Effekt der dynamischen Reckalterung stabilisiert. Die Effekte beim Festwalzen bei erhöhten Temperaturen sind ähnlich dem Warmstrahlen. Das Festwalzen erzeugt Oberflächenschichten mit sehr stabilen Kaltverfestigungen und Druckeigenspannungen. Diese Strukturen haben viele Vorteile im Vergleich zu den durch rein mechanische Verfahren erzeugten Strukturen in Bezug auf die Schwingfestigkeit und die Stabilität der Eigenspannungen. Die Aufgabe der vorliegenden Dissertation war es, Verfahren zur Verbesserung der Schwingfestigkeit im Temperaturbereich zwischen Raumtemperatur und 600 °C zu erforschen. Begleitende mikrostrukturelle sowie röntgenographische Untersuchungen sollen zum Verständnis der Ursachen der Verbesserung beitragen. Für diese Arbeit wurde der in der Praxis häufig verwendete Modellwerkstoff X5CrNi18-10 ausgewählt. Als Randschichtverfestigungsverfahren wurden das Festwalzen, eine Kombination der mechanischen und thermischen, thermomechanischen Verfahren auf der Basis des Festwalzens und eine Laserschockverfestigung verwendet.
Resumo:
Wir entwickeln die Starkfeldnäherung für die Erzeugung hoher Harmonischer in Wasserstoffmolekülen, wobei die Vibrationsbewegung berücksichtigt wird, sowie die laserinduzierte Kopplung zwischen den beiden untersten Born-Oppenheimer-Zuständen im Molekülion, das durch die anfängliche Ionisation des Moleküls erzeugt wird. Wir zeigen, dass die Kopplung bei längeren Laserwellenlängen (≈ 2 μm) wichtig wird und zu einer Reduzierung der Erzeugung von Harmonischen führt, sowie zu einer Änderung des Verhältnisses von Harmonischen in verschiedenen Isotopen. ----------------------------------------------------------------------- We develop the strong-field approximation for high-order harmonic generation in hydrogen molecules, including the vibrational motion and the laser-induced coupling of the lowest two Born-Oppenheimer states in the molecular ion that is created by the initial ionization of the molecule. We show that the field dressing becomes important at long laser wavelengths (≈ 2 μm), leading to an overall reduction of harmonic generation and modifying the ratio of harmonic signals from different isotopes.
Resumo:
Zum 1. November 2010 wird in Deutschland der neue Personalausweis starten, der gegenüber dem bisherigen Dokument drei neue Funktionen enthält: Die Speicherung biometrischer Daten, die optionale Signaturfunktion und den elektronischen Identitätsnachweis, also eine technische Funktion zur elektronischen Authentisierung. Die Rechtsgrundlagen wurden mit der Verabschiedung des neuen Gesetzes über Personalausweise und den elektronischen Identitätsnachweis sowie zur Änderung weiterer Vorschriften am 18. Dezember 2008 im Bundestag gelegt. Wie bei anderen Gesetzgebungsverfahren sind diesem formalen Verfahren wissenschaftliche und politische, in diesem Fall auch technische, Diskussionen vorangegangen, die darüber hinaus während des Gesetzgebungsverfahrens fortgesetzt wurden. Die Studie beschreibt in einem ersten Schritt die Eckdaten und wesentlichen Inhalte der Diskussion und des Gesetzgebungsverfahrens. Im Anschluss erfolgt eine Darlegung einzelner Einflussfaktoren und „Pfade“ der rechtlichen, technischen und politischen Entwicklung, die Einfluss auf bestimmte Innovationsentscheidungen hatten. Daran schließt sich eine Betrachtung der einzelnen Akteure an, bevor der Gesamtprozess bewertet wird.
Resumo:
Niedrige Milchpreise setzen die deutschen Milchbauern unter Kostendruck und veranlassen sie, die Laktationsleistung der Kühe zu erhöhen. Im Zusammenhang mit weiteren Milchleistungssteigerungen kommt einer wiederkäuergerechten Fütterung im Hinblick auf die Vermeidung gesundheitlicher Risiken eine besondere Bedeutung zu. Ziel des Forschungsvorhabens war es, eine Messmethode zur Bestimmung von Fress- und Wiederkäuaktivitäten zu entwickeln, welche die bisherigen methodischen Unzulänglichkeiten überwindet und ermöglicht den qualitativen und quantitativen Einfluss tierindividueller, fütterungsbedingter und leistungsbezogener Faktoren zu erfassen. Hierzu wurde der Prototyp eines Messsystem entwickelt, das in einem Messhalfter integriert wurde. Das Messsystem beinhaltet einen Sensor zur Erfassung der Kaubewegungen, einen Datenlogger für die Speicherung der Messdaten, ein Akkupack zur Energieversorgung, und eine Auswertungssoftware für die automatische Analyse der erfassten Messdaten. Zwecks Überprüfung des Prototypen unter Praxisbedingungen wurden im Rahmen eines Fütterungsversuches Messungen der Fress- und Wiederkäuaktivität durchgeführt. Die Anwendung des Prototypen auf dem Versuchsbetrieb deckte die folgenden methodischen Unzulänglichkeiten auf: - elektromagnetische Störfelder, hervorgerufen durch die auf den Versuchsbetrieb verwendeten Wiegetröge zur Erfassung der Futteraufnahme, - Fehlmessungen aufgrund verrutschender Halfter, bedingt durch die große Variation in den Schädelmaßen der Versuchstiere, - keine hinreichende Differenzierung der einzelnen Verhaltenstypen bei schnell aufeinanderfolgenden unterschiedlichen Verhaltensmustern. Die aufgetretenen elektrischen Probleme konnten mittels einer verbesserten Abschirmung gegen elektromagnetische Felder behoben werden. Fehlmessungen aufgrund sich verschiebender Halfter konnten durch eine Änderung des Halfterdesigns verringert werden. Es war jedoch nicht möglich, diese Störgröße gänzlich zu beseitigen. Ebenso war es nicht möglich, die Differenzierung der einzelnen Verhaltenstypen bei schnell aufeinanderfolgenden unterschiedlichen Verhaltensmustern mittels einer Änderung im Auswertealgorithmus zu verbessern. Um diesen beiden Problemen Rechnung zu tragen, wurden die Ergebnisse der Auswertungssoftware mittels einer Sichtkontrolle der Messwertkurven validiert. Nach der Validierung verblieben für die statistische Auswertung folgende Messergebnisse: - Anzahl auswertbarer Einzeltiere: 9 - Anzahl auswertbarer Messtage: 73 - Anzahl auswertbarer Wiederkäuphasen: 512 - Anzahl auswertbarer Fressphasen: 676 - Anzahl auswertbarer Einzelboli: 11.347 In der statistischen Auswertung wurden Korrelation der Charakteristika der Wiederkäuboli: Länge des Bolus in Sekunden, Anzahl der Kauschläge pro Bolus und der Frequenz der Kauschläge pro Sekunde und Bolus, der Wiederkäuphasen: Länge der Wiederkäuphasen in Minuten, Anzahl Boli in der Wiederkäuphase und die Anzahl der Kauschläge in der Wiederkäuphase und der Wiederkäudauer pro Tag (in Minuten) mit den erfassten Einflussfaktoren: tierindividuelle Parameter, Milchparameter und Fütterungsparameter berechnet. Um wechselseitige Beziehungen der Einflussfaktoren untereinander besser darstellen zu können, wurde im nächsten Schritt eine multiple lineare Regression durchgeführt. Zur Erfassung der Gewichtung der Einflussfaktoren wurde als dritte statistische Methode eine Regressionsbaumanalyse berechnet. Die Charakteristika der Wiederkäuboli wiesen eine große tierindividuelle Variation zwischen den Einzeltieren auf. Die Milchkühe käuten im Mittel 46 ± 12 Sekunden wieder und vollzogen in dieser Zeit 60 ± 25 Kauschläge bei einer mittleren Kauschlagfrequenz von 1,3 ± 0,4 Kauschlägen pro Sekunde. Die größte tierindividuelle Variation mit 53,1 % wies der Parameter Anzahl der Kauschläge pro Bolus auf. Die Frequenz der Kauschläge pro Bolus wurde in hohem Maße von der Anzahl der Kauschläge pro Bolus beeinflusst (R² = 0,71) und nur in geringem Maße von der Länge des Bolus (R² = 0,21). Das geringe Bestimmtheitsmaß der multiplen Regression der Länge des Bolus (R² = 0,18) deutet auf eine sehr geringe Beeinflussung durch alle erfassten Einflussfaktoren hin. Ebenso wie die Charakteristika der Wiederkäuboli wiesen die Charakteristika der Wiederkäuphasen eine hohe inter- und intraindividuelle Variation (>45%) und bei allen Versuchstieren eine hohe Korrelation der Charakteristika untereinander auf (r = 0,74 bis r =0,98). In der Regressionsanalyse konnte keiner der geprüften Einflussfaktoren einen nennenswerten Erklärungswert liefern. Die Variationen in der Länge der Wiederkäuphasen, Anzahl der Boli pro Phase und der Anzahl der Kauschläge pro Phase wurden weder von der Fütterung, noch vom Tier oder der Milchleistung in nennenswerter Weise geprägt. Eine Beurteilung dieser Einflussfaktoren anhand der Beobachtung einzelner Wiederkäuphasen ist somit nicht möglich. Die Fress- und Wiederkäudauer pro Tag wiesen eine große tierindividuelle Variation auf (37,9 % bzw. 29,0 %). Bei beiden Verhaltensweisen ist die intraindividuelle Variation geringer als die interindividuelle Variation (Fressdauer: 37,9 zu 23,6 %; Wiederkäudauer: 29,0 zu 9%). Der geringe Wert des intraindividuellen Variationskoeffizienten der Wiederkäudauer pro Tag legt eine starke tierindividuelle Determinierung der Wiederkäuaktivität nahe.
Resumo:
The surge in the urban population evident in most developing countries is a worldwide phenomenon, and often the result of drought, conflicts, poverty and the lack of education opportunities. In parallel with the growth of the cities is the growing need for food which leads to the burgeoning expansion of urban and peri-urban agriculture (UPA). In this context, urban agriculture (UA) contributes significantly to supplying local markets with both vegetable and animal produce. As an income generating activity, UA also contributes to the livelihoods of poor urban dwellers. In order to evaluate the nutrient status of urban soils in relation to garden management, this study assessed nutrient fluxes (inputs and outputs) in gardens on urban Gerif soils on the banks of the River Nile in Khartoum, the capital city of Sudan. To achieve this objective, a preliminary baseline survey was carried out to describe the structure of the existing garden systems. In cooperation with the author of another PhD thesis (Ms. Ishtiag Abdalla), alternative uses of cow dung in brick making kilns in urban Khartoum were assessed; and the socio-economic criteria of the brick kiln owners or agents, economical and plant nutritional value of animal dung and the gaseous emission related to brick making activities were assessed. A total of 40 household heads were interviewed using a semi-structured questionnaire to collect information on demographic, socio-economic and migratory characteristics of the household members, the gardening systems used and the problems encountered in urban gardening. Based on the results of this survey, gardens were divided into three groups: mixed vegetable-fodder gardens, mixed vegetable-subsistence livestock gardens and pure vegetable gardens. The results revealed that UA is the exclusive domain of men, 80% of them non-native to Khartoum. The harvested produce in all gardens was market oriented and represented the main source of income for 83% of the gardeners. Fast growing leafy vegetables such as Jew’s mallow (Corchorous olitorius L.), purslane (Portulaca oleracea L.) and rocket (Eruca sativa Mill.) were the dominant cultivated species. Most of the gardens (95%) were continuously cultivated throughout the year without any fallow period, unless they were flooded. Gardeners were not generally aware of the importance of crop diversity, which may help them overcome the strongly fluctuating market prices for their produce and thereby strengthen the contributions of UA to the overall productivity of the city. To measure nutrient fluxes, four gardens were selected and their nutrients inputs and outputs flows were monitored. In each garden, all plots were monitored for quantification of nutrient inputs and outputs. To determine soil chemical fertility parameters in each of the studied gardens, soil samples were taken from three selected plots at the beginning of the study in October 2007 (gardens L1, L2 and H1) and in April 2008 (garden H2) and at the end of the study period in March 2010. Additional soil sampling occurred in May 2009 to assess changes in the soil nutrient status after the River Nile flood of 2008 had receded. Samples of rain and irrigation water (river and well-water) were analyzed for nitrogen (N), phosphorus (P), potassium (K) and carbon (C) content to determine their nutrient inputs. Catchment traps were installed to quantify the sediment yield from the River Nile flood. To quantify the nutrient inputs of sediments, samples were analyzed for N, P, K and organic carbon (Corg) content, cation exchange capacity (CEC) and the particle size distribution. The total nutrient inputs were calculated by multiplying the sediment nutrient content by total sediment deposits on individual gardens. Nutrient output in the form of harvested yield was quantified at harvest of each crop. Plant samples from each field were dried, and analyzed for their N, P, K and Corg content. Cumulative leaching losses of mineral N and P were estimated in a single plot in garden L1 from December 1st 2008 to July 1st 2009 using 12 ion exchange resins cartridges. Nutrients were extracted and analyzed for nitrate (NO3--N), ammonium (NH4+-N) and phosphate PO4-3-P. Changes in soil nutrient balance were assessed as inputs minus outputs. The results showed that across gardens, soil N and P concentrations increased from 2007 to 2009, while particle size distribution remained unchanged. Sediment loads and their respective contents of N, P and Corg decreased significantly (P < 0.05) from the gardens of the downstream lowlands (L1 and L2) to the gardens of the upstream highlands (H1 and H2). No significant difference was found in K deposits. None of the gardens received organic fertilizers and the only mineral fertilizer applied was urea (46-0-0). This equaled 29, 30, 54, and 67% of total N inputs to gardens L1, L2, H1, and H2, respectively. Sediment deposits of the River Nile floods contributed on average 67, 94, 6 and 42% to the total N, P, K and C inputs in lowland gardens and 33, 86, 4 and 37% of total N, P, K and C inputs in highland gardens. Irrigation water and rainfall contributed substantially to K inputs representing 96, 92, 94 and 96% of total K influxes in garden L1, L2, H1 and H2, respectively. Following the same order, total annual DM yields in the gardens were 26, 18, 16 and 1.8 t ha-1. Annual leaching losses were estimated to be 0.02 kg NH4+-N ha-1 (SE = 0.004), 0.03 kg NO3--N ha-1 (SE = 0.002) and 0.005 kg PO4-3-P ha-1 (SE = 0.0007). Differences between nutrient inputs and outputs indicated negative nutrient balances for P and K and positive balances of N and C for all gardens. The negative balances in P and K call for adoptions of new agricultural techniques such as regular manure additions or mulching which may enhance the soil organic matter status. A quantification of fluxes not measured in our study such as N2-fixation, dry deposition and gaseous emissions of C and N would be necessary to comprehensively assess the sustainability of these intensive gardening systems. The second part of the survey dealt with the brick making kilns. A total of 50 brick kiln owners/or agents were interviewed from July to August 2009, using a semi-structured questionnaire. The data collected included general information such as age, family size, education, land ownership, number of kilns managed and/or owned, number of months that kilns were in operation, quantity of inputs (cow dung and fuel wood) used, prices of inputs and products across the production season. Information related to the share value of the land on which the kilns were built and annual income for urban farmers and annual returns from dung for the animal raisers was also collected. Using descriptive statistics, budget calculation and Gini coefficient, the results indicated that renting the land to brick making kilns yields a 5-fold higher return than the rent for agriculture. Gini coefficient showed that the kiln owners had a more equal income distribution compared to farmers. To estimate emission of greenhouse gases (GHGs) and losses of N, P, K, Corg and DM from cow dung when used in brick making, samples of cow dung (loose and compacted) were collected from different kilns and analyzed for their N, P, K and Corg content. The procedure modified by the Intergovernmental Panel on Climate Change (IPCC, 1994) was used to estimate the gaseous emissions of cow dung and fuel wood. The amount of deforested wood was estimated according to the default values for wood density given by Dixon et al. (1991) and the expansion ratio for branches and small trees given by Brown et al. (1989). The data showed the monetary value of added N and P from cow dung was lower than for mineral fertilizers. Annual consumption of compacted dung (381 t DM) as biomass fuel by far exceeded the consumption of fuel wood (36 t DM). Gaseous emissions from cow dung and fuel wood were dominated by CO2, CO and CH4. Considering that Gerif land in urban Khartoum supports a multifunctional land use system, efficient use of natural resources (forest, dung, land and water) will enhance the sustainability of the UA and brick making activities. Adoption of new kilns with higher energy efficiency will reduce the amount of biomass fuels (cow dung and wood) used the amount of GHGs emitted and the threat to the few remaining forests.
Resumo:
Inhalt dieser Arbeit ist ein Verfahren zur numerischen Lösung der zweidimensionalen Flachwassergleichung, welche das Fließverhalten von Gewässern, deren Oberflächenausdehnung wesentlich größer als deren Tiefe ist, modelliert. Diese Gleichung beschreibt die gravitationsbedingte zeitliche Änderung eines gegebenen Anfangszustandes bei Gewässern mit freier Oberfläche. Diese Klasse beinhaltet Probleme wie das Verhalten von Wellen an flachen Stränden oder die Bewegung einer Flutwelle in einem Fluss. Diese Beispiele zeigen deutlich die Notwendigkeit, den Einfluss von Topographie sowie die Behandlung von Nass/Trockenübergängen im Verfahren zu berücksichtigen. In der vorliegenden Dissertation wird ein, in Gebieten mit hinreichender Wasserhöhe, hochgenaues Finite-Volumen-Verfahren zur numerischen Bestimmung des zeitlichen Verlaufs der Lösung der zweidimensionalen Flachwassergleichung aus gegebenen Anfangs- und Randbedingungen auf einem unstrukturierten Gitter vorgestellt, welches in der Lage ist, den Einfluss topographischer Quellterme auf die Strömung zu berücksichtigen, sowie in sogenannten \glqq lake at rest\grqq-stationären Zuständen diesen Einfluss mit den numerischen Flüssen exakt auszubalancieren. Basis des Verfahrens ist ein Finite-Volumen-Ansatz erster Ordnung, welcher durch eine WENO Rekonstruktion unter Verwendung der Methode der kleinsten Quadrate und eine sogenannte Space Time Expansion erweitert wird mit dem Ziel, ein Verfahren beliebig hoher Ordnung zu erhalten. Die im Verfahren auftretenden Riemannprobleme werden mit dem Riemannlöser von Chinnayya, LeRoux und Seguin von 1999 gelöst, welcher die Einflüsse der Topographie auf den Strömungsverlauf mit berücksichtigt. Es wird in der Arbeit bewiesen, dass die Koeffizienten der durch das WENO-Verfahren berechneten Rekonstruktionspolynome die räumlichen Ableitungen der zu rekonstruierenden Funktion mit einem zur Verfahrensordnung passenden Genauigkeitsgrad approximieren. Ebenso wird bewiesen, dass die Koeffizienten des aus der Space Time Expansion resultierenden Polynoms die räumlichen und zeitlichen Ableitungen der Lösung des Anfangswertproblems approximieren. Darüber hinaus wird die wohlbalanciertheit des Verfahrens für beliebig hohe numerische Ordnung bewiesen. Für die Behandlung von Nass/Trockenübergangen wird eine Methode zur Ordnungsreduktion abhängig von Wasserhöhe und Zellgröße vorgeschlagen. Dies ist notwendig, um in der Rechnung negative Werte für die Wasserhöhe, welche als Folge von Oszillationen des Raum-Zeit-Polynoms auftreten können, zu vermeiden. Numerische Ergebnisse die die theoretische Verfahrensordnung bestätigen werden ebenso präsentiert wie Beispiele, welche die hervorragenden Eigenschaften des Gesamtverfahrens in der Berechnung herausfordernder Probleme demonstrieren.
Resumo:
Bei der Arbeit an sicherheitsgerichteten Kommunikationsprotokollen stellten sich immer wieder die Fragen nach der Eignung von einzelnen Mechanismen der Protokolle, um den Gefährdungen entsprechende Maßnahmen zur Beherrschung entgegenzusetzen. Dabei waren durchweg die Anforderungen der IEC 61508 mit dem Safety Integrity Level 3 zu erfüllen. Die IEC 61508-2 ist mit 5 Zeilen Umfang für die wesentlichen Anforderungen an die sicherheitsgerichtete Kommunikation sehr kurz gehalten und die IEC 61784-3 war zu Beginn der Arbeiten noch nicht veröffentlicht. Aber die IEC 61784-3 stellt auch heute nur einen unvollständigen Kriterienkatalog zusammen. Insbesondere die in IEC 61508-2 geforderte quantitative Analyse wird in der IEC 61784-3 nicht ausreichend thematisiert. In bisherigen sicherheitsgerichteten Protokollen und den relevanten Normen des Anwendungsbereichs fanden die Gefährdungspotentiale, wie Masquerading und Adressierung in offenen Übertragungssystemen, absichtliche Unterminierung der Sicherheitsmechanismen und fehlerhafte Konfiguration keine ausreichende Beachtung und die Gefährdungen durch absehbaren Missbrauch, absehbare Fehlbedienung und unberechtigter Zugriff auf sichere Kommunikationseinrichtungen wurde nur in Randgebieten diskutiert. Hier zeigt die vorliegende Arbeit die Bedeutung dieser für den Einsatz von sicherheitsgerichteten Kommunikationsprotokollen im industriellen Umfeld auf und folgert daraus die entsprechenden Maßnahmen, die in der Verantwortung des Anwenders liegen, bzw. zum Teil auch durch Protokollmechanismen beherrscht werden können. Die Arbeit stellt einen umfassenden Gefährdungskatalog auf und bewertet nach diesem Katalog die am weitest verbreiteten sicherheitsgerichteten Kommunikationsprotokolle nach einem einheitlichen Maßstab. Weiter zeigt die vorgelegte Arbeit, dass auch ein existierendes Zertifikat gemäß IEC 61508 SIL3 nicht in jedem Fall ausreichend ist, um die Eignung eines Protokolls für den Einsatz gemäß dem aktuellen Stand der Normen zu bestätigen. Hervor zu heben ist insbesondere die quantitative Bewertung jeder einzelnen Maßnahme der Protokolle. Bislang wurde diese nur für die Beherrschung von verfälschten Nachrichten durchgeführt. Die Arbeit führt diese quantitative Bewertung der eingesetzten Maßnahmen systematisch durch und zeigt dabei, dass diese Bewertung dringend erforderlich ist, da die betrachteten öffentlichen Protokolle nicht die für SIL3 notwendige Güte für alle ihre Maßnahmen aufweisen, bzw. aufwiesen. Einer der Schwerpunkte dieser Arbeit ist die Definition von Verarbeitungsmodellen für die Berechnung der maximalen Reaktionszeit und der Worst-Case Reaktionszeit. Dazu wurde ein Modell aus 5 Komponenten erstellt, dass geeignet ist, die Reaktionszeit über ein Kommunikationssystem für die im industriellen Umfeld gebräuchlichen Anwendungen zu untersuchen. Diese 5 Komponenten, das Eingangsmodul, die Sicherheitssteuerung, die Kommunikation zwischen beiden, sowie das Ausgangsmodul und die Kommunikation zwischen diesem und der Sicherheitssteuerung. Anhand dieses Modells wurde die maximale Reaktionszeit definiert. Dies ist die Zeit, die von der Änderung eines physikalischen Eingangssignals der Eingangskomponente, bis zur zugehörigen Reaktion des physikalischen Ausgangssignals der Ausgangskomponente, über die Sicherheitssteuerung hinweg, benötigt wird. Die maximale Reaktionszeit betrachtet dabei den Fall, dass im gesamten System aus diesen 5 Komponenten kein Fehler eine Wirkung entfaltet. Die Worst-Case Reaktionszeiten der Protokolle sind auf Grund der verschiedenen Konzepte sehr differenziert zu betrachten. Erschwerend kommt hier noch hinzu, dass die im konkreten System erreichte minimale Worst-Case Reaktionszeit stark von der Implementierung des jeweiligen Herstellers abhängt. Ebenso problematisch ist die unterschiedliche Modellbildung der jeweiligen Protokoll-Organisationen. Es werden Fehlerausschlüsse gemacht, wie die Annahme, dass nur ein Fehler auftritt und dieser Fehler sich nicht auf die Verbindung zwischen Eingangsmodul und Sicherheitssteuerung und auf die Verbindung zwischen Sicherheitssteuerung und Ausgangsmodul gleichzeitig auswirken kann. Da für den sicherheitsgerichteten Einsatz die maximale Reaktionszeit mit Fehlern die relevante Betrachtungseinheit darstellt, wurden anhand des Modells die Worst-Case 1 und 2 Reaktionszeiten definiert. Die erste definiert die Zeit die eine Reaktion maximal benötigt, wenn im Kommunikationssystem eine Fehlerwirkung vorliegt und bei der zweiten wird angenommen, dass mehrere der 5 Komponenten von Fehlerwirkungen betroffen sein können. Um einen vertieften Einblick in die Thematik zu erhalten, wurde im Rahmen dieser Arbeit ein eigenes sicherheitsgerichtetes Kommunikationsprotokoll spezifiziert, entworfen und realisiert. Hierbei wurde besonderer Augenmerk auf die Wirksamkeit des Verfälschungsschutzes mittels CRCs für kurze Nachrichten gelegt und ebenso die Wirksamkeit gekoppelter CRCs betrachtet.
Resumo:
Die Untersuchung des dynamischen aeroelastischen Stabilitätsverhaltens von Flugzeugen erfordert sehr komplexe Rechenmodelle, welche die wesentlichen elastomechanischen und instationären aerodynamischen Eigenschaften der Konstruktion wiedergeben sollen. Bei der Modellbildung müssen einerseits Vereinfachungen und Idealisierungen im Rahmen der Anwendung der Finite Elemente Methode und der aerodynamischen Theorie vorgenommen werden, deren Auswirkungen auf das Simulationsergebnis zu bewerten sind. Andererseits können die strukturdynamischen Kenngrößen durch den Standschwingungsversuch identifiziert werden, wobei die Ergebnisse Messungenauigkeiten enthalten. Für eine robuste Flatteruntersuchung müssen die identifizierten Unwägbarkeiten in allen Prozessschritten über die Festlegung von unteren und oberen Schranken konservativ ermittelt werden, um für alle Flugzustände eine ausreichende Flatterstabilität sicherzustellen. Zu diesem Zweck wird in der vorliegenden Arbeit ein Rechenverfahren entwickelt, welches die klassische Flatteranalyse mit den Methoden der Fuzzy- und Intervallarithmetik verbindet. Dabei werden die Flatterbewegungsgleichungen als parameterabhängiges nichtlineares Eigenwertproblem formuliert. Die Änderung der komplexen Eigenlösung infolge eines veränderlichen Einflussparameters wird mit der Methode der numerischen Fortsetzung ausgehend von der nominalen Startlösung verfolgt. Ein modifizierter Newton-Iterations-Algorithmus kommt zur Anwendung. Als Ergebnis liegen die berechneten aeroelastischen Dämpfungs- und Frequenzverläufe in Abhängigkeit von der Fluggeschwindigkeit mit Unschärfebändern vor.
Resumo:
Bei der Rückführung von Kurzumtriebsplantagen (KUP) in konventionelle landwirtschaftliche Nutzung erfolgt zur Saatbettvorbereitung für die Folgekulturen eine intensive Bodenbearbeitung, um Wurzeln und Erntereste zu zerkleinern und in den Boden einzuarbeiten. Dies erhöht einerseits die Mineralisierung der unter KUP akkumulierten organischen Bodensubstanz (OBS), andererseits werden dem Boden hohe Mengen an Kohlenstoff (C) mit den Ernteresten zugeführt. In dieser Arbeit wurde an den Standorten Georgenhof Pappel, Georgenhof Weide und Wachtum Pappel in einem Feldversuch untersucht, wie sich unterschiedliche Bodenbearbeitungstiefen von 5, 15 und 30 cm während der Rückführung der langjährig bewirtschafteten KUPs in Acker- und Grünlandnutzung auf die C-Dynamik im Boden auswirken. Im Mittelpunkt stand dabei die Überprüfung der Annahme, ob durch eine reduzierte Bodenbearbeitung und eine nachfolgende Grünlandnutzung die Mineralisierung der OBS gemindert werden kann. Die nach der letzten Holzernte auf den Flächen verbliebenen und in den Boden eingearbeiteten oberirdischen Erntereste führten dem Boden, neben der in der zerkleinerten Wurzelbiomasse gespeicherten C-Menge von 1-9 t C ha-1, zusätzlich zwischen 12 und 17 t C ha-1 zu. Der Anstieg der freien, leichten organischen Fraktion des Bodens direkt nach dem Umbruch der Flächen sowie im Zuge der Bodenbearbeitung verfügbar gewordene leicht abbaubare organische Verbindungen, steigerten die mikrobielle Aktivität. Dies führte trotz der intensiven Bodenbearbeitung zu einer Erhöhung des mit Makroaggregaten assoziierten C nach dem Fräsen der Flächen. Die erneute Bodenbearbeitung der Ackerparzellen ein Jahr nach dem Umbruch führte an allen Standorten und in allen Bearbeitungstiefen durch die Zerstörung von Makroaggregaten jedoch zu einer Abnahme des C in dieser Fraktion. Demgegenüber zeigte sich durch die ausbleibende Bodenbearbeitung unter Grünlandnutzung auf beiden Flächen am Georgenhof eine bessere Stabilisierung des C in den Makroaggregaten. Am Standort Wachtum nahm der C in der Makroaggregatfraktion auch unter Grünland ab, da die Aggregierung und somit auch die physikalische Stabilisierung der organischen Substanz in diesem sandigeren Boden gering ist. Dies spiegelte sich in Verlusten von 10% in der leichten organischen Fraktion wider. Die mikrobielle Biomasse nahm innerhalb eines Jahres an allen Standorten ab, verursacht durch die abnehmende Verfügbarkeit der organischen Substanz, was sich in gesunkenen Cmik/Corg Verhältnisse niederschlug. Dennoch hat ein Jahr nach dem Umbruch der KUPs die in den Ernteresten gespeicherte C Menge auf allen Flächen im Zuge des fortschreitenden mikrobiellen Abbaus um bis zu 23 t C ha-1 abgenommen. Da sich keine Änderung in der Gesamtkohlenstoffmenge des Mineralbodens feststellen ließ, wurden mögliche Mineralisationsverluste der OBS durch Abbauprodukte der Erntereste ausgeglichen. Am Standort Georgenhof Weide zeigte sich dabei in den tiefen Fräsvarianten eine geringere Abnahme der in den Ernteresten gespeicherten C-Menge gegenüber den flachen Fräsvarianten. Ebenso deutete ein höheres C/N Verhältnis der Erntereste unter Grünland gegenüber Ackernutzung auf allen drei Flächen auf einen verlangsamten Abbau der Erntereste hin. In einem Inkubationsversuch im Labor wurde das hohe N-Immobilisierungspotential der eingearbeiteten Kronen- und Wurzelreste insbesondere zu Abbaubeginn der Erntereste nachgewiesen. Eine ansteigende N-Immobilisierung nach einer zusätzlichen N-Gabe deutete an, dass eine N-Düngung im Feld möglicherweise erst nach Abbau der leicht verfügbaren Verbindungen der Erntereste empfehlenswert ist. Höhere Ergosterol/Cmik Verhältnisse nach Einarbeitung der Erntereste zeigten den gestiegenen Anteil an saprotrophen Pilzen in der mikrobiellen Gemeinschaft an. Ein Jahr nach der Rückführung der KUPs in landwirtschaftliche Nutzung deuteten die C-Verluste aus den labilen Bodenfraktionen erste Verluste des organischen Kohlenstoffs des Mineralbodens an. Allerdings ließ sich noch kein eindeutiger Einfluss der unterschiedlichen Frästiefen oder Nachnutzungen auf die C-Fraktionen im Mineralboden feststellen, so dass sich im Hinblick auf die anfangs gestellte Annahme einer verringerten C-Mineralisierung durch eine reduzierte Bodenbearbeitung noch keine Aussage treffen lässt.
Resumo:
Diese Dissertation stellt eine Studie da, welche sich mit den Änderungen in der Governance der Hochschulbildung in Vietnam beschäftigt. Das zentrale Ziel dieser Forschungsarbeit ist die Untersuchung der Herkunft und Änderung in der Beziehung der Mächte zwischen dem vietnamesischen Staat und den Hochschulbildungsinstituten (HI), welche hauptsächlich aus der Interaktion dieser beiden Akteure resultiert. Die Macht dieser beiden Akteure wurde im sozialen Bereich konstruiert und ist hauptsächlich durch ihre Nützlichkeit und Beiträge für die Hochschulbildung bestimmt. Diese Arbeit beschäftigt sich dabei besonders mit dem Aspekt der Lehrqualität. Diese Studie nimmt dabei die Perspektive einer allgemeinen Governance ein, um die Beziehung zwischen Staat und HI zu erforschen. Zudem verwendet sie die „Resource Dependence Theory“ (RDT), um das Verhalten der HI in Bezug auf die sich verändernde Umgebung zu untersuchen, welche durch die Politik und eine abnehmende Finanzierung charakterisiert ist. Durch eine empirische Untersuchung der Regierungspolitik sowie der internen Steuerung und den Praktiken der vier führenden Universitäten kommt die Studie zu dem Schluss, dass unter Berücksichtigung des Drucks der Schaffung von Einkommen die vietnamesischen Universitäten sowohl Strategien als auch Taktiken entwickelt haben, um Ressourcenflüsse und Legitimität zu kontrollieren. Die Entscheidungs- und Zielfindung der Komitees, die aus einer Mehrheit von Akademikern bestehen, sind dabei mächtiger als die der Manager. Daher werden bei initiativen Handlungen der Universitäten größtenteils Akademiker mit einbezogen. Gestützt auf die sich entwickelnden Muster der Ressourcenbeiträge von Akademikern und Studierenden für die Hochschulbildung prognostiziert die Studie eine aufstrebende Governance Konfiguration, bei der die Dimensionen der akademischen Selbstverwaltung und des Wettbewerbsmarktes stärker werden und die Regulation des Staates rational zunimmt. Das derzeitige institutionelle Design und administrative System des Landes, die spezifische Gewichtung und die Koordinationsmechanismen, auch als sogenanntes effektives Aufsichtssystem zwischen den drei Schlüsselakteuren - der Staat, die HI/Akademiker und die Studierenden – bezeichnet, brauchen eine lange Zeit zur Detektion und Etablierung. In der aktuellen Phase der Suche nach einem solchen System sollte die Regierung Management-Tools stärken, wie zum Beispiel die Akkreditierung, belohnende und marktbasierte Instrumente und das Treffen informations-basierter Entscheidungen. Darüber hinaus ist es notwendig die Transparenz der Politik zu erhöhen und mehr Informationen offenzulegen.
Resumo:
Das Ziel der vorliegenden Arbeit war die Herstellung und Charakterisierung mikromechanisch durchstimmbarer, dielektrischer Fabry-Pérot-Filter im nahen Infrarot-Bereich bei einer Zentralwellenlänge von λc = 950 nm. Diese Bauelemente wurden auf Basis kostengünstiger Technologien realisiert, dank deren Entwicklung extreme Miniaturisierung und gleichzeitig hohe spektrale Anforderungen möglich sind. Der Vorteil solcher Filter liegt darin, dass sie direkt in einen Photodetektor integriert werden können und mit ganz wenigen Komponenten zu einem kompakten Spektrometermodul zusammengesetzt werden können. Die Baugröße ist nur durch die Größe des Photodetektors limitiert und die gesamte Intensität des einfallenden Lichts kann vorteilhaft auf eine einzelne Filtermembran des Fabry-Pérot-Filters fokussiert werden. Für den Filteraufbau werden zwei hochreflektierende, dielektrische DBR-Spiegel, ein organisches Opferschichtmaterial, welches zur Erzeugung einer Luftkavität im Filter dient, und zwei unterschiedliche Elektroden aus ITO und Aluminium verwendet. Die mikromechanische Auslenkung der freigelegten Filtermembran geschieht mittels elektrostatischer Aktuation, wobei auf diese Weise die Kavitätshöhe des Fabry-Pérot-Filters geändert wird und somit dieser im erforderlichen Spektralbereich optisch durchgestimmt wird. Das in dieser Arbeit gewählte Filterkonzept stellt eine Weiterentwicklung eines bereits bestehenden Filterkonzepts für den sichtbaren Spektralbereich dar. Zum Einen wurden in dieser Arbeit das vertikale und das laterale Design der Filterstrukturen geändert. Eine entscheidende Änderung lag im mikromechanisch beweglichen Teil des Fabry-Pérot-Filters. Dieser schließt den oberen DBR-Spiegel und ein aus dielektrischen Schichten und der oberen Aluminium-Elektrode bestehendes Membranhaltesystem ein, welches später durch Entfernung der Opferschicht freigelegt wird. Die Fläche des DBR-Spiegels wurde auf die Fläche der Filtermembran reduziert und auf dem Membranhaltesystem positioniert. Zum Anderen wurde im Rahmen dieser Arbeit der vertikale Schichtaufbau des Membranhaltesystems variiert und der Einfluss der gewählten Materialien auf die Krümmung der freistehenden Filterstrukturen, auf das Aktuationsverhalten und auf die spektralen Eigenschaften des gesamten Filters untersucht. Der Einfluss der mechanischen Eigenschaften dieser Materialien spielt nämlich eine bedeutende Rolle bei der Erhaltung der erforderlichen optischen Eigenschaften des gesamten Filters. Bevor Fabry-Pérot-Filter ausgeführt wurden, wurde die mechanische Spannung in den einzelnen Materialien des Membranhaltesystems bestimmt. Für die Messung wurde Substratkrümmungsmethode angewendet. Es wurde gezeigt, dass die Plasmaanregungsfrequenzen der plasmaunterstützten chemischen Gasphasenabscheidung bei einer Prozesstemperatur von 120 °C die mechanische Spannung von Si3N4 enorm beeinflussen. Diese Ergebnisse wurden im Membranhaltesystem umgesetzt, wobei verschiedene Filter mit unterschiedlichen mechanischen Eigenschaften des Membranhaltesystems gezeigt wurden. Darüber hinaus wurden optische Eigenschaften der Filter unter dem Einfluss des lateralen Designs der Filterstrukturen untersucht. Bei den realisierten Filtern wurden ein optischer Durchstimmbereich von ca. 70 nm und eine spektrale Auflösung von 5 nm erreicht. Die erreichte Intensität der Transmissionslinie liegt bei 45-60%. Diese Parameter haben für den späteren spektroskopischen Einsatz der realisierten Fabry-Pérot-Filter eine hohe Bedeutung. Die Anwendung soll erstmalig in einem „Proof of Concept“ stattfinden, wobei damit die Oberflächentemperatur eines GaAs-Wafers über die Messung der spektralen Lage seiner Bandlücke bestimmt werden kann.