848 resultados para Anwendung
Resumo:
Heilkräuter sind während des Trocknungsprozesses zahlreichen Einflüssen ausgesetzt, welche die Qualität des Endproduktes entscheidend beeinflussen. Diese Forschungsarbeit beschäftigt sich mit der Trocknung von Zitronenmelisse (Melissa officinalis .L) zu einem qualitativ hochwertigen Endprodukt. Es werden Strategien zur Trocknung vorgeschlagen, die experimentelle und mathematische Aspekte mit einbeziehen, um bei einer adäquaten Produktivität die erforderlichen Qualitätsmerkmale im Hinblick auf Farbeänderung und Gehalt an ätherischen Ölen zu erzielen. Getrocknete Zitronenmelisse kann zurzeit, auf Grund verschiedener Probleme beim Trocknungsvorgang, den hohen Qualitätsanforderungen des Marktes nicht immer genügen. Es gibt keine standardisierten Informationen zu den einzelnen und komplexen Trocknungsparametern. In der Praxis beruht die Trocknung auf Erfahrungswerten, bzw. werden Vorgehensweisen bei der Trocknung anderer Pflanzen kopiert, und oftmals ist die Trocknung nicht reproduzierbar, oder beruht auf subjektiven Annäherungen. Als Folge dieser nicht angepassten Wahl der Trocknungsparameter entstehen oftmals Probleme wie eine Übertrocknung, was zu erhöhten Bruchverlusten der Blattmasse führt, oder eine zu geringe Trocknung, was wiederum einen zu hohen Endfeuchtegehalt im Produkt zur Folge hat. Dies wiederum mündet zwangsläufig in einer nicht vertretbaren Farbänderung und einen übermäßigen Verlust an ätherischen Ölen. Auf Grund der unterschiedlichen thermischen und mechanischen Eigenschaften von Blättern und Stängel, ist eine ungleichmäßige Trocknung die Regel. Es wird außerdem eine unnötig lange Trocknungsdauer beobachtet, die zu einem erhöhten Energieverbrauch führt. Das Trocknen in solaren Tunneln Trocknern bringt folgendes Problem mit sich: wegen des ungeregelten Strahlungseinfalles ist es schwierig die Trocknungstemperatur zu regulieren. Ebenso beeinflusst die Strahlung die Farbe des Produktes auf Grund von photochemischen Reaktionen. Zusätzlich erzeugen die hohen Schwankungen der Strahlung, der Temperatur und der Luftfeuchtigkeit instabile Bedingungen für eine gleichmäßige und kontrollierbare Trocknung. In Anbetracht der erwähnten Probleme werden folgende Forschungsschwerpunkte in dieser Arbeit gesetzt: neue Strategien zur Verbesserung der Qualität werden entwickelt, mit dem Ziel die Trocknungszeit und den Energieverbrauch zu verringern. Um eine Methodik vorzuschlagen, die auf optimalen Trocknungsparameter beruht, wurden Temperatur und Luftfeuchtigkeit als Variable in Abhängigkeit der Trocknungszeit, des ätherischer Ölgehaltes, der Farbänderung und der erforderliche Energie betrachtet. Außerdem wurden die genannten Parametern und deren Auswirkungen auf die Qualitätsmerkmale in solaren Tunnel Trocknern analysiert. Um diese Ziele zu erreichen, wurden unterschiedliche Ansätze verfolgt. Die Sorption-Isothermen und die Trocknungskinetik von Zitronenmelisse und deren entsprechende Anpassung an verschiedene mathematische Modelle wurden erarbeitet. Ebenso wurde eine alternative gestaffelte Trocknung in gestufte Schritte vorgenommen, um die Qualität des Endproduktes zu erhöhen und gleichzeitig den Gesamtenergieverbrauch zu senken. Zusätzlich wurde ein statistischer Versuchsplan nach der CCD-Methode (Central Composite Design) und der RSM-Methode (Response Surface Methodology) vorgeschlagen, um die gewünschten Qualitätsmerkmalen und den notwendigen Energieeinsatz in Abhängigkeit von Lufttemperatur und Luftfeuchtigkeit zu erzielen. Anhand der gewonnenen Daten wurden Regressionsmodelle erzeugt, und das Verhalten des Trocknungsverfahrens wurde beschrieben. Schließlich wurde eine statistische DOE-Versuchsplanung (design of experiments) angewandt, um den Einfluss der Parameter auf die zu erzielende Produktqualität in einem solaren Tunnel Trockner zu bewerten. Die Wirkungen der Beschattung, der Lage im Tunnel, des Befüllungsgrades und der Luftgeschwindigkeit auf Trocknungszeit, Farbänderung und dem Gehalt an ätherischem Öl, wurde analysiert. Ebenso wurden entsprechende Regressionsmodelle bei der Anwendung in solaren Tunneltrocknern erarbeitet. Die wesentlichen Ergebnisse werden in Bezug auf optimale Trocknungsparameter in Bezug auf Qualität und Energieverbrauch analysiert.
Resumo:
Ziel dieser wissenschaftlichen Hausarbeit ist es, Geschlechterrollen bürgerlicher Kinder zu untersuchen, die auf Atelierfotografien abgebildet sind. Dazu soll das phänomenologisch-hermeneutische Verfahren der „seriell-ikonografische[n] Fotoanalyse“ von Pilarczyk und Mietzner in einer empirischen Untersuchung genutzt werden. Erforscht wird damit, inwieweit sich die Darstellungen von Mädchen und Jungen unterscheiden. In meiner Untersuchung gehe ich folgendermaßen vor: Im zweiten Kapitel wird zunächst die Bedeutung der Fotografie für die Erziehungswissenschaft reflektiert. Dabei steht die Frage im Vordergrund: Welche Vorteile und Eigenarten hat die Fotografie im Bezug zu anderen Quellen? Besonders ihr Verhältnis zur Wirklichkeit und die Rolle des Zufalls machen es schwierig, sie als Primärquelle zu verwenden. Deshalb werden anschließend beide Faktoren untersucht. Darauf folgen (im dritten Kapitel) die Beschreibung des Modells der seriell-ikonografischen Analyse von Pilarczyk und Mietzner sowie Rezensionen zu diesem Ansatz und eine genaue Erläuterung, wie die Methode für diese Arbeit genutzt werden soll. Bevor das Verfahren jedoch zur Anwendung kommt, werden zunächst bürgerlicher Kontext und Struktur der bürgerlichen Familie - innerhalb deren sich die Kinder auf den Fotografien bewegen - dargestellt. Anschließend wird der Kontext der Atelierfotografie vorgestellt, um eine zeitgemäße Lesart der Kinderfotografien zu gewährleisten. Im sechsten Kapitel folgt die Analyse des von mir zusammengestellten Bildfundus. Die daraus gewonnen Hypothesen werden in einem Fazit zusammengefasst. Es schließt sich eine Überprüfung und Erweiterung der Hypothesen anhand von schriftlichen Quellen in Kapitel 7 an. Zusammenfassung der Ergebnisse sowie Ausblick sind im Schlusskapitel zu lesen.
Resumo:
Diese Arbeit behandelt die Problemstellung der modellbasierten Fehlerdiagnose für Lipschitz-stetige nichtlineare Systeme mit Unsicherheiten. Es wird eine neue adaptive Fehlerdiagnosemethode vorgestellt. Erkenntnisse und Verfahren aus dem Bereich der Takagi-Sugeno (TS) Fuzzy-Modellbildung und des Beobachterentwurfs sowie der Sliding-Mode (SM) Theorie werden genutzt, um einen neuartigen robusten und nichtlinearen TS-SM-Beobachter zu entwickeln. Durch diese Zusammenführung lassen sich die jeweiligen Vorteile beider Ansätze miteinander kombinieren. Bedingungen zur Konvergenz des Beobachters werden als lineare Matrizenungleichungen (LMIs) abgeleitet. Diese Bedingungen garantieren zum einen die Stabilität und liefern zum anderen ein direktes Entwurfsverfahren für den Beobachter. Der Beobachterentwurf wird für die Fälle messbarer und nicht messbarer Prämissenvariablen angegeben. Durch die TS-Erweiterung des in dieser Arbeit verwendeten SM-Beobachters ist es möglich, den diskontinuierlichen Rückführterm mithilfe einer geeigneten kontinuierlichen Funktion zu approximieren und dieses Signal daraufhin zur Fehlerdiagnose auszuwerten. Dies liefert eine Methodik zur Aktor- und Sensorfehlerdiagnose nichtlinearer unsicherer Systeme. Gegenüber anderen Ansätzen erlaubt das Vorgehen eine quantitative Bestimmung und teilweise sogar exakte Rekonstruktion des Fehlersignalverlaufs. Darüber hinaus ermöglicht der Ansatz die Berechnung konstanter Fehlerschwellen direkt aus dem physikalischen Vorwissen über das betrachtete System. Durch eine Erweiterung um eine Betriebsphasenerkennung wird es möglich, die Schwellenwerte des Fehlerdiagnoseansatzes online an die aktuelle Betriebsphase anzupassen. Hierdurch ergibt sich in Betriebsphasen mit geringen Modellunsicherheiten eine deutlich erhöhte Fehlersensitivität. Zudem werden in Betriebsphasen mit großen Modellunsicherheiten Falschalarme vermieden. Die Kernidee besteht darin, die aktuelle Betriebsphase mittels eines Bayes-Klassikators in Echtzeit zu ermitteln und darüber die Fehlerschwellen an die a-priori de nierten Unsicherheiten der unterschiedlichen Betriebsphasen anzupassen. Die E ffektivität und Übertragbarkeit der vorgeschlagenen Ansätze werden einerseits am akademischen Beispiel des Pendelwagens und anderseits am Beispiel der Sensorfehlerdiagnose hydrostatisch angetriebener Radlader als praxisnahe Anwendung demonstriert.
Resumo:
DIADEM, created by THOMSON-CSF, is a methodology for specifying and developing user interfaces. It improves productivity of the interface development process as well as quality of the interface. The method provides support to user interface development in three aspects. (1) DIADEM defines roles of people involved and their tasks and organises the sequence of activities. (2) It provides graphical formalisms supporting information exchange between people. (3) It offers a basic set of rules for optimum human-machine interfaces. The use of DIADEM in three areas (process control, sales support, and multimedia presentation) was observed and evaluated by our laboratory in the European project DIAMANTA (ESPRIT P20507). The method provides an open procedure that leaves room for adaptation to a specific application and environment. This paper gives an overview of DIADEM and shows how to extend formalisms for developing multimedia interfaces.
Resumo:
Im Rahmen dieser Arbeit werden Modellbildungsverfahren zur echtzeitfähigen Simulation wichtiger Schadstoffkomponenten im Abgasstrom von Verbrennungsmotoren vorgestellt. Es wird ein ganzheitlicher Entwicklungsablauf dargestellt, dessen einzelne Schritte, beginnend bei der Ver-suchsplanung über die Erstellung einer geeigneten Modellstruktur bis hin zur Modellvalidierung, detailliert beschrieben werden. Diese Methoden werden zur Nachbildung der dynamischen Emissi-onsverläufe relevanter Schadstoffe des Ottomotors angewendet. Die abgeleiteten Emissionsmodelle dienen zusammen mit einer Gesamtmotorsimulation zur Optimierung von Betriebstrategien in Hybridfahrzeugen. Im ersten Abschnitt der Arbeit wird eine systematische Vorgehensweise zur Planung und Erstellung von komplexen, dynamischen und echtzeitfähigen Modellstrukturen aufgezeigt. Es beginnt mit einer physikalisch motivierten Strukturierung, die eine geeignete Unterteilung eines Prozessmodells in einzelne überschaubare Elemente vorsieht. Diese Teilmodelle werden dann, jeweils ausgehend von einem möglichst einfachen nominalen Modellkern, schrittweise erweitert und ermöglichen zum Abschluss eine robuste Nachbildung auch komplexen, dynamischen Verhaltens bei hinreichender Genauigkeit. Da einige Teilmodelle als neuronale Netze realisiert werden, wurde eigens ein Verfah-ren zur sogenannten diskreten evidenten Interpolation (DEI) entwickelt, das beim Training einge-setzt, und bei minimaler Messdatenanzahl ein plausibles, also evidentes Verhalten experimenteller Modelle sicherstellen kann. Zum Abgleich der einzelnen Teilmodelle wurden statistische Versuchs-pläne erstellt, die sowohl mit klassischen DoE-Methoden als auch mittels einer iterativen Versuchs-planung (iDoE ) generiert wurden. Im zweiten Teil der Arbeit werden, nach Ermittlung der wichtigsten Einflussparameter, die Model-strukturen zur Nachbildung dynamischer Emissionsverläufe ausgewählter Abgaskomponenten vor-gestellt, wie unverbrannte Kohlenwasserstoffe (HC), Stickstoffmonoxid (NO) sowie Kohlenmono-xid (CO). Die vorgestellten Simulationsmodelle bilden die Schadstoffkonzentrationen eines Ver-brennungsmotors im Kaltstart sowie in der anschließenden Warmlaufphase in Echtzeit nach. Im Vergleich zur obligatorischen Nachbildung des stationären Verhaltens wird hier auch das dynami-sche Verhalten des Verbrennungsmotors in transienten Betriebsphasen ausreichend korrekt darge-stellt. Eine konsequente Anwendung der im ersten Teil der Arbeit vorgestellten Methodik erlaubt, trotz einer Vielzahl von Prozesseinflussgrößen, auch hier eine hohe Simulationsqualität und Ro-bustheit. Die Modelle der Schadstoffemissionen, eingebettet in das dynamische Gesamtmodell eines Ver-brennungsmotors, werden zur Ableitung einer optimalen Betriebsstrategie im Hybridfahrzeug ein-gesetzt. Zur Lösung solcher Optimierungsaufgaben bieten sich modellbasierte Verfahren in beson-derer Weise an, wobei insbesondere unter Verwendung dynamischer als auch kaltstartfähiger Mo-delle und der damit verbundenen Realitätsnähe eine hohe Ausgabequalität erreicht werden kann.
Resumo:
In der vorliegenden Arbeit wurde untersucht, wie Führung zur Bewältigung von Unternehmenskrisen und Umsetzung von Veränderungen im Kontext des Interim Management beitragen kann. Dazu wurde die Theorie transformationaler Führung um aufgabenbezogene und indirekte Führung und den Einsatz von Positionsmacht ergänzt. Damit wurden diese erfolgskritischen Führungsdimensionen erstmals in einem gemeinsamen theoretischen Rahmen verbunden und die Auswirkungen einer kombinierten Anwendung untersucht. Dieser neue Ansatz wurde als „Total Range of Leadership“ bezeichnet. In der vorliegenden Untersuchung konnten neue Erkenntnisse zum Kontext und den Erfolgsfaktoren des Interim Management sowie zu den Auswirkungen und Wirkungsmechanismen transformationaler Führung und des Total Range of Leadership gewonnen werden. Die Untersuchungsergebnisse deuten darauf hin, dass Interim Management ein hoch effektives Veränderungsinstrument ist. Als erfolgsrelevante Rahmenbedingungen wurden die Ausstattung der Interim Manager mit umfassenden Vollmachten sowie die Unterstützung durch die Auftraggeber, als wichtigster Erfolgsfaktor des Interim Management aber eindeutig die Anwendung transformationaler Führung und des Total Range of Leadership identifiziert. Die Anwendung transformationaler Führung im Rahmen des Total Range of Leadership wirkt sich positiv auf Persönlichkeit, Einstellungen, Kompetenz und Verhalten der Mitarbeiter sowie Organisationsstruktur, Unternehmenskultur, organisationale Lernfähigkeit und finanziellen und marktbezogenen Erfolg von Unternehmens aus. Dabei erzielt transformationale Führung die bei Weitem größte Wirkung aller Führungsdimensionen. Es konnte aufgezeigt werden, dass transformationale Führung diese Wirkung nur in Verbindung mit der kompetenten Anwendung von transaktionaler, aufgabenbezogener und indirekter Führung entfalten kann. Die Untersuchungsergebnisse deuten außerdem darauf hin, dass eine transformationale Führungsbeziehung nur dann entstehen kann, wenn die Mitarbeiter Vertrauen in die professionelle Kompetenz und die Integrität ihrer Führungskraft fassen. Als normative Grundlagen transformationaler Führung wurden die Gewährleistung der Wohlfahrt und des Nutzens der Geführten sowie der Bezug auf und die Berücksichtigung von geteilten und allgemein akzeptierte Werten, insbesondere der distributiven und prozeduralen Gerechtigkeit, identifiziert. Insgesamt deuten die Erkenntnisse der Untersuchung darauf hin, dass mit dem Total Range of Leadership ein ganzheitlicher Führungsansatz entwickelt wurde, der alle aktiven und positiven Führungsverhaltensweisen umfasst, die zur Bewältigung von Krisen und Durchführung von Veränderungen in Unternehmen sowie für effektive Führung überhaupt erforderlich sind.
Resumo:
Summary: Recent research on the evolution of language and verbal displays (e.g., Miller, 1999, 2000a, 2000b, 2002) indicated that language is not only the result of natural selection but serves as a sexually-selected fitness indicator that is an adaptation showing an individual’s suitability as a reproductive mate. Thus, language could be placed within the framework of concepts such as the handicap principle (Zahavi, 1975). There are several reasons for this position: Many linguistic traits are highly heritable (Stromswold, 2001, 2005), while naturally-selected traits are only marginally heritable (Miller, 2000a); men are more prone to verbal displays than women, who in turn judge the displays (Dunbar, 1996; Locke & Bogin, 2006; Lange, in press; Miller, 2000a; Rosenberg & Tunney, 2008); verbal proficiency universally raises especially male status (Brown, 1991); many linguistic features are handicaps (Miller, 2000a) in the Zahavian sense; most literature is produced by men at reproduction-relevant age (Miller, 1999). However, neither an experimental study investigating the causal relation between verbal proficiency and attractiveness, nor a study showing a correlation between markers of literary and mating success existed. In the current studies, it was aimed to fill these gaps. In the first one, I conducted a laboratory experiment. Videos in which an actor and an actress performed verbal self-presentations were the stimuli for counter-sex participants. Content was always alike, but the videos differed on three levels of verbal proficiency. Predictions were, among others, that (1) verbal proficiency increases mate value, but that (2) this applies more to male than to female mate value due to assumed past sex-different selection pressures causing women to be very demanding in mate choice (Trivers, 1972). After running a two-factorial analysis of variance with the variables sex and verbal proficiency as factors, the first hypothesis was supported with high effect size. For the second hypothesis, there was only a trend going in the predicted direction. Furthermore, it became evident that verbal proficiency affects long-term more than short-term mate value. In the second study, verbal proficiency as a menstrual cycle-dependent mate choice criterion was investigated. Basically the same materials as in the former study were used with only marginal changes in the used questionnaire. The hypothesis was that fertile women rate high verbal proficiency in men higher than non-fertile women because of verbal proficiency being a potential indicator of “good genes”. However, no significant result could be obtained in support of the hypothesis in the current study. In the third study, the hypotheses were: (1) most literature is produced by men at reproduction-relevant age. (2) The more works of high literary quality a male writer produces, the more mates and children he has. (3) Lyricists have higher mating success than non-lyric writers because of poetic language being a larger handicap than other forms of language. (4) Writing literature increases a man’s status insofar that his offspring shows a significantly higher male-to-female sex ratio than in the general population, as the Trivers-Willard hypothesis (Trivers & Willard, 1973) applied to literature predicts. In order to test these hypotheses, two famous literary canons were chosen. Extensive biographical research was conducted on the writers’ mating successes. The first hypothesis was confirmed; the second one, controlling for life age, only for number of mates but not entirely regarding number of children. The latter finding was discussed with respect to, among others, the availability of effective contraception especially in the 20th century. The third hypothesis was not satisfactorily supported. The fourth hypothesis was partially supported. For the 20th century part of the German list, the secondary sex ratio differed with high statistical significance from the ratio assumed to be valid for a general population.
Resumo:
Um die Nährstoffeffizienz im Boden zu erhöhen und klimarelevante Gasemissionen zu minimieren, sind quantitative Informationen zu den C- und N-Fraktionen im Kot sowie deren Mineralisierungspotential nötig. Da über die Hälfte des fäkalen N mikrobiell gebunden ist, sind Methoden zur Bestimmung der mikrobiellen Kotqualität hilfreich. Ziele der ersten Publikation waren die Anwendung der CFE-Methode zur Bestimmung der mikrobiellen Biomasse in Rinderkot, Ergosterolbestimmung als Marker für die pilzliche Biomasse und Aminozuckernachweis zur Analyse der mikrobiellen Gemeinschaftsstruktur (pilzliches Glucosamin und bakterielle Muramin-säure). Mit Hilfe der CFE-Methode sollten lebende Mikroorganismen im Kot, inklusive Bakterien, Pilze und Archaeen, erfasst werden. Verschiedene Extraktionsmittel wurden für diese Methode getestet, um stabile Extrakte und reproduzierbare mikrobielle Biomasse-C- und -N-Gehalte zu erhalten. Der Einsatz von 0.05 M CuSO4 als Extraktionsmittel löste vorherige Probleme mit der Extraktion CHCl3-labiler N-Komponenten und sorgte für stabile Kotextrakte. Die Methoden wurden in einem Kotinkubationsexperiment bei 25 °C verglichen. Mikrobielle Parameter zeigten dynamische Charakteristika und mögliche Verschiebungen innerhalb der mikrobiellen Gemeinschaft. Im Kot von Färsen betrug das mittlere C/N-Verhältnis 5,6 und der mittlere Cmik/Corg-Quotient 2,2%, das Verhältnis von Ergosterol zum mikrobiellen Biomasse-C war 1,1‰. Ergosterol und Aminozuckeranalyse ergaben einen signifikanten Pilzanteil von über 40% des mikrobiellen Gesamt-C. Für die Analyse mikrobieller Parameter in Rinderkot erwiesen sich alle getesteten Methoden als geeignet. Diese wurden für die folgenden Fütterungsversuche weiter unabhängig voneinander angewendet und verglichen. Die zweite Publikation verglich eine N-defizitäre (ND) und eine ausgeglichene N-Bilanz (NB) bei der Fütterung von Milchkühen unter Berücksichtigung der Kot-inhaltsstoffe, der mikrobiellen Parameter und der Verdaulichkeit. Unterschiede zwischen Individuen und Probennahmetagen wurden ebenfalls miteinbezogen. Mittlerer mikrobieller Biomasse-C- und -N-Gehalt war 37 bzw. 4,9 mg g-1 TM. Der Pilzanteil lag diesmal bei 25% des mikrobiellen Gesamt-C. Die Fütterung zeigte signifikante Effekte auf die Kotzusammensetzung. Das fäkale C/N-Verhältnis der NB-Fütterung war signifikant niedriger als bei ND. Gleiches gilt für das C/N-Verhältnis der mikrobiellen Biomasse mit jeweils 9.1 und 7.0 für ND und NB. Auch die Verdaulichkeit wurde durch die Fütterung beeinflusst. Unverdauter Futterstickstoff, Faserstoffe (NDF) und Hemi-cellulose waren in der ND-Behandlung signifikant erhöht. Einige Parameter zeigten nur einen Einfluss der Probennahmetage, mit den angewendeten Methoden gelang jedoch der eindeutige Nachweis der Fütterungseffekte auf mikrobielle Parameter im Rinderkot, wobei sich die Fütterung in nur einer Variable unterschied. Weitere Fütterungseinflüsse auf die Kotqualität wurden schließlich auch für Rinder unterschiedlicher Leistungsstufen erforscht. Hier waren die Unterschiede in der Fütterung wesentlich größer als in den vorhergehenden Experimenten. Der Kot von Färsen, Niederleistungs- und Hochleistungskühen sowie dessen Einfluss auf N2O-Emissionen, N-Mineralisierung und pflanzliche N-Aufnahme wurden untersucht. Die Färsenfütterung mit geringem N- und hohem ADF-Anteil führte zu pilzdominiertem Kot. Besonders im Vergleich zum Kot der Hochleistungskühe war der Gehalt an mikrobiellem Biomasse-C niedrig, in Verbindung mit einem breiten mikrobiellen C/N-Verhältnis und hohem Ergosterolgehalt. Eingemischt in Boden zeigte Färsenkot die niedrigste CO2-Produktion und höchste N-Immobilisierung sowie niedrigste N2O-Emissionen während einer 14-tägigen Inkubation bei 22 °C. In einem 62-Tage-Gefäßversuch mit Welschem Weidelgras waren der Trocken-masseertrag und die pflanzliche Stickstoffaufnahme in den Färsenbehandlungen am niedrigsten. Die Stickstoffaufnahme durch die Pflanzen korrelierte positiv mit der Stickstoffkonzentration im Kot und negativ mit dem Rohfasergehalt, aber auch negativ mit dem C/N-Verhältnis der mikrobiellen Biomasse und dem Verhältnis von pilzlichem zu bakteriellem C. Mikrobielle Parameter im Kot zeigten einen größeren Zusammen-hang mit der pflanzlichen Stickstoffaufnahme als die mikrobiellen Bodenparameter.
Resumo:
Die vorliegende Arbeit macht Vorschläge zur Einbindung der Öffentlichkeit in Planungsbestrebungen vor Ort, wobei vor allem Methoden empirischer Sozialforschung und deren Anwendbarkeit in landschaftsplanerischen Vorhaben näher betrachtet werden. Hiermit finden insbesondere Wertezuweisungen durch die Bürger stärkere Berücksichtigung. Es wird angenommen, dass, um eine zukunftsweisende Landschaftsplanung zu etablieren, Planer und Fachleute lernen müssen, wie die lokale Bevölkerung ihre Umwelt wahrnimmt und empfindet und welche Ideen sie für die zukünftige Entwicklung der Landschaft haben. Als empirische Grundlage werden Fallstudien aus Bad Soden am Taunus, Hamburg-Wilhelmsburg und Kassel-Rothenditmold präsentiert und verglichen. Rothenditmold und Wilhelmsburg zeichnen sich durch hohe Einwohneranteile mit Migrationshintergrund aus, weisen relativ hohe Arbeitslosenquoten auf und sind als soziale Brennpunkte bekannt – zumindest für Außenstehende. Beide Stadtteile versuchen ihr Image aufzuwerten. In Wilhelmsburg wird dieses Vorhaben in die großräumigen Veränderungen eingebunden, die von verschiedenen Hamburger Großprojekten ausstrahlen. In Rothenditmold ist vor allem Eigeninitiative durch den Stadtteil selbst gefragt. In Bad Soden gibt es ebenfalls viele Menschen mit ausländischen Wurzeln. Sie gehören allerdings mehrheitlich der gesellschaftlichen Mittel- und Oberschicht an. Bad Soden verfügt über ein insgesamt positives Image, das aller kulturellen Veränderungen zum Trotz beibehalten werden soll. Entsprechende Initiativen gehen hier ebenfalls von der Gemeinde selbst aus. An allen Standorten hat es drastische Landschaftsveränderungen und speziell deren Erscheinung gegeben. Bad Soden und Wilhelmsburg haben dabei Teile ihres vormals ländlichen Charakters zu bewahren, während in Rothenditmold vor allem Zeugnisse aus der Zeit der Industrialisierung erhalten sind und den Ort prägen. Die Landschaften haben jeweils ihre einzigartigen Erscheinungen. Zumindest Teile der Landschaften ermöglichen eine Identifikation, sind attraktiv und liefern gute Erholungsmöglichkeiten. Um diese Qualitäten zu bewahren, müssen sie entsprechend gepflegt und weiter entwickelt werden. Dazu sind die Interessen und Wünsche der Bewohner zu ermitteln und in Planungen einzuarbeiten. Die Arbeit strebt einen Beitrag zur Lebensraumentwicklung für und mit Menschen an, die mittels ausgewählter Methoden der empirischen Sozialforschung eingebunden werden. Dabei wird gezeigt, dass die vorgestellten und erprobten Methoden sinnvoll in Projekte der Landschaftsplanung eingebunden werden können. Mit ihnen können ergänzende Erkenntnisse zum jeweiligen Landschaftsraum gewonnen werden, da sie helfen, die kollektive Wahrnehmung der Landschaft durch die Bevölkerung zu erfassen, um sie anschließend in Planungsentwürfe einbinden zu können. Mit der Untersuchung wird in den drei vorgestellten Fallstudien exemplarisch erfasst, welche Elemente der Landschaft für die Bewohner von besonderer Bedeutung sind. Darüber hinaus lernen Planer, welche Methoden zur Ermittlung emotionaler Landschaftswerte verfügbar sind und auf welcher Ebene der Landschaftsplanung sowie bei welchen Zielgruppen sie eingesetzt werden können. Durch die Verknüpfung landschaftsplanerischer Erfassungsmethoden mit Methoden der empirischen Sozialwissenschaft (Fragebogen, Interviews, „Spaziergangsinterviews“, gemeinsame Erarbeitung von Projekten bis zur Umsetzung) sowie der Möglichkeit zur Rückkoppelung landschaftsplaneri-scher Entwürfe mit der Bevölkerung wird eine Optimierung dieser Entwürfe sowohl im Sinne der Planer als auch im Sinne der Bürger erreicht. Zusätzlich wird die Wahrnehmung teilnehmender Bevölkerung für ihre Umwelt geschärft, da sie aufgefordert wird, sich mit ihrer Lebensumgebung bewusst auseinander zu setzen. Die Ergebnisse dieser Untersuchung sind Beitrag und Beleg zu der Annahme, dass ergänzende Methoden in der Landschaftsplanung zur stärkeren Interessenberücksichtigung der von Planung betroffenen Menschen benötigt werden. Zudem zeigen die Studien auf, wie man dem planungsethischen Anspruch, die Öffentlichkeit einzubeziehen, näher kommt. Resultat sind eine bessere Bewertung und Akzeptanz der Planungen und das nicht nur aus landschaftsplanerisch-fachlicher Sicht. Landschaftsplaner sollten ein Interesse daran haben, dass ihre Entwürfe ernst genommen und akzeptiert werden. Das schaffen sie, wenn sie der Bevölkerung nicht etwas aufplanen, sondern ihnen entsprechende Einflussmöglichkeiten bieten und Landschaft mit ihnen gemeinsam entwickeln.
Resumo:
The rapid growth in high data rate communication systems has introduced new high spectral efficient modulation techniques and standards such as LTE-A (long term evolution-advanced) for 4G (4th generation) systems. These techniques have provided a broader bandwidth but introduced high peak-to-average power ratio (PAR) problem at the high power amplifier (HPA) level of the communication system base transceiver station (BTS). To avoid spectral spreading due to high PAR, stringent requirement on linearity is needed which brings the HPA to operate at large back-off power at the expense of power efficiency. Consequently, high power devices are fundamental in HPAs for high linearity and efficiency. Recent development in wide bandgap power devices, in particular AlGaN/GaN HEMT, has offered higher power level with superior linearity-efficiency trade-off in microwaves communication. For cost-effective HPA design to production cycle, rigorous computer aided design (CAD) AlGaN/GaN HEMT models are essential to reflect real response with increasing power level and channel temperature. Therefore, large-size AlGaN/GaN HEMT large-signal electrothermal modeling procedure is proposed. The HEMT structure analysis, characterization, data processing, model extraction and model implementation phases have been covered in this thesis including trapping and self-heating dispersion accounting for nonlinear drain current collapse. The small-signal model is extracted using the 22-element modeling procedure developed in our department. The intrinsic large-signal model is deeply investigated in conjunction with linearity prediction. The accuracy of the nonlinear drain current has been enhanced through several issues such as trapping and self-heating characterization. Also, the HEMT structure thermal profile has been investigated and corresponding thermal resistance has been extracted through thermal simulation and chuck-controlled temperature pulsed I(V) and static DC measurements. Higher-order equivalent thermal model is extracted and implemented in the HEMT large-signal model to accurately estimate instantaneous channel temperature. Moreover, trapping and self-heating transients has been characterized through transient measurements. The obtained time constants are represented by equivalent sub-circuits and integrated in the nonlinear drain current implementation to account for complex communication signals dynamic prediction. The obtained verification of this table-based large-size large-signal electrothermal model implementation has illustrated high accuracy in terms of output power, gain, efficiency and nonlinearity prediction with respect to standard large-signal test signals.
Resumo:
The present thesis is about the inverse problem in differential Galois Theory. Given a differential field, the inverse problem asks which linear algebraic groups can be realized as differential Galois groups of Picard-Vessiot extensions of this field. In this thesis we will concentrate on the realization of the classical groups as differential Galois groups. We introduce a method for a very general realization of these groups. This means that we present for the classical groups of Lie rank $l$ explicit linear differential equations where the coefficients are differential polynomials in $l$ differential indeterminates over an algebraically closed field of constants $C$, i.e. our differential ground field is purely differential transcendental over the constants. For the groups of type $A_l$, $B_l$, $C_l$, $D_l$ and $G_2$ we managed to do these realizations at the same time in terms of Abhyankar's program 'Nice Equations for Nice Groups'. Here the choice of the defining matrix is important. We found out that an educated choice of $l$ negative roots for the parametrization together with the positive simple roots leads to a nice differential equation and at the same time defines a sufficiently general element of the Lie algebra. Unfortunately for the groups of type $F_4$ and $E_6$ the linear differential equations for such elements are of enormous length. Therefore we keep in the case of $F_4$ and $E_6$ the defining matrix differential equation which has also an easy and nice shape. The basic idea for the realization is the application of an upper and lower bound criterion for the differential Galois group to our parameter equations and to show that both bounds coincide. An upper and lower bound criterion can be found in literature. Here we will only use the upper bound, since for the application of the lower bound criterion an important condition has to be satisfied. If the differential ground field is $C_1$, e.g., $C(z)$ with standard derivation, this condition is automatically satisfied. Since our differential ground field is purely differential transcendental over $C$, we have no information whether this condition holds or not. The main part of this thesis is the development of an alternative lower bound criterion and its application. We introduce the specialization bound. It states that the differential Galois group of a specialization of the parameter equation is contained in the differential Galois group of the parameter equation. Thus for its application we need a differential equation over $C(z)$ with given differential Galois group. A modification of a result from Mitschi and Singer yields such an equation over $C(z)$ up to differential conjugation, i.e. up to transformation to the required shape. The transformation of their equation to a specialization of our parameter equation is done for each of the above groups in the respective transformation lemma.
Resumo:
The global power supply stability is faced to several severe and fundamental threats, in particular steadily increasing power demand, diminishing and degrading fossil and nuclear energy resources, very harmful greenhouse gas emissions, significant energy injustice and a structurally misbalanced ecological footprint. Photovoltaic (PV) power systems are analysed in various aspects focusing on economic and technical considerations of supplemental and substitutional power supply to the constraint conventional power system. To infer the most relevant system approach for PV power plants several solar resources available for PV systems are compared. By combining the different solar resources and respective economics, two major PV systems are identified to be very competitive in almost all regions in the world. The experience curve concept is used as a key technique for the development of scenario assumptions on economic projections for the decade of the 2010s. Main drivers for cost reductions in PV systems are learning and production growth rate, thus several relevant aspects are discussed such as research and development investments, technical PV market potential, different PV technologies and the energetic sustainability of PV. Three major market segments for PV systems are identified: off-grid PV solutions, decentralised small scale on-grid PV systems (several kWp) and large scale PV power plants (tens of MWp). Mainly by application of ‘grid-parity’ and ‘fuel-parity’ concepts per country, local market and conventional power plant basis, the global economic market potential for all major PV system segments is derived. PV power plant hybridization potential of all relevant power technologies and the global power plant structure are analyzed regarding technical, economical and geographical feasibility. Key success criteria for hybrid PV power plants are discussed and comprehensively analysed for all adequate power plant technologies, i.e. oil, gas and coal fired power plants, wind power, solar thermal power (STEG) and hydro power plants. For the 2010s, detailed global demand curves are derived for hybrid PV-Fossil power plants on a per power plant, per country and per fuel type basis. The fundamental technical and economic potentials for hybrid PV-STEG, hybrid PV-Wind and hybrid PV-Hydro power plants are considered. The global resource availability for PV and wind power plants is excellent, thus knowing the competitive or complementary characteristic of hybrid PV-Wind power plants on a local basis is identified as being of utmost relevance. The complementarity of hybrid PV-Wind power plants is confirmed. As a result of that almost no reduction of the global economic PV market potential need to be expected and more complex power system designs on basis of hybrid PV-Wind power plants are feasible. The final target of implementing renewable power technologies into the global power system is a nearly 100% renewable power supply. Besides balancing facilities, storage options are needed, in particular for seasonal power storage. Renewable power methane (RPM) offers respective options. A comprehensive global and local analysis is performed for analysing a hybrid PV-Wind-RPM combined cycle gas turbine power system. Such a power system design might be competitive and could offer solutions for nearly all current energy system constraints including the heating and transportation sector and even the chemical industry. Summing up, hybrid PV power plants become very attractive and PV power systems will very likely evolve together with wind power to the major and final source of energy for mankind.
Resumo:
In ihrer Arbeit "Mobiles Lernen. Analyse des Wissenschaftsprozesses der britischen und deutschsprachigen medienpädagogischen und erziehungswissenschaftlichen Mobile-Learning-Diskussion." zeichnet Judith Seipold die Phasen und Entwicklungslinien der bisherigen und naturwüchsigen Diskussion um das Mobile Lernen nach. Dabei eröffnet sie mit ihrer Analyse des vornehmlich britischen Wissenschaftsprozesses des Mobilen Lernens ab Beginn des 21. Jahrhunderts den Blick auf die Struktur der medienpädagogischen und erziehungswissenschaftlichen Mobile-Learning-Diskussion, auf deren Kontexte, Bezugspunkte, Perspektiven und theoretische Schwerpunkte, aber auch Erfolge und Problembereiche in der praktischen Umsetzung des Lernens mit Mobiltechnologien in formalisierten Lernkontexten wie dem des Schulunterrichts. Auf diese Weise liefert die Autorin eine Systematik, die nicht nur die britische Diskussion für die deutschsprachige Medienpädagogik verfügbar macht, sondern auch eine neue und systematisch begründete Reflexionsebene für eine aktuelle medienpädagogische Entwicklung – das Mobile Lernen – bildet. Zunächst widmet sich die Autorin der Analyse des Wissenschaftsprozesses der bisherigen britischen und teils auch der deutschsprachigen Mobile-Learning-Diskussion. Um diesen Prozess in seiner Struktur greifbar zu machen, skizziert sie die Bezugsdisziplinen, aus denen die medienpädagogische und erziehungswissenschaftliche Mobile-Learning-Forschung schöpft, arbeitet die Legitimationsbasis auf, auf die sich Mobiles Lernen stützt, zeichnet die historische Entwicklung der Diskussion nach, die sowohl Alltagsnutzung von Mobiltechnologien als auch den Fachdiskurs einschließt, und erläutert innerhalb ihres Modells der Phasen und Entwicklungslinien Mobilen Lernens Theorien, Konzepte und Modelle, die in der Mobile-Learning-Community als zentral für Analyse und Planung Mobilen Lernens erachtet werden. Konzepte und Modelle, die in der Mobile-Learning-Diskussion die Rolle der Lernenden in das Zentrum der Betrachtungen rücken und eine explizite Handlungsorientierung unterstützen, sind Kernbereich des theoriebasierten Teils der Arbeit. Überlegungen zu einer „Sozio-kulturellen Ökologie Mobilen Lernens“, zu „user-generated contexts“ und zu einer „kulturökologisch informierten Didaktik des Mobilen Lernens“ sind dabei sowohl reflektierende Einordnung aktueller Konzepte und Modelle als auch theoretische und konzeptionelle Basis für die praktische Umsetzung Mobilen Lernens. Um die Rolle der Handlungskompetenzen, kulturellen Praktiken und Strukturen der Lerner bei der Nutzung von Mobiltechnologien für Lernen analytisch zu fassen, finden im Praxis-Kapitel Planungs- und Analyseschemata unter Rückgriff auf Beispiele aus der Praxisforschung und der Implementierung mobilen Lernens in den Schulunterricht Anwendung. Ihre Erörterungen rahmt die Autorin abschließend kritisch und weist zum einen auf bildungspolitische, strukturelle und handlungspraktische Implikationen hin, die sich aus der Mobile-Learning-Diskussion ergeben; zum anderen lenkt sie das Augenmerk auf Gegensätze und Dialektiken des Mobilen Lernens, die sich im Spannungsfeld zwischen alltäglicher mobiler Mediennutzung und der teils theoretisch informierten schulischen Verwendung von Mobiltechnologien zum Lernen entfalten. Sie gilt es, im weiteren Verlauf der Diskussion zu hinterfragen und aufzulösen.
Resumo:
Regionale Arbeitsmärkte unterscheiden sich erheblich hinsichtlich wesentlicher Kennzahlen wie der Arbeitslosenquote, des Lohnniveaus oder der Beschäftigungsentwicklung. Wegen ihrer Persistenz sind diese Unterschiede von hoher Relevanz für die Politik. Die wirtschaftswissenschaftliche Literatur liefert bereits theoretische Modelle für die Analyse regionaler Arbeitsmärkte. In der Regel sind diese Modelle aber nicht dazu geeignet, regionale Arbeitsmarktunterschiede endogen zu erklären. Das bedeutet, dass sich die Unterschiede regionaler Arbeitsmärkte in der Regel nicht aus den Modellzusammenhängen selbst ergeben, sondern „von außen“ eingebracht werden müssen. Die empirische Literatur liefert Hinweise, dass die Unterschiede zwischen regionalen Arbeitsmärkten auf die Höhe der regionalen Arbeitsnachfrage zurückzuführen sind. Die Arbeitsnachfrage wiederum leitet sich aus den Gütermärkten ab: Es hängt von der Entwicklung der regionalen Gütermärkte ab, wie viele Arbeitskräfte benötigt werden. Daraus folgt, dass die Ursachen für Unterschiede regionaler Arbeitsmärkte in den Unterschieden zwischen den regionalen Gütermärkten zu suchen sind. Letztere werden durch die Literatur zur Neuen Ökonomischen Geographie (NÖG) untersucht. Die Literatur zur NÖG erklärt Unterschiede regionaler Gütermärkte, indem sie zentripetale und zentrifugale Kräfte gegenüberstellt. Zentripetale Kräfte sind solche, welche hin zur Agglomeration ökonomischer Aktivität wirken. Im Zentrum dieser Diskussion steht vor allem das Marktpotenzial: Unternehmen siedeln sich bevorzugt an solchen Standorten an, welche nahe an großen Märkten liegen. Erwerbspersonen wiederum bevorzugen solche Regionen, welche ihnen entsprechende Erwerbsaussichten bieten. Beides zusammen bildet einen sich selbst verstärkenden Prozess, der zur Agglomeration ökonomischer Aktivität führt. Dem stehen jedoch zentrifugale Kräfte gegenüber, welche eine gleichmäßigere Verteilung ökonomischer Aktivität bewirken. Diese entstehen beispielsweise durch immobile Produktionsfaktoren oder Ballungskosten wie etwa Umweltverschmutzung, Staus oder hohe Mietpreise. Sind die zentripetalen Kräfte hinreichend stark, so bilden sich Zentren heraus, in denen sich die ökonomische Aktivität konzentriert, während die Peripherie ausdünnt. In welchem Ausmaß dies geschieht, hängt von dem Verhältnis beider Kräfte ab. Üblicherweise konzentriert sich die Literatur zur NÖG auf Unterschiede zwischen regionalen Gütermärkten und geht von der Annahme perfekter Arbeitsmärkte ohne Arbeitslosigkeit aus. Die Entstehung und Persistenz regionaler Arbeitsmarktunterschiede kann die NÖG daher üblicherweise nicht erklären. An dieser Stelle setzt die Dissertation an. Sie erweitert die NÖG um Friktionen auf dem Arbeitsmarkt, um die Entstehung und Persistenz regionaler Arbeitsmarktunterschiede zu erklären. Sie greift dazu auf eine empirische Regelmäßigkeit zurück: Zahlreiche Studien belegen einen negativen Zusammenhang zwischen Lohn und Arbeitslosigkeit. In Regionen, in denen die Arbeitslosigkeit hoch ist, ist das Lohnniveau gering und umgekehrt. Dieser Zusammenhang wird als Lohnkurve bezeichnet. Auf regionaler Ebene lässt sich die Lohnkurve mithilfe der Effizienzlohntheorie erklären, die als theoretische Grundlage in der Dissertation Anwendung findet. Konzentriert sich nun die ökonomische Aktivität aufgrund der zentripetalen Kräfte in einer Region, so ist in diesem Zentrum die Arbeitsnachfrage höher. Damit befindet sich das Zentrum auf einer günstigen Position der Lohnkurve mit geringer Arbeitslosigkeit und hohem Lohnniveau. Umgekehrt findet sich die Peripherie auf einer ungünstigen Position mit hoher Arbeitslosigkeit und geringem Lohnniveau wieder. Allerdings kann sich die Lohnkurve in Abhängigkeit des Agglomerationsgrades verschieben. Das komplexe Zusammenspiel der endogenen Agglomeration mit den Arbeitsmarktfriktionen kann dann unterschiedliche Muster regionaler Arbeitsmarktdisparitäten hervorrufen. Die Dissertation zeigt auf, wie im Zusammenspiel der NÖG mit Effizienzlöhnen regionale Arbeitsmarktdisparitäten hervorgerufen werden. Es werden theoretische Modelle formuliert, die diese Interaktionen erklären und welche die bestehende Literatur durch spezifische Beiträge erweitern. Darüber hinaus werden die zentralen Argumente der Theorie einem empirischen Test unterworfen. Es kann gezeigt werden, dass das zentrale Argument – der positive Effekt des Marktpotentials auf die Arbeitsnachfrage – relevant ist. Außerdem werden Politikimplikationen abgeleitet und der weitere Forschungsbedarf aufgezeigt.
Resumo:
Die Untersuchung des dynamischen aeroelastischen Stabilitätsverhaltens von Flugzeugen erfordert sehr komplexe Rechenmodelle, welche die wesentlichen elastomechanischen und instationären aerodynamischen Eigenschaften der Konstruktion wiedergeben sollen. Bei der Modellbildung müssen einerseits Vereinfachungen und Idealisierungen im Rahmen der Anwendung der Finite Elemente Methode und der aerodynamischen Theorie vorgenommen werden, deren Auswirkungen auf das Simulationsergebnis zu bewerten sind. Andererseits können die strukturdynamischen Kenngrößen durch den Standschwingungsversuch identifiziert werden, wobei die Ergebnisse Messungenauigkeiten enthalten. Für eine robuste Flatteruntersuchung müssen die identifizierten Unwägbarkeiten in allen Prozessschritten über die Festlegung von unteren und oberen Schranken konservativ ermittelt werden, um für alle Flugzustände eine ausreichende Flatterstabilität sicherzustellen. Zu diesem Zweck wird in der vorliegenden Arbeit ein Rechenverfahren entwickelt, welches die klassische Flatteranalyse mit den Methoden der Fuzzy- und Intervallarithmetik verbindet. Dabei werden die Flatterbewegungsgleichungen als parameterabhängiges nichtlineares Eigenwertproblem formuliert. Die Änderung der komplexen Eigenlösung infolge eines veränderlichen Einflussparameters wird mit der Methode der numerischen Fortsetzung ausgehend von der nominalen Startlösung verfolgt. Ein modifizierter Newton-Iterations-Algorithmus kommt zur Anwendung. Als Ergebnis liegen die berechneten aeroelastischen Dämpfungs- und Frequenzverläufe in Abhängigkeit von der Fluggeschwindigkeit mit Unschärfebändern vor.