198 resultados para Modellen


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Physikalische Grundlagenforschung und anwendungsorientierte physikalische Forschung auf den Gebieten nanoskaliger kristalliner und amorpher fester Körper haben in vielfacher Weise eine große Bedeutung. Neben dem Verständnis für die Struktur der Materie und die Wechselwirkung von Objekten von der Größe einiger Atome ist die Erkenntnis über die physikalischen Eigenschaften nanostrukturierter Systeme von hohem Interesse. Diese Forschung eröffnet die Möglichkeit, die mit der Mikroelektronik begonnene Miniaturisierung fortzusetzen und wird darüber hinaus neue Anwendungsfelder eröffnen. Das Erarbeiten der physikalischen Grundlagen der Methoden zur Herstellung und Strukturierung ist dabei zwingend notwendig, da hier Wirkungsprinzipien dominieren, die erst bei Strukturgrößen im Nanometerbereich auftreten oder hinreichend stark ausgeprägt sind. Insbesondere Halbleitermaterialien sind hier von großem Interesse. Die in dieser Arbeit untersuchten Resonatorstrukturen, die auf dem kristallinen Verbindungshalbleitermaterial GaInAsP/InP basieren, erschließen wichtige Anwendungsfelder im Bereich der optischen Datenübertragung sowie der optischen Sensorik. Hergestellt wird das Halbleitermaterial mit der Metallorganischen Gasphasenepitaxie. Die experimentell besimmten Kenngrößen lassen Rückschlüsse auf die Güte der Materialien, die quantenmechanischen Wirkungsprinzipien und die Bauelementcharakteristik zu und führen zu optimal angepassten Kristallstrukturen. Auf Basis dieser optimierten Materialien wurde ein durchstimmbarer Fabry-Perot-Filter hergestellt, der aus einer Kombination aus InP-Membranen und Luftspalten besteht und elektromechanisch aktuiert werden kann. Das GaInAsP dient hierbei als wenige hundert nm dicke Opferschicht, die ätztechnisch hochselektiv beseitigt wird. Die Qualität der Grenzflächen zum InP ist entscheidend für die Qualität der freigeätzten Kavitäten und damit für die mechanische Gesamtstabilität der Struktur. Der in dieser Arbeit beschriebene Filter hat eine Zentralwellenlänge im Bereich von 1550 nm und weist einen Durchstimmbereich von 221 nm auf. Erzielt wurde dieser Wert durch ein konsistentes Modell der wirkenden Verspannungskomponenten und einer optimierten epitaktischen Kontrolle der Verspannungsparameter. Das realisierte Filterbauelement ist vielversprechend für den Einsatz in der optischen Kommunikation im Bereich von WDM (wavelength division multiplexing) Anwendungen. Als weitere Resonatorstrukur wurde ein Asymmetrisch gekoppelter Quantenfilm als optisch aktives Medium, bestehend aus GaInAsP mit variierender Materialkomposition und Verspannung, untersucht, um sein Potential für eine breitbandige Emission zu untersuchen und mit bekannten Modellen zu vergleichen. Als Bauelementdesign wurde eine kantenemittierende Superlumineszenzleuchtdiode gewählt. Das Ergebnis ist eine Emissionskurve von 100 nm, die eine höhere Unabhängigkeit vom Injektionsstrom aufweist als andere bekannte Konzepte. Die quantenmechanischen Wirkungsprinzipien - im wesentlichen die Kopplung der beiden asymmetrischen Potentialtöpfe und die damit verbundene Kopplung der Wellenfunktionen - werden qualitativ diskutiert. Insgesamt bestätigt sich die Eignung des Materials GaInAsP auch für neuartige, qualitativ höchst anspruchsvolle Resonatorstrukturen und die Bedeutung der vorgestellten und untersuchten Resonatorkonzepte. Die vorgestellten Methoden, Materialien und Bauelemente liefern aufgrund ihrer Konzeption und der eingehenden experimentellen Untersuchungen einen Beitrag sowohl zu den zugrunde liegenden mechanischen, optoelektronischen und quantenmechanischen Wirkungsprinzipien der Strukturen, als auch zur Realisierung neuer optoelektronischer Bauelemente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die vorliegende Arbeit beschäftigt sich mit der Computersimulation des Rissinitiierungsprozesses für einen martensitischen Stahl, der der niederzyklischen Ermüdung unterworfen wurde. Wie auf der Probenoberfläche beobachtet wurde, sind die Initiierung und das frühe Wachstum dieser Mikrorisse in hohem Grade von der Mikrostruktur abhängig. Diese Tatsache wurde in mesoskopischen Schädigungsmodellen beschrieben, wobei die Körner als einzelne Kristalle mit anisotropem Materialverhalten modelliert wurden. Das repräsentative Volumenelement (RVE), das durch einen Voronoi-Zerlegung erzeugt wurde, wurde benutzt, um die Mikrostruktur des polykristallinen Materials zu simulieren. Spannungsverteilungen wurden mit Hilfe der Finiten-Elemente-Methode mit elastischen und elastoplastischen Materialeigenschaften analysiert. Dazu wurde die Simulation zunächst an zweidimensionalen Modellen durchgeführt. Ferner wurde ein vereinfachtes dreidimensionales RVE hinsichtlich des sowohl dreidimensionalen Gleitsystems als auch Spannungszustandes verwendet. Die kontinuierliche Rissinitiierung wurde simuliert, indem der Risspfad innerhalb jedes Kornes definiert wurde. Die Zyklenanzahl bis zur Rissinitiierung wurde auf Grundlage der Tanaka-Mura- und Chan-Gleichungen ermittelt. Die Simulation lässt auf die Flächendichten der einsegmentige Risse in Relation zur Zyklenanzahl schließen. Die Resultate wurden mit experimentellen Daten verglichen. Für alle Belastungsdehnungen sind die Simulationsergebnisse mit denen der experimentellen Daten vergleichbar.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Land use is a crucial link between human activities and the natural environment and one of the main driving forces of global environmental change. Large parts of the terrestrial land surface are used for agriculture, forestry, settlements and infrastructure. Given the importance of land use, it is essential to understand the multitude of influential factors and resulting land use patterns. An essential methodology to study and quantify such interactions is provided by the adoption of land-use models. By the application of land-use models, it is possible to analyze the complex structure of linkages and feedbacks and to also determine the relevance of driving forces. Modeling land use and land use changes has a long-term tradition. In particular on the regional scale, a variety of models for different regions and research questions has been created. Modeling capabilities grow with steady advances in computer technology, which on the one hand are driven by increasing computing power on the other hand by new methods in software development, e.g. object- and component-oriented architectures. In this thesis, SITE (Simulation of Terrestrial Environments), a novel framework for integrated regional sland-use modeling, will be introduced and discussed. Particular features of SITE are the notably extended capability to integrate models and the strict separation of application and implementation. These features enable efficient development, test and usage of integrated land-use models. On its system side, SITE provides generic data structures (grid, grid cells, attributes etc.) and takes over the responsibility for their administration. By means of a scripting language (Python) that has been extended by language features specific for land-use modeling, these data structures can be utilized and manipulated by modeling applications. The scripting language interpreter is embedded in SITE. The integration of sub models can be achieved via the scripting language or by usage of a generic interface provided by SITE. Furthermore, functionalities important for land-use modeling like model calibration, model tests and analysis support of simulation results have been integrated into the generic framework. During the implementation of SITE, specific emphasis was laid on expandability, maintainability and usability. Along with the modeling framework a land use model for the analysis of the stability of tropical rainforest margins was developed in the context of the collaborative research project STORMA (SFB 552). In a research area in Central Sulawesi, Indonesia, socio-environmental impacts of land-use changes were examined. SITE was used to simulate land-use dynamics in the historical period of 1981 to 2002. Analogous to that, a scenario that did not consider migration in the population dynamics, was analyzed. For the calculation of crop yields and trace gas emissions, the DAYCENT agro-ecosystem model was integrated. In this case study, it could be shown that land-use changes in the Indonesian research area could mainly be characterized by the expansion of agricultural areas at the expense of natural forest. For this reason, the situation had to be interpreted as unsustainable even though increased agricultural use implied economic improvements and higher farmers' incomes. Due to the importance of model calibration, it was explicitly addressed in the SITE architecture through the introduction of a specific component. The calibration functionality can be used by all SITE applications and enables largely automated model calibration. Calibration in SITE is understood as a process that finds an optimal or at least adequate solution for a set of arbitrarily selectable model parameters with respect to an objective function. In SITE, an objective function typically is a map comparison algorithm capable of comparing a simulation result to a reference map. Several map optimization and map comparison methodologies are available and can be combined. The STORMA land-use model was calibrated using a genetic algorithm for optimization and the figure of merit map comparison measure as objective function. The time period for the calibration ranged from 1981 to 2002. For this period, respective reference land-use maps were compiled. It could be shown, that an efficient automated model calibration with SITE is possible. Nevertheless, the selection of the calibration parameters required detailed knowledge about the underlying land-use model and cannot be automated. In another case study decreases in crop yields and resulting losses in income from coffee cultivation were analyzed and quantified under the assumption of four different deforestation scenarios. For this task, an empirical model, describing the dependence of bee pollination and resulting coffee fruit set from the distance to the closest natural forest, was integrated. Land-use simulations showed, that depending on the magnitude and location of ongoing forest conversion, pollination services are expected to decline continuously. This results in a reduction of coffee yields of up to 18% and a loss of net revenues per hectare of up to 14%. However, the study also showed that ecological and economic values can be preserved if patches of natural vegetation are conservated in the agricultural landscape. -----------------------------------------------------------------------

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die vorliegende Dissertation stellt einen Überblick dar, der theoretische und praktische Ansätze und Modelle untersucht, die transpersonale Dimensionen enthalten. Die transpersonale Psychologie entwickelte sich aus der Humanistischen Psychologie, die in der Mitte des letzten Jahrhunderts in Amerika entstand und sich in den 60er und 70er Jahren in Europa etablierte. Der Schwerpunkt der transpersonalen Psychologie liegt nicht primär auf menschlichen Bedürfnissen und Interessen, sondern bezieht neben der gesellschaftlichen die über die Person hinausgehende Dimension des Menschen mit ein. Der Theorieteil umfasst eine Vielzahl von Konzepten aus der Entwicklungspsychologie, der Reformpädagogik, der Psychotherapie, der Körpertherapie, spirituellen Schulungen, der Tiefenökologie sowie der Neurobiologie. Diese Ansätze geben Aufschluss darüber, wie sich das Weltbild von einer streng rationalen, linearen Sichtweise hin zu einem dynamischen Verständnis entwickelt hat. Der Praxisteil enthält pädagogische Fallstudien alternativer Schulen, deren Konzepte über reformpädagogische Konzepte hinausweisen und insbesondere Wert auf Spiritualität, Naturverbundenheit, Demokratiefähigkeit sowie die Anerkennung verschiedener Lernprozesse legen. Er beinhaltet außerdem Schulungen für Erwachsene, die meditative und psychotherapeutische Verfahren miteinander verbinden sowie Ansätze fernöstlicher Meditationstechniken, die sich besonders für westliche Menschen eignen. Aus den theoretischen Modellen und den praktischen Konzepten ergeben sich zehn transpersonale Dimensionen: Die 'Ethik der Ehrfurcht vor dem Leben', 'Tiefenökologie und Bewusstseinswandel', den 'politisch-sozialen Aspekt', das persönlich-bedeutsame Lernen', das 'Gefühl des Getragenseins' das taoistische 'Tun des Nicht-Tuns', die Schulung von 'Achtsamkeit, Selbstreflexion und Vielperspektivität', das 'Transformative Lernen', 'Spiritualität im Alltag' und die 'neue Rolle des Lehrers'. Diese transpersonalen Dimensionen erlauben keine klare Einordnung einer Schule, sondern weisen auf eine potentielle Entwicklung hin, die durch Schulungen erreicht werden kann. Dabei geht es in erster Linie darum, wie Kinder, Jugendliche und Erwachsene sich durch eine Pädagogik, die eine intensivere Zugangsweise zu sich selbst zulässt, getragen fühlen und ein Seinsvertrauen erlangen können, dass ihnen dabei hilft, auch in kritischen Lebensphasen gelassen zu reagieren. Bei der transpersonale Pädagogik handelt es sich nicht um eine neue Schule, sondern um eine neue Dimension, die integrierendes Potenzial besitzt, da sie Menschen dabei unterstützt, eine Perspektive einzunehmen, die über die eigene hinausreicht und zu einem erweiterten Verständnis für andere Menschen, Lebensweisen und Werte beiträgt. Durch die transpersonale Pädagogik entstehen neue Möglichkeiten, globalen Herausforderungen zu begegnen. Das Einbeziehen der transpersonalen Dimensionen fördert eine Entwicklung, die ein persönliches und gesellschaftliches Verantwortungsbewusstsein miteinander verbindet. Spiritualität kann dazu beitragen, dass der Mensch Erfahrungen macht, die über das hinausgehen, was er bisher kennengelernt hat und sich ihm dadurch neue Perspektiven eröffnen. Spirituelle Schulungen sollten aber immer auch die Person des Übenden einbeziehen, das In-der-Welt-Sein, die Verbindungen zum Alltag fördern, denn nur die Entwicklung von Sozialkompetenzen führt dazu, dass der Mensch eine tiefe Verantwortung für sein eigenes Leben, die Menschen in seiner Gemeinschaft und darüber hinaus spüren kann. Die in der Dissertation erarbeiteten transpersonalen Dimensionen können dazu beitragen, Schule in einen salutogenen Ort zu verwandeln und Bildungsprozesse respektvoll zu gestalten. Das bedeutet, Lernen nicht auf die Wissensvermittlung zu reduzieren, sondern als Lebenserfahrung anzuerkennen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Am Fachgebiet Massivbau (Institut für Konstruktiven Ingenieurbau – IKI) des Fachbereichs Bauingenieurwesen der Universität Kassel wurden Bauteilversuche an zweiaxial auf Druck-Zug belasteten, faserfreien und faserverstärkten Stahlbetonscheiben durchgeführt. Dabei wurden die Auswirkungen der Querzugbeanspruchung und der Rissbildung auf die Druckfestigkeit, auf die Stauchung bei Erreichen der Höchstlast sowie auf die Drucksteifigkeit des stabstahl- und faserbewehrten Betons an insgesamt 56 faserfreien und faserverstärkten Beton- und Stahlbetonscheiben untersucht. Auf der Grundlage der experimentell erhaltenen Ergebnisse wird ein Vorschlag zur Abminderung der Druckfestigkeit des gerissenen faserfreien und faserbewehrten Stahlbetons in Abhängigkeit der aufgebrachten Zugdehnung formuliert. Die Ergebnisse werden den in DIN 1045-1 [D4], Eurocode 2 [E3, E4], CEB-FIP Model Code 1990 [C1] und ACI Standard 318-05 [A1] angegebenen Bemessungsregeln für die Druckstrebenfestigkeit des gerissenen Stahlbetons gegenübergestellt und mit den Untersuchungen anderer Wissenschaftler verglichen. Die bekannten Widersprüche zwischen den Versuchsergebnissen, den vorgeschlagenen Modellen und den Regelwerken aus U.S.A., Kanada und Europa können dabei weitgehend aufgeklärt werden. Für nichtlineare Verfahren der Schnittgrößenermittlung und für Verformungsberechnungen wird ein Materialmodell des gerissenen faserfreien und faserbewehrten Stahlbetons abgeleitet. Hierzu wird die für einaxiale Beanspruchungszustände gültige Spannungs-Dehnungs-Linie nach Bild 22 der DIN 1045-1 auf den Fall der zweiaxialen Druck-Zug-Beanspruchung erweitert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Zusammenfassung - Der sekundäre Botenstoff zyklisches Adenosinmonophosphat (cAMP) reguliert viele fundamentale zelluläre Prozesse wie Zellproliferation, Differenzierung, Energiemetabolismus und Genexpression. In eukaryotischen Zellen vermittelt die cAMP-abhängige Proteinkinase (PKA) die meisten biologischen Funktionen von cAMP. Die PKA besteht aus jeweils zwei regulatorischen (R) und katalytischen (C) Untereinheiten, die zusammen einen inaktiven Holoenzymkomplex bilden, der durch cAMP aktiviert wird. In dieser Arbeit wurde die Bindung von cAMP und cAMP-Analoga an die R Untereinheit der PKA unter funktionellen und mechanistischen Aspekten untersucht. Eine neue, auf Fluoreszenzpolarisation basierende Methode wurde entwickelt, um die Affinität von cAMP-Analoga in einem homogenen Ansatz schnell, reproduzierbar und nicht radioaktiv zu quantifizieren. Zur detaillierten Untersuchung des Bindungsmechanismus von cAMP und cAMP Analoga (Agonisten und Antagonisten) wurden thermodynamische Studien im direkten Vergleich mittels isothermaler Titrationskalorimetrie und kinetischen Analysen (Oberflächenplasmonresonanz, SPR) durchgeführt, wodurch thermodynamische Signaturen für das Bindungsverhalten der Nukleotide an die R Untereinheit der PKA erhalten werden konnten. Durch Interaktionsstudien an mutagenisierten R Untereinheiten wurde der intramolekulare Aktivierungsmechanismus der PKA in Bezug auf cAMP-Bindung, Holoenzymkomplex-Formierung und -Aktivierung untersucht. Die dabei erhaltenen Ergebnisse wurden mit zwei Modellen der cAMP-induzierten Konformationsänderung verglichen, und ein Aktivierungsmechanismus postuliert, der auf konservierten hydrophoben Aminosäuren basiert. Für in vivo Untersuchungen wurden zusammen mit Kooperationspartnern membranpermeable, fluoreszierende cAMP Analoga entwickelt, die Einblicke in die Dynamik der cAMP-Verteilung in Zellen erlauben. Neu entwickelte, Festphasen gebundene cAMP-Analoga (Agonisten und Antagonisten) wurden in einem (sub)proteomischen Ansatz dazu genutzt, natürliche Komplexe der R Untereinheit und des PKA-Holoenzyms aus Zelllysaten zu isolieren und zu identifizieren. Diese Untersuchungen fließen letztlich in einem systembiologischen Ansatz zusammen, der neue Einblicke in die vielschichtigen cAMP gesteuerten Netzwerke und Regulationsprozesse erlaubt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Im Rahmen der vorliegenden Arbeit wird ein Konzept zur mechanismenorientierten Lebensdauervorhersage entwickelt und auf eine Flanschwelle mit gradiertem Gefüge übertragen. Das Konzept wird in Form eines Computercodes (LOCC) zur Anwendung gebracht. Basierend auf lokalen Spannungen wird für jedes Element eines FE-Modells eine bedingte Versagenswahrscheinlichkeit berechnet. Mithilfe bruch- und ggf. mikromechanischer Modelle werden lokale kritische Risslängen und die bei gegebener Lebensdauer zugehörigen Anfangsrisslängen bestimmt. Diese werden mit geeigneten Modellen in mikrostrukturelle Größen überführt. Die Lebensdauerverteilung der Komponente ergibt sich schließlich aus der Verteilungsfunktion der Anfangsrisslängen bzw. der zugehörigen mikrostrukturellen Einheiten. Die betrachtete Flanschwelle weist als Ergebnis eines thermo-mechanischen Umformprozesses ein gradiertes Gefüge auf. Das Ermüdungsverhalten der Hauptphasen Ferrit-Perlit und Martensit wird untersucht. Während ausgewählter Ermüdungsversuche wird die Schädigungsentwicklung an der Oberfläche mit einem langreichweitigen Mikroskop beobachtet. Das ferritisch-perlitische Ausgangsgefüge zeigt eine sehr komplexe Schädigungsentwicklung (lokale plastische Aktivität, hohe Rissdichte), während beim Martensit keine multiple Rissinitiierung beobachtet wird. Anhand fraktographischer Untersuchungen wird dargelegt, dass der Hauptriss beim Martensit im Bereich von Karbidanhäufungen initiiert. Im LCF-Bereich wird nur ein verschwindender Anteil der Lebensdauer mit Langrisswachstum verbracht, d. h. die martensitischen Proben versagen fast unmittelbar nach der Rissinitiierung. Die Beschreibung ihrer Lebensdauer wird somit direkt auf die Rissinitiierungsphase zurückgeführt. Das ferritisch-perlitische Gefüge hingegen zeigt im LCF-Bereich sowohl eine ausgeprägte Rissinitiierungs- wie auch Langrisswachstumsphase. Diese komplexe Schädigungsentwicklung wird mittels verschiedener Schädigungsvariablen beschrieben, die im Rahmen einer automatisierten Bildanalyse bestimmt werden. Hierbei werden sowohl plastisch stark aktive Bereiche wie auch reale Risse pauschal als Schädigung definiert. Der Vergleich dieser automatisiert bestimmten Schädigungsvariablen mit ausgewählten Rissen zeigt deren Eignung zur quantitativen Beschreibung der Schädigungsentwicklung. Die Lebensdauer einer gradierten Komponente ergibt sich nicht direkt durch Verknüpfung der Lebensdauern der Einzelphasen, sondern sie hängt ggf. auch von den Übergangsbereichen zwischen den Phasen ab. Mithilfe einiger grundlegender bruchmechanischer Überlegungen wird ein konservatives Kriterium zur Behandlung solcher Übergangsbereiche bereitgestellt, womit das LOCC-Konzept letztendlich erfolgreich auf die gradierte Flanschwelle übertragen wird.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Kern der vorliegenden Arbeit ist die Erforschung von Methoden, Techniken und Werkzeugen zur Fehlersuche in modellbasierten Softwareentwicklungsprozessen. Hierzu wird zuerst ein von mir mitentwickelter, neuartiger und modellbasierter Softwareentwicklungsprozess, der sogenannte Fujaba Process, vorgestellt. Dieser Prozess wird von Usecase Szenarien getrieben, die durch spezielle Kollaborationsdiagramme formalisiert werden. Auch die weiteren Artefakte des Prozess bishin zur fertigen Applikation werden durch UML Diagrammarten modelliert. Es ist keine Programmierung im Quelltext nötig. Werkzeugunterstützung für den vorgestellte Prozess wird von dem Fujaba CASE Tool bereitgestellt. Große Teile der Werkzeugunterstützung für den Fujaba Process, darunter die Toolunterstützung für das Testen und Debuggen, wurden im Rahmen dieser Arbeit entwickelt. Im ersten Teil der Arbeit wird der Fujaba Process im Detail erklärt und unsere Erfahrungen mit dem Einsatz des Prozesses in Industrieprojekten sowie in der Lehre dargestellt. Der zweite Teil beschreibt die im Rahmen dieser Arbeit entwickelte Testgenerierung, die zu einem wichtigen Teil des Fujaba Process geworden ist. Hierbei werden aus den formalisierten Usecase Szenarien ausführbare Testfälle generiert. Es wird das zugrunde liegende Konzept, die konkrete technische Umsetzung und die Erfahrungen aus der Praxis mit der entwickelten Testgenerierung dargestellt. Der letzte Teil beschäftigt sich mit dem Debuggen im Fujaba Process. Es werden verschiedene im Rahmen dieser Arbeit entwickelte Konzepte und Techniken vorgestellt, die die Fehlersuche während der Applikationsentwicklung vereinfachen. Hierbei wurde darauf geachtet, dass das Debuggen, wie alle anderen Schritte im Fujaba Process, ausschließlich auf Modellebene passiert. Unter anderem werden Techniken zur schrittweisen Ausführung von Modellen, ein Objekt Browser und ein Debugger, der die rückwärtige Ausführung von Programmen erlaubt (back-in-time debugging), vorgestellt. Alle beschriebenen Konzepte wurden in dieser Arbeit als Plugins für die Eclipse Version von Fujaba, Fujaba4Eclipse, implementiert und erprobt. Bei der Implementierung der Plugins wurde auf eine enge Integration mit Fujaba zum einen und mit Eclipse auf der anderen Seite geachtet. Zusammenfassend wird also ein Entwicklungsprozess vorgestellt, die Möglichkeit in diesem mit automatischen Tests Fehler zu identifizieren und diese Fehler dann mittels spezieller Debuggingtechniken im Programm zu lokalisieren und schließlich zu beheben. Dabei läuft der komplette Prozess auf Modellebene ab. Für die Test- und Debuggingtechniken wurden in dieser Arbeit Plugins für Fujaba4Eclipse entwickelt, die den Entwickler bestmöglich bei der zugehörigen Tätigkeit unterstützen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Haltung von Milchkühen in einem Laufstall hat sich aus arbeitswirtschaftlichen und Kostengründen stark verbreitet. Im Biolandbau wird diese Entwicklung vor allem aufgrund der höheren Tiergerechtheit dieser Haltungsform forciert. Gleichzeitig werden die allermeisten Kühe für die Laufstallhaltung jedoch enthornt, unter anderem weil sich in den üblichen Ställen mit Normmassen und –konzepten Probleme mit Verletzungen unter den Tieren ergaben. Dabei sprechen die Richtlinien und Verordnungen für biologisch wirtschaftende Betriebe deutlich gegen zootechnische Eingriffe. Das Ziel dieser Arbeit war deshalb, zu prüfen, welche stallbaulichen Voraussetzungen eine Haltung horntragender Kühe im Laufstall gelingen lassen und mit welchen Managementmassnahmen diese optimiert werden kann. Dazu wurde zum einen in einer experimentellen Untersuchung an vier Kuhgruppen im cross-over-Design geprüft, wie sich ein gegenüber der Norm erhöhtes Platzangebot in verschiedenen Stallbereichen (Wartebereich: Crowding vs. unbeengt, Tier:Fressplatz-Verhältnis: 1:1 vs. 1:1,25, Liegefläche: 4,5 vs. 8,0 m2/Kuh, Laufhofffläche: 0 vs. 4,5 vs. 9,0 m2/Kuh) auf das (Sozial-)Verhalten behornter Kühe auswirkt, insbesondere auf das Ausmass an agonistischen Interaktionen und auf die Anzahl der Läsionen am Integument der Kühe. Zum anderen wurde in einer Praxiserhebung in 62 zumindest teilweise behornten Milchviehherden untersucht, welche Beziehungen zwischen dem Auftreten von Verletzungen und den Dimensionen und der Gestaltung der Laufställe sowie dem Herdenmanagement, der Mensch-Tier-Beziehung und den Charakteristika der Herde bestehen. Zudem wurden durch Interviews die in der Praxis vorrangig bestehenden Probleme eruiert und die Erfahrungen der Landwirte zusammengetragen. Im Experiment traten im Wartebereich beim grösseren Platzangebot statistisch auffällig (p=0,068) weniger agonistische Interaktionen unter den Kühen auf, die Zahl der Verletzungen zeigte keinen Unterschied. Im Fressbereich hatte eine Erhöhung der Anzahl Fressplätze keinen Einfluss. Eine grössere Liegefläche/Kuh auf der Tiefstreu hatte jedoch statistisch auffällig weniger agonistische Interaktionen, eine Abnahme der Läsionszahlen sowie längere Liegezeiten und kürzere Stehzeiten (im Stall) pro Tag und damit gleichzeitig eine erhöhte Herdensynchronität zur Folge (p=0,068). Ebenso bewirkte ein erhöhtes Laufhofflächenangebot/Kuh eine geringere Häufigkeit an agonistischen Interaktionen, eine Abnahme der Läsionszahlen sowie erhöhte Aufenthaltsdauern im Laufhof (jeweils p=0,068). In der Praxiserhebung konnten aus 113 Faktoren über Vorselektionen mittels univariaten Analysen (ANOVA) und multivariaten Regressionsanalysen in zwei Modellen multivariate Regressionsanalysen gerechnet werden, um die erklärenden Faktoren für die Variation der Verletzungen durch Hörner zu finden. Modell I (alle Betriebe, ohne Faktoren des Liegebereiches (Liegeboxenfaktoren)) wies einen Erklärungswert R2 von 0,825 und eine Signifikanz von p < 0,001 auf, Modell II (Liegeboxenbetriebe, alle Faktoren) einen Erklärungswert R2 von 0,882 und eine Signifikanz von p < 0,001. Als signifikante erklärende Faktoren für wenige Verletzungen verblieben in diesen Modellen der Stalltyp inkl. der Gliederung der Funktionsbereiche (unverbaut und übersichtlich mit klar getrennten Bereichen), eine hohe Anzahl Viehbürsten, breite Laufflächen, keine Hindernisse im Laufbereich, wenige Mitarbeiter, ein hoher Anteil eigener in die Herde eingegliederter Tiere, wenige Eingliederungen in den letzten sechs Wochen, die Rasse Fleckvieh, keine einzelnen unbehornten Kühe in der Herde und ein geringes Verletzungspotential der Hörner. Aus der Erfahrung der Landwirte ist der Fressbereich der Hauptproblembereich. Aus den Ergebnissen lässt sich schlussfolgernd sagen, dass ein Laufstall mit grosszügiger, deutlich über der Norm liegender Dimensionierung der flächigen Stallbereiche (Wartebereich, Liegefläche und Laufhoffläche/Kuh) für behornte Kühe günstige Haltungsbedingungen bietet. Engstellen hingegen bergen Konfliktpotential. Bei der Stallkonzeption muss eine klare Gliederung der Funktionsbereiche angestrebt werden, wenn Auseinandersetzungen vermieden werden sollen. Ein Tier:Fressplatz-Verhältnis von 1:1 mit ein paar Reserveplätzen scheint ausreichend, allerdings muss auf ein wirklich horngeeignetes Fressgitter mit sicherer Fixierung besonderen Wert gelegt werden. Im Management der Herde muss das Augenmerk vor allem auf das Vorgehen bei der Eingliederung von Tieren in die Herde gelegt werden. Da Eingliederungen das soziale Gefüge der Herde ändern, lassen sich mit möglichst wenig Eingliederungen von möglichst bekannten, also eigenen Tieren Auseinandersetzungen mit Verletzungen vermeiden. Günstig ist zudem, wenn nur eine Person die Herde betreut. Eine nur symptomatische, aber sehr effektive Massnahme zur Verringerung der Verletzungszahlen ist das Senken der Verletzungsgefahr der Hörner durch Entfernen spitzer Hornspitzen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

To study the behaviour of beam-to-column composite connection more sophisticated finite element models is required, since component model has some severe limitations. In this research a generic finite element model for composite beam-to-column joint with welded connections is developed using current state of the art local modelling. Applying mechanically consistent scaling method, it can provide the constitutive relationship for a plane rectangular macro element with beam-type boundaries. Then, this defined macro element, which preserves local behaviour and allows for the transfer of five independent states between local and global models, can be implemented in high-accuracy frame analysis with the possibility of limit state checks. In order that macro element for scaling method can be used in practical manner, a generic geometry program as a new idea proposed in this study is also developed for this finite element model. With generic programming a set of global geometric variables can be input to generate a specific instance of the connection without much effort. The proposed finite element model generated by this generic programming is validated against testing results from University of Kaiserslautern. Finally, two illustrative examples for applying this macro element approach are presented. In the first example how to obtain the constitutive relationships of macro element is demonstrated. With certain assumptions for typical composite frame the constitutive relationships can be represented by bilinear laws for the macro bending and shear states that are then coupled by a two-dimensional surface law with yield and failure surfaces. In second example a scaling concept that combines sophisticated local models with a frame analysis using a macro element approach is presented as a practical application of this numerical model.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Gegenstand der vorliegenden Arbeit ist die Analyse verschiedener Formalismen zur Berechnung binärer Wortrelationen. Dabei ist die Grundlage aller hier ausgeführten Betrachtungen das Modell der Restart-Automaten, welches 1995 von Jancar et. al. eingeführt wurde. Zum einen wird das bereits für Restart-Automaten bekannte Konzept der input/output- und proper-Relationen weiterführend untersucht, sowie auf Systeme von zwei parallel arbeitenden und miteinander kommunizierenden Restart-Automaten (PC-Systeme) erweitert. Zum anderen wird eine Variante der Restart-Automaten eingeführt, die sich an klassischen Automatenmodellen zur Berechnung von Relationen orientiert. Mit Hilfe dieser Mechanismen kann gezeigt werden, dass einige Klassen, die durch input/output- und proper-Relationen von Restart Automaten definiert werden, mit den traditionellen Relationsklassen der Rationalen Relationen und der Pushdown-Relationen übereinstimmen. Weiterhin stellt sich heraus, dass das Konzept der parallel kommunizierenden Automaten äußerst mächtig ist, da bereits die Klasse der proper-Relationen von monotonen PC-Systemen alle berechenbaren Relationen umfasst. Der Haupteil der Arbeit beschäftigt sich mit den so genannten Restart-Transducern, welche um eine Ausgabefunktion erweiterte Restart-Automaten sind. Es zeigt sich, dass sich insbesondere dieses Modell mit seinen verschiedenen Erweiterungen und Einschränkungen dazu eignet, eine umfassende Hierarchie von Relationsklassen zu etablieren. In erster Linie seien hier die verschiedenen Typen von monotonen Restart-Transducern erwähnt, mit deren Hilfe viele interessante neue und bekannte Relationsklassen innerhalb der längenbeschränkten Pushdown-Relationen charakterisiert werden. Abschließend wird, im Kontrast zu den vorhergehenden Modellen, das nicht auf Restart-Automaten basierende Konzept des Übersetzens durch Beobachtung ("Transducing by Observing") zur Relationsberechnung eingeführt. Dieser, den Restart-Transducern nicht unähnliche Mechanismus, wird im weitesten Sinne dazu genutzt, einen anderen Blickwinkel auf die von Restart-Transducern definierten Relationen einzunehmen, sowie eine obere Schranke für die Berechnungskraft der Restart-Transducer zu gewinnen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The research of this thesis dissertation covers developments and applications of short-and long-term climate predictions. The short-term prediction emphasizes monthly and seasonal climate, i.e. forecasting from up to the next month over a season to up to a year or so. The long-term predictions pertain to the analysis of inter-annual- and decadal climate variations over the whole 21st century. These two climate prediction methods are validated and applied in the study area, namely, Khlong Yai (KY) water basin located in the eastern seaboard of Thailand which is a major industrial zone of the country and which has been suffering from severe drought and water shortage in recent years. Since water resources are essential for the further industrial development in this region, a thorough analysis of the potential climate change with its subsequent impact on the water supply in the area is at the heart of this thesis research. The short-term forecast of the next-season climate, such as temperatures and rainfall, offers a potential general guideline for water management and reservoir operation. To that avail, statistical models based on autoregressive techniques, i.e., AR-, ARIMA- and ARIMAex-, which includes additional external regressors, and multiple linear regression- (MLR) models, are developed and applied in the study region. Teleconnections between ocean states and the local climate are investigated and used as extra external predictors in the ARIMAex- and the MLR-model and shown to enhance the accuracy of the short-term predictions significantly. However, as the ocean state – local climate teleconnective relationships provide only a one- to four-month ahead lead time, the ocean state indices can support only a one-season-ahead forecast. Hence, GCM- climate predictors are also suggested as an additional predictor-set for a more reliable and somewhat longer short-term forecast. For the preparation of “pre-warning” information for up-coming possible future climate change with potential adverse hydrological impacts in the study region, the long-term climate prediction methodology is applied. The latter is based on the downscaling of climate predictions from several single- and multi-domain GCMs, using the two well-known downscaling methods SDSM and LARS-WG and a newly developed MLR-downscaling technique that allows the incorporation of a multitude of monthly or daily climate predictors from one- or several (multi-domain) parent GCMs. The numerous downscaling experiments indicate that the MLR- method is more accurate than SDSM and LARS-WG in predicting the recent past 20th-century (1971-2000) long-term monthly climate in the region. The MLR-model is, consequently, then employed to downscale 21st-century GCM- climate predictions under SRES-scenarios A1B, A2 and B1. However, since the hydrological watershed model requires daily-scale climate input data, a new stochastic daily climate generator is developed to rescale monthly observed or predicted climate series to daily series, while adhering to the statistical and geospatial distributional attributes of observed (past) daily climate series in the calibration phase. Employing this daily climate generator, 30 realizations of future daily climate series from downscaled monthly GCM-climate predictor sets are produced and used as input in the SWAT- distributed watershed model, to simulate future streamflow and other hydrological water budget components in the study region in a multi-realization manner. In addition to a general examination of the future changes of the hydrological regime in the KY-basin, potential future changes of the water budgets of three main reservoirs in the basin are analysed, as these are a major source of water supply in the study region. The results of the long-term 21st-century downscaled climate predictions provide evidence that, compared with the past 20th-reference period, the future climate in the study area will be more extreme, particularly, for SRES A1B. Thus, the temperatures will be higher and exhibit larger fluctuations. Although the future intensity of the rainfall is nearly constant, its spatial distribution across the region is partially changing. There is further evidence that the sequential rainfall occurrence will be decreased, so that short periods of high intensities will be followed by longer dry spells. This change in the sequential rainfall pattern will also lead to seasonal reductions of the streamflow and seasonal changes (decreases) of the water storage in the reservoirs. In any case, these predicted future climate changes with their hydrological impacts should encourage water planner and policy makers to develop adaptation strategies to properly handle the future water supply in this area, following the guidelines suggested in this study.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ein Drittel des weltweiten gesamten Energiebedarfs wird durch Gebäude verbraucht. Um diesen Energiebedarf teilweise zu decken, den erheblichen Energieverbrauch zu reduzieren und weiterhin andere Gebäudefunktionen beizubehalten, ist Gebäudeintegrierte Photovoltaik (BIPV) eine der am besten geeigneten Lösungen für die Gebäudenanwendung. Im Bezug auf eine Vielzahl von Gestalltungsmöglichkeiten, sind die Randbedingungen der BIPV-Anwendungen eindeutig anders im Vergleich zu Standard-PV-Anwendungen, insbesondere bezüglich der Betriebstemperatur. Bisher gab es nicht viele Informationen zu den relevanten thermischen Auswirkungen auf die entsprechenden elektrischen Eigenschaften zusammen mit thermischen und mechanischen relevanten Gebäudenfunktionen. Die meisten Hersteller übernehmen diese Eigenschaften von entsprechenden PV-Modulen und konventionellen Bauprodukten Normen, die zur ungenauen System- und Gebäudeplanungen führen. Deshalb ist die Untersuchung des thermischen Einflusses auf elektrische, thermische sowie mechanische Eigenschaften das Hauptziel der vorliegenden Arbeit. Zunächst wird das Temperatur-Model mit dem Power-Balance-Konzept erstellt. Unter Berücksichtigung der variablen Installationsmöglichkeiten und Konfigurationen des Moduls wird das Model auf Basis dynamischer und stationär Eigenschaften entwickelt. Im Hinblick auf die dynamische Simulation können der Energieertrag und Leistung zusammen mit der thermischen Gebäudesimulation in Echtzeit simuliert werden. Für stationäre Simulationen können die relevanten Gebäudefunktionen von BIPV-Modulen sowohl im Sommer als auch im Winter simuliert werden. Basierend auf unterschiedlichen thermischen und mechanischen Last-Szenarien wurde darüber hinaus das mechanische Model zusammen mit Variationen von Belastungsdauer, Montagesystem und Verkapselungsmaterialien entwickelt. Um die Temperatur- und Mechanik-Modelle zu validieren, wurden die verschiedenen Prüfeinrichtungen zusammen mit neuen Testmethoden entwickelt. Bei Verwendung der Prüfanlage „PV variable mounting system“ und „mechanical testing equipment“ werden zudem die verschiedenen Szenarien von Montagesystemen, Modul-Konfigurationen und mechanischen Belastungen emuliert. Mit der neuen Testmethode „back-bias current concept“ können zum einen die solare Einstrahlung und bestimmte Betriebstemperaturen eingestellt werden. Darüber hinaus wurden mit den eingangs erwähnten validierten Modellen das jeweilige elektrische, thermische und mechanische Verhalten auf andere Konfigurationen bewertet. Zum Abschluss wird die Anwendung von Software-Tools bei PV-Herstellern im Hinblick auf die entsprechenden Modellentwicklungen thematisiert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Im Rahmen dieser Arbeit wird eine gemeinsame Optimierung der Hybrid-Betriebsstrategie und des Verhaltens des Verbrennungsmotors vorgestellt. Die Übernahme von den im Steuergerät verwendeten Funktionsmodulen in die Simulationsumgebung für Fahrzeuglängsdynamik stellt eine effiziente Applikationsmöglichkeit der Originalparametrierung dar. Gleichzeitig ist es notwendig, das Verhalten des Verbrennungsmotors derart nachzubilden, dass das stationäre und das dynamische Verhalten, inklusive aller relevanten Einflussmöglichkeiten, wiedergegeben werden kann. Das entwickelte Werkzeug zur Übertragung der in Ascet definierten Steurgerätefunktionen in die Simulink-Simulationsumgebung ermöglicht nicht nur die Simulation der relevanten Funktionsmodule, sondern es erfüllt auch weitere wichtige Eigenschaften. Eine erhöhte Flexibilität bezüglich der Daten- und Funktionsstandänderungen, sowie die Parametrierbarkeit der Funktionsmodule sind Verbesserungen die an dieser Stelle zu nennen sind. Bei der Modellierung des stationären Systemverhaltens des Verbrennungsmotors erfolgt der Einsatz von künstlichen neuronalen Netzen. Die Auswahl der optimalen Neuronenanzahl erfolgt durch die Betrachtung des SSE für die Trainings- und die Verifikationsdaten. Falls notwendig, wird zur Sicherstellung der angestrebten Modellqualität, das Interpolationsverhalten durch Hinzunahme von Gauß-Prozess-Modellen verbessert. Mit den Gauß-Prozess-Modellen werden hierbei zusätzliche Stützpunkte erzeugt und mit einer verminderten Priorität in die Modellierung eingebunden. Für die Modellierung des dynamischen Systemverhaltens werden lineare Übertragungsfunktionen verwendet. Bei der Minimierung der Abweichung zwischen dem Modellausgang und den Messergebnissen wird zusätzlich zum SSE das 2σ-Intervall der relativen Fehlerverteilung betrachtet. Die Implementierung der Steuergerätefunktionsmodule und der erstellten Steller-Sensor-Streckenmodelle in der Simulationsumgebung für Fahrzeuglängsdynamik führt zum Anstieg der Simulationszeit und einer Vergrößerung des Parameterraums. Das aus Regelungstechnik bekannte Verfahren der Gütevektoroptimierung trägt entscheidend zu einer systematischen Betrachtung und Optimierung der Zielgrößen bei. Das Ergebnis des Verfahrens ist durch das Optimum der Paretofront der einzelnen Entwurfsspezifikationen gekennzeichnet. Die steigenden Simulationszeiten benachteiligen Minimumsuchverfahren, die eine Vielzahl an Iterationen benötigen. Um die Verwendung einer Zufallsvariablen, die maßgeblich zur Steigerung der Iterationanzahl beiträgt, zu vermeiden und gleichzeitig eine Globalisierung der Suche im Parameterraum zu ermöglichen wird die entwickelte Methode DelaunaySearch eingesetzt. Im Gegensatz zu den bekannten Algorithmen, wie die Partikelschwarmoptimierung oder die evolutionären Algorithmen, setzt die neu entwickelte Methode bei der Suche nach dem Minimum einer Kostenfunktion auf eine systematische Analyse der durchgeführten Simulationsergebnisse. Mit Hilfe der bei der Analyse gewonnenen Informationen werden Bereiche mit den bestmöglichen Voraussetzungen für ein Minimum identifiziert. Somit verzichtet das iterative Verfahren bei der Bestimmung des nächsten Iterationsschrittes auf die Verwendung einer Zufallsvariable. Als Ergebnis der Berechnungen steht ein gut gewählter Startwert für eine lokale Optimierung zur Verfügung. Aufbauend auf der Simulation der Fahrzeuglängsdynamik, der Steuergerätefunktionen und der Steller-Sensor-Streckenmodelle in einer Simulationsumgebung wird die Hybrid-Betriebsstrategie gemeinsam mit der Steuerung des Verbrennungsmotors optimiert. Mit der Entwicklung und Implementierung einer neuen Funktion wird weiterhin die Verbindung zwischen der Betriebsstrategie und der Motorsteuerung erweitert. Die vorgestellten Werkzeuge ermöglichten hierbei nicht nur einen Test der neuen Funktionalitäten, sondern auch eine Abschätzung der Verbesserungspotentiale beim Verbrauch und Abgasemissionen. Insgesamt konnte eine effiziente Testumgebung für eine gemeinsame Optimierung der Betriebsstrategie und des Verbrennungsmotorverhaltens eines Hybridfahrzeugs realisiert werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die vorliegende Arbeit befasst sich mit dem lateralen Auflösungsvermögen in der kurzkohärenten Interferenzmikroskopie. Das 3D-Auflösungsvermögen von Phasenobjekten ist im Gegensatz zu dem von Intensitätsobjekten stark nichtlinear und vom spezifischen Messverfahren abhängig. In diesem Zusammenhang sind systematische Messfehler von entscheidender Bedeutung. Für die kurzkohärente Interferenzmikroskopie ist das Überschwingen an Kanten von besonderem Belang, da sich der Effekt bei der Messung vieler technischer Oberflächen negativ auswirkt. Er entsteht durch die Überlagerung von Interferenzsignalen lateral benachbarter Objektpunkte von unterschiedlichen Höhenniveaus. Es wird an speziell für diesen Zweck entwickelten Messsystemen untersucht in wie weit dieser Effekt physikalisch reduziert werden kann und wie sich dies auf die laterale Auflösung auswirkt. An einem für den Einsatz in einer Nanomessmaschine optimierten Linnik-Interferometer wird die Justage eines solchen Systems erläutert. Der Sensor verfügt über die Option mit NUV-Licht betrieben zu werden, um die laterale Auflösung zu verbessern. Aufgrund des Einsatzzweckes ist der Arbeitsabstand relativ groß, was die laterale Auflösung einschränkt. Mit einem zweiten auf die Untersuchungen in dieser Arbeit optimierten Versuchsaufbau können die physikalischen Grenzen der kurzkohärenten Interferenzmikroskopie praktisch untersucht werden. Zu diesem Zweck ist der Aufbau mit einem Mikrospiegelarray ausgestattet, um hierüber variable konfokale Blenden zu schaffen. Mit diesem System wird erstmalig konfokale Mikroskopie mit Weißlichtinterferometrie kombiniert. Durch die optische Selektion der konfokalen Mikroskopie soll die Ursache für die Überschwinger an Kanten reduziert werden. Eine weitere Möglichkeit der Einflussnahme stellt die optionale Beleuchtung mit polarisiertem Licht dar, wodurch die laterale Auflösung weiter gesteigert werden kann. Zusätzlich kann auch dieser Aufbau mit kurzwelligem blauem Licht betrieben werden, um die laterale Auflösung zu optimieren. Die Messergebnisse, die mit diesen Versuchsaufbauten gemacht wurden, zeigen, dass im Gegensatz zu den in der derzeitigen Normung genutzten Modellen das Übertragungsverhalten in der Weißlichtinterferometrie bei der Messung von Phasenobjekten stark nichtlinear ist. Das laterale Auflösungsvermögen deckt sich je nach Auswerteverfahren recht gut mit dem von klassischen Mikroskopen bei der Wiedergabe von Intensitätsobjekten. Für die Untersuchungen wurde überwiegend ein Auflösungsnormal mit neun unterschiedlichen eindimensionalen Rechteckstrukturen verwendet, die eine Nominalhöhe im kritischen Bereich kleiner der Kohärenzlänge der verwendeten Lichtquelle aufweisen. Die Ergebnisse bestätigen sich aber auch an technischen Messobjekten aus der Praxis wie beispielsweise einer „digital video disc“.