986 resultados para räumliche Entwicklung
Resumo:
The 21st century has brought new challenges for forest management at a time when globalization in world trade is increasing and global climate change is becoming increasingly apparent. In addition to various goods and services like food, feed, timber or biofuels being provided to humans, forest ecosystems are a large store of terrestrial carbon and account for a major part of the carbon exchange between the atmosphere and the land surface. Depending on the stage of the ecosystems and/or management regimes, forests can be either sinks, or sources of carbon. At the global scale, rapid economic development and a growing world population have raised much concern over the use of natural resources, especially forest resources. The challenging question is how can the global demands for forest commodities be satisfied in an increasingly globalised economy, and where could they potentially be produced? For this purpose, wood demand estimates need to be integrated in a framework, which is able to adequately handle the competition for land between major land-use options such as residential land or agricultural land. This thesis is organised in accordance with the requirements to integrate the simulation of forest changes based on wood extraction in an existing framework for global land-use modelling called LandSHIFT. Accordingly, the following neuralgic points for research have been identified: (1) a review of existing global-scale economic forest sector models (2) simulation of global wood production under selected scenarios (3) simulation of global vegetation carbon yields and (4) the implementation of a land-use allocation procedure to simulate the impact of wood extraction on forest land-cover. Modelling the spatial dynamics of forests on the global scale requires two important inputs: (1) simulated long-term wood demand data to determine future roundwood harvests in each country and (2) the changes in the spatial distribution of woody biomass stocks to determine how much of the resource is available to satisfy the simulated wood demands. First, three global timber market models are reviewed and compared in order to select a suitable economic model to generate wood demand scenario data for the forest sector in LandSHIFT. The comparison indicates that the ‘Global Forest Products Model’ (GFPM) is most suitable for obtaining projections on future roundwood harvests for further study with the LandSHIFT forest sector. Accordingly, the GFPM is adapted and applied to simulate wood demands for the global forestry sector conditional on selected scenarios from the Millennium Ecosystem Assessment and the Global Environmental Outlook until 2050. Secondly, the Lund-Potsdam-Jena (LPJ) dynamic global vegetation model is utilized to simulate the change in potential vegetation carbon stocks for the forested locations in LandSHIFT. The LPJ data is used in collaboration with spatially explicit forest inventory data on aboveground biomass to allocate the demands for raw forest products and identify locations of deforestation. Using the previous results as an input, a methodology to simulate the spatial dynamics of forests based on wood extraction is developed within the LandSHIFT framework. The land-use allocation procedure specified in the module translates the country level demands for forest products into woody biomass requirements for forest areas, and allocates these on a five arc minute grid. In a first version, the model assumes only actual conditions through the entire study period and does not explicitly address forest age structure. Although the module is in a very preliminary stage of development, it already captures the effects of important drivers of land-use change like cropland and urban expansion. As a first plausibility test, the module performance is tested under three forest management scenarios. The module succeeds in responding to changing inputs in an expected and consistent manner. The entire methodology is applied in an exemplary scenario analysis for India. A couple of future research priorities need to be addressed, particularly the incorporation of plantation establishments; issue of age structure dynamics; as well as the implementation of a new technology change factor in the GFPM which can allow the specification of substituting raw wood products (especially fuelwood) by other non-wood products.
Resumo:
Zusammenfassung der Dissertation von Barbara Wieder zum Thema: Entwicklung von Interessen und Nicht-Interessen bei Kindern im Kindergarten, in der Grundschule und in der Sekundarstufe I. Die vorliegende Arbeit beschäftigt sich mit der Genese und Entwicklung von Interessen und Nicht-Interessen von Kindern im Alter von 4 bis 16 Jahren. Dazu wurden 87 Kinder sowie deren Eltern und Lehrkräfte bzw. Erzieherinnen mittels strukturierter Interviews in einem Längsschnitt etwa alle zwei Jahre wiederholt befragt. Theoretische Grundlage ist die Rahmenkonzeption einer pädagogischen Interessentheorie, die Interesse als einen Bezug zwischen einer Person und einem Gegenstand bestimmt. Dieser Bezug ist charakterisiert durch die Merkmale kognitive Ausprägung, emotionale Tönung und Wertaspekt (SCHIEFELE et al. 1983) sowie durch die Merkmale zur qualitativen Unterscheidung der PG-Bezüge zwischen Vorläufer-Interessen und Individuellen Interessen von VOGT und WIEDER (1999). Nicht-Interesse wird gemäß UPMEIER ZU BELZEN und VOGT (2001) mithilfe theoretischer Merkmale (wie z. B. Kognition, Emotion, Wertbezug) in zwei unterschiedliche Ausprägungsformen – Desinteresse und Abneigung – differenziert. Für die vorliegende Arbeit ergeben sich folgende Untersuchungsfragen: Wie entstehen Interessen und Nicht-Interessen und wie verlaufen qualitative Entwicklungen? Inwiefern werden die Interessen und Nicht-Interessen im Verlauf außerschulisch und schulisch beeinflusst? Für die Datenerhebung wurden im Rahmen der vorliegenden Studie „halbstandardisierte“ Interviewleitfäden entwickelt und mithilfe der Grundtechniken der qualitativen Inhaltsanalyse von MAYRING (2003) ausgewertet. Die Ergebnisse verdeutlichen, dass alle befragten Kinder spätestens ab dem Schuleintritt über mindestens ein gemäß der Theorie definiertes Individuelles Interesse verfügten, die bis auf eine Ausnahme im außerschulischen Bereich festgestellt wurden. Ausgelöst wurden die Interessen hauptsächlich durch die Eltern und Peers, wobei der Einfluss der Peers im Entwicklungsverlauf immer mehr an Bedeutung gewann. Mit zunehmendem Alter hatten die Kinder auch Nicht-Interessen, die vor allem durch Erlebnisse ausgelöst wurden. Zusätzlich wurde die Entwicklung der Interessen und Nicht-Interessen durch den Grad der Befriedigung der grundlegenden Bedürfnisse (basic needs gemäß DECI & RYAN 1993) nach Kompetenz, Autonomie und sozialer Eingebundenheit während der Person-Gegenstands-Auseinandersetzungen beeinflusst. Beispielsweise fehlte bei Kindern mit schulischen Nicht-Interessen häufig das Erleben von Kompetenz und Autonomie in der Schule. Um der Entstehung von Nicht-Interessen in der Schule vorbeugen zu können, sollte ein alltagsrelevanter, kognitiv und methodisch differenzierter Unterricht stattfinden, der möglichst allen Kindern ein individuelles, positives Kompetenz- und Autonomieerleben ermöglicht. Dann könnten zukünftig sogar vielleicht auch Interessen in der Schule angestoßen werden.
Resumo:
Die vorliegende Arbeit ist Teil eines Verbund-Forschungsprojektes mit dem Ziel, eine Präzisions-Bodenbearbeitung in Abhängigkeit von verschiedenen Bodenparametern sowie dem Bodenbedeckungsgrad zu realisieren. Ziel dieses Teilprojektes war die Bereitstellung einer Online-Messung des Bedeckungsgrades, um die Bearbeitungsintensität während der Feldüberfahrt regeln zu können: Ein Kamerasensor vorne am Schlepper ermittelt die Bodenbedeckung und ein Tiefen-Sollwert wird an das Regelsystem eines Gerätes zur teilfächenspezifischen Bodenbearbeitung ausgegeben. Da unter Feldbedingungen Methoden zur Bedeckungsgradmessung nur relativ zueinander verglichen werden können, wurde zunächst ein Laborvergleich mit wohldefinierten Bodenbedeckungen durchgeführt, um die prinzipiellen Stärken und Schwächen von Bildanalyse sowie zwei visuellen Methoden (Gitterraster-Methode und „Meterstick-Methode“) zu ermitteln: • Eine visuelle Methode, die auf einer begrenzten Anzahl von einfachen Stichprobenbeobachtungen beruht (Gitter), überschätzte den Bedeckungsgrad systematisch, wobei dieser Effekt unter Feldbedingungen vermutlich klein gegenüber der bekannten Schwankungsbreite zwischen Messungen verschiedener Beobachter ist. • Eine visuelle Methode, die auch Größe und Orientierung des Strohs berücksichtigt (Meterstick), lieferte präzise mittlere Messwerte. Diese Methode war die mit Abstand arbeitsaufwändigste. • Nach einer einfachen Korrektur des Abbildungsfehlers des Kameraobjektivs war auch die Bildverarbeitungs-Methode in der Lage, die bekannten tatsächlichen Bedeckungsgrade exakt darzustellen, bei gleichzeitig der geringsten Schwankungsbreite der Messwerte. Die Online-Messung der Bodenbedeckung durch Ernterückstände ist bisher jedoch ungelöst. Obwohl in früheren Untersuchungen Texturmerkmale oder Farbunterschiede erfolgreich genutzt wurden, um den Bedeckungsgrad zu bestimmen, wird eine Bedienperson zur interaktiven Festlegung bestimmter Parameter benötigt. Um den Prototypen eines onlinefähigen Kamerasensors zu entwickeln, wurden geeignete Ausrüstung und Bedingungen zur Bildaufnahme untersucht und verschiedene Auswertealgorithmen mit Hilfe einer wissenschaftlichen Bildanalysesoftware geschrieben und getestet: • Da im Nahinfraroten zwischen ca. 800 und 1400 nm der größte Intensitäts-Kontrast zwischen Stroh und Boden besteht wurde zur Bildaufnahme eine Schwarz-Weiss-CCD-Kamera mit aufgesetztem Infrarotfilter gewählt. Eine Diffusor-Box sorgte für homogene Beleuchtungsbedingungen. • Zwei auf Kantendetektion und automatischer Schwellwertsetzung basierende Versionen („A“ und „B“) eines „klassischen“ Segmentierungsalgorithmus wurden geschrieben. Durch einen iterativen Ansatz konnten geeignete Thresholding-Verfahren abhängig von der Größenordnung der Bodenbedeckung verwendet werden. Die zur Online-Regelung der Bearbeitungstiefe nötige Beschränkung der Prozesslaufzeit auf ca. 1000 ms/Bild konnte eingehalten werden. • Eine alternative automatisierbare Kontrollmethode wurde entwickelt, welche Merkmale der Grauwerthistogramme der Stroh/Boden-Bilder auswertet (Algorithmus „C“). Dieser Ansatz ist nochmals deutlich schneller als eine Bildsegmentierung (ca. 5 – 10 Bilder/s). • Der Sensor wurde an einem Quad montiert und die Bodenbedeckung auf drei Testfeldern untersucht. Zwischen den Messergebnissen eines Algorithmus vom Typ A/B und dem Ansatz C wurde eine Pearson-Korrelation von 0,967 für die Messwertegesamtheit gefunden. • Auf Versuchsparzellen mit definiert aufgebrachten Strohmengen (ein weiteres Teil-projekt) wurden an GPS-referenzierten Punkten Bilder mit dem Sensor aufgenommen und Referenzmessungen mit der visuellen Gitterraster-Methode durchgeführt. Zwischen der Bildverarbeitung (A, B) und dem Gitter ergaben sich befriedigende Pearson-Korrelationen im Bereich von 0,7 – 0,8. Allerdings waren für hohe Bedeckungen die Ergebnisse des Sensors meist signifikant niedrigere als der Mittelwert von drei das Gitter auszählenden Personen. Eine Kontrolle mit Ansatz C ergab, dass die Histogramm-Merkmale der einzelnen Bilder deutlich besser mit den per Bildverarbeitung ermittelten Bedeckungsgraden korrelierten als mit den Gittermessungen. – Insgesamt erwies sich die schnelle Bildverarbeitung als geeignet für den Einsatz als neue Referenzmethode zur Messung der Bodenbedeckung durch Ernterückstände. • Da der Aufbau des Sensors ohne die Diffusor-Box praxisgerechter ist, besteht weiterer Forschungsbedarf in Bezug auf die dann auftretenden Probleme durch stark wechselnde Beleuchtung und Schattenwurf. • In einem letzten Schritt wurde der Kamerasensor erfolgreich in ein bereits entwickeltes System zur teilflächenspezifischen Bodenbearbeitung an der Universität Kiel integriert. Eine Regelung der Arbeitstiefe durch den Kamerasensor war problemlos möglich, allerdings gilt es noch belastbare Kriterien für die Vorgabe von Tiefen-Sollwerten in Abhängigkeit vom Bedeckungsgrad zu entwickeln.
Resumo:
Der vorliegende Bericht soll die Ergebnisse einer Untersuchung der wirtschaftsgeschichtlichen Entwicklung der Regionen Kassel/Nordhessen und Jena/Thüringen zusammenfassen. Als leitende Frage hinter der Untersuchung steht das Problem, inwieweit das gegenwärtige Innovationspotential der beiden Regionen von den Gegebenheiten ihrer Geschichte bestimmt wird. Dabei sollen mögliche Hinweise auf die geschichtlichen Grundlagen heutiger Unterschiede in den Untersuchungsregionen in den Blick gerückt werden. Von besonderem Interesse ist in diesem Zusammenhang, dass es sich sowohl in Bezug auf Kassel als auch auf Jena um klassische Industriestädte handelt, die darüber hinaus entscheidend durch das Vorhandensein eines Großunternehmens geprägt worden sind. Ziel der Untersuchung war es, in der Geschichte vor allem diejenigen Momente auszumachen, die für die Entstehung von regionalen Innovationssystemen förderlich oder hemmend wirksam geworden sind. Der Untersuchung liegt ein kulturgeschichtlicher Ansatz zugrunde, der die Wirtschaftsgeschichte zwar in den Vordergrund stellt, diese aber als einen Faktor unter anderen begreift. So werden politische und kulturelle sowie alltags- und mentalitätsgeschichtliche Aspekte einbezogen. Der zeitliche Untersuchungsrahmen im engeren Sinne liegt zwischen dem ausgehenden 19. Jahrhundert und der Wiedervereinigung der beiden deutschen Staaten im 20. Jahrhundert. Zwar war es notwendig, auch den Zeitraum vor der Epochenzäsur der „Zweiten Wirtschaftlichen Revolution“ einzubeziehen, doch ist mit dieser ein sinnvoller Ansatzpunkt für eine ausführlichere Untersuchung gegeben. Der Bericht gliedert sich in einen ersten Abschnitt, der sich mit der Region Kassel/Nordhessen befasst, und einen zweiten Abschnitt zur Region Jena/Thüringen. Zuerst werden jeweils die politisch-historischen Rahmenbedingung und die industrielle Entwicklung der Region erörtert. Es folgt die Betrachtung der Unternehmensentwicklung der jeweiligen Großbetriebe vor dem geschichtlichen Hintergrund. Deren Wechselwirkung mit Politik und Kultur wird nachgegangen, bevor dann die Frage nach den Folgen für das regionale Innovationspotential gestellt wird. Hier können nur einige Mutmaßungen angestellt werden, ein sicheres Urteil ist mit den vorliegenden Kenntnissen nicht möglich. Abschließend folgt ein Vergleich der Regionen.
Resumo:
Die cAMP-abhängige Proteinkinase ist an der Regulation grundlegender zellulärer Prozesse, wie Entwicklung und Differenzierung, sowie Stoffwechselprozessen, beteiligt. Das Holoenzym bestehend aus einem Dimer regulatorischer (R) und zwei katalytischer C (C) Untereinheiten wird durch den sekundären Botenstoff cAMP reguliert. Die molekulare Grundlage der Holoenzymdynamik, sowie die räumliche und zeitliche Koordination der Holoenzyme in der cAMP-vermittelten Signaltransduktion sind zentrale Themen der aktuellen Forschung. Die Dynamik wird in erster Linie durch die cAMP-Konzentration, die Isoenzymzusammensetzung und die Verfügbarkeit von Kinasesubstraten bestimmt. Klassischerweise wurde die Holoenzymdynamik auf Grundlage der Phosphotransferaseaktivität der C Untereinheit untersucht. Der Effekt von Substrat auf die apparenten Aktivierungskonstanten (cAMP) konnte aber so nicht bestimmt werden, sodass in dieser Arbeit eine alternative Methode entwickelt werden musste, die unabhängig von der Messung der Substratphosphorylierung ist. Eine Validierung dieser SPR-basierten Methode erfolgte mit Typ-I Holoenzym, wobei eine leichtere Aktivierung in Gegenwart von Substrat bestätigt werden konnte. Überraschenderweise wurde mit dieser Methode der umgekehrte Effekt von Substratpeptid auf die Aktivierung des Typ-II Holoenzyms gemessen, wobei mit steigender Substratkonzentration größere apparente Aktivierungskonstanten bestimmt wurden. Durch gerichtete Mutationen der P0-Stelle in der Autoinhibitionsdomäne konnte diese Position als eine Hauptdeterminante für die Dynamik der Holoenzyme identifiziert werden. Im Allgemeinen führen Pseudosubstratinhibitoren (RI, RIIS99A) in Abhängigkeit von der Substratkonzentration zu einer Verkleinerung, und Substratinhibitoren (RII, RIA99S) zu einer Vergrößerung der apparenten Aktivierungskonstanten der entsprechenden Holoenzyme. Bei Untersuchungen zum Phosphostatus der hRII im Holoenzymkomplex sowie während der Dissoziation in Gegenwart oder Abwesenheit von Substrat, konnte mit Serin 58 eine zweite Autophosphorylierungsstelle in der Linkerregion identifiziert werden, die ein deutlich langsameres Laufverhalten in der SDS PAGE hervorruft. Allerdings konnte dieser Stelle keine Funktion im Bezug auf die Interaktion mit der katalytischen Untereinheit sowie ausgewählten AKAPs zugesprochen werden. In dieser Arbeit konnte ein gegensätzlicher Mechanismus zur Feinregulation der Dynamik des Typ-I und –II Holoenzyms durch Substrat gezeigt und die molekulare Grundlage aufgeklärt werden. Diese bisher nicht beschriebene Autophosphorylierungsstelle könnte eine wichtige Rolle in der Konformationskontrolle des N-Terminus spielen, oder als Plattform zur Wechselwirkung mit bisher unbekannten Interaktionspartnern der hRII dienen.
Resumo:
„Jeder Mensch muss lernen wie er oder sie eine Zukunft im Sinne der Nachhaltigen Entwicklung für sich und gemeinsam mit anderen gestalten kann“ (de Haan 2009, S. 9 f.). Auf den Weltkonferenzen in Rio de Janeiro 1992 und Johannesburg 2002 wurde diese Vorgabe für die Politik und schließlich für die Bildung ausgegeben. Die Aufgabe besteht nun darin, Wege zu finden dies zu erreichen und umzusetzen. Bei den damit einhergehenden Überlegungen spielt die Bildung eine immens wichtige Rolle. An diesem Punkt setzt die vorliegende Arbeit an. Im Mittelpunkt steht die Überprüfung der These, dass Bildung, durch die Ermöglichung eines Bewusstseinswandels der Menschen im Bezug auf nachhaltige Entwicklung als eine Antwort auf die mit dem Globalisierungsprozess verbundenen Probleme verstanden werden kann. In diesem Zusammenhang werden Bildungskonzepte, wie die Bildung für nachhaltige Entwicklung , untersucht und es wird der Frage nachgegangen, wie ein Unterricht im Sinne der nachhaltigen Entwicklung gestaltet werden muss.
Resumo:
In dieser Arbeit wurde ein gemischt-ganzzahliges lineares Einsatzoptimierungsmodell für Kraftwerke und Speicher aufgebaut und für die Untersuchung der Energieversorgung Deutschlands im Jahre 2050 gemäß den Leitstudie-Szenarien 2050 A und 2050 C ([Nitsch und Andere, 2012]) verwendet, in denen erneuerbare Energien einen Anteil von über 85 % an der Stromerzeugung haben und die Wind- und Solarenergie starke Schwankungen der durch steuerbare Kraftwerke und Speicher zu deckenden residualen Stromnachfrage (Residuallast) verursachen. In Szenario 2050 A sind 67 TWh Wasserstoff, die elektrolytisch aus erneuerbarem Strom zu erzeugen sind, für den Verkehr vorgesehen. In Szenario 2050 C ist kein Wasserstoff für den Verkehr vorgesehen und die effizientere Elektromobilität hat einen Anteil von 100% am Individualverkehr. Daher wird weniger erneuerbarer Strom zur Erreichung desselben erneuerbaren Anteils im Verkehrssektor benötigt. Da desweiteren Elektrofahrzeuge Lastmanagementpotentiale bieten, weisen die Residuallasten der Szenarien eine unterschiedliche zeitliche Charakteristik und Jahressumme auf. Der Schwerpunkt der Betrachtung lag auf der Ermittlung der Auslastung und Fahrweise des in den Szenarien unterstellten ’Kraftwerks’-parks bestehend aus Kraftwerken zur reinen Stromerzeugung, Kraft-Wärme-Kopplungskraftwerken, die mit Wärmespeichern, elektrischen Heizstäben und Gas-Backupkesseln ausgestattet sind, Stromspeichern und Wärmepumpen, die durch Wärmespeicher zum Lastmanagment eingesetzt werden können. Der Fahrplan dieser Komponenten wurde auf minimale variable Gesamtkosten der Strom- und Wärmeerzeugung über einen Planungshorizont von jeweils vier Tagen hin optimiert. Das Optimierungsproblem wurde mit dem linearen Branch-and-Cut-Solver der software CPLEX gelöst. Mittels sogenannter rollierender Planung wurde durch Zusammensetzen der Planungsergebnisse für überlappende Planungsperioden der Kraftwerks- und Speichereinsatz für die kompletten Szenariojahre erhalten. Es wurde gezeigt, dass der KWK-Anteil an der Wärmelastdeckung gering ist. Dies wurde begründet durch die zeitliche Struktur der Stromresiduallast, die wärmeseitige Dimensionierung der Anlagen und die Tatsache, dass nur eine kurzfristige Speicherung von Wärme vorgesehen war. Die wärmeseitige Dimensionierung der KWK stellte eine Begrenzung des Deckungsanteils dar, da im Winter bei hoher Stromresiduallast nur wenig freie Leistung zur Beladung der Speicher zur Verfügung stand. In den Berechnungen für das Szenario 2050 A und C lag der mittlere Deckungsanteil der KWK an der Wärmenachfrage von ca. 100 TWh_th bei 40 bzw. 60 %, obwohl die Auslegung der KWK einen theoretischen Anteil von über 97 % an der Wärmelastdeckung erlaubt hätte, gäbe es die Beschränkungen durch die Stromseite nicht. Desweiteren wurde die CO2-Vermeidungswirkung der KWK-Wärmespeicher und des Lastmanagements mit Wärmepumpen untersucht. In Szenario 2050 A ergab sich keine signifikante CO2-Vermeidungswirkung der KWK-Wärmespeicher, in Szenario 2050 C hingegen ergab sich eine geringe aber signifikante CO2-Einsparung in Höhe von 1,6 % der Gesamtemissionen der Stromerzeugung und KWK-gebundenen Wärmeversorgung. Das Lastmanagement mit Wärmepumpen vermied Emissionen von 110 Tausend Tonnen CO2 (0,4 % der Gesamtemissionen) in Szenario A und 213 Tausend Tonnen in Szenario C (0,8 % der Gesamtemissionen). Es wurden darüber hinaus Betrachtungen zur Konkurrenz zwischen solarthermischer Nahwärme und KWK bei Einspeisung in dieselben Wärmenetze vorgenommen. Eine weitere Einschränkung der KWK-Erzeugung durch den Einspeisevorrang der Solarthermie wurde festgestellt. Ferner wurde eine untere Grenze von 6,5 bzw. 8,8 TWh_th für die in den Szenarien mindestens benötigte Wasserstoff-Speicherkapazität ermittelt. Die Ergebnisse dieser Arbeit legen nahe, das technisch-ökonomische Potential von Langzeitwärmespeichern für eine bessere Integration von KWK ins System zu ermitteln bzw. generell nach geeigneteren Wärmesektorszenarien zu suchen, da deutlich wurde, dass für die öffentliche Wärmeversorgung die KWK in Kombination mit Kurzzeitwärmespeicherung, Gaskesseln und elektrischen Heizern keine sehr effektive CO2 -Reduktion in den Szenarien erreicht. Es sollte dabei z.B. untersucht werden, ob ein multivalentes System aus KWK, Wärmespeichern und Wärmepumpen eine ökonomisch darstellbare Alternative sein könnte und im Anschluss eine Betrachtung der optimalen Anteile von KWK, Wärmepumpen und Solarthermie im Wärmemarkt vorgenommen werden.
Resumo:
Im Rahmen der vorliegenden Arbeit wird ein Verfahren vorgestellt und untersucht, mit welchem Früchte annähernd verlustfrei und unter sehr hygienischen Bedingungen geschnitten werden können. Die Produkte – hier gezeigt am Beispiel von Äpfeln und Melonen – werden mit einem Hochdruckwasserstrahl geschnitten, der durch ein bildverarbeitendes System entsprechend der Anatomie der Frucht geführt werden kann. Die Vorteile dieses Verfahrens sind die individuelle Schnittführung, die Materialverluste minimiert und die Tatsache, dass die Frucht ohne wesentlichen Eingriff von Personal bearbeitet wird. Die Literaturauswertung ergab, dass diese Technologie bislang noch nicht bearbeitet wurde. Der Einsatz des Hochdruckwasserstrahlschneidens im Bereich der Agrartechnik beschränkte sich auf das Schneiden von Zuckerrüben Brüser [2008], Ligocki [2005] bzw. Kartoffeln Becker u. Gray [1992], das Zerteilen von Fleisch Bansal u. Walker [1999] und Fisch Lobash u. a. [1990] sowie die Nutzung von Wasserstrahlen im Zusammenhang mit der Injektion von Flüssigdünger in Ackerböden Niemoeller u. a. [2011]. Ziel dieser Arbeit war es daher, die Einsatzmöglichkeiten des Wasserstrahlschneidens zu erfassen und zu bewerten. Dazu wurden in einer Vielzahl von Einzelversuchen die Zusammenhänge zwischen den Prozessparametern wie Wasserdruck, Düsendurchmesser, Vorschubgeschwindigkeit und Düsenabstand auf das Schnittergebnis, also die Rauheit der entstehenden Schnittfläche untersucht. Ein Vergleich mit konventionellen Schneidemethoden erfolgte hinsichtlich der Schnittergebnisse und der Auswirkungen des Wasserstrahlschneidens auf nachfolgende Verfahrensschritte, wie dem Trocknen.
Resumo:
Im Rahmen der Dissertation erfolgt die rechnerische Bewertung des sommerlichen Wärmeverhaltens von Räumen ausgehend von den Festlegungen der DIN 4108-2:2003-07 zum sommerlichen Mindestwärmeschutz. Hierbei wird die Anwendung des sogenannten Sonneneintragskennwert-Verfahrens in einer weit angelegten Parameterstudie fallweise der Auswertung von korrespondierenden Simulationsrechnungen gegenübergestellt. Verbunden mit dem Ziel, die Anforderungen an den sommerlichen Mindestwärmeschutz für eine Neufassung der DIN 4108-2 zu überarbeiten und an aktuelle klimatische Verhältnisse anzupassen, gehen die Ergebnisse dieser Gegenüberstellung zum einen in die Entwicklung einer modifizierten Fassung des Sonneneintragskennwert-Verfahrens und zum anderen in die Formulierung einheitlicher Berechnungsrandbedingungen für den Fall der Nachweisführung durch Simulationsrechnungen ein. Aufbauend auf diesen Arbeiten zur Neuformulierung der Mindestanforderungen an den sommerlichen Wärmeschutz in DIN 4108-2, die im Rahmen des „Zukunft Bau“ Forschungsvorhabens „Ermittlung aktueller Randbedingungen für den sommerlichen Wärmeschutz und weiterer Gebäudeeigenschaften im Lichte des Klimawandels. Teil 2: Entwicklung eines Gesamtkonzepts für ein künftiges technisches Regelwerk zum Nachweis des sommerlichen Wärmeschutzes.“ erfolgt sind, werden weitergehende Untersuchungen angestellt, die sich im Wesentlichen mit dem sommerlichen Wärmeverhalten von Gebäuden im Kontext des weiter voranschreitenden Klimawandels beschäftigen. Die Untersuchungen hierzu sind eingebunden in das „Zukunft Bau“ Forschungsvorhaben „Thermisches und energetisches Verhalten von Gebäuden im Lichte des Klimawandels. Anforderungen und Lösungen für den Sonnenschutz.“ Im Rahmen der Bearbeitung dieses Forschungsvorhabens erfolgen neben der Bewertung des thermischen Verhaltens unter sich weiter verschärfenden klimatischen Randbedingungen Komfortbewertungen des Sommerfalls auf Basis der DIN EN 15251. Hierbei werden die durch DIN 4108-2:2013-02 formulierten Mindestanforderungen an den sommerlichen Wärmeschutz den Anforderungen zur Einhaltung der durch DIN EN 15251 definierten Komfortklassen gegenübergestellt und bewertet. Die Ergebnisse der Bearbeitung der genannten Forschungsvorhaben dienen schließlich als Grundlage für die Entwicklung eines erweiterten Kennwertverfahrens zur Komfort-bewertung des Sommerfalls auf Basis der DIN EN 15251.
Resumo:
In dieser Dissertation werden Methoden zur optimalen Aufgabenverteilung in Multirobotersystemen (engl. Multi-Robot Task Allocation – MRTA) zur Inspektion von Industrieanlagen untersucht. MRTA umfasst die Verteilung und Ablaufplanung von Aufgaben für eine Gruppe von Robotern unter Berücksichtigung von operativen Randbedingungen mit dem Ziel, die Gesamteinsatzkosten zu minimieren. Dank zunehmendem technischen Fortschritt und sinkenden Technologiekosten ist das Interesse an mobilen Robotern für den Industrieeinsatz in den letzten Jahren stark gestiegen. Viele Arbeiten konzentrieren sich auf Probleme der Mobilität wie Selbstlokalisierung und Kartierung, aber nur wenige Arbeiten untersuchen die optimale Aufgabenverteilung. Da sich mit einer guten Aufgabenverteilung eine effizientere Planung erreichen lässt (z. B. niedrigere Kosten, kürzere Ausführungszeit), ist das Ziel dieser Arbeit die Entwicklung von Lösungsmethoden für das aus Inspektionsaufgaben mit Einzel- und Zweiroboteraufgaben folgende Such-/Optimierungsproblem. Ein neuartiger hybrider Genetischer Algorithmus wird vorgestellt, der einen teilbevölkerungbasierten Genetischen Algorithmus zur globalen Optimierung mit lokalen Suchheuristiken kombiniert. Zur Beschleunigung dieses Algorithmus werden auf die fittesten Individuen einer Generation lokale Suchoperatoren angewendet. Der vorgestellte Algorithmus verteilt die Aufgaben nicht nur einfach und legt den Ablauf fest, sondern er bildet auch temporäre Roboterverbünde für Zweiroboteraufgaben, wodurch räumliche und zeitliche Randbedingungen entstehen. Vier alternative Kodierungsstrategien werden für den vorgestellten Algorithmus entworfen: Teilaufgabenbasierte Kodierung: Hierdurch werden alle möglichen Lösungen abgedeckt, allerdings ist der Suchraum sehr groß. Aufgabenbasierte Kodierung: Zwei Möglichkeiten zur Zuweisung von Zweiroboteraufgaben wurden implementiert, um die Effizienz des Algorithmus zu steigern. Gruppierungsbasierte Kodierung: Zeitliche Randbedingungen zur Gruppierung von Aufgaben werden vorgestellt, um gute Lösungen innerhalb einer kleinen Anzahl von Generationen zu erhalten. Zwei Umsetzungsvarianten werden vorgestellt. Dekompositionsbasierte Kodierung: Drei geometrische Zerlegungen wurden entworfen, die Informationen über die räumliche Anordnung ausnutzen, um Probleme zu lösen, die Inspektionsgebiete mit rechteckigen Geometrien aufweisen. In Simulationsstudien wird die Leistungsfähigkeit der verschiedenen hybriden Genetischen Algorithmen untersucht. Dazu wurde die Inspektion von Tanklagern einer Erdölraffinerie mit einer Gruppe homogener Inspektionsroboter als Anwendungsfall gewählt. Die Simulationen zeigen, dass Kodierungsstrategien, die auf der geometrischen Zerlegung basieren, bei einer kleinen Anzahl an Generationen eine bessere Lösung finden können als die anderen untersuchten Strategien. Diese Arbeit beschäftigt sich mit Einzel- und Zweiroboteraufgaben, die entweder von einem einzelnen mobilen Roboter erledigt werden können oder die Zusammenarbeit von zwei Robotern erfordern. Eine Erweiterung des entwickelten Algorithmus zur Behandlung von Aufgaben, die mehr als zwei Roboter erfordern, ist möglich, würde aber die Komplexität der Optimierungsaufgabe deutlich vergrößern.