112 resultados para Tiefe Geothermie


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Heutzutage gewähren hochpräzise Massenmessungen mit Penning-Fallen tiefe Einblicke in die fundamentalen Eigenschaften der Kernmaterie. Zu diesem Zweck wird die freie Zyklotronfrequenz eines Ions bestimmt, das in einem starken, homogenen Magnetfeld gespeichert ist. Am ISOLTRAP-Massenspektrometer an ISOLDE / CERN können die Massen von kurzlebigen, radioaktiven Nukliden mit Halbwertszeiten bis zu einigen zehn ms mit einer Unsicherheit in der Größenordnung von 10^-8 bestimmt werden. ISOLTRAP besteht aus einem Radiofrequenz-Quadrupol zum akkumulieren der von ISOLDE gelieferten Ionen, sowie zwei Penning-Fallen zum säubern und zur Massenbestimmung der Ionen. Innerhalb dieser Arbeit wurden die Massen von neutronenreichen Xenon- und Radonisotopen (138-146Xe und 223-229Rn) gemessen. Für elf davon wurde zum ersten Mal die Masse direkt bestimmt; 229Rn wurde im Zuge dieses Experimentes sogar erstmalig beobachtet und seine Halbwertszeit konnte zu ungefähr 12 s bestimmt werden. Da die Masse eines Nuklids alle Wechselwirkungen innerhalb des Kerns widerspiegelt, ist sie einzigartig für jedes Nuklid. Eine dieser Wechselwirkungen, die Wechselwirkung zwischen Protonen und Neutronen, führt zum Beispiel zu Deformationen. Das Ziel dieser Arbeit ist eine Verbindung zwischen kollektiven Effekten, wie Deformationen und Doppeldifferenzen von Bindungsenergien, sogenannten deltaVpn-Werten zu finden. Insbesondere in den hier untersuchten Regionen zeigen deltaVpn-Werte ein sehr ungewöhnliches Verhalten, das sich nicht mit einfachen Argumenten deuten lässt. Eine Erklärung könnte das Auftreten von Oktupoldeformationen in diesen Gebieten sein. Nichtsdestotrotz ist eine quantitative Beschreibung von deltaVpn-Werten, die den Effekt von solchen Deformationen berücksichtigt mit modernen Theorien noch nicht möglich.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Atmospheric nitrogen (N) and phosphorus (P) depositions are expected to increase in the tropicsrnas a consequence of increasing human activities in the next decades. Furthermore, a possiblernshortened El Niño Southern Oscillation cycle might come along with more frequent calcium (Ca)rndepositions on the eastern slope of the Ecuadorian Andes originating from Saharan dust. It isrncrucial to understand the response of the old-growth montane forest in Ecuador to increasedrnnutrient deposition to predict the further development of this megadiverse ecosystem.rnI studied experimental additions of N, P, N+P and Ca to the forest and an untreatedrncontrol, all in a fourfold replicated randomized block design. These experiments were conductedrnin the framework of a collaborative research effort, the NUtrient Manipulation EXperimentrn(NUMEX). I collected litter leachate, mineral soil solution (0.15 and 0.30 m depths), throughfallrnand fine litterfall samples and determined N, P and Ca concentrations and fluxes. This approachrnalso allowed me to assess whether N, P and/or Ca are limiting nutrients for forest growth.rnFurthermore, I evaluated the response of fine root biomass, leaf area index, leaf area and specificrnleaf area, tree diameter growth and basal area increment contributed from a cooperating group inrnthe Ca applied and control treatments.rnDuring the observation period of 16 months after the first fertilizer application, less thanrn10, 1 and 5% of the applied N, P and Ca, respectively, leached below the organic layer whichrncontained almost all roots but no significant leaching losses occurred to the deeper mineral soil.rnDeposited N, P and Ca from the atmosphere in dry and wet form were, on balance, retained in therncanopy in the control treatment. Retention of N, P and Ca in the canopy in their respectiverntreatments was reduced resulting in higher concentrations and fluxes of N, P and Ca inrnthroughfall and litterfall. Up to 2.5% of the applied N and 2% of the applied P and Ca werernrecycled to the soil with throughfall. Fluxes of N, P and Ca in throughfall+litterfall were higher inrnthe fertilized treatments than in the control; up to 20, 5 and 25% of the applied N, P and Ca,rnrespectively, were recycled to the soil with throughfall+litterfall.rnIn the Ca-applied plots, fine root biomass decreased significantly. Also the leaf area of thernfour most common tree species tended to decrease and the specific leaf area increasedrnsignificantly in Graffenrieda emarginata Triana, the most common tree species in the study area.rnThese changes are known plant responses to reduced nutrient stress. Reduced aluminium (Al)rntoxicity as an explanation of the Ca effect was unlikely, because of almost complete organocomplexationrnof Al and molar Ca:Al concentration ratios in solution above the toxicity threshold.rnThe results suggest that N, P and Ca co-limit the forest ecosystem functioning in thernnorthern Andean montane forests in line with recent assumptions in which different ecosystemrncompartments and even different phenological stages may show different nutrient limitationsrn(Kaspari et al. 2008). I conclude that (1) the expected elevated N and P deposition will bernretained in the ecosystem, at least in the short term and hence, quality of river water will not bernendangered and (2) increased Ca input will reduce nutrient stress of the forest.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Copper and Zn are essential micronutrients for plants, animals, and humans; however, they may also be pollutants if they occur at high concentrations in soil. Therefore, knowledge of Cu and Zn cycling in soils is required both for guaranteeing proper nutrition and to control possible risks arising from pollution.rnThe overall objective of my study was to test if Cu and Zn stable isotope ratios can be used to investigate into the biogeochemistry, source and transport of these metals in soils. The use of stable isotope ratios might be especially suitable to trace long-term processes occurring during soil genesis and transport of pollutants through the soil. In detail, I aimed to answer the questions, whether (1) Cu stable isotopes are fractionated during complexation with humic acid, (2) 65Cu values can be a tracer for soil genetic processes in redoximorphic soils (3) 65Cu values can help to understand soil genetic processes under oxic weathering conditions, and (4) 65Cu and 66Zn values can act as tracers of sources and transport of Cu and Zn in polluted soils.rnTo answer these questions, I ran adsorption experiments at different pH values in the laboratory and modelled Cu adsorption to humic acid. Furthermore, eight soils were sampled representing different redox and weathering regimes of which two were influenced by stagnic water, two by groundwater, two by oxic weathering (Cambisols), and two by podzolation. In all horizons of these soils, I determined selected basic soil properties, partitioned Cu into seven operationally defined fractions and determined Cu concentrations and Cu isotope ratios (65Cu values). Finally, three additional soils were sampled along a deposition gradient at different distances to a Cu smelter in Slovakia and analyzed together with bedrock and waste material from the smelter for selected basic soil properties, Cu and Zn concentrations and 65Cu and 66Zn values.rnMy results demonstrated that (1) Copper was fractionated during adsorption on humic acid resulting in an isotope fractionation between the immobilized humic acid and the solution (65CuIHA-solution) of 0.26 ± 0.11‰ (2SD) and that the extent of fractionation was independent of pH and involved functional groups of the humic acid. (2) Soil genesis and plant cycling causes measurable Cu isotope fractionation in hydromorphic soils. The results suggested that an increasing number of redox cycles depleted 63Cu with increasing depth resulting in heavier 65Cu values. (3) Organic horizons usually had isotopically lighter Cu than mineral soils presumably because of the preferred uptake and recycling of 63Cu by plants. (4) In a strongly developed Podzol, eluviation zones had lighter and illuviation zones heavier 65Cu values because of the higher stability of organo-65Cu complexes compared to organo-63Cu complexes. In the Cambisols and a little developed Podzol, oxic weathering caused increasingly lighter 65Cu values with increasing depth, resulting in the opposite depth trend as in redoximorphic soils, because of the preferential vertical transport of 63Cu. (5) The 66Zn values were fractionated during the smelting process and isotopically light Zn was emitted allowing source identification of Zn pollution while 65Cu values were unaffected by the smelting and Cu emissions isotopically indistinguishable from soil. The 65Cu values in polluted soils became lighter down to a depth of 0.4 m indicating isotope fractionation during transport and a transport depth of 0.4 m in 60 years. 66Zn values had an opposite depth trend becoming heavier with depth because of fractionation by plant cycling, speciation changes, and mixing of native and smelter-derived Zn. rnCopper showed measurable isotope fractionation of approximately 1‰ in unpolluted soils, allowing to draw conclusions on plant cycling, transport, and redox processes occurring during soil genesis and 65Cu and 66Zn values in contaminated soils allow for conclusions on sources (in my study only possible for Zn), biogeochemical behavior, and depth of dislocation of Cu and Zn pollution in soil. I conclude that stable Cu and Zn isotope ratios are a suitable novel tool to trace long-term processes in soils which are difficult to assess otherwise.rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die vorliegende Arbeit verfolgte mehrere Ziele. Die Hauptaufgabe war es, farbsensitive und bewegungssensitive Neurone im Tectum opticum des Goldfisches zu finden und diese hinsichtlich ihres Antwortverhaltens zu charakterisieren. Aus Verhaltensversuchen ist bekannt, dass sowohl das Ganzfeldbewegungssehen als auch das Objektbewegungssehen „farbenblind“ ist, da die Verarbeitung dieser Sehleistungen jeweils nur von einem Zapfentyp getrieben wird. Es sollte untersucht werden, ob sich diese Farbenblindheit auch auf Ebene der tectalen bewegungsempfindlichen Neurone finden lässt. Schließlich sollten die Ableitorte im Tectum opticum kartiert werden, um festzustellen, ob es jeweils bestimmte örtlich abgegrenzte Areale für Farbe einerseits und für Bewegung andererseits gibt.rnDie Aktivität von tectalen Units wurde durch extrazelluläre Ableitungen registriert. Um farbspezifische Neurone zu identifizieren und zu charakterisieren, wurden 21 verschiedene Farbpapiere (HKS-Standard) aus dem gesamten Farbenkreis (ausgenommen UV) präsentiert. Auf jedes Farbpapier folgte ein neutrales Graupapier. Des Weiteren wurde eine Schwarz-Weiß-Grau-Sequenz gezeigt, um das Antwortverhalten der Units auf Helligkeitswechsel zu prüfen. Jeder Stimulus wurde für fünf Sekunden präsentiert und die gesamte Stimulussequenz wurde mindestens dreimal wiederholt. Zur Identifizierung bewegungssensitiver Neurone wurde ein sich exzentrisch bewegendes schwarz-weißes Zufallspunktmuster präsentiert. Um die „Farbenblindheit“ des Bewegungssehens zu testen, wurden zwei rot-grüne Zufallspunktmuster präsentiert, die den L-Zapfen des Goldfisches unterschiedlich stark modulierten. Den meisten Units wurden sowohl die Farb- als auch die Bewegungsstimuli gezeigt.rnEs konnten 69 Units abgeleitet werden. Von diesen antworteten 34 sowohl auf Farbstimuli als auch auf Helligkeitsreize, 19 Units reagierten ausschließlich auf Farbstimuli, 15 Units zeigten sich nur für den Bewegungsstimulus sensitiv und zwei Units beantworteten ausschließlich Helligkeitswechsel. Die farbempfindlichen Units konnten in 14 Gruppen eingeteilt werden: sechs Gruppen im Rotbereich (22 Units), fünf Gruppen im Blau-Grünbereich (21 Units), eine Gruppe im Gelbbereich (zwei Units), eine Gruppe, die alle Farbstimuli mit Erhöhung der Aktivität (sechs Units) und eine Gruppe, die alle Farbstimuli mit Erniedrigung der Aktivität (eine Unit) beantwortete. Es wurden zwei Arten von Gegenfarbzellen gefunden: Rot-ON/Blau-und-Grün-OFF (12 Units) und Rot-OFF/Blau-und-Grün-ON (sieben Units). Es wurden verschiedene zeitliche Antwortmuster gefunden. Während einige Units nur Reizwechsel beantworteten, zeigten die meisten Units ein tonisches Antwortverhalten. Manche Units beantworteten jeden Stimuluswechsel phasisch und darüber hinaus bestimmte Stimuli tonisch. Die meisten tectalen Neurone zeigten eine Grundaktivität. Alle Units, denen sowohl der Farb- als auch der Bewegungsstimulus gezeigt wurden, antworteten nur auf eine Stimulusart. rnDiese Ergebnisse lassen folgende Schlüsse zu: Die Verarbeitung von Farbe und Bewegung im Tectum opticum des Goldfischs wird über zwei unterschiedlichen Verarbeitungswegen geleistet, da alle Units entweder auf Farb- oder auf Bewegungsstimuli antworten. Das Bewegungssehen wird im Goldfisch durch nur einen Zapfentyp (M- oder L-Zapfen) vermittelt und ist somit “farbenblind”, da alle bewegungssensitiven Units die Aktivität einstellten, wenn der Stimulus nur noch einen Zapfentyp modulierte. Es scheint spezifische Areale für „Farbe“ und „Bewegung“ im Tectum opticum des Goldfisches zu geben, da bewegungssensitive Units bevorzugt im posterio-medialen Bereich in einer Tiefe zwischen 200-400 µm gefunden und farbspezifische Units vor allem im anterio-medialen Bereich entdeckt wurden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Das Ziel dieser Arbeit bestand in der Untersuchung der Störungsverteilung und der Störungskinematik im Zusammenhang mit der Hebung der Riftschultern des Rwenzori Gebirges.rnDas Rwenzori Gebirge befindet sich im NNE-SSWbis N-S verlaufenden Albertine Rift, des nördlichsten Segments des westlichen Armes des Ostafrikanischen Grabensystems. Das Albertine Rift besteht aus Becken unterschiedlicher Höhe, die den Lake Albert, Lake Edward, Lake George und Lake Kivu enthalten. Der Rwenzori horst trennt die Becken des Lake Albert und des Lake Edward. Es erstreckt sich 120km in N-S Richtung, sowie 40-50km in E-W Richtung, der h¨ochste Punkt befindet sich 5111 ü. NN. Diese Studie untersucht einen Abschnitt des Rifts zwischen etwa 1°N und 0°30'S Breite sowie 29°30' und 30°30' östlicher Länge ersteckt. Auch die Feldarbeit konzentrierte sich auf dieses Gebiet.rnrnHauptzweck dieser Studie bestand darin, die folgende These auf ihre Richtigkeit zu überprüfen: ’Wenn es im Verlauf der Zeit tatsächlich zu wesentlichen Änderungen in der Störungskinematik kam, dann ist die starke Hebung der Riftflanken im Bereich der Rwenzoris nicht einfach durch Bewegung entlang der Graben-Hauptst¨orungen zu erklären. Vielmehr ist sie ein Resultat des Zusammenspiels mehrerer tektonische Prozesse, die das Spannungsfeld beeinflussen und dadurch Änderungen in der Kinematik hervorrufen.’ Dadurch konzentrierte sich die Studie in erster Linie auf die Störungsanalyse.rnrnDie Kenntnis regionaler Änderungen der Extensionsrichtung ist entscheidend für das Verständnis komplexer Riftsysteme wie dem Ostafrikanischen Graben. Daher bestand der Kern der Untersuchung in der Kartierung von Störungen und der Untersuchung der Störungskinematik. Die Aufnahme strukturgeologischer Daten konzentrierte sich auf die Ugandische Seite des Rifts, und Pal¨aospannungen wurden mit Hilfe von St¨orungsdaten durch Spannungsinversion rekonstruiert.rnDie unterschiedliche Orientierung spr¨oder Strukturen im Gelände, die geometrische Analyse der geologischen Strukturen sowie die Ergebnisse von Mikrostrukturen im Dünnschliff (Kapitel 4) weisen auf verschiedene Spannungsfelder hin, die auf mögliche Änderungen der Extensionsrichtung hinweisen. Die Resultate der Spannungsinversion sprechen für Ab-, Über- und Blattverschiebungen sowie für Schrägüberschiebungen (Kapitel 5). Aus der Orientierung der Abschiebungen gehen zwei verschiedene Extensionsrichtungen hervor: im Wesentlichen NW-SE Extension in fast allen Gebieten, sowie NNE-SSW Extension im östlichen Zentralbereich.rnAus der Analyse von Blattverschiebungen ergaben sich drei unterschiedliche Spannungszustände. Zum Einen NNW-SSE bis N-S Kompression in Verbindung mit ENE-WSW bzw E-W Extension wurde für die nördlichen und die zentralen Ruwenzoris ausgemacht. Ein zweiter Spannungszustand mit WNW-ESE Kompression/NNE-SSW Extension betraf die Zentralen Rwenzoris. Ein dritter Spannungszustand mit NNW-SSE Extension betraf den östlichen Zentralteil der Rwenzoris. Schrägüberschiebungen sind durch dazu schräge Achsen charakterisiert, die für N-S bis NNW-SSE Kompression sprechen und ausschließlich im östlichen Zentralabschnitt auftreten. Überschiebungen, die hauptsächlich in den zentralen und den östlichen Rwenzoris auftreten, sprechen für NE-SW orientierten σ2-Achsen und NW-SE Extension.rnrnEs konnten drei unterschiedliche Spannungseinflüsse identifiziert werden: auf die kollisionsbedingte Bildung eines Überschiebungssystem folgte intra-kratonische Kompression und schließlich extensionskontrollierte Riftbildung. Der Übergang zwischen den beiden letztgenannten Spannungszuständen erfolgte Schrittweise und erzeugte vermutlich lokal begrenzte Transpression und Transtension. Gegenw¨artig wird die Störungskinematik der Region durch ein tensiles Spannungsregime in NW-SE bis N-S Richtung bestimmt.rnrnLokale Spannungsvariationen werden dabei hauptsächlich durch die Interferenzrndes regionalen Spannungsfeldes mit lokalen Hauptst¨orungen verursacht. Weitere Faktoren die zu lokalen Veränderungen des Spannungsfeldes führen können sind unterschiedliche Hebungsgeschwindigkeiten, Blockrotation oder die Interaktion von Riftsegmenten. Um den Einfluß präexistenter Strukturen und anderer Bedingungen auf die Hebung der Rwenzoris zu ermitteln, wurde der Riftprozeß mit Hilfe eines analogen ’Sandbox’-Modells rekonstruiert (Kapitel 6). Da sich die Moho-Diskontinuität im Bereich des Arbeitsgebietes in einer Tiefe von 25 km befindet, aktive Störungen aber nur bis zu einer Tiefe von etwa 20 km beobachtet werden können (Koehn et al. 2008), wurden nur die oberen 25 km im Modell nachbebildet. Untersucht und mit Geländebeobachtungen verglichen wurden sowohl die Reihenfolge, in der Riftsegmente entstehen, als auch die Muster, die sich im Verlauf der Nukleierung und des Wachstums dieser Riftsegmente ausbilden. Das Hauptaugenmerk wurde auf die Entwicklung der beiden Subsegmente gelegt auf denen sich der Lake Albert bzw. der Lake Edward und der Lake George befinden, sowie auf das dazwischenliegende Rwenzori Gebirge. Das Ziel der Untersuchung bestand darin herauszufinden, in welcher Weise das südwärts propagierende Lake Albert-Subsegment mit dem sinistral versetzten nordwärts propagierenden Lake Edward/Lake George-Subsegment interagiert.rnrnVon besonderem Interesse war es, in welcherWeise die Strukturen innerhalb und außerhalb der Rwenzoris durch die Interaktion dieser Riftsegmente beeinflußt wurden. rnrnDrei verschiedene Versuchsreihen mit unterschiedlichen Randbedingungen wurden miteinander verglichen. Abhängig vom vorherrschenden Deformationstyp der Transferzone wurden die Reihen als ’Scherungs-dominiert’, ’Extensions-dominiert’ und als ’Rotations-dominiert’ charakterisiert. Die Beobachtung der 3-dimensionalen strukturellen Entwicklung der Riftsegmente wurde durch die Kombination von Modell-Aufsichten mit Profilschnitten ermöglicht. Von den drei genannten Versuchsreihen entwickelte die ’Rotationsdominierten’ Reihe einen rautenförmiger Block im Tranferbereich der beiden Riftsegmente, der sich um 5−20° im Uhrzeigersinn drehte. DieserWinkel liegt im Bereich des vermuteten Rotationswinkel des Rwenzori-Blocks (5°). Zusammengefasst untersuchen die Sandbox-Versuche den Einfluss präexistenter Strukturen und der Überlappung bzw. Überschneidung zweier interagierender Riftsegmente auf die Entwicklung des Riftsystems. Sie befassen sich darüber hinaus mit der Frage, welchen Einfluss Blockbildung und -rotation auf das lokale Stressfeld haben.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die vorliegende Arbeit befasst sich mit der Synthese von nanostrukturierten Antimoniden, wobei die folgenden beiden Themen bearbeitet wurden: rnAus chemischer Sicht wurden neue Synthesewege entwickelt, um Nanopartikel der Verbindungen in den binären Systemen Zn-Sb und Fe-Sb herzustellen (Zn4Sb3, ZnSb, FeSb2, Fe1+xSb). Anders als in konventionellen Festkörperreaktionen, die auf die Synthese von Bulk-Materialien oder Einkristallen zielen, muss die Synthese von Nanopartikeln Agglomerate und Ostwald-Wachstum vermeiden. Daher benötigen annehmbare Reaktionszeiten und vergleichsweise tiefe Reaktionstemperaturen kurze Diffusionswege und tiefe Aktivierungsbarrieren. Demzufolge bedient sich die Synthese der Reaktion von Antimon-Nanopartikeln und geeigneten molekularen oder nanopartikulären Edukten der entsprechenden Übergangsmetalle. Zusätzlich wurden anisotrope ZnSb Strukturen synthetisiert, indem eine Templat-Synthese mit Hilfe von anodisierten Aluminiumoxid- oder Polycarbonat-Membranen angewandt wurde. rnDie erhaltenen Produkte wurden hauptsächlich durch Röntgen-Diffraktion und Elektronenmikroskopie untersucht. Die Auswertung der Pulver Röntgendiffraktions-Daten stellte eine Herausforderung dar, da die Nanostrukturierung und die Anwesenheit von mehreren Phasen zu verbreiterten und überlagernden Reflexen führen. Zusätzliche Fe-Mößbauer Messungen wurden im Falle der Fe-Sb Produkte vorgenommen, um detailliertere Informationen über die genaue Zusammensetzung zu erhalten. Die erstmals hergestellte Phase Zn1+xSb wurde einer detaillierten Kristallstrukturanalyse unterzogen, die mit Hilfe einer neuen Diffraktionsmethode, der automatisierten Elektronen Diffraktions Tomographie, durchgeführt wurde.rnrnAus physikalischer Sicht sind Zn4Sb3, ZnSb und FeSb2 interessante thermoelektrische Materialien, die aufgrund ihrer Fähigkeit thermische in elektrische Energie umzuwandeln, großes Interesse geweckt haben. Nanostrukturierte thermoelektrische Materialien zeigen dabei eine höhere Umwandlungseffizienz zu erhöhen, da deren thermische Leitfähigkeit herabgesetzt ist. Da thermoelektrische Bauteile aus dichten Bulk-Materialien gefertigt werden, spielte die Verfestigung der synthetisierten nanopartikulären Pulver eine große Rolle. Die als „Spark Plasma Sintering“ bezeichnete Methode wurde eingesetzt, um die Proben zu pressen. Dies ermöglicht schnelles Heizen und Abkühlen der Probe und kann so das bei klassischen Heißpress-Methoden unvermeidliche Kristallitwachstum verringern. Die optimalen Bedingungen für das Spark Plasma Sintern zu finden, ist Inhalt von bestehender und weiterführender Forschung. rnEin Problem stellt die Stabilität der Proben während des Sinterns dar. Trotz des schnellen Pressens wurde eine teilweise Zersetzung im Falle des Zn1+xSb beobachtet, wie mit Hilfe von Synchrotrondiffraktionsuntersuchungen aufgedeckt wurde. Morphologie und Dichte der verschiedenen verfestigten Materialien wurden mittels Rasterelektronenmikroskopie und Lasermikroskopie bestimmt. Die Gitterdynamik wurde mit Hilfe von Wärmekapazitätsmessungen- und inelastischer Kern-Streuung untersucht. Die Wärmeleitfähigkeit der nanostrukturierten Materialien ist im Vergleich zu den Festkörpern ist drastisch reduziert - im Falle des FeSb2 um mehr als zwei Größenordnungen. Abhängig von der Zusammensetzung und mechanischen Härte wurden für einen Teil der verfestigten Nanomaterialien die thermoelektrische Eigenschaften, wie Seebeck Koeffizient, elektrische und Wärmeleitfähigkeit, gemessen.rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Innerhalb des Untersuchungsgebiets Schleswig-Holstein wurden 39.712 topographische Hohlformen detektiert. Genutzt wurden dazu ESRI ArcMap 9.3 und 10.0. Der Datenaufbereitung folgten weitere Kalkulationen in MATLAB R2010b. Jedes Objekt wurde räumlich mit seinen individuellen Eigenschaften verschnitten. Dazu gehörten Fläche, Umfang, Koordinaten (Zentroide), Tiefe und maximale Tiefe der Hohlform und Formfaktoren wie Rundheit, Konvexität und Elongation. Ziel der vorgestellten Methoden war die Beantwortung von drei Fragestellungen: Sind negative Landformen dazu geeignet Landschaftseinheiten und Eisvorstöße zu unterscheiden und zu bestimmen? Existiert eine Kopplung von Depressionen an der rezenten Topographie zu geologischen Tiefenstrukturen? Können Senken unterschiedlicher Entstehung anhand ihrer Formcharakteristik unterteilt werden? Die vorgenommene Klassifikation der großen Landschaftseinheiten basiert auf der Annahme, dass sowohl Jungmoränengebiete, ihre Vorflächen als auch Altmoränengebiete durch charakteristische, abflusslose Hohlformen, wie Toteislöcher, Seen, etc. abgegrenzt werden können. Normalerweise sind solche Depressionen in der Natur eher selten, werden jedoch für ehemalige Glaziallandschaften als typisch erachtet. Ziel war es, die geologischen Haupteinheiten, Eisvorstöße und Moränengebiete der letzten Vereisungen zu differenzieren. Zur Bearbeitung wurde ein Detektionsnetz verwendet, das auf quadratischen Zellen beruht. Die Ergebnisse zeigen, dass durch die alleinige Nutzung von Depressionen zur Klassifizierung von Landschaftseinheiten Gesamtgenauigkeiten von bis zu 71,4% erreicht werden können. Das bedeutet, dass drei von vier Detektionszellen korrekt zugeordnet werden können. Jungmoränen, Altmoränen, periglazialeVorflächen und holozäne Bereiche können mit Hilfe der Hohlformen mit großer Sicherheit voneinander unterschieden und korrekt zugeordnet werden. Dies zeigt, dass für die jeweiligen Einheiten tatsächlich bestimmte Senkenformen typisch sind. Die im ersten Schritt detektierten Senken wurden räumlich mit weiterreichenden geologischen Informationen verschnitten, um zu untersuchen, inwieweit natürliche Depressionen nur glazial entstanden sind oder ob ihre Ausprägung auch mit tiefengeologischen Strukturen in Zusammenhang steht. 25.349 (63,88%) aller Senken sind kleiner als 10.000 m² und liegen in Jungmoränengebieten und können vermutlich auf glaziale und periglaziale Einflüsse zurückgeführt werden. 2.424 Depressionen liegen innerhalb der Gebiete subglazialer Rinnen. 1.529 detektierte Hohlformen liegen innerhalb von Subsidenzgebieten, von denen 1.033 innerhalb der Marschländer im Westen verortet sind. 919 große Strukturen über 1 km Größe entlang der Nordsee sind unter anderem besonders gut mit Kompaktionsbereichen elsterzeitlicher Rinnen zu homologisieren.344 dieser Hohlformen sind zudem mit Tunneltälern im Untergrund assoziiert. Diese Parallelität von Depressionen und den teils über 100 m tiefen Tunneltälern kann auf Sedimentkompaktion zurückgeführt werden. Ein Zusammenhang mit der Zersetzung postglazialen, organischen Materials ist ebenfalls denkbar. Darüber hinaus wurden in einer Distanz von 10 km um die miozän aktiven Flanken des Glückstadt-Grabens negative Landformen detektiert, die Verbindungen zu oberflächennahen Störungsstrukturen zeigen. Dies ist ein Anzeichen für Grabenaktivität während und gegen Ende der Vereisung und während des Holozäns. Viele dieser störungsbezogenen Senken sind auch mit Tunneltälern assoziiert. Entsprechend werden drei zusammenspielende Prozesse identifiziert, die mit der Entstehung der Hohlformen in Verbindung gebracht werden können. Eine mögliche Interpretation ist, dass die östliche Flanke des Glückstadt-Grabens auf die Auflast des elsterzeitlichen Eisschilds reagierte, während sich subglazial zeitgleich Entwässerungsrinnen entlang der Schwächezonen ausbildeten. Diese wurden in den Warmzeiten größtenteils durch Torf und unverfestigte Sedimente verfüllt. Die Gletschervorstöße der späten Weichselzeit aktivierten erneut die Flanken und zusätzlich wurde das Lockermaterial exariert, wodurch große Seen, wie z. B. der Große Plöner See entstanden sind. Insgesamt konnten 29 große Depressionen größer oder gleich 5 km in Schleswig-Holstein identifiziert werden, die zumindest teilweise mit Beckensubsidenz und Aktivität der Grabenflanken verbunden sind, bzw. sogar auf diese zurückgehen.Die letzte Teilstudie befasste sich mit der Differenzierung von Senken nach deren potentieller Genese sowie der Unterscheidung natürlicher von künstlichen Hohlformen. Dazu wurde ein DEM für einen Bereich im Norden Niedersachsens verwendet, das eine Gesamtgröße von 252 km² abdeckt. Die Ergebnisse zeigen, dass glazial entstandene Depressionen gute Rundheitswerte aufweisen und auch Elongation und Exzentrizität eher kompakte Formen anzeigen. Lineare negative Strukturen sind oft Flüsse oder Altarme. Sie können als holozäne Strukturen identifiziert werden. Im Gegensatz zu den potentiell natürlichen Senkenformen sind künstlich geschaffene Depressionen eher eckig oder ungleichmäßig und tendieren meist nicht zu kompakten Formen. Drei Hauptklassen topographischer Depressionen konnten identifiziert und voneinander abgegrenzt werden: Potentiell glaziale Senken (Toteisformen), Flüsse, Seiten- und Altarme sowie künstliche Senken. Die Methode der Senkenklassifikation nach Formparametern ist ein sinnvolles Instrument, um verschiedene Typen unterscheiden zu können und um bei geologischen Fragestellungen künstliche Senken bereits vor der Verarbeitung auszuschließen. Jedoch zeigte sich, dass die Ergebnisse im Wesentlichen von der Auflösung des entsprechenden Höhenmodells abhängen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die oberflächennahe Geothermie leistet im Bereich der Nutzung regenerativer Wärme einen wichtigen Beitrag zum Klima- und Umweltschutz. Um die technische Nutzung oberflächennaher Geothermie zu optimieren, ist die Kenntnis der Beschaffenheit des geologischen Untergrundes ausschlaggebend. Die vorliegende Dissertation befasst sich mit der Bestimmung verschiedener Untergrundparameter an einem Erdwärmesondenfeld. Es wurden Untersuchungen zur Bestimmung der Wärmeleitfähigkeit wie der enhanced Thermal Response Test (eTRT), sowie eine Untergrund-Temperaturüberwachung im ersten Betriebsjahr durchgeführt. Die Überwachung zeigte keine gegenseitige Beeinflussung einzelner Sonden. Ein Vergleich zwischen dem geplanten und dem tatsächlichem Wärmebedarf des ersten Betriebsjahres ergab eine Abweichung von ca. 35%. Dies zeigt, dass die Nutzungsparameter der Anlage deren Effizienz maßgeblich beeinflussen können. Der am Beispielobjekt praktisch durchgeführte eTRT wurde mittels numerischer Modellierung auf seine Reproduzierbarkeit hin überprüft. Bei einem rein konduktiven Wärmetransport im Untergrund betrug die maximale Abweichung der Messung selbst unter ungünstigen Bedingungen lediglich ca. 6% vom zu erwartenden Wert. Die Detektion von grundwasserdurchflossenen Schichten ist in den Modellen ebenfalls gut abbildbar. Problematisch bleibt die hohe Abhängigkeit des Tests von einer konstanten Wärmezufuhr. Lediglich die Bestimmung der Wärmeleitfähigkeit über das Relaxationsverhalten des Untergrundes liefert bei Wärmeeintragsschwankungen hinreichend genaue Ergebnisse. Die mathematische Nachbearbeitung von fehlerhaften Temperaturkurven bietet einen Einstiegspunkt für weiterführende Forschung.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ziel dieser Arbeit war der Aufbau und Einsatz des Atmosphärischen chemischen Ionisations-Massenspektrometers AIMS für boden- und flugzeuggetragene Messungen von salpetriger Säure (HONO). Für das Massenspektrometer wurden eine mit Gleichspannung betriebene Gasentladungsionenquelle und ein spezielles Druckregelventil entwickelt. Während der Instrumentenvergleichskampagne FIONA (Formal Intercomparisons of Observations of Nitrous Acid) an einer Atmosphären-Simulationskammer in Valencia (Spanien) wurde AIMS für HONO kalibriert und erstmals eingesetzt. In verschiedenen Experimenten wurden HONO-Mischungsverhältnisse zwischen 100 pmol/mol und 25 nmol/mol erzeugt und mit AIMS interferenzfrei gemessen. Innerhalb der Messunsicherheit von ±20% stimmen die massenspektrometrischen Messungen gut mit den Methoden der Differenziellen Optischen Absorptions-Spektrometrie und der Long Path Absorption Photometrie überein. Die Massenspektrometrie kann somit zum schnellen und sensitiven Nachweis von HONO in verschmutzter Stadtluft und in Abgasfahnen genutzt werden.rnErste flugzeuggetragene Messungen von HONO mit AIMS wurden 2011 bei der Messkampagne CONCERT (Contrail and Cirrus Experiment) auf dem DLR Forschungsflugzeug Falcon durchgeführt. Hierbei konnte eine Nachweisgrenze von < 10 pmol/mol (3σ, 1s) erreicht werden. Bei Verfolgungsflügen wurden im jungen Abgasstrahl von Passagierflugzeugen molare HONO zu Stickoxid-Verhältnisse (HONO/NO) von 2.0 bis 2.5% gemessen. HONO wird im Triebwerk durch die Reaktion von NO mit OH gebildet. Ein gemessener abnehmender Trend der HONO/NO Verhältnisse mit zunehmendem Stickoxid-Emissionsindex wurde bestätigt und weist auf eine OH Limitierung im jungen Abgasstrahl hin.rnNeben den massenspektrometrischen Messungen wurden Flugzeugmessungen der Partikelsonde Forward Scattering Spectrometer Probe FSSP-300 in jungen Kondensstreifen ausgewertet und analysiert. Aus den gemessenen Partikelgrößenverteilungen wurden Extinktions- und optische Tiefe-Verteilungen abgeleitet und für die Untersuchung verschiedener wissenschaftlicher Fragestellungen, z.B. bezüglich der Partikelform in jungen Kondensstreifen und ihrer Klimawirkung, zur Verfügung gestellt. Im Rahmen dieser Arbeit wurde der Einfluss des Flugzeug- und Triebwerktyps auf mikrophysikalische und optische Eigenschaften von Kondensstreifen untersucht. Unter ähnlichen meteorologischen Bedingungen bezüglich Feuchte, Temperatur und stabiler thermischer Schichtung wurden 2 Minuten alte Kondensstreifen der Passagierflugzeuge vom Typ A319-111, A340-311 und A380-841 verglichen. Im Rahmen der Messunsicherheit wurde keine Änderung des Effektivdurchmessers der Partikelgrößenverteilungen gefunden. Hingegen nehmen mit zunehmendem Flugzeuggewicht die Partikelanzahldichte (162 bis 235 cm-3), die Extinktion (2.1 bis 3.2 km-1), die Absinktiefe des Kondensstreifens (120 bis 290 m) und somit die optische Tiefe der Kondensstreifen (0.25 bis 0.94) zu. Der gemessene Trend wurde durch Vergleich mit zwei unabhängigen Kondensstreifen-Modellen bestätigt. Mit den Messungen wurde eine lineare Abhängigkeit der totalen Extinktion (Extinktion mal Querschnittsfläche des Kondensstreifens) vom Treibstoffverbrauch pro Flugstrecke gefunden und bestätigt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die rasante Entwicklung der Computerindustrie durch die stetige Verkleinerung der Transistoren führt immer schneller zum Erreichen der Grenze der Si-Technologie, ab der die Tunnelprozesse in den Transistoren ihre weitere Verkleinerung und Erhöhung ihrer Dichte in den Prozessoren nicht mehr zulassen. Die Zukunft der Computertechnologie liegt in der Verarbeitung der Quanteninformation. Für die Entwicklung von Quantencomputern ist die Detektion und gezielte Manipulation einzelner Spins in Festkörpern von größter Bedeutung. Die Standardmethoden der Spindetektion, wie ESR, erlauben jedoch nur die Detektion von Spinensembles. Die Idee, die das Auslesen von einzelnen Spins ermöglich sollte, besteht darin, die Manipulation getrennt von der Detektion auszuführen.rn Bei dem NV−-Zentrum handelt es sich um eine spezielle Gitterfehlstelle im Diamant, die sich als einen atomaren, optisch auslesbaren Magnetfeldsensor benutzen lässt. Durch die Messung seiner Fluoreszenz sollte es möglich sein die Manipulation anderer, optisch nicht detektierbaren, “Dunkelspins“ in unmittelbarer Nähe des NV-Zentrums mittels der Spin-Spin-Kopplung zu detektieren. Das vorgeschlagene Modell des Quantencomputers basiert auf dem in SWCNT eingeschlossenen N@C60.Die Peapods, wie die Einheiten aus den in Kohlenstoffnanoröhre gepackten Fullerenen mit eingefangenem Stickstoff genannt werden, sollen die Grundlage für die Recheneinheiten eines wahren skalierbaren Quantencomputers bilden. Die in ihnen mit dem Stickstoff-Elektronenspin durchgeführten Rechnungen sollen mit den oberflächennahen NV-Zentren (von Diamantplatten), über denen sie positioniert sein sollen, optisch ausgelesen werden.rnrnDie vorliegende Arbeit hatte das primäre Ziel, die Kopplung der oberflächennahen NV-Einzelzentren an die optisch nicht detektierbaren Spins der Radikal-Moleküle auf der Diamantoberfläche mittels der ODMR-Kopplungsexperimente optisch zu detektieren und damit entscheidende Schritte auf dem Wege der Realisierung eines Quantenregisters zu tun.rn Es wurde ein sich im Entwicklungsstadium befindende ODMR-Setup wieder aufgebaut und seine bisherige Funktionsweise wurde an kommerziellen NV-Zentrum-reichen Nanodiamanten verifiziert. Im nächsten Schritt wurde die Effektivität und Weise der Messung an die Detektion und Manipulation der oberflächennah (< 7 nm Tiefe) implantieren NV-Einzelzenten in Diamantplatten angepasst.Ein sehr großer Teil der Arbeit, der hier nur bedingt beschrieben werden kann, bestand aus derrnAnpassung der existierenden Steuersoftware an die Problematik der praktischen Messung. Anschließend wurde die korrekte Funktion aller implementierten Pulssequenzen und anderer Software-Verbesserungen durch die Messung an oberflächennah implantierten NV-Einzelzentren verifiziert. Auch wurde der Messplatz um die zur Messung der Doppelresonanz notwendigen Komponenten wie einen steuerbaren Elektromagneten und RF-Signalquelle erweitert. Unter der Berücksichtigung der thermischen Stabilität von N@C60 wurde für zukünftige Experimente auch ein optischer Kryostat geplant, gebaut, in das Setup integriert und charakterisiert.rn Die Spin-Spin-Kopplungsexperimente wurden mit dem sauerstoffstabilen Galvinoxyl-Radikalals einem Modell-System für Kopplung durchgeführt. Dabei wurde über die Kopplung mit einem NVZentrum das RF-Spektrum des gekoppelten Radikal-Spins beobachtet. Auch konnte von dem gekoppelten Spin eine Rabi-Nutation aufgenommen werden.rn Es wurden auch weitere Aspekte der Peapod Messung und Oberflächenimplantation betrachtet.Es wurde untersucht, ob sich die NV-Detektion durch die SWCNTs, Peapods oder Fullerene stören lässt. Es zeigte sich, dass die Komponenten des geplanten Quantencomputers, bis auf die C60-Cluster, für eine ODMR-Messanordnung nicht detektierbar sind und die NV-Messung nicht stören werden. Es wurde auch betrachtet, welche Arten von kommerziellen Diamantplatten für die Oberflächenimplantation geeignet sind, für die Kopplungsmessungen geeignete Dichte der implantierten NV-Zentren abgeschätzt und eine Implantation mit abgeschätzter Dichte betrachtet.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thema dieser Arbeit ist die Entwicklung und Kombination verschiedener numerischer Methoden, sowie deren Anwendung auf Probleme stark korrelierter Elektronensysteme. Solche Materialien zeigen viele interessante physikalische Eigenschaften, wie z.B. Supraleitung und magnetische Ordnung und spielen eine bedeutende Rolle in technischen Anwendungen. Es werden zwei verschiedene Modelle behandelt: das Hubbard-Modell und das Kondo-Gitter-Modell (KLM). In den letzten Jahrzehnten konnten bereits viele Erkenntnisse durch die numerische Lösung dieser Modelle gewonnen werden. Dennoch bleibt der physikalische Ursprung vieler Effekte verborgen. Grund dafür ist die Beschränkung aktueller Methoden auf bestimmte Parameterbereiche. Eine der stärksten Einschränkungen ist das Fehlen effizienter Algorithmen für tiefe Temperaturen.rnrnBasierend auf dem Blankenbecler-Scalapino-Sugar Quanten-Monte-Carlo (BSS-QMC) Algorithmus präsentieren wir eine numerisch exakte Methode, die das Hubbard-Modell und das KLM effizient bei sehr tiefen Temperaturen löst. Diese Methode wird auf den Mott-Übergang im zweidimensionalen Hubbard-Modell angewendet. Im Gegensatz zu früheren Studien können wir einen Mott-Übergang bei endlichen Temperaturen und endlichen Wechselwirkungen klar ausschließen.rnrnAuf der Basis dieses exakten BSS-QMC Algorithmus, haben wir einen Störstellenlöser für die dynamische Molekularfeld Theorie (DMFT) sowie ihre Cluster Erweiterungen (CDMFT) entwickelt. Die DMFT ist die vorherrschende Theorie stark korrelierter Systeme, bei denen übliche Bandstrukturrechnungen versagen. Eine Hauptlimitation ist dabei die Verfügbarkeit effizienter Störstellenlöser für das intrinsische Quantenproblem. Der in dieser Arbeit entwickelte Algorithmus hat das gleiche überlegene Skalierungsverhalten mit der inversen Temperatur wie BSS-QMC. Wir untersuchen den Mott-Übergang im Rahmen der DMFT und analysieren den Einfluss von systematischen Fehlern auf diesen Übergang.rnrnEin weiteres prominentes Thema ist die Vernachlässigung von nicht-lokalen Wechselwirkungen in der DMFT. Hierzu kombinieren wir direkte BSS-QMC Gitterrechnungen mit CDMFT für das halb gefüllte zweidimensionale anisotrope Hubbard Modell, das dotierte Hubbard Modell und das KLM. Die Ergebnisse für die verschiedenen Modelle unterscheiden sich stark: während nicht-lokale Korrelationen eine wichtige Rolle im zweidimensionalen (anisotropen) Modell spielen, ist in der paramagnetischen Phase die Impulsabhängigkeit der Selbstenergie für stark dotierte Systeme und für das KLM deutlich schwächer. Eine bemerkenswerte Erkenntnis ist, dass die Selbstenergie sich durch die nicht-wechselwirkende Dispersion parametrisieren lässt. Die spezielle Struktur der Selbstenergie im Impulsraum kann sehr nützlich für die Klassifizierung von elektronischen Korrelationseffekten sein und öffnet den Weg für die Entwicklung neuer Schemata über die Grenzen der DMFT hinaus.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Der diaplazentare Transport von Vitamin K ist kaum messbar, die Muttermilch ist arm an Vitamin K und die intestinale Flora von Neugeborenen produziert praktisch kein Vitamin K. Deshalb weisen gesunde Neugeborene «physiologischerweise» tiefe Vitamin-K-Spiegel auf, was durch Verminderung der Vitamin-K-abhängigen Gerinnungsfaktoren zu schweren Mangelblutungen führen kann. Die klassische Form der Vitamin-K-Mangelblutung tritt mit einer Inzidenz von bis zu 1.5% bis zum 7. Lebenstag auf, die Spätform wird bis zur 12. Lebenswoche bei bis zu 10 von 100000 Neugeborenen festgestellt. Mit einer adäquaten Vitamin-K-Prophylaxe lassen sich Vitamin-K-Mangelblutungen grösstenteils verhindern. Die heute in der Schweiz empfohlene Prophylaxe von 3 oralen Dosen à 2 mg Konakion® MM in der 4. Lebensstunde, am 4. Lebenstag und in der 4. Lebenswoche ist bezüglich unerwünschter Nebenwirkung äusserst sicher, insbesondere besteht kein erhöhtes Krebsrisiko. Angesichts der dramatischen Folgen der häufig intrakraniell lokalisierten Vitamin-K-Mangelblutungen ist sowohl bei medizinischen Fachpersonen als auch bei den Eltern eine möglichst gute Compliance für diese einfache und sichere Prophylaxe wie auch eine entsprechende Aufklärung anzustreben.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Umschlagleistung, Stellplatzzahl und Stellplatzkosten sind häufig für Lagersysteme die bedeutendsten Kenngrößen. Die Einflussfaktoren auf die Umschlagleistung lassen sich in technische und organisatorische Größen einteilen. Während für die technischen Parameter eine Reihe von Berechnungsvorschriften existieren, werden die organisatorischen Einflussgrößen meist nur qualitativ beschrieben oder durch Simulationsmodelle in speziellen Einzelfällen untersucht. Es soll hier eine Methode vorgestellt werden, die es ermöglicht die Umschlagleistung unter Berücksichtigung ausgewählter organisatorischer Einflussgrößen durch Nutzung von Simulationsdatenbanken zu berechnen. Die allgemeingültigen Simulationsergebnisse können mittels eines Berechnungsprogramms auf jedes beliebige Hochregallager übertragen werden. Dafür sind neben MS Excel keine weiteren Softwareprodukte erforderlich. 1. Einleitung Die produktionswirtschaftlichen Anforderungen an die Unternehmen sind zunehmend geprägt durch Globalisierung und damit durch eine zunehmende Komplexität sowie vertiefte Arbeitsteiligkeit. Es entsteht eine zunehmend breitere Streuung der Fertigungsstandorte und Kooperationsbeziehungen. Es gibt letztlich mehr Lager- und Umschlagprozesse in der Lieferkette. Andererseits bringt der erhöhte Qualitäts- und Kostendruck steigende Fixkosten mit sich, er zwingt zur ständigen Rationalisierung der Materialwirtschaft. Es besteht der Zwang zum Einsatz neuer technisch-elektronischer Mittel zur Kontrolle und Steuerung der logistischen Ketten. Im Lager bedeutet das eine zunehmende Nutzung der Informations- und Kommunikationstechnik zur Lager- und Fertigungssteuerung, auch in Verbindung mit Forderungen der Rückverfolgbarkeit der Produkte. An die Logistikleistungen werden damit Anforderungen wie Schnelligkeit, Qualität und Kostenminimierung gestellt. Letztlich bestehen die Warenbereitstellungs- und Verteilsysteme aus der technischen Grundstruktur, dem Lagertyp und dessen Geometrie sowie der dabei einsetzbaren Bedientechnik und deren kinematischen Daten. Der organisatorische Rahmen dieser Systeme ist gekennzeichnet durch die Nutzung diverser Ein- und Auslagerstrategien, die auch wesentlich Kosten und Leistungen (Umschlagleistung) des zu betrachtenden Lagersystems bestimmen. Aufgrund der genannten Forderungen muss es gelingen, aus dem eingesetzten technischen System durch organisatorisch effizienten Betrieb maximale Leistung bei gleichzeitig minimal eingesetzten Kosten zu erzielen. Neben den Investitionskosten sind bei der Planung von automatischen Lagersystemen die erreichbaren mittleren Spielzeiten der Bedientechnik von entscheidender Bedeutung, um die erforderliche Umschlagleistung des Lagers zu gewährleisten. Hierzu existieren eine Reihe von Berechnungsvorschriften und –normen. Diese Berechnungen berücksichtigen jedoch nicht die Auswirkungen der Lagerorganisation, wie beispielsweise fahrzeitminimale Kombinationen von Ein- und Auslageraufträgen bei Doppelspielen, Zonierungsmaßnahmen, die Auswirkungen von verschiedenen Füllgraden des Lagers oder Lagerplatzstrategien. 2. Stand der Technik 2.1. Lagertypen Abbildung 1: Systematische Einteilung der Lagertypen In Abbildung 1 sind verschiedene Lagertypen dargestellt und nach Kriterien eingeteilt. Soll eine Einschränkung hinsichtlich am Markt häufig vorkommender automatischer Palettenlager getroffen werden, so sind besonders die in der Abbildung hervorgehobenen Typen zu nennen. Eine Auswahl der einzelnen Lagertypen erfolgt dann anhand von Kosten, Umschlagleistung und bei Kompaktlagern vorrangig anhand von Flächen- und Raumnutzungsgrad. Werden die Kostenunterschiede bei Personal, Rechentechnik und Steuerungssoftware in den verschiedenen Lagertypen und -ausführungen der jeweiligen Typen vernachlässigt, unterscheiden sich die Gesamtkosten der Lager lediglich in der Bedientechnik sowie in den statisch bedingten Kosten der Regalkonstruktion. Die wichtigsten Kosteneinflüsse auf die Regale sind wiederum Bauhöhe und Bauart (Regalkonstruktion oder selbsttragendes Bauwerk). Abbildung 2 zeigt die zu erwartenden Umschlagleistungen1) der verschiedenen Lagertypen in Abhängigkeit der benötigten Stellplatzanzahl. Die darauf folgende Abbildung 3 zeigt die zu erwartenden Investitionskosten1) je Stellplatz. Die berücksichtigten Kenngrößen sind nachstehend dargestellt. Die abgebildeten Kurven machen deutlich, dass insbesondere Umschlagleistung der Lager und deren Flächen- bzw. Raumnutzungsgrad gegensätzlich verlaufen. Somit sind auch die Einsatzgebiete der Lagertypen voneinander abgrenzbar. Während Hochregallager für Anwendungsfälle mit hohem Gutumschlag in Frage kommen, werden die Kompaktlager eher in Objekten mit begrenztem Platz oder hohen Raumkosten (bspw. Kühllager) eingesetzt. Somit sind Kompaktlager auch häufig für die Umplanung bzw. der notwendigen Vergrößerung der Lagerkapazität innerhalb einer bestehenden baulichen Hülle interessant. Abbildung 2: Umschlagleistungen der verschiedenen Lagertypen Abbildung 3: Investitionskosten der einzelnen Lagertypen 2.2. Einzel-/ Doppelspiele Um anhand der Technik und der geometrischen Verhältnisse im Lager die höchstmögliche Umschlagleistung zu erzielen, ist es sinnvoll, Doppelspiele (DS) zu generieren. Somit ist nicht wie bei Einzelspielen (ES) je umgeschlagene Ladeeinheit eine Leerfahrt erforderlich, sondern nur je zweiter Ladeeinheit. Das Bediengerät fährt also vom Einlagerpunkt direkt zum Auslagerpunkt, ohne zum Übergabepunkt zurückkehren zu müssen. Diese Vorgehensweise setzt die Kenntnis der nächsten Fahraufträge und gegebenenfalls die Möglichkeit der Veränderung derer Reihenfolge voraus. Für eine Optimierung der Umschlagleistung ist die bei DS entstehende Leerfahrt (Zwischenfahrstrecke) und damit die Zwischenfahrzeit zu minimieren (vgl. 3.5). Nachfolgend beschriebene Untersuchungen beziehen sich jeweils auf Doppelspiele. Abbildung 4: Darstellung der anzufahrenden Lagerplätze in der Regalwand,links: Einzelspiel, rechts: Doppelspiel 2.3. Berechnungsvorschriften für Umschlagleistungen von Lagern Es existieren eine Reihe von Vorschriften zur Berechnung der Umschlagleistung von Lagern, exemplarisch sind drei Berechnungsvorschriften dargestellt. Die Richtlinie VDI 3561 [VDI3561] ermöglicht die Berechnung der Spielzeit auch für Doppelspiele. Dazu werden zwei Referenzpunkte festgelegt, die den Aus- bzw. Einlagerpunkt darstellen. Ein Doppelspiel besteht dann aus der Summe folgender Einzelzeiten: • der Hinfahrt vom Übergabepunkt zum Einlagerpunkt (P1), • der Leerfahrt vom Ein- zum Auslagerpunkt (P2) und der • Rückfahrt vom Auslagerpunkt zum Übergabepunkt (vgl. Abb.4 rechts). Die Summe dieser Einzelzeiten wird danach mit der Summe der Übergabezeiten addiert. Der Unterschied der Richtlinie und der Berechnungsvorschrift nach [Gud00] bestehen im wesentlichen aus der Lage der Ein- und Auslagerpunkte. Fahrzeitberechnung nach VDI 3561 P1 ; P2 Fahrzeitberechnung nach Gudehus 1) P1 ; P2 1)Annahme: Vernachlässigung von Totzeiten, Lastaufnahmefaktor = 1 Wird davon ausgegangen, dass in Abhängigkeit der Gassengeometrie immer nur eine der beiden Fahrzeitanteile (vertikal bzw. horizontal) spielzeitbestimmend ist, so ergeben sich beide Fahrstrecken zu 4/3 der jeweiligen Gesamtabmessung. Der Unterschied der beiden Berechnungsvorschriften liegt lediglich in der Aufteilung der Gesamtfahrstrecke auf die Teilfahrstrecken Hin-, Rück- bzw. Zwischenfahrt. Da jedoch die Fahrzeit zu den Anfahrpunkten in der Regel nicht von der gleichen Fahrzeitkomponente bestimmt wird, kommt es in der Praxis zu Unterschieden im Berechnungsergebnis. Die unter dem Titel „Leistungsnachweis für Regalbediengeräte, Spielzeiten“ stehende Norm FEM 9.851 [FEM9.851] beschäftigt sich ebenfalls mit der Berechnung von Spielzeiten von Regalbediengeräten (RBG). Dabei werden sechs verschiedene Anwendungsfälle generiert, die am häufigsten in der Praxis vorkommen. Diese unterscheiden sich insbesondere in der Lage der Übergabepunkte für die Ein- und Auslagerung. Dabei werden die Punkte sowohl horizontal als auch vertikal verschoben. Es werden hierbei auch Fälle betrachtet, in denen der Auslagerpunkt nicht mit dem Einlagerpunkt übereinstimmt, sich beispielsweise auch an dem gegenüberliegenden Gassenende befinden kann. Wird der einfachste Fall betrachtet, dass sich der Übergabepunkt für die Ein- und Auslagerung übereinstimmend an einer unteren Ecke der Gasse befindet, stimmen die Berechnungsformeln mit [Gud00] weitgehend überein. 2.4. Kritik und Untersuchungsansatz Die Berechnung der mittleren Spielzeit der einzelnen Lagergassen durch die beschriebenen Normen erfolgt in der Regel ohne die Berücksichtigung der Geschwindigkeitsdiagonalen, deren Steigung c durch nachstehendes Verhältnis gegeben ist. Eine genaue Betrachtung der verschiedenen Gassengeometrien im Verhältnis zu den Geschwindigkeiten der Bediengeräte zeigt, dass es bei ungünstiger Lage der Geschwindigkeitsdiagonalen in der Regalwand zu Abweichungen der Berechnungsnormen von der tatsächlich zu erwartenden mittleren Spielzeit kommt. Im praktischen Lagerbetrieb wird mit verschiedenen Maßnahmen der Lagerorganisation versucht, die Umschlagleistung zu erhöhen. Diese Maßnahmen können jedoch mit den hier beschriebenen Normen und Berechnungsmethoden nicht berücksichtigt werden. Da Zonierungen, Lagerplatzstrategien oder Reihenfolgeoptimierungen der Ein- und Auslageraufträge (Zuordnungsproblem) Einfluss auf die Umschlagleistung des Lagers haben, sollten sie auch bei der Berechnung berücksichtigt werden. In den zahlreichen Veröffentlichungen mit dem Ziel der Erhöhung der Umschlagleistung eines Lagerbereiches finden sich häufig Darstellungen, die einzelne Auswirkungen der Lagerorganisation untersuchen. Dabei bleiben aber die gegenseitigen Beeinflussungen und Wechselwirkungen meist unberücksichtigt. Um dennoch solche Einflussgrößen realitätsnah berücksichtigen zu können, werden üblicherweise Simulationsmodelle erstellt, die den jeweiligen Anwendungsfall nachbilden. Die Erstellung solcher Modelle benötigt jedoch neben der entsprechenden Software Zeit und verursacht damit weitere Kosten. Aus diesem Grund ist ein solches Vorgehen erst bei einem bestimmten Grad an Komplexität der Anlage sinnvoll. Damit ist die Übertragbarkeit solcher Modelle auf verschiedene Anwendungsfälle nicht immer gegeben. 3. Dynamische Spielzeitberechnung 3.1. Vorgehen und Abgrenzung zum Forschungsstand Um die Auswirkungen der Lagerorganisation auf die Umschlagleistung sinnvoll abschätzen zu können, wurde ein allgemeingültiges Simulationsmodell erstellt. Dieses Modell startet sich nach vorgeschriebener Simulationszeit selbstständig neu mit vordefinierten Änderungen der Eingangsgrößen wie z. B.. Geschwindigkeiten und Beschleunigungen der Bedientechnik in Abhängigkeit der Gassengeometrie. Nacheinander konnten somit ausgewählte, in das Modell implementierte Lagerorganisationsformen untersucht werden. Der Unterschied zu bisherigen in der Literatur dokumentierter Untersuchungen besteht in der Berücksichtigung gegenseitiger Wechselwirkungen der Lagerorganisation. Bisher wurden dagegen die verschiedenen Strategien und Regeln im Lagerbetrieb meist nur losgelöst voneinander unter einem speziellen abgegrenzten Blickwinkel betrachtet. Um die Menge an Simulationsergebnissen für einen praktischen Einsatz zur Verfügung zu stellen, wurde ein Programm auf Basis von MS Excel erstellt, das die relevanten Simulationsdaten aufarbeitet und dem Anwender einfach und übersichtlich zur Verfügung stellt. Es ist somit möglich, die gefundenen Simulationsergebnisse auf verschiedenste Hochregal-Lagersysteme zu übertragen. Das Berechnungsmodell wurde an einem existierenden Hochregallager getestet. Es können Aussagen hinsichtlich der optimalen, d. h. spielzeit- und kostenminimalen Lagergeometrie unter Berücksichtigung gegebener Randbedingungen getroffen werden. 3.2. Übergabepunkte Neben den verschiedenen untersuchten Lagerstrategien wurde zunächst nach Möglichkeiten gesucht, die Umschlagleistungen des Typs der herkömmlichen Hochregallager unter technischen Gesichtspunkten zu verbessern. Dabei wurde v. a. die Verlegung des Übergabepunktes in die Mitte der Gassenwand untersucht. Dies hat das Ziel, die mittleren Verfahrwege der Bedientechnik im Lager zu halbieren. Abbildung 5: Maximale Verfahrwege der Bedientechnik in der Regalgasse Die Ver- und Entsorgung des Materials an den Übergabeplätzen mit Lagergut kann hierbei durch zwei verschiedene Möglichkeiten gelöst werden: • Zuführung in x- oder y-Richtung, • Zuführung in z-Richtung. Ersteres Vorgehen führt in Abhängigkeit der Anzahl der Zu- und Abführkanäle zu einem großen Verlust an Lagerplätzen. Bei letzterem Vorgehen liegen die Versorgungskanäle senkrecht zu den Verfahrwegen der Bedientechnik. Das hat den Vorteil, dass die Versorgung der Übergabeplätze über die gleichen Ver- und Entsorgungskanäle erfolgt und somit erheblich weniger Lagerplatz benötigt wird. Dieses Vorgehen benötigt jedoch neben erhöhtem Steuerungsaufwand eine veränderte konstruktive Gestaltung der Gassenübergänge z. B. durch klappbare Brücken oder ein entsprechendes aus- und einfahrbares Gabelsystem. Da sich hierbei die RBG und das Lagergut behindern können, wurden Simulationsuntersuchungen zur Minimierung der Wartezeiten der RBG durchgeführt. Je mehr Kanäle für die Ein- und Auslagerung zur Verfügung stehen, umso kürzer sind die Wartezeiten der Bediengeräte. Dabei bieten sich insbesondere zwei Optimierungsstrategien an, die diese Wartezeiten minimieren können. Einerseits verursachen gassenreine Kanäle keine zusätzlichen Wartezeiten der RBG, da die benötigte Palette im jeweiligen Einlagerungskanal zur Verfügung steht. Zudem reduzieren sich die Einlagerungskanäle, je weiter die Mitte des Lagerblocks erreicht wird. Andererseits steigen die Wartezeiten der RBG schnell an, je ungünstiger das Verhältnis von Gassenanzahl zu Einlagerungskanälen wird. Dies gilt auch bei sinnvoller Begrenzung der Gassenanzahl pro Einlagerungskanal. Abbildung 6: Reihenfolgeoptimale Einschleusung der Einlagerpaletten, keine Beschränkung der Gassen pro Kanal Ist die Zahl der Gassen des Lagerblockes größer als die Zahl der Einschleuskanäle, so ist eine optimale Reihenfolge der Paletten umzusetzen, bei der die Paletten gleichmäßig auf alle Kanäle verteilt werden. Abbildung 6 zeigt die so erreichten mittleren Wartezeiten der RBG. Hier ist der Abstand zwischen zwei Paletten, die in den gleichen Gang eingelagert werden müssen, am größten. Dies führt zu minimalen Stillstandszeiten der RBG. Für die Ausschleusung der Paletten aus dem Lagerblock ist jedoch ein Kanal ausreichend. Eine technische Realisierbarkeit (auch hinsichtlich der Funktionssicherheit der Gassenbrücken) ist zu prüfen. Eine wirtschaftliche Umsetzung einer solchen Beschickung der RBG, so hat der Versuch gezeigt, macht Sinn. Es kann hierbei bei günstiger Lage der Übergabepunkte in der Regalwand nahezu 50 % der Fahrzeit eingespart werden. Bei vergleichsweise langen und hohen Gassen kann damit die mittlere Spielzeit teilweise um über 25 % gesenkt werden. 3.3. Lagerplatzstrategien Es wurden insbesondere zwei verschiedene Strategien untersucht. Einerseits wurde zur besseren Vergleichbarkeit die chaotische Lagerplatzauswahl (nachfolgend: Strategie „Chaotisch“) sowie die in der Literatur auch als „Kürzeste Fahrzeitregel (KFZ)“ bezeichnete Strategie [Gla05]. Letztere soll nachfolgend aufgrund der Auswahl des jeweils vordersten Lagerplatzes als Strategie „KFZ“ bezeichnet werden. In Abbildung 7 sind die bei zunehmender Gassengeometrie sich in Abhängigkeit der Strategien vergrößernden Fahrzeitunterschiede dargestellt. Damit ist bei höheren bzw. längeren Gassen die Strategie „KFZ�� empfehlenswert. Abbildung 7: Vergleich der Strategien „Chaotisch“ und „KFZ“ bei unzonierter Lagergasse In ist weiterhin zu erkennen, dass der Einfluss der Beschleunigung bei längeren Fahrstrecken abnimmt. Insbesondere bei kleinen Gassenabmessungen kann der Beschleunigungseinfluss nicht vernachlässigt werden. So sind in Abbildung 8 Gassenabmessungen angegeben, von wo ab die Beschleunigung der Bedientechnik der jeweiligen Richtungskomponente vernachlässigbar ist. Die Grenze des Beschleunigungseinflusses wurde mit 5 % der Gesamtfahrzeit willkürlich festgelegt. Es ist zu erkennen, dass der Beschleunigungseinfluss mit höherer Geschwindigkeit zunimmt, da das RBG eine längere Zeit und damit auch eine längere Fahrstrecke benötigt, um die Maximalgeschwindigkeit zu erreichen. Abbildung 8:Vernachlässigungsgrenzen der Beschleunigung Anhand des Diagramms ist weiterhin zu erkennen, dass die Beschleunigungen bei in der Praxis geläufigen Gassenlängen nicht zu vernachlässigen sind. Ein zur Validierung der Simulation genutztes Lager (ca. 80 x 40m, vx ≈ 1,8 m/s, vy ≈ 0,8 m/s) liegt hinsichtlich der Gassenlänge über der festgelegten Grenze, hinsichtlich seiner Höhe jedoch darunter. Somit sind auch hier die Beschleunigungen nicht zu vernachlässigen. 3.4. Zonierung Die häufigste und bekannteste Form der Zonierung in der Lagergasse ist die ABC-Zonierung. Diese geht davon aus, dass durch eine Platzierung der umsatzstarken Paletten (Schnelldreher) in der Nähe des Übergabeplatzes die mittleren Fahrstrecken der Bedientechnik vermindert werden. Abbildung 9 zeigt das Verhältnis der mittleren Anfahrpunkte in Abhängigkeit der Zonierungsart. Die Zahlenkombination (80/20) kennzeichnet bspw. 80 % des Gesamtumsatzes zu dem ihn verursachenden 20 % Mengenanteil der gesamten eingelagerten Palettenzahl [Pfo96]. Abbildung 9: Mittlere Anfahrpunkte relativ zu den Gesamtabmessungen, chaotische Lagerplatzvergabe Abbildung 10 stellt den Einfluss des Zusammenwirkens von Lagerplatzstrategien und der Zonierung dar. Dabei ist zu erkennen, dass sich bei ungünstiger Sortenverteilung von 80/80 (Umsatz-/ Mengenanteil) das Verhältnis der mittleren Fahrzeit gegenüber der unzonierten Gasse bei größeren Abmessungen erhöht. Bei günstigem Zonierungsfall (80/20) ist dieser Zusammenhang nicht zu beobachten. Hier bringt eine Zonierung Vorteile. Weiterhin ist zu erkennen, dass die Vorteile einer Zonierung bei gleichzeitig verbesserter Lagerplatzstrategie geringer sind. Abbildung 10: Zonierungsabhängige Auswirkungen der Lagerplatzstrategien auf die Fahrzeiten 3.5. Optimierung der Auftragsreihenfolge Die beschriebenen Lagerplatzvergabestrategien und Zonierungen haben das Ziel, durch Verminderung der Anfahr- und Rückwege der Bedientechnik die Fahrstrecken und damit die Fahr- und Spielzeiten zu verringern. Eine Optimierung der Reihenfolge bzw. der Zuordnung der Ein- und Auslageraufträge bei der Bildung von Doppelspielen soll dagegen die Strecken der Leerfahrten zwischen den kombinierten Lagerplätzen verringern. Auch hier konnten Auswirkungen bspw. der Zonierung nachgewiesen werden. Abbildung 11: Optimierung der Zwischenfahrzeit, Fahrzeit im Vergleich zu unoptimierter Fahrzeit Abbildung 11 zeigt die optimierten Zwischenfahrzeiten im Vergleich zu unoptimierten Zwischenfahrzeiten. Da eine Testung aller Möglichkeiten (Permutation) zu unzumutbarem Rechenaufwand führt, konnten hier nur Kombinationen von maximal 8 x 8 Aufträgen durchgeführt werden. Um dennoch auch größere Auftragspools berechnen zu können, wurde auf das Vogelsche Approximationsverfahren zurückgegriffen. Die dargestellten Kurvenverläufe stellen eine idealisierte Kennlinie der gefundenen Ergebnisse dar. Um in der Praxis eine solche Optimierung durchführen zu können, müssen die jeweils folgenden Aufträge bekannt sein. 3.6. Füllgrad Abbildung 12 zeigt Untersuchungen zum Füllgrad des Lagers. Minderungen der Umschlagleistungen waren ab einem Füllgrad von ca. 80% zu erkennen. Es konnten zwei Knickpunkte der Kurve der Umschlagleistung beobachtet werden. Der Punkt P1 stellt die Länge dar, unter der eine Verringerung der Leistung des Lagers eintritt. Der Punkt P2 beschreibt die Länge, unter der das Absinken der Umschlagleistung des Lagers verstärkt wird. Abbildung 12: Auswirkungen des Füllgrades des Lagers auf die Umschlagleistung 3.7. Berechnungsprogramm Um die Simulationsergebnisse auf beliebige Anwendungsfälle übertragen zu können, wurde ein Berechnungsprogramm erstellt. Durch Berechnung der wirksamen Gassenlänge werden die simulierten Fahrzeiten durch Interpolation auf die Daten des Anwendungsfalls übertragen. Es fließen insbesondere auch die untersuchten Auswirkungen der Lagerorganisation in die Berechnungen ein. Zur besseren Vergleichbarkeit der Berechnungsergebnisse sowie zur Definition der durch die Lagerorganisation erreichten Leistungserhöhung, wurden die Ergebnisse den Berechnungsnormen gegenübergestellt. Als weiteres Ergebnis des Programms können die Kosten des Lagers abgeschätzt werden. Dabei werden die Kosten für das Lager insgesamt, als auch die je Lagerplatz berechnet. Zunächst müssen bei zu projektierenden Lagern die Abmessungen, die Anzahl der Lagergassen und die technischen Daten der Bedientechnik festgelegt werden. Die Geometrie der Lagergasse bestimmt sich in diesem Stadium durch die Anzahl der benötigten Stellplätze und der räumlichen Restriktionen. Dabei werden unter Berücksichtigung der eingegebenen Grenzabmessungen für Breite, Tiefe und Höhe die Anzahl der Regalgassen berechnet. Hierzu werden durch den Einsatz von teuren RBG lange und hohe Gassen bevorzugt. Die Gassen werden so gestaltet, dass sowohl die Gassengeometrie optimal ist, als auch die maximale Bedienhöhe der Geräte erreicht wird. Um die geforderte Lagerplatzanzahl zu erlangen, werden Vielfache der so dimensionierten Regalgasse gebildet, bis die benötigte Stellplatzanzahl erstmals überschritten ist. Grenzen der Abmessungen können bspw. durch die einzusetzende Bedientechnik oder bereits bestehende Lagerhülle gegeben sein. 4. Zusammenfassung und Ausblick Anhand der Untersuchungen wurde eine Möglichkeit aufgezeigt, die es dem Anwender ermöglicht, ohne zusätzliche Hilfsmittel und spezielle Kenntnis von Simulationsprogrammen die Umschlagleistung eines Lagers zu berechnen. Er greift durch die Nutzung eines Berechnungsprogramms, das in MS Excel- VBA (Visual Basic for Applications) erstellt wurde auf eine Simulationsdatenbank zu. Diese Simulationsdatenbank berücksichtigt wesentliche organisatorische und technische Daten eines Lagersystems. Der Bediener kann somit die Umschlagleistung für seinen Planungsfall unter Berücksichtigung der Lagerorganisation sowie deren Wechselwirkungen berechnen. Um das Einsatzgebiet der Methode zu erweitern und allgemeiner zu gestalten sind weitere Vervollständigungen der Maßnahmenbibliothek sinnvoll. Zum Anderen ist es möglich, die Simulationsdatenbank um andere Lagertypen sowie mehrfachtiefe Einlagerungen zu erweitern.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Das Ziel des Projektes SEMT ist die Unterstützung der qualitätsrelevanten Gewinnung durch Erkennung der Materialarten und der dazwischen liegenden Trennfläche (Schichtgrenze) während des Grabvorganges als Geräteführerhilfe und zur Verfeinerung zukünftiger Tagebaumodelle. Die in Echtzeit erfolgende Erkennung des anstehenden Materials, der Trennflächen und die während des Grabvorgangs erfolgende Vorauserkundung in die Tiefe bilden die Basis für weitere Automatisierungsvorhaben und Prozessoptimierungen in der gesamten Abbaukette von Gewinnung, Transport, Lagerung und Verkippung. Zur Auswahl einer geeigneten Sensorik wurde eine Vorstudie mit anschließender Wertung in Bezug auf die Leistungsanforderungen und Einsatzbedingungen am Schaufelradbagger durchgeführt. Die aus dieser Studie als theoretisch geeignet erscheinenden Sensoriken Georadar und Geoelektrik mussten in Feldversuchen ihre praktische Eignung für SEMT nachweisen. Dieser Bericht gibt eine Übersicht über die durchgeführten Feldversuche mit den dazugehörigen Ergebnissen und einen Ausblick auf die mögliche Integration der Sensoriken am Schaufelradbagger.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Beiträge von über zwanzig namhaften Autoren und Spezialisten ihres Faches aus elf verschiedenen Ländern machen diese Festschrift zur wichtigen Dokumentation des Wiener Kaufrechtes. Dabei kommen nicht nur die entsprechenden national und kulturell geprägten Blickwinkel und Interpretationsweisen zur Geltung: Sowohl der Anwendung des CISG in den verschiedenen Mitgliedsländern, wie der Darlegung einiger wesentlicher und ganz spezifischer Problemkreise, wie nicht zuletzt seiner internationalen Bedeutung, wird Beachtung geschenkt. Nebst diesem eher praxisbezogenen Teil wird auch der theoretischen Seite der ihr angemessene Platz eingeräumt, in welchem dem rechts-philosophischen Aspekt des CISG ebenso Gewicht verliehen wird. Die nach inhaltlichen Gesichtspunkten gegliederte mehrsprachige Textsammlung ermöglicht dem Leser einen weiten Einblick, wobei die verschiedenen Anschauungen die Tiefe der vorliegenden Problematik zu erfassen suchen und die Autoren diese den unterschiedlichen Sichtweisen entsprechend durchleuchten. Der Komplexität des CISG wird in diesem Werk eine Aufmerksamkeit zuteil, die in dieser Art ihresgleichen sucht