45 resultados para Atmosphärische Luftschadstoffe


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Das wichtigste Oxidationsmittel für den Abbau flüchtiger Kohlenwasserstoffverbindungen (VOC, engl.: volatile organic compounds) in der Atmosphäre ist das Hydroxylradikal (OH), welches sich in einem schnellen chemischen Gleichgewicht mit dem Hydroperoxylradical (HO2) befindet. Bisherige Messungen und Modellvergleiche dieser Radikalspezies in Waldgebieten haben signifikante Lücken im Verständnis der zugrundeliegenden Prozesse aufgezeigt.rnIm Rahmen dieser Doktorarbeit wurden Messungen von OH- und HO2-Radikalen mittelsrnlaserinduzierten Fluoreszensmesstechnik (LIF, engl.: laser-induced fluorescence) in einem Nadelwald in Süd-Finnland während der Messkampagne HUMPPA–COPEC–2010 (Hyytiälä United Measurements of Photochemistry and Particles in Air – Comprehensive Organic Precursor Emission and Concentration study) im Sommer 2010 durchgeführt. Unterschiedliche Komponenten des LIF-Instruments wurden verbessert. Eine modifizierte Methode zur Bestimmung des Hintergrundsignals (engl.: InletPreInjector technique) wurde in den Messaufbaurnintegriert und erstmals zur Messung von atmosphärischem OH verwendet. Vergleichsmessungen zweier Instrumente basierend auf unterschiedlichen Methoden zur Messung von OH-Radikalen, chemische Ionisationsmassenspektrometrie (CIMS - engl.: chemical ionization mass spectrometry) und LIF-Technik, zeigten eine gute Übereinstimmung. Die Vergleichsmessungen belegen das Vermögen und die Leistungsfähigkeit des modifizierten LIF-Instruments atmosphärische OH Konzentrationen akkurat zu messen. Nachfolgend wurde das LIF-Instrument auf der obersten Plattform eines 20m hohen Turmes positioniert, um knapp oberhalb der Baumkronen die Radikal-Chemie an der Schnittstelle zwischen Ökosystem und Atmosphäre zu untersuchen. Umfangreiche Messungen - dies beinhaltet Messungen der totalen OH-Reaktivität - wurden durchgeführt und unter Verwendung von Gleichgewichtszustandsberechnungen und einem Boxmodell, in welches die gemessenen Daten als Randbedingungen eingehen, analysiert. Wenn moderate OH-Reaktivitäten(k′(OH)≤ 15 s−1) vorlagen, sind OH-Produktionsraten, die aus gemessenen Konzentrationen von OH-Vorläuferspezies berechnet wurden, konsistent mit Produktionsraten, die unter der Gleichgewichtsannahme von Messungen des totalen OH Verlustes abgeleitet wurden. Die primären photolytischen OH-Quellen tragen mit einem Anteil von bis zu einem Drittel zur Gesamt-OH-Produktion bei. Es wurde gezeigt, dass OH-Rezyklierung unter Bedingungen moderater OH-Reaktivität hauptsächlich durch die Reaktionen von HO2 mit NO oder O3 bestimmt ist. Während Zeiten hoher OH-Reaktivität (k′(OH) > 15 s−1) wurden zusätzliche Rezyklierungspfade, die nicht über die Reaktionen von HO2 mit NO oder O3, sondern direkt OH bilden, aufgezeigt.rnFür Hydroxylradikale stimmen Boxmodell-Simulationen und Messungen gut übereinrn(OHmod/OHobs=1.04±0.16), während HO2-Mischungsverhältnisse in der Simulation signifikant unterschätzt werden (HO2mod/HO2obs=0.3±0.2) und die simulierte OH-Reaktivität nicht mit der gemessenen OH-Reaktivität übereinstimmt. Die gleichzeitige Unterschätzung der HO2-Mischungsverhältnisse und der OH-Reaktivität, während OH-Konzentrationen von der Simulation gut beschrieben werden, legt nahe, dass die fehlende OH-Reaktivität in der Simulation eine noch unberücksichtigte HO2-Quelle darstellt. Zusätzliche, OH-unabhängigernRO2/HO2-Quellen, wie z.B. der thermische Zerfall von herantransportiertem peroxyacetylnitrat (PAN) und die Photolyse von Glyoxal sind indiziert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The exchange of chemical constituents between ocean and atmosphere provides potentially important feedback mechanisms in the climate system. The aim of this study is to develop and evaluate a chemically coupled global atmosphere-ocean model. For this, an atmosphere-ocean general circulation model with atmospheric chemistry has been expanded to include oceanic biogeochemistry and the process of air-sea gas exchange. The calculation of seawater concentrations in the oceanic biogeochemistry submodel has been expanded from DMS, CO₂

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Atmosphärische Aerosole haben einen starken Einfluss auf das Klima, der bisher nur grundlegend verstanden ist und weiterer Forschung bedarf. Das atmosphärische Verhalten der Aerosolpartikel hängt maßgeblich von ihrer Größe und chemischen Zusammensetzung ab. Durch Reflexion, Absorption und Streuung des Sonnenlichtes verändern sie den Strahlungshaushalt der Erde direkt und durch ihre Einflussnahme auf die Wolkenbildung indirekt. Besonders gealterte, stark oxidierte organische Aerosole mit großem Sauerstoff-zu-Kohlenstoff-Verhältnis wirken als effektive Wolkenkondensationskeime. Neben primären Aerosolpartikeln, die direkt partikelförmig in die Atmosphäre gelangen, spielen sekundäre Aerosolpartikel eine große Rolle, die aus Vorläufergasen in der Atmosphäre entstehen. Aktuelle Forschungsergebnisse legen nahe, dass kurzkettige aliphatische Amine bei Nukleationsprozessen beteiligt sind und somit die Partikelneubildung vielerorts mitsteuern. Um die Rolle von Aminen in der Atmosphäre besser erforschen und industrielle Emissionen kontrollieren zu können, bedarf es einer zuverlässigen Methode zur Echtzeitquantifizierung gasförmiger Amine mit hoher Zeitauflösung und niedriger Nachweisgrenze.rnDas hochauflösende Flugzeit-Aerosolmassenspektrometer (HR-ToF-AMS) bietet die Möglichkeit, atmosphärische Partikel in Echtzeit zu analysieren. Dabei werden Größe, Menge und grundlegende chemische Zusammensetzung erfasst. Anorganische Aerosolbestandteile können eindeutig zugeordnet werden. Es ist jedoch kaum möglich, einzelne organische Verbindungen in den komplizierten Massenspektren atmosphärischer Aerosole zu identifizieren und quantifizieren.rnIn dieser Arbeit wird atmosphärisches Aerosol untersucht, das im Westen Zyperns während der CYPHEX-Kampagne mit einem HR-ToF-AMS gemessen wurde. An diesem Standort ist vor allem stark gealtertes Aerosol vorzufinden, das aus Zentral- und Westeuropa stammt. Lokale Einflüsse spielen fast keine Rolle. Es wurde eine durchschnittliche Massenkonzentration von 10,98 μg/m3 gefunden, zusammengesetzt aus 57 % Sulfat, 30 % organischen Bestandteilen, 12 % Ammonium, < 1 % Nitrat und < 1 % Chlorid, bezogen auf das Gewicht. Der Median des vakuum-aerodynamischen Durchmessers betrug 446,25 nm. Es wurde sehr acides Aerosol gefunden, dessen anorganische Bestandteile weitgehend der Zusammensetzung von Ammoniumhydrogensulfat entsprachen. Tag-Nacht-Schwankungen in der Zusammensetzung wurden beobachtet. Die Sulfatkonzentration und die Acidität zeigten tagsüber Maxima und nachts Minima. Konzentrationsschwankungen an Nitrat und Chlorid zeigten einen weniger ausgeprägten Rhythmus, Maxima fallen aber immer mit Minima der Sulfatkonzentration, Aerosolacidität und Umgebungstemperatur zusammen. Organische Aerosolbestandteile entsprachen stark gealtertem, schwerflüchtigem oxidiertem organischem Aerosol. Es wurde eine interne Mischung der Partikel beobachtet, die ebenfalls meist bei alten Aerosolen auftritt.rnUm mit dem HR-ToF-AMS auch einzelne organische Verbindungen identifizieren und quantifizieren zu können, wurde eine Methode entwickelt, mit der man Amine der Gasphase selektiv in künstlich erzeugte Phosphorsäurepartikel aufnimmt und so für die HR-ToF-AMS-Messung zugänglich macht. Dadurch kombiniert man die Vorteile der Online-Messung des HR-ToF-AMS mit den Vorteilen klassischer Offline-Probenahmen. So können in Echtzeit sehr einfache Massenspektren gemessen werden, in denen störende Komponenten abgetrennt sind, während die Analyten eindeutig identifiziert werden können. Systeme dieser Art wurden GTRAP-AMS (Gaseous compound TRapping in Artificially-generated Particles – Aerosol Mass Spectrometry) genannt. Kalibrierungen für (Mono)Methylamin, Dimethylamin, Trimethylamin, Diethylamin und Triethylamin ergaben Nachweisgrenzen im ppt-Bereich bei einer Zeitauflösung von 3 min. Kammerexperimente zur Aminemission von Pflanzen zeigten eine gute Übereinstimmung des neu entwickelten Systems mit einer Gasdiffusionsabscheider-Offline-Probenahme und anschließender ionenchromatographischer Analyse. Beide Methoden zeigten Reaktionen der Pflanzen auf eine Veränderung der Lichtverhältnisse, während erhöhte Ozonkonzentrationen die Aminemission nicht veränderten. Die GTRAP-AMS-Methode eignet sich bereits für die Messung von Umgebungsluftkonzentrationen an einigen Orten, für die meisten Orte reicht die Nachweisgrenze allerdings noch nicht aus. Die Technik könnte bereits zur Echtzeitkontrolle industrieller Abgasemissionen eingesetzt werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Flachwassergleichungen (SWE) sind ein hyperbolisches System von Bilanzgleichungen, die adäquate Approximationen an groß-skalige Strömungen der Ozeane, Flüsse und der Atmosphäre liefern. Dabei werden Masse und Impuls erhalten. Wir unterscheiden zwei charakteristische Geschwindigkeiten: die Advektionsgeschwindigkeit, d.h. die Geschwindigkeit des Massentransports, und die Geschwindigkeit von Schwerewellen, d.h. die Geschwindigkeit der Oberflächenwellen, die Energie und Impuls tragen. Die Froude-Zahl ist eine Kennzahl und ist durch das Verhältnis der Referenzadvektionsgeschwindigkeit zu der Referenzgeschwindigkeit der Schwerewellen gegeben. Für die oben genannten Anwendungen ist sie typischerweise sehr klein, z.B. 0.01. Zeit-explizite Finite-Volume-Verfahren werden am öftersten zur numerischen Berechnung hyperbolischer Bilanzgleichungen benutzt. Daher muss die CFL-Stabilitätsbedingung eingehalten werden und das Zeitinkrement ist ungefähr proportional zu der Froude-Zahl. Deswegen entsteht bei kleinen Froude-Zahlen, etwa kleiner als 0.2, ein hoher Rechenaufwand. Ferner sind die numerischen Lösungen dissipativ. Es ist allgemein bekannt, dass die Lösungen der SWE gegen die Lösungen der Seegleichungen/ Froude-Zahl Null SWE für Froude-Zahl gegen Null konvergieren, falls adäquate Bedingungen erfüllt sind. In diesem Grenzwertprozess ändern die Gleichungen ihren Typ von hyperbolisch zu hyperbolisch.-elliptisch. Ferner kann bei kleinen Froude-Zahlen die Konvergenzordnung sinken oder das numerische Verfahren zusammenbrechen. Insbesondere wurde bei zeit-expliziten Verfahren falsches asymptotisches Verhalten (bzgl. der Froude-Zahl) beobachtet, das diese Effekte verursachen könnte.Ozeanographische und atmosphärische Strömungen sind typischerweise kleine Störungen eines unterliegenden Equilibriumzustandes. Wir möchten, dass numerische Verfahren für Bilanzgleichungen gewisse Equilibriumzustände exakt erhalten, sonst können künstliche Strömungen vom Verfahren erzeugt werden. Daher ist die Quelltermapproximation essentiell. Numerische Verfahren die Equilibriumzustände erhalten heißen ausbalanciert.rnrnIn der vorliegenden Arbeit spalten wir die SWE in einen steifen, linearen und einen nicht-steifen Teil, um die starke Einschränkung der Zeitschritte durch die CFL-Bedingung zu umgehen. Der steife Teil wird implizit und der nicht-steife explizit approximiert. Dazu verwenden wir IMEX (implicit-explicit) Runge-Kutta und IMEX Mehrschritt-Zeitdiskretisierungen. Die Raumdiskretisierung erfolgt mittels der Finite-Volumen-Methode. Der steife Teil wird mit Hilfe von finiter Differenzen oder au eine acht mehrdimensional Art und Weise approximniert. Zur mehrdimensionalen Approximation verwenden wir approximative Evolutionsoperatoren, die alle unendlich viele Informationsausbreitungsrichtungen berücksichtigen. Die expliziten Terme werden mit gewöhnlichen numerischen Flüssen approximiert. Daher erhalten wir eine Stabilitätsbedingung analog zu einer rein advektiven Strömung, d.h. das Zeitinkrement vergrößert um den Faktor Kehrwert der Froude-Zahl. Die in dieser Arbeit hergeleiteten Verfahren sind asymptotisch erhaltend und ausbalanciert. Die asymptotischer Erhaltung stellt sicher, dass numerische Lösung das &amp;amp;quot;korrekte&amp;amp;quot; asymptotische Verhalten bezüglich kleiner Froude-Zahlen besitzt. Wir präsentieren Verfahren erster und zweiter Ordnung. Numerische Resultate bestätigen die Konvergenzordnung, so wie Stabilität, Ausbalanciertheit und die asymptotische Erhaltung. Insbesondere beobachten wir bei machen Verfahren, dass die Konvergenzordnung fast unabhängig von der Froude-Zahl ist.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Das Hydroxyl Radikal ist, auf globalem Maßstab, das bedeutendste Oxidant in der Atmosphäre. Es initiiert den Abbauprozess vieler, teilweise schädlicher, Spurengase und insbesondere den von flüchtigen Kohlenwasserstoffen (VOC). Die OH Konzentration ist somit ein gutes Maß für die augenblickliche Selbstreinigungskapazität der Atmosphäre. Messungen zu nächtlicher Zeit mit LIF-FAGE-Instrumenten (engl.: laser-induced fluorescence - fluorescence assay by gas expansion) haben Konzentrationen des Hydroxylradikals (OH) ergeben, die signifikant höher waren, als sich mit der bekannten Chemie erklären ließ. Um herauszufinden, ob ein solches Signal wirklich atmosphärisches OH ist oder von einer störenden Spezies stammt, die im Messinstrument OH produziert, wurde das LIF-FAGE-Instrument des Max-Planck-Instituts für Chemie (MPIC) im Rahmen dieser Doktorarbeit modifiziert und getestet. Dazu wurde ein so genannter Inlet Pre-Injector (IPI) entwickelt, mit dem in regelmäßigen Abständen ein OH-Fänger in die Umgebungsluft abgegeben werden kann, bevor das OH vom Instrument erfasst wird. Mit dieser Technik ist es möglich, ein Hintergrund-OH (OHbg), d. h. ein im Instrument erzeugtes OH-Signal, vom gemessenen OH-Gesamtsignal (OHtot) zu trennen. Die Differenz zwischen OHtot und OHbg ist die atmosphärische OH-Konzentration (OHatm). Vergleichsmessungen mit der hier entwickelten Technik, dem IPI, in zwei verschiedenen Umgebungen mit Instrumenten basierend auf Massenspektrometrie mit chemischer Ionisation (CIMS, engl.: chemical ionization mass spectrometry) als alternativer Methode des OH-Nachweises, zeigten eine weitgehende Übereinstimmung. Eine umfassende Beschreibung des Systems zur Ermittlung der Ursache des OHbg hat ergeben, dass es weder von einem Artefakt des Instruments noch von hinlänglich bekannten und beschriebenen LIF-FAGE-Interferenzen stammt. Zur Bestimmung der Spezies, die das OHbg-Signal verursacht, wurden verschiedene Laborstudien durchgeführt. Die Arbeit im Rahmen dieser Doktorarbeit hat ergeben, dass das LIF-FAGE-Instrument leicht auf OH reagiert, das beim monomolekularen Zerfall stabilisierter Criegee-Intermediate (SCI) im Niederdruckbereich des Instruments gebildet wird. Criegee-Intermediate oder Carbonyloxide entstehen bei der Ozonolyse ungesättigter flüchtiger Kohlenwasserstoffverbindungen (VOC, engl.: volatile organic compounds) und können daher in der Umgebungsluft vorkommen. Anhand von Tests mit verschiedenen Verweilzeiten der SCI im Niederdruckbereich des Instruments in Verbindung mit einem detaillierten Modell mit der neuesten SCI-Chemie wurde die monomolekulare Zerfallsgeschwindigkeit von 20  10 s-1 für den syn-Acetaldehyd-Oxykonformer bestimmt. Der in Feldkampagnen gemessene OHbg-Wert wurde dahingehend untersucht, ob SCI die Quelle des beobachteten Hintergrund-OH im Feld sein könnten. Das Budget für die SCI-Konzentration, das für die Kampagnen HUMPPA-COPEC 2010 und HOPE 2012 berechnet wurde, ergab eine SCI-Konzentration zwischen ca. 103 und 106 Molekülen pro cm3. In der Kampagne HUMPPA-COPEC 2010 ergab die Schwefelsäurekonzentration, dass die OH-Oxidation von SO2 allein die gemessene H2SO4-Konzentration nicht erklären konnte. In dieser Arbeit konnte gezeigt werden, dass das Hintergrund-OH mit dieser ungeklärten Produktionsrate von H2SO4 korreliert und somit die Oxidation von SO2 durch SCI als mögliche Erklärung in Frage kommt. Ferner korreliert das Hintergrund-OH in der Kampagne HOPE 2012 mit dem Produkt aus Ozon und VOC und konnte mit SO2 als SCI Fänger entfernt werden. Qualitativ zeigen wir somit, dass das in der Umgebungsluft gemessene Hintergrund-OH wahrscheinlich durch den monomolekularen Zerfall von SCI verursacht wird, doch sind weitere Studien notwendig, um die quantitativen Beziehung für diese Spezies und dem Hintergrund-OH in unserem Instrument zu bestimmen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Inspired by the need for a representation of the biomass burning emissions injection height in the ECHAM/MESSy Atmospheric Chemistry model (EMAC)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Der atmosphärische Kreislauf reaktiver Stickstoffverbindungen beschäftigt sowohl die Naturwissenschaftler als auch die Politik. Dies ist insbesondere darauf zurückzuführen, dass reaktive Stickoxide die Bildung von bodennahem Ozon kontrollieren. Reaktive Stickstoffverbindungen spielen darüber hinaus als gasförmige Vorläufer von Feinstaubpartikeln eine wichtige Rolle und der Transport von reaktivem Stickstoff über lange Distanzen verändert den biogeochemischen Kohlenstoffkreislauf des Planeten, indem er entlegene Ökosysteme mit Stickstoff düngt. Die Messungen von stabilen Stickstoffisotopenverhältnissen (15N/14N) bietet ein Hilfsmittel, welches es erlaubt, die Quellen von reaktiven Stickstoffverbindungen zu identifizieren und die am Stickstoffkeislauf beteiligten Reaktionen mithilfe ihrer reaktionsspezifischen Isotopenfraktionierung genauer zu untersuchen. rnIn dieser Doktorarbeit demonstriere ich, dass es möglich ist, mit Hilfe von Nano-Sekundärionenmassenspektrometrie (NanoSIMS) verschiedene stickstoffhaltige Verbindungen, die üblicherweise in atmosphärischen Feinstaubpartikeln vorkommen, mit einer räumlichen Auflösung von weniger als einem Mikrometer zu analysieren und zu identifizieren. Die Unterscheidung verschiedener stickstoffhaltiger Verbindungen erfolgt anhand der relativen Signalintensitäten der positiven und negativen Sekundärionensignale, die beobachtet werden, wenn die Feinstaubproben mit einem Cs+ oder O- Primärionenstrahl beschossen werden. Die Feinstaubproben können direkt auf dem Probenahmesubstrat in das Massenspektrometer eingeführt werden, ohne chemisch oder physikalisch aufbereited zu werden. Die Methode wurde Mithilfe von Nitrat, Nitrit, Ammoniumsulfat, Harnstoff, Aminosären, biologischen Feinstaubproben (Pilzsporen) und Imidazol getestet. Ich habe gezeigt, dass NO2 Sekundärionen nur beim Beschuss von Nitrat und Nitrit (Salzen) mit positiven Primärionen entstehen, während NH4+ Sekundärionen nur beim Beschuss von Aminosäuren, Harnstoff und Ammoniumsalzen mit positiven Primärionen freigesetzt werden, nicht aber beim Beschuss biologischer Proben wie z.B. Pilzsporen. CN- Sekundärionen werden beim Beschuss aller stickstoffhaltigen Verbindungen mit positiven Primärionen beobachtet, da fast alle Proben oberflächennah mit Kohlenstoffspuren kontaminiert sind. Die relative Signalintensität der CN- Sekundärionen ist bei kohlenstoffhaltigen organischen Stickstoffverbindungen am höchsten.rnDarüber hinaus habe ich gezeigt, dass an reinen Nitratsalzproben (NaNO3 und KNO3), welche auf Goldfolien aufgebracht wurden speziesspezifische stabile Stickstoffisotopenverhältnisse mithilfe des 15N16O2- / 14N16O2- - Sekundärionenverhältnisses genau und richtig gemessen werden können. Die Messgenauigkeit auf Feldern mit einer Rastergröße von 5×5 µm2 wurde anhand von Langzeitmessungen an einem hausinternen NaNO3 Standard als ± 0.6 ‰ bestimmt. Die Differenz der matrixspezifischen instrumentellen Massenfraktionierung zwischen NaNO3 und KNO3 betrug 7.1 ± 0.9 ‰. 23Na12C2- Sekundärionen können eine ernst zu nehmende Interferenz darstellen wenn 15N16O2- Sekundärionen zur Messung des nitratspezifischen schweren Stickstoffs eingesetzt werden sollen und Natrium und Kohlenstoff im selben Feinstaubpartikel als interne Mischung vorliegt oder die natriumhaltige Probe auf einem kohlenstoffhaltigen Substrat abgelegt wurde. Selbst wenn, wie im Fall von KNO3, keine derartige Interferenz vorliegt, führt eine interne Mischung mit Kohlenstoff im selben Feinstaubpartikel zu einer matrixspezifischen instrumentellen Massenfraktionierung die mit der folgenden Gleichung beschrieben werden kann: 15Nbias = (101 ± 4) ∙ f − (101 ± 3) ‰, mit f = 14N16O2- / (14N16O2- + 12C14N-). rnWird das 12C15N- / 12C14N- Sekundärionenverhältnis zur Messung der stabilen Stickstoffisotopenzusammensetzung verwendet, beeinflusst die Probematrix die Messungsergebnisse nicht, auch wenn Stickstoff und Kohlenstoff in den Feinstaubpartikeln in variablen N/C–Verhältnissen vorliegen. Auch Interferenzen spielen keine Rolle. Um sicherzustellen, dass die Messung weiterhin spezifisch auf Nitratspezies eingeschränkt bleibt, kann eine 14N16O2- Maske bei der Datenauswertung verwendet werden. Werden die Proben auf einem kohlenstoffhaltigen, stickstofffreien Probennahmesubstrat gesammelt, erhöht dies die Signalintensität für reine Nitrat-Feinstaubpartikel.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Radio Frequency Identification (RFID) beeinflusst unbestritten zahlreiche Anwendungsgebiete und schafft die Grundlage für die zukünftige Entwicklung logistischer Systeme. Von besonderer Bedeutung ist in diesem Zusammenhang die systematische Identifikation von Einsatzpotenzialen für diese Technologie. Bislang existiert hierfür noch keine allgemein verbreitete Methodik. Diese Problematik greift der folgende Beitrag auf und zeigt, wie aus den technischen Grundlagen und analysierten Praxisanwendungen Identifikationskriterien abgeleitet werden können. Die so erarbeiteten Kriterien werden in ihrer Anwendung anhand eines fiktiven Beispiels erläutert und damit exemplarisch eine mögliche Analysemethodik vorgestellt. 1. Einleitung Die produktionswirtschaftlichen Anforderungen an die Unternehmen sind zunehmend geprägt durch Globalisierung und damit durch eine zunehmende Komplexität sowie vertiefte Arbeitsteiligkeit. Es entsteht eine zunehmend breitere Streuung der Fertigungsstandorte und Kooperationsbeziehungen. Es gibt letztlich mehr Lager- und Umschlagprozesse in der Lieferkette. Andererseits bringt der erhöhte Qualitäts- und Kostendruck steigende Fixkosten mit sich, er zwingt zur ständigen Rationalisierung der Materialwirtschaft. Es besteht der Zwang zum Einsatz neuer technisch-elektronischer Mittel zur Kontrolle und Steuerung der logistischen Ketten. Im Lager bedeutet das eine zunehmende Nutzung der Informations- und Kommunikationstechnik zur Lager- und Fertigungssteuerung, auch in Verbindung mit Forderungen der Rückverfolgbarkeit der Produkte. An die Logistikleistungen werden damit Anforderungen wie Schnelligkeit, Qualität und Kostenminimierung gestellt. Letztlich bestehen die Warenbereitstellungs- und Verteilsysteme aus der technischen Grundstruktur, dem Lagertyp und dessen Geometrie sowie der dabei einsetzbaren Bedientechnik und deren kinematischen Daten. Der organisatorische Rahmen dieser Systeme ist gekennzeichnet durch die Nutzung diverser Ein- und Auslagerstrategien, die auch wesentlich Kosten und Leistungen (Umschlagleistung) des zu betrachtenden Lagersystems bestimmen. Aufgrund der genannten Forderungen muss es gelingen, aus dem eingesetzten technischen System durch organisatorisch effizienten Betrieb maximale Leistung bei gleichzeitig minimal eingesetzten Kosten zu erzielen. Neben den Investitionskosten sind bei der Planung von automatischen Lagersystemen die erreichbaren mittleren Spielzeiten der Bedientechnik von entscheidender Bedeutung, um die erforderliche Umschlagleistung des Lagers zu gewährleisten. Hierzu existieren eine Reihe von Berechnungsvorschriften und –normen. Diese Berechnungen berücksichtigen jedoch nicht die Auswirkungen der Lagerorganisation, wie beispielsweise fahrzeitminimale Kombinationen von Ein- und Auslageraufträgen bei Doppelspielen, Zonierungsmaßnahmen, die Auswirkungen von verschiedenen Füllgraden des Lagers oder Lagerplatzstrategien. 2. Stand der Technik 2.1. Lagertypen Abbildung 1: Systematische Einteilung der Lagertypen In Abbildung 1 sind verschiedene Lagertypen dargestellt und nach Kriterien eingeteilt. Soll eine Einschränkung hinsichtlich am Markt häufig vorkommender automatischer Palettenlager getroffen werden, so sind besonders die in der Abbildung hervorgehobenen Typen zu nennen. Eine Auswahl der einzelnen Lagertypen erfolgt dann anhand von Kosten, Umschlagleistung und bei Kompaktlagern vorrangig anhand von Flächen- und Raumnutzungsgrad. Werden die Kostenunterschiede bei Personal, Rechentechnik und Steuerungssoftware in den verschiedenen Lagertypen und -ausführungen der jeweiligen Typen vernachlässigt, unterscheiden sich die Gesamtkosten der Lager lediglich in der Bedientechnik sowie in den statisch bedingten Kosten der Regalkonstruktion. Die wichtigsten Kosteneinflüsse auf die Regale sind wiederum Bauhöhe und Bauart (Regalkonstruktion oder selbsttragendes Bauwerk). Abbildung 2 zeigt die zu erwartenden Umschlagleistungen1) der verschiedenen Lagertypen in Abhängigkeit der benötigten Stellplatzanzahl. Die darauf folgende Abbildung 3 zeigt die zu erwartenden Investitionskosten1) je Stellplatz. Die berücksichtigten Kenngrößen sind nachstehend dargestellt. Die abgebildeten Kurven machen deutlich, dass insbesondere Umschlagleistung der Lager und deren Flächen- bzw. Raumnutzungsgrad gegensätzlich verlaufen. Somit sind auch die Einsatzgebiete der Lagertypen voneinander abgrenzbar. Während Hochregallager für Anwendungsfälle mit hohem Gutumschlag in Frage kommen, werden die Kompaktlager eher in Objekten mit begrenztem Platz oder hohen Raumkosten (bspw. Kühllager) eingesetzt. Somit sind Kompaktlager auch häufig für die Umplanung bzw. der notwendigen Vergrößerung der Lagerkapazität innerhalb einer bestehenden baulichen Hülle interessant. Abbildung 2: Umschlagleistungen der verschiedenen Lagertypen Abbildung 3: Investitionskosten der einzelnen Lagertypen 2.2. Einzel-/ Doppelspiele Um anhand der Technik und der geometrischen Verhältnisse im Lager die höchstmögliche Umschlagleistung zu erzielen, ist es sinnvoll, Doppelspiele (DS) zu generieren. Somit ist nicht wie bei Einzelspielen (ES) je umgeschlagene Ladeeinheit eine Leerfahrt erforderlich, sondern nur je zweiter Ladeeinheit. Das Bediengerät fährt also vom Einlagerpunkt direkt zum Auslagerpunkt, ohne zum Übergabepunkt zurückkehren zu müssen. Diese Vorgehensweise setzt die Kenntnis der nächsten Fahraufträge und gegebenenfalls die Möglichkeit der Veränderung derer Reihenfolge voraus. Für eine Optimierung der Umschlagleistung ist die bei DS entstehende Leerfahrt (Zwischenfahrstrecke) und damit die Zwischenfahrzeit zu minimieren (vgl. 3.5). Nachfolgend beschriebene Untersuchungen beziehen sich jeweils auf Doppelspiele. Abbildung 4: Darstellung der anzufahrenden Lagerplätze in der Regalwand,links: Einzelspiel, rechts: Doppelspiel 2.3. Berechnungsvorschriften für Umschlagleistungen von Lagern Es existieren eine Reihe von Vorschriften zur Berechnung der Umschlagleistung von Lagern, exemplarisch sind drei Berechnungsvorschriften dargestellt. Die Richtlinie VDI 3561 [VDI3561] ermöglicht die Berechnung der Spielzeit auch für Doppelspiele. Dazu werden zwei Referenzpunkte festgelegt, die den Aus- bzw. Einlagerpunkt darstellen. Ein Doppelspiel besteht dann aus der Summe folgender Einzelzeiten: • der Hinfahrt vom Übergabepunkt zum Einlagerpunkt (P1), • der Leerfahrt vom Ein- zum Auslagerpunkt (P2) und der • Rückfahrt vom Auslagerpunkt zum Übergabepunkt (vgl. Abb.4 rechts). Die Summe dieser Einzelzeiten wird danach mit der Summe der Übergabezeiten addiert. Der Unterschied der Richtlinie und der Berechnungsvorschrift nach [Gud00] bestehen im wesentlichen aus der Lage der Ein- und Auslagerpunkte. Fahrzeitberechnung nach VDI 3561 P1 ; P2 Fahrzeitberechnung nach Gudehus 1) P1 ; P2 1)Annahme: Vernachlässigung von Totzeiten, Lastaufnahmefaktor = 1 Wird davon ausgegangen, dass in Abhängigkeit der Gassengeometrie immer nur eine der beiden Fahrzeitanteile (vertikal bzw. horizontal) spielzeitbestimmend ist, so ergeben sich beide Fahrstrecken zu 4/3 der jeweiligen Gesamtabmessung. Der Unterschied der beiden Berechnungsvorschriften liegt lediglich in der Aufteilung der Gesamtfahrstrecke auf die Teilfahrstrecken Hin-, Rück- bzw. Zwischenfahrt. Da jedoch die Fahrzeit zu den Anfahrpunkten in der Regel nicht von der gleichen Fahrzeitkomponente bestimmt wird, kommt es in der Praxis zu Unterschieden im Berechnungsergebnis. Die unter dem Titel „Leistungsnachweis für Regalbediengeräte, Spielzeiten“ stehende Norm FEM 9.851 [FEM9.851] beschäftigt sich ebenfalls mit der Berechnung von Spielzeiten von Regalbediengeräten (RBG). Dabei werden sechs verschiedene Anwendungsfälle generiert, die am häufigsten in der Praxis vorkommen. Diese unterscheiden sich insbesondere in der Lage der Übergabepunkte für die Ein- und Auslagerung. Dabei werden die Punkte sowohl horizontal als auch vertikal verschoben. Es werden hierbei auch Fälle betrachtet, in denen der Auslagerpunkt nicht mit dem Einlagerpunkt übereinstimmt, sich beispielsweise auch an dem gegenüberliegenden Gassenende befinden kann. Wird der einfachste Fall betrachtet, dass sich der Übergabepunkt für die Ein- und Auslagerung übereinstimmend an einer unteren Ecke der Gasse befindet, stimmen die Berechnungsformeln mit [Gud00] weitgehend überein. 2.4. Kritik und Untersuchungsansatz Die Berechnung der mittleren Spielzeit der einzelnen Lagergassen durch die beschriebenen Normen erfolgt in der Regel ohne die Berücksichtigung der Geschwindigkeitsdiagonalen, deren Steigung c durch nachstehendes Verhältnis gegeben ist. 1. Einleitung Eine umfassende Prozessanalyse ist die Grundlage einer jeden erfolgreichen RFID-Anwendung [o.Verf. 2006]. Die Merkmale, die bei einer solchen Untersuchung zu beachten sind, werden allerdings nicht öffentlich diskutiert. Wie Resch in seinem Ansatz zeigt, ist aber gerade die Analysephase von entscheidender Bedeutung für den späteren Erfolg einer RFID-Anwendung (vgl. Abb. 1). Abbildung 1: Fehlende Methodiken der Prozessanalyse [Resch2005] In dieser Phase besteht der größte Gestaltungsfreiraum für die spätere Umsetzung. Da in dieser Phase das größte Optimierungspotenzial einer RFID-Anwendung festgelegt wird, entscheidet sich bereits zu Beginn eines Projektes wie groß der maximal erreichbare Nutzen einer Lösung sein kann. Bisher existieren keine allgemein verbreiteten Methoden und Kriterien zur Identifikation dieser Einsatz-/Nutzenpotenziale. Die Prozessanalyse ist die Basis zukünftiger RFID-Anwendungen und ist daher entsprechend umfangreich durch zu führen. RFID-Einsatzpotenziale werden aktuell nur in Funktionsbereichen kommuniziert. Diese Pauschalisierung engt die Sicht auf potenzielle Anwendungen allerdings sehr stark ein. Dadurch besteht die Gefahr, dass die vorhandenen Nutzenpotenziale indirekt beteiligter Prozesse nicht beachtet werden. Es ist daher zwingend notwendig möglichst alle material- und informationsflussbezogenen Prozesse auf ein RFID-Einsatzpotenzial hin zu untersuchen. D.h. sowohl die Prozesse mit direktem Materialflussbezug (bspw. Wareneingang) als auch die Prozesse, die nur indirekt, über den Informationsfluss, mit dem Materialfluss verknüpft sind (bspw. Disposition). Der vorliegende Beitrag stellt daher einen ersten Ansatz für die Ermittlung allgemeingültiger Analysekriterien für RFID-Einsatzpotenziale. Die vorgestellte Methodik und der daraus entwickelte Kriterienkatalog sollen es ermöglichen, RFID-Anwendungen in der Analysephase auf ein möglichst vollständiges Nutzengerüst zu stellen und so den maximalen Nutzen einer Anwendung systematisch zu ermitteln. 2. Identifikationskriterien 2.1. Methodik Basierend auf der Überlegung die Kriterien sowohl theoretisch als auch auf Basis von Praxiserfahrungen zu entwickeln, dienen neben der Betrachtung technischer Grundlagen auch Analysen von realisierten Anwendungen und Pilotprojekten als Basis der Kriterienentwicklung. Abbildung 2 zeigt die grundsätzliche Methodik hinter der Entwicklung der Kriterien. Dabei zeigt sich, dass aus dem gewählten Ansatz zwangsläufig zwei differierende Typen von Kriterien entwickelt werden müssen. Technische Kriterien, aus den Grundlagen der RFID beziehen sich vor allem auf das vorherrschende Prozessumfeld. Frequenzspezifische Eigenschaften (Leistungsdaten) und allgemeine, also frequenzübergreifende Eigenschaften der RFID-Technik bilden die Ausgangsbasis für diese Kriteriengruppe. Dabei werden diese technologischen Eigenschaften in Prozessmerkmale überführt, anhand derer im konkreten Prozessumfeld eine Technologieauswahl durchgeführt werden kann. So können potenzielle RFID-Anwendungen auf eine prinzipielle Anwendbarkeit hin überprüft werden. Abbildung. 2: Vorgehen zur Entwicklung der Identifikationskriterien [Resch2005] Die zweite Gruppe der Kriterien, die organisatorischen Kriterien, werden aus Praxiserfahrungen abgeleitet. Basis dieser Analyse sind Prozesse aus realisierten Anwendungen und Pilotprojekten. Dieser praxisbasierte Teil stellt prozessbezogene Merkmale zusammen, deren Schwerpunkt auf prozessspezifischen organisatorischen Merkmalen, bspw. Durchsatz, oder auch Dokumentationsaufwand liegt. Die ausgewählten Praxisbeispiele sind nach ihren individuellen Prozessmerkmalen analysiert worden. Die Ergebnisse wurden stichpunktartig zusammengefasst, in übergeordnete Kategorien gruppiert und abschließend nach ihrem Flussbezug gegliedert. RFID-Anwendungen beeinflussen sowohl materialflussbezogene Prozesse, als auch direkt oder auch indirekt verknüpfte informationsflussbezogene Prozesse. Daher erfolgt eine Ordnung der identifizierten Kriteriengruppen nach ihrem Flussbezug, um so einem Anwender die Betrachtungsweise nachhaltig zu verdeutlichen und die Analyse zu vereinfachen. 2.2. Praxisbeispiele Die analysierten Praxisbeispiele sind zum Großteil in der Automobilindustrie realisiert (vgl. Abb. 3). Die weiteren Anwendungen sind aus der Instandhaltung sicherheitsrelevanter technischer Gebäudeausrüstung, aus einem Hochregallager eines Logistikdienstleisters sowie aus der Luftfahrtindustrie. Abbildung 3: Branchenspezifische Verteilung der Praxisbeispiele Die Auswahl der Praxisbeispiele ist bewusst auf die Automobilindustrie fokussiert. Dieser Industriezweig hat in Deutschland bereits einige Anwendungen und eine Vielzahl an Pilotprojekten initiiert. Die Bandbreite der realisierten Projekte ist sehr groß und deckt daher viele verschiedene Anwendungsfälle ab. Die Ergebnisse der Untersuchung sind aber auch auf andere Branchen übertragbar, da die untersuchten Praxisprojekte Situationen abbilden, die ebenfalls leicht zu übertragen sind. Die analysierten Anwendungen bilden ein sehr breites Feld an Einsatzszenarien ab. Anwendungen mit massenhaften Stückzahlen sind ebenso vertreten, wie Anwendungen mit hohem Spezialisierungscharakter. Die Anwendungen reichen dabei von einfachen Pilotprojekten im Ladungsträgermanagement, bis hin zu komplexen Anwendungen im Bereich der Produktionssteuerung und der unternehmensübergreifenden Koordination von Materialflüssen. Insgesamt verteilen sich die analysierten Anwendungen auf drei Schwerpunktbereiche. Abbildung 4 stellt die Anwendungsbereiche in einer Übersicht zusammen. Abbildung 4: Übersicht der Anwendungsgebiete aus den Praxisanwendungen Anwendungen aus den Bereichen der Produktionssteuerung und des Materialflusses sind dabei am häufigsten vertreten. Während die Anwendungen aus dem Bereich der Instandhaltung, bzw. dem Qualitätsmanagement, meist mit der Hauptanwendung aus dem Bereich der Produktionssteuerung verknüpft sind. So wird bspw. die Dokumentationen der einzelnen Fertigungsstationen i.d.R. sowohl zur Fertigungssteuerung als auch zur Qualitätssicherung genutzt. 2.3. Ergebnisse der Praxisanalyse Die Analyse der Praxisanwendungen brachte in einem ersten Schritt eine Fülle an spezifischen Merkmalen zusammen. Jeder analysierte Prozess wies seine eigenen Merkmale auf, die aber dem Grundsatz nach systematisiert werden konnten. Die so erarbeiteten Merkmale wurden in einem zweiten Schritt gruppiert. Insgesamt ergaben sich fünf Gruppen, die jeweils nach einer, durch die RFID-Technik durchgeführte Funktion benannt sind. Um eine Prozessanalyse mit Hilfe der Kriterien zu erleichtern, ist jede Gruppe ihrem übergeordneten Flusssystem zugeordnet worden. Nachstehende Abbildung 5 zeigt die einzelnen Gruppierungen mit ihrem jeweiligen Flussbezug. Dabei sind jeder Gruppe beispielhafte Merkmale zugeordnet. Abbildung 5: Organisatorische Kriterien zur Identifikation von RFID-Einsatzpotenzialen Die vorliegende Systematisierung von Identifikationskriterien deckt sowohl Aspekte des reinen Materialflusses, als auch die Aspekte der zugehörigen Informationsflüsse ab. Dabei verhält sich der Flussbezug in jeder Kriteriengruppe unterschiedlich. Die Kriterien der Gruppe Identifikation befassen sich ausschließlich mit dem Identifikationsvorgang. Dabei können die erarbeiteten Kriterien in zwei Arten unterschieden werden, quantitative und qualitative Kriterien. Qualitativ messbar sind Kriterien, die sich auf die Anzahl der Identifikationsvorgänge beziehen. Bspw. die Anzahl der Identifikationsvorgänge im betrachteten Prozessverlauf, bezogen auf ein Identifikationsobjekt oder die Anzahl der Identifikationsvorgänge pro Zeiteinheit an einem Identifikationspunkt innerhalb des Prozessverlaufs. Gleichzeitig umfasst diese Gruppe aber auch Kriterien, die nur qualitativ zu bewerten sind. Kriterien wie die Bedeutung einer exakten Identifikation einzelner Teile im Prozess oder auch der aktuelle Aufwand der Identifikation im Prozess lassen sich nur bedingt oder nicht quantifizieren. Diese Kriteriengruppe fokussiert mit ihren Merkmalen vor allem den Materialfluss. Die einzelnen Merkmale beziehen sich auf den tatsächlichen Identifikationsvorgang und nicht auf die zugehörigen Informationsflüsse. Unter dem Begriff Transparenz sind Kriterien gruppiert, die sich mit der Verfolgbarkeit und Übersichtlichkeit von Prozessen befassen. Dabei gilt es sowohl die Bedeutung für den aktuellen Prozess als auch für die abhängigen Prozesse zu ermitteln. Transparenz bzw. die fehlende Transparenz ist der Kern dieser Kriteriengruppe. Qualitative Kriterien sind in dieser Kategorie besonders stark vertreten, da vor allem die Bedeutung bestimmter Aspekte der Prozesstransparenz als Kriterium dient. Prozesstransparenz liegt i.d.R. nicht vor oder wird nur über komplexe Systeme erreicht. Die Bewertung dieser Kriteriengruppe ist höchst variabel, da Prozesstransparenz in ihrer Bedeutung höchst individuell ist, d.h. von Prozess zu Prozess stark variiert. Die Gruppe Konfiguration fasst Merkmale zusammen, die auf objektspezifische Anpassungsarbeiten im Prozessverlauf hinweisen. Diese Tätigkeiten sind i.d.R. mit einem quantifizierbaren Aufwand verbunden und können so leicht erfasst werden. Die RFID-Technologie eröffnet hier, ähnlich wie im Bereich der Identifikation, Chancen zur Automatisierung bestehender Prozesse. Die Kriterien konzentrieren sich in ihrer Zielrichtung daher schwerpunktmäßig auf die Untersuchung von Potenzialen hinsichtlich der Automation von Konfigurationsvorgängen. Ähnlich wie die vorstehende Gruppe der Transparenz, besitzt diese Gruppe ebenfalls einen starken Bezug zu beiden Flusssystemen. In beiden Gruppen liegt der Fokus der betrachteten Merkmale sowohl auf dem Materialfluss und den physischen Aktionen als auch auf den zugehörigen Informationsflüssen mit entsprechenden Tätigkeiten. Die vierte Gruppe Zuordnung enthält primär Merkmale, die sich auf den Informationsfluss beziehen. Im Vordergrund steht die Art und Weise in der innerhalb eines Prozesses Materialflüsse zwischen Quelle und Senke koordiniert werden. Diese Gruppe enthält ebenfalls sowohl qualitativ als auch quantitativ zu bewertenden Merkmale. RFID-Technik kann hier zu einer deutlichen Komplexitätsreduktion, einer Automation sowie der Reduktion von Stillstands- u. Wartezeiten führen. Die letzte Gruppe Datenverwendung und Dokumentation befasst sich beinahe ausschließlich mit Aspekten des Informationsflusses. Als beinahe Komplementär zur Gruppe der Identifikation stehen hier die informationsflussbezogenen Handlungen, ausgelöst durch einen zugehörigen Materialfluss in der Betrachtung. Dabei stehen vor allem Fehlerraten, manuelle Aufwende der Datenverarbeitung und die Anzahl an Medienbrüchen im Informationsfluss im Vordergrund. Auch hier existiert wiederum ein Geflecht aus qualitativen und quantitativen Kriterien, deren Bewertung individuell durchzuführen ist. 2.4. Technische Kriterien Ergänzt werden die organisatorischen Kriterien um die technischen Kriterien. Diese Kriterien leiten sich aus den technischen Grundlagen der RFID-Technik ab. Diese Grundlagen sind zum einen die Eigenschaft der kontakt- und sichtlosen Übertragung von Energie und Daten, zum anderen der physische Aufbau der Komponenten eines RFID-Systems, dem Reader und dem Transponder. Des Weiteren definieren die frequenzspezifischen Eigenschaften der verschiedenen RFID-Systeme unterschiedliche Leistungsparameter, aus denen technische Kriterien abgeleitet werden können. Daraus ergibt sich die logische Trennung in frequenzabhängige und frequenzunabhängige Kriterien. Auszüge dieser Kriterien zeigt nachstehende Abbildung 6 Abbildung 6: Technische Kriterien Die technischen Kriterien dienen eher zur Technologieauswahl, als zu einer reinen Potenzialidentifikation, da ausschließlich limitierende Aspekte der Technologie betrachtet werden. Einflüsse, bedingt durch die genutzte technische Ausrüstung (bspw. metallische Lagertechnik) oder verfahrensbedingte Einflüsse (elektromagnetische Felder, Schweißroboter, o.ä.), werden über diese Kriterien abgebildet und finden so Berücksichtigung in den zu entwickelnden RFID-Szenarien. Die Wirkung dieser Kriterien hängt stark von dem jeweiligen Stand der Technik ab. Galt bspw. der Einsatz von 13,56 MHz Transpondern direkt auf Metall vor fünf Jahren noch als nicht möglich, so ist die Technik mittlerweile so weit entwickelt, dass auch Lösungen in diesem Bereich angeboten werden. Daher muss festgehalten werden, dass die frequenzabhängigen technischen Kriterien im Zeitverlauf variabel in ihrer Wirkung sind und sich mit dem technischen Fortschritt der RFID-Hardware verändern. Atmosphärische Einflüsse auf die RFID-Hardware sind generell für alle Varianten (unabhängig von der Betriebsfrequenz) der RFID-Technik zu beachten. Der Einfluss der Umgebungsbedingungen auf die Integrität der Hardware ist immer zu berücksichtigen. Temperatur, Druck und Staubbelastung sind hier die Hauptgruppen äußerer Einflüsse auf die RFID-Hardware. Auch diese Gruppe der technischen Kriterien muss mit der sich verändernden technischen Leistungsfähigkeit in ihrer Bewertung angepasst werden. 3. Anwendung der Kriterien 3.1. Anwendungsbeispiel Die Anwendung der Kriterien wird im Folgendem anhand eines kurzen Beispiels erläutert. Nachstehende Abbildung 7 zeigt Ausschnitte aus einem fiktiven Prozess innerhalb eines Großlagers. Abbildung 7: Fiktiver Prozess Von der Entladung des LKW bis zur Einlagerung der Paletten ist der Prozess in vier grobe Phasen strukturiert. Zur Identifikation von RFID-Einsatzpotenzialen werden die einzelnen Prozesselemente nach dem in Tabelle 1dargestellten Schema untersucht. Tabelle 1: Exemplarische Anwendung der Kriterien an einem ausgewählten Beispiel Kriteriengruppe Kriterium Einheit Prozesselement Entladen des LKW Bezugsobjekt LKW Palette Identifikation Anzahl ID - Vorgänge pro Objekt 1/Stck. 2 1 Anzahl ID - Objekte im Zeitraum Stck./ZE 25/h 10/min Transparenz Bedeutung exakter Prozesszeiterfassung Qual. Hoch Hoch intransparente Prozessabschnitte ja/nein Ja Ja Konfiguration Anzahl objektspez. Konfigurationsarbeiten 1/Stck. 0 0 Manueller Anteil der Konfiguration Qual. - - Zuordnung Fehleranteil der Zuordnung Q/S Qual. Mittel Gering Komplexität der Zuordnung Q/S Qual. Hoch Hoch Datenverwendung und Dokumentation Anzahl der Änderungen objektspezifischer Daten im Prozess 1/Stck. 8 (6-7) 2 Anzahl der Medienbrüche im Prozess 1/Stck. - - Die Tabelle zeigt, wie einzelne Prozesselemente mit Hilfe der Identifikationskriterien analysiert werden können. Dabei ergeben sich aus den Ausprägungen der einzelnen Kriterien die Nutzenpotenziale auf deren Basis sich eine spätere RFID-Anwendung gestalten und bewerten lässt. Für die Analyse der einzelnen Prozesselemente ist es notwendig, die Kriterien auf ein Bezugsobjekt zu beziehen. Dieses Bezugsobjekt stellt den potenziellen Träger des Transponders dar. Dabei ist zu beachten, dass innerhalb eines Prozesses mehrere Bezugsobjekte vorhanden sein können. Die Analyse muss daher für jedes Bezugsobjekt einzeln durchgeführt werden. Die Zusammenfassung der Analyseergebnisse pro Bezugsobjekt, über die zusammengehörigen Prozesselemente zeigt die Nutzenpotenziale innerhalb der einzelnen Prozesse. 3.2. Verwendung der Ergebnisse und Bewertungsmöglichkeiten identifizierter Einsatzpotenziale Im vorstehenden Absatz wurde gezeigt, wie die erarbeiteten Kriterien zur Prozessanalyse genutzt werden können. Aus der Analyse ergeben sich Nutzenpotenziale für den RFID-Einsatz. Inwieweit diese erkannten Potenziale tatsächlich zu einer wirtschaftlichen RFID-Anwendung führen, muss in einem zweiten Schritt geprüft werden. Dabei muss festgestellt werden, dass es keine RFID-Lösung „von der Stange“ gibt [Lammers2006]. Jede Anwendung muss individuell auf Wirtschaftlichkeit geprüft werden. Dabei spielen vor allem die Kriterien eine starke Rolle, die nur qualitativ erfasst werden können, z. B. die Bedeutung einer exakten Erfassung der Prozesszeit. Quantitativ erfassbare Kriterien sind vergleichsweise einfach in der wirtschaftlichen Beurteilung, obwohl auch für diese Art Kriterium keine allgemein gültigen Richtwerte zur Beurteilung existieren. Zu groß sind hier die Unterschiede zwischen einzelnen Prozessen und den möglichen Einspareffekten, bedingt durch differierende Kostentreiber und Anforderungen an Leistungsfähigkeiten. Weiterhin müssen sowohl qualitative als auch quantitative Kriterien immer im Zusammenhang gesehen werden. Nur dann kann der potenzielle Nutzen einer RFID-Anwendung vollständig ermittelt werden. Erst aus der Kombination dieser beiden Faktorgruppen ergibt sich das maximale Nutzenpotenzial einer RFID-Anwendung. Vor diesem Hintergrund sind die einzelnen Nutzenpotenziale zu erfassen, daraus mögliche RFID-Szenarien zu entwickeln und diese Szenarien einer abschließenden, detaillierten Wirtschaftlichkeitsanalyse zu unterziehen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Anatolia is situated in the Eastern Mediterranean region between 36 – 42N and 26 – 45E. The geological records of paleoglaciations in the high terrains of Anatolia are key archives to quantify paleoclimate change in the Eastern Mediterranean area. The climate of the Eastern Mediterranean region is influenced by three main atmospheric systems: the main middle to high latitude westerlies, the mid-latitude subtropical high-pressure systems, and the monsoon climate. Glacial geological studies in Turkey have started in the late 19th century. Glacial deposits are found mainly in the eastern, northeastern and southern part of the Anatolian Peninsula. Anatolia is the fundamental element to understand the interactions between paleoenvironment, climatic variations, and development of the human societies. As the Taurus and Black Sea Mountains are sensitively situated for the paleoclimatic reconstructions, a chronostratigraphic framework on the paleoglaciation should be elaborated. The timing of the Last Glacial Maximum (LGM) in Anatolia is still unknown. Our first results from Kavron Valley (Kaçkar Mountains, NE Turkey) are encouraging for the reconstruction of paleoglaciations in Turkey and related paleoclimatological interpretations although it is presently difficult to pinpoint the classical Last Glacial Maximum – Younger Dryas – Little Ice Age moraine sequences in the field.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Exposure to outdoor air pollutants and passive tobacco smoke are common but avoidable worldwide risk factors for morbidity and mortality of individuals. In addition to well-known effects of pollutants on the cardiovascular system and the development of cancer, in recent years the association between air pollution and respiratory morbidity has become increasingly apparent. Not only in adults, but also in children with asthma and in healthy children a clear harmful effect of exposure towards air pollutants has been demonstrated in many studies. Among others increased pollution has been shown to result in more frequent and more severe respiratory symptoms, more frequent exacerbations, higher need for asthma medication, poorer lung function and increased visits to the emergency department and more frequent hospitalisations. While these associations are well established, the available data on the role of air pollution in the development of asthma seems less clear. Some studies have shown that increased exposure towards tobacco smoke and air pollution leads to an increase in asthma incidence and prevalence; others were not able to confirm those findings. Possible reasons for this discrepancy are different definitions of the outcome asthma, different methods for exposure estimation and differences in the populations studied with differing underlying genetic backgrounds. Regardless of this inconsistency, several mechanisms have already been identified linking air pollution with asthma development. Among these are impaired lung growth and development, immunological changes, genetic or epigenetic effects or increased predisposition for allergic sensitisation. What the exact interactions are and which asthmatic phenotypes will be influenced most by pollutants will be shown by future studies. This knowledge will then be helpful in exploring possible preventive measures for the individual and to help policy makers in deciding upon most appropriate regulations on a population level.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The functioning and services of Central European forests are threatened by global change and a loss of biodiversity. Nutrient cycling as a key forest function is affected by biotic drivers (e.g., dominant tree species, understory plants, soil organisms) that interact with abiotic conditions (e.g., climate, soil properties). In contrast to grassland ecosystems, evidence for the relationship of nutrient cycles and biodiversity in forests is scarce because the structural complexity of forests limits experimental control of driving factors. Alternatively, observational studies along gradients in abiotic conditions and biotic properties may elucidate the role of biodiversity for forest nutrient cycles. This thesis aims to improve the understanding of the functional importance of biodiversity for nutrient cycles in forests by analyzing water-bound fluxes of nitrogen (N) and phosphorus (P) along gradients in biodiversity in three regions of Germany. The tested hypotheses included: (1) temperate forest canopies retain atmospheric N and retention increases with increasing plant diversity, (2) N release from organic layers increases with resource availability and population size of decomposers but N leaching decreases along a gradient in plant diversity, (3) P leaching from forest canopies increases with improved P supply from recalcitrant P fractions by a more diverse ectomycorrhizal fungal community. In the canopies of 27 forest stands from three regions, 16 % to 51 % of atmospheric N inputs were retained. Regional differences in N retention likely resulted from different in N availability in the soil. Canopy N retention was greater in coniferous than in beech forests, but this was not the case on loessderived soils. Nitrogen retention increased with increasing tree and shrub diversity which suggested complementary aboveground N uptake. The strength of the diversity effect on canopy N uptake differed among regions and between coniferous and deciduous forests. The N processing in the canopy directly coupled back to N leaching from organic layers in beech forests because throughfall-derived N flushed almost completely through the mull-type organic layers at the 12 studied beech sites. The N release from organic layers increased with stand basal area but was rather low (< 10 % of annual aboveground litterfall) because of a potentially high microbial N immobilization and intensive incorporation of litter into the mineral soil by bioturbation. Soil fauna biomass stimulated N mineralization through trophic interactions with primary producers and soil microorganisms. Both gross and net leaching from organic layers decreased with increasing plant diversity. Especially the diversity but not the cover of herbs increased N uptake. In contrast to N, P was leached from the canopy. Throughfall-derived P was also flushed quickly through the mull-type organic layers and leached P was predominantly immobilized in non directly plant-available P fractions in the mineral soil. Concentrations of plant-available phosphate in mineral soil solution were low and P leaching from the canopy increased with increasing concentrations of the moderately labile P fraction in soil and increasing ectomycorrhiza diversity while leaf C:P ratios decreased. This suggested that tree P supply benefited from complementary mining of diverse mycorrhizal communities for recalcitrant P. Canopy P leaching increased in years with pronounced spring drought which could lead to a deterioration of P supply by an increasing frequency of drought events. This thesis showed that N and P cycling in Central European forests is controlled by a complex interplay of abiotic site conditions with biological processes mediated by various groups of organisms, and that diverse plant communities contribute to tightening the N cycle in Central European forests and that diverse mycorrhizal communities improve the limited P availability. Maintaining forest biodiversity seems essential to ensure forest services in the light of environmental change.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die zunehmende Luftverschmutzung aufgrund des steigenden Energiebedarfs und Mobilitätsanspruchs der Bevölkerung, insbesondere in urbanen Gebieten, erhöht das Gefährdungspotential für die Gesundheit und verschlechtert so die Lebensqualität. Neben der Vermeidung von Emissionen toxischer Gase als mittel- und langfristig optimale Maßnahme zur Verbesserung der Luftqualität, stellt der Abbau emittierter Luftschadstoffe ein geeignetes und kurzfristig wirksames Mittel dar. Ein solcher Abbau kann durch Photokatalyse erzielt werden, allerdings nutzen Photokatalysatoren, die auf dem Halbleiter Titandioxid (TiO2) basieren, das solare Emissionsspektrum nur geringfüfig aus und sind in Innenräumen und anderen UV-schwachen Bereichen nicht wirksam. Um diese Nachteile zu überwinden, wurde ein Photokatalysator entwickelt und hergestellt, der aus TiO2 (P25) als UV-aktiver Photokatalysator und als Trägermaterial sowie einem seinerseits im Vis-Bereich photoaktiven Porphyrazin-Farbstoff als Beschichtung besteht. Die sterisch anspruchsvollen und in der Peripherie mit acht Bindungsmotiven für TiO2 versehenen Farbstoffmoleküle wurden zu diesem Zweck auf der Halbleiteroberfläche immobilisiert. Die so gebildeten Porphyrazin-Titandioxid-Hybride wurde ausführlich charakterisiert. Dabei wurden unter anderem die Bindung der Farbstoffe auf der Titandioxidoberfläche mittels Adsorptionsisothermen und die UV/Vis-spektroskopischen Eigenschaften des Hybridmaterials untersucht. Zur Bestimmung der photokatalytischen Aktivitäten der Einzelkomponenten und des Hybridmaterials wurden diese auf die Fähigkeit zur Bildung von Singulett-Sauerstoff, Wasserstoffperoxid und Hydroxylradikalen hin sowie in einem an die ISO-22197-1 angelehnten Verfahren auf die Fähigkeit zum Abbau von NO hin jeweils bei Bestrahlung in drei Wellenlängenbereichen (UV-Strahlung, blaues Licht und rotes Licht) geprüft. Darüber hinaus konnte die Aktivität des Hybridmaterials bei der Photodynamischen Inaktivierung (PDI) von Bakterien unter UV- und Rotlichtbestrahlung im Vergleich zum reinen Ttandioxid bestimmt werden. Die Charakterisierung des Hybridmaterials ergab, dass die Farbstoffmoleküle in einer neutralen Suspension nahezu irreversibel in einer monomolekularen Schicht mit einer Bindungsenergie von -41.43 kJ/mol an die Oberfläche gebunden sind und das Hybridmaterial mit hohen Extinktionskoeffizienten von bis zu 105 M-1cm-1 in großen Bereichen des UV/Vis-Spektrums Photonen absorbiert. Das Spektrum des Hybridmaterials setzt sich dabei additiv aus den beiden Einzelspektren zusammen. Die Auswirkungen der Charakterisierungsergebnisse auf die Bildung reaktiver Sauerstoffspezies wurden ausführlich diskutiert. Der Vergleich der Aktivitäten in Bezug auf die Bildung der reaktiven Sauerstoffspezies zeigte, dass die Aktivität des Hybridmaterials bis auf die bei der Bildung von Hydroxylradikalen unter UV-Bestrahlung in allen Versuchen deutlich höher war als die Aktivität des reinen Titandioxids. Im Gegensatz zu reinem Titandioxid erzeugte das Hybridmaterial in allen untersuchten Wellenlängenbereichen Mengen an Singulett-Sauerstoff, die photophysikalisch eindeutig detektierbar waren. Zur Erklärung und Deutung dieser Beobachtungen wurde eine differenzierte Diskussion geführt, die die Ergebnisse der Hybridpartikelcharakterisierung aufgreift und implementiert. Der Vergleich der NO-Abbaueffizienzen ergab bei allen Experimenten durchgängig deutlich höhere Werte für das Hybridmaterial. Zudem wurden durch das Hybridmaterial nachgewiesenermaßen wesentlich geringere Mengen des unerwünschten Nebenprodukts des Abbaus (NO2) gebildet. Im Zuge der Diskussion wurden verschiedene mögliche Mechanismen der „sauberen“ Oxidation zu Nitrat durch das Hybridmaterial vorgestellt. Untersuchungen zur Photodynamischen Inaktivierung verschiedener Bakterien ergaben, dass das Hybridmaterial neben einer zu P25 ähnlichen Aktivität unter UV-Bestrahlung, anders als P25, auch eine PDI verschiedener Bakterien unter Rotlichtbestrahlung erreicht.