580 resultados para Dynamisches Verhalten
Resumo:
Die zunehmende Vernetzung der Informations- und Kommunikationssysteme führt zu einer weiteren Erhöhung der Komplexität und damit auch zu einer weiteren Zunahme von Sicherheitslücken. Klassische Schutzmechanismen wie Firewall-Systeme und Anti-Malware-Lösungen bieten schon lange keinen Schutz mehr vor Eindringversuchen in IT-Infrastrukturen. Als ein sehr wirkungsvolles Instrument zum Schutz gegenüber Cyber-Attacken haben sich hierbei die Intrusion Detection Systeme (IDS) etabliert. Solche Systeme sammeln und analysieren Informationen von Netzwerkkomponenten und Rechnern, um ungewöhnliches Verhalten und Sicherheitsverletzungen automatisiert festzustellen. Während signatur-basierte Ansätze nur bereits bekannte Angriffsmuster detektieren können, sind anomalie-basierte IDS auch in der Lage, neue bisher unbekannte Angriffe (Zero-Day-Attacks) frühzeitig zu erkennen. Das Kernproblem von Intrusion Detection Systeme besteht jedoch in der optimalen Verarbeitung der gewaltigen Netzdaten und der Entwicklung eines in Echtzeit arbeitenden adaptiven Erkennungsmodells. Um diese Herausforderungen lösen zu können, stellt diese Dissertation ein Framework bereit, das aus zwei Hauptteilen besteht. Der erste Teil, OptiFilter genannt, verwendet ein dynamisches "Queuing Concept", um die zahlreich anfallenden Netzdaten weiter zu verarbeiten, baut fortlaufend Netzverbindungen auf, und exportiert strukturierte Input-Daten für das IDS. Den zweiten Teil stellt ein adaptiver Klassifikator dar, der ein Klassifikator-Modell basierend auf "Enhanced Growing Hierarchical Self Organizing Map" (EGHSOM), ein Modell für Netzwerk Normalzustand (NNB) und ein "Update Model" umfasst. In dem OptiFilter werden Tcpdump und SNMP traps benutzt, um die Netzwerkpakete und Hostereignisse fortlaufend zu aggregieren. Diese aggregierten Netzwerkpackete und Hostereignisse werden weiter analysiert und in Verbindungsvektoren umgewandelt. Zur Verbesserung der Erkennungsrate des adaptiven Klassifikators wird das künstliche neuronale Netz GHSOM intensiv untersucht und wesentlich weiterentwickelt. In dieser Dissertation werden unterschiedliche Ansätze vorgeschlagen und diskutiert. So wird eine classification-confidence margin threshold definiert, um die unbekannten bösartigen Verbindungen aufzudecken, die Stabilität der Wachstumstopologie durch neuartige Ansätze für die Initialisierung der Gewichtvektoren und durch die Stärkung der Winner Neuronen erhöht, und ein selbst-adaptives Verfahren eingeführt, um das Modell ständig aktualisieren zu können. Darüber hinaus besteht die Hauptaufgabe des NNB-Modells in der weiteren Untersuchung der erkannten unbekannten Verbindungen von der EGHSOM und der Überprüfung, ob sie normal sind. Jedoch, ändern sich die Netzverkehrsdaten wegen des Concept drif Phänomens ständig, was in Echtzeit zur Erzeugung nicht stationärer Netzdaten führt. Dieses Phänomen wird von dem Update-Modell besser kontrolliert. Das EGHSOM-Modell kann die neuen Anomalien effektiv erkennen und das NNB-Model passt die Änderungen in Netzdaten optimal an. Bei den experimentellen Untersuchungen hat das Framework erfolgversprechende Ergebnisse gezeigt. Im ersten Experiment wurde das Framework in Offline-Betriebsmodus evaluiert. Der OptiFilter wurde mit offline-, synthetischen- und realistischen Daten ausgewertet. Der adaptive Klassifikator wurde mit dem 10-Fold Cross Validation Verfahren evaluiert, um dessen Genauigkeit abzuschätzen. Im zweiten Experiment wurde das Framework auf einer 1 bis 10 GB Netzwerkstrecke installiert und im Online-Betriebsmodus in Echtzeit ausgewertet. Der OptiFilter hat erfolgreich die gewaltige Menge von Netzdaten in die strukturierten Verbindungsvektoren umgewandelt und der adaptive Klassifikator hat sie präzise klassifiziert. Die Vergleichsstudie zwischen dem entwickelten Framework und anderen bekannten IDS-Ansätzen zeigt, dass der vorgeschlagene IDSFramework alle anderen Ansätze übertrifft. Dies lässt sich auf folgende Kernpunkte zurückführen: Bearbeitung der gesammelten Netzdaten, Erreichung der besten Performanz (wie die Gesamtgenauigkeit), Detektieren unbekannter Verbindungen und Entwicklung des in Echtzeit arbeitenden Erkennungsmodells von Eindringversuchen.
Resumo:
Die zunehmende Vernetzung der Energie-, Stoff- und Informationsströme, z. B. innerhalb von Produktionsanlagen, begründet das Interesse an Methoden, welche eine Analyse der Systemeigenschaften von großen und verkoppelten dynamischen Systemen bereits in einem frühen Entwicklungsstadium ermöglichen. Dabei ist das Gesamtsystemverhalten von Interesse, welches sowohl auf der Dynamik der Teilsysteme als auch der Verkopplungen beruht. In der vorliegenden Arbeit wird eine neue Methode zur qualitativen Analyse von Systemen auf Inverse-Response-Verhalten vorgestellt. Der Ansatz nutzt Komplexe Netzwerke zur Modellbeschreibung, wobei diese um Kantengewichte ergänzt werden, welche das dynamische Verhalten des modellierten Systems beschreiben. Der vorgestellte Detektionsalgorithmus vergleicht die Pfade des Graphen zwischen den betrachteten Ein- und Ausgängen. Hierfür werden die aggregierten Kantengewichte der Pfade bestimmt und zur Ermittlung der qualitativen Aussage zum Inverse-Response-Verhalten herangezogen. Der Analyseansatz bietet somit eine einfach anwendbare Alternative zur Auswertung der positiven Nullstellen des Systems, welche auf die notwendige sowie hinreichende Bedingung für das Inverse-Response-Verhalten eines linearen Systems zurückgreift: eine ungerade Anzahl positiver Nullstellen. Das entwickelte Verfahren wurde erfolgreich an einer flexibel konfigurierbaren Prozessinsel der Modellfabrik μPlant des Fachgebiets Mess- und Regelungstechnik der Universität Kassel getestet.
Resumo:
Monte Carlo-Simulationen zum kritischen Verhalten dünnerIsing-Filme Dünne Ising-Filme können als vereinfachtes Modell zurBeschreibung von binären Mischungen oder von Flüssigkeitenin schlitzartigen Kapillaren dienen. Infolge dereingeschränkten Geometrie unterscheidet sich das kritischeVerhalten dieser Systeme signifikant von dem einesBulk-Systems, es kommt zu einem Crossover von zwei- zudreidimensionalem kritischen Verhalten. Zusätzlichverschiebt sich der Phasenübergang in den ungesättigtenBereich, ein Effekt, der als 'capillary condensation'bezeichnet wird. In der vorliegenden Arbeit wurden die kritischenEigenschaften von Ising-Filmen im Rahmen einer MonteCarlo-Simulation untersucht. Zur Verbesserung der Effizienzwurde ein Cluster-Algorithmus verwendet, der um einenGhost-Spin-Term zur Behandlung der Magnetfelder erweitertwar. Bei der Datenanalyse kamen moderneMulti-Histogramm-Techniken zur Anwendung. Für alle untersuchten Schichtdicken konnten kritischeTemperatur und Magnetfeld sehr präzise bestimmt werden. DieSkalenhypothese von Fisher und Nakanishi, die dieVerschiebung des kritischen Punktes gegenüber seinesBulk-Wertes beschreibt, wurde sowohl für Systeme mit freienOberflächen als auch für Systeme mit schwachemOberflächenfeld bestätigt. Der Wert des Gap-Exponenten derOberfläche wurde mit $Delta_1$=0.459(13) in Übereinstimmungmit den Literaturwerten abgeschätzt. Die Observablen Magnetisierung und magnetischeSuszeptibilität sowie deren auf die Oberfläche bezogenenEntsprechungen zeigen kein reines zweidimensionaleskritisches Verhalten. Zu ihrer Beschreibung in der Nähe deskritischen Punktes wurden effektive Exponenten für dieeinzelnen Schichtdicken bestimmt.
Resumo:
Der Elektroosmotische Fluß (EOF) ist der Motor der Kapillarelektrochromatographie. Er ist abhängig von der Oberflächenladung, von dem Teilchendurchmesser der verwendeten Packungsmaterialien, von der Pufferkonzentration, von dem pH - Wert und von dem Anteil des organischen Lösemittels im Fließmittel. In dieser Arbeit wurde der Einfluß dieser Parameter untersucht. Das Zetapotential als Maß für die Ladungsdichte an der Oberfläche eignet sich zur Charakterisierung der Packungsmaterialien und der damit gepackten Kapillaren. Es wurden in dieser Arbeit _-Potentiale mehrerer chemisch modifizierter Kieselgele mit nativen Kieselgelen verglichen. Die pH-Abhängigkeit der _-Potentiale spiegelt sich im EOF wider.Chemisch modifizierte Kieselgele mit gemischtfunktionellen Gruppen oder Ionenaustauschergruppen zeigen ein großes Zeta Potential ohne pH-Abhängigkeit. Wie experimentell gezeigt wurde, sind Kapillaren, die mit diesen Materialien gepackt wurden, nicht reproduzierbar in Bezug auf den EOF und die Effizienz der Trennung. Deswegen wurden in dieser Arbeit Additive zu dem Fließmittelgemisch gegeben, die die Ladung des Puffers erhöhen und damit den EOF beschleunigen sollen. Durch dynamisches Benetzen der Oberfläche, durch Micellenbildung und durch Addukte mit den Analyten können diese Additive die Selektivität der Trenung beeinflussen, wie am Beispiel mehrerer Testgemische gezeigt wurde, die Geschwindigkeit des EOF bleibt davon unberührt. Kapillaren, die mit porösen und unporösen Kieselgelen gepackt wurden, verhalten sich in der CEC gleich: bei niedrigen pH-Werten und niedrigen Pufferkonzentrationen werden die kleinsten Bodenhöhen und die größten EOF Geschwindigkeiten gemessen. Das Minimum der H vs u Kurven liegt für CEC Kapillaren mit porösen 3 µm - Materialien (Hypersil ODS) bei dem Zwei- bis Dreifachen (H ª 2 - 3 dp), mit unporösen 3 µm - Materialien (MICRA NPS ODS) bei dem Doppelten (H ª 2 dp) und mit unporösen 1,5 µm - Materialien (MICRA NPS ODS) bei dem Eineinhalbfachen (H ª 1,5 µm) des mittleren Teilchendurchmessers, d.h es ergibt sich für kleinere Teilchendurchmesser eine höhere Effizienz. Kapillaren mit unporösen Teilchen haben ein geringeres Totvolumen als mit porösen Teilchen gefüllte, deshalb scheint der EOF besonders schnell zu sein. Trennungen auf Kapillaren, die mit unporösen Teilchen gefüllt sind, erweisen sich als besonders schnell, da der geringe Kohlenstoffgehalt eine schnelle Einstellung des Verteilungsgleichgewichts bewirkt. Fließmittel mit einem hohen Anteil an polaren organischen Lösemitteln (Acetonitril bzw. Methanol) machen diesen Vorteil zunichte, die Analyten werden nicht getrennt.Aus mehreren kommerziell erwerbbaren Komponenten wurde ein Instrument aufgebaut, das sich als Kapillar Elektrophorese, als Kapillar Elektrochromatographie, als µ-HPLC und als spannungsunterstützte µ-HPLC verwenden läßt. Dieses Gerät eignet sich besonders zur Kombination der CEC mit der µ-HPLC, die man vielleicht spannungsunterstützte µ-HPLC nennen darf. Mit diesem Gerät konnte der Einfluß des elektrischen Feldes auf den EOF gemessen werden, da mit wesentlich kürzeren gepackten Kapillaren gearbeitet werden kann. Der EOF, wie er aus der CEC bekannt ist, kann in der spannungsunterstützten µ-HPLC neben dem hydrodynamischen Fluß nachgewiesen werden. Beide Effekte arbeiten neben einander, damit lassen sich hydrodynamisch betriebene Anlagen mit elektrokinetisch betriebenen koppeln. Das scheint auf den ersten Blick ein Schritt zurück zu sein, bietet jedoch ungeahnte Möglichkeiten für die Zukunft, da die geringen Flüsse, die man zum Betreiben dieser Anlagen braucht, mit modernen Spritzenpumpen leicht handhabbar sind. Die Vorteile dieses Systems zeigen sich in dem geringen Fließmittelverbrauch, dem geringen Probenmengenbedarf, der hohen Selektivität und dem universellen Einsatz.
Resumo:
Die vorliegende Dissertation analysiert die Middleware- Technologien CORBA (Common Object Request Broker Architecture), COM/DCOM (Component Object Model/Distributed Component Object Model), J2EE (Java-2-Enterprise Edition) und Web Services (inklusive .NET) auf ihre Eignung bzgl. eng und lose gekoppelten verteilten Anwendungen. Zusätzlich werden primär für CORBA die dynamischen CORBA-Komponenten DII (Dynamic Invocation Interface), IFR (Interface Repository) und die generischen Datentypen Any und DynAny (dynamisches Any) im Detail untersucht. Ziel ist es, a. konkrete Aussagen über diese Komponenten zu erzielen, und festzustellen, in welchem Umfeld diese generischen Ansätze ihre Berechtigung finden. b. das zeitliche Verhalten der dynamischen Komponenten bzgl. der Informationsgewinnung über die unbekannten Objekte zu analysieren. c. das zeitliche Verhalten der dynamischen Komponenten bzgl. ihrer Kommunikation zu messen. d. das zeitliche Verhalten bzgl. der Erzeugung von generischen Datentypen und das Einstellen von Daten zu messen und zu analysieren. e. das zeitliche Verhalten bzgl. des Erstellens von unbekannten, d. h. nicht in IDL beschriebenen Datentypen zur Laufzeit zu messen und zu analysieren. f. die Vorzüge/Nachteile der dynamischen Komponenten aufzuzeigen, ihre Einsatzgebiete zu definieren und mit anderen Technologien wie COM/DCOM, J2EE und den Web Services bzgl. ihrer Möglichkeiten zu vergleichen. g. Aussagen bzgl. enger und loser Koppelung zu tätigen. CORBA wird als standardisierte und vollständige Verteilungsplattform ausgewählt, um die o. a. Problemstellungen zu untersuchen. Bzgl. seines dynamischen Verhaltens, das zum Zeitpunkt dieser Ausarbeitung noch nicht oder nur unzureichend untersucht wurde, sind CORBA und die Web Services richtungsweisend bzgl. a. Arbeiten mit unbekannten Objekten. Dies kann durchaus Implikationen bzgl. der Entwicklung intelligenter Softwareagenten haben. b. der Integration von Legacy-Applikationen. c. der Möglichkeiten im Zusammenhang mit B2B (Business-to-Business). Diese Problemstellungen beinhalten auch allgemeine Fragen zum Marshalling/Unmarshalling von Daten und welche Aufwände hierfür notwendig sind, ebenso wie allgemeine Aussagen bzgl. der Echtzeitfähigkeit von CORBA-basierten, verteilten Anwendungen. Die Ergebnisse werden anschließend auf andere Technologien wie COM/DCOM, J2EE und den Web Services, soweit es zulässig ist, übertragen. Die Vergleiche CORBA mit DCOM, CORBA mit J2EE und CORBA mit Web Services zeigen im Detail die Eignung dieser Technologien bzgl. loser und enger Koppelung. Desweiteren werden aus den erzielten Resultaten allgemeine Konzepte bzgl. der Architektur und der Optimierung der Kommunikation abgeleitet. Diese Empfehlungen gelten uneingeschränkt für alle untersuchten Technologien im Zusammenhang mit verteilter Verarbeitung.
Resumo:
Diese Arbeit beschäftigt sich mit den Unterschieden zwischen linearen und verzweigten Oligomeren/Polymeren mit praktisch gleichem chemischem Bau. Untersucht wurden eine Reihe von ungeladenen Polymeren in Hinsicht auf deren Wechselwirkungsparameter mit Lö-sungsmitteln sowie peripher geladene Dendrimere im Hinblick auf deren Staudingerindices in Wasser. Bei den ungeladenen Oligomeren/Polymeren handelt es sich um Oligoisoprene, Polygly-cerine und Oligo-Dimetylsiloxane. Vor den thermodynamischen Messungen war es notwen-dig, die verzweigten Produkte durch diskontinuierliche Spinn-Fraktionierung von linearen Bestandteilen zu befreien. In diesem Zusammenhang wurden die Phasendiagramme der Aus-gangsproben und der fraktionierten Proben bestimmt und mit denen der entsprechenden linea-ren Polymeren verglichen. Die Ergebnisse zeigen deutliche Einflüsse der Molekularchitektur, wobei Mischungen aus linearen und verzweigten Polymeren plus niedermolekularen Flüssig-keiten infolge der Unverträglichkeit der hochmolekularen Komponenten ungewöhnliches Verhalten zeigen. Die Flory-Huggins Wechselwirkungsparameter von linearen und verzweigten Polyme-ren wurden mit Hilfe von Dampfdruckmessungen (Headspace-Gaschromatographie) und dampfdruckosmometrischen Messungen bei unterschiedlichen Temperaturen bestimmt. Es zeigt sich, daß die -Werte in komplexer Weise von der Konzentration abhängen und mit einem Ansatz nach Wolf (Gleichung 26 und 31) quantitativ modellierbar sind. Allgemein gilt die folgende Ungleichung: bra > lin. Die Untersuchungen bezüglich der Staudingerindeces von Polyelektrolyten wurden an vier Generationen von peripher geladenen Dendrimeren durchgeführt. Die Ergebnisse zeigen, dass die [ ] Werte mit zunehmender Generation deutlich sinken. Bei der 1. Generation ver-hält sich das Dendrimer noch sehr ähnlich wie lineare Polyelektrolyte. Mit steigender Zahl der Generationen nimmt der Staudingerindex trotz zunehmendem Molekulargewicht deutlich ab, da der Polyelektrolyteffekt (Aufweitung der Knäuel durch elektrostatische Wechselwirkung) an Bedeutung verliert. Der Grund dafür liegt in einer Zunahme des Abstands der Ladungen zur Hauptkette und der Tatsache, dass der Zahl der Ladungen pro Molekül bei konstantem n entsprechend einer quadratischen Reihe zu (2, 4, 8, 16) zunimmt. Wie aus Messungen an der ETH Zürich bekannt ist, verhalten sich ungeladene Dendrimere in organischen Lösungsmit-teln wie die Lösungen von linearem Polystyrol.
Resumo:
Bisher ist bei forensischen Untersuchungen von Explosionen die Rückverfolgung der verwendeten Sprengstoffe begrenzt, da das Material in aller Regel bei der Explosion zerstört wird. Die Rückverfolgung von Sprengstoffen soll mit Hilfe von Identifikations-Markierungssubstanzen erleichtert werden. Diese stellen einen einzigartigen Code dar, der auch nach einer Sprengung wiedergefunden und identifiziert werden kann. Die dem Code zugeordneten, eindeutigen Informationen können somit ausgelesen werden und liefern der Polizei bei der Aufklärung weitere Ansätze.rnZiel der vorliegenden Arbeit ist es, das Verhalten von ausgewählten Seltenerdelementen (SEE) bei Explosion zu untersuchen. Ein auf Lanthanoidphosphaten basierender Identifikations-Markierungsstoff bietet die Möglichkeit, verschiedene Lanthanoide innerhalb eines einzelnen Partikels zu kombinieren, wodurch eine Vielzahl von Codes generiert werden kann. Somit kann eine Veränderung der Ausgangszusammensetzung des Codes auch nach einer Explosion durch die Analyse eines einzelnen Partikels sehr gut nachvollzogen und somit die Eignung des Markierungsstoffes untersucht werden. Eine weitere Zielsetzung ist die Überprüfung der Anwendbarkeit der Massenspektrometrie mit induktiv gekoppeltem Plasma (ICP-MS) und Partikelanalyse mittels Rasterelektronenmikroskopie (REM) für die Analyse der versprengten Identifikations-Markierungssubstanzen. rnDie Ergebnisbetrachtungen der ICP-MS-Analyse und REM-Partikelanalyse deuten zusammenfassend auf eine Fraktionierung der untersuchten Lanthanoide oder deren Umsetzungsprodukte nach Explosion in Abhängigkeit ihrer thermischen Belastbarkeit. Die Befunde zeigen eine Anreicherung der Lanthanoide mit höherer Temperaturbeständigkeit in größeren Partikeln, was eine Anreicherung von Lanthanoiden mit niedrigerer Temperaturbeständigkeit in kleineren Partikeln impliziert. Dies lässt sich in Ansätzen durch einen Fraktionierungsprozess in Abhängigkeit der Temperaturstabilität der Lanthanoide oder deren Umsetzungsprodukten erklären. Die der Fraktionierung zugrunde liegenden Mechanismen und deren gegenseitige Beeinflussung bei einer Explosion konnten im Rahmen dieser Arbeit nicht abschließend geklärt werden.rnDie generelle Anwendbarkeit und unter Umständen notwendige, komplementäre Verwendung der zwei Methoden ICP-MS und REM-Partikelanalyse wird in dieser Arbeit gezeigt. Die ICP-MS stellt mit großer untersuchter Probenfläche und hoher Genauigkeit eine gute Methode zur Charakterisierung der Konzentrationsverhältnisse der untersuchten Lanthanoide dar. Die REM-Partikelanalyse hingegen ermöglicht im Falle von Kontamination der Proben mit anderen Lanthanoid-haltigen Partikeln eine eindeutige Differenzierung der Elementvergesellschaftung pro Partikel. Sie kann somit im Gegensatz zur ICP-MS Aufschluss über die Art und Zusammensetzung der Kontamination geben. rnInnerhalb der vorgenommenen Untersuchungen stellte die bei der ICP-MS angewandte Probennahmetechnik eine ideale Art der Probennahme dar. Bei anderen Oberflächen könnte diese jedoch in Folge der in verschiedenen Partikelgrößen resultierenden Fraktionierung zu systematisch verfälschten Ergebnissen führen. Um die generelle Anwendbarkeit der ICP-MS im Hinblick auf die Analyse versprengter Lanthanoide zu gewährleisten, sollte eine Durchführung weiterer Sprengungen auf unterschiedlichen Probenoberflächen erfolgen und gegebenenfalls weitere Probennahme-, Aufschluss- und Anreicherungsverfahren evaluiert werden.rn
Resumo:
This dissertation consists of three self-contained papers that are related to two main topics. In particular, the first and third studies focus on labor market modeling, whereas the second essay presents a dynamic international trade setup.rnrnIn Chapter "Expenses on Labor Market Reforms during Transitional Dynamics", we investigate the arising costs of a potential labor market reform from a government point of view. To analyze various effects of unemployment benefits system changes, this chapter develops a dynamic model with heterogeneous employed and unemployed workers.rn rnIn Chapter "Endogenous Markup Distributions", we study how markup distributions adjust when a closed economy opens up. In order to perform this analysis, we first present a closed-economy general-equilibrium industry dynamics model, where firms enter and exit markets, and then extend our analysis to the open-economy case.rn rnIn Chapter "Unemployment in the OECD - Pure Chance or Institutions?", we examine effects of aggregate shocks on the distribution of the unemployment rates in OECD member countries.rn rnIn all three chapters we model systems that behave randomly and operate on stochastic processes. We therefore exploit stochastic calculus that establishes clear methodological links between the chapters.
Resumo:
Im Baugewerbe fallen jährlich mehrere Millionen Tonnen an Baureststoffen an, die nach erfolgter Aufbereitung als Recycling-Baustoffe erneut verwendet werden können. Allerdings besteht Unklarheit hinsichtlich der Stofffreisetzung aus Recycling-Materialien sowie der Parameter, die zur Beurteilung im Wesentlichen heranzuziehen sind. Des Weiteren gilt es der Frage nachzugehen, welche Laborversuche eine realistische Prognose zum Stoffaustrag unter Freilandbedingungen ermöglichen. Ein Ergebnisvergleich aus Feld- und Laborversuchen mit Recycling-Materialien zeigt, dass weder Ammoniumnitrat-Extraktion, pH-stat Versuch noch S4- und Modifizierter S4-Test genauere Prognosen zum Stoffaustrag unter Freilandbedingungen ermöglichen. Mit einem Langzeit-Standtest sowie Schüttelversuchen mit unterschiedlichen Wasser/Feststoff-Verhältnissen lässt sich der Einfluss durch verschiedene Korngrößen sowie Materialabrieb besser kontrollieren. Diese Versuchskombination erlaubt Rückschlüsse auf die Löslichkeit und Verfügbarkeit von Stoffen in den Recycling-Materialien. Die Ergebnisse aus Säulenversuchen weisen auf eine gute Vergleichbarkeit mit den Feldversuchen hin, was sich an denselben vorherrschenden Prozessen bei der Freisetzung für eine Reihe von Stoffen zeigt. Bei mehreren Stoffen treten ähnliche Konzen-trationshöchstwerte bei Säulen- und Feldversuch auf, ebenso zeigt der Vergleich aufsummierter Massenanteile für den Säulenversuch, dass bei einer Reihe von Stoffen eine grobe Abschätzbarkeit für eine Langzeitprognose unter Freilandbedingungen existiert. Als wesentliche Parameter für die Stofffreisetzung aus den Recycling-Materialien sind neben CO2-Einfluss und pH-Wert ebenfalls Temperatureinfluss, Material-Heterogenität sowie einzusetzende Korngröße anzusehen.