697 resultados para Adaptives Verfahren
Resumo:
Die meisten Bevölkerungsumfragen in der Schweiz beruhen auf Stichproben, die aus dem Telefonregister gezogen werden. Da solche Stichproben bezüglich der Abdeckung der Grundgesamtheit als problematisch anzusehen sind, diskutiere ich hier ein alternatives, von Fritschi et al. (1976) entwickeltes Stichprobenverfahren, bei dem in einem ersten Schritt Gemeinden ausgewählt und dann die Adressen der Zielpersonen über die Einwohnerregister bestimmt werden. Das Verfahren ist dabei so angelegt, dass die Stichprobe ähnlich wie bei einer einfachen Klumpenstichprobe auf eine relativ geringe Anzahl Gemeinden verdichtet wird, die Stichprobe aber trotzdem eine möglichst hohe statistische Effizienz beibehält. Eine Analyse der theoretischen Eigenschaften des Berner Stichprobenplans zeigt, dass das ursprüngliche Verfahren zu leicht verzerrten Stichproben führt. Eine korrigierende Modifikation des Verfahrens wird vorgeschlagen. Zudem wird ein alternativer Ansatz mit verbesserten Eigenschaften, die ex ante geteilte Stichprobe, vorgestellt. Mit Hilfe einer Simulationsstudie werden sodann die Vorzüge des Berner Stichprobenplans gegenüber einer einfachen Klumpenstichprobe illustriert.
Resumo:
Der vorliegende Tagungsband enthält die an der sechsten Schweizer Tagung für Zivilprozessrecht in Bern gehaltenen Vorträge in vollständiger und überarbeiteter Form. Die vom CIVPRO Bern in Zusammenarbeit mit der schweizerischen SchKG-Vereinigung organisierte Tagung befasst sich dieses Jahr mit dem Schlichtungsverfahren nach ZPO. Entsprechend enthält der Tagungsband die Beiträge renommierter Referenten aus Akademie und Praxis. Diese setzen sich vertieft mit prozessualen Besonderheiten und offenen Fragen rund um das Schlichtungsverfahren auseinander (Claude Schrank). Einen Schwerpunkt der Beiträge bildet die Ausgestaltung des 2011 eingeführten obligatorischen Schlichtungsverfahrens in ausgewählten Kantonen, namentlich in Bern und Zürich (Marlis Koller-Tumler, Doris Müller). Ferner beleuchten einzelne Beiträge die Besonderheiten des Schlichtungsverfahrens im arbeits- und mietrechtlichen Kontext sowie bei den sogenannten „small claims“-Verfahren (Isaak Meier/MLaw Riccarda Schindler, Andrea Zoog).
Resumo:
Die im Rahmen des zweijährigen Forschungsprojekts über paläomagnetisch-sedimentologische Analysen sedimentärer Zyklen in der Weddell See und ihre stratigraphische Interpretation durchgeführten Arbeiten lieferten Ergebnisse zur Geschichte glaziomariner Sedimentationsprozesse am antarktischen Kontinentalrand. So konnte für ein Kernprofil mit einer außergewöhnlichen Terassenstruktur eine fazielle Gliederung und stratigraphische Einordnung erreicht werden, die auch auf größere Areale in der Weddell See anwendbar sind. Aufgrund der stratigraphischen Randbedingungen konnten die gewonnenen paläo- und gesteinsmagnetischen Messungen in eine Altersstruktur integriert und zusammen mit den sedimentologischen Parametern im Hinblick auf lokale und regionale Umweltveränderungen interpretiert werden. Insbesondere die gesteinsmagnetischen Analysen haben gezeigt, daß die magnetische Kornfraktion als accessorischer Bestandteil im Gesamtsediment dennoch an die Sortierungsprozesse des terrigenen Sedimenteintrags gekoppelt ist. Die ungewöhnlich deutlichen Variationen korngrößenabhängiger Parameter zeigten weiterhin, daß in Verbindung mit einer hochauflösenden Stratigraphie die magnetische Detailanalyse und ein besseres Verständnis der Sedimentationsprozesse in der Nähe der Schelfeiskante und speziell bei Meeresspiegeltiefständen die Möglichkeit eröffnen, unmittelbar Aussagen über die Bewegungen der Schelfeise und die Qualität der Meereisbedeckungen zu machen. Die gezielte Fortsetzung dieser Arbeiten in anderen Arealen am antarktischen Kontinentalrand ist daher wünschenswert. Die verwendeten Verfahren lassen sich mit den derzeit verfügbaren Instrumenten noch erweitern und versprechen durch die sehr sensitive Methodik detaillierte Aussagen zu glaziomarinen Sedimentationsprozessen.
Resumo:
Nachfolgend wird beschrieben, wie aus der Telefon-CD-ROM TwixTel eine Zufallsstichprobe gezogen werden kann. Bei dem Verfahren wird ein Anwender simuliert, der nach einem Zufallsverfahren einzelne Einträge in der Datenbank ansteuert und exportiert. Zusätzlich werden einige Vorschläge diskutiert, die sich mit dem Auffinden von Mehrfacheinträgen beschäftigen.
Resumo:
Schüsse mit aufgesetzter Waffenmündung können biologische Antragungen im Waffenlauf hinterlassen, die durch Endoskopie optisch und durch PCR analytisch detektiert werden können. Im Rahmen des vom SNF geförderten Projektes wurden verschiedene Verfahren der Spurensicherung überprüft. Mit Vlies abgedeckte Farbpads (2 ml Acrylfarbe, 2 ml Humanblut, 1 ml Bariumsulfat) wurden in 12 cm grosse Gelatinewürfel integriert. Diese wurden mit aufgesetzter Waffenmündung mit verschiedenen Pistolen im Kaliber 7.65 mm Browning beschossen und die Waffenläufe endoskopiert. Die Spurensicherung erfolgte getrennt für den vorderen und den hinteren Laufabschnitt und wurde in mehreren Testreihen mit folgenden Mitteln durchgeführt: Wattetupfer (Holzstäbchen, Applimed), Forensic Swab (Sarstedt), COPAN FLOQSwab™, DNA-freie VFG-Filz-Stopfen. Anschliessend erfolgte eine endoskopische Kontrolle. Der DNA-Gehalt wurde mittels qPCR ermittelt. Grundsätzlich waren alle Verfahren für die Spurensicherung geeignet und erzielten eine gute Spurenausbeute. Wesentliche Unterschiede ergaben sich in der Handhabung. Holzstäbchen waren lang genug, jedoch rigide, was bisweilen zu ihrem Abbruch führte, andererseits aber guten Abrieb ergab. Der Forensic Swab war mit seinem flexiblen Kunststoffstiel leichter von hinten im Waffenlauf anzuwenden, was ihn auch für schwer zugängliche Stellen empfiehlt. Am einfachsten war eine gründliche Spurensicherung mit den FLOQs zu erreichen. Durch deren Nylonbürste wurde eine gute Abriebleistung bei flexiblem Stiel erzielt. FLOQs mit verschiedener Länge ermöglichten eine kontrollierte Spurennahme insbesondere im hinteren Teil des Waffenlaufes. FLOQs waren auch im molekular-biologischen Labor leicht zu verarbeiten. Mit den DNA-frei gemachten, kalibrierten VFG-Stopfen liessen sich restliche Spuren in teils erheblicher Konzentration mobilisieren. Allerdings sind Handhabung und Weiterverarbeitung im DNA-Labor wesentlich aufwändiger.
Resumo:
Vols. for 1956-1968 have subtitle: Diagnostik, Physik, Biologie, Therapie.
Resumo:
Ueber das leben und die werke des alten toscanischen bildhauers, Nichola Pisano.--Ueber den altarschmuck in S. Iacopo in Pistoja.--Nachrichten von einigen ältern malern und malereien in Pisa und Lucca.--Cimabue.--Ueber die ältern wandgemälde im Campo santo zu Pisa.--Giotto di Bondone und Symon di Martino.--Ambruogio Lorenzetti.--Niccolo Petri.--Ueber das technische verfahren bei den mauergemälden des vierzehnten jahrhunderts.
Resumo:
Errata: final page of tractatus 4.
Resumo:
El interés del humanista italiano Alessandro Geraldini (1455-1524) por los monumenta antiquitatis (y especialmente por las inscripciones romanas) se pone de manifiesto en su Itinerarium ad regiones sub aequinoctiali plaga constitutas, compuesto al final de su vida. Analizamos aquí la información anticuaria contenida en su obra; señalamos por primera vez las fuentes epigráficas utilizadas como hipotexto en su Itinerarium, identificamos la síloge epigráfica de donde conoció dichos textos y, finalmente, valoramos su participación efectiva en los estudios epigráficos llevados a cabo durante su larga permanencia en España (ante 1475-1519).
Resumo:
In diesem Beitrag wird eine neue Methode zur Analyse des manuellen Kommissionierprozesses vorgestellt, mit der u. a. die Kommissionierzeitanteile automatisch erfasst werden können. Diese Methode basiert auf einer sensorgestützten Bewegungsklassifikation, wie sie bspw. im Sport oder in der Medizin Anwendung findet. Dabei werden mobile Sensoren genutzt, die fortlaufend Messwerte wie z. B. die Beschleunigung oder die Drehgeschwindigkeit des Kommissionierers aufzeichnen. Auf Basis dieser Daten können Informationen über die ausgeführten Bewegungen und insbesondere über die durchlaufenen Bewegungszustände gewonnen werden. Dieser Ansatz wird im vorliegenden Beitrag auf die Kommissionierung übertragen. Dazu werden zunächst Klassen relevanter Bewegungen identifiziert und anschließend mit Verfahren aus dem maschinellen Lernen verarbeitet. Die Klassifikation erfolgt nach dem Prinzip des überwachten Lernens. Dabei werden durchschnittliche Erkennungsraten von bis zu 78,94 Prozent erzielt.
Resumo:
Diese Arbeit beschäftigt sich mit nicht in Rechnung stellbaren Wasserverlusten in städtischen Versorgungsnetzen in Entwicklungsländern. Es soll das Wissen über diese Verluste erweitert und aufgezeigt werden, ob diese auf ein ökonomisch vertretbares Maß reduziert werden können. Die vorliegende Doktorarbeit untersucht solche unberechneten Wasserverluste und versucht, neben der Quantifizierung von Leckagen auch Entscheidungswerkzeuge für ein verbessertes Management der Versorgungsnetze in Entwicklungsländern zu erarbeiten. Als Fallstudie dient Harare, die Hauptstadt von Simbabwe. Wasserverluste in Verteilungsnetzen sind unvermeidbar, sollten aber auf ein ökonomisch tragbares Niveau reduziert werden, wenn ein nachhaltiger Betrieb erreicht werden soll. Wasserverluste können sowohl durch illegale und ungenehmigte Anschlüsse oder durch Undichtigkeiten im Verteilnetz, als auch durch mangelhafte Mess- und Berechnungssysteme entstehen. Es sind bereits viele Ansätze zur Verringerung von Verlusten in Wasserverteilsystemen bekannt geworden, entsprechend existieren dazu auch zahlreiche Methoden und Werkzeuge. Diese reichen von computergestützten Verfahren über gesetzliche und politische Vorgaben sowie ökonomische Berechnungen bis hin zu Maßnahmen der Modernisierung der Infrastruktur. Der Erfolg dieser Anstrengungen ist abhängig von der Umsetzbarkeit und dem Umfeld, in dem diese Maßnahmen durchgeführt werden. Die Bewertung der Arbeitsgüte einer jeden Wasserversorgungseinheit basiert auf der Effektivität des jeweiligen Verteilungssystems. Leistungs- und Bewertungszahlen sind die meist genutzten Ansätze, um Wasserverteilsysteme und ihre Effizienz einzustufen. Weltweit haben sich zur Bewertung als Indikatoren die finanzielle und die technische Leistungsfähigkeit durchgesetzt. Die eigene Untersuchung zeigt, dass diese Indikatoren in vielen Wasserversorgungssystemen der Entwicklungsländer nicht zur Einführung von Verlust reduzierenden Managementstrategien geführt haben. Viele durchgeführte Studien über die Einführung von Maßnahmen zur Verlustreduzierung beachten nur das gesamte nicht in Rechnung stellbare Wasser, ohne aber den Anteil der Leckagen an der Gesamthöhe zu bestimmen. Damit ist keine Aussage über die tatsächliche Zuordnung der Verluste möglich. Aus diesem Grund ist ein Bewertungsinstrument notwendig, mit dem die Verluste den verschiedenen Ursachen zugeordnet werden können. Ein solches Rechenwerkzeug ist das South African Night Flow Analysis Model (SANFLOW) der südafrikanischen Wasser-Forschungskommission, das Untersuchungen von Wasserdurchfluss und Anlagendruck in einzelnen Verteilbezirken ermöglicht. In der vorliegenden Arbeit konnte nachgewiesen werden, dass das SANFLOW-Modell gut zur Bestimmung des Leckageanteiles verwendet werden kann. Daraus kann gefolgert werden, dass dieses Modell ein geeignetes und gut anpassbares Analysewerkzeug für Entwicklungsländer ist. Solche computergestützte Berechnungsansätze können zur Bestimmung von Leckagen in Wasserverteilungsnetzen eingesetzt werden. Eine weitere Möglichkeit ist der Einsatz von Künstlichen Neuronalen Netzen (Artificial Neural Network – ANN), die trainiert und dann zur Vorhersage der dynamischen Verhältnisse in Wasserversorgungssystemen genutzt werden können. Diese Werte können mit der Wassernachfrage eines definierten Bezirks verglichen werden. Zur Untersuchung wurde ein Mehrschichtiges Künstliches Neuronales Netz mit Fehlerrückführung zur Modellierung des Wasserflusses in einem überwachten Abschnitt eingesetzt. Zur Bestimmung des Wasserbedarfes wurde ein MATLAB Algorithmus entwickelt. Aus der Differenz der aktuellen und des simulierten Wassernachfrage konnte die Leckagerate des Wasserversorgungssystems ermittelt werden. Es konnte gezeigt werden, dass mit dem angelernten Neuronalen Netzwerk eine Vorhersage des Wasserflusses mit einer Genauigkeit von 99% möglich ist. Daraus lässt sich die Eignung von ANNs als flexibler und wirkungsvoller Ansatz zur Leckagedetektion in der Wasserversorgung ableiten. Die Untersuchung zeigte weiterhin, dass im Versorgungsnetz von Harare 36 % des eingespeisten Wassers verloren geht. Davon wiederum sind 33 % auf Leckagen zurückzuführen. Umgerechnet bedeutet dies einen finanziellen Verlust von monatlich 1 Millionen Dollar, was 20 % der Gesamteinnahmen der Stadt entspricht. Der Stadtverwaltung von Harare wird daher empfohlen, aktiv an der Beseitigung der Leckagen zu arbeiten, da diese hohen Verluste den Versorgungsbetrieb negativ beeinflussen. Abschließend wird in der Arbeit ein integriertes Leckage-Managementsystem vorgeschlagen, das den Wasserversorgern eine Entscheidungshilfe bei zu ergreifenden Maßnahmen zur Instandhaltung des Verteilnetzes geben soll.
Resumo:
Das Verfahren der Lebensmitteltrocknung wird häufig angewendet, um ein Produkt für längere Zeit haltbar zu machen. Obst und Gemüse sind aufgrund ihres hohen Wassergehalts leicht verderblich durch biochemische Vorgänge innerhalb des Produktes, nicht sachgemäße Lagerung und unzureichende Transportmöglichkeiten. Um solche Verluste zu vermeiden wird die direkte Trocknung eingesetzt, welche die älteste Methode zum langfristigen haltbarmachen ist. Diese Methode ist jedoch veraltet und kann den heutigen Herausforderungen nicht gerecht werden. In der vorliegenden Arbeit wurde ein neuer Chargentrockner, mit diagonalem Luftstömungskanal entlang der Länge des Trocknungsraumes und ohne Leitbleche entwickelt. Neben dem unbestreitbaren Nutzen der Verwendung von Leitblechen, erhöhen diese jedoch die Konstruktionskosten und führen auch zu einer Erhöhung des Druckverlustes. Dadurch wird im Trocknungsprozess mehr Energie verbraucht. Um eine räumlich gleichmäßige Trocknung ohne Leitbleche zu erreichen, wurden die Lebensmittelbehälter diagonal entlang der Länge des Trockners platziert. Das vorrangige Ziel des diagonalen Kanals war, die einströmende, warme Luft gleichmäßig auf das gesamte Produkt auszurichten. Die Simulation des Luftstroms wurde mit ANSYS-Fluent in der ANSYS Workbench Plattform durchgeführt. Zwei verschiedene Geometrien der Trocknungskammer, diagonal und nicht diagonal, wurden modelliert und die Ergebnisse für eine gleichmäßige Luftverteilung aus dem diagonalen Luftströmungsdesign erhalten. Es wurde eine Reihe von Experimenten durchgeführt, um das Design zu bewerten. Kartoffelscheiben dienten als Trocknungsgut. Die statistischen Ergebnisse zeigen einen guten Korrelationskoeffizienten für die Luftstromverteilung (87,09%) zwischen dem durchschnittlich vorhergesagten und der durchschnittlichen gemessenen Strömungsgeschwindigkeit. Um den Effekt der gleichmäßigen Luftverteilung auf die Veränderung der Qualität zu bewerten, wurde die Farbe des Produktes, entlang der gesamten Länge der Trocknungskammer kontaktfrei im on-line-Verfahren bestimmt. Zu diesem Zweck wurde eine Imaging-Box, bestehend aus Kamera und Beleuchtung entwickelt. Räumliche Unterschiede dieses Qualitätsparameters wurden als Kriterium gewählt, um die gleichmäßige Trocknungsqualität in der Trocknungskammer zu bewerten. Entscheidend beim Lebensmittel-Chargentrockner ist sein Energieverbrauch. Dafür wurden thermodynamische Analysen des Trockners durchgeführt. Die Energieeffizienz des Systems wurde unter den gewählten Trocknungsbedingungen mit 50,16% kalkuliert. Die durchschnittlich genutzten Energie in Form von Elektrizität zur Herstellung von 1kg getrockneter Kartoffeln wurde mit weniger als 16,24 MJ/kg und weniger als 4,78 MJ/kg Wasser zum verdampfen bei einer sehr hohen Temperatur von jeweils 65°C und Scheibendicken von 5mm kalkuliert. Die Energie- und Exergieanalysen für diagonale Chargentrockner wurden zudem mit denen anderer Chargentrockner verglichen. Die Auswahl von Trocknungstemperatur, Massenflussrate der Trocknungsluft, Trocknerkapazität und Heiztyp sind die wichtigen Parameter zur Bewertung der genutzten Energie von Chargentrocknern. Die Entwicklung des diagonalen Chargentrockners ist eine nützliche und effektive Möglichkeit um dei Trocknungshomogenität zu erhöhen. Das Design erlaubt es, das gesamte Produkt in der Trocknungskammer gleichmäßigen Luftverhältnissen auszusetzen, statt die Luft von einer Horde zur nächsten zu leiten.
Resumo:
Wir betrachten zeitabhängige Konvektions-Diffusions-Reaktions-Gleichungen in zeitabhängi- gen Gebieten, wobei die Bewegung des Gebietsrandes bekannt ist. Die zeitliche Entwicklung des Gebietes wird durch die ALE-Formulierung behandelt, die die Nachteile der klassischen Euler- und Lagrange-Betrachtungsweisen behebt. Die Position des Randes und seine Geschwindigkeit werden dabei so in das Gebietsinnere fortgesetzt, dass starke Gitterdeformationen verhindert werden. Als Zeitdiskretisierungen höherer Ordnung werden stetige Galerkin-Petrov-Verfahren (cGP) und unstetige Galerkin-Verfahren (dG) auf Probleme in zeitabhängigen Gebieten angewendet. Weiterhin werden das C 1 -stetige Galerkin-Petrov-Verfahren und das C 0 -stetige Galerkin- Verfahren vorgestellt. Deren Lösungen lassen sich auch in zeitabhängigen Gebieten durch ein einfaches einheitliches Postprocessing aus der Lösung des cGP-Problems bzw. dG-Problems erhalten. Für Problemstellungen in festen Gebieten und mit zeitlich konstanten Konvektions- und Reaktionstermen werden Stabilitätsresultate sowie optimale Fehlerabschätzungen für die nachbereiteten Lösungen der cGP-Verfahren und der dG-Verfahren angegeben. Für zeitabhängige Konvektions-Diffusions-Reaktions-Gleichungen in zeitabhängigen Gebieten präsentieren wir konservative und nicht-konservative Formulierungen, wobei eine besondere Aufmerksamkeit der Behandlung der Zeitableitung und der Gittergeschwindigkeit gilt. Stabilität und optimale Fehlerschätzungen für die in der Zeit semi-diskretisierten konservativen und nicht-konservativen Formulierungen werden vorgestellt. Abschließend wird das volldiskretisierte Problem betrachtet, wobei eine Finite-Elemente-Methode zur Ortsdiskretisierung der Konvektions-Diffusions-Reaktions-Gleichungen in zeitabhängigen Gebieten im ALE-Rahmen einbezogen wurde. Darüber hinaus wird eine lokale Projektionsstabilisierung (LPS) eingesetzt, um der Konvektionsdominanz Rechnung zu tragen. Weiterhin wird numerisch untersucht, wie sich die Approximation der Gebietsgeschwindigkeit auf die Genauigkeit der Zeitdiskretisierungsverfahren auswirkt.
Resumo:
Die zunehmende Luftverschmutzung aufgrund des steigenden Energiebedarfs und Mobilitätsanspruchs der Bevölkerung, insbesondere in urbanen Gebieten, erhöht das Gefährdungspotential für die Gesundheit und verschlechtert so die Lebensqualität. Neben der Vermeidung von Emissionen toxischer Gase als mittel- und langfristig optimale Maßnahme zur Verbesserung der Luftqualität, stellt der Abbau emittierter Luftschadstoffe ein geeignetes und kurzfristig wirksames Mittel dar. Ein solcher Abbau kann durch Photokatalyse erzielt werden, allerdings nutzen Photokatalysatoren, die auf dem Halbleiter Titandioxid (TiO2) basieren, das solare Emissionsspektrum nur geringfüfig aus und sind in Innenräumen und anderen UV-schwachen Bereichen nicht wirksam. Um diese Nachteile zu überwinden, wurde ein Photokatalysator entwickelt und hergestellt, der aus TiO2 (P25) als UV-aktiver Photokatalysator und als Trägermaterial sowie einem seinerseits im Vis-Bereich photoaktiven Porphyrazin-Farbstoff als Beschichtung besteht. Die sterisch anspruchsvollen und in der Peripherie mit acht Bindungsmotiven für TiO2 versehenen Farbstoffmoleküle wurden zu diesem Zweck auf der Halbleiteroberfläche immobilisiert. Die so gebildeten Porphyrazin-Titandioxid-Hybride wurde ausführlich charakterisiert. Dabei wurden unter anderem die Bindung der Farbstoffe auf der Titandioxidoberfläche mittels Adsorptionsisothermen und die UV/Vis-spektroskopischen Eigenschaften des Hybridmaterials untersucht. Zur Bestimmung der photokatalytischen Aktivitäten der Einzelkomponenten und des Hybridmaterials wurden diese auf die Fähigkeit zur Bildung von Singulett-Sauerstoff, Wasserstoffperoxid und Hydroxylradikalen hin sowie in einem an die ISO-22197-1 angelehnten Verfahren auf die Fähigkeit zum Abbau von NO hin jeweils bei Bestrahlung in drei Wellenlängenbereichen (UV-Strahlung, blaues Licht und rotes Licht) geprüft. Darüber hinaus konnte die Aktivität des Hybridmaterials bei der Photodynamischen Inaktivierung (PDI) von Bakterien unter UV- und Rotlichtbestrahlung im Vergleich zum reinen Ttandioxid bestimmt werden. Die Charakterisierung des Hybridmaterials ergab, dass die Farbstoffmoleküle in einer neutralen Suspension nahezu irreversibel in einer monomolekularen Schicht mit einer Bindungsenergie von -41.43 kJ/mol an die Oberfläche gebunden sind und das Hybridmaterial mit hohen Extinktionskoeffizienten von bis zu 105 M-1cm-1 in großen Bereichen des UV/Vis-Spektrums Photonen absorbiert. Das Spektrum des Hybridmaterials setzt sich dabei additiv aus den beiden Einzelspektren zusammen. Die Auswirkungen der Charakterisierungsergebnisse auf die Bildung reaktiver Sauerstoffspezies wurden ausführlich diskutiert. Der Vergleich der Aktivitäten in Bezug auf die Bildung der reaktiven Sauerstoffspezies zeigte, dass die Aktivität des Hybridmaterials bis auf die bei der Bildung von Hydroxylradikalen unter UV-Bestrahlung in allen Versuchen deutlich höher war als die Aktivität des reinen Titandioxids. Im Gegensatz zu reinem Titandioxid erzeugte das Hybridmaterial in allen untersuchten Wellenlängenbereichen Mengen an Singulett-Sauerstoff, die photophysikalisch eindeutig detektierbar waren. Zur Erklärung und Deutung dieser Beobachtungen wurde eine differenzierte Diskussion geführt, die die Ergebnisse der Hybridpartikelcharakterisierung aufgreift und implementiert. Der Vergleich der NO-Abbaueffizienzen ergab bei allen Experimenten durchgängig deutlich höhere Werte für das Hybridmaterial. Zudem wurden durch das Hybridmaterial nachgewiesenermaßen wesentlich geringere Mengen des unerwünschten Nebenprodukts des Abbaus (NO2) gebildet. Im Zuge der Diskussion wurden verschiedene mögliche Mechanismen der „sauberen“ Oxidation zu Nitrat durch das Hybridmaterial vorgestellt. Untersuchungen zur Photodynamischen Inaktivierung verschiedener Bakterien ergaben, dass das Hybridmaterial neben einer zu P25 ähnlichen Aktivität unter UV-Bestrahlung, anders als P25, auch eine PDI verschiedener Bakterien unter Rotlichtbestrahlung erreicht.
Resumo:
Gegenstand dieser Arbeit ist die Untersuchung der Eignung eines neuen Verfahrens zur Charakterisierung von hochkonzentrierten Dispersionen für die lückenlose Überwachung der Dispergiergüte direkt im Compoundierungsprozess. Dafür werden mit einer Ultraschallsonde in Reflexionsanordnung Schallwellen in eine Dispersion eingekoppelt und die durch die Partikel erzeugten Rückstreusignale nach einem statistischen Verfahren verarbeitet. Zunächst wird ein Überblick über die Prozessbedingungen beim Compoundieren gegeben und die Theorie hinter dem Messverfahren vorgestellt. Danach wird der physikalische Aufbau des genutzten Messsystems sowie die Verarbeitung der Messdaten durch die in LabView erstellte Messsoftware beschrieben. Anschließend werden Experimente durchgeführt um die Auswirkung von Messparametern wie z.B.die Anzahl der Einzelmessungen, die Art des Anregungssignals oder den Einfluss von Temperaturschwankungen auf die Messergebnisse zu untersuchen. Die Experimente zeigen, dass das neue Messverfahren grundsätzlich funktioniert. Allerdings weisen die Messergebnisse aufgrund der noch nicht optimal an das Messverfahren angepassten Ultraschallsonde eine hohe Empfindlichkeit gegenüber Temperaturschwankungen auf. Zum Abschluss der Arbeit werden daher einige Verbesserungsvorschläge bezüglich des Designs der Ultraschallsonde gemacht.