172 resultados para Leistung
Resumo:
In dieser Arbeit wird ein Verfahren zum Einsatz neuronaler Netzwerke vorgestellt, das auf iterative Weise Klassifikation und Prognoseschritte mit dem Ziel kombiniert, bessere Ergebnisse der Prognose im Vergleich zu einer einmaligen hintereinander Ausführung dieser Schritte zu erreichen. Dieses Verfahren wird am Beispiel der Prognose der Windstromerzeugung abhängig von der Wettersituation erörtert. Eine Verbesserung wird in diesem Rahmen mit einzelnen Ausreißern erreicht. Verschiedene Aspekte werden in drei Kapiteln diskutiert: In Kapitel 1 werden die verwendeten Daten und ihre elektronische Verarbeitung vorgestellt. Die Daten bestehen zum einen aus Windleistungshochrechnungen für die Bundesrepublik Deutschland der Jahre 2011 und 2012, welche als Transparenzanforderung des Erneuerbaren Energiegesetzes durch die Übertragungsnetzbetreiber publiziert werden müssen. Zum anderen werden Wetterprognosen, die der Deutsche Wetterdienst im Rahmen der Grundversorgung kostenlos bereitstellt, verwendet. Kapitel 2 erläutert zwei aus der Literatur bekannte Verfahren - Online- und Batchalgorithmus - zum Training einer selbstorganisierenden Karte. Aus den dargelegten Verfahrenseigenschaften begründet sich die Wahl des Batchverfahrens für die in Kapitel 3 erläuterte Methode. Das in Kapitel 3 vorgestellte Verfahren hat im modellierten operativen Einsatz den gleichen Ablauf, wie eine Klassifikation mit anschließender klassenspezifischer Prognose. Bei dem Training des Verfahrens wird allerdings iterativ vorgegangen, indem im Anschluss an das Training der klassenspezifischen Prognose ermittelt wird, zu welcher Klasse der Klassifikation ein Eingabedatum gehören sollte, um mit den vorliegenden klassenspezifischen Prognosemodellen die höchste Prognosegüte zu erzielen. Die so gewonnene Einteilung der Eingaben kann genutzt werden, um wiederum eine neue Klassifikationsstufe zu trainieren, deren Klassen eine verbesserte klassenspezifisch Prognose ermöglichen.
Resumo:
Die Trocknung ist eines der am häufigsten verwendeten Verfahren, um die Haltbarkeit von landwirtschaftlichen Gütern zu verlängern. Von den vielen gebräuchlichen Trocknungsarten ist die Konvektionstrocknung, die Luft als Energie- und Feuchteträger verwendet, weiterhin die wichtigste. Trotz ihrer Nachteile und ihres hohen spezifischen Energieverbrauchs sind Satztrockner für die Getreide-, Kräuter- und Heutrocknung noch weit verbreitet. Ferner werden Konvektionstrockner gemeinhin zur künstlichen Trocknung eingesetzt. Diese Arbeit ist Teil eines Forschungsprojekts, welches eine sorptionsgestützte solare Trocknung von landwirtschaftlichen Gütern untersucht. Bei dieser wird kühle feuchte Luft in Kontakt mit einer konzentrierten hygroskopischen Salzlösung gebracht. Während dieses Prozesses wird die Luft entfeuchtet und mit Hilfe der freigesetzten Verdampfungsenthalpie erwärmt. Die Anwendung dieses Verfahrens zur Trocknung landwirtschaftlicher Güter ist besonders interessant für Produkte, die bei niedrigen Temperaturen verarbeitet werden, um ihre Qualität nicht negativ zu beeinflussen. Bei allen energieintensiven Prozessen und vor allem bei der Verwendung von Solarenergie ist ein effizienter Energieverbrauch äußerst wichtig für den technischen und ökonomischen Erfolg. Eine ungleichmäßige Trocknung ist oftmals bei Satztrocknern zu beobachten, was die Energieeffizienz negativ beeinflusst. Aus diesem Grund lag im agrartechnischen Teil des Projekts der Schwerpunkt auf der Trocknung bei niedrigen Temperaturen und geringer Luftfeuchte, die der Sorptionsprozess liefert, sowie auf der Verbesserung der Luftverteilung und der Gleichmäßigkeit der Trocknung in lockeren und verdichteten Schüttungen. Es wurden Dünnschicht-Trocknungsexperminente für Blattsellerie bei unterschiedlichen Lufttemperaturen und unterschiedlicher relativer Luftfeuchte durchgeführt. Die Ergebnisse zeigen eindeutig, dass nicht nur die Lufttemperatur einen großen Einfluss auf die Trocknungsgeschwindigkeit hat, sondern auch die relative Luftfeuchte. Dies ist vor allem bei niedrigen Temperaturen, wie sie vom Sorptionssystem geliefert werden, der Fall. Um die Luftverteilung und Gleichmäßigkeit der Trocknung lockerer Schüttungen zu untersuchen, wurde ein Kistentrockner experimentell und in Strömungssimulationen getestet. Die Leistung des ursprünglichen Trockners wurde signifikant durch einfache Veränderungen des Designs verbessert. Diese stellten einen gleichmäßigeren Luftstrom durch das Produkt sicher. Die Trocknung von Heu-Rundballen stellt eine Herausforderung dar, da diese sehr stark verdichtet sind und die Dichte innerhalb eines Ballens stark schwankt. Strömungs- und Trocknungssimulationen so wie experimentelle Messungen zeigten, dass das Trocknerdesign einen großen Einfluss auf die Gleichmäßigkeit der Trocknung hat. Bei den einfachsten Trocknervarianten war die Verteilung auch bei optimal gepressten Ballen unzureichend, während komplexere Trockner eine gleichmäßigere Trocknung erzielten. Jedoch werden auch hier die Ergebnisse stark von der Verteilung der Dichte im Ballen beeinflusst, welche in der Praxis weiterhin nicht ideal ist. Abschließend wurde, um den Trocknungsfortschritt zu überwachen, eine Methodik getestet, bei der zur Messung des durchschnittlichen aktuellen Feuchtegehalts des Produktes psychrometrische Messungen und Messungen des Luftstroms in kurzen Abständen durchgeführt wurden. Die Menge des tatsächlich entfernten Wassers stimmte in den meisten Fällen gut mit der geschätzten Menge überein. Jedoch hängt der Erfolg dieser Methode stark von der Genauigkeit der Messfühler ab.
Resumo:
Ein Drittel des weltweiten gesamten Energiebedarfs wird durch Gebäude verbraucht. Um diesen Energiebedarf teilweise zu decken, den erheblichen Energieverbrauch zu reduzieren und weiterhin andere Gebäudefunktionen beizubehalten, ist Gebäudeintegrierte Photovoltaik (BIPV) eine der am besten geeigneten Lösungen für die Gebäudenanwendung. Im Bezug auf eine Vielzahl von Gestalltungsmöglichkeiten, sind die Randbedingungen der BIPV-Anwendungen eindeutig anders im Vergleich zu Standard-PV-Anwendungen, insbesondere bezüglich der Betriebstemperatur. Bisher gab es nicht viele Informationen zu den relevanten thermischen Auswirkungen auf die entsprechenden elektrischen Eigenschaften zusammen mit thermischen und mechanischen relevanten Gebäudenfunktionen. Die meisten Hersteller übernehmen diese Eigenschaften von entsprechenden PV-Modulen und konventionellen Bauprodukten Normen, die zur ungenauen System- und Gebäudeplanungen führen. Deshalb ist die Untersuchung des thermischen Einflusses auf elektrische, thermische sowie mechanische Eigenschaften das Hauptziel der vorliegenden Arbeit. Zunächst wird das Temperatur-Model mit dem Power-Balance-Konzept erstellt. Unter Berücksichtigung der variablen Installationsmöglichkeiten und Konfigurationen des Moduls wird das Model auf Basis dynamischer und stationär Eigenschaften entwickelt. Im Hinblick auf die dynamische Simulation können der Energieertrag und Leistung zusammen mit der thermischen Gebäudesimulation in Echtzeit simuliert werden. Für stationäre Simulationen können die relevanten Gebäudefunktionen von BIPV-Modulen sowohl im Sommer als auch im Winter simuliert werden. Basierend auf unterschiedlichen thermischen und mechanischen Last-Szenarien wurde darüber hinaus das mechanische Model zusammen mit Variationen von Belastungsdauer, Montagesystem und Verkapselungsmaterialien entwickelt. Um die Temperatur- und Mechanik-Modelle zu validieren, wurden die verschiedenen Prüfeinrichtungen zusammen mit neuen Testmethoden entwickelt. Bei Verwendung der Prüfanlage „PV variable mounting system“ und „mechanical testing equipment“ werden zudem die verschiedenen Szenarien von Montagesystemen, Modul-Konfigurationen und mechanischen Belastungen emuliert. Mit der neuen Testmethode „back-bias current concept“ können zum einen die solare Einstrahlung und bestimmte Betriebstemperaturen eingestellt werden. Darüber hinaus wurden mit den eingangs erwähnten validierten Modellen das jeweilige elektrische, thermische und mechanische Verhalten auf andere Konfigurationen bewertet. Zum Abschluss wird die Anwendung von Software-Tools bei PV-Herstellern im Hinblick auf die entsprechenden Modellentwicklungen thematisiert.
Resumo:
O presente estudo partindo da perspectiva contextualista e adotando o modelo bioecológico do desenvolvimento buscou identificar as percepções compartilhadas entre pais de crianças com deficiência mental moradoras da Ilha do Combu, região ribeirinha amazônica. Foram acompanhadas as três famílias que tinham filhos cadastrados na Secretaria Municipal de Ensino de Belém e/ou diagnóstico que comprovava a deficiência mental. Os cuidados éticos tomados foram balizados na aprovação do projeto pela UFPA, no esclarecimento dos participantes sobre os objetivos e os riscos inócuos envolvidos assim como o sigilo de suas identidades. A aproximação da pesquisadora ao contexto investigado e às famílias participantes se deu via inserção ecológica. A coleta se dividiu em dois momentos distintos: primeiramente ocorreram visitas sistemáticas às famílias com a utilização do instrumento diário de campo, desse modo a pesquisadora buscou integrar-se ao ambiente estudado via interações sucessivas e regulares tornando-se o mais próximo possível daqueles que o constituem e no segundo momento ocorreu a aplicação do inventário sócio-demográfico e teste de identificação familiar – FIT. Os resultados apontaram condições diferenciadas de desenvolvimento dos filhos relacionadas às percepções compartilhadas pelos pais e as características contextuais presentes na Ilha. As identificações positivas associadas ao bom desempenho dos papéis e atividades estiveram ligadas às percepções de aceitação e pertencimento, aspectos observados na família de Ana. Nas demais famílias (Taciana e Alexandra) estiveram presentes conflitos e dificuldades que ressaltam os seguintes fatores: sobrecarga vivenciada nos cuidados aos filhos, percepções de estranhamento e incompreensão frente à deficiência, conflitos conjugais, rejeição do diagnóstico e identificações negativas. Conclui-se que as percepções compartilhadas pelos pais mostram-se ligadas ao suporte recebido durante o diagnóstico, aos papéis desempenhados na família, às características das crianças e aos aspectos contextuais presentes na cultura ribeirinha que pressupõe o isolamento marcado pela região alagada e conta com uma rede social composta por parentes que vivem na ilha há gerações.
Resumo:
Die Resonanzionisations-Massenspektrometrie (RIMS) ist sowohl für spektroskopische Untersuchungen seltener Isotope als auch für den Ultraspurennachweis langlebiger radioaktiver Elemente einsetzbar. Durch die mehrstufige resonante Anregung atomarer Energieniveaus mit anschließender Ionisation mit Laserlicht wird eine sehr hohe Elementselektivität und Ionisationseffizienz erreicht. Der nachfolgende massenselektive Ionennachweis liefert eine gute Isotopenselektivität zusammen mit einer effektiven Untergrundunterdrückung. Ein wichtiger Bestandteil der RIMS-Apparatur ist ein zuverlässig arbeitendes, leistungsstarkes Lasersystem für die Resonanzionisation. Im Rahmen dieser Arbeit wurde ein von einem hochrepetierenden Nd:YAG-Laser gepumptes, aus drei Titan-Saphir-Lasern bestehendes System fertig aufgebaut und in den Routinebetrieb überführt. Die Titan-Saphir-Laser liefern im Durchstimmbereich von 730 - 880 nm eine mittlere Leistung von bis zu 3 W pro Laser bei einer Linienbreite von 2 - 3 GHz. Sie lassen sich computergesteuert in ihren Wellenlängen durchstimmen. Die mittels Resonanzionisation erzeugten Ionen werden dann in einem Flugzeit-Massenspektrometer entsprechend ihrer Masse aufgetrennt und mit einem Kanalplattendetektor nachgewiesen.Als Voraussetzung für die isotopenselektive Ultraspurenanalyse von Plutonium wurden mit diesem Lasersystem die Isotopieverschiebungen eines effizienten, dreistufigen Anregungsschema für Plutonium bestimmt. Die Laserleistungen reichen zur vielfachen Sättigung der ersten beiden Anregungsschritte und zur zweifachen Sättigung des dritten Anregungsschritts aus.Außerdem wurden die Ionisationsenergien von Pu-239 und Pu-244 zur Untersuchung ihrer Isotopenabhängigkeit bestimmt. Die beiden Ionisationsenergien sind im Rahmen der erreichten Genauigkeit bei einem Meßwert von IP239-IP244 = 0,24(82) cm^-1 gleich.Die Nachweiseffizienz der RIMS-Apparatur für Plutonium wurde in Effizienzmessungen zu 10^-5 bestimmt. Durch die gute Untergrundunterdrückung ergab sich daraus eine Nachweisgrenze von 10^6 Atomen bei der Messung eines Plutoniumisotops. Die Bestimmung der Isotopenverhältnisse von Proben mit einer zertifizierten Isotopenzusammensetzung lieferte eine gute Übereinstimmung der Meßwerte mit den angegebenen Zusammensetzungen.Die RIMS-Apparatur wurde zur Bestimmung des Gehalts und der Isotopenzusammensetzung von Plutonium in Meerwasser- und Staubproben eingesetzt.Auf Grund der Isotopenzusammensetzung konnte gezeigt werden, daß das Plutonium bei den meisten Proben aus dem Fallout von oberirdischen Kernwaffentests stammte. Des weiteren wurde Plutonium in Urinproben bestimmt. Die Nachweisgrenzen lagen bei diesen Umweltproben bei 10^6 bis 10^7 Atomen Plutonium und damit um zwei Größenordnungen niedriger als die Nachweisgrenze für Pu-239 bei der alpha-Spektroskopie, der Standardmethode für den Plutoniumnachweis.
Resumo:
Die Arbeit verfolgt Genese und Wirkungsgeschichte von Stanley Kubricks letztem Film EYES WIDE SHUT (GB 1999) mit dem Anliegen, durch die intensive Auseinandersetzung mit den narrativen und ästhetischen Gestaltungsfaktoren eines einzelnen Films den kalkulierten Einsatz filmsprachlicher Mittel nachzuvollziehen und den solcherart kreierten (Be-) Deutungsspielraum zu diskutieren. Dabei kommen die hinter Kubricks Inszenierungsentscheidungen erkennbaren Intentionen ebenso zur Sprache wie rezeptive Muster auf seiten des Publikums.Den ersten Untersuchungskomplex bildet die adaptierte Literaturvorlage, Arthur Schnitzlers TRAUMNOVELLE (1926), die sowohl hinsichtlich ihrer inhaltlich-thematischen als auch ihrer sprachlich-erzähltechnischen Gestaltung gewürdigt wird. Kernstück der Arbeit bildet eine detaillierte, wirkungsbezogene Analyse der Inszenierungskomponenten einzelner Szenen, die hinsichtlich ihres von Regieentscheidungen geprägten Zusammenspiels betrachtet und häufig mit den jeweiligen literarischen Gestaltungsmerkma-len der Vorlage verglichen werden. Auf diese Weise wird Kubricks kreative Leistung eines Transfers von einer bedeutenden Novelle hin zu einem künstlerisch eigenständigen Film erfaßt. Dabei fällt unter anderem auf, daß die Gedankengänge Fridolins im Film durch ein subtiles Netzwerk von Andeutungen, Auslassungen und inneren Querverweisen ersetzt wurden, welches der individuellen Zuschauerwahrnehmung einen hohen Stellenwert zuweist der Betrachter rückt gewissermaßen ins Zentrum des Films, soll den Platz des recht blaß bleibenden Protagonisten einnehmen, der nur als Stellvertreter fungiert.
Resumo:
Die vorliegende Dissertation untersucht die biogeochemischen Vorgänge in der Vegetationsschicht (Bestand) und die Rückkopplungen zwischen physiologischen und physikalischen Umweltprozessen, die das Klima und die Chemie der unteren Atmosphäre beeinflussen. Ein besondere Schwerpunkt ist die Verwendung theoretischer Ansätze zur Quantifizierung des vertikalen Austauschs von Energie und Spurengasen (Vertikalfluss) unter besonderer Berücksichtigung der Wechselwirkungen der beteiligten Prozesse. Es wird ein differenziertes Mehrschicht-Modell der Vegetation hergeleitet, implementiert, für den amazonischen Regenwald parametrisiert und auf einen Standort in Rondonia (Südwest Amazonien) angewendet, welches die gekoppelten Gleichungen zur Energiebilanz der Oberfläche und CO2-Assimilation auf der Blattskala mit einer Lagrange-Beschreibung des Vertikaltransports auf der Bestandesskala kombiniert. Die hergeleiteten Parametrisierungen beinhalten die vertikale Dichteverteilung der Blattfläche, ein normalisiertes Profil der horizontalen Windgeschwindigkeit, die Lichtakklimatisierung der Photosynthesekapazität und den Austausch von CO2 und Wärme an der Bodenoberfläche. Desweiteren werden die Berechnungen zur Photosynthese, stomatären Leitfähigkeit und der Strahlungsabschwächung im Bestand mithilfe von Feldmessungen evaluiert. Das Teilmodell zum Vertikaltransport wird im Detail unter Verwendung von 222-Radon-Messungen evaluiert. Die ``Vorwärtslösung'' und der ``inverse Ansatz'' des Lagrangeschen Dispersionsmodells werden durch den Vergleich von beobachteten und vorhergesagten Konzentrationsprofilen bzw. Bodenflüssen bewertet. Ein neuer Ansatz wird hergeleitet, um die Unsicherheiten des inversen Ansatzes aus denjenigen des Eingabekonzentrationsprofils zu quantifizieren. Für nächtliche Bedingungen wird eine modifizierte Parametrisierung der Turbulenz vorgeschlagen, welche die freie Konvektion während der Nacht im unteren Bestand berücksichtigt und im Vergleich zu früheren Abschätzungen zu deutlich kürzeren Aufenthaltszeiten im Bestand führt. Die vorhergesagte Stratifizierung des Bestandes am Tage und in der Nacht steht im Einklang mit Beobachtungen in dichter Vegetation. Die Tagesgänge der vorhergesagten Flüsse und skalaren Profile von Temperatur, H2O, CO2, Isopren und O3 während der späten Regen- und Trockenzeit am Rondonia-Standort stimmen gut mit Beobachtungen überein. Die Ergebnisse weisen auf saisonale physiologische Änderungen hin, die sich durch höhere stomatäre Leitfähigkeiten bzw. niedrigere Photosyntheseraten während der Regen- und Trockenzeit manifestieren. Die beobachteten Depositionsgeschwindigkeiten für Ozon während der Regenzeit überschreiten diejenigen der Trockenzeit um 150-250%. Dies kann nicht durch realistische physiologische Änderungen erklärt werden, jedoch durch einen zusätzlichen cuticulären Aufnahmemechanismus, möglicherweise an feuchten Oberflächen. Der Vergleich von beobachteten und vorhergesagten Isoprenkonzentrationen im Bestand weist auf eine reduzierte Isoprenemissionskapazität schattenadaptierter Blätter und zusätzlich auf eine Isoprenaufnahme des Bodens hin, wodurch sich die globale Schätzung für den tropischen Regenwald um 30% reduzieren würde. In einer detaillierten Sensitivitätsstudie wird die VOC Emission von amazonischen Baumarten unter Verwendung eines neuronalen Ansatzes in Beziehung zu physiologischen und abiotischen Faktoren gesetzt. Die Güte einzelner Parameterkombinationen bezüglich der Vorhersage der VOC Emission wird mit den Vorhersagen eines Modells verglichen, das quasi als Standardemissionsalgorithmus für Isopren dient und Licht sowie Temperatur als Eingabeparameter verwendet. Der Standardalgorithmus und das neuronale Netz unter Verwendung von Licht und Temperatur als Eingabeparameter schneiden sehr gut bei einzelnen Datensätzen ab, scheitern jedoch bei der Vorhersage beobachteter VOC Emissionen, wenn Datensätze von verschiedenen Perioden (Regen/Trockenzeit), Blattentwicklungsstadien, oder gar unterschiedlichen Spezies zusammengeführt werden. Wenn dem Netzwerk Informationen über die Temperatur-Historie hinzugefügt werden, reduziert sich die nicht erklärte Varianz teilweise. Eine noch bessere Leistung wird jedoch mit physiologischen Parameterkombinationen erzielt. Dies verdeutlicht die starke Kopplung zwischen VOC Emission und Blattphysiologie.
Resumo:
A one-dimensional multi-component reactive fluid transport algorithm, 1DREACT (Steefel, 1993) was used to investigate different fluid-rock interaction systems. A major short coming of mass transport calculations which include mineral reactions is that solid solutions occurring in many minerals are not treated adequately. Since many thermodynamic models of solid solutions are highly non-linear, this can seriously impact on the stability and efficiency of the solution algorithms used. Phase petrology community saw itself faced with a similar predicament 10 years ago. To improve performance and reliability, phase equilibrium calculations have been using pseudo compounds. The same approach is used here in the first, using the complex plagioclase solid solution as an example. Thermodynamic properties of a varying number of intermediate plagioclase phases were calculated using ideal molecular, Al-avoidance, and non-ideal mixing models. These different mixing models can easily be incorporated into the simulations without modification of the transport code. Simulation results show that as few as nine intermediate compositions are sufficient to characterize the diffusional profile between albite and anorthite. Hence this approach is very efficient, and can be used with little effort. A subsequent chapter reports the results of reactive fluid transport modeling designed to constrain the hydrothermal alteration of Paleoproterozoic sediments of the Southern Lake Superior region. Field observations reveal that quartz-pyrophyllite (or kaolinite) bearing assemblages have been transformed into muscovite-pyrophyllite-diaspore bearing assemblages due to action of fluids migrating along permeable flow channels. Fluid-rock interaction modeling with an initial qtz-prl assemblage and a K-rich fluid simulates the formation of observed mineralogical transformation. The bulk composition of the system evolves from an SiO2-rich one to an Al2O3+K2O-rich one. Simulations show that the fluid flow was up-temperature (e.g. recharge) and that fluid was K-rich. Pseudo compound approach to include solid solutions in reactive transport models was tested in modeling hydrothermal alteration of Icelandic basalts. Solid solutions of chlorites, amphiboles and plagioclase were included as the secondary mineral phases. Saline and fresh water compositions of geothermal fluids were used to investigate the effect of salinity on alteration. Fluid-rock interaction simulations produce the observed mineral transformations. They show that roughly the same alteration minerals are formed due to reactions with both types of fluid which is in agreement with the field observations. A final application is directed towards the remediation of nitrate rich groundwaters. Removal of excess nitrate from groundwater by pyrite oxidation was modeled using the reactive fluid transport algorithm. Model results show that, when a pyrite-bearing, permeable zone is placed in the flow path, nitrate concentration in infiltrating water can be significantly lowered, in agreement with proposals from the literature. This is due to nitrogen reduction. Several simulations investigate the efficiency of systems with different mineral reactive surface areas, reactive barrier zone widths, and flow rates to identify the optimum setup.
Resumo:
Bohrbrunnen sind die unmittelbare Schnittstelle zwischen dem Grundwasser als Ressource und der Nutzung zur Trinkwasserbereitstellung. Ihre Leistung nimmt jedoch mit fortschreitendem Alter infolge komplexer chemischer und biologischer Vorgänge ab, so dass sie regelmäßig gewartet und regeneriert werden müssen. Um die Auswahl geeigneter Maßnahmen zu erleichtern, erfolglose Regenerierungen zu vermeiden und Kosten zu sparen, ist ein geeignetes, auf den Betrieb und die Standortbedingungen ausgelegtes Überwachungsprogramm notwendig, Im Rahmen der Arbeit wurden aus den Ergebnissen von Regeneriermaßnahmen mit dem Ultraschallverfahren an Brunnen des Wasserwerkes Wiesbaden-Schierstein und der Analyse vorliegender Altdaten Zusammenhänge zwischen der Brunnenalterung und dem Regeneriererfolg einerseits und der Dokumentation und Überwachung eines Brunnens andererseits abgeleitet. Sie bildet damit die noch fehlende Brücke zwischen der Betrachtung einzelner Verfahren und einer allgemeingültigen Brunnenbewirtschaftung. Aus den Schlussfolgerungen für das Wasserwerk Wiesbaden-Schierstein, den Empfehlungen des DVGW, dem Fachwissen aus anderen Publikationen und der Einbeziehung der Erfahrungen aus der wissenschaftlichen Begleitung von Regenerierungen mit Ultraschall konnten die Mindestparameter unter geologischen und hydrochemischen Aspekten und daraus ein Leitfaden zur Entscheidungshilfe über Zeitpunkt und Wahl des Verfahrens einer Brunnenregenerierung abgeleitet werden. Das richtige Brunnenmonitoring ist somit Grundlage der optimalen Brunnennutzung und –pflege.
Resumo:
Die Leistung multichromophorer Systeme geht oftmals über die der einzelnen Chromophor-Einheiten hinaus. Ziel der vorliegenden Dissertation mit dem Titel „Multichromophore Systeme auf Basis von Rylencarbonsäureimiden“ war daher die Synthese und Charakterisierung multichromophorer Molekülarchitekturen. Die verwendeten Rylenfarbstoffe zeichnen sich durch hohe photochemische Stabilitäten sowie nahezu quantitative Fluoreszenzquantenausbeuten aus. Die optischen und elektronischen Eigenschaften multichromophorer Systeme hängen stark von der geometrischen Ordnung ab, in der die Farbstoffe zueinander stehen. Daher wurden für den Einbau formpersistente Gerüststrukturen gewählt. Der erste Teil der Arbeit beschäftigt sich mit dem Einbau ein und desselben Chromophortyps und hat neben dem Verständnis von Chromophor-Wechselwirkungen vor allem die Erhöhung des Absorptionsquerschnitts und der Fluoreszenzintensität zum Ziel. Als Gerüststruktur dienen dabei Polyphenylen-Dendrimere, Ethinyl-verbrückte Dendrimere sowie Übergangsmetall-vermittelte supramolekulare Strukturen. Aufgrund der hohen Farbstoffanzahl, des ortsdefinierten Einbaus und den hohen Fluoreszenzquantenausbeuten eignen sich diese multichromophoren Systeme als Fluoreszenzsonden und als Einzelphotonenemitter. Im zweiten Teil der Arbeit werden verschiedene Chromophortypen zu multichromophoren Systemen verknüpft, mit deren Hilfe ein vektorieller Energietransfer möglich ist. Mit Hinsicht auf die Verwendung in photovoltaischen Zellen wurde eine dendritische Triade dargestellt. Eine lineare Variante einer Rylen-Triade stellt einen molekularen Draht dar, deren Brückenelement durch eine geeignete Syntheseführung verlängert und der Energietransport daher abstandsabhängig untersucht werden kann.
Abscheidung und Charakterisierung von Plasmapolymerschichten auf Fluorkohlenstoff- und Siloxan-Basis
Resumo:
In dieser Arbeit wurden Fluorkohlenstoff-basierte und siliziumorganische Plasmapolymerfilme hergestellt und hinsichtlich ihrer strukturellen und funktionalen Eigenschaften untersucht. Beide untersuchten Materialsysteme sind in der Beschichtungstechnologie von großem wissenschaftlichen und anwendungstechnischen Interesse. Die Schichtabscheidung erfolgte mittels plasmachemischer Gasphasenabscheidung (PECVD) an Parallelplattenreaktoren. Bei den Untersuchungen zur Fluorkohlenstoff-Plasmapolymerisation stand die Herstellung ultra-dünner, d. h. weniger als 5 nm dicker Schichten im Vordergrund. Dies wurde durch gepulste Plasmaanregung und Verwendung eines Gasgemisches aus Trifluormethan (CHF3) und Argon realisiert. Die Bindungsstruktur der Schichten wurden in Abhängigkeit der eingespeisten Leistung, die den Fragmentationsgrad der Monomere im Plasma bestimmt, analysiert. Hierzu wurden die Röntgen-Photoelektronenspektroskopie (XPS), Rasterkraftmikroskopie (AFM), Flugzeit-Sekundärionenmassenspektrometrie (ToF-SIMS) und Röntgenreflektometrie (XRR) eingesetzt. Es zeigte sich, dass die abgeschiedenen Schichten ein homogenes Wachstumsverhalten und keine ausgeprägten Interfacebereiche zum Substrat und zur Oberfläche hin aufweisen. Die XPS-Analysen deuten darauf hin, dass Verkettungsreaktionen von CF2-Radikalen im Plasma eine wichtige Rolle für den Schichtbildungsprozess spielen. Weiterhin konnte gezeigt werden, dass der gewählte Beschichtungsprozess eine gezielte Reduzierung der Benetzbarkeit verschiedener Substrate ermöglicht. Dabei genügen Schichtdicken von weniger als 3 nm zur Erreichung eines teflonartigen Oberflächencharakters mit Oberflächenenergien um 20 mN/m. Damit erschließen sich neue Applikationsmöglichkeiten ultra-dünner Fluorkohlenstoffschichten, was anhand eines Beispiels aus dem Bereich der Nanooptik demonstriert wird. Für die siliziumorganischen Schichten unter Verwendung des Monomers Hexamethyldisiloxan (HMDSO) galt es zunächst, diejenigen Prozessparameter zu identifizieren, die ihren organischen bzw. glasartigen Charakter bestimmen. Hierzu wurde der Einfluss von Leistungseintrag und Zugabe von Sauerstoff als Reaktivgas auf die Elementzusammensetzung der Schichten untersucht. Bei niedrigen Plasmaleistungen und Sauerstoffflüssen werden vor allem kohlenstoffreiche Schichten abgeschieden, was auf eine geringere Fragmentierung der Kohlenwasserstoffgruppen zurückgeführt wurde. Es zeigte sich, dass die Variation des Sauerstoffanteils im Prozessgas eine sehr genaue Steuerbarkeit der Schichteigenschaften ermöglicht. Mittels Sekundär-Neutralteilchen-Massenspektrometrie (SNMS) konnte die prozesstechnische Realisierbarkeit und analytische Quantifizierbarkeit von Wechselschichtsystemen aus polymerartigen und glasartigen Lagen demonstriert werden. Aus dem Intensitätsverhältnis von Si:H-Molekülen zu Si-Atomen im SNMS-Spektrum ließ sich der Wasserstoffgehalt bestimmen. Weiterhin konnte gezeigt werden, dass durch Abscheidung von HMDSO-basierten Gradientenschichten eine deutliche Reduzierung von Reibung und Verschleiß bei Elastomerbauteilen erzielt werden kann.
Resumo:
Welche Literatur liegt im Trend? Welche Aktionen und Instrumente bietet der Markt, um Bücher an den Leser zu vermitteln? Wie lässt sich das gegenwärtige Literaturverständnis beschreiben – auch in Abgrenzung und im Vergleich zu den etablierten Literaturtheorien? Diese allgemeinen Fragen wurden in der vorliegenden Arbeit spezialisiert und auf Schwerpunkte konzentriert. In den Vordergrund rückte – unter dem Aspekt des Zeitgeistphänomens – die junge deutsche Literatur, auf die bei diesem Projekt aus persönlichem Interesse heraus der Fokus gelegt wurde. Erforscht wurde, welche Bücher, Themen und Autoren zeitweise populär waren, wie es um Status und Selbstpräsentation letztgenannter bestellt war und ist. Als Beispiele zu nennen sind Benjamin von Stuckrad-Barre und Florian Illies, beide sich ihres (Markt-)Wertes wohl bewusste Vertreter der Pop- und Generationsliteratur, die in den letzten Jahren einen Boom erlebte. Beide Schriftsteller wurden mit ihren Werken einer detailgenauen Analyse unterzogen. Spricht man über Literatur, ist es unumgänglich, das – vorherrschende – nicht unproblematische Literaturverständnis zu durchleuchten. Galten Bücher einst als Status- und Bildungssymbol, ist von dieser Wertschätzung und von solch hohem Prestige heute nicht mehr allzu viel vorhanden. Das Erarbeiten eines Literaturbegriffs bot sich in der Auseinandersetzung mit in der Germanistik gängigen Theorien an (z. B. Empirische Theorie der Literatur nach S. J. Schmidt). Reduzierte man (als ein Ergebnis) Leistung und Wert von Literatur tatsächlich nur noch auf reine, unkomplizierte und schnelllebige Unterhaltung, führte dies zwangsweise zur Frage nach einer Medienkonkurrenz in erster Linie mit dem Fernsehen, dann mit dem Computer und seinen Möglichkeiten. Im dritten und letzten Abschnitt der Arbeit wurde anhand von ausgewählten Beispielen dargestellt, wie das gegenwärtige Literaturverständnis mit dem Markt konform geht, sprich welche Aktionen an der Schnittstelle Markt – Leser stattfinden, mit denen letztere auf Literatur aufmerksam gemacht und zum Lesen animiert werden sollen. In diesem Rahmen wurde u. a. das System der Literaturkritik knapp beschrieben und anhand von drei aktuellen Rezensionsbeispielen veranschaulicht.
Resumo:
Die vorliegende Arbeit beschäftigt sich mit Kriterien effizienter und flexibler Informationsverarbeitung und deren Auswirkungen auf den Karriereerfolg. Die Kriterien Interferenz, Interferenz unter der negativen Priming-Bedingung und die Spontanflexibilität wurden in drei aufeinander aufbauenden Studien untersucht. Die Interferenzindices wurden mit einer modifizierten Form des Stroop-Tests erhoben, und das Konstrukt der Spontanflexibilität wurde mit der Gauß-Aufgabe, der Wasserumschüttaufgabe, dem Wortgruppentest und der Anagramm-Aufgabe operationalisiert. Bei diesen Aufgaben wurde eine Lösungsstrategie vorgegeben, aber es gab zusätzlich eine effizientere Lösungsstrategie, die während der Bearbeitung der Einzelaufgaben immer offensichtlicher wurde. Da die einzelnen Aufgaben nicht signifikant miteinander korrelierten, wurde im Rahmen einer Nachuntersuchung die Reliabilität über Parallelaufgaben geprüft. Für die Diagnose von Gruppenunterschieden erwiesen sich die Indikatoren der Spontanflexibilität als hinreichend reliabel. Die Wortdarbietungszeiten der Interferenzindices waren hochreliabel. Zwischen den Interferenzindices zeigte sich ein starker positiver Zusammenhang. Zur Validierung der Aufgaben wurden Beurteilungen über die berufliche Leistung der Versuchsteilnehmer herangezogen. Zwischen den einzelnen Beurteilungskriterien zeigten sich hohe Zusammenhänge. Die Gauß-Aufgabe korrelierte mit einem Beurteilungskriterium, dessen Verhaltensbeschreibungen sehr gut mit der Definition der Spontanflexibilität übereinstimmten. Die Wasserumschüttaufgabe korrelierte mit einem Beurteilungskriterium, welches eher eine durch die Situation herausgeforderte Flexibilität widerspiegelt. Die Interferenzindikatoren korrelierten mit Beurteilungskriterien, die zum einen die Fähigkeit zum Aufbauen von professionellen Beziehungen und zum anderen die Effizienz und den Qualitätsstandard eines Mitarbeiters bewerteten. Aufgrund der replizierten Zusammenhänge kann davon ausgegangen werden, dass die Interferenz, die Interferenz unter der negativen Priming-Bedingung, die Spontanflexibilität und die herausgeforderte Flexibilität Einfluss auf den Karriereerfolg eines Mitarbeiters nehmen. Aus diesem Grund bieten sich im Bereich der Arbeits- und Organisationspsychologie vielversprechende Einsatzmöglichkeiten für die in dieser Untersuchung entwickelten Tests an.
Resumo:
Except the article forming the main content most HTML documents on the WWW contain additional contents such as navigation menus, design elements or commercial banners. In the context of several applications it is necessary to draw the distinction between main and additional content automatically. Content extraction and template detection are the two approaches to solve this task. This thesis gives an extensive overview of existing algorithms from both areas. It contributes an objective way to measure and evaluate the performance of content extraction algorithms under different aspects. These evaluation measures allow to draw the first objective comparison of existing extraction solutions. The newly introduced content code blurring algorithm overcomes several drawbacks of previous approaches and proves to be the best content extraction algorithm at the moment. An analysis of methods to cluster web documents according to their underlying templates is the third major contribution of this thesis. In combination with a localised crawling process this clustering analysis can be used to automatically create sets of training documents for template detection algorithms. As the whole process can be automated it allows to perform template detection on a single document, thereby combining the advantages of single and multi document algorithms.
Resumo:
In dieser Arbeit wird eine schmalbandige kontinuierliche kohärente Lyman-α-Quelle basierend auf Festkörperlasersystemen zur zukünftigen Kühlung von Antiwasserstoff vorgestellt. Die fundamentalen Festkörperlasersysteme ermöglichen es im Vier-Wellen-Misch-Prozess zur Erzeugung der Lyman-α-Strahlung nicht nur die 6^1S – 7^1S-Zwei-Photonen-Resonanz des Quecksilbers sondern erstmals auch die 6^1S – 6^3P-Ein-Photonen-Resonanz zur Erhöhung der Konversionseffizienz optimal zu nutzen. In ersten Messungen wurden 0,063nW Leistung bei Lyman-α erzeugt. Mit dieser Lyman-α-Quelle war es, durch die Nähe des ersten fundamentalen Lasers zur Ein-Photonen-Resonanz, erstmals möglich den kompletten Verlauf der Phasenanpassungskurve des Vier-Wellen- Misch-Prozesses aufzunehmen. Neben den fundamentalen Lasersystemen und der Lyman-alpha-Erzeugung selbst, wird in dieser Arbeit die Detektion der produzierten Lyman-α-Strahlung mit einem Photomultiplier vorgestellt, die soweit optimiert wurde, dass eine zuverlässige Abschätzung der erzeugten Leistung möglich ist. Für diesen Zweck wurde zudem ein Teststand aufgebaut, mit dem die Transmissivität der Optiken, welche in der Lyman-α-Apparatur verwendet werden, bei 121,56nm gemessen wurde. Des Weiteren wird hier eine vielseitige Rechnung vorgestellt, mit der die erzeugte Leistung bei Lyman-α, unter anderem in Abhängigkeit von der Temperatur, der Absorption des ersten fundamentalen Laserstrahls, dem Dichteprofil des Quecksilberdampfes und unter dem Einfluss eines Puffergases, bestimmt wird.