221 resultados para Mut zur Kultur
Resumo:
Ein Luft-Erdwärmetauscher (L-EWT) kommt wegen seines niedrigen Energiebedarfs und möglicher guter Aufwandszahlen als umweltfreundliche Versorgungskomponente für Gebäude in Betracht. Dabei ist besonders vorteilhaft, dass ein L-EWT die Umgebungsluft je nach Jahreszeit vorwärmen oder auch kühlen kann. Dem zufolge sind L-EWT zur Energieeinsparung nicht nur für den Wohnhausbau interessant, sondern auch dort, wo immer noch große Mengen an fossiler Energie für die Raumkühlung benötigt werden, im Büro- und Produktionsgebäudesektor. Der Einsatzbereich eines L-EWT liegt zwischen Volumenströmen von 100 m3/h und mehreren 100.000 m3/h. Aus dieser Bandbreite und den instationären Randbedingungen entstehen erhebliche Schwierigkeiten, allgemeingültige Aussagen über das zu erwartende thermische Systemverhalten aus der Vielzahl möglicher Konstruktionsvarianten zu treffen. Hauptziel dieser Arbeit ist es, auf Basis umfangreicher, mehrjähriger Messungen an einer eigens konzipierten Testanlage und eines speziell angepassten numerischen Rechenmodells, Kennzahlen zu entwickeln, die es ermöglichen, die Betriebseigenschaften eines L-EWT im Planungsalltag zu bestimmen und ein technisch, ökologisch wie ökonomisch effizientes System zu identifizieren. Es werden die Kennzahlen elewt (Aufwandszahl), QV (Netto-Volumenleistung), ME (Meterertrag), sowie die Kombination aus v (Strömungsgeschwindigkeit) und VL (Metervolumenstrom) definiert, die zu wichtigen Informationen führen, mit denen die Qualität von Systemvarianten in der Planungsphase bewertet werden können. Weiterführende Erkenntnisse über die genauere Abschätzung von Bodenkennwerten werden dargestellt. Die hygienische Situation der durch den L-EWT transportierten Luft wird für die warme Jahreszeit, aufgrund auftretender Tauwasserbildung, beschrieben. Aus diesem Grund werden alle relevanten lufthygienischen Parameter in mehreren aufwendigen Messkampagnen erfasst und auf pathogene Wirkungen überprüft. Es wird über Sensitivitätsanalysen gezeigt, welche Fehler bei Annahme falscher Randbedingungen eintreten. Weiterhin werden in dieser Arbeit wesentliche, grundsätzliche Erkenntnisse aufbereitet, die sich aus der Betriebsbeobachtung und der Auswertung der umfangreich vorliegenden Messdaten mehrerer Anlagen ergeben haben und für die praktische Umsetzung und die Betriebsführung bedeutend sind. Hinweise zu Materialeigenschaften und zur Systemwirtschaftlichkeit sind detailliert aufgeführt.
Resumo:
Ausgehend von langfristigen Veränderungen im wissenschaftlichen Publikationswesen und in der Informationsvermittlung werden die Bedingungen und möglichen Folgen dieser Entwicklung beleuchtet. Je nach Standpunkt haben Bibliothekare, Verleger oder Wissenschaftsautoren unterschiedliche Wahrnehmungen von dem, was eine (digitale) Bibliothek ausmacht. Bespielhaft wird die Funtionalität des hessischen Digibib-Projektes beschrieben, in dem Standard Such- und Retrieval-Protokolle (Z39.50, HTTP) für den Anschluß von OPAC und Client-Server-Datenbanken mit Volltextsammlungen sorgen.
Resumo:
Die Dissertation befasst sich mit der Einführung komplexer Softwaresysteme, die, bestehend aus einer Kombination aus parametrisierter Standardsoftware gepaart mit Wettbewerbsvorteil sichernden Individualsoftwarekomponenten, keine Software-Engineering-Projekte im klassischen Sinn mehr darstellen, sondern einer strategieorientierten Gestaltung von Geschäftsprozessen und deren Implementierung in Softwaresystemen bedürfen. Die Problemstellung einer adäquaten Abwägung zwischen TCO-optimierender Einführung und einer gleichzeitigen vollständigen Unterstützung der kritischen Erfolgsfaktoren des Unternehmens ist hierbei von besonderer Bedeutung. Der Einsatz integrierter betriebswirtschaftlicher Standardsoftware, mit den Möglichkeiten einer TCO-Senkung, jedoch ebenfalls der Gefahr eines Verlustes von Alleinstellungsmerkmalen am Markt durch Vereinheitlichungstendenzen, stellt ein in Einführungsprojekten wesentliches zu lösendes Problem dar, um Suboptima zu vermeiden. Die Verwendung von Vorgehensmodellen, die sich oftmals an klassischen Softwareentwicklungsprojekten orientieren oder vereinfachte Phasenmodelle für das Projektmanagement darstellen, bedingt eine fehlende Situationsadäquanz in den Detailsituationen der Teilprojekte eines komplexen Einführungsprojektes. Das in dieser Arbeit entwickelte generische Vorgehensmodell zur strategieorientierten und partizipativen Einführung komplexer Softwaresysteme im betriebswirtschaftlichen Anwendungsbereich macht - aufgrund der besonders herausgearbeiteten Ansätze zu einer strategieorientierten Einführung, respektive Entwicklung derartiger Systeme sowie aufgrund der situationsadäquaten Vorgehensstrategien im Rahmen der Teilprojektorganisation � ein Softwareeinführungsprojekt zu einem Wettbewerbsfaktor stärkenden, strategischen Element im Unternehmen. Die in der Dissertation diskutierten Überlegungen lassen eine Vorgehensweise präferieren, die eine enge Verschmelzung des Projektes zur Organisationsoptimierung mit dem Softwareimplementierungsprozess impliziert. Eine Priorisierung der Geschäftsprozesse mit dem Ziel, zum einen bei Prozessen mit hoher wettbewerbsseitiger Priorität ein organisatorisches Suboptimum zu vermeiden und zum anderen trotzdem den organisatorischen Gestaltungs- und den Systemimplementierungsprozess schnell und ressourcenschonend durchzuführen, ist ein wesentliches Ergebnis der Ausarbeitungen. Zusätzlich führt die Ausgrenzung weiterer Prozesse vom Einführungsvorgang zunächst zu einem Produktivsystem, welches das Unternehmen in den wesentlichen Punkten abdeckt, das aber ebenso in späteren Projektschritten zu einem System erweitert werden kann, welches eine umfassende Funktionalität besitzt. Hieraus ergeben sich Möglichkeiten, strategischen Anforderungen an ein modernes Informationssystem, das die kritischen Erfolgsfaktoren eines Unternehmens konsequent unterstützen muss, gerecht zu werden und gleichzeitig ein so weit als möglich ressourcenschonendes, weil die Kostenreduktionsaspekte einer Standardlösung nutzend, Projekt durchzuführen. Ein weiterer wesentlicher Aspekt ist die situationsadäquate Modellinstanziierung, also die projektspezifische Anpassung des Vorgehensmodells sowie die situationsadäquate Wahl der Vorgehensweisen in Teilprojekten und dadurch Nutzung der Vorteile der verschiedenen Vorgehensstrategien beim konkreten Projektmanagement. Der Notwendigkeit der Entwicklung einer Projektorganisation für prototypingorientiertes Vorgehen wird in diesem Zusammenhang ebenfalls Rechnung getragen. Die Notwendigkeit der Unternehmen, sich einerseits mit starken Differenzierungspotenzialen am Markt hervorzuheben und andererseits bei ständig sinkenden Margen einer Kostenoptimierung nachzukommen, lässt auch in Zukunft das entwickelte Modell als erfolgreich erscheinen. Hinzu kommt die Tendenz zu Best-Of-Breed-Ansätzen und komponentenbasierten Systemen im Rahmen der Softwareauswahl, die eine ausgesprochen differenzierte Vorgehensweise in Projekten verstärkt notwendig machen wird. Durch die in das entwickelte Modell integrierten Prototyping-Ansätze wird der auch in Zukunft an Bedeutung gewinnenden Notwendigkeit der Anwenderintegration Rechnung getragen.
Resumo:
Mobile genetische Elementen wie Transposons wurden in unbelasteten Böden nachgewiesen. Hierzu wurden unterschiedliche Ansätze gewählt: Verschiedene, unbelastete Böden wurden mittels PCR auf das Vorhandensein von Markergenen, in diesem Fall Transposasen vom Typ Tn3, Tn21 und Tn501, hin untersucht. Hierzu wurde ein System entwickelt, welches es ermöglichte die Gesamt-DNA aus verschiedensten Böden mit einem System einfach und reproduzierbar zu extrahieren und anschließend mittels PCR zu untersuchen. Die mittlere Nachweisgrenze dieses Systems lag bei 9 x 10 *3 Templates / g Boden. Ein paralleler Ansatz erfolgte, indem aus den gleichen, unbelasteten Böden Bakterien mittels Selektivmedien isoliert wurden. Diese Isolate wurden anschließend auf genetische Marker hin untersucht. Transposons, bzw. Transposasen konnten in den unbelasteten Böden in weitaus geringerer Zahl als aus belasteten Böden bekannt nachgewiesen werden. Jedoch verhielten sich die unterschiedlichen Elemente in der Verteilung wie aus belasteten Böden bekannt. Am häufigsten wurde Tn21 dann Tn501 nachgewiesen. Tn3, nach dem auch gescreent wurde, konnte nicht nachgewiesen werden. Anschließend wurden diese Böden mittels Bodensäulen unter Laborbedingungen auf die Übertragung von potentiell transponierbaren Elementen aus der autochthonen Flora hin untersucht. Mittels dieses Experimentes konnte kein transponierbares Element nachgewiesen werden. Weiterhin wurden vorhandene Boden-Bakterienkollektive auf das Vorhandensein von Transposons mittels Gensondentechnik und PCR auf Transposasen hin gescreent. Auch hier konnten wiederum Signale zu Tn21, Tn501 und in diesem Falle auch Tn3 erhalten werden. Einige dieser Isolate wurden mittels Southern-Blot und Sequenzierung näher charakterisiert. Bei den Sequenzvergleichen einer so erhaltenen 2257 bp langen Sequenz wurde diese als Transposase der Tn21-Familie mit großer Homologie zur Transposase von Tn5060 bestimmt.
Resumo:
In der vorliegenden Arbeit wird ein Unterrichtskonzept für die gymnasiale Oberstufe beschrieben, das anhand der Polarisationseigenschaft des Lichts von der Beobachtung ausgehend einen Zugang zur Quantenphysik ermöglicht. Die Unterrichtsinhalte bauen so aufeinander auf, dass ein "harter Bruch" zwischen der klassischen und der quantenphysikalischen Beschreibung von Licht vermieden wird. Das methodische Vorgehen des Unterrichtskonzeptes führt vom Phänomen ausgehend zu quantitativen Experimenten hin zu einer Einführung in quantenphysikalische Begriffe und Prinzipien. Dabei bildet der elektrische Feldvektor die Verknüpfung zwischen der klassischen und der quantenphysi-kalischen Beschreibung der Polarisationsexperimente, in dem er zunächst die Polarisationsexperimente beschreibt und im weiteren Verlauf des Unterrichtsganges als Wahrscheinlichkeitsamplitude gedeutet wird. Die Polarisation von Licht wird zu Beginn des Unterrichtsganges im Rahmen eines fächerübergreifenden Kontextes eingeführt, wobei die Navigation der Insekten nach dem polarisierten Himmelslicht als Einstieg dient. Die Erzeugung und die Eigen-schaften von polarisiertem Licht werden anhand von einfachen qualitativen Schüler- und Demonstrationsexperimenten mit Polarisationsfolien erarbeitet. Das Polarisationsphänomen der Haidinger-Büschel, das bei der Beobachtung von polarisiertem Licht wahrgenommen werden kann, ermöglicht eine Anbindung an das eigene Erleben der Schülerinnen und Schüler. Zur Erklärung dieser Experimente auf der Modellebene wird der elektrische Feldvektor und dessen Komponentenzerlegung benutzt. Im weiteren Verlauf des Unterrichtsganges wird die Komponentenzerlegung des elektrischen Feldvektors für eine quantitative Beschreibung der Polarisationsexperimente wieder aufgegriffen. In Experimenten mit Polarisationsfiltern wird durch Intensitätsmessungen das Malussche Gesetz und der quadratische Zusammenhang zwischen Intensität und elektrischem Feldvektor erarbeitet. Als Abschluss der klassischen Polarisationsexperimente wird das Verhalten von polarisiertem Licht bei Überlagerung in einem Michelson-Interferometer untersucht. Das in Abhängigkeit der Polarisationsrichtungen entstehende Interferenzmuster wird wiederum mit Hilfe der Komponentenzerlegung des elektrischen Feldvektors beschrieben und führt zum Superpositionsprinzip der elektrischen Feldvektoren. Beim Übergang zur Quantenphysik werden die bereits durchgeführten Polarisationsexperimente als Gedankenexperimente in der Photonenvorstellung gedeutet. Zur Beschreibung der Polarisation von Photonen wird der Begriff des Zustandes eingeführt, der durch die Wechselwirkung der Photonen mit dem Polarisationsfilter erzeugt wird. Das Malussche Gesetz wird in der Teilchenvorstellung wieder aufgegriffen und führt mit Hilfe der statistischen Deutung zum Begriff der Wahrscheinlichkeit. Bei der Beschreibung von Interferenzexperimenten mit einzelnen Photonen wird die Notwendigkeit eines Analogons zum elektrischen Feldvektor deutlich. Diese Betrachtungen führen zum Begriff der Wahrscheinlichkeitsamplitude und zum Superpositionsprinzip der Wahrscheinlichkeitsamplituden. Zum Abschluss des Unterrichtsganges wird anhand des Lokalisationsproblems einzelner Photonen das Fundamentalprinzip der Quantenphysik erarbeitet.
Resumo:
Während der Spermatogenese wird das Element Zink an die Sulfhydrylreste der Cysteine in den Mantelfaserproteinen der Spermienflagellen gebunden. So kann in den noch unreifen Mantelfasern die ungerichtete Ausbildung von Disulfidbrücken verhindert werden. Im Zuge der Spermatozoenreifung während der Nebenhodenpassage wird dieses Zink androgenabhängig zu einem hohen Prozentsatz wieder eliminiert. Die nun gerichtete Ausbildung von Disulfidbrücken ermöglicht die Versteifung der Mantelfasern. Diese Rigidität stellt die Voraussetzung zur progressiven Motilität dar, ohne die eine Fertilisierung der Eizelle im weiblichen Genitaltrakt nicht möglich ist. Da eine negative Korrelation zwischen dem Zinkgehalt von Flagellen und ihrer Motilität besteht (Henkel et al., 1999), hat die Zinkeliminierung während der Nebenhodenpassage eine entscheidende Bedeutung in der Entwicklung der Spermatozoen. Die vorliegende Arbeit untersucht die Mechanismen der epididymalen Zinkeliminierung sowie die an diesem Prozess beteiligten Komponenten und den Verbleib des eliminierten Zinks am System des Bullen, der Ratte und des Menschen. Mittels proteinchemischer Verfahren kann im bovinen System ein zinkbindendes 60 kDa-Protein als Albumin identifiziert werden. Ein 80 kDa-Protein mit zinkbindenden Eigenschaften bleibt unidentifiziert. Die Zinkbindungskapazität der fraktionierten Proteine ist dabei im Caput epididymidis am stärksten ausgeprägt. Atomabsorptionsspektralphotometrische Untersuchungen zeigen die höchsten flagellären Zinkwerte in den Spermien des Rete testis und eine Abnahme des Zinkgehalts zwischen Nebenhodenkopf und -körper. Durch Autometallographie kann eine epitheliale Zinkresorption im Nebenhodenschwanz nachgewiesen werden. Dort erfolgt auch die basale Anreicherung des Zinks. Am Zinkstoffwechsel scheint auch der Macrophage Migration Inhibitory Factor (MIF) beteiligt zu sein. Dieser ist ein Zytokin mit Oxidoreduktasecharakter und kommt unter anderem im Nebenhodenepithel sowie in den Vesikeln des Nebenhoden-Fluids der Ratte vor. MIF zeigt in den hier durchgeführten Untersuchungen sowohl in systemhomologer, als auch in rekombinanter Form in vitro eine Zink-eliminierende Wirkung auf Rattenspermatozoen des Caputs und der Cauda epididymidis und hat somit möglicherweise Einfluss auf den Reifungsprozess der Spermien im Nebenhoden. Lit.: Henkel R, Bittner J, Weber R, Hüther F, Miska W (1999). Relevance of zinc in human sperm flagella and its relation to motility. Fertil Steril 71: 1138-1143
Resumo:
Die in dieser Arbeit durchgeführten Untersuchungen zeigen, daß es möglich ist, komplexe thermische Systeme, unter Verwendung der thermisch-, elektrischen Analogien, mit PSpice zu simulieren. Im Mittelpunkt der Untersuchungen standen hierbei Strangkühlkörper zur Kühlung von elektronischen Bauelementen. Es konnte gezeigt werden,daß alle Wärmeübertragungsarten, (Wärmeleitung, Konvektion und Wärmestrahlung) in der Simulation berücksichtigt werden können. Für die Berechnung der Konvektion wurden verschiedene Methoden hergeleitet. Diese gelten zum einen für verschiedene Kühlkörpergeometrien, wie z.B. ebene Flächen und Kühlrippenzwischenräume, andererseits unterscheiden sie sich, je nachdem, ob freie oder erzwungene Konvektion betrachtet wird. Für die Wärmestrahlung zwischen den Kühlrippen wurden verschiedenen Berechnungsmethoden entwickelt. Für die Simulation mit PSpice wurde die Berechnung der Wärmestrahlung zwischen den Kühlrippen vereinfacht. Es konnte gezeigt werden, daß die Fehler, die durch die Vereinfachung entstehen, vernachlässigbar klein sind. Für das thermische Verhalten einer zu kühlenden Wärmequelle wurde ein allgemeines Modell entworfen. Zur Bestimmung der Modellparameter wurden verschiedene Meßverfahren entwickelt. Für eine im Fachgebiet Elektromechanik entwickelte Wärmequelle zum Test von Kühlvorrichtungen wurde mit Hilfe dieser Meßverfahren eine Parameterbestimmung durchgeführt. Die Erstellung des thermischen Modells eines Kühlkörpers für die Simulation in PSpice erfordert die Analyse der Kühlkörpergeometrie. Damit diese Analyse weitestgehend automatisiert werden kann, wurden verschiedene Algorithmen unter Matlab entwickelt. Es wurde ein Algorithmus entwickelt, der es ermöglicht, den Kühlkörper in Elementarzellen zu zerlegen, die für die Erstellung des Simulationsmodells benötigt werden. Desweiteren ist es für die Simulation notwendig zu wissen, welche der Elementarzellen am Rand des Kühlkörpers liegen, welche der Elementarzellen an einem Kühlrippenzwischenraum liegen und welche Kühlkörperkanten schräg verlaufen. Auch zur Lösung dieser Aufgaben wurden verschiedene Algorithmen entwickelt. Diese Algorithmen wurden zu einem Programm zusammengefaßt, das es gestattet, unterschiedliche Strangkühlkörper zu simulieren und die Simulationsergebnisse in Form der Temperaturverteilung auf der Montagefläche des Kühlkörpers grafisch darzustellen. Es können stationäre und transiente Simulationen durchgeführt werden. Desweiteren kann der thermische Widerstand des Kühlkörpers RthK als Funktion der Verlustleistung der Wärmequelle dargestellt werden. Zur Verifikation der Simulationsergebnisse wurden Temperaturmessungen an Kühlkörpern durchgeführt und mit den Simulationsergebnissen verglichen. Diese Vergleiche zeigen, daß die Abweichungen im Bereich der Streuung der Temperaturmessung liegen. Das hier entwickelte Verfahren zur thermischen Simulation von Strangkühlkörpern kann somit als gut bewertet werden.
Resumo:
Die wachsende Weltbevölkerung bedingt einen höheren Energiebedarf, dies jedoch unter der Beachtung der nachhaltigen Entwicklung. Die derzeitige zentrale Versorgung mit elektrischer Energie wird durch wenige Erzeugungsanlagen auf der Basis von fossilen Primärenergieträgern und Kernenergie bestimmt, die die räumlich verteilten Verbraucher zuverlässig und wirtschaftlich über ein strukturiertes Versorgungssystem beliefert. In den Elektrizitätsversorgungsnetzen sind keine nennenswerten Speicherkapazitäten vorhanden, deshalb muss die von den Verbrauchern angeforderte Energie resp. Leistung jederzeit von den Kraftwerken gedeckt werden. Bedingt durch die Liberalisierung der Energiemärkte und die geforderte Verringerung der Energieabhängigkeit Luxemburgs, unterliegt die Versorgung einem Wandel hin zu mehr Energieeffizienz und erhöhter Nutzung der dargebotsabhängigen Energiequellen. Die Speicherung der aus der Windkraft erzeugten elektrischen Energie, wird in den Hochleistungs-Bleiakkumulatoren, errichtet im ländlichen Raum in der Nähe der Windkraftwerke, eingespeichert. Die zeitversetzte Einspeisung dieser gespeicherten elektrischen Energie in Form von veredelter elektrischer Leistung während den Lastspitzen in das 20 kV-Versorgungsnetz der CEGEDEL stellt die Innovation in der luxemburgischen Elektrizitätsversorgung dar. Die Betrachtungen beschränken sich somit auf die regionale, relativ kleinräumige Einbindung der Windkraft in die elektrische Energieversorgung des Großherzogtums Luxemburg. Die Integration der Windkraft im Regionalbereich wird in den Vordergrund der Untersuchung gerückt. Überregionale Ausgleichseffekte durch Hochspannungsleitungen der 230/400 kV-Systeme werden außer Acht gelassen. Durch die verbrauchernahe Bereitstellung von elektrischer Spitzenleistung vermindern sich ebenfalls die Übertragungskosten aus den entfernten Spitzenlastkraftwerken, der Ausbau von Kraftwerkskapazitäten kann in die Zukunft verschoben werden. Die Emission von Treibhausgasen in thermischen Kraftwerken wird zum Teil reduziert. Die Berechnungen der Wirtschaftlichkeit von Hybridanlagen, zusammengesetzt aus den Windkraftwerken und den Hochleistungs-Bleiakkumulatoren bringen weitere Informationen zum Einsatz dieser dezentralen Speichern, als Partner der nachhaltigen Energieversorgung im ländlichen Raum. Die untersuchte Einspeisung von erneuerbarer Spitzenleistung lässt sich auch in die Entwicklungsländer übertragen, welche nicht über zentrale Kraftwerkskapazitäten und Verteilungsnetze verfügen.
Resumo:
Zur Modellierung von Vergasungs- und Verbrennungsprozessen zur energetischen Nutzung von Biomasse ist die Kenntnis von reaktionskinetischen Daten für die Sauerstoff-Oxidation von Biomassepyrolysaten erforderlich. Eine ausführliche Literaturübersicht zeigt den Stand der Forschung bezüglich der experimentellen Ermittlung von reaktionskinetischen Parametern für die Oxidation von Pyrolysaten aus Lignin, Cellulose und pflanzlicher Biomasse sowie der Suche nach einem plausiblen Reaktionsmechanismus für die Reaktion von Sauerstoff mit festen Kohlenstoffmaterialien. Es wird eine Versuchsanlage mit einem quasistationär betriebenen Differentialreaktor konstruiert, die eine Messung der Reaktionskinetik und der reaktiven inneren Oberfläche (RSA) für die Reaktion eines Pyrolysats aus Maispflanzen mit Sauerstoff ermöglicht. Die getrockneten und zerkleinerten Maispflanzen werden 7 Minuten lang bei 1073 K in einem Drehrohrofen pyrolysiert. Das Pyrolysat zeichnet sich vor allem durch seine hohe Porosität von über 0,9 und seinen hohen Aschegehalt von 0,24 aus. Die RSA wird nach der Methode der Messung von Übergangskinetiken (TK) bestimmt. Die Bestimmung der RSA erfolgt für die Reaktionsprodukte CO und CO2 getrennt, für die entsprechend ermittelten Werte werden die Bezeichnungen CO-RSA und CO2-RSA eingeführt. Die Abhängigkeit dieser Größen von der Sauerstoffkonzentration läßt sich durch eine Langmuir-Isotherme beschreiben, ebenso das leichte Absinken der CO-RSA mit der Kohlendioxidkonzentration. Über dem Abbrand zeigen sich unterschiedliche Verläufe für die CO-RSA, CO2-RSA und die innere Oberfläche nach der BET-Methode. Zur Charakterisierung der Oberflächenzwischenprodukte werden temperaturprogrammierte Desorptionsversuche (TPD) durchgeführt. Die Ergebnisse zeigen, daß eine Unterscheidung in zwei Kohlenstoff-Sauerstoff-Oberflächenkomplexe ausreichend ist. Die experimentellen Untersuchungen zum Oxidationsverlauf werden im kinetisch bestimmten Bereich durchgeführt. Dabei werden die Parameter Temperatur, Sauerstoff-, CO- und CO2-Konzentration variiert. Anhand der Ergebnisse der reaktionskinetischen Untersuchungen wird ein Reaktionsmechanismus für die Kohlenstoff-Sauerstoff-Reaktion entwickelt. Dieser Reaktionsmechanismus umfaßt 7 Elementarreaktionen, für welche die reaktionskinetischen Parameter numerisch ermittelt werden. Darüber hinaus werden reaktionskinetische Parameter für einfachere massenbezogene Reaktionsgeschwindigkeitsansätze berechnet und summarische Reaktionsgeschwindigkeitsansätze für die Bildung von CO und CO2 aus dem Reaktionsmechanismus hergeleitet.
Resumo:
Die Verwendung von Aktivkohlen und -koksen stellt eine Alternative zu herkömmlichen Prozessen zur Verminderung der NOx-Emissionen in Rauchgasen dar. An diesen Materialien wird Stickstoffmonoxid adsorbiert und katalytisch zu N2 reduziert. Eine einheitliche Erklärung über die ablaufenden Vorgänge und die Reaktionsmechanismen gibt es noch nicht. Die Ergebnisse der bisher veröffentlichten wissenschaftlichen Arbeiten sind sehr unterschiedlich, wenn nicht sogar widersprüchlich. In dieser Arbeit wird, anhand der Messung von NO-Durchbruchskurven und thermischen Desorptionsspektren, die Adsorption und Reaktion von Stickstoffmonoxid an Aktivkohlen und -koksen in Anwesenheit von Sauerstoff und Wasserdampf untersucht. Zur Durchführung der experimentellen Untersuchungen wird eine Versuchsanlage, bestehend aus einer Vorrichtung zur Gasgemischaufbereitung, einem Festbettreaktor und einer Gasanalytik, konzipiert und aufgebaut. Die Untersuchungen erfolgen bei Temperaturen zwischen 100 und 150 °C. Die NO-, O2- und H2O-Konzentrationen werden anhand der Rauchgaszusammensetzung kohlegefeuerter Kraftwerke gewählt. Die experimentellen Untersuchungen konzentrieren sich auf die Verwendung einer Aktivkohle aus Ölpalmschalen, die in einem Drehrohrreaktor am Institut für Thermische Energietechnik der Universität Kassel hergestellt wurde. Die experimentellen Ergebnisse zeigen, dass während des Prozesses NO-Adsorption, -Reduktion und -Oxidation, NO2-Bildung, -Adsorption und -reduktive Desorption, H2O-Adsorption sowie O2-Vergasung gleichzeitig stattfinden. Bei niedrigen Temperaturen werden die NO2-Bildung und die Adsorption bevorzugt. Die NO-Reduktion läuft über adsorbiertes NO mit CO2- und CO-Bildung. Durch O2-Vergasung werden aktive freie Cf-Plätzen für die NO-Reaktion und -Adsorption gebildet. Wasserdampf wird an der Aktivkohle adsorbiert und belegt aktive Plätze für diese Prozesse. Aus den experimentellen Ergebnissen werden kinetische und Gleichgewichtsparameter der NO-Sorption bestimmt. Ein vereinfachtes mathematisches Modell des Festbettreaktors, das zur Berechnung der NO-Durchbruchskurven bei unterschiedlichen Temperaturen dient, wird aufgestellt.