136 resultados para Helizitätsmethode, Subtraktionsmethode, Numerische Methoden


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Der SPNV als Bestandteil des ÖPNV bildet einen integralen Bestandteil der öffentlichen Daseinsvorsorge. Insbesondere Flächenregionen abseits urbaner Ballungszentren erhalten durch den SPNV sowohl ökonomisch als auch soziokulturell wichtige Impulse, so dass die Zukunftsfähigkeit dieser Verkehrsart durch geeignete Gestaltungsmaßnahmen zu sichern ist. ZIELE: Die Arbeit verfolgte das Ziel, derartige Gestaltungsmaßnahmen sowohl grundlagentheoretisch herzuleiten als auch in ihrer konkreten Ausformung für die verkehrswirtschaftliche Praxis zu beschreiben. Abgezielt wurde insofern auf strukturelle Konzepte als auch praktische Einzelmaßnahmen. Der Schwerpunkt der Analyse erstreckte sich dabei auf Deutschland, wobei jedoch auch verkehrsbezogene Privatisierungserfahrungen aus anderen europäischen Staaten und den USA berücksichtigt wurden. METHODEN: Ausgewertet wurden deutschsprachige als auch internationale Literatur primär verkehrswissenschaftlicher Ausrichtung sowie Fallbeispiele verkehrswirtschaftlicher Privatisierung. Darüber hinaus wurden Entscheidungsträger der Deutschen Bahn (DB) und DB-externe Eisenbahnexperten interviewt. Eine Gruppe 5 DB-interner und 5 DB-externer Probanden nahm zusätzlich an einer standardisierten Erhebung zur Einschätzung struktureller und spezifischer Gestaltungsmaßnahmen für den SPNV teil. ERGEBNISSE: In struktureller Hinsicht ist die Eigentums- und Verfügungsregelung für das gesamte deutsche Bahnwesen und den SPNV kritisch zu bewerten, da der dominante Eisenbahninfrastrukturbetreiber (EIU) in Form der DB Netz AG und die das Netz nutzenden Eisenbahnverkehrs-Unternehmen (EVUs, nach wie vor zumeist DB-Bahnen) innerhalb der DB-Holding konfundiert sind. Hieraus ergeben sich Diskriminierungspotenziale vor allem gegenüber DB-externen EVUs. Diese Situation entspricht keiner echten Netz-Betriebs-Trennung, die wettbewerbstheoretisch sinnvoll wäre und nachhaltige Konkurrenz verschiedener EVUs ermöglichen würde. Die seitens der DB zur Festigung bestehender Strukturen vertretene Argumentation, wonach Netz und Betrieb eine untrennbare Einheit (Synergie) bilden sollten, ist weder wettbewerbstheoretisch noch auf der Ebene technischer Aspekte akzeptabel. Vielmehr werden durch die gegenwärtige Verquickung der als Quasimonopol fungierenden Netzebene mit der Ebene der EVU-Leistungen Innovationspotenziale eingeschränkt. Abgesehen von der grundsätzlichen Notwendigkeit einer konsequenten Netz-Betriebs-Trennung und dezentraler Strukturen sind Ausschreibungen (faktisch öffentliches Verfahren) für den Betrieb der SPNV-Strecken als Handlungsansatz zu berücksichtigen. Wettbewerb kann auf diese Weise gleichsam an der Quelle einer EVU-Leistung ansetzen, wobei politische und administrative Widerstände gegen dieses Konzept derzeit noch unverkennbar sind. Hinsichtlich infrastruktureller Maßnahmen für den SPNV ist insbesondere das sog. "Betreibermodell" sinnvoll, bei dem sich das übernehmende EIU im Sinne seiner Kernkompetenzen auf den Betrieb konzentriert. Die Verantwortung für bauliche Maßnahmen sowie die Instandhaltung der Strecken liegt beim Betreiber, welcher derartige Leistungen am Markt einkaufen kann (Kostensenkungspotenzial). Bei Abgabeplanungen der DB Netz AG für eine Strecke ist mithin für die Auswahl eines Betreibers auf den genannten Ausschreibungsmodus zurückzugreifen. Als kostensenkende Einzelmaßnahmen zur Zukunftssicherung des SPNV werden abschließend insbesondere die Optimierung des Fahrzeugumlaufes sowie der Einsatz von Triebwagen anstatt lokbespannter Züge und die weiter forcierte Ausrichtung auf die kundenorientierte Attraktivitätssteigerung des SPNV empfohlen. SCHLUSSFOLGERUNGEN: Handlungsansätze für eine langfristige Sicherung des SPNV können nicht aus der Realisierung von Extrempositionen (staatlicher Interventionismus versus Liberalismus) resultieren, sondern nur aus einem pragmatischen Ausgleich zwischen beiden Polen. Dabei erscheint eine Verschiebung hin zum marktwirtschaftlichen Pol sinnvoll, um durch die Nutzung wettbewerbsbezogener Impulse Kostensenkungen und Effizienzsteigerungen für den SPNV herbeizuführen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Seit der Schuldenkrise im Jahre 1982, aber auch bei Schuldenkrisen neuern Datums, wie der "Russlandkrise" oder der Schuldenkrise der "Tigerstaaten", bleibt die Frage nach den Ursachen, Konsequenzen und Strategien der Problemlösung für eine Staatsverschuldung ein aktuelles Thema. Der Schwerpunkt der Arbeit wird durch die Problematisierung der Kreditverwendung in den Schuldnerländern und mit einer Fehlallokation der im Ausland aufgenommenen Kreditmittel einhergehenden Risiken für Kreditnehmer gebildet. Der zweite Schwerpunkt der Arbeit ist die Suche nach Lösungsansätzen für spezifische Schuldenprobleme der arabischen Staaten. Auch wird in der vorliegenden Arbeit die Kreditwürdigkeit und Kreditfinanzierungseffektivität im Verbund betrachtet. Das entwickelte Punkteschema zum Kreditrating arabischer Länder scheint eine ausbaufähige Alternative zu bekannten Rating-Methoden zu sein. Welche Möglichkeiten bestehen, die Effektivität der Kreditfinanzierung durch Risiko-Managementmaßnahmen zu erhöhen, wird auch untersucht.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Intrinsisch leitfähige Polymere sind durch eine Reihe materialspezifischer Eigenschaften gekennzeichnet. In Abhängigkeit des angelegten Potenzials und der chemischen Umgebung zeigen sie elektrochromes Verhalten, Veränderungen der Masse, des Volumens und der elektronischen Leitfähigkeit. Basierend auf diesen Eigenschaften eignen sich halbleitende organische Polymere als funktionales Material für Anwendungen in der Mikro- und Nanotechnologie, insbesondere für miniaturisierte chemische Sensoren und Aktoren. Im Gegensatz zu konventionellen Piezo-Aktoren operieren diese Aktoren z. B. bei Spannungen unterhalb 1 V. Diese Arbeit befasst sich mit den elektrochemomechanischen Eigenschaften der ausgewählten Polymere Polyanilin und Polypyrrol, d. h. mit den potenzialkontrollierten Veränderungen des Volumens, der Struktur und der mechanischen Eigenschaften. Bei diesem Prozess werden positive Ladungen innerhalb der Polymerphase generiert. Um die für den Ladungsausgleich benötigten Gegenionen bereitzustellen, werden alle Messungen in Anwesenheit eines wässrigen Elektrolyten durchgeführt. Der Ladungstransport und die Volumenänderungen werden mit den Methoden der zyklischen Voltammetrie, der elektrochemischen Quarzmikrowaage und der Rastersondenmikroskopie untersucht. Signifikante Ergebnisse können für dünne homogene Polymerschichten erhalten werden, wobei Schichtdicken oberhalb 150 nm aufgrund der insbesondere bei Polyanilin einsetzenden Bildung von Fadenstrukturen (Fibrillen) vermieden werden. Von besonderem Interesse im Rahmen dieser Arbeit ist die Kombination der funktionalen Polymere mit Strukturen auf Siliziumbasis, insbesondere mit mikrostrukturierten Cantilevern. Die zuvor erhaltenen Ergebnisse bilden die Grundlage für das Design und die Dimensionierung der Mikroaktoren. Diese bestehen aus Siliziumcantilevern, die eine Elektrodenschicht aus Gold oder Platin tragen. Auf der Elektrode wird mittels Elektrodeposition eine homogene Schicht Polymer mit Schichtdicken bis zu 150 nm aufgebracht. Die Aktorcharakteristik, die Biegung des Cantilevers aufgrund des angelegten Potenzials, wird mit dem aus der Rastersondenmikroskopie bekannten Lichtzeigerverfahren gemessen. Das Aktorsystem wird hinsichtlich des angelegten Potenzials, des Elektrolyten und der Redox-Kinetik charakterisiert. Die verschiedenen Beiträge zum Aktorverhalten werden in situ während des Schichtwachstums untersucht. Das beobachtete Verhalten kann als Superposition verschiedener Effekte beschrieben werden. Darunter sind die Elektrodenaufladung (Elektrokapillarität), die Veränderungen der Elektrodenoberfläche durch dünne Oxidschichten und die Elektrochemomechanik des Polymers.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Am Institut für Mikrostrukturtechnologie und Analytik wurde eine neue Technik entwickelt, die neue Anwendungen und Methoden der Mikro- und Nanostrukturierung auf Basis eines neuen Verfahrens erschlossen hat. NANOJET führt über die passive Rastersondenmikroskopie hinaus zu einem vielseitigen, aktiven Bearbeitungswerkzeug auf der Mikro- und Nanometerskala. NANOJET (NANOstructuring Downstream PlasmaJET) ist eine aktive Rasterkraft-Mikroskopie-Sonde. Radikale (chemisch aktive Teilchen, die ein ungepaartes Valenzelektron besitzen) strömen aus dem Ende einer ultradünnen, hohlen Rasterkraftmikroskop-Spitze. Dadurch wird es möglich, über die übliche passive Abtastung einer Probenoberfläche hinausgehend, diese simultan und in-situ durch chemische Reaktionen zu verändern. Die Abtragung von Material wird durch eine chemische Ätzreaktion erreicht. In dieser Arbeit wurde zum größten Teil Photoresist als Substrat für die Ätzexperimente verwendet. Für das Ätzen des Resists wurden die Atome des Fluors und des Sauerstoffs im Grundzustand als verantwortlich identifiziert. Durch Experimente und durch Ergänzung von Literaturdaten wurde die Annahme bestätigt, dass Sauerstoffradikale mit Unterstützung von Fluorradikalen für die hohen erzielten Ätzraten verantwortlich sind. Die Beimischung von Fluor in einem Sauerstoffplasma führt zu einer Verringerung der Aktivierungsenergie für die Ätzreaktion gegenüber Verwendung reinen Sauerstoffs. In weiterer Folge wurde ein Strukturierungsverfahren dargestellt. Hierbei wurden "geformte Kapillaren" (mikrostrukturierte Aperturen) eingesetzt. Die Herstellung der Aperturen erfolgte durch einen elektrochemischen Ätzstop-Prozess. Die typische Größe der unter Verwendung der "geformten Kapillaren" geätzten Strukturen entsprach den Kapillarenöffnungen. Es wurde ein Monte-Carlo Simulationsprogramm entwickelt, welches den Transport der reaktiven Teilchen in der langen Transportröhre simulierte. Es wurde sowohl die Transmission der Teilchen in der Transportröhre und der Kapillare als auch ihre Winkelverteilung nach dem Verlassen der Kapillare berechnet. Das Aspektverhältnis der Röhren hat dabei einen sehr starken Einfluss. Mit einem steigenden Aspektverhältnis nahm die Transmission exponentiell ab. Die geschaffene experimentelle Infrastruktur wurde genutzt, um auch biologische Objekte zu behandeln und zu untersuchen. Hierfür wurde eine neue Methodik entwickelt, die eine dreidimensionale Darstellung des Zellinneren erlaubt. Dies wurde durch die kontrollierte Abtragung von Material aus der Zellmembran durchgeführt. Die Abtragung der Zellmembran erfolgte mittels Sauerstoffradikalen, die durch eine hohle Spitze lokalisiert zum Ort der Reaktion transportiert wurden. Ein piezoresistiver Cantilever diente als Sensor in dem zur Bildgebung eingesetzten RKM. Das entwickelte Verfahren ermöglicht es nun erstmals, schonend Zellen zu öffnen und die innen liegenden Organellen weiter zu untersuchen. Als Nachweis für weitere Verwendungsmöglichkeiten des NANOJET-Verfahrens wurde auch Knochenmaterial behandelt. Die Ergebnisse dieser Experimente zeigen klar, dass das Verfahren für vielfältige biologische Materialien verwendbar ist und somit nun ein weiter Anwendungskreis in der Biologie und Medizin offen steht.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In dünnen Schichtsystemen, in denen es Grenzflächen zwischen antiferromagnetischen (AF) und ferromagnetischen (FM) Bereichen gibt, kann eine unidirektionale magnetische Anisotropie beobachtet werden: die Austauschanisotropie, auch "Exchange-Bias Effekt" genannt. Die Austauschanisotropie ist die Folge einer magnetischen Kopplung zwischen AF und FM. Makroskopisch äußert sich diese Anisotropie in einer Verschiebung der Magnetisierungskurve entlang der Magnetfeldachse. Anwendung findet die Austauschanisotropie z. B. in Spin-Valve Sensoren, deren Funktionsprinzip auf dem Riesen-Magnetowiderstand (engl. giant magnetoresistance, GMR) beruht. Die (thermische) Stabilität der Austauschanisotropie ist eine wichtige Voraussetzung für technische Anwendungen. Im Rahmen dieser Arbeit wurde untersucht, durch welche Materialeigenschaften die Austauschanisotropie in Schichtsystemen mit antiferromagnetischem Nickeloxid (NiO) bestimmt wird. Die Schichten wurden durch (reaktive) Kathodenzerstäubung hergestellt. Durch Variation der Depositionsbedingungen wurden Zusammensetzung und Struktur der NiO-Schichten verändert. Die Ergebnisse systematischer Analysen dieser Größen werden aufgeführt. Der Vergleich dieser Materialanalysen mit magnetischen Messungen an NiO/NiFe Schichtsystemen fšuhrt zu dem Ergebnis, dass die chemische Zusammensetzung und die Struktur der NiO-Schichten die thermische Stabilität der Austauschanisotropie entscheidend beeinflussen. Es wird zusätzlich gezeigt, dass die Stabilität der Austauschanisotropie durch einen Temperprozess im Anschluss an die Herstellung der Schichtsysteme entscheidend verbessert werden kann. Thermisch aktivierte, magnetische Relaxationsprozesse können außerdem zur Erhöhung der Austauschanisotropie führen. Des Weiteren werden zwei neuartige Methoden zur Modifizierung der Austauschanisotropie vorgestellt. Dabei wird gezeigt, dass durch die Bestrahlung der Schichtsysteme mit Helium-Ionen die magnetischen Eigenschaften der Schichtsysteme gezielt verändert und optimiert werden können. Der Einfluss der Ionenbestrahlung auf die Austauschanisotropie in NiO/NiFe Schichtsystemen und auf den Magnetowiderstand in FeMn basierten Spin-Valves steht dabei im Vordergrund der experimentellen Untersuchungen. Eine weitere Möglichkeit zur Modifizierung der Austauschanisotropie ist die Bestrahlung der Schichtsysteme mit kurzen Laserpulsen. Durch einen thermomagnetischen Prozess kann die Austauschanisotropie lokal verändert werden. Experimentelle Ergebnisse von diesem hier erstmals verwendeten Verfahren werden vorgestellt und interpretiert. Mit den beiden genannten Methoden ist es möglich, die Eigenschaften der Austauschanisotropie in Schichtsystemen nachträglich gezielt zu modifizieren.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ein neuartiges, mehrstufiges Syntheseverfahren wurde zur Darstellung von unterschiedlichen Stärkederivaten (Ether und Ester) entwickelt, die hinsichtlich ihres Eigenschaftsprofils und ihrer Reinheit für die klinische Anwendung als Blutvolumenersatzmittel geeignet sind. Die Synthesen wurden dahingehend gestaltet, dass Produkte mit einer hohen Regioselektivität resultierten. Dabei konnten sämtliche Reaktionsschritte, die zur Modifikation der ursprünglich eingesetzten Wachsmais- und Kartoffelstärken notwendig waren, in einem homogenen, wäss-rigen System ohne zwischenzeitliche Aufarbeitung in einem Eintopfverfahren durchgeführt werden. Die auf diese Weise bevorzugt synthetisierten Carboxymethylstärken wurden mit NMR-spektroskopischen Methoden und GPC-MALLS strukturell eingehend charakterisiert. Mit eigens entwickelten Enzym-Assays konnten essentielle Informationen über die physiolo-gische Wirksamkeit der verschiedenen Stärkederivate in vitro gewonnen werden. Die Ergebnisse konnten mit Untersuchungen an Humanblut verifiziert werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ausgangspunkt der Dissertation ist ein von V. Maz'ya entwickeltes Verfahren, eine gegebene Funktion f : Rn ! R durch eine Linearkombination fh radialer glatter exponentiell fallender Basisfunktionen zu approximieren, die im Gegensatz zu den Splines lediglich eine näherungsweise Zerlegung der Eins bilden und somit ein für h ! 0 nicht konvergentes Verfahren definieren. Dieses Verfahren wurde unter dem Namen Approximate Approximations bekannt. Es zeigt sich jedoch, dass diese fehlende Konvergenz für die Praxis nicht relevant ist, da der Fehler zwischen f und der Approximation fh über gewisse Parameter unterhalb der Maschinengenauigkeit heutiger Rechner eingestellt werden kann. Darüber hinaus besitzt das Verfahren große Vorteile bei der numerischen Lösung von Cauchy-Problemen der Form Lu = f mit einem geeigneten linearen partiellen Differentialoperator L im Rn. Approximiert man die rechte Seite f durch fh, so lassen sich in vielen Fällen explizite Formeln für die entsprechenden approximativen Volumenpotentiale uh angeben, die nur noch eine eindimensionale Integration (z.B. die Errorfunktion) enthalten. Zur numerischen Lösung von Randwertproblemen ist das von Maz'ya entwickelte Verfahren bisher noch nicht genutzt worden, mit Ausnahme heuristischer bzw. experimenteller Betrachtungen zur sogenannten Randpunktmethode. Hier setzt die Dissertation ein. Auf der Grundlage radialer Basisfunktionen wird ein neues Approximationsverfahren entwickelt, welches die Vorzüge der von Maz'ya für Cauchy-Probleme entwickelten Methode auf die numerische Lösung von Randwertproblemen überträgt. Dabei werden stellvertretend das innere Dirichlet-Problem für die Laplace-Gleichung und für die Stokes-Gleichungen im R2 behandelt, wobei für jeden der einzelnen Approximationsschritte Konvergenzuntersuchungen durchgeführt und Fehlerabschätzungen angegeben werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die in dieser Arbeit durchgeführten Untersuchungen zeigen, daß es möglich ist, komplexe thermische Systeme, unter Verwendung der thermisch-, elektrischen Analogien, mit PSpice zu simulieren. Im Mittelpunkt der Untersuchungen standen hierbei Strangkühlkörper zur Kühlung von elektronischen Bauelementen. Es konnte gezeigt werden,daß alle Wärmeübertragungsarten, (Wärmeleitung, Konvektion und Wärmestrahlung) in der Simulation berücksichtigt werden können. Für die Berechnung der Konvektion wurden verschiedene Methoden hergeleitet. Diese gelten zum einen für verschiedene Kühlkörpergeometrien, wie z.B. ebene Flächen und Kühlrippenzwischenräume, andererseits unterscheiden sie sich, je nachdem, ob freie oder erzwungene Konvektion betrachtet wird. Für die Wärmestrahlung zwischen den Kühlrippen wurden verschiedenen Berechnungsmethoden entwickelt. Für die Simulation mit PSpice wurde die Berechnung der Wärmestrahlung zwischen den Kühlrippen vereinfacht. Es konnte gezeigt werden, daß die Fehler, die durch die Vereinfachung entstehen, vernachlässigbar klein sind. Für das thermische Verhalten einer zu kühlenden Wärmequelle wurde ein allgemeines Modell entworfen. Zur Bestimmung der Modellparameter wurden verschiedene Meßverfahren entwickelt. Für eine im Fachgebiet Elektromechanik entwickelte Wärmequelle zum Test von Kühlvorrichtungen wurde mit Hilfe dieser Meßverfahren eine Parameterbestimmung durchgeführt. Die Erstellung des thermischen Modells eines Kühlkörpers für die Simulation in PSpice erfordert die Analyse der Kühlkörpergeometrie. Damit diese Analyse weitestgehend automatisiert werden kann, wurden verschiedene Algorithmen unter Matlab entwickelt. Es wurde ein Algorithmus entwickelt, der es ermöglicht, den Kühlkörper in Elementarzellen zu zerlegen, die für die Erstellung des Simulationsmodells benötigt werden. Desweiteren ist es für die Simulation notwendig zu wissen, welche der Elementarzellen am Rand des Kühlkörpers liegen, welche der Elementarzellen an einem Kühlrippenzwischenraum liegen und welche Kühlkörperkanten schräg verlaufen. Auch zur Lösung dieser Aufgaben wurden verschiedene Algorithmen entwickelt. Diese Algorithmen wurden zu einem Programm zusammengefaßt, das es gestattet, unterschiedliche Strangkühlkörper zu simulieren und die Simulationsergebnisse in Form der Temperaturverteilung auf der Montagefläche des Kühlkörpers grafisch darzustellen. Es können stationäre und transiente Simulationen durchgeführt werden. Desweiteren kann der thermische Widerstand des Kühlkörpers RthK als Funktion der Verlustleistung der Wärmequelle dargestellt werden. Zur Verifikation der Simulationsergebnisse wurden Temperaturmessungen an Kühlkörpern durchgeführt und mit den Simulationsergebnissen verglichen. Diese Vergleiche zeigen, daß die Abweichungen im Bereich der Streuung der Temperaturmessung liegen. Das hier entwickelte Verfahren zur thermischen Simulation von Strangkühlkörpern kann somit als gut bewertet werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ziel der vorliegenden Arbeit war es, Lebensmittelqualität am Beispiel von Speisequark aus hofeigener und industrieller Verarbeitung mit natur- und kulturwissenschaftlichen Methoden zu erfassen bzw. zu betrachten. Das Neue dieser interdisziplinären Arbeit lag in der Entwicklung von Verbindungen zwischen hedonischen/sensorischen, ökologischen und kulturellen Qualitäten von Speisequark. Im zweiten Teil der Arbeit wurde eine sensorische Schulung für die hofeigene Milchverarbeitung entwickelt und erprobt, um die Ergebnisse dieser Arbeit in die Praxis umzusetzen. Zuerst musste ein theoretischer Ansatz entwickelt werden, der die Esshandlungen der Verbraucher als Integrationsmoment von objektiven, subjektiven und sozial-kulturellen Qualitäten betrachtet. Bei diesem handlungstheoretischen Ansatz galt es, die Trennung zwischen objektiven und subjektiven Qualitäten zu überwinden, indem über Esshandlungen der Verbraucher integrierte Verbindungen zwischen hedonischen/sensorischen, ökologischen und kulturellen Qualitäten am Beispiel von Speisequark entwickelt wurden. Als empirische Grundlage wurde erstens die sensorische Qualität mit Profilprüfungen erfasst. Zweitens wurde die ökologische Qualität mit einer Verbraucherumfrage und Conjoint-Analyse und drittens die kulturelle Qualität mit einer semiotischen Analyse betrachtet. Die diskursiven Begründungen des Esshandelns, die in ermittelnden Gruppendiskussionen qualitativ erhoben wurden, zeigten deutlich, dass diese drei Qualitäten des Hofquarks untrennbar miteinander verbunden sind. Der komplexe Begriff authentisch, mit dem die Verbraucher Hofquark charakterisierten, beinhaltete vor allem den Geschmack, aber auch die damit verbundene handwerkliche Herstellungsweise, die Verpackung, die regionale Herkunft und die ökologische Anbauweise. Hofquark ist aus Verbrauchersicht ein gutes Lebensmittel, das seine besondere Bedeutung (kulturellen Wert) auch dadurch erhält, was es nicht ist, nämlich ein industrielles Molkereiprodukt. Der neue natur- und kulturwissenschaftliche Ansatz dieser Arbeit stellt gleichzeitig ein Plädoyer für eine mehrdimensionale Qualitätsbetrachtung von Lebensmitteln dar. Aus interdisziplinärer Sicht besteht hierzu noch ein großer Forschungsbedarf.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Im Vordergrund der Arbeit stand die Erfassung der mikrobiellen Biomasse bzw. Residualmasse an der Wurzeloberfläche, im Rhizosphärenboden und im umgebenden Boden. Durch den Vergleich von verschiedenen Methoden zur Erfassung der mikrobiellen Biomasse wurden die Gehalte von pilzlichem und bakteriellem Kohlenstoff an der Rhizoplane und in der Rhizosphäre quantifiziert. Dabei wurde die Fumigations-Extraktions-Methode zur Erfassung der mikrobiellen Biomasse eingesetzt. Ergosterol diente als Indikator für die pilzliche Biomasse und die Aminozucker Glucosamin und Muraminsäure sollten Aufschluss geben über die bakterielle und pilzliche Biomasse bzw. Residualmasse in den drei Probenfraktionen. Dazu wurden Umrechnungsfaktoren erstellt, die zur Berechnung des bakteriellen und pilzlichen Kohlenstoffs aus den Gehalten von Muraminsäure und Pilz-Glucosamin dienten. Die Bestimmung von Aminozuckern wurde insoweit modifiziert, dass sowohl in Boden- als auch in Wurzelhydrolysaten die Messung von Glucosamin, Galactosamin, Muraminsäure und Mannosamin gleichzeitig als automatisiertes Standardverfahren mit Hilfe der HPLC erfolgen konnte. Es wurden drei Gefäßversuche durchgeführt: Im ersten Versuch wurde der Einfluss der Pflanzenart auf die mikrobielle Besiedlung der Wurzeloberflächen untersucht. Dabei wurden Wurzeln und Rhizosphärenboden von 15 verschiedenen Pflanzenarten miteinander verglichen. Im zweiten Versuch stand der Einfluss der mikrobiellen Biomasse eines Bodens auf die mikrobielle Besiedlung von Wurzeloberflächen im Vordergrund. Deutsches Weidelgras (Lolium perenne L.) wurde auf sieben verschiedenen Böden angezogen. Bei den Böden handelte es sich um sechs Oberböden, die sich hinsichtlich des Bodentyps und der Bewirtschaftungsform voneinander unterschieden, und einen Unterboden. Im dritten Versuch wurde die mikrobielle Besiedlung von Wurzeln nach teilweiser und vollständiger Entfernung der oberirdischen Biomasse beobachtet. Welsches Weidelgras (Lolium multiflorum Lam.) wurde 24 Tage nach der Aussaat beschnitten. Anschließend wurde über einen Versuchszeitraum von acht Tagen die mikrobielle Besiedlung an den Wurzeln und in den Bodenfraktionen bestimmt. Es bestätigte sich, dass der Einfluss der einzelnen Pflanzenart von entscheidender Bedeutung für die mikrobielle Besiedlung von Wurzeln ist. Bei fast allen Pflanzen wurde die mikrobielle Biomasse an den Wurzeln von Pilzen dominiert. Das Verhältnis von pilzlichem zu bakteriellem Kohlenstoff an den Wurzeln der 15 Pflanzenarten lag im Mittel bei 2,6. Bei der Betrachtung verschiedener Böden zeigte sich, dass die mikrobielle Besiedlung in tieferen Bodenschichten signifikant niedriger ist als in den Oberböden. Dabei war der Pilzanteil an der mikrobiellen Biomasse im Unterboden deutlich erhöht. Der Vergleich der Oberböden untereinander ergab, dass sowohl der Bodentyp als auch die Bewirtschaftungsform einen signifikanten Einfluss auf mikrobielle Besiedlung ausüben. Durch die teilweise oder vollständige Entfernung der oberirdischen Biomasse wurde eine Veränderung der mikrobiellen Besiedlung an den Wurzeln beobachtet. Das Verhältnis von pilzlichem zu bakteriellem Kohlenstoff sank in dem Versuchszeitraum von 2,5 auf 1,4. Dabei war die Förderung der Pilze in der Variante mit teilweise entfernter oberirdischer Biomasse relativ größer als in der Variante mit vollständig entfernter oberirdischer Biomasse. Entgegen der weit verbreiteten Annahme, dass bei den wurzelbesiedelnden Mikroorganismen die Bakterien gegenüber den Pilzen dominieren, zeigten die Ergebnisse ein gegensätzliches Bild. In allen drei Versuchen ergab sich gleichermaßen, dass sowohl im Boden als auch an den Wurzeln die Pilze gegenüber den Bakterien dominieren.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die in den letzten 20 Jahren zu beobachtende Gesundheitswelle und die steigende Nachfrage nach gesundheitsbezogenen Bildungsangeboten steht eine immer noch in den Anfaengen steckende theoretisch-konzeptionelle Reflexion und Absicherung gegenüber. Im pädagogischen Handlungsfeld ist eine grundsätzliche Auseinandersetzung mit der Gesundheitbildung dringend erforderlich. Dieses Unterfangen wird nicht gerade dadurch erleichtert, dass sich das allgemeine Bewusstsein von Gesundheit und Krankheit in den letzten Jahren stark gewandelt hat. Immer mehr gewinnt die Einsicht an Bedeutung, dass selten eine Einflussgröße allein, sondern mehrere Faktoren und ihr Zusammenwirken zu Erkrankungen führen. Auf diesen Sachverhalt hat bereits 1946 die Weltgesundheitsorganisation (WHO) verwiesen, indem sie Gesundheit als Zustand des körperlichen, seelischen und sozialen Wohlbefindens und nicht nur als das Freisein von Krankheit und Gebrechen definiert. Eine Gesundheitsbildung, die dies berücksichtigt, ist vorrangig auf Gesundheit und den Prozess zwischen Gesundheit und Krankheit ausgerichtet. Sie bezieht Gefährdungen mit ein, die aus den sozialen und ökologischen Gegebenheiten erwachsen und verfolgt das Ziel, jedem Menschen seinen eigenen, besonderen Weg zur Gesundheit zu ermöglichen und ihn zur Wahrnehmung seiner Interessen im persönlichen und gesellschaftlichen Umfeld zu befähigen. Angebote, Didaktik und Methoden einer so verstandenen, integrativen Gesundheitsbildung an der VHS sollen deshalb darauf ausgerichtet sein, soziales und partizipatorisches Lernen zu initiieren, Zusammenhänge zu erschließen und die Kompetenz und Autonomie der Teilnehmer/innen zu fördern. Schließlich sollen Chancen und Grenzen einer Professionalisierung innerhalb der Gesundheitsbildung exemplarisch am Beispiel eines Lehrgangs für GesundheitsbildnerInnen verdeutlicht werden. Das Interesse am Thema entstand durch die langjährige Kursleitertätigkeit am Fachbereich Gesundheit und Umwelt des Bildungszentrums in Nürnberg. Auch die Zusammenarbeit mit dem Bayerischen Volkshochschulverband, die in der Gestaltung und Durchführung von Qualifizierungslehrgängen zum Gesundheitsbildner bestand, ermöglichten die Sammlung von vielen Hintergrundinformationen, die wesentlich für die vorliegende Arbeit waren. Für die Ermöglichung der Auseinandersetzung mit der vorliegenden Thematik und den damit verbundenen Erfahrungen möchte ich meinen besonderen Dank Marco Bielser, Fachbereichsleiter am BZ Nürnberg und den Herren Prof. Dr. Dr. Rolf Schwendter und Prof. Dr. Werner Thole für die wohlwollende Unterstützung aussprechen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Signaltransduktion in niederen und höheren Zellen gehört zu einem der intensivst beforschten, molekularen Mechanismen. Wie gelangt ein externer Stimulus in die Zelle, bzw. wie wird das entsprechende Signal von der Zelloberfläche in das Zellinnere übertragen? Welche Proteine, die in die Signaltransduktion involviert sind, benötigt die Zelle um auf diesen Stimulus zu reagieren – und wie reagiert die Zelle letztendlich auf dieses extrazelluläre Signal? In den letzten Jahren wurde deutlich, dass diese interaktiven Netzwerke hochkomplex sind und für die molekularbiologische Forschung nur dann einsehbar werden, wenn gezielt Mutanten hergestellt werden, die z.B. Rezeptoren oder interzelluläre Komponenten nicht mehr vorweisen können. Die Erforschung der Signaltransduktionsprozesse ist mittlerweile aus den Laboren der Grundlagenforschung auch in die molekularbiologischen Labors der pharmazeutischen Forschung übertragen worden. Aktuell wurden in den letzten Jahren mehrere Substanzen entwickelt, die z.B. für die Bekämpfung von bösartigen Tumoren geeignet sind, und diese Substanzen zeichnen sich dadurch aus, dass sie Komponenten der Signaltransduktion blockieren, bzw. Botenstoffe der Neoangiogenese aus dem Serum entfernen und so den Tumor „aushungern“. In Dictyostelium discoideum sind bereits zahlreiche Signaltransduktionskomponenten beschrieben worden und es finden sich die bekannten Systeme, wie z.B. Transmembranrezeptoren, G-Proteine oder ras-Proteine, die man aus anderen Organismen kennt wieder. Auch MAP-Kinase-Kaskaden sind vorhanden und verschiedene extrazelluläre Signalstoffe, wie z.B. cAMP, PSF oder CMF sind bekannt und teilweise charakterisiert. Dictyostelium discoideum eignet sich aus diesen Gründen und aus Gründen der biochemischen und zellbiologischen Verfügbarkeit dazu, Prozesse der Signalerkennung und deren Weiterleitung zu den Effektorproteinen zu erforschen. Das Primärziel dieser Arbeit war es, möglichst eine neue Komponente in einem der bereits bekannten Signalwege der Discoidin-Regulation durch Mutagenesen zu zerstören, um diese anschließend beschreiben und charakterisieren zu können.Dazu wurde die sog. REMI-Mutagenese am neu gegründeten Labor der Universität Kassel etabliert und ferner die Zellkulturtechnik von D. discoideum für den Routineeinsatz eingearbeitet. Eine weitere Aufgabe der vorliegenden Arbeit war das Screening bereits bekannter Zellinien, die durch einen auffälligen Phänotyp nach einer Mutagenese isoliert worden waren. Dieses Screening sollte mit Western-blot-Analysen des sog. Discoidin-Proteins durchgeführt werden. Zusätzlich sollten neue Methoden entwickelt werden, die es möglich machen die Interaktionen während des vegetativen Wachstums vom Dictyostelium in Klebsiella-Suspension zu beschreiben.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Wenn man die Existenz von physikalischen Mechanismen ignoriert, die für die Struktur hydrologischer Zeitreihen verantwortlich sind, kann das zu falschen Schlussfolgerungen bzgl. des Vorhandenseins möglicher Gedächtnis (memory) -Effekte, d.h. von Persistenz, führen. Die hier vorgelegte Doktorarbeit spürt der niedrigfrequenten klimatischen Variabilität innerhalb den hydrologischen Zyklus nach und bietet auf dieser "Reise" neue Einsichten in die Transformation der charakteristischen Eigenschaften von Zeitreihen mit einem Langzeitgedächtnis. Diese Studie vereint statistische Methoden der Zeitreihenanalyse mit empirisch-basierten Modelltechniken, um operative Modelle zu entwickeln, die in der Lage sind (1) die Dynamik des Abflusses zu modellieren, (2) sein zukünftiges Verhalten zu prognostizieren und (3) die Abflusszeitreihen an unbeobachteten Stellen abzuschätzen. Als solches präsentiert die hier vorgelegte Dissertation eine ausführliche Untersuchung zu den Ursachen der niedrigfrequenten Variabilität von hydrologischen Zeitreihen im deutschen Teil des Elbe-Einzugsgebietes, den Folgen dieser Variabilität und den physikalisch basierten Reaktionen von Oberflächen- und Grundwassermodellen auf die niedrigfrequenten Niederschlags-Eingangsganglinien. Die Doktorarbeit gliedert sich wie folgt: In Kapitel 1 wird als Hintergrundinformation das Hurst Phänomen beschrieben und ein kurzer Rückblick auf diesbezügliche Studien gegeben. Das Kapitel 2 diskutiert den Einfluss der Präsenz von niedrigfrequenten periodischen Zeitreihen auf die Zuverlässigkeit verschiedener Hurst-Parameter-Schätztechniken. Kapitel 3 korreliert die niedrigfrequente Niederschlagsvariabilität mit dem Index der Nord-Atlantischen Ozillations (NAO). Kapitel 4-6 sind auf den deutschen Teil des Elbe-Einzugsgebietes fokussiert. So werden in Kapitel 4 die niedrigfrequenten Variabilitäten der unterschiedlichen hydro-meteorologischen Parameter untersucht und es werden Modelle beschrieben, die die Dynamik dieser Niedrigfrequenzen und deren zukünftiges Verhalten simulieren. Kapitel 5 diskutiert die mögliche Anwendung der Ergebnisse für die charakteristische Skalen und die Verfahren der Analyse der zeitlichen Variabilität auf praktische Fragestellungen im Wasserbau sowie auf die zeitliche Bestimmung des Gebiets-Abflusses an unbeobachteten Stellen. Kapitel 6 verfolgt die Spur der Niedrigfrequenzzyklen im Niederschlag durch die einzelnen Komponenten des hydrologischen Zyklus, nämlich dem Direktabfluss, dem Basisabfluss, der Grundwasserströmung und dem Gebiets-Abfluss durch empirische Modellierung. Die Schlussfolgerungen werden im Kapitel 7 präsentiert. In einem Anhang werden technische Einzelheiten zu den verwendeten statistischen Methoden und die entwickelten Software-Tools beschrieben.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In der vorliegenden Arbeit wurde gezeigt, wie mit Hilfe der atomaren Vielteilchenstörungstheorie totale Energien und auch Anregungsenergien von Atomen und Ionen berechnet werden können. Dabei war es zunächst erforderlich, die Störungsreihen mit Hilfe computeralgebraischer Methoden herzuleiten. Mit Hilfe des hierbei entwickelten Maple-Programmpaketes APEX wurde dies für geschlossenschalige Systeme und Systeme mit einem aktiven Elektron bzw. Loch bis zur vierten Ordnung durchgeführt, wobei die entsprechenden Terme aufgrund ihrer großen Anzahl hier nicht wiedergegeben werden konnten. Als nächster Schritt erfolgte die analytische Winkelreduktion unter Anwendung des Maple-Programmpaketes RACAH, was zu diesem Zwecke entsprechend angepasst und weiterentwickelt wurde. Erst hier wurde von der Kugelsymmetrie des atomaren Referenzzustandes Gebrauch gemacht. Eine erhebliche Vereinfachung der Störungsterme war die Folge. Der zweite Teil dieser Arbeit befasst sich mit der numerischen Auswertung der bisher rein analytisch behandelten Störungsreihen. Dazu wurde, aufbauend auf dem Fortran-Programmpaket Ratip, ein Dirac-Fock-Programm für geschlossenschalige Systeme entwickelt, welches auf der in Kapitel 3 dargestellen Matrix-Dirac-Fock-Methode beruht. Innerhalb dieser Umgebung war es nun möglich, die Störungsterme numerisch auszuwerten. Dabei zeigte sich schnell, dass dies nur dann in einem angemessenen Zeitrahmen stattfinden kann, wenn die entsprechenden Radialintegrale im Hauptspeicher des Computers gehalten werden. Wegen der sehr hohen Anzahl dieser Integrale stellte dies auch hohe Ansprüche an die verwendete Hardware. Das war auch insbesondere der Grund dafür, dass die Korrekturen dritter Ordnung nur teilweise und die vierter Ordnung gar nicht berechnet werden konnten. Schließlich wurden die Korrelationsenergien He-artiger Systeme sowie von Neon, Argon und Quecksilber berechnet und mit Literaturwerten verglichen. Außerdem wurden noch Li-artige Systeme, Natrium, Kalium und Thallium untersucht, wobei hier die niedrigsten Zustände des Valenzelektrons betrachtet wurden. Die Ionisierungsenergien der superschweren Elemente 113 und 119 bilden den Abschluss dieser Arbeit.