898 resultados para Extrusion dies


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Das neuronale Adhäsionsmolekül L1 wird neben den Zellen des Nervensystems auf vielen humanen Tumoren exprimiert und ist dort mit einer schlechten Prognose für die betroffenen Patienten assoziiert. Zusätzlich zu seiner Funktion als Oberflächenmolekül kann L1 durch membranproximale Spaltung in eine lösliche Form überführt werden. In der vorliegenden Arbeit wurde der Einfluss von L1 auf die Motilität von Tumorzellen untersucht. Lösliches L1 aus Asziten führte zu einer Integrin-vermittelten Zellmigration auf EZM-Substraten. Derselbe Effekt wurde durch Überexpression von L1 in Tumorlinien beobachtet. Weiterhin führt die L1-Expression zu einer erhöhten Invasion, einem verstärkten Tumorwachstum in NOD/SCID Mäusen und zur konstitutiven Aktivierung der MAPK ERK1/2. Eine Mutation in der zytoplasmatischen Domäne von hL1 (Thr1247Ala/Ser1248Ala)(hL1mut) führte hingegen zu einer Blockade dieser Funktionen. Dies weist daraufhin, dass nicht nur lösliches L1, sondern auch die zytoplasmatische Domäne von L1 funktionell aktiv ist. Im zweiten Teil der Arbeit wurde der Mechanismus, der L1-vermittelten Signaltransduktion untersucht. Die zytoplasmatische Domäne von L1 gelangt nach sequenzieller Proteolyse durch ADAM und Presenilin-abhängiger γ-Sekretase Spaltung in den Zellkern. Diese Translokation im Zusammenspiel mit der Aktivierung der MAPK ERK1/2 durch L1-Expression führt zu einer L1-abhängigen Genregulation. Die zytoplasmatische Domäne von hL1mut konnte ebenfalls im Zellkern detektiert werden, vermittelte jedoch keine Genregulation und unterdrückte die ERK1/2 Phosphorylierung. Die L1-abhängige Induktion von ERK1/2-abhängigen Genen wie Cathepsin B, β3 Integrin und IER 3 war in Zellen der L1-Mutante unterdrückt. Die Expression des Retinsäure-bindenden Proteins CRABP-II, welches in hL1 Zellen supprimiert wird, wurde in der L1-Mutante nicht verändert. Weitere biochemische Untersuchungen zeigen, dass die zytoplasmatische Domäne von L1 Komplexe mit Transkriptionsfaktoren bilden kann, die an Promoterregionen binden können. Die dargestellten Ergebnisse belegen, dass L1-Expression in Tumoren an drei Funktionen beteiligt ist; (i) L1 erhöht Zellmotilität, (ii) fördert Tumorprogression durch Hochregulation von pro-invasiven und proliferationsfördernden Genen nach Translokation in den Nukleus und (iii) schützt die Zellen mittels Regulation pro- bzw. anti-apoptotischer Gene vor Apoptose. Die mutierte Phosphorylierungsstelle im L1-Molekül ist essentiell für diese Prozesse. Die Anwendung neuer Therapien für Patienten mit L1-positiven Karzinomen kann mit Hinblick auf die guten Erfolge der Antikörper-basierenden Therapie mit dem mAk L1-11A diskutiert werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die stereoskopische 3-D-Darstellung beruht auf der naturgetreuen Präsentation verschiedener Perspektiven für das rechte und linke Auge. Sie erlangt in der Medizin, der Architektur, im Design sowie bei Computerspielen und im Kino, zukünftig möglicherweise auch im Fernsehen, eine immer größere Bedeutung. 3-D-Displays dienen der zusätzlichen Wiedergabe der räumlichen Tiefe und lassen sich grob in die vier Gruppen Stereoskope und Head-mounted-Displays, Brillensysteme, autostereoskopische Displays sowie echte 3-D-Displays einteilen. Darunter besitzt der autostereoskopische Ansatz ohne Brillen, bei dem N≥2 Perspektiven genutzt werden, ein hohes Potenzial. Die beste Qualität in dieser Gruppe kann mit der Methode der Integral Photography, die sowohl horizontale als auch vertikale Parallaxe kodiert, erreicht werden. Allerdings ist das Verfahren sehr aufwendig und wird deshalb wenig genutzt. Den besten Kompromiss zwischen Leistung und Preis bieten präzise gefertigte Linsenrasterscheiben (LRS), die hinsichtlich Lichtausbeute und optischen Eigenschaften den bereits früher bekannten Barrieremasken überlegen sind. Insbesondere für die ergonomisch günstige Multiperspektiven-3-D-Darstellung wird eine hohe physikalische Monitorauflösung benötigt. Diese ist bei modernen TFT-Displays schon recht hoch. Eine weitere Verbesserung mit dem theoretischen Faktor drei erreicht man durch gezielte Ansteuerung der einzelnen, nebeneinander angeordneten Subpixel in den Farben Rot, Grün und Blau. Ermöglicht wird dies durch die um etwa eine Größenordnung geringere Farbauflösung des menschlichen visuellen Systems im Vergleich zur Helligkeitsauflösung. Somit gelingt die Implementierung einer Subpixel-Filterung, welche entsprechend den physiologischen Gegebenheiten mit dem in Luminanz und Chrominanz trennenden YUV-Farbmodell arbeitet. Weiterhin erweist sich eine Schrägstellung der Linsen im Verhältnis von 1:6 als günstig. Farbstörungen werden minimiert, und die Schärfe der Bilder wird durch eine weniger systematische Vergrößerung der technologisch unvermeidbaren Trennelemente zwischen den Subpixeln erhöht. Der Grad der Schrägstellung ist frei wählbar. In diesem Sinne ist die Filterung als adaptiv an den Neigungswinkel zu verstehen, obwohl dieser Wert für einen konkreten 3-D-Monitor eine Invariante darstellt. Die zu maximierende Zielgröße ist der Parameter Perspektiven-Pixel als Produkt aus Anzahl der Perspektiven N und der effektiven Auflösung pro Perspektive. Der Idealfall einer Verdreifachung wird praktisch nicht erreicht. Messungen mit Hilfe von Testbildern sowie Schrifterkennungstests lieferten einen Wert von knapp über 2. Dies ist trotzdem als eine signifikante Verbesserung der Qualität der 3-D-Darstellung anzusehen. In der Zukunft sind weitere Verbesserungen hinsichtlich der Zielgröße durch Nutzung neuer, feiner als TFT auflösender Technologien wie LCoS oder OLED zu erwarten. Eine Kombination mit der vorgeschlagenen Filtermethode wird natürlich weiterhin möglich und ggf. auch sinnvoll sein.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Sowohl die Ressourcenproblematik als auch die drohenden Ausmaße der Klimaänderung lassen einen Umstieg auf andere Energiequellen langfristig unausweichlich erscheinen und mittelfristig als dringend geboten. Unabhängig von der Frage, auf welchem Niveau sich der Energiebedarf stabilisieren lässt, bleibt dabei zu klären, welche Möglichkeiten sich aus technischer und wirtschaftlicher Sicht in Zukunft zur Deckung unseres Energiebedarfs anbieten. Eine aussichtsreiche Option besteht in der Nutzung regenerativer Energien in ihrer ganzen Vielfalt. Die Arbeit "Szenarien zur zukünftigen Stromversorgung, kostenoptimierte Variationen zur Versorgung Europas und seiner Nachbarn mit Strom aus erneuerbaren Energien" konzentriert sich mit der Stromversorgung auf einen Teilaspekt der Energieversorgung, der zunehmend an Wichtigkeit gewinnt und als ein Schlüssel zur nachhaltigen Energieversorgung interpretiert werden kann. Die Stromversorgung ist heute weltweit für etwa die Hälfte des anthropogenen CO2-Ausstoßes verantwortlich. In dieser Arbeit wurden anhand verschiedener Szenarien Möglichkeiten einer weitgehend CO2–neutralen Stromversorgung für Europa und seine nähere Umgebung untersucht, wobei das Szenariogebiet etwa 1,1 Mrd. Einwohner und einen Stromverbrauch von knapp 4000 TWh/a umfasst. Dabei wurde untersucht, wie die Stromversorgung aufgebaut sein sollte, damit sie möglichst kostengünstig verwirklicht werden kann. Diese Frage wurde beispielsweise für Szenarien untersucht, in denen ausschließlich heute marktverfügbare Techniken berücksichtigt wurden. Auch der Einfluss der Nutzung einiger neuer Technologien, die bisher noch in Entwicklung sind, auf die optimale Gestaltung der Stromversorgung, wurde anhand einiger Beispiele untersucht. Die Konzeption der zukünftigen Stromversorgung sollte dabei nach Möglichkeit objektiven Kriterien gehorchen, die auch die Vergleichbarkeit verschiedener Versorgungsansätze gewährleisten. Dafür wurde ein Optimierungsansatz gewählt, mit dessen Hilfe sowohl bei der Konfiguration als auch beim rechnerischen Betrieb des Stromversorgungssystems weitgehend auf subjektive Entscheidungsprozesse verzichtet werden kann. Die Optimierung hatte zum Ziel, für die definierte möglichst realitätsnahe Versorgungsaufgabe den idealen Kraftwerks- und Leitungspark zu bestimmen, der eine kostenoptimale Stromversorgung gewährleistet. Als Erzeugungsoptionen werden dabei u.a. die Nutzung Regenerativer Energien durch Wasserkraftwerke, Windenergiekonverter, Fallwindkraftwerke, Biomassekraftwerke sowie solare und geothermische Kraftwerke berücksichtigt. Abhängig von den gewählten Randbedingungen ergaben sich dabei unterschiedliche Szenarien. Das Ziel der Arbeit war, mit Hilfe unterschiedlicher Szenarien eine breite Basis als Entscheidungsgrundlage für zukünftige politische Weichenstellungen zu schaffen. Die Szenarien zeigen Optionen für eine zukünftige Gestaltung der Stromversorgung auf, machen Auswirkungen verschiedener – auch politischer – Rahmenbedingungen deutlich und stellen so die geforderte Entscheidungsgrundlage bereit. Als Grundlage für die Erstellung der Szenarien mussten die verschiedenen Potentiale erneuerbarer Energien in hoher zeitlicher und räumlicher Auflösung ermittelt werden, mit denen es erstmals möglich war, die Fragen einer großräumigen regenerativen Stromversorgung ohne ungesicherte Annahmen anhand einer verlässlichen Datengrundlage anzugehen. Auch die Charakteristika der verschiedensten Energiewandlungs- und Transportsysteme mussten studiert werden und sind wie deren Kosten und die verschiedenen Potentiale in der vorliegenden Arbeit ausführlich diskutiert. Als Ausgangsszenario und Bezugspunkt dient ein konservatives Grundszenario. Hierbei handelt es sich um ein Szenario für eine Stromversorgung unter ausschließlicher Nutzung erneuerbarer Energien, die wiederum ausschließlich auf heute bereits entwickelte Technologien zurückgreift und dabei für alle Komponenten die heutigen Kosten zugrundelegt. Dieses Grundszenario ist dementsprechend auch als eine Art konservative Worst-Case-Abschätzung für unsere Zukunftsoptionen bei der regenerativen Stromversorgung zu verstehen. Als Ergebnis der Optimierung basiert die Stromversorgung beim Grundszenario zum größten Teil auf der Stromproduktion aus Windkraft. Biomasse und schon heute bestehende Wasserkraft übernehmen den überwiegenden Teil der Backup-Aufgaben innerhalb des – mit leistungsstarker HGÜ (Hochspannungs–Gleichstrom–Übertragung) verknüpften – Stromversorgungsgebiets. Die Stromgestehungskosten liegen mit 4,65 €ct / kWh sehr nahe am heute Üblichen. Sie liegen niedriger als die heutigen Preisen an der Strombörse. In allen Szenarien – außer relativ teuren, restriktiv ”dezentralen” unter Ausschluss großräumig länderübergreifenden Stromtransports – spielt der Stromtransport eine wichtige Rolle. Er wird genutzt, um Ausgleichseffekte bei der dargebotsabhängigen Stromproduktion aus erneuerbaren Quellen zu realisieren, gute kostengünstige Potentiale nutzbar zu machen und um die Speicherwasserkraft sowie die dezentral genutzte Biomasse mit ihrer Speicherfähigkeit für großräumige Backup-Aufgaben zu erschließen. Damit erweist sich der Stromtransport als einer der Schlüssel zu einer kostengünstigen Stromversorgung. Dies wiederum kann als Handlungsempfehlung bei politischen Weichenstellungen interpretiert werden, die demnach gezielt auf internationale Kooperation im Bereich der Nutzung erneuerbarer Energien setzen und insbesondere den großräumigen Stromtransport mit einbeziehen sollten. Die Szenarien stellen detaillierte und verlässliche Grundlagen für wichtige politische und technologische Zukunftsentscheidungen zur Verfügung. Sie zeigen, dass bei internationaler Kooperation selbst bei konservativen Annahmen eine rein regenerative Stromversorgung möglich ist, die wirtschaftlich ohne Probleme zu realisieren wäre und verweisen den Handlungsbedarf in den Bereich der Politik. Eine wesentliche Aufgabe der Politik läge darin, die internationale Kooperation zu organisieren und Instrumente für eine Umgestaltung der Stromversorgung zu entwickeln. Dabei kann davon ausgegangen werden, dass nicht nur ein sinnvoller Weg zu einer CO2–neutralen Stromversorgung beschritten würde, sondern sich darüber hinaus ausgezeichnete Entwicklungsperspektiven für die ärmeren Nachbarstaaten der EU und Europas eröffnen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Dissertation leistet einen Beitrag zur Konstruktion von Geschlechterverhältnissen in der Ehe vor der Reformation. Untersucht werden zwei Texte des 15. Jahrhunderts: Die sogenannte Erste deutsche Bibel (EDB) und die Dichtung Der Ackermann aus Böhmen von Johannes von Tepl. Die Wort-für-Wort-Analyse beider Texte hat aus der zeitgebundenen deutschen Sprachgestalt spezifi-sche Denkfiguren erschlossen. Zentral ist die Gestaltung des Verhältnisses zwischen Gott und Menschen als Rechtsbeziehung Lehen. Das erste Kapitel analysiert und interpretiert die für Ehe- und Geschlechterkonzepte grund-legenden Aussagen von Genesis 1 - 4,1 und den Kanon der fünf Weisheitsbücher der EDB mit folgenden Ergebnissen: 1. Die EDB ist als Rechtsbuch zu lesen, dessen Zentrum die göttliche Herrschaft mit ihrer Rechts-ordnung ist. In diesem Rahmen wird für Mann und Frau die Ordnung Paar definiert. 2. Beide Geschlechter sind gleichwertig. Das kommt in ihren jeweiligen Handlungsfeldern (Werkordnungen) zum Ausdruck. 3. Der Begriff hilffen für die Ehefrau bedeutet Hilfe zum Heil ihres Mannes und eine spezifische Gottesnähe. Dies ist ein entscheidender Unterschied zu Luthers Bibelübersetzung, welche die Frau als untergeordnete Gehilfin des Mannes gestaltet. (Anhang III stellt die EDB-Verse der Lu-therübersetzung von 1545 gegenüber.) 4. Der Sündenfall wird als Rechtsbruch beschrieben, der den Wechsel von der Schöpfungsord-nung im Paradies zur Weltordnung auslöst, die mit den Urteilen Gottes über Frau und Mann beginnt (Genesis 3). Die Urteile fassen die Ehe in einem Diagonalkreuz, welches vier Faktoren untrennbar verbindet: Herrschaft mit Unterordnung sowie hilffen (Gebären) mit Tod. Die Ge-schlechterunterschiede sind konstituierend für die Ehe im Diagonalkreuz. In der EDB lassen sich drei Paarkonstellationen unterscheiden: die Ehe im Diagonalkreuz zwischen dem guten weib und dem weisen Mann, die Ehe ohne Diagonalkreuz zwischen dem un-weib und dem unweisen Mann und die nichteheliche Geschlechterbeziehung zwischen dem gemeinem weib und dem ee-brecher. Das zweite Kapitel der Dissertation vergleicht die alttestamentarischen Ehekonzepte der EDB mit denen der Dichtung Ackermann aus Böhmen. Die rhetorische Form des Streitgesprächs zwischen Witwer und hern Tot zeigt die Struktur eines deutschrechtlichen Prozesses. In diesem Rahmen gewinnen die gegensätzlichen Aussagen über die Ehe die Bedeutung von Rechtspositionen, die in konträren göttlichen Herrschaftsordnungen verortet werden. Die vom Witwer vertretene Herrschaftsordnung beruht auf der alttestamentarischen Rechtsordnung der EDB, während die Positionen des hern Tot diese Rechtsordnung verkehren, indem er die Herrschaftsordnung der Welt als sein Eigen definiert. Ein weiteres Ergebnis des Vergleichs zwischen der EDB und dem Ackermann aus Böhmen ist, dass sowohl die alttestamentarischen Bücher als auch die Dichtung Rechtsfiguren präsentieren. Entscheidend sind in beiden Texten die Urteile Gottes, die jeweils einen Paradigmenwechsel kon-stituieren. In der EDB wird nach dem Sündenfall die (paradiesische) Rechtsordnung in die Rechtsordnung ee gewandelt. Im Ackermann wird die alttestamentarische Rechtsordnung ee der EDB durch die ordenung Tod ersetzt, mit der zugleich die Ordnung Paar nicht mehr gilt. Die Urtei-le Gottes in der EDB definieren das Paar als zweigeschlechtlichen Menschen, das Urteil im Ackermann charakterisiert zwei Einzelmenschen: Mann oder Frau. Damit wird die zentrale Bedeutung der Ehefrau als hilffen zum Heil ihres Mannes aufgehoben, weil die wechselseitige Angewiesenheit von Mann und Frau nicht mehr gegeben ist. Insofern ist hier ein wichtiger Schritt zum reformatorischen Eheverständnis zu erkennen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Der Schwerpunkt dieser Arbeit handelt sich um die informelle Siedlungen in Kairo (die wir Asch- Gebiete nennen). Der Begriff "Aschuaiat" bezeichnet ganz speziell und treffend dieses Phänomen. Die Probleme der Aschuaiat haben seit den 70er Jahren auf ganz Ägypten und die Stadt Kairo sehr negative Auswirkungen, die im Laufe der Zeit zu massiven Problemen geworden sind. Die Entscheidungsträger versuchten für diese Schwierigkeiten Lösungen zu finden, aber die Ergebnisse waren nicht befriedigend. Dieses Phänomen sieht wie ein städtebauliches Problem aus, kann aber in Wirklichkeit nicht von den ökologischen und sozialen Verhältnisse einer Region getrennt werden. Die Aschuaiat entstehen normalerweise in städtebaulichen Zentren und in größeren Städten als Ergebnisse ihrer Anziehungskraft, da solche Städte ein gutes Angebot an Arbeitsplätzen, insbesondere im Bereich der Dienstleistungen, haben. Im Gegensatz dazu stehen die landwirtschaftlichen Gebiete: sie zeichnen sich insbesondere durch steigende Arbeitslosigkeit und Mangel an Dienstleistungen aus. Deshalb wandert ein Großteil der Bevölkerung vom Land in die Stadt ab, um hier auf die Suche nach einem Arbeitsplatz zu gehen und insgesamt bessere Lebensbedingungen vorzufinden. Die Zahl der Zuwanderer steigt stetig; die Städte können die Bedürfnisse der Bevölkerung an Angeboten für Wohnungen, Arbeitsplätzen und Dienstleistungen nicht erfüllen. Deswegen nimmt die Bevölkerung, ihre Probleme selbst in die Hand. Dies führt in den meisten Fällen zu einer klaren Form von Aschuaiat innerhalb und um die städtebaulichen Zentren herum. Die Anzahl der Aschuaiat, die sich rings um Kairo befinden, beträgt 76 Zonen mit einer Gesamtfläche von 23,10 km² und einer Einwohnerzahl von 2.098.469. Die Anzahl der illegalen Wohnungseinheiten beträgt 70 Prozent des Gesamtwertes legaler, staatlicher oder privater Wohneinheiten. Diese wurden im Zeitraum zwischen 1980 und 2000 erbaut. Jede Provinz in Ägypten hat Asch-Gebiete - mit Ausnahme der Provinzen Süd Sina und Neues Tal. Die meisten konzentrieren sich in den Provinzen El Dakahlia (121) und Dumiat (88). Die wenigsten Asch-Gebiete (jeweils nur eine Zone) gibt es in den Provinzen Rotes Meer und Nord Sina. In Ägypten wird die Einwohnerzahl der Aschuaiat auf 37 Prozent der Gesamtbevölkerung der städtebaulichen Gebiete geschätzt. Über die genaue Anzahl der Aschuaiat liegen jedoch keine zuverlässigen Informationen vor, die statistischen Daten der staatlichen Organisationen weisen unterschiedliche Resultate auf. Das Ministerium für lokale Entwicklung verkündete, dass die Zahl der Aschuaiat im Jahr 2000 ca. 916 und im Jahr 2003 ca. 1.228 Zonen betragen hat; das Informationszentrum zur Unterstützung von Sachentscheidungen registrierte jedoch für das Jahr 2000 eine Zahl von 1.034 Zonen; demgegenüber liegt die von CAPMAS registrierte Anzahl für 2000 bei 909 Zonen. Diese Unterschiede in der Erfassung der statistischen Daten kann darauf zurückgeführt werden, dass es in Ägypten keine einheitliche Definition für Aschuaiat gibt. Dieses Problem verstärkt den Bedarf an geeignetem Bewertungssystem für die Bewertung der Qualität solcher Gebiete in ganz Ägypten. Das vorgeschlagene Bewertungssystem basiert auf der Analyse und Bewertung der Hauptstrukturen, die die eigentliche Zusammensetzung einer Siedlung repräsentieren. Diese Strukturen spiegeln in der Regel die sozialen, städtebaulichen und infrastrukturellen Eigenschaften eines Gebietes wider. Konkret befasst sich diese Untersuchung mit den verschiedenen Strukturen, die die Lebens- und Siedlungsqualität in den Aschuaiat beeinflussen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Landwirtschaft spielt eine zentrale Rolle im Erdsystem. Sie trägt durch die Emission von CO2, CH4 und N2O zum Treibhauseffekt bei, kann Bodendegradation und Eutrophierung verursachen, regionale Wasserkreisläufe verändern und wird außerdem stark vom Klimawandel betroffen sein. Da all diese Prozesse durch die zugrunde liegenden Nährstoff- und Wasserflüsse eng miteinander verknüpft sind, sollten sie in einem konsistenten Modellansatz betrachtet werden. Dennoch haben Datenmangel und ungenügendes Prozessverständnis dies bis vor kurzem auf der globalen Skala verhindert. In dieser Arbeit wird die erste Version eines solchen konsistenten globalen Modellansatzes präsentiert, wobei der Schwerpunkt auf der Simulation landwirtschaftlicher Erträge und den resultierenden N2O-Emissionen liegt. Der Grund für diese Schwerpunktsetzung liegt darin, dass die korrekte Abbildung des Pflanzenwachstums eine essentielle Voraussetzung für die Simulation aller anderen Prozesse ist. Des weiteren sind aktuelle und potentielle landwirtschaftliche Erträge wichtige treibende Kräfte für Landnutzungsänderungen und werden stark vom Klimawandel betroffen sein. Den zweiten Schwerpunkt bildet die Abschätzung landwirtschaftlicher N2O-Emissionen, da bislang kein prozessbasiertes N2O-Modell auf der globalen Skala eingesetzt wurde. Als Grundlage für die globale Modellierung wurde das bestehende Agrarökosystemmodell Daycent gewählt. Neben der Schaffung der Simulationsumgebung wurden zunächst die benötigten globalen Datensätze für Bodenparameter, Klima und landwirtschaftliche Bewirtschaftung zusammengestellt. Da für Pflanzzeitpunkte bislang keine globale Datenbasis zur Verfügung steht, und diese sich mit dem Klimawandel ändern werden, wurde eine Routine zur Berechnung von Pflanzzeitpunkten entwickelt. Die Ergebnisse zeigen eine gute Übereinstimmung mit Anbaukalendern der FAO, die für einige Feldfrüchte und Länder verfügbar sind. Danach wurde das Daycent-Modell für die Ertragsberechnung von Weizen, Reis, Mais, Soja, Hirse, Hülsenfrüchten, Kartoffel, Cassava und Baumwolle parametrisiert und kalibriert. Die Simulationsergebnisse zeigen, dass Daycent die wichtigsten Klima-, Boden- und Bewirtschaftungseffekte auf die Ertragsbildung korrekt abbildet. Berechnete Länderdurchschnitte stimmen gut mit Daten der FAO überein (R2 = 0.66 für Weizen, Reis und Mais; R2 = 0.32 für Soja), und räumliche Ertragsmuster entsprechen weitgehend der beobachteten Verteilung von Feldfrüchten und subnationalen Statistiken. Vor der Modellierung landwirtschaftlicher N2O-Emissionen mit dem Daycent-Modell stand eine statistische Analyse von N2O-und NO-Emissionsmessungen aus natürlichen und landwirtschaftlichen Ökosystemen. Die als signifikant identifizierten Parameter für N2O (Düngemenge, Bodenkohlenstoffgehalt, Boden-pH, Textur, Feldfrucht, Düngersorte) und NO (Düngemenge, Bodenstickstoffgehalt, Klima) entsprechen weitgehend den Ergebnissen einer früheren Analyse. Für Emissionen aus Böden unter natürlicher Vegetation, für die es bislang keine solche statistische Untersuchung gab, haben Bodenkohlenstoffgehalt, Boden-pH, Lagerungsdichte, Drainierung und Vegetationstyp einen signifikanten Einfluss auf die N2O-Emissionen, während NO-Emissionen signifikant von Bodenkohlenstoffgehalt und Vegetationstyp abhängen. Basierend auf den daraus entwickelten statistischen Modellen betragen die globalen Emissionen aus Ackerböden 3.3 Tg N/y für N2O, und 1.4 Tg N/y für NO. Solche statistischen Modelle sind nützlich, um Abschätzungen und Unsicherheitsbereiche von N2O- und NO-Emissionen basierend auf einer Vielzahl von Messungen zu berechnen. Die Dynamik des Bodenstickstoffs, insbesondere beeinflusst durch Pflanzenwachstum, Klimawandel und Landnutzungsänderung, kann allerdings nur durch die Anwendung von prozessorientierten Modellen berücksichtigt werden. Zur Modellierung von N2O-Emissionen mit dem Daycent-Modell wurde zunächst dessen Spurengasmodul durch eine detailliertere Berechnung von Nitrifikation und Denitrifikation und die Berücksichtigung von Frost-Auftau-Emissionen weiterentwickelt. Diese überarbeitete Modellversion wurde dann an N2O-Emissionsmessungen unter verschiedenen Klimaten und Feldfrüchten getestet. Sowohl die Dynamik als auch die Gesamtsummen der N2O-Emissionen werden befriedigend abgebildet, wobei die Modelleffizienz für monatliche Mittelwerte zwischen 0.1 und 0.66 für die meisten Standorte liegt. Basierend auf der überarbeiteten Modellversion wurden die N2O-Emissionen für die zuvor parametrisierten Feldfrüchte berechnet. Emissionsraten und feldfruchtspezifische Unterschiede stimmen weitgehend mit Literaturangaben überein. Düngemittelinduzierte Emissionen, die momentan vom IPCC mit 1.25 +/- 1% der eingesetzten Düngemenge abgeschätzt werden, reichen von 0.77% (Reis) bis 2.76% (Mais). Die Summe der berechneten Emissionen aus landwirtschaftlichen Böden beträgt für die Mitte der 1990er Jahre 2.1 Tg N2O-N/y, was mit den Abschätzungen aus anderen Studien übereinstimmt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Der Vielelektronen Aspekt wird in einteilchenartigen Formulierungen berücksichtigt, entweder in Hartree-Fock Näherung oder unter dem Einschluß der Elektron-Elektron Korrelationen durch die Dichtefunktional Theorie. Da die Physik elektronischer Systeme (Atome, Moleküle, Cluster, Kondensierte Materie, Plasmen) relativistisch ist, habe ich von Anfang an die relativistische 4 Spinor Dirac Theorie eingesetzt, in jüngster Zeit aber, und das wird der hauptfortschritt in den relativistischen Beschreibung durch meine Promotionsarbeit werden, eine ebenfalls voll relativistische, auf dem sogenannten Minimax Prinzip beruhende 2-Spinor Theorie umgesetzt. Im folgenden ist eine kurze Beschreibung meiner Dissertation: Ein wesentlicher Effizienzgewinn in der relativistischen 4-Spinor Dirac Rechnungen konnte durch neuartige singuläre Koordinatentransformationen erreicht werden, so daß sich auch noch für das superschwere Th2 179+ hächste Lösungsgenauigkeiten mit moderatem Computer Aufwand ergaben, und zu zwei weiteren interessanten Veröffentlichungen führten (Publikationsliste). Trotz der damit bereits ermöglichten sehr viel effizienteren relativistischen Berechnung von Molekülen und Clustern blieben diese Rechnungen Größenordnungen aufwendiger als entsprechende nicht-relativistische. Diese behandeln das tatsächliche (relativitische) Verhalten elektronischer Systeme nur näherungsweise richtig, um so besser jedoch, je leichter die beteiligten Atome sind (kleine Kernladungszahl Z). Deshalb habe ich nach einem neuen Formalismus gesucht, der dem möglichst gut Rechnung trägt und trotzdem die Physik richtig relativistisch beschreibt. Dies gelingt durch ein 2-Spinor basierendes Minimax Prinzip: Systeme mit leichten Atomen sind voll relativistisch nunmehr nahezu ähnlich effizient beschrieben wie nicht-relativistisch, was natürlich große Hoffnungen für genaue (d.h. relativistische) Berechnungen weckt. Es ergab sich eine erste grundlegende Veröffentlichung (Publikationsliste). Die Genauigkeit in stark relativistischen Systemen wie Th2 179+ ist ähnlich oder leicht besser als in 4-Spinor Dirac-Formulierung. Die Vorteile der neuen Formulierung gehen aber entscheidend weiter: A. Die neue Minimax Formulierung der Dirac-Gl. ist frei von spuriosen Zuständen und hat keine positronischen Kontaminationen. B. Der Aufwand ist weit reduziert, da nur ein 1/3 der Matrix Elemente gegenüber 4-Spinor noch zu berechnen ist, und alle Matrixdimensionen Faktor 2 kleiner sind. C. Numerisch verhält sich die neue Formulierung ähnlilch gut wie die nichtrelativistische Schrödinger Gleichung (Obwohl es eine exakte Formulierung und keine Näherung der Dirac-Gl. ist), und hat damit bessere Konvergenzeigenschaften als 4-Spinor. Insbesondere die Fehlerwichtung (singulärer und glatter Anteil) ist in 2-Spinor anders, und diese zeigt die guten Extrapolationseigenschaften wie bei der nichtrelativistischen Schrödinger Gleichung. Die Ausweitung des Anwendungsbereichs von (relativistischen) 2-Spinor ist bereits in FEM Dirac-Fock-Slater, mit zwei Beispielen CO und N2, erfolgreich gemacht. Weitere Erweiterungen sind nahezu möglich. Siehe Minmax LCAO Nährung.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Als Beispiele für die vielfältigen Phänomene der Physik der Elektronen in niedrigdimensionalen Systemen wurden in dieser Arbeit das Cu(110)(2x1)O-Adsorbatsystem und die violette Li0.9Mo6O17-Bronze untersucht. Das Adsorbatsystem bildet selbstorganisierte quasi-eindimensionale Nanostrukturen auf einer Kupferoberfläche. Die Li-Bronze ist ein Material, das aufgrund seiner Kristallstruktur quasi-eindimensionale elektronische Eigenschaften im Volumen aufweist. Auf der Cu(110)(2x1)O-Oberfläche kann durch Variation der Sauerstoffbedeckung die Größe der streifenartigen CuO-Domänen geändert werden und damit der Übergang von zwei Dimensionen auf eine Dimension untersucht werden. Der Einfluss der Dimensionalität wurde anhand eines unbesetzten elektronischen Oberflächenzustandes studiert. Dessen Energieposition (untere Bandkante) verschiebt mit zunehmender Einschränkung (schmalere CuO-Streifen) zu größeren Energien hin. Dies ist ein bekannter quantenmechanischer Effekt und relativ gut verstanden. Zusätzlich wurde die Lebensdauer des Zustandes auf der voll bedeckten Oberfläche (zwei Dimensionen) ermittelt und deren Veränderung mit der Breite der CuO-Streifen untersucht. Es zeigt sich, dass die Lebensdauer auf schmaleren CuO-Streifen drastisch abnimmt. Dieses Ergebnis ist neu. Es kann im Rahmen eines Fabry-Perot-Modells als Streuung in Zustände außerhalb der CuO-Streifen verstanden werden. Außer den gerade beschriebenen Effekten war es möglich die Ladungsdichte des diskutierten Zustandes orts- und energieabhängig auf den CuO-Streifen zu studieren. Die Li0.9Mo6O17-Bronze wurde im Hinblick auf das Verhalten der elektronischen Zustandsdichte an der Fermikante untersucht. Diese Fragestellung ist besonders wegen der Quasieindimensionalität des Materials interessant. Die Messungen von STS-Spektren in der Nähe der Fermienergie zeigen, dass die Elektronen in der Li0.9Mo6O17-Bronze eine sogenannte Luttingerflüssigkeit ausbilden, die anstatt einer Fermiflüssigkeit in eindimensionalen elektronischen Systemen erwartet wird. Bisher wurde Luttingerflüssigkeitsverhalten erst bei wenigen Materialien und Systemen experimentell nachgewiesen, obschon die theoretischen Voraussagen mehr als 30 Jahre zurückliegen. Ein Charakteristikum einer Luttingerflüssigkeit ist die Abnahme der Zustandsdichte an der Fermienergie mit einem Potenzgesetz. Dieses Verhalten wurde in STS-Spektren dieser Arbeit beobachtet und quantitativ im Rahmen eines Luttingerflüssigkeitsmodells beschrieben. Auch die Temperaturabhängigkeit des Phänomens im Bereich von 5K bis 55K ist konsistent mit der Beschreibung durch eine Luttingerflüssigkeit. Generell zeigen die Untersuchungen dieser Arbeit, dass die Dimensionalität, insbesondere deren Einschränkung, einen deutlichen Einfluss auf die elektronischen Eigenschaften von Systemen und Materialien haben kann.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Der pH-Wert stellt in der Chemie, Physik, Biologie, Pharmazie und Medizin eine wichtige Meßgröße dar, da eine Vielzahl von Reaktionen durch den pH-Wert bestimmt wird. In der Regel werden zur pH-Wert-Messung Glaselektroden eingesetzt. Hierbei konnte der pH-sensitive Bereich zwar bis auf einige Mikrometer reduziert werden, aber die Gesamtab-messungen betragen immer noch 15-20 cm. Mit der Einführung miniaturisierter Reaktionsgefäße ist daher der Bedarf an miniaturisierten Sensoren enorm gestiegen. Um in solchen Gefäßen Reaktionsparameter wie z. B. den pH-Wert zu kontrollieren, müssen die Gesamtabmessungen der Sensoren verringert werden. Dies lässt sich mit Hilfe der Mikrostrukturtechnik von Silizium realisieren. Hiermit lassen sich Strukturen und ganze Systeme bis in den Nanometerbereich herstellen. Basierend auf Silizium und Gold als Elektrodenmaterial wurden im Rahmen dieser Arbeit verschiedene Interdigitalstrukturen hergestellt. Um diese Strukturen zur pH-Wert-Messungen einsetzen zu können, müssen sie mit einer pH-sensitiven Schicht versehen werden. Hierbei wurde Polyanilin, ein intrinsisch leitendes Polymer, aufgrund seine pH-abhängigen elektrischen und optischen Verhaltens eingesetzt. Die Beschichtung dieser Sensoren mit Polyanilin erfolgte vorwiegend elektrochemisch mit Hilfe der Zyklovoltammetrie. Neben der Herstellung reiner Polyanilinfilme wurden auch Kopolymerisationen von Anilin und seinen entsprechenden Aminobenzoesäure- bzw. Aminobenzensulfonsäurederivaten durchgeführt. Ergebnisse dazu werden vorgestellt und diskutiert. Zur Charakterisierung der resultierenden Polyanilin- und Kopolymerfilme auf den Inter-digitalstrukturen wurden mit Hilfe der ATR-FT-IR-Spektroskopie Spektren aufgenommen, die gezeigt und diskutiert werden. Eine elektrochemische Charakterisierung der Polymere erfolgte mittels der Zyklovoltammetrie. Die mit Polyanilin bzw. seinen Kopolymeren beschichteten Sensoren wurden dann für Widerstandsmessungen an den Polymerfilmen in wässrigen Medien eingesetzt. Polyanilin zeigt lediglich eine pH-Sensitivität in einem pH-Bereich von pH 2 bis pH 4. Durch den Einsatz der Kopolymere konnte dieser pH-sensitive Bereich jedoch bis zu einem pH-Wert von 10 ausgeweitet werden. Zur weiteren Miniaturisierung der Sensoren wurde das Konzept der interdigitalen Elektroden-paare auf Cantilever übertragen. Die pH-sensitive Zone konnte dabei auf 500 µm2 bei einer Gesamtlänge des Sensors (Halter mit integriertem Cantilever) von 4 mm reduziert werden. Neben den elektrischen pH-abhängigen Eigenschaften können auch die optischen Eigen-schaften des Polyanilins zur pH-Detektion herangezogen werden. Diese wurden zunächst mit Hilfe der UV-VIS-Spektroskopie untersucht. Die erhaltenen Spektren werden gezeigt und kurz diskutiert. Mit Hilfe eines Raster-Sonden-Mikroskops (a-SNOM, Firma WITec) wurden Reflexionsmessungen an Polyanilinschichten durchgeführt. Zur weiteren Miniaturisierung wurden Siliziumdioxidhohlpyramiden (Basisfläche 400 µm2) mit Spitzenöffnungen in einem Bereich von 50-150 nm mit Polyanilin beschichtet. Auch hier sollten die optischen Eigenschaften des Polyanilins zur pH-Wert-Sensorik ausgenutzt werden. Es werden erste Messungen an diesen Strukturen in Transmission diskutiert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Untersuchung betrifft die deutsche öffentliche Verwaltung. Untersucht werden soll, ob eine Intensivierung des Organisationslernens Möglichkeiten zur Optimierung von Strukturen und Prozessen der öffentlichen Verwaltung bietet, mithin das Organisationslernen eine zweckmäßige Option für die Bürokratie darstellt. Untersucht wird diese Frage am Beispiel der Kommunalverwaltungen, die im Vergleich zu staatlichen Verwaltungen über größere Handlungsspielräume verfügen. Die Kommunalverwaltungen befinden sich derzeit in einem Reformprozess, der 1993 von der Kommunalen Gemeinschaftsstelle für Verwaltungsvereinfachung (KGSt) durch die Vorlage eines "Neuen Steuerungsmodells" (NSM) angestoßen wurde. Am Beispiel dieses Reformprozesses soll mit der vorliegenden Untersuchung zunächst geprüft werden, ob unter Berücksichtigung von Verlauf und Ergebnis dieses Prozesses ein Bedarf an einer Optimierung der Programme oder der Prozesse zur Verwaltungsentwicklung erkennbar ist. Sofern ein Bedarf zur Optimierung der Programme oder der Prozesse zur Verwaltungsentwicklung erkennbar wird, ist weiter zu fragen, ob dieser Bedarf durch das Organisationslernen befriedigt werden kann. Unter der Voraussetzung, dass die Modell-Vorstellung von der lernenden Organisation prinzipiell geeignet erscheint, in einem Entwicklungsprozess förderlich zu wirken, ist abschließend zu prüfen, ob dies auch unter der besonderen Aufgabenstellung und den besonderen Handlungsbedingungen der öffentlichen Verwaltung gelten könnte. Nach einer inzwischen mehr als 10-jährigen Einführungsphase wird ungeachtet einiger positiver Veränderungen die Gesamtbilanz zum NSM verhalten beurteilt. Im einzelnen lassen sich sowohl bezüglich des Modells problematische Lücken und Beschränkungen erkennen als auch Defizite in dem Implementationsverfahren. Insgesamt ist also die Frage nach dem Optimierungsbedarf zu bejahen. Die Intensivierung des Organisationslernens als Möglichkeit zur Optimierung von Implementationsprozessen kann nach dem Ergebnis der vorgenommenen Analysen grundsätzlich auch für die öffentliche Verwaltung in Betracht gezogen werden. Sowohl die grundlegenden Lernvoraussetzungen für das Organisationslernen als auch die grundlegenden verwaltungswissenschaftlich begründeten Anforderungen an die praktische Verwaltungsentwicklung erscheinen erfüllt. Zur Klärung der Frage, ob das Organisationslernen unter den besonderen Handlungsbedingungen der öffentlichen Verwaltung zur Optimierung des Verwaltungshandelns geeignet erscheint, wurde zusätzlich eine Expertenbefragung in ausgewählten Kommunalverwaltungen durchgeführt. Im Ergebnis dieser Befragung zeigt sich, dass die Vorstellung von einer lernenden Organisation zur Optimierung des Verwaltungshandelns durchaus auf Interesse stößt, jedoch die Einführungs- und Betriebsbedingungen zur Intensivierung des Organisationslernens noch nicht in allen Behörden gegeben sind und möglicherweise auch nicht in allen Behörden hergestellt werden können, so dass im Ergebnis das Organisationslernen als Option für die Bürokratie zwar Chancen verspricht, jedoch unter Berücksichtigung der Handlungsbedingungen in der öffentlichen Verwaltung differenziert zu beurteilen ist.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Many nonlinear optical microscopy techniques based on the high-intensity nonlinear phenomena were developed recent years. A new technique based on the minimal-invasive in-situ analysis of the specific bound elements in biological samples is described in the present work. The imaging-mode Laser-Induced Breakdown Spectroscopy (LIBS) is proposed as a combination of LIBS, femtosecond laser material processing and microscopy. The Calcium distribution in the peripheral cell wall of the sunflower seedling (Helianthus Annuus L.) stem is studied as a first application of the imaging-mode LIBS. At first, several nonlinear optical microscopy techniques are overviewed. The spatial resolution of the imaging-mode LIBS microscope is discussed basing on the Point-Spread Function (PSF) concept. The primary processes of the Laser-Induced Breakdown (LIB) are overviewed. We consider ionization, breakdown, plasma formation and ablation processes. Water with defined Calcium salt concentration is used as a model of the biological object in the preliminary experiments. The transient LIB spectra are measured and analysed for both nanosecond and femtosecond laser excitation. The experiment on the local Calcium concentration measurements in the peripheral cell wall of the sunflower seedling stem employing nanosecond LIBS shows, that nanosecond laser is not a suitable excitation source for the biological applications. In case of the nanosecond laser the ablation craters have random shape and depth over 20 µm. The analysis of the femtosecond laser ablation craters shows the reproducible circle form. At 3.5 µJ laser pulse energy the diameter of the crater is 4 µm and depth 140 nm for single laser pulse, which results in 1 femtoliter analytical volume. The experimental result of the 2 dimensional and surface sectioning of the bound Calcium concentrations is presented in the work.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Am Institut für Mikrostrukturtechnologie und Analytik wurde eine neue Technik entwickelt, die neue Anwendungen und Methoden der Mikro- und Nanostrukturierung auf Basis eines neuen Verfahrens erschlossen hat. NANOJET führt über die passive Rastersondenmikroskopie hinaus zu einem vielseitigen, aktiven Bearbeitungswerkzeug auf der Mikro- und Nanometerskala. NANOJET (NANOstructuring Downstream PlasmaJET) ist eine aktive Rasterkraft-Mikroskopie-Sonde. Radikale (chemisch aktive Teilchen, die ein ungepaartes Valenzelektron besitzen) strömen aus dem Ende einer ultradünnen, hohlen Rasterkraftmikroskop-Spitze. Dadurch wird es möglich, über die übliche passive Abtastung einer Probenoberfläche hinausgehend, diese simultan und in-situ durch chemische Reaktionen zu verändern. Die Abtragung von Material wird durch eine chemische Ätzreaktion erreicht. In dieser Arbeit wurde zum größten Teil Photoresist als Substrat für die Ätzexperimente verwendet. Für das Ätzen des Resists wurden die Atome des Fluors und des Sauerstoffs im Grundzustand als verantwortlich identifiziert. Durch Experimente und durch Ergänzung von Literaturdaten wurde die Annahme bestätigt, dass Sauerstoffradikale mit Unterstützung von Fluorradikalen für die hohen erzielten Ätzraten verantwortlich sind. Die Beimischung von Fluor in einem Sauerstoffplasma führt zu einer Verringerung der Aktivierungsenergie für die Ätzreaktion gegenüber Verwendung reinen Sauerstoffs. In weiterer Folge wurde ein Strukturierungsverfahren dargestellt. Hierbei wurden "geformte Kapillaren" (mikrostrukturierte Aperturen) eingesetzt. Die Herstellung der Aperturen erfolgte durch einen elektrochemischen Ätzstop-Prozess. Die typische Größe der unter Verwendung der "geformten Kapillaren" geätzten Strukturen entsprach den Kapillarenöffnungen. Es wurde ein Monte-Carlo Simulationsprogramm entwickelt, welches den Transport der reaktiven Teilchen in der langen Transportröhre simulierte. Es wurde sowohl die Transmission der Teilchen in der Transportröhre und der Kapillare als auch ihre Winkelverteilung nach dem Verlassen der Kapillare berechnet. Das Aspektverhältnis der Röhren hat dabei einen sehr starken Einfluss. Mit einem steigenden Aspektverhältnis nahm die Transmission exponentiell ab. Die geschaffene experimentelle Infrastruktur wurde genutzt, um auch biologische Objekte zu behandeln und zu untersuchen. Hierfür wurde eine neue Methodik entwickelt, die eine dreidimensionale Darstellung des Zellinneren erlaubt. Dies wurde durch die kontrollierte Abtragung von Material aus der Zellmembran durchgeführt. Die Abtragung der Zellmembran erfolgte mittels Sauerstoffradikalen, die durch eine hohle Spitze lokalisiert zum Ort der Reaktion transportiert wurden. Ein piezoresistiver Cantilever diente als Sensor in dem zur Bildgebung eingesetzten RKM. Das entwickelte Verfahren ermöglicht es nun erstmals, schonend Zellen zu öffnen und die innen liegenden Organellen weiter zu untersuchen. Als Nachweis für weitere Verwendungsmöglichkeiten des NANOJET-Verfahrens wurde auch Knochenmaterial behandelt. Die Ergebnisse dieser Experimente zeigen klar, dass das Verfahren für vielfältige biologische Materialien verwendbar ist und somit nun ein weiter Anwendungskreis in der Biologie und Medizin offen steht.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Untersuchung von Schichtsystemen für die magneto-optische Datenspeicherung mit Hilfe der Kerr-Mikroskopie Dissertation von Stephan Knappmann, Universität Gh Kassel, 2000 Im Rahmen dieser Arbeit wurde ein modifiziertes Kerr-Mikroskop aufgebaut und für eine neuartige Untersuchungsmethode von gekoppelten magnetischen Schichten angewendet. Damit können Schichtsysteme untersucht werden, bei denen die eine Schicht eine temperaturabhängige Reorientierung der Magnetisierung von in-plane zu senkrecht zeigt. Derartige Schichten sind für zukünftige magnetooptische Speichertechniken interessant, da sie für die magnetisch induzierte Superauflösung (MSR) eingesetzt werden können. Zunächst wurde ein Ganzfeld-Kerr-Mikroskop aufgebaut und durch einen zusätzlichen Strahlengang erweitert. Da die Proben lokal geheizt werden sollten, wurde der Strahl eines Diodenlasers (l = 780 nm) in den Strahlengang eingekoppelt, durch das Mikroskopobjektiv auf die Probe fokussiert und nach der Reflexion vollständig aus dem Strahlengang entfernt. Dies war deshalb wichtig, da Domänenbilder aufgenommen werden sollten, während die Schichten lokal geheizt werden. Mit diesem Aufbau ist es möglich, den magnetooptischen Ausleseprozeß in MSR Systemen mikroskopisch zu simulieren. Dies wurde am Beispiel einer Doppelschicht demonstriert. Dieses Schichtsystem besteht aus einer Speicherschicht mit senkrechter Magnetisierung (TbFeCo) und einer Ausleseschicht mit temperaturabhängiger Reorientierung (GdFeCo). Damit ist dieses Schichtsystem für eine spezielle MSR Technik (CAD-MSR) geeignet. Dabei wird im heißen Bereich des laserinduzierten Temperaturprofils die Information aus der Speicherschicht in die Ausleseschicht kopiert, so daß eine Apertur gebildet wird, die nur von der Temperaturverteilung abhängt. Bei diesem Schichtsystem konnte gezeigt werden, daß sich durch ein Magnetfeld die Aperturwirkung deutlich verbessern läßt. Dieses Ergebnis läßt sich auf alle Schichten übertragen, bei denen die Reorientierung der Magnetisierung durch allmähliche Drehung erfolgt. Die wesentlichen Ergebnisse der Domänenbeobachtungen an der TbFeCo/GdFeCo-Doppelschicht konnten durch Simulationen mit Hilfe eines einfachen Modells bestätigt werden. Ein weiterer Schwerpunkt der Arbeit lag in der Untersuchung von Vielfachschichten. Es wurden Tb/Fe-Vielfachschichten mit einer Modulationswellenlänge von 1,5 - 5 nm durch Kathodenzerstäubung hergestellt und magnetisch charakterisiert. Die natürlichen Domänen-strukturen zeigten eine starke Abhängigkeit von dem Verhältnis der Tb- und Fe-Schichtdicken. Die Erklärung kann durch das Wechselspiel von magnetostatischer Energie EMS und Domänenwandenergie EDW gegeben werden. In der Nähe des Kompensationspunktes ist EMS klein und EDW dominiert. Als Folge bilden sich zirkulare Domänen. Mit der Entfernung vom Kompensationspunkt steigt EMS und es wird eine verzweigte Domänenstruktur favorisiert. Thermomagnetische Schreibexperimente an einer ausgewählten Tb/Fe-Vielfachschicht haben ergeben, daß sich bei kleinen Schreib-Magnetfeldern Subdomänenstrukturen ausbilden können. In der Praxis ist ein solcher Subdomänenzustand unerwünscht, da er zu einem erhöhten Ausleserauschen führen würde. Der Effekt läßt sich durch ein höheres Magnetfeld oder eine höhere Kompensationstemperatur (höhere Tb-Konzentration) vermeiden. Schließlich wurde demonstriert, daß nach kleinen Änderungen mit dem Mikroskop Domänen in longitudinaler Konfiguration abgebildet werden können. Da die Kerr-Drehungen hier kleiner sind als im polaren Fall, mußten verschiedene Verfahren der Bildverarbeitung angewendet werden, um den magnetischen Kontrast zu vergrößern. Neben der bekannten Subtraktion eines Referenzbildes wurde ein neues Verfahren zur weiteren Verbesserung der Domänenbilder angewendet, wobei zwei Referenzbilder mit entgegengesetzter Magnetisierung benötigt werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die relativistische Multikonfigurations Dirac-Fock (MCDF) Methode ist gegenwärtig eines der am häufigsten benutzten Verfahren zur Berechnung der elektronischen Struktur und der Eigenschaften freier Atome. In diesem Verfahren werden die Wellenfunktionen ausgewählter atomarer Zustände als eine Linearkombination von sogenannten Konfigurationszuständen (CSF - Configuration State Functions) konstruiert, die in einem Teilraum des N-Elektronen Hilbert-Raumes eine (Vielteilchen-)Basis aufspannen. Die konkrete Konstruktion dieser Basis entscheidet letzlich über die Güte der Wellenfunktionen, die üblicherweise mit Hilfe einer Variation des Erwartungswertes zum no-pair Dirac-Coulomb Hamiltonoperators gewonnen werden. Mit Hilfe von MCDF Wellenfunktionen können die dominanten relativistischen und Korrelationseffekte in freien Atomen allgemein recht gut erfaßt und verstanden werden. Außer der instantanen Coulombabstoßung zwischen allen Elektronenpaaren werden dabei auch die relativistischen Korrekturen zur Elektron-Elektron Wechselwirkung, d.h. die magnetischen und Retardierungsbeiträge in der Wechselwirkung der Elektronen untereinander, die Ankopplung der Elektronen an das Strahlungsfeld sowie der Einfluß eines ausgedehnten Kernmodells erfaßt. Im Vergleich mit früheren MCDF Rechnungen werden in den in dieser Arbeit diskutierten Fallstudien Wellenfunktionsentwicklungen verwendet, die um 1-2 Größenordnungen aufwendiger sind und daher systematische Untersuchungen inzwischen auch an Atomen mit offenen d- und f-Schalen erlauben. Eine spontane Emission oder Absorption von Photonen kann bei freien Atomen theoretisch am einfachsten mit Hilfe von Übergangswahrscheinlichkeiten erfaßt werden. Solche Daten werden heute in vielen Forschungsbereichen benötigt, wobei neben den traditionellen Gebieten der Fusionsforschung und Astrophysik zunehmend auch neue Forschungsrichtungen (z.B. Nanostrukturforschung und Röntgenlithographie) zunehmend ins Blickfeld rücken. Um die Zuverlässigkeit unserer theoretischen Vorhersagen zu erhöhen, wurde in dieser Arbeit insbesondere die Relaxation der gebundenen Elektronendichte, die rechentechnisch einen deutlich größeren Aufwand erfordert, detailliert untersucht. Eine Berücksichtigung dieser Relaxationseffekte führt oftmals auch zu einer deutlich besseren Übereinstimmung mit experimentellen Werten, insbesondere für dn=1 Übergänge sowie für schwache und Interkombinationslinien, die innerhalb einer Hauptschale (dn=0) vorkommen. Unsere in den vergangenen Jahren verbesserten Rechnungen zu den Wellenfunktionen und Übergangswahrscheinlichkeiten zeigen deutlich den Fortschritt bei der Behandlung komplexer Atome. Gleichzeitig kann dieses neue Herangehen künftig aber auch auf (i) kompliziertere Schalensstrukturen, (ii) die Untersuchung von Zwei-Elektronen-ein-Photon (TEOP) Übergängen sowie (iii) auf eine Reihe weiterer atomarer Eigenschaften übertragen werden, die bekanntermaßen empflindlich von der Relaxation der Elektronendichte abhängen. Dies sind bspw. Augerzerfälle, die atomare Photoionisation oder auch strahlende und dielektronische Rekombinationsprozesse, die theoretisch bisher nur selten überhaupt in der Dirac-Fock Näherung betrachtet wurden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ähnlich wie in Säugerzellen ist das neutrale Postlysosom in Dictyostelium discoideum von einem Coat aus filamentösem Actin umgeben. In dieser Arbeit wurde der Frage nach der Funktion dieses Actin-Cytoskeletts am späten Endosom nachgegangen. Hierzu wurde zunächst eine Analyse der Domänen des Vacuolin B durchgeführt, das als bisher spätester bekannter Marker im Endocytoseweg in Dictyostelium discoideum das neutrale, postlysosomale Kompartiment dekoriert. In einer Yeast Two Hybrid-Analyse wurden die Bereiche des Vacuolin B identifiziert, die für eine Selbst-Interaktion des Proteins notwendig und ausreichend sind. Es handelt sich dabei um die coiled-coil-Domäne und einen daran anschließenden, 18 Aminosäuren langen, alpha-helicalen Abschnitt. Diesem helicalen Bereich scheint die Funktion einer modifizierenden, die coiled-coil-Ausbildung vermittelnden oder initiierenden Faltungseinheit zuzukommen. Sie weist jedoch nicht die typischen Merkmale einer trigger-Helix auf. Lokalisationsuntersuchungen mit GFP-Deletionskonstrukten zeigten, dass es einen Zusammenhang zwischen Interaktionsfähigkeit und Bindung des Vacuolin an die Oberfläche später Endosomen gibt: Eine korrekte Lokalisation und Membranassoziation waren nur dann zu beobachten, wenn in der Yeast Two Hybrid-Analyse eine Interaktion nachgewiesen werden konnte. Es wurden die für die Lokalisation und Assoziation mit der vacuolären Membran notwendigen Sequenzbereiche identifiziert; diese waren jedoch nicht hinreichend. Vermutlich sind hierfür auch Sequenzen des N-Terminus notwendig. Die erhobenen Daten legen weiterhin eine Bedeutung der hydrophoben Domäne des Vacuolin B für die korrekte Faltung des Proteins nahe. Im Anschluss an die Domänenanalyse wurde Vacuolin dazu benutzt, durch Herstellung von Hybridproteinen Actin-interagierende Proteine gezielt an das späte Endosom zu transportieren. Es wurde deren Einfluss auf den lokalen Actin Coat und den endocytotischen Transit untersucht. Zwei Actin-bindende Proteine mit depolymerisierender Wirkung konnten im Rahmen dieser Arbeit getestet werden, nämlich Severin und Cofilin. Die Schwächung des lokalen Actin Coats durch das Vorhandensein von Severin an der späten Vacuole war nicht eindeutig festzustellen. Severin am Postlysosom führte nicht zu einer Veränderung der Transitkinetik von Flüssigphasenmarker. Allerdings konnte ein Defekt in der Phagocytose festgestellt werden. Es könnte hierbei ein Zusammenhang zwischen der Mobilisierung von intrazellulärem Calcium während der Partikelaufnahme und der Calcium-abhängigen Regulation der Severin-Aktivität bestehen. Das Hybridprotein aus Vacuolin und Cofilin zeigte neben einer Assoziation mit der vacuolären Membran auch eine Lokalisation im Cytoplasma und Cortex der Zellen. Mit der Lokalisation im Cytoplasma und Cortex korrelierte eine Veränderung der endocytotischen Aktivität. Das Vacuolin-Cofilin-Fusionsprotein am Postlysosom rief einen Verlust des lokalen Actin Coats hervor. Dies führte zu einer traubenförmigen Assoziation der späten Endosomen; exocytotische Parameter blieben jedoch unbeeinflusst. Aufgrund der hier erhobenen Daten kann vermutet werden, dass der Actin Coat am Postlysosom dazu dient, eine Agglutination dieser Endosomen zu inhibieren. Dies könnte ein Schutzmechanismus zum Ausschluss von Docking- und Fusionsereignissen sein.