985 resultados para Weg zur Architektur
Resumo:
Mit Hilfe von Molekulardynamik-Computersimulationen werdenin dieser Arbeit die Struktur und Dynamik von Gläsern undSchmelzen der Systeme 'NSx'=(Na2O)(xSiO2), mit x=2,3,5, und'AS2'=(Al2O3)(2SiO2) untersucht. Zur Beschreibung dermikroskopischen Wechselwirkungen dient ein Modellpotenzial,das auf einem effektiven Paarpotenzial aus der Literaturaufbaut. Simuliert wurden Teilchentrajektorien über mehrereNanosekunden im Bereich 6100 K >= T >= 2100 K sowie dieGlasstruktur bei 100 K (NSx) bzw. 300 K (AS2). Das Aufbrechen der tetraedrischen Netzwerkstruktur durch denNetzwerkmodifikator Na2O führt zur Ausbildung einerzusätzlichen Struktur auf intermediären Längenskalen, diebei allen Systemen NSx etwa dem Abstand übernächster Na-bzw. Si-Nachbarn eines Na-Atoms entspricht. Die diffusiveDynamik ist in allen Systeme NSx bis zu drei Größenordnungenschneller als in SiO2 . Sie nimmt mit wachsenderNa-Konzentration zu. Die Na-Diffusion zeigtArrhenius-Verhalten; hierbei vollführen die Na-Atome einaktiviertes Hüpfen durch eine erstarrte Si-O-Matrix. DieZustandsdichten werden bis ca. 20 THz durch dominanteNa-Moden bestimmt. Bei hohen Frequenzen weichen die für SiO2 typischen intratetraedrischen Si-O-Schwingungsmodenauf.Im Gegensatz zu Na2O wird Al2O3 in die tetraedrischeNetzwerkstruktur eingebunden. AS2 zeigt eine überwiegend ausAlO4- und SiO4-Tetraedern verknüpfte Polyederstruktur, beider sich die AlO4-Tetraeder lokal anders anordnen als dieSiO4-Tetraeder, um Ladungsausgleich zu gewährleisten. Esbilden sich typische 3(Si,Al)O4-Bausteine ('3-Cluster'). Sie führen auf intermediären Längenskalen zur Ausbildungeines Al-reichen perkolierenden Netzwerks, das dieSiO4-Struktur durchdringt. Im Vergleich zu SiO2 erhöht sichdie diffusive Dynamik aller Komponenten in AS2 um ca. zweiGrößenordnungen. Die intratetraedrischenAl-O-Steckschwingungsmoden sind wesentlich weicher als die typischen intratetraedrischen Si-O-Moden des SiO2.
Resumo:
In der vorliegenden Arbeit werden Entwicklung und Test einesneuartigen bildgebenden Verfahrens mit Röntgenstrahlung,Polychromographie genannt, beschrieben. Mit ihm können kontrastmittelgefüllte Strukturen unter effizienterAusnutzung des zur Verfügung stehenden Photonenflussessichtbar gemacht werden. Als Röntgenstrahlungsquelle wird Übergangsstrahlung verwendet, die vom 855 MeVElektronenstrahl des Mainzer Mikrotrons MAMI beimDurchqueren eines Polyimidfolienstapels emittiert wird. Ausdieser wird mit einem hochorientierten pyrolytischenGraphit-Kristall ein quasimonochromatischer Röntgenstrahlerzeugt mit dem das Untersuchungsobjekt ausgeleuchtet wird.Mit Hilfe einer Richtungsänderung des Elektronenstrahls beisynchronem Verfahren und Drehen des Kristalls, wird an jedemPunkt in der Detektorebene die Energie der Strahlung überein mehrere keV breites Intervall um die K-Absorptionskantedes Kontrastmittels variiert. Die Kontrastmittelverteilungwird durch numerische Analyse der mit jedem Bildpunkt eineszweidimensional orts- und energieauflösenden Detektorsaufgenommenen Intensitätsspektren ermittelt. DiePolychromographie wurde bei einer mittleren Energie desRöntgenstrahls von 20 keV erfolgreich an einem Phantombestehend aus Kupfer- und Molybdänfolien (Kontrastmittel)verschiedener Dicken (Cu: 136, 272 Mikrometer und Mo: 10, 5,2.5 Mikrometer) getestet. Es wurde gezeigt, daß sich dasSignal-zu-Rausch-Verhältnis (SNR) in den rekonstruiertenBildern verbessert, solange sich beim Vergrößern desDurchstimmintervalls die im Intervall enthaltenePhotonenzahl proportional vergrößert. Im Vergleich zurDichromographie liefert die Polychromographie ein um einenFaktor zwei geringeres SNR. Das gleiche SNR wird erreicht,wenn das Absorptionsverhalten des Untersuchungsobjektes,z.B. durch eine Leeraufnahme ermittelt, bei der Analysevorgegeben wird.
Resumo:
Die vorliegende Arbeit beschäftigt sich mit derAutomatisierung von Berechnungen virtuellerStrahlungskorrekturen in perturbativen Quantenfeldtheorien.Die Berücksichtigung solcher Korrekturen aufMehrschleifen-Ebene in der Störungsreihenentwicklung istheute unabdingbar, um mit der wachsenden Präzisionexperimenteller Resultate Schritt zu halten. Im allgemeinen kinematischen Fall können heute nur dieEinschleifen-Korrekturen als theoretisch gelöst angesehenwerden -- für höhere Ordnungen liegen nur Teilergebnissevor. In Mainz sind in den letzten Jahren einige neuartigeMethoden zur Integration von Zweischleifen-Feynmandiagrammenentwickelt und im xloops-Paket in algorithmischer Formteilweise erfolgreich implementiert worden. Die verwendetenVerfahren sind eine Kombination exakter symbolischerRechenmethoden mit numerischen. DieZweischleifen-Vierbeinfunktionen stellen in diesem Rahmenein neues Kapitel dar, das durch seine große Anzahl vonfreien kinematischen Parametern einerseits leichtunüberschaubar wird und andererseits auch auf symbolischerEbene die bisherigen Anforderungen übersteigt. Sie sind ausexperimenteller Sicht aber für manche Streuprozesse vongroßem Interesse. In dieser Arbeit wurde, basierend auf einer Idee von DirkKreimer, ein Verfahren untersucht, welches die skalarenVierbeinfunktionen auf Zweischleifen-Niveau ganz ohneRandbedingungen an den Parameterraum zu integrierenversucht. Die Struktur der nach vier Residuenintegrationenauftretenden Terme konnte dabei weitgehend geklärt und dieKomplexität der auftretenden Ausdrücke soweit verkleinertwerden, dass sie von heutigen Rechnern darstellbar sind.Allerdings ist man noch nicht bei einer vollständigautomatisierten Implementierung angelangt. All dies ist dasThema von Kapitel 2. Die Weiterentwicklung von xloops über Zweibeinfunktionenhinaus erschien aus vielfältigen Gründen allerdings nichtmehr sinnvoll. Im Rahmen dieser Arbeit wurde daher einradikaler Bruch vollzogen und zusammen mit C. Bauer und A.Frink eine Programmbibliothek entworfen, die als Vehikel fürsymbolische Manipulationen dient und es uns ermöglicht,übliche symbolische Sprachen wie Maple durch C++ zuersetzen. Im dritten Kapitel wird auf die Gründeeingegangen, warum diese Umstellung sinnvoll ist, und dabeidie Bibliothek GiNaC vorgestellt. Im vierten Kapitel werdenDetails der Implementierung dann im Einzelnen vorgestelltund im fünften wird sie auf ihre Praxistauglichkeituntersucht. Anhang A bietet eine Übersicht über dieverwendeten Hilfsmittel komplexer Analysis und Anhang Bbeschreibt ein bewährtes numerisches Instrument.
Resumo:
Die Expression des PKC-Hauptsubstrates MARCKS (myristoylated alanine-rich C kinase substrate) wird in Swiss 3T3-Fibroblasten in Abhängigkeit des Zellzyklus durch Variation der mRNA-Stabilität reguliert. In der vorliegenden Arbeit wurde die Beteiligung der 3' nichttranslatierten Region (3'UTR) der MARCKS-mRNA an der Stabilitätskontrolle analysiert. Durch Einsatz der RNase/EMSA-Technik konnten zwei cis-Elemente der MARCKS 3'UTR identifiziert und lokalisiert werden, die mit RNA-bindenden Swiss 3T3-Proteinen (trans-Faktoren) interagieren. Diese neu identifizierten cis-Elemente sind AU-reiche Elemente (ARE) der Klasse III, da sie sehr große Sequenzhomologie zu ARE dieser Klasse aufweisen und der MARCKS 3'UTR, wie für ARE typisch, Instabilität vermitteln.Durch UV-crosslinking wurden vier Proteine mit Molekülmassen von 55, 40, 36 und 30 kDa nachgewiesen, die spezifisch an das 52nt lange Haupt-ARE (MARCKS 52nt) mit unterschiedlicher Affinität binden konnten. Mit Hilfe von rekombinant hergestellten ELAV/Hu-Proteinen und einem ELAV/Hu-spezifischen, affinitätsgereinigten Antiserum konnte eines der vier Proteine (p36) als das ELAV/Hu-Protein HuR identifiziert werden. Die Funktion der ELAV/Hu-Proteine für die Stabilitätskontrolle der MARCKS-mRNA ließ sich durch transiente und stabile Transfektion von HuR und neuronenspezifischem HuD mit dem Tetracyclin induzierbaren Expressionssystem (Tetoff) in Swiss 3T3- bzw. MEF/3T3-Tetoff-Zellen verdeutlichen: Durch Überexpression von HuR und HuD wurde die wachstumsinduzierte Destabilisierung der MARCKS-mRNA bei Wiedereintritt der Zellen in den Zellzyklus unterbunden.
Resumo:
Zusammenfassung der Dissertation von Gerd Jochen ArnoldThema: Aufstieg und Fall eines Gebirges - Konvektionsmodelle zur variscischen Orogenese Diese Arbeit befaßt sich mit der Entwicklung der variscischen Gebirgswurzel. Numerische Modellierung wurden mit dem Finite-Differenzen-Programm FDCON durchgeführt. Dieses berechnet auf einem Gitter die Entwicklung von Konvektion unter Berücksichtigung von Massen-, Impuls- und Energieerhaltung. Der Modellansatz eignet sich für die Untersuchung der Orogenese unter Miteinbeziehung der thermo-mechanischen Wechselwirkung von Kruste und Mantel. Kapitel 1 beschreibt wesentliche Aspekte der variscischen Gebirgsbildung. Die tektonostratigraphische Gliederung erlaubt Rückschlüsse auf das plattentektonische Szenarium während der Gebirgsbildung. Die Kollision involvierte einige Terranes, die sukzessive an Laurasia angebaut wurden und die finale Konvergenz von Gondwana mit den konsolidierten Einheiten. Diese bewirkte den maximalen Aufbau der Varisciden, der durch Hochdruck-Gesteine dokumentiert ist. Diese wurden kurz nach maximaler Krustenverdickung innerhalb weniger Millionen Jahre in geringe Tiefen angehoben. Darauf folgte eine Aufheizung der Kruste, die durch Granite dokumentiert ist. Eine zentrale Frage der Variscidenforschung ist die Ursache für die erhöhten Temperaturen in der späten orogenen Phase. Geringe und gleichförmige Krustenmächtigkeiten unter den heutigen europäischen Varisciden legen die Vermutung nahe, daß sich Teile der Mantelwurzel des Gebirges abgelöst und abgesunken sind.Kapitel 2 beschreibt physikalische Aspekte von gebirgsbildenden Prozessen, insbesondere den thermischen Zustand kontinentaler Lithosphäre und die Folgen von Krustenkonvergenz. Der Einfluß von kompositioneller Schichtung und extrinsischen Parametern auf die Rheologie und das Wechselspiel zwischen auf- und abwärts gerichteten Kräften in verschiedenen orogenen Szenarien werden diskutiert.Kapitel 3 stellt die Modelle zur variscischen Gebirgsbildung vor. Ausgehend von Kontinent-Kontinent-Kollision werden Konsequenzen von rheologischer Schichtung und tiefreichenden Schwächezonen auf das Deformationsverhalten der Kruste untersucht. Außerdem wird ein Modell zum Abriß von Mantellithosphäre während Kollision vorgestellt. Abschließend werden die thermischen Konsequenzen von Subduktion junger ozeanischer Lithosphäre diskutiert.Kapitel 4 versucht eine Synthese der Kollisionsmodelle mit Modellen zur spätorogenen variscischen Entwicklung. Die mechanischen Eigenschaften der Delaminationsmodelle sollten während der Aufbauphase des Orogens angelegt worden sein. Außerdem wird eine Fallstudie vorgestellt, bei der die Modellparameter auf die Entwicklungsgeschichte erzgebirgischer Einheiten angepaßt worden sind. Schließlich werden Modelle zur thermischen Entwicklung nach Aufstieg von Asthenosphäre an die Krustenwurzel diskutiert. Die vulkanische Aktivität während der spätorogenen variscischen Phase kann plausibel erklärt werden.Kapitel 5 faßt die Ergebnisse zusammen und interpretiert diese bezüglich des plattentektonischen Szenariums der variscischen Orogenese. Durch die sukzessive Anlegung der Suturzonen während der Konsolidierung der Terranes sind die für Delamination nötigen Schwächezonen sukzessive ins variscische Orogen eingebaut worden.
Resumo:
Im Rahmen meiner Arbeit wurden erstmals die Intermediärfilament-Proteine (IF-Proteine) des Sibirischen Störs Acipenser baeri (Strahlenflosser, Knorpelganoid) kloniert und sequenziert. Aus einer cDNA-Bank konnten die Sequenzen von 13 IF-Proteine gewonnen werden. Von insgesamt zehn Keratinen codieren sieben für Typ I-Keratine und drei für Typ II. Zusätzlich konnten noch Desmin, Vimentin und ein Lamin identifiziert werden. Je einem Typ I- (K13) und einem Typ-II-Keratin (K2) fehlen wenige Aminosäuren in der Head-Domäne.Cytoskelett-Präparationen aus Epidermis, Mitteldarm, Magen und Kieme wurden mittels 2D-PAGE aufgetrennt. Durch Einsatz des CKBB-Test und Immunoblots wurden die verschiedenen Typ I und II-Keratine sowie Desmin und Vimentin identifiziert. Die gewebsspezifische Expression der Keratine ermöglichte zumeist ihre Einteilung in 'E' (epidermal) und 'S' ('simple epithelial').Die MALDI-MS-Analyse einer 2D-PAGE-Koelektrophorese von Seitenflosse und Mitteldarm zeigte, daß die 34 vorhandenen Proteinflecke auf nur 13 verschiedene IF-Proteine zurückgehen. Neun dieser Flecke konnten Sequenzen zugewiesen werden. Zusammen mit den verbleibenden vier Proteinflecken ergeben sich für den Stör nunmehr insgesamt 17 bekannte IF-Proteine. Von drei biochemisch identifizierten IS-Keratinen kommt eines nur im Mitteldarm vor und nur einem konnte eine Sequenz zugeordnet werden (K18). Dem einzigen Typ IIS-Keratin konnte keine Sequenz zugeordnet werden, wahrscheinlich handelt es sich um dabei um das K8-Orthologe. Jedem der fünf Typ IE-Proteine konnte eine Sequenz zugeordnet werden (K10 bis K14), ebenso wie dem einzigen identifizierten Typ IIE-Keratin (K2). Von den Typ III-Proteinen wurden Desmin und Vimentin ihren Proteinflecken zugeordnet. Die nicht zugeordnete Sequenz aba-k1 codiert möglicherweise für ein IIE-Keratin, während aba-k15 vermutlich die Sequenz für ein IE-Keratin enthält. Bei den Proteinflecken, denen eine Sequenz zugeordnet werden konnten, kann für Aba-K2 die Zugehörigkeit zum IIE-Typ angenommen werden, während es sich bei Aba-K10 wahrscheinlich um ein IE-Keratin handelt.Durch Datenbankvergleiche und molekulare Stammbäume konnte die Zugehörigkeit der identifizierten Lamin-Sequenz zum B3-Subtyp der Vertebraten gezeigt werden.Die Daten der Biochemie und indirekten Immunfluoreszenzmikroskopie zeigen, daß Keratine in Epithelien und Vimentin in mesenchymalen Geweben vorkommen. Es existieren starke Hinweise, daß im letzten Gewebetyp Keratine auch koexprimiert werden. Desmin kommt in großen Mengen im Magen und im Mitteldarm vor und stellt dort das prominenteste Protein.Mit den gewonnenen Sequenzdaten wurden molekulare Stammbäume und Sequenzidentitäten berechnet. Die daraus resultierenden Konsequenzen für die Verwandtschaftsverhältnisse der verschiedenen IF-Proteine sowie der Wirbeltiere werden diskutiert.
Resumo:
Ein wesentliches Ziel des COMPASS Experiments am CERN istdie direkte Messung der Gluonpolarisation in derinelastischen Streuung von polarisierten 160 GeV Myonen aneinem polarisierten Nukleon Target. In der inelastischenLepton-Nukleon-Streuung erlaubt der sog.Photon-Gluon-Fusions-Prozess (PGF) die Untersuchung derGluonverteilung.Im Rahmen der vorliegenden Arbeit wurde ein Triggersystementwickelt und aufgebaut, das gezielt PGF-Reaktionenselektiert. Das System basiert auf demkoinzidenten Nachweis der gestreuten Myonen zusammen mit denproduzierten Hadronen und generiert innerhalb 600 ns einhochselektives Triggersignal. Der Wirkungsquerschnitt derPGF wird von Ereignissen mit quasi-reellen Photonendominiert, d.h. der Myonstreuwinkel ist kein geeignetesKriterium um die gestreuten Myonen von den Strahlmyonen zutrennen, deshalb muss der Energieverlust des Myons verwendetwerden. Der sog. Energieverlusttrigger besteht aus Paarenvon Plastikszintillatorhodoskopen mit exzellenter Zeitaufloesung, die zusammen mit einer selbstentwickeltenschnellen Koinzidenzelektronik eine Koinzidenzzeit vonweniger als 3ns möglich macht. Fuer den gleichzeitigenNachweis der Hadronen wurden die beiden Hadronkalorimeterdes COMPASS--Spektrometers mit einer eigens entwickeltenElektronik versehen.
Resumo:
Zusammenfassung Quecksilber kommt in der Natur in seinen vier umweltrelevanten Spezies Hg0, Hg2+, Me2Hg, MeHg+ vor. Die methylierten Spezies wurden dabei in der Vergangenheit aufgrund ihres relativ geringen Anteils am Gesamtquecksilber oft vernachlässigt. Me2Hg und MeHg+ spielen aber eine wichtige Rolle als intermediäre Transportspezies im Quecksilberkreislauf, und eine richtige Analytik dieser Verbindungen ist daher notwendig. Die GC/AFD-Methode (Gaschromatographie/Atomfluoreszenzdetektion) in Verbindung mit einem Purge&Trap-Probenaufgabesystem ermöglicht eine nachweisstarke Analytik dieser Verbindungen in Umweltproben. Dabei müssen die ionischen Quecksilberverbindungen MeHg+ und Hg2+ derivatisiert werden, um sie einer gaschromatographischen Trennung zugänglich zu machen.Das bestehende Verfahren wurde im Rahmen dieser Arbeit mit Hilfe einer alternativen Derivatisierungsmethode verbessert. Das optimierte Verfahren erlaubt auch eine Analyse von MeHg+-Gehalten in Proben mit hoher Chloridbelastung. Solche Proben konnten mit der herkömmlichen Ethylierung als Derivatisierungsmethode nicht analysiert werden, da während der Derivatisierung eine Umwandlung des MeHg+ zu Hg0 auftritt. Bei der Propylierung findet keine solche Transformation statt und sie ist daher eine hervorragende Ergänzung der bestehenden Methode.Die GC/AFD-Methode wurde zur Quecksilberspeziation in der Antarktis als Beispiel für ein anthropogen unbeeinflusstes Gebiet verwendet. Dabei konnten methylierte Quecksilberverbindungen im Meerwasser, in der Atmosphäre und erstmals im antarktischen Schnee nachgewiesen werden und somit die bedeutende Rolle der methylierten Quecksilberspezies am biogeochemischen Stoffkreislauf des Quecksilbers in dieser Region gezeigt werden. Vergleiche mit einer kontinentalen Region zeigten, dass dort MeHg+ und Me2Hg wesentlich weniger produziert bzw. schneller abgebaut werden.
Resumo:
Für die Entwicklung objektiver Testverfahren zur Messung von Angstbewältigungsdispositionen, d.h. von Tests, deren Meßprinzip für die Probanden nicht durchschaubar ist, wurde das Dot-Probe-Paradigma verwendet. Mit diesem Paradigma läßt sich das Aufmerksamkeitsverhalten gegenüber bedrohlichem Material messen. Es wurde angenommen, daß dieses Paradigma besonders gut für eine objektive Messung der Angstbewältigungsdispositionen Vigilanz und kognitive Vermeidung geeignet ist, da Vigilanz durch verstärkte Aufnahme und Verarbeitung bedrohungsbezogener Information gekennzeichnet ist, während sich kognitive Vermeidung in der Abwendung der Aufmerksamkeit von diesen Reizen zeigt. In drei Studien wurde für verschiedene Versionen des Dot-Probe-Paradigmas überprüft, ob die für den Einsatz als Testinstrument in der Persönlichkeitsdiagnostik notwendigen Gütekriterien erfüllt sind. Dabei wurde festgestellt, daß das Dot-Probe-Paradigma sowohl bei Verwendung von Wörtern als auch von Bildern als Stimuli für klinisch unauffällige Testpersonen keine reliable Messung ermöglicht. Die erhobenen Werte waren weder über eine Woche hinweg stabil, noch waren sie intern konsistent. Infolge der ungenügenden Reliabilität fanden sich in den Studien nur unsystematische Befunde zum Zusammenhang zwischen dem Aufmerksamkeitsverhalten im Dot-Probe-Paradigma und verschiedenen Fragebogenmaßen. Darüber hinaus vermag die mangelnde Reliabilität auch die in der Literatur berichteten inkonsistenten Befunde bei der Untersuchung nicht-klinischer Stichproben mit diesem Paradigma zu erklären. Mögliche Gründe für die mangelnde Reliabilität der Messung werden diskutiert.