673 resultados para neues Bauen
Resumo:
Mögliche Verformungsmechanismen, die zu den verschiedenen Glimmer- und Mineralfischen führen, sind: intrakristalline Verformung, Kristallrotation, Biegung und Faltung, Drucklösung in Kombination mit Ausfällung und dynamische Rekristallisation oder Mechanismen, die ein großes Mineral in mehrere kleine, fischförmige Kristalle aufspalten.Experimente mit ein neues Verformungsgerät und Objekten in zwei verschiedenen Matrixmaterialien werden beschrieben. Das eine ist PDMS, (Newtonianisch viskoses Polymer), und das andere Tapioca Perlen (Mohr-Couloumb Verhalten). Die Rotation von fischförmigen Objekten in PDMS stimmt mit der theoretischen Rotationsrate für ellipsenförmige Objekte in einem Newtonianischen Material überein. In einer Matrix von Tapioca Perlen nehmen die Objekte eine stabile Lage ein. Diese Orientierung ist vergleichbar mit der von Glimmerfischen. Die Verformung in der Matrix von Tapioca Perlen ist konzentriert auf dünne Scherzonen. Diese Ergebnisse implizieren, daß die Verformung in natürlichen Gesteinen auch in dünnen Scherzonen konzentriert ist.Computersimulationen werden beschrieben, mit denen der Einfluß der Eigenschaften einer Matrix auf die Rotation von Objekten und Verteilung von Deformation untersucht wird.Mit diesen Experimenten wird gezeigt, daß die Orientierung von Glimmerfischen nicht mit Verformung in einem nicht-linearen viskosen Material erklärt werden kann. Eine solche nicht-lineare Rheologie wird im Allgemeinen für die Erdkurste angenommen. Die stabile Orientierung eines Objektes kann mit weicheren Lagen in der Matrix erklärt werden.
Resumo:
Im Rahmen dieser Arbeit wurden experimentelle und theoretische Untersuchungen zum Phasen- und Grenzflächenverhalten von ternären Systemen des Typs Lösungsmittel/Fällungsmittel/Polymer durchgeführt. Diese Art der Mischungen ist vor allem für die Planung und Durchführung der Membranherstellung von Bedeutung, bei der die genaue Kenntnis des Phasendiagramms und der Grenzflächenspannung unabdingbar ist. Als Polymere dienten Polystyrol sowie Polydimethylsiloxan. Im Fall des Polystyrols kam Butanon-2 als Lösungsmittel zum Einsatz, wobei drei niedrigmolekulare lineare Alkohole als Fällungsmittel verwendet wurden. Für Polydimethylsiloxan eignen sich Toluol als Lösungsmittel und Ethanol als Fällungsmittel. Durch Lichtstreumessungen, Dampfdruckbestimmungen mittels Headspace-Gaschromatographie (VLE-Gleichgewichte) sowie Quellungsgleichgewichten lassen sich die thermodynamischen Eigenschaften der binären Subsysteme charakterisieren. Auf Grundlage der Flory-Huggins-Theorie kann das experimentell bestimmte Phasenverhalten (LLE-Gleichgewichte) in guter Übereinstimmung nach der Methode der Direktminimierung der Gibbs'schen Energie modelliert werden. Zieht man die Ergebnisse der Aktivitätsbestimmung von Dreikomponenten-Mischungen mit in Betracht, so ergeben sich systematische Abweichungen zwischen Experiment und Theorie. Sie können auf die Notwendigkeit ternärer Wechselwirkungsparameter zurückgeführt werden, die ebenfalls durch Modellierung zugänglich sind.Durch die aus den VLE- und LLE-Untersuchungen gewonnenen Ergebnissen kann die sog. Hump-Energie berechnet werden, die ein Maß für die Entmischungstendenz darstellt. Diese Größe eignet sich gut zur Beschreibung von Grenzflächenphänomenen mittels Skalengesetzen. Die für binäre Systeme gefundenen theoretisch fundierten Skalenparameter gelten jedoch nur teilweise. Ein neues Skalengesetz lässt erstmals eine Beschreibung über die gesamte Mischungslücke zu, wobei ein Parameter durch eine gemessene Grenzflächenspannung (zwischen Fällungsmittel/Polymer) ersetzt werden kann.
Resumo:
Ziel dieser Arbeit war es, die funktionelle Bedeutung des Drosophila melanogaster tumor suppressor Gens lethal(2)tumorous imaginal discs (l(2)tid) durch die Identifikation von molekularen Partnern der vom Gen kodierten Proteine zu etablieren. Mit dem Screening einer Expressionsbibliothek mittels des Hefe-Di-Hybrid-Systems wurde das Protein Patched (Ptc) als ein neues Tid-bindendes Protein identifiziert. Ptc ist ein Zentralregulator der Hedhehog-Signalkette. Diese ist in der Entwicklung konserviert und in manchen humanen Krebsarten verwickelt. Die Tid/Ptc-Interaktion wurde mittels unabhängigen biochemischen Methoden wie dem GST-pulldown-Test oder der Immunopräzipitation überprüft. Außerdem ergaben funktionelle Studien in tumorosen Imaginalscheiben einen möglichen inhibitorischen Effekt von Tid über die Hh Signaltransduktion.Im letzten Teil dieser Arbeit wurde die Interaktion zwischen Tid und dem E-APC-Protein (Adenomatous polyposis coli) bewiesen. Polakis und seine Gruppe zeigten durch Studien mit dem Hefe-Di-Hybrid-System und in vitro, dass das hTid mit dem APC-Protein interagiert. Um dies auch auf Drosophila-Ebene zu überprüfen, wurden Immunopräzipitation-Studien mit den Drosophila-Gegenstücken durchgeführt. Diese Studien zeigen zum ersten Mal eine direkte Interaktion beider Proteine in vivo.
Resumo:
Die Anregung und Emission von Fluorophoren nahe planaren Metalloberflächen und schiefen Gittern wurde mittels Oberflächenplasmonen Fluoreszenz Spektroskopie (SPFS) untersucht. Die Fluorophore konnten durch das evaneszente Plasmonenfeld angeregt und die einzelnen Abregungskanäle identifiziert werden.Die Sensorarchitektur für den Nachweis der Hybridisierung bestand aus auf einer Streptavidin-Matrix immobilisierten unmarkierten Sondensträngen. Cy5 markierte Zielsequenzen wurden aus der Lösung hybridisiert und die Adsorptionskinetiken konnten oberflächensensitiv detektiert werden.Ein neues Detektionsschema für unmarkierte Zielstränge wurde mittels fluoreszenzmarkirten Sondensträngen realisiert. Die Hybridisierung führte zu der Bildung von steifen helikalen Bereichen in der Probe und separierte den Farbstoff von der Metalloberfläche. Reduzierte Fluorezenzlöschung zeigte daher das Hybridisierungsereignis an.Die Verwendung eines potentiellen Förster-Paares zur Detektion von DNA Hybridisierung wurde untersucht. Donor und Akzeptor wurden an Ziel- und Sondenstrang immobilisiert und das Hybridisierungsereignis konnte anhand der Auslöschung der Donor-Fluorezenz nachgewiesen werden.Schließlich wurde der Einsatz von einzelstrangbindenden Proteinen (SSB) zur Steigerung der Sensitivität bezüglich Basenfehlpaarungen betrachtet. Verdrängungsreaktionen zwischen Proteinen und markierten Zielsträngen wurden anhand von SPS und Fluorezenzkinetiken studiert.
Resumo:
Es wird ein neues Konzept für ein protonenleitendes Polymer vorgestellt, das ohne eine zweite, flüssige Phase auskommt. Es beruht darauf, basische Gruppen (Imidazol) über flexible Spacer kovalent an ein Polymerrückgrat zu binden und durch Dotierung mit einer geringen Menge Säure Ladungsträger (Protonen) in dieses System einzubringen.Um die für die Leitfähigkeit und ihren Mechanismus verantwortlichen Größen zu identifizieren, wurde ein Satz von niedermolekularen Modellverbindungen definierter Struktur und hoher Reinheit synthetisiert und im reinen Zustand sowie nach Dotierung mit geringen Mengen Säure umfassend charakterisiert. Untersucht wurden die thermischen Eigenschaften, die Leitfähigkeit, die Diffusion der jeweiligen Modellverbindung sowie ggf. der zugesetzten Säure, das Protonierungsgleichgewicht und die dielektrischen Eigenschaften. Insbesondere wurden durch den Vergleich von Leitfähigkeits- und Diffusionsdaten unter Anwendung der Nernst-Einstein-Beziehung Rückschlüsse auf den Leitmechanismus gezogen.Es wurden Leitfähigkeiten von bis zu 6.5E-3 S/cm bei 120°C erreicht. Der Anteil der Strukturdiffusion (vergleichbar mit dem Grotthus-Mechanismus in Wasser) an der protonischen Leitfähigkeit betrug bis zu über 90%. Als entscheidende Faktoren für die Leitfähigkeit wurden die Glastemperatur und, mit geringerer Priorität, der Imidazolgehalt des Materials identifiziert. Die Temperaturabhängigkeit aller untersuchten Transportgrößen ließ sich durch die Vogel-Tamman-Fulcher-Gleichung exzellent beschreiben.Die vorgestellten Daten bilden die Grundlage für den Entwurf eines entsprechenden Polymers.
Resumo:
Das Ziel der vorliegenden Arbeit ist die Untersuchung der räumlichen und zeitlichen Aspekte der heterogenen Dynamik in Modellglasbildnern. Dabei wird vor allem die langsame alpha-Relaxationsdynamik oberhalb des Glasüberganges Tg untersucht. Die nukleare Magnetresonanz zeigt ihre einmalige Vielseitigkeit bei der Untersuchung molekularer Dynamik, wenn die angewandten Techniken und Experimente durch Simulationen unterstützt werden. Die räumliche Aspekt dynamischer Heterogenitäten wird untersucht durch ein reduziertes vierdimensionales Spindiffusionsexperiment (4D3CP), ein Experiment, das Reorientierungsraten örtlich korreliert. Eine Simulation dieses Experimentes an einem System harter Kugeln liefert wertvolle Informationen über die Auswertemethode des 4D3CP Experiments. Glycerol und o-terphenyl werden durch das 4D3CP Experiment untersucht. Die erhaltenen Resultate werden mit bereits publizierten Daten des polymeren Glasbildners PVAc verglichen. Während PVAc und o-terphenyl eine Längenskale von 3.7 nm bzw. 2.9 nm aufweisen, ist die Längenskale von Glycerol signifikant kleiner bei 1.1 nm. Ein neues Experiment, welches sensitiv auf Translationsbewegung reagiert, wird vorgestellt. Durch Verwendung eines pi-Impulszuges kann eine separate Evolution unter dem Hamiltonian der dipolaren Kopplung und der chemischen Verschiebungsanisotropie erreicht werden.
Resumo:
Die Kenntnis immunogener Tumorantigene ist Grundlage für die rationale Entwicklung immunologisch orientierter Therapieverfahren. In der vorliegenden Arbeit wurden im autologen Melanommodell MZ7 drei neue T-zellerkannte Tumorantigene vorgestellt. Während nahezu alle bisher beschriebenen Tumorantigene mit Hilfe von T-Zellklonen (CTL) entdeckt wurden, die aus tumorreaktiven MLTCs (gemischte Lymphozyten/Tumor-Zellkulturen) generiert worden waren, wurde in dieser Arbeit versucht, wenige Wochen stimulierte MLTCs direkt zur Antigensuche zu verwenden. Als sensitives Nachweissystem wurde der IFNg-ELISPOT-Assay eingesetzt. Die Motivation dazu waren einerseits praktische Erwägungen, da CTL-Klonierungen material- und zeitaufwendig sind. Andererseits wurde vermutet, dass die Etablierung von CTL-Klonen in Langzeitkultur neben Zufallsprozessen auch Selektionsprozessen unterliegt, die CTL mit bestimmten Eigenschaften favorisieren. Eventuell eröffnete sich durch den Einsatz der MLTCs die Möglichkeit, Antigene zu entdecken, die mit Hilfe permanent kultivierter CTL aus den MLTCs nicht gefunden würden.Um beispielsweise Schwankungen im Proliferationsverhalten und in Effektorfunktionen permanent kultivierter T-Zellen zu umgehen, wurden für die Versuche in dieser Arbeit in Portionen eingefrorene T-Zellen verwendet, die zuvor zu ausreichender Menge expandiert worden waren. Es ließ sich zeigen, dass durch die Kryokonservierung der T-Zellen zu einem bestimmten Zeitpunkt nach einer Restimulation mit den Tumorzellen der Aktivierungszustand der T-Zellen konserviert wurde, und dass die T-Zellen nach dem Auftauen in ELISPOT-Assays ohne wesentliche Einbußen spezifisch auf einen erneuten Antigenkontakt reagierten. Bei der Testung von mehreren, unabhängig generierten MLTCs gegen bekannte Tumorantigene wurden T-Zellantworten gegen gp100/HLA-B7.2, Tyrosinase/HLA-A26.1, SIRT2P182L/HLA-A3.1 und, deutlich stärker, gegen die Melanomzelllinie festgestellt. Nachfolgend wurde mit Hilfe bereits etablierter CTL-Klone die peptidkodierende Region von gp100 über die Transfektion von gp100-Fragmenten in COS-7-Zellen eingegrenzt und anschließend ein synthetisches Peptid identifiziert, das von den CTL-Klonen erkannt wurde. Das zweite identifizierte Tumorantigen, Tyrosinase/HLA-A26.1, wurde nur in einer von sechs neu generierten, unabhängigen MLTCs entdeckt. Da keine Tyrosinase/HLA-A26.1-reaktiven CTL-Klone zur Verfügung standen, wurden die zur Eingrenzung der peptidkodierenden Region transfizierten COS-7-Zellen mit der MLTC selbst getestet. Anschließend wurde ein synthetisches Peptid identifiziert, das von der MLTC erkannt wurde.Die Reaktivität der MLTCs gegen die Melanomzelllinie war bei weitem nicht durch die bis dahin gefundenen T-Zellantworten erklärbar. Daher wurde mit einer der MLTCs versucht, durch cDNA-Expressionsklonierung ein neues Antigen in der cDNA-Bank aus dem MZ7-Melanom zu identifizieren. Die Reaktivität der MLTC gegen den Tumor war hauptsächlich durch einen Antikörper gegen HLA-A3 blockierbar. Daher wurde HLA-A*03011-cDNA für das âScreeningâ kotransfiziert. Das Verfahren führte zur Identifizierung eines weiteren punktmutierten Tumorantigens: GPNMBG181D (GPNMBmutiert). Die Mutation führte dazu, dass ein Teil eines ungespleißten Introns Bestandteil der im Tumor entdeckten cDNA war. Ein aus der Exon/Intron-Region kodiertes synthetisches Peptid mit der ausgetauschten Aminosäure wurde von der MLTC deutlich erkannt. Durch RT-PCR-Analysen wurde im MZ7-Melanom, in fast allen getesteten weiteren Melanomen sowie in einem Teil der überprüften Nierenzellkarzinome eine Variante der GPNMB-cDNA entdeckt, in der ebenfalls das erwähnte Intron enthalten war, ohne dass die Mutation vorlag (GPNMB/INT4). Diese Spleißvariante wurde nicht in EBV-B-Zelllinien und anderen Tumorzelllinien gefunden. Zusätzlich zu dem bereits zuvor charakterisierten Tumorantigen SIRT2P182L wurden drei weitere T-zellerkannte Antigene im Melanommodell MZ7 identifiziert. T-Zellreaktivität gegen das Antigen GPNMBG181D entwickelte sich, im Gegensatz zu den anderen Antigenen, in allen getesteten MLTCs. Dies spricht für eine immunologische Dominanz des Antigens im Melanommodell MZ7. Die Tatsache, dass das âstärksteâ Antigen mit Hilfe einer MLTC identifiziert wurde, bietet die Aussicht, evtl. weitere dominante Antigene mit dem Verfahren identifizieren zu können. Die Verwendung von kurzzeitstimulierten MLTCs anstelle von permanent kultivierten CTL-Klonen stellt einen ersten Schritt auf dem Weg zur Beschleunigung der Suche nach Tumorantigenen dar. Die Verfahrensbeschleunigung ist die Voraussetzung dafür, in Zukunft Antigene nicht nur in archivierten Modellen zu suchen, sondern in Patienten zu einem frühen Zeitpunkt der malignen Erkrankung. Dann bestünde die Chance, dass die Kenntnis individueller Tumorantigene in immuntherapeutische Konzepte eingeht.
Resumo:
Die vorliegende Arbeit beschäftigt sich mit derAutomatisierung von Berechnungen virtuellerStrahlungskorrekturen in perturbativen Quantenfeldtheorien.Die Berücksichtigung solcher Korrekturen aufMehrschleifen-Ebene in der Störungsreihenentwicklung istheute unabdingbar, um mit der wachsenden Präzisionexperimenteller Resultate Schritt zu halten. Im allgemeinen kinematischen Fall können heute nur dieEinschleifen-Korrekturen als theoretisch gelöst angesehenwerden -- für höhere Ordnungen liegen nur Teilergebnissevor. In Mainz sind in den letzten Jahren einige neuartigeMethoden zur Integration von Zweischleifen-Feynmandiagrammenentwickelt und im xloops-Paket in algorithmischer Formteilweise erfolgreich implementiert worden. Die verwendetenVerfahren sind eine Kombination exakter symbolischerRechenmethoden mit numerischen. DieZweischleifen-Vierbeinfunktionen stellen in diesem Rahmenein neues Kapitel dar, das durch seine große Anzahl vonfreien kinematischen Parametern einerseits leichtunüberschaubar wird und andererseits auch auf symbolischerEbene die bisherigen Anforderungen übersteigt. Sie sind ausexperimenteller Sicht aber für manche Streuprozesse vongroßem Interesse. In dieser Arbeit wurde, basierend auf einer Idee von DirkKreimer, ein Verfahren untersucht, welches die skalarenVierbeinfunktionen auf Zweischleifen-Niveau ganz ohneRandbedingungen an den Parameterraum zu integrierenversucht. Die Struktur der nach vier Residuenintegrationenauftretenden Terme konnte dabei weitgehend geklärt und dieKomplexität der auftretenden Ausdrücke soweit verkleinertwerden, dass sie von heutigen Rechnern darstellbar sind.Allerdings ist man noch nicht bei einer vollständigautomatisierten Implementierung angelangt. All dies ist dasThema von Kapitel 2. Die Weiterentwicklung von xloops über Zweibeinfunktionenhinaus erschien aus vielfältigen Gründen allerdings nichtmehr sinnvoll. Im Rahmen dieser Arbeit wurde daher einradikaler Bruch vollzogen und zusammen mit C. Bauer und A.Frink eine Programmbibliothek entworfen, die als Vehikel fürsymbolische Manipulationen dient und es uns ermöglicht,übliche symbolische Sprachen wie Maple durch C++ zuersetzen. Im dritten Kapitel wird auf die Gründeeingegangen, warum diese Umstellung sinnvoll ist, und dabeidie Bibliothek GiNaC vorgestellt. Im vierten Kapitel werdenDetails der Implementierung dann im Einzelnen vorgestelltund im fünften wird sie auf ihre Praxistauglichkeituntersucht. Anhang A bietet eine Übersicht über dieverwendeten Hilfsmittel komplexer Analysis und Anhang Bbeschreibt ein bewährtes numerisches Instrument.
Resumo:
Während in den letzten Jahren zahlreiche Biosensoren zum spezifischen Nachweis von DNA entwickelt wurden, ist die Anwendung oberflächen-sensitiver Methoden auf enzymatische Reaktionen ein vergleichsweise neues Forschungsgebiet. Trotz der hohen Empfindlichkeit und der Möglichkeit zur Echtzeit-Beobachtung molekularer Prozesse, ist die Anwendung dieser Methoden nicht etabliert, da die Enzymaktivität durch die Nähe zur Oberfläche beeinträchtigt sein kann. Im Rahmen dieser Arbeit wurde die enzymatische Verlängerung immobilisierter DNA durch eine DNA Polymerase mit Hilfe von Oberflächenplasmonen-Fluoreszenzspektroskopie (SPFS) und einer Quarzkristall-Mikrowaage (QCM) untersucht. Die Synthese von DNA wurde im Fall der QCM als Massenzuwachs detektiert, der sich im Abfall der Resonanzfrequenz des Schwingquarzes und einem Anstieg seiner Dissipationsenergie ausdrückte. Die viskoelastischen Eigenschaften der DNA-Schichten wurden bestimmt, indem die erhaltenen Daten mit einem auf Voigt basierenden Modell ausgewertet wurden. SPFS nutzt das evaneszente elektromagnetische Feld, das mit Oberflächenplasmonen einhergeht, zur oberflächen-sensitiven Anregung von Chromophoren. Auf diese Weise wurde der Einbau von Farbstoff-markierten Nukleotiden in die entstehende DNA-Sequenz als Indikator für das Voranschreiten der Reaktion ausgenutzt. Beide Meßtechniken konnten erfolgreich zum Nachweis der DNA-Synthese herangezogen werden, wobei die katalytische Aktivität des Enzyms vergleichbar zu der in Lösung gemessenen war.
Resumo:
Zusammenfassung Um zu einem besseren Verständnis des Prozesses der Biomineralisation zu gelangen, muss das Zusammenwirken der verschiedenen Typen biologischer Makromoleküle, die am Keimbildungs- und Wachstumsprozess der Minerale beteiligt sind, berücksichtigt werden. In dieser Arbeit wird ein neues Modellsystem eingeführt, das aus einem SAM (self-assembled monolayer) mit verschiedenen Funktionalitäten und unterschiedlichen, gelösten Makromolekülen besteht. Es konnte gezeigt werden, dass die Kristallisation von Vaterit (CaCO3) sowie Strontianit (SrCO3) Nanodrähten der Präsenz von Polyacrylat in Kooperation mit einer COOH-funktionalisierten SAM-Oberfläche zugeschrieben werden kann. Die Kombination bestehend aus einer polaren SAM-Oberfläche und Polyacrylat fungiert als Grenzfläche für die Struktur dirigierende Kristallisation von Nanodraht-Kristallen. Weiter konnte gezeigt werden, dass die Phasenselektion von CaCO3 durch die kooperative Wechselwirkung zwischen einer SAM-Oberfläche und einem daran adsorbierten hb-Polyglycerol kontrolliert wird. Auch die Funktionalität einer SAM-Oberfläche in Gegenwart von Carboxymethyl-cellulose übt einen entscheidenden Einfluss auf die Phasenselektion des entstehenden Produktes aus. In der vorliegenden Arbeit wurden Untersuchungen an CaCO3 zur homogenen Keimbildung, zur Nukleation in Gegenwart eines Proteins sowie auf Kolloiden, die als Template fungieren, mittels Kleinwinkel-Neutronenstreuung durchgeführt. Die homogene Kristallisation in wässriger Lösung stellte sich als ein mehrstufiger Prozess heraus. In Gegenwart des Eiweißproteins Ovalbumin konnten drei Phasen identifiziert werden, darunter eine anfänglich vorhandene amorphe sowie zwei kristalline Phasen.
Resumo:
Streulängen beschreiben die s-Wellen-Streuung niederenergetischer Neutronen an Kernen. Solche Streuprozesse laufen nahezu ausschließlich über die starke Wechselwirkung ab. Wegen der Spinabhängigkeit der starken Wechselwirkung werden den Multiplett-Streulängen, d.h. den Streulängen der Gesamtspinzustände J, im Allgemeinen verschiedene Werte zugeordnet. Im Experiment sind die Multiplett-Streuzustände an makroskopischen Proben in der Regel nicht unmittelbar zugänglich. Messbar sind jedoch der polarisationsabhängige und -unabhängige Anteil der Streulänge, welche als inkohärente Streulänge und kohärente Streulänge bezeichnet werden und Linearkombinationen der Multiplettstreulängen sind. Durch komplexe Streulängen lässt sich der für reine Streuprozesse entwickelte Formalismus erweitern: Der Imaginärteil der Streulänge beschreibt dann die Absorption von Projektilen im Target. Sämtliche Reaktionsquerschnitte lassen sich als Funktionen der Streulänge angeben. Verbesserte Messungen der 3He-Streulängen sind für die Entwicklung theoretischer Modelle von Wenig-Nukleonen-Systemen wichtig. Für die Systeme (n,D) und (n,T) wurden in den letzten Jahren u.a. präzise theoretische Vorhersagen für die Multiplett-Streulängen gemacht. Die Übereinstimmung mit den experimentellen Ergebnissen untermauert, dass die theoretischen Unsicherheiten dieser Werte nur etwa 1 Promille betragen. Demgegenüber ist die theoretische Behandlung des n-3He-Systems aufwändiger. Bis zu Beginn der 1980er Jahre wurde eine Reihe von Vorhersagen für die Multiplett-Streulängen gemacht, die auf erfolgreichen Dreinukleon-Potentialmodellen basierten, untereinander aber vollkommen inkompatibel waren. Daneben waren zwei disjunkte Wertepaare für die Multiplett-Streulängen mit den experimentellen Ergebnissen verträglich. Obwohl es begründete Argumente zugunsten eines der Wertepaare gab, bestand die Hoffnung auf eine experimentelle Verifikation durch direkte Messung der inkohärenten Streulänge bereits 1980. Die Bestimmung des Realteils der inkohärenten Streulänge liefert in der Multiplettstreulängenebene eine Gerade, die fast orthogonal zum Band des Realteils der kohärenten Streulänge verläuft. Vermutlich aufgrund der unzureichenden Kenntnis der Realteile hat in den letzten Jahren keine nennenswerte Weiterentwicklung der Modelle für das System n–3He stattgefunden. Diese Arbeit entstand in der Absicht, durch polarisierte und unpolarisierte Experimente an 3He quantitative Fakten zur Beurteilung konkurrierender Vier-Nukleonen-Modelle zu schaffen und somit der theoretischen Arbeit auf diesem Feld einen neuen Impuls zu geben. Eine jüngst veröffentlichte theoretische Arbeit [H. M. Hofmann und G. M. Hale. Phys. Rev. C, 68(021002(R)): 1–4, Apr. 2003] zur spinabhängigen Streulänge des 3He belegt, dass die im Rahmen dieser Arbeit unternommenen Anstrengungen auf reges Interesse stoßen. Durch die Anwendung zweier sehr unterschiedlicher experimenteller Konzepte wurden Präzisionsmessungen der Realteile der kohärenten und inkohärenten Neutronenstreulänge des 3He durchgeführt. Während sich die Methode der Neutroneninterferometrie seit Ende der 1970er Jahre als Standardverfahren zur Messung von spinunabhängigen Streulängen etabliert hat, handelt es sich bei der Messung des pseudomagnetischen Präzessionswinkels am Spinecho-Spektrometer um ein neues experimentelles Verfahren. Wir erhalten aus den Experimenten für die gebundenen kohärenten und inkohärenten Streulängen neue Werte, welche die Unsicherheiten im Falle der kohärenten Streulänge um eine Größenordnung, im Falle der inkohärenten Streulänge sogar um den Faktor 30 reduzieren. Die Kombination dieser Resultate liefert verbesserte Werte der, für die nukleare Wenigkörper-Theorie wichtigen, Singulett- und Triplett-Streulängen. Wir erhalten neue Werte für die kohärenten und inkohärenten Anteile des gebundenen Streuquerschnitts, das für die Neutronenstreuung an der 3He-Quantenflüssigkeit wichtige Verhältnis von inkohärentem und kohärentem Streuquerschnitt und für den freien totalen Streuquerschnitt.
Resumo:
The comparative genomic sequence analysis of a region in human chromosome 11p15.3 and its homologous segment in mouse chromosome 7 between ST5 and LMO1 genes has been performed. 158,201 bases were sequenced in the mouse and compared with the syntenic region in human, partially available in the public databases. The analysed region exhibits the typical eukaryotic genomic structure and compared with the close neighbouring regions, strikingly reflexes the mosaic pattern distribution of (G+C) and repeats content despites its relative short size. Within this region the novel gene STK33 was discovered (Stk33 in the mouse), that codes for a serine/threonine kinase. The finding of this gene constitutes an excellent example of the strength of the comparative sequencing approach. Poor gene-predictions in the mouse genomic sequence were corrected and improved by the comparison with the unordered data from the human genomic sequence publicly available. Phylogenetical analysis suggests that STK33 belongs to the calcium/calmodulin-dependent protein kinases group and seems to be a novelty in the chordate lineage. The gene, as a whole, seems to evolve under purifying selection whereas some regions appear to be under strong positive selection. Both human and mouse versions of serine/threonine kinase 33, consists of seventeen exons highly conserved in the coding regions, particularly in those coding for the core protein kinase domain. Also the exon/intron structure in the coding regions of the gene is conserved between human and mouse. The existence and functionality of the gene is supported by the presence of entries in the EST databases and was in vivo fully confirmed by isolating specific transcripts from human uterus total RNA and from several mouse tissues. Strong evidence for alternative splicing was found, which may result in tissue-specific starting points of transcription and in some extent, different protein N-termini. RT-PCR and hybridisation experiments suggest that STK33/Stk33 is differentially expressed in a few tissues and in relative low levels. STK33 has been shown to be reproducibly down-regulated in tumor tissues, particularly in ovarian tumors. RNA in-situ hybridisation experiments using mouse Stk33-specific probes showed expression in dividing cells from lung and germinal epithelium and possibly also in macrophages from kidney and lungs. Preliminary experimentation with antibodies designed in this work, performed in parallel to the preparation of this manuscript, seems to confirm this expression pattern. The fact that the chromosomal region 11p15 in which STK33 is located may be associated with several human diseases including tumor development, suggest further investigation is necessary to establish the role of STK33 in human health.
Resumo:
The increasing precision of current and future experiments in high-energy physics requires a likewise increase in the accuracy of the calculation of theoretical predictions, in order to find evidence for possible deviations of the generally accepted Standard Model of elementary particles and interactions. Calculating the experimentally measurable cross sections of scattering and decay processes to a higher accuracy directly translates into including higher order radiative corrections in the calculation. The large number of particles and interactions in the full Standard Model results in an exponentially growing number of Feynman diagrams contributing to any given process in higher orders. Additionally, the appearance of multiple independent mass scales makes even the calculation of single diagrams non-trivial. For over two decades now, the only way to cope with these issues has been to rely on the assistance of computers. The aim of the xloops project is to provide the necessary tools to automate the calculation procedures as far as possible, including the generation of the contributing diagrams and the evaluation of the resulting Feynman integrals. The latter is based on the techniques developed in Mainz for solving one- and two-loop diagrams in a general and systematic way using parallel/orthogonal space methods. These techniques involve a considerable amount of symbolic computations. During the development of xloops it was found that conventional computer algebra systems were not a suitable implementation environment. For this reason, a new system called GiNaC has been created, which allows the development of large-scale symbolic applications in an object-oriented fashion within the C++ programming language. This system, which is now also in use for other projects besides xloops, is the main focus of this thesis. The implementation of GiNaC as a C++ library sets it apart from other algebraic systems. Our results prove that a highly efficient symbolic manipulator can be designed in an object-oriented way, and that having a very fine granularity of objects is also feasible. The xloops-related parts of this work consist of a new implementation, based on GiNaC, of functions for calculating one-loop Feynman integrals that already existed in the original xloops program, as well as the addition of supplementary modules belonging to the interface between the library of integral functions and the diagram generator.
Resumo:
Die Arbeit beginnt mit dem Vergleich spezieller Regularisierungsmethoden in der Quantenfeldtheorie mit dem Verfahren zur störungstheoretischen Konstruktion der S-Matrix nach Epstein und Glaser. Da das Epstein-Glaser-Verfahren selbst als Regularisierungsverfahren verwandt werden kann und darüberhinaus ausschließlich auf physikalisch motivierten Postulaten basiert, liefert dieser Vergleich ein Kriterium für die Zulässigkeit anderer Regularisierungsmethoden. Zusätzlich zur Herausstellung dieser Zulässigkeit resultiert aus dieser Gegenüberstellung als weiteres wesentliches Resultat ein neues, in der Anwendung praktikables sowie konsistentes Regularisierungsverfahren, das modifizierte BPHZ-Verfahren. Dieses wird anhand von Ein-Schleifen-Diagrammen aus der QED (Elektronselbstenergie, Vakuumpolarisation und Vertexkorrektur) demonstriert. Im Gegensatz zur vielverwandten Dimensionalen Regularisierung ist dieses Verfahren uneingeschränkt auch für chirale Theorien anwendbar. Als Beispiel hierfür dient die Berechnung der im Rahmen einer axialen Erweiterung der QED-Lagrangedichte auftretenden U(1)-Anomalie. Auf der Stufe von Mehr-Schleifen-Diagrammen zeigt der Vergleich der Epstein-Glaser-Konstruktion mit dem bekannten BPHZ-Verfahren an mehreren Beispielen aus der Phi^4-Theorie, darunter das sog. Sunrise-Diagramm, daß zu deren Berechnung die nach der Waldformel des BPHZ-Verfahrens zur Regularisierung beitragenden Unterdiagramme auf eine kleinere Klasse eingeschränkt werden können. Dieses Resultat ist gleichfalls für die Praxis der Regularisierung bedeutsam, da es bereits auf der Stufe der zu berücksichtigenden Unterdiagramme zu einer Vereinfachung führt.
Resumo:
Für die Zukunft wird eine Zunahme an Verkehr prognostiziert, gleichzeitig herrscht ein Mangel an Raum und finanziellen Mitteln, um weitere Straßen zu bauen. Daher müssen die vorhandenen Kapazitäten durch eine bessere Verkehrssteuerung sinnvoller genutzt werden, z.B. durch Verkehrsleitsysteme. Dafür werden räumlich aufgelöste, d.h. den Verkehr in seiner flächenhaften Verteilung wiedergebende Daten benötigt, die jedoch fehlen. Bisher konnten Verkehrsdaten nur dort erhoben werden, wo sich örtlich feste Meßeinrichtungen befinden, jedoch können damit die fehlenden Daten nicht erhoben werden. Mit Fernerkundungssystemen ergibt sich die Möglichkeit, diese Daten flächendeckend mit einem Blick von oben zu erfassen. Nach jahrzehntelangen Erfahrungen mit Fernerkundungsmethoden zur Erfassung und Untersuchung der verschiedensten Phänomene auf der Erdoberfläche wird nun diese Methodik im Rahmen eines Pilotprojektes auf den Themenbereich Verkehr angewendet. Seit Ende der 1990er Jahre wurde mit flugzeuggetragenen optischen und Infrarot-Aufnahmesystemen Verkehr beobachtet. Doch bei schlechten Wetterbedingungen und insbesondere bei Bewölkung, sind keine brauchbaren Aufnahmen möglich. Mit einem abbildenden Radarverfahren werden Daten unabhängig von Wetter- und Tageslichtbedingungen oder Bewölkung erhoben. Im Rahmen dieser Arbeit wird untersucht, inwieweit mit Hilfe von flugzeuggetragenem synthetischem Apertur Radar (SAR) Verkehrsdaten aufgenommen, verarbeitet und sinnvoll angewendet werden können. Nicht nur wird die neue Technik der Along-Track Interferometrie (ATI) und die Prozessierung und Verarbeitung der aufgenommenen Verkehrsdaten ausführlich dargelegt, es wird darüberhinaus ein mit dieser Methodik erstellter Datensatz mit einer Verkehrssimulation verglichen und bewertet. Abschließend wird ein Ausblick auf zukünftige Entwicklungen der Radarfernerkundung zur Verkehrsdatenerfassung gegeben.