176 resultados para Interne Modelle
Resumo:
Das Vorkommen von Häutungshormonen in adulten Insekten, insbesondere solcher, die eine lange Imaginalphase durchlaufen, wirft die Frage nach der Regulation der Ecdysteroidsynthese außerhalb der Prothorakaldrüse auf. Unter diesem Gesichtspunkt kann Gryllus bimaculatus mit einem ausgesprochen langen Adultstadium und rapiden zeitlichen Veränderungen des Ecdysontiters als ein geeignetes Versuchsobjekt angesehen werden.Der vorliegenden Dissertation liegt die Arbeitshypothese zugrunde, daß die Ecdysteroid-Synthese bzw. Sekretion von Adultgeweben in männlichen Imagines der Mittelmeerfeldgrille durch Neuropeptide hormonell reguliert wird. Als Quelle für die Ecdysteroidsynthese wurde auf Grund immunohistochemischer Befunde sowie der Ergebnisse von Sekretionsprofil-Analysen unter anderem die Oenocyten in Betracht gezogen.Zur Überprüfung dieser Hypothese wurde ein in vitro Bioassay entwickelt, der es ermöglichte, die Wirkung von extrahierten Substanzen auf die Hormonsynthese mittels RIA/HPLC zu bestimmen. Aus Köpfen adulter G. bimaculatus ließen sich durch HP-SEC Faktoren isolieren, die die Ecdysteroidsekretion in Oenocyten und Tergiten stimulierten, die aber keinen Einfluß auf die Hormonsekretion von Fettgewebe sowie der Prothorakaldrüsen hatten. Die Wirkung des aufgereinigten Extraktes in Oenocyten war zeit- und dosis-abhängig. Die ecdysiotropen Faktoren besaßen ein Molekulargewicht zwischen 26,5 und 30 kDa. Die Größe der Molmasse der ecdysiotropen Faktoren entsprach somit bei adulten männlichen Grillen etwa dem des Neurohormons PTTH bei Lepidopteren. Dennoch zeigten Antikörper, die gegen PTTH von Bombyx mori gerichtet waren im Western-Blot keine Bindung an Gryllus bimaculatus Kopfextrakte. Die Sekretionsprodukte von Oenocyten, die mit Ecdysiotropinen behandelt waren, wurden durch RP- und NP-HPLC identifiziert. Es konnten zwei zusätzliche Peaks neben einem deutlichen Anstieg von 20-Hydroxyecdyson nachgewiesen werden. Auf Grund identischer Retentionszeiten mit Referenzsubstanzen handelt es sich bei einem Peak vermutlich um Makisteron A.Obwohl die Applikation von Azadirachtin in G. bimaculatus zu einer Senkung des Hämolymph-Ecdysteroidgehalts führte, konnte keine Anreicherung von Ecdysiotropinen erzielt werden.Die die Ecdysteroidsekretion-beeinflussenden Faktoren waren resistent gegen Kochen und Alkylierung aber nicht stabil gegen Reduzierung durch DTT und Behandlung mit Neuramidase. Damit konnte gezeigt werden, daß das Vorhandensein von Disulfidbrücken und Oligosaccharidketten für die biologische Aktivität notwendig ist.Die Aminosäuresequenz-Analyse und der enzymatische Verdau der stimulierenden Faktoren durch Exopeptidasen wiesen auf geschützte N- und C-Termini hin. Ferner wurden einige interne Peptidfragmente von fünf Proteinbanden sequenziert, die keine Homologie zu bereits bekannten regulatorischen Neuropeptiden zeigten. Als einziges bekanntes Protein aus diesem Bereich konnte das â14-3-3-like Proteinâ mit Hilfe MALDI-MS identifiziert werden.Die Stimulierung der Ecdysteroidsekretion in Oenocyten von G. bimaculatus durch Oenocyten-stimulierende Faktoren (OSF) aus Kopfextrakten konnte mittels Signalstoff-Effektoren in vitro nachgeahmt werden. Außerdem wurde mit Hilfe eines RRA nachgewiesen, daß der intrazelluläre cAMP-Spiegel von Oenocyten durch OSF erhöht wird. Daraus kann geschlossen werden, daß cAMP als âSecond Messengerâ an der Wirkung der OSF beteiligt ist. Calcium-Ionen schienen für die Ecdysteroidsekretion notwendig zu sein. Allerdings führte eine artifizielle Erhöhung der intrazellulären Calcium-Konzentration durch das Ionophor Ionomycin zu einer Hemmung der Sekretion. Schließlich wird ein Modell zur Erklärung des Wirkmechanismus von OSF in Gryllus bimaculatus postuliert und diskutiert.
Resumo:
Im ersten Teil 'Analyse der Grundlagen' der Dissertation 'Aspekte der Modellbildung: Konzepte und Anwendung in der Atmungsphysiologie' werden die Grundlagen zur Verfügung gestellt. Ausgehend von der Definition der modularer dynamischer Systeme im Kapitel 1 werden Grundbegriffe zu Modellen, Simulation und Modellentwicklung (Kapitel 2) dargelegt und schließlich folgt ein Kapitel über Netzmodelle. Im zweiten Teil wird 'der Prozess der Operationalisierung' untersucht. Im Kapitel 4 wird mit 'dem Koordinatensystem der Modellbildung' ein allgemeiner Lebenszyklus zur Modellbildung vorgestellt. Das Kapitel 5 zur 'Modellentwicklung' steht im Zentrum der Arbeit, wo eine generische Struktur für modulare Level-Raten-Modelle entwickelt wird. Das Kapitel endet mit einem Konzept zur Kalibrierung von Modellen, das auf Data Mining von Modelldaten basiert. Der Prozess der Operationalisierung endet mit der Validierung im sechsten Kapitel. 'Die Validierung am Beispiel der Atmungsphysiologie' im dritten Teil stellt die Anwendung der in beiden Teilen zuvor entwickelten Theorie dar. Zunächst wird das Projekt 'Evita-Weaning-System' vorgestellt, in dem die Arbeit entstanden ist. Ferner werden die notwendigen medizinischen Grundlagen der Atmungsphysiologie analysiert (Kapitel 7). Eine detaillierte Beschreibung des Modells der Atmungsphysiologie und der dabei entwickelten Algorithmen folgt im achten Kapitel. Die Arbeit schließt mit einem Kapitel zur Validierung des physiologischen Modells.
Resumo:
Über viele Jahre hinweg wurden wieder und wieder Argumente angeführt, die diskreten Räumen gegenüber kontinuierlichen Räumen eine fundamentalere Rolle zusprechen. Unser Zugangzur diskreten Welt wird durch neuere Überlegungen der Nichtkommutativen Geometrie (NKG) bestimmt. Seit ca. 15Jahren gibt es Anstrengungen und auch Fortschritte, Physikmit Hilfe von Nichtkommutativer Geometrie besser zuverstehen. Nur eine von vielen Möglichkeiten ist dieReformulierung des Standardmodells derElementarteilchenphysik. Unter anderem gelingt es, auch denHiggs-Mechanismus geometrisch zu beschreiben. Das Higgs-Feld wird in der NKG in Form eines Zusammenhangs auf einer zweielementigen Menge beschrieben. In der Arbeit werden verschiedene Ziele erreicht:Quantisierung einer nulldimensionalen ,,Raum-Zeit'', konsistente Diskretisierungf'ur Modelle im nichtkommutativen Rahmen.Yang-Mills-Theorien auf einem Punkt mit deformiertemHiggs-Potenzial. Erweiterung auf eine ,,echte''Zwei-Punkte-Raum-Zeit, Abzählen von Feynman-Graphen in einer nulldimensionalen Theorie, Feynman-Regeln. Eine besondere Rolle werden Termini, die in derQuantenfeldtheorie ihren Ursprung haben, gewidmet. In diesemRahmen werden Begriffe frei von Komplikationen diskutiert,die durch etwaige Divergenzen oder Schwierigkeitentechnischer Natur verursacht werden könnten.Eichfixierungen, Geistbeiträge, Slavnov-Taylor-Identität undRenormierung. Iteratives Lösungsverfahren derDyson-Schwinger-Gleichung mit Computeralgebra-Unterstützung,die Renormierungsprozedur berücksichtigt.
Resumo:
Die protokollbasierte Medizin stellt einen interdisziplinären Brennpunkt der Informatik dar. Als besonderer Ausschnitt der medizinischen Teilgebiete erlaubt sie die relativ formale Spezifikation von Prozessen in den drei Bereichen der Prävention, Diagnose und Therapie.Letzterer wurde immer besonders fokussiert und gilt seit jeher im Rahmen klinischer Studien als Projektionsfläche für informationstechnologische Konzepte. Die Euphorie der frühen Jahre ernüchtert sich jedoch bei jeder Bilanz. Nur sehr wenige der unzählbaren Projekte haben ihre Routine in der alltäglichen Praxis gefunden. Die meisten Vorhaben sind an der Illusion der vollständigen Berechenbarkeit medizinischer Arbeitsabläufe gescheitert. Die traditionelle Sichtweise der klinischen Praxis beruht auf einer blockorientierten Vorstellung des Therapieausführungsprozesses. Sie entsteht durch seine Zerlegung in einzelne Therapiezweige, welche aus vordefinierten Blöcken zusammengesetzt sind. Diese können sequentiell oder parallel ausgeführt werden und sind selbst zusammengesetzt aus jeweils einer Menge von Elementen,welche die Aktivitäten der untersten Ebene darstellen. Das blockorientierte Aufbaumodell wird ergänzt durch ein regelorientiertes Ablaufmodell. Ein komplexes Regelwerk bestimmt Bedingungen für die zeitlichen und logischen Abhängigkeiten der Blöcke, deren Anordnung durch den Ausführungsprozeß gebildet wird. Die Modellierung der Therapieausführung steht zunächst vor der grundsätzlichen Frage, inwieweit die traditionelle Sichtweise für eine interne Repräsentation geeignet ist. Das übergeordnete Ziel besteht in der Integration der unterschiedlichen Ebenen der Therapiespezifikation. Dazu gehört nicht nur die strukturelle Komponente, sondern vorallem die Ablaufkomponente. Ein geeignetes Regelmodell ist erforderlich, welches den spezifischen Bedürfnissen der Therapieüberwachung gerecht wird. Die zentrale Aufgabe besteht darin, diese unterschiedlichen Ebenen zusammenzuführen. Eine sinnvolle Alternative zur traditionellen Sichtweise liefert das zustandsorientierte Modell des Therapieausführungsprozesses. Das zustandsorientierte Modell beruht auf der Sichtweise, daß der gesamte Therapieausführungsprozeß letztendlich eine lineare Folge von Zuständen beschreibt, wobei jeder Zustandsübergang durch ein Ereignis eingeleitet wird, an bestimmte Bedingungen geknüpft ist und bestimmte Aktionen auslösen kann. Die Parallelität des blockorientierten Modells tritt in den Hintergrund, denn die Menge der durchzuführenden Maßnahmen sind lediglich Eigenschaften der Zustände und keine strukturellen Elemente der Ablaufspezifikation. Zu jedem Zeitpunkt ist genau ein Zustand aktiv, und er repräsentiert eine von endlich vielen klinischen Situationen, mit all ihren spezifischen Aktivitäten und Ausführungsregeln. Die Vorteile des zustandsorientierten Modells liegen in der Integration. Die Grundstruktur verbindet die statische Darstellung der möglichen Phasenanordnungen mit der dynamischen Ausführung aktiver Regeln. Die ursprünglichen Inhalte des blockorientierten Modells werden als gewöhnliche Eigenschaften der Zustände reproduziert und stellen damit nur einen Spezialfall der zustandsbezogenen Sicht dar.Weitere Möglichkeiten für die Anreicherung der Zustände mit zusätzlichen Details sind denkbar wie sinnvoll. Die Grundstruktur bleibt bei jeder Erweiterung jedoch die gleiche. Es ergibt sich ein wiederverwendbares Grundgerüst,ein gemeinsamer Nenner für die Erfüllung der Überwachungsaufgabe.
Resumo:
Zusammenfassung der Dissertation von Gerd Jochen ArnoldThema: Aufstieg und Fall eines Gebirges - Konvektionsmodelle zur variscischen Orogenese Diese Arbeit befaßt sich mit der Entwicklung der variscischen Gebirgswurzel. Numerische Modellierung wurden mit dem Finite-Differenzen-Programm FDCON durchgeführt. Dieses berechnet auf einem Gitter die Entwicklung von Konvektion unter Berücksichtigung von Massen-, Impuls- und Energieerhaltung. Der Modellansatz eignet sich für die Untersuchung der Orogenese unter Miteinbeziehung der thermo-mechanischen Wechselwirkung von Kruste und Mantel. Kapitel 1 beschreibt wesentliche Aspekte der variscischen Gebirgsbildung. Die tektonostratigraphische Gliederung erlaubt Rückschlüsse auf das plattentektonische Szenarium während der Gebirgsbildung. Die Kollision involvierte einige Terranes, die sukzessive an Laurasia angebaut wurden und die finale Konvergenz von Gondwana mit den konsolidierten Einheiten. Diese bewirkte den maximalen Aufbau der Varisciden, der durch Hochdruck-Gesteine dokumentiert ist. Diese wurden kurz nach maximaler Krustenverdickung innerhalb weniger Millionen Jahre in geringe Tiefen angehoben. Darauf folgte eine Aufheizung der Kruste, die durch Granite dokumentiert ist. Eine zentrale Frage der Variscidenforschung ist die Ursache für die erhöhten Temperaturen in der späten orogenen Phase. Geringe und gleichförmige Krustenmächtigkeiten unter den heutigen europäischen Varisciden legen die Vermutung nahe, daß sich Teile der Mantelwurzel des Gebirges abgelöst und abgesunken sind.Kapitel 2 beschreibt physikalische Aspekte von gebirgsbildenden Prozessen, insbesondere den thermischen Zustand kontinentaler Lithosphäre und die Folgen von Krustenkonvergenz. Der Einfluß von kompositioneller Schichtung und extrinsischen Parametern auf die Rheologie und das Wechselspiel zwischen auf- und abwärts gerichteten Kräften in verschiedenen orogenen Szenarien werden diskutiert.Kapitel 3 stellt die Modelle zur variscischen Gebirgsbildung vor. Ausgehend von Kontinent-Kontinent-Kollision werden Konsequenzen von rheologischer Schichtung und tiefreichenden Schwächezonen auf das Deformationsverhalten der Kruste untersucht. Außerdem wird ein Modell zum Abriß von Mantellithosphäre während Kollision vorgestellt. Abschließend werden die thermischen Konsequenzen von Subduktion junger ozeanischer Lithosphäre diskutiert.Kapitel 4 versucht eine Synthese der Kollisionsmodelle mit Modellen zur spätorogenen variscischen Entwicklung. Die mechanischen Eigenschaften der Delaminationsmodelle sollten während der Aufbauphase des Orogens angelegt worden sein. Außerdem wird eine Fallstudie vorgestellt, bei der die Modellparameter auf die Entwicklungsgeschichte erzgebirgischer Einheiten angepaßt worden sind. Schließlich werden Modelle zur thermischen Entwicklung nach Aufstieg von Asthenosphäre an die Krustenwurzel diskutiert. Die vulkanische Aktivität während der spätorogenen variscischen Phase kann plausibel erklärt werden.Kapitel 5 faßt die Ergebnisse zusammen und interpretiert diese bezüglich des plattentektonischen Szenariums der variscischen Orogenese. Durch die sukzessive Anlegung der Suturzonen während der Konsolidierung der Terranes sind die für Delamination nötigen Schwächezonen sukzessive ins variscische Orogen eingebaut worden.
Resumo:
Mit dem Kraftbegriff behandelt die vorliegende Dissertation ein Schlüsselthema der Leibnizschen Philosophie des Individuums. Zwei zentrale und seit jeher weitgehend getrennt geführte Interpretationsdiskurse über Leibniz werden anhand der differenzierten Analyse dieses metaphysischen Kernbegriffs zusammengeführt. Dies ist zum einen der Diskurs über die Leibnizsche Metaphysik und Monadenlehre und zum anderen der über die physikalische Dynamik und die Prinzipien seiner naturwissenschaftlichen Auffassung. Der Begriff der Kraft wird von Leibniz als ein grundlegendes Konstitutivum verwendet, das in den verschiedenen Wirklichkeitsbereichen eine spezifische Auslegung in entsprechende ontologische Charakteristika erfährt. Aus diesem Grund ist dieser Begriff der methodische Ausgangspunkt zur Untersuchung des Leibnizschen Individuums oder der Monade, wo seelische Wirklichkeit, Bewusstsein und Materialität gleichermaßen metaphysisch und ontologisch begründet werden. Das Verhältnis von Körper und Seele bei Leibniz, sein naturwissenschaftlicher Denkansatz und ein spezifischer Begriff von Freiheit erhält von hier aus seinen Sinn. Denn Leibniz versteht die körperhafte Verfasstheit oder die Materialität des Individuums ebenso als dessen essentiellen Bestandteil wie das Seelische in Form von Perzeption und Apperzeption. Die Monade zeichnet sich also sowohl durch eine interne als auch externe Aktivität aus. Dies hat insbesondere die Konsequenz, dass für Leibniz der organische Körper und die mit diesem gegebene Lebendigkeit, einmal geschaffen, so unvergänglich ist wie die mit diesem geschaffene seelische Wirklichkeit. In der Konsequenz führt dies Leibniz darauf, das Universum als eine bis ins Unendliche gehende Verschachtelung von in einem Nexus stehenden organischen Individuen zu interpretieren. Das Universum wird begreifbar als eine unendlich panorganische und panpsychische Welt.
Resumo:
Gegenstand der vorliegenden Arbeit war die Synthese von organischen Photoschalter-Modellen auf der Basis von mesoionischen Pyrimidinium-olaten und Bis(thienylperfluorocyclopentenen), sowie die Darstellung substituierter Biphenyl-Biradikale als Modelle für Ventil-Systeme im Sinne eines neuen Schalter-Ventil-Konzeptes.Aufbauend auf meiner Arbeit über mesoionische Pyrimidinium-olate wurde ein henkelverbrücktes Ansa-Mesoion mit einem 16-gliedrigen Makrocyclus, sowie drei mehrcyclische mesoionische Systeme synthetisiert und auf ihr Schaltverhalten hin untersucht. Das Ansa-Mesoion stellt ein erstes einfaches Modell für Schalter-Ventil-Konjugate dar. Zur Darstellung der photochromen Bis(thienylethene) wurden die aus der Literatur bekannten Syntheserouten nach Irie als auch nach Feringa auf neue Strukturen angewandt und die Schalteigenschaften der Bis(thienylethene) optisch nachgewiesen. Die Anordnung der reaktiven Endgruppen in den synthetisierten Verbindungen schafft ideale Voraussetzungen für eine große konformelle Änderung, welche im Schalter-Ventil-Konjugat erwünscht ist. Durch vielfaches Durchlaufen des Schaltprozesses (> 100 Cyclen) konnte die hohe Reversibilität des Schaltvorganges belegt werden.Als Ventilmodelle wurden mit stabilen Nitroxidradikalen substituierte Biphenyle verwendet, deren primärer konformativer Freiheitsgrad durch die Drehung um die Phenyl-Phenyl-Einfachbindung gegeben ist. Experimentelle ESR-Daten und deren Vergleich mit Spektrensimulationen bestätigten die Abhängigkeit der Austauschwechselwirkung J zwischen den Radikalen vom Biphenyldiederwinkel.
Resumo:
In dieser Dissertation wird der seltene Zerfall K_L->emu imRahmen eines verallgemeinerten Standardmodells detailliertstudiert. In diesem Prozess bleibt die zu einer gegebenen Familie gehoerende Leptonenzahl nicht erhalten. Deswegenwerden unsere Untersuchungen im Rahmen der SU(2)_L x U(1)_Y-und SU(2)_R x SU(2)_L x U(1)_{B-L}-Modelle mit schwerenMajorana-Neutrinos ausgefuehrt. Die wichtigsten Ergebnisse dieser Arbeit betreffen dieBerechnung des Verzweigungsverhaeltnisses fuer den ZerfallK_L->emu. Im SU(2)_L x U(1)_Y-Modell mit schwerenMajorana-Neutrinos wird eine deutliche Steigerung desVerzweigungsverhaeltnisses gefunden, jedoch liegen dieerhaltenen Ergebnisse um einige Groessenordnungen unter derjetzigen experimentellen Grenze. Benutzt man das gewaehlte,auf der SU(2)_R x SU(2)_L x U(1)_{B-L}$-Eichgruppebasierende Modell mit Links-Rechts-Symmetrie, dann erhoehtdie Anwesenheit der links- und rechtshaendigen Stroeme inden Schleifendiagrammen deutlich den Wert desVerzweigungsverhaeltnisses. Dadurch koennen sich Werte inder Naehe der aktuellen experimentellen Grenze vonB(K_L->emu) < 4.7 x 10^{-12} ergeben. Um unsere Ergebnisse zu untermauern, wird die Frage derEichinvarianz bei diesem Zerfallsprozess auf demEin-Schleifen-Niveau mit besonderer Aufmerksamkeitbehandelt. Ein sogenanntes ,,on-shell skeleton``Renormierungsschema wird benutzt, um die erste vollstaendigeAnalyse der Eichinvarianz fuer den Prozess K_L->emuauszufuehren.
Resumo:
Die Struktur des Haupt-Lichtsammlerproteins II (LHCIIb) höherer Pflanzen ist aufgrund kristallographischer Strukturanalysen zu 94% aufgeklärt. Dennoch ist es bislang nicht gelungen, die aminoterminale Region des Komplexes vollständig zu lokalisieren. In einem ersten Abschnitt dieser Dissertation sollte anhand einer vergleichenden Bindungsstudie mit Hilfe von in vitro - Rekonstitutionen des LHCIIb geklärt werden, ob es sich bei dem so genannten N - terminalen Trimerisierungsmotiv des Lichtsammlerproteins um eine Interaktionsstelle mit dem Phospholipid Phosphatidylglyzerin handelt. Dazu wurden mehrere vergleichende Lipidbindungsstudien an rekombinantem Wildtyp - Protein und verschiedenen LHCIIb - Trimerisierungsmotiv - Mutanten durchgeführt, die allerdings nicht zu reproduzierbaren Ergebnissen führten.Im zweiten Teil dieser Arbeit wurden intra- und intermolekulare Distanzmessungen an rekombinantem LHCIIb mit Hilfe der Elektronenspin - Resonanz - Spektroskopie durchgeführt. Dazu wurden zweifach mit einem Spin - Label markierte LHCIIb - Monomere und Trimere mit je einer Markierungsposition pro Monomer benutzt. Im Anschluss an die Messungen wurden die erhaltenen Distanzinformationen zusammen mit den bereits zugänglichen Kristallstrukturdaten des Komplexes für eine Modellierung der aminoterminalen Region des LHCIIb verwendet. Die resultierenden Modelle lassen den Schluss zu, dass es im LHCIIb - Trimer zu konformativen Restriktionen des Aminoterminus kommt. Dem entgegen findet man eine größere konformative Diversität in den vermessenen monomeren Komplexen.
Resumo:
Das Experiment zur Überprüfung der Gerasimov-Drell-Hearn(GDH)-Summenregel am Mainzer Mikrotron diente zur Messunghelizitätsabhängiger Eigenschaften der Photoproduktion amProton. Hierbei konnten neben den totalen Photoabsorptionswirkungsquerschnitten auch Querschnitte partieller Kanäle der Einpion-, Zweipion- und Eta-Produktion bestimmt werden. Für die möglichen Doppel-Pion-Reaktionen sind zur Zeit nur wenig Information vorhanden. Daher sind die Reaktionsmechanismen der Doppel-Pion-Photoproduktion weitgehend noch unverstanden. Aus diesem Grund ist die Untersuchung weiterer Observablenerforderlich. Die Helizitätsabhängigkeit stellt eine solcheneue Observable dar und kann dadurch gemessen werden, daßein zirkular polarisiertes Photon mit einem longitudinalpolarisierten Nukleon wechselwirkt. Der Photonspin beträgt1 und der Fermionenspin des Nukleons beträgt 1/2.Die Spins koppeln zu 3/2 und 1/2. Dies liefert diehelizitätsabhängigen Wirkungsquerschnitte.Diese Dissertation beschreibt den Aufbau des Mainzer GDH-Experiments und die technische Realisation der Messung helizitätsabhängiger Photoabsorptionswirkungsquerschnitte. Die Helizitätsabhängigkeit der doppelt geladenen Doppel-Pion-Photoproduktion am Proton wurde anhand der gemessenen Daten untersucht. Diese Reaktion ist ein Zweistufenprozeß, wobei das angeregte Nukleon resonant oder nicht-resonant in die Endzustandsteilchen zerfällt. Durch die helizitätsabhängigen Daten wurden Freiheitsgradein der Doppel-Pion-Photoproduktion eingeschränkt, wodurch eine Verbesserung der Modelle der Gent-Mainz- und der Valencia-Gruppe ermöglicht wurde. Die im Rahmen dieser Arbeit ermittelten Daten haben zusätzlich eine Motivation für weitere Interpretationsansätze durch die genanntenTheoriegruppen geschaffen.
Resumo:
Streulängen beschreiben die s-Wellen-Streuung niederenergetischer Neutronen an Kernen. Solche Streuprozesse laufen nahezu ausschließlich über die starke Wechselwirkung ab. Wegen der Spinabhängigkeit der starken Wechselwirkung werden den Multiplett-Streulängen, d.h. den Streulängen der Gesamtspinzustände J, im Allgemeinen verschiedene Werte zugeordnet. Im Experiment sind die Multiplett-Streuzustände an makroskopischen Proben in der Regel nicht unmittelbar zugänglich. Messbar sind jedoch der polarisationsabhängige und -unabhängige Anteil der Streulänge, welche als inkohärente Streulänge und kohärente Streulänge bezeichnet werden und Linearkombinationen der Multiplettstreulängen sind. Durch komplexe Streulängen lässt sich der für reine Streuprozesse entwickelte Formalismus erweitern: Der Imaginärteil der Streulänge beschreibt dann die Absorption von Projektilen im Target. Sämtliche Reaktionsquerschnitte lassen sich als Funktionen der Streulänge angeben. Verbesserte Messungen der 3He-Streulängen sind für die Entwicklung theoretischer Modelle von Wenig-Nukleonen-Systemen wichtig. Für die Systeme (n,D) und (n,T) wurden in den letzten Jahren u.a. präzise theoretische Vorhersagen für die Multiplett-Streulängen gemacht. Die Übereinstimmung mit den experimentellen Ergebnissen untermauert, dass die theoretischen Unsicherheiten dieser Werte nur etwa 1 Promille betragen. Demgegenüber ist die theoretische Behandlung des n-3He-Systems aufwändiger. Bis zu Beginn der 1980er Jahre wurde eine Reihe von Vorhersagen für die Multiplett-Streulängen gemacht, die auf erfolgreichen Dreinukleon-Potentialmodellen basierten, untereinander aber vollkommen inkompatibel waren. Daneben waren zwei disjunkte Wertepaare für die Multiplett-Streulängen mit den experimentellen Ergebnissen verträglich. Obwohl es begründete Argumente zugunsten eines der Wertepaare gab, bestand die Hoffnung auf eine experimentelle Verifikation durch direkte Messung der inkohärenten Streulänge bereits 1980. Die Bestimmung des Realteils der inkohärenten Streulänge liefert in der Multiplettstreulängenebene eine Gerade, die fast orthogonal zum Band des Realteils der kohärenten Streulänge verläuft. Vermutlich aufgrund der unzureichenden Kenntnis der Realteile hat in den letzten Jahren keine nennenswerte Weiterentwicklung der Modelle für das System n–3He stattgefunden. Diese Arbeit entstand in der Absicht, durch polarisierte und unpolarisierte Experimente an 3He quantitative Fakten zur Beurteilung konkurrierender Vier-Nukleonen-Modelle zu schaffen und somit der theoretischen Arbeit auf diesem Feld einen neuen Impuls zu geben. Eine jüngst veröffentlichte theoretische Arbeit [H. M. Hofmann und G. M. Hale. Phys. Rev. C, 68(021002(R)): 1–4, Apr. 2003] zur spinabhängigen Streulänge des 3He belegt, dass die im Rahmen dieser Arbeit unternommenen Anstrengungen auf reges Interesse stoßen. Durch die Anwendung zweier sehr unterschiedlicher experimenteller Konzepte wurden Präzisionsmessungen der Realteile der kohärenten und inkohärenten Neutronenstreulänge des 3He durchgeführt. Während sich die Methode der Neutroneninterferometrie seit Ende der 1970er Jahre als Standardverfahren zur Messung von spinunabhängigen Streulängen etabliert hat, handelt es sich bei der Messung des pseudomagnetischen Präzessionswinkels am Spinecho-Spektrometer um ein neues experimentelles Verfahren. Wir erhalten aus den Experimenten für die gebundenen kohärenten und inkohärenten Streulängen neue Werte, welche die Unsicherheiten im Falle der kohärenten Streulänge um eine Größenordnung, im Falle der inkohärenten Streulänge sogar um den Faktor 30 reduzieren. Die Kombination dieser Resultate liefert verbesserte Werte der, für die nukleare Wenigkörper-Theorie wichtigen, Singulett- und Triplett-Streulängen. Wir erhalten neue Werte für die kohärenten und inkohärenten Anteile des gebundenen Streuquerschnitts, das für die Neutronenstreuung an der 3He-Quantenflüssigkeit wichtige Verhältnis von inkohärentem und kohärentem Streuquerschnitt und für den freien totalen Streuquerschnitt.
Resumo:
Als erste vollständige cDNA-Sequenz eines Muschel-Hämocyanins wurde das Nucula nucleus-Hämocyanin (NnH) sequenziert. Es besteht aus den beiden Isoformen NnH1 und NnH2, die eine Identität von etwa 61 % aufweisen. Beide sind aus acht funktionellen Domänen a-h aufgebaut, von denen die C-terminale Domäne h jeweils eine Extension von etwa 100 Aminosäuren besitzt. Auf Sequenzebene weist das Muschel-Hämocyanin eine eigentümliche Deletion im Bereich der ersten Kupferbindungsstelle und eine auffällig niedrige Anzahl an potentiellen N-Glykosylierungsstellen auf. Genomische Teilsequenzen bestätigen die Konservierung der Linkerintrons in Phase und Position, was bei den internen Introns nicht zu erkennen ist. Letztere konnten in den für die Domänen NnH1-d, NnH1-e und NnH2-c codierenden Genabschnitten nachgewiesen werden. Einen neuen Aspekt lieferte das interne Intron in NnH2-c, da es nur in einer der beiden Isoformen vorkommt. Das zweite sequenzierte Hämocyanin stammt von dem „lebenden Fossil“ Nautilus pompilius (NpH). Es wurde sowohl auf cDNA- als auch auf genomischer Ebene vollständig sequenziert und besteht aus sieben funktionellen Domänen, wobei die C-terminale Domäne h fehlt. Zu seinen Eigentümlichkeiten gehört neben 13 potentiellen N-Glykosylierungsstellen, von denen sich zwei innerhalb von Linkerregionen befinden, eine Deletion im Bereich der ersten Kupferbindungsstelle von NpH-g. Neben den konservierten Linkerintrons liegt ein Intron innerhalb des Signalpeptids sowie in den Genabschnitten für NpH-a und NpH-g. Dagegen ist weder zwischen dem Signalpeptid und NpH-a noch innerhalb der 3’UTR ein Intron vorhanden. Anhand der neuen Sequenzdaten wurde eine phylogenetische Analyse durchgeführt, in der sich die funktionellen Domänen von NnH als Schwestergruppe zu den korrespondierenden Domänen der Gastropoden anordnen. Den Erwartungen entsprechend stellt sich NpH basal innerhalb der Klasse der Cephalopoden. Phylogenetische Analysen mit der vollständigen Hämocyanin-Sequenz lösen die Verwandtschaftsverhältnisse der Klassen zueinander nicht auf, was auf schnelle Radiation schließen lässt. Die Gruppierungen innerhalb der Klassen werden dagegen sehr gut unterstützt. Mittels einer Distanzmatrix wurde eine molekulare Uhr berechnet, für deren Eichpunkt die Cephalopoden-Gastropoden-Aufspaltung vor 520 Millionen Jahren gewählt wurde. Die Entstehung der Acht-Domänen-Untereinheit fand danach vor 732 (± 33) Millionen Jahren statt. Die Trennung der Gastropoda und Protobranchia erfolgte vor 494 (± 50) Millionen Jahren, was mit Fossilfunden der Nuculidae aus dem Ordovicium übereinstimmt. Vor 396 (± 55) Millionen Jahren gingen aus einer Genduplikation die beiden Isoformen des Nucula nucleus-Hämocyanins hervor. Innerhalb der Cephalopoden wurde die Trennung zwischen Nautiloidea und Coleoidea auf 415 (± 24) Millionen Jahre zurückdatiert. Nach Fossildaten liegt der Trennungszeitraum der beiden Gruppen 470 - 400 Millionen Jahre zurück, was gut zu den Hämocyanin-Daten passt.
Resumo:
Der AMANDA-II Detektor ist primär für den richtungsaufgelösten Nachweis hochenergetischer Neutrinos konzipiert. Trotzdem können auch niederenergetische Neutrinoausbrüche, wie sie von Supernovae erwartet werden, mit hoher Signifikanz nachgewiesen werden, sofern sie innerhalb der Milchstraße stattfinden. Die experimentelle Signatur im Detektor ist ein kollektiver Anstieg der Rauschraten aller optischen Module. Zur Abschätzung der Stärke des erwarteten Signals wurden theoretische Modelle und Simulationen zu Supernovae und experimentelle Daten der Supernova SN1987A studiert. Außerdem wurden die Sensitivitäten der optischen Module neu bestimmt. Dazu mussten für den Fall des südpolaren Eises die Energieverluste geladener Teilchen untersucht und eine Simulation der Propagation von Photonen entwickelt werden. Schließlich konnte das im Kamiokande-II Detektor gemessene Signal auf die Verhältnisse des AMANDA-II Detektors skaliert werden. Im Rahmen dieser Arbeit wurde ein Algorithmus zur Echtzeit-Suche nach Signalen von Supernovae als Teilmodul der Datennahme implementiert. Dieser beinhaltet diverse Verbesserungen gegenüber der zuvor von der AMANDA-Kollaboration verwendeten Version. Aufgrund einer Optimierung auf Rechengeschwindigkeit können nun mehrere Echtzeit-Suchen mit verschiedenen Analyse-Zeitbasen im Rahmen der Datennahme simultan laufen. Die Disqualifikation optischer Module mit ungeeignetem Verhalten geschieht in Echtzeit. Allerdings muss das Verhalten der Module zu diesem Zweck anhand von gepufferten Daten beurteilt werden. Dadurch kann die Analyse der Daten der qualifizierten Module nicht ohne eine Verzögerung von etwa 5 Minuten geschehen. Im Falle einer erkannten Supernova werden die Daten für die Zeitdauer mehrerer Minuten zur späteren Auswertung in 10 Millisekunden-Intervallen archiviert. Da die Daten des Rauschverhaltens der optischen Module ansonsten in Intervallen von 500 ms zur Verfgung stehen, ist die Zeitbasis der Analyse in Einheiten von 500 ms frei wählbar. Im Rahmen dieser Arbeit wurden drei Analysen dieser Art am Südpol aktiviert: Eine mit der Zeitbasis der Datennahme von 500 ms, eine mit der Zeitbasis 4 s und eine mit der Zeitbasis 10 s. Dadurch wird die Sensitivität für Signale maximiert, die eine charakteristische exponentielle Zerfallszeit von 3 s aufweisen und gleichzeitig eine gute Sensitivität über einen weiten Bereich exponentieller Zerfallszeiten gewahrt. Anhand von Daten der Jahre 2000 bis 2003 wurden diese Analysen ausführlich untersucht. Während die Ergebnisse der Analyse mit t = 500 ms nicht vollständig nachvollziehbare Ergebnisse produzierte, konnten die Resultate der beiden Analysen mit den längeren Zeitbasen durch Simulationen reproduziert und entsprechend gut verstanden werden. Auf der Grundlage der gemessenen Daten wurden die erwarteten Signale von Supernovae simuliert. Aus einem Vergleich zwischen dieser Simulation den gemessenen Daten der Jahre 2000 bis 2003 und der Simulation des erwarteten statistischen Untergrunds kann mit einem Konfidenz-Niveau von mindestens 90 % gefolgert werden, dass in der Milchstraße nicht mehr als 3.2 Supernovae pro Jahr stattfinden. Zur Identifikation einer Supernova wird ein Ratenanstieg mit einer Signifikanz von mindestens 7.4 Standardabweichungen verlangt. Die Anzahl erwarteter Ereignisse aus dem statistischen Untergrund beträgt auf diesem Niveau weniger als ein Millionstel. Dennoch wurde ein solches Ereignis gemessen. Mit der gewählten Signifikanzschwelle werden 74 % aller möglichen Vorläufer-Sterne von Supernovae in der Galaxis überwacht. In Kombination mit dem letzten von der AMANDA-Kollaboration veröffentlicheten Ergebnis ergibt sich sogar eine obere Grenze von nur 2.6 Supernovae pro Jahr. Im Rahmen der Echtzeit-Analyse wird für die kollektive Ratenüberhöhung eine Signifikanz von mindestens 5.5 Standardabweichungen verlangt, bevor eine Meldung über die Detektion eines Supernova-Kandidaten verschickt wird. Damit liegt der überwachte Anteil Sterne der Galaxis bei 81 %, aber auch die Frequenz falscher Alarme steigt auf bei etwa 2 Ereignissen pro Woche. Die Alarm-Meldungen werden über ein Iridium-Modem in die nördliche Hemisphäre übertragen, und sollen schon bald zu SNEWS beitragen, dem weltweiten Netzwerk zur Früherkennung von Supernovae.
Resumo:
A one-dimensional multi-component reactive fluid transport algorithm, 1DREACT (Steefel, 1993) was used to investigate different fluid-rock interaction systems. A major short coming of mass transport calculations which include mineral reactions is that solid solutions occurring in many minerals are not treated adequately. Since many thermodynamic models of solid solutions are highly non-linear, this can seriously impact on the stability and efficiency of the solution algorithms used. Phase petrology community saw itself faced with a similar predicament 10 years ago. To improve performance and reliability, phase equilibrium calculations have been using pseudo compounds. The same approach is used here in the first, using the complex plagioclase solid solution as an example. Thermodynamic properties of a varying number of intermediate plagioclase phases were calculated using ideal molecular, Al-avoidance, and non-ideal mixing models. These different mixing models can easily be incorporated into the simulations without modification of the transport code. Simulation results show that as few as nine intermediate compositions are sufficient to characterize the diffusional profile between albite and anorthite. Hence this approach is very efficient, and can be used with little effort. A subsequent chapter reports the results of reactive fluid transport modeling designed to constrain the hydrothermal alteration of Paleoproterozoic sediments of the Southern Lake Superior region. Field observations reveal that quartz-pyrophyllite (or kaolinite) bearing assemblages have been transformed into muscovite-pyrophyllite-diaspore bearing assemblages due to action of fluids migrating along permeable flow channels. Fluid-rock interaction modeling with an initial qtz-prl assemblage and a K-rich fluid simulates the formation of observed mineralogical transformation. The bulk composition of the system evolves from an SiO2-rich one to an Al2O3+K2O-rich one. Simulations show that the fluid flow was up-temperature (e.g. recharge) and that fluid was K-rich. Pseudo compound approach to include solid solutions in reactive transport models was tested in modeling hydrothermal alteration of Icelandic basalts. Solid solutions of chlorites, amphiboles and plagioclase were included as the secondary mineral phases. Saline and fresh water compositions of geothermal fluids were used to investigate the effect of salinity on alteration. Fluid-rock interaction simulations produce the observed mineral transformations. They show that roughly the same alteration minerals are formed due to reactions with both types of fluid which is in agreement with the field observations. A final application is directed towards the remediation of nitrate rich groundwaters. Removal of excess nitrate from groundwater by pyrite oxidation was modeled using the reactive fluid transport algorithm. Model results show that, when a pyrite-bearing, permeable zone is placed in the flow path, nitrate concentration in infiltrating water can be significantly lowered, in agreement with proposals from the literature. This is due to nitrogen reduction. Several simulations investigate the efficiency of systems with different mineral reactive surface areas, reactive barrier zone widths, and flow rates to identify the optimum setup.
Resumo:
Das Hepatitis C Virus (HCV) ist ein umhülltes Virus aus der Familie der Flaviviridae. Es besitzt ein Plusstrang-RNA Genom von ca. 9600 Nukleotiden Länge, das nur ein kodierendes Leseraster besitzt. Das Genom wird am 5’ und 3’ Ende von nicht-translatierten Sequenzen (NTRs) flankiert, welche für die Translation und vermutlich auch Replikation von Bedeutung sind. Die 5’ NTR besitzt eine interne Ribosomeneintrittsstelle (IRES), die eine cap-unabhängige Translation des ca. 3000 Aminosäure langen viralen Polyproteins erlaubt. Dieses wird ko- und posttranslational von zellulären und viralen Proteasen in 10 funktionelle Komponenten gespalten. Inwieweit die 5’ NTR auch für die Replikation der HCV RNA benötigt wird, war zu Beginn der Arbeit nicht bekannt. Die 3’ NTR besitzt eine dreigeteilte Struktur, bestehend aus einer variablen Region, dem polyU/UC-Bereich und der sogenannten X-Sequenz, eine hochkonservierte 98 Nukleotide lange Region, die vermutlich für die RNA-Replikation und möglicherweise auch für die Translation benötigt wird. Die genuae Rolle der 3’ NTR für diese beiden Prozesse war zu Beginn der Arbeit jedoch nicht bekannt. Ziel der Dissertation war deshalb eine detaillierte genetische Untersuchung der NTRs hinsichtlich ihrer Bedeutung für die RNA-Translation und -Replikation. In die Analyse mit einbezogen wurden auch RNA-Strukturen innerhalb der kodierenden Region, die zwischen verschiedenen HCV-Genotypen hoch konserviert sind und die mit verschiedenen computer-basierten Modellen vorhergesagt wurden. Zur Kartierung der für RNA-Replikation benötigten Minimallänge der 5’ NTR wurde eine Reihe von Chimären hergestellt, in denen unterschiedlich lange Bereiche der HCV 5’ NTR 3’ terminal mit der IRES des Poliovirus fusioniert wurden. Mit diesem Ansatz konnten wir zeigen, dass die ersten 120 Nukleotide der HCV 5’ NTR als Minimaldomäne für Replikation ausreichen. Weiterhin ergab sich eine klare Korrelation zwischen der Länge der HCV 5’ NTR und der Replikationseffizienz. Mit steigender Länge der 5’ NTR nahm auch die Replikationseffizienz zu, die dann maximal war, wenn das vollständige 5’ Element mit der Poliovirus-IRES fusioniert wurde. Die hier gefundene Kopplung von Translation und Replikation in der HCV 5’ NTR könnte auf einen Mechanismus zur Regulation beider Funktionen hindeuten. Es konnte allerdings noch nicht geklärt werden, welche Bereiche innerhalb der Grenzen des IRES-Elements genau für die RNA-Replikation benötigt werden. Untersuchungen im Bereich der 3’ NTR ergaben, dass die variable Region für die Replikation entbehrlich, die X-Sequenz jedoch essentiell ist. Der polyU/UC-Bereich musste eine Länge von mindestens 11-30 Uridinen besitzen, wobei maximale Replikation ab einer Länge von 30-50 Uridinen beobachtet wurde. Die Addition von heterologen Sequenzen an das 3’ Ende der HCV-RNA führte zu einer starken Reduktion der Replikation. In den hier durchgeführten Untersuchungen zeigte keines der Elemente in der 3’ NTR einen signifikanten Einfluss auf die Translation. Ein weiteres cis aktives RNA-Element wurde im 3’ kodierenden Bereich für das NS5B Protein beschrieben. Wir fanden, dass Veränderungen dieser Struktur durch stille Punktmutationen die Replikation hemmten, welche durch die Insertion einer intakten Version dieses RNA-Elements in die variable Region der 3’ NTR wieder hergestellt werden konnte. Dieser Versuchsansatz erlaubte die genaue Untersuchung der für die Replikation kritischen Strukturelemente. Dadurch konnte gezeigt werden, dass die Struktur und die Primärsequenz der Loopbereiche essentiell sind. Darüber hinaus wurde eine Sequenzkomplementarität zwischen dem Element in der NS5B-kodierenden Region und einem RNA-Bereich in der X-Sequenz der 3’ NTR gefunden, die eine sog. „kissing loop“ Interaktion eingehen kann. Mit Hilfe von gezielten Mutationen konnten wir zeigen, dass diese RNA:RNA Interaktion zumindest transient stattfindet und für die Replikation des HCV essentiell ist.