399 resultados para Prozesskette, hierarchisches Modell, Kosten, Kostenbetrachtung,
Resumo:
My work concerns two different systems of equations used in the mathematical modeling of semiconductors and plasmas: the Euler-Poisson system and the quantum drift-diffusion system. The first is given by the Euler equations for the conservation of mass and momentum, with a Poisson equation for the electrostatic potential. The second one takes into account the physical effects due to the smallness of the devices (quantum effects). It is a simple extension of the classical drift-diffusion model which consists of two continuity equations for the charge densities, with a Poisson equation for the electrostatic potential. Using an asymptotic expansion method, we study (in the steady-state case for a potential flow) the limit to zero of the three physical parameters which arise in the Euler-Poisson system: the electron mass, the relaxation time and the Debye length. For each limit, we prove the existence and uniqueness of profiles to the asymptotic expansion and some error estimates. For a vanishing electron mass or a vanishing relaxation time, this method gives us a new approach in the convergence of the Euler-Poisson system to the incompressible Euler equations. For a vanishing Debye length (also called quasineutral limit), we obtain a new approach in the existence of solutions when boundary layers can appear (i.e. when no compatibility condition is assumed). Moreover, using an iterative method, and a finite volume scheme or a penalized mixed finite volume scheme, we numerically show the smallness condition on the electron mass needed in the existence of solutions to the system, condition which has already been shown in the literature. In the quantum drift-diffusion model for the transient bipolar case in one-space dimension, we show, by using a time discretization and energy estimates, the existence of solutions (for a general doping profile). We also prove rigorously the quasineutral limit (for a vanishing doping profile). Finally, using a new time discretization and an algorithmic construction of entropies, we prove some regularity properties for the solutions of the equation obtained in the quasineutral limit (for a vanishing pressure). This new regularity permits us to prove the positivity of solutions to this equation for at least times large enough.
Resumo:
Es gibt kaum eine präzisere Beschreibung der Natur als die durch das Standardmodell der Elementarteilchen (SM). Es ist in der Lage bis auf wenige Ausnahmen, die Physik der Materie- und Austauschfelder zu beschreiben. Dennoch ist man interessiert an einer umfassenderen Theorie, die beispielsweise auch die Gravitation mit einbezieht, Neutrinooszillationen beschreibt, und die darüber hinaus auch weitere offene Fragen klärt. Um dieser Theorie ein Stück näher zu kommen, befasst sich die vorliegende Arbeit mit einem effektiven Potenzreihenansatz zur Beschreibung der Physik des Standardmodells und neuer Phänomene. Mit Hilfe eines Massenparameters und einem Satz neuer Kopplungskonstanten wird die Neue Physik parametrisiert. In niedrigster Ordnung erhält man das bekannte SM, Terme höherer Ordnung in der Kopplungskonstanten beschreiben die Effekte jenseits des SMs. Aus gewissen Symmetrie-Anforderungen heraus ergibt sich eine definierte Anzahl von effektiven Operatoren mit Massendimension sechs, die den hier vorgestellten Rechnungen zugrunde liegen. Wir berechnen zunächst für eine bestimmte Auswahl von Prozessen zugehörige Zerfallsbreiten bzw. Wirkungsquerschnitte in einem Modell, welches das SM um einen einzigen neuen effektiven Operator erweitertet. Unter der Annahme, dass der zusätzliche Beitrag zur Observablen innerhalb des experimentellen Messfehlers ist, geben wir anhand von vorliegenden experimentellen Ergebnissen aus leptonischen und semileptonischen Präzisionsmessungen Ausschlussgrenzen der neuen Kopplungen in Abhängigkeit von dem Massenparameter an. Die hier angeführten Resultate versetzen Physiker zum Einen in die Lage zu beurteilen, bei welchen gemessenen Observablen eine Erhöhung der Präzision sinnvoll ist, um bessere Ausschlussgrenzen angeben zu können. Zum anderen erhält man einen Anhaltspunkt, welche Prozesse im Hinblick auf Entdeckungen Neuer Physik interessant sind.
Resumo:
Für lange Zeit wurde die Mastzelle nur als Effektorzelle im Rahmen von Erkrankungen des atopischen Formenkreises gesehen. Erst lange Zeit nach ihrer ersten Beschreibung konnte gezeigt werden, dass die Mastzelle einen wichtigen Beitrag zur Abwehr von Pathogenen leistet. Dies wird vor allem durch Wege der alternativen Mastzellaktivierung, z.B. über Toll- like Rezeptoren, ermöglicht. In dieser Arbeit sollte daher zunächst die mögliche Funktion der Mastzelle bei der durch den synthetischen TLR7- Liganden Imiquimod induzierten Entzündungsreaktion der Haut und der Auswanderung von Langerhans Zellen in einem Mausmodell untersucht werden. Beide Reaktion waren dabei von Mastzellen abhängig sind. Für die frühe und schnelle Induktion der Entzündungsreaktion zeigten sich vor allem die Mastzellcytokine IL-1 und TNF-α verantwortlich. Bei der Auswanderung der Langerhans Zellen hingegen spielt das Mastzell-IL1 eine entscheidende Rolle. Imiquimod wurde in Form der Creme Aldara bereits erfolgreich zur transkutanen Immunisierung (TCI) in Mausversuchen verwendet. Da die oben beschriebenen Reaktionen, welche durch Imiquimod vermittelt werden, eine deutliche Abhängigkeit von Mastzellen zeigten, sollte nun auch die Funktion der Mastzelle bei der Entstehung einer adaptiven Immunantwort am Modell der transkutanen Immunisierung untersucht werden. Der Immunisierungserfolg und damit die Entstehung einer adaptiven Immunantwort konnte auch hier auf die Anwesenheit von Mastzellen zurückgeführt werden. Mastzellen können somit als ein weiteres wichtiges Bindeglied zwischen angeborener und erworbener Immunität gesehen werden und können so einen entscheidenden Einfluß auf die Entstehung einer adaptiven Immunantwort nehmen.
Resumo:
Arthropodenhämocyanine und Molluskenhämocyanine, die extrazellulären Atmungsproteine der Arthropoden und Mollusken, unterscheiden sich grundsätzlich im Aufbau, besitzen aber ähnliche aktive Zentren, welche in ihrer oxydierten Form für die Blaufärbung der Hämocyanine verantwortlich sind. Sauerstoff wird im Bindungszentrum zwischen zwei, von sechs Histidinen ligandierten, Kupfer(I)Ionen gebunden. Arthropodenhämocyanine bauen sich artspezifisch aus 1, 2, 4, 6, oder 8 Hexameren mit D3-Symmetrie auf. Die Untereinheiten von je ca. 75 kDa falten sich in drei Domänen unterschiedlicher Funktionen. Der komplexe, hierarchische Zusammenbau der Arthropodenhämocyanine hängt von der Heterogenität der Untereinheiten ab. Die 7 verschieden Sequenzen des 4x6-Hämocyanins von Eurypelma californicum (EcHc) sind biochemisch in der Quartärstruktur lokalisiert. Bislang fehlte noch ein unabhängig erstelltes 3D-Modell der geometrischen Gesamtstruktur welche die hexamere und monomere Topographie eindeutig zeigt. Dessen Erstellung war Gegenstand dieser Arbeit, in Verbindung mit der Zielsetzung, die 3D-Rekonstruktion in den beiden extremen physiologischen Zuständen, mit und ohne gebundenen Sauerstoff, zu erzeugen. Dazu wurden in einer eigens entwickelten Atmosphären-Präparationskammer die Proteine in Lösung schockgefrorenen und mittels Cryo-3D-Elektronenmikroskopie gemessen. Aus den daraus gewonnen Projektionsbildern ließen sich mit der ”Single Particle Analyse“ die 3D-Informationen zurückberechnen. Die 3D-Rekonstruktionen wurden mit der publizierten Röntgenkristallstruktur des hexameren Referenz-Hämocyanins der Languste Panulirus interruptus verifiziert. Die Rekonstruktionen erlaubten die eindeutige Messung diverser in der Literatur diskutierter Parameter der Architektur des 4x6-EcHc und darüber hinaus weiterer geometrischer Parameter, welche hier erstmals veröffentlicht werden. SAXS-Daten sagen extreme Translationen und Rotationen von Teilquartärstrukturen zwischen oxy- und deoxy-EcHc voraus, was von den 3D-Rekonstruktionen der beiden Zustände nicht bestätigt werden konnte: Die 16 Å Rekonstruktion der Deoxyform weicht geometrisch nicht von der 21 Å Rekonstruktion der Oxyform ab. Die Einpassung der publizierten Röntgenstruktur der Untereinheit II des Hämocyanin des Pfeilschwanzkrebses Limulus polyphemus in die Rekonstruktionen unterstützt eine auf der hexameren Hierarchieebene lokalisierte Dynamik der Oxygenierung. Mittels Einpassung modellierter molekularer Strukturen der EcHc-Sequenzen konnte eine erste Vermutung zur Lokalisation der beiden zentralen Linker-Untereinheiten b und c des 4x6-Moleküls gemacht werden: Demnach würde Untereinheit b in den exponierten Hexameren des Moleküls liegen. Aussagen über die Quartärstrukturbindungen auf molekularer Ebene aufgrund der Einpassung modellierter molekularer Daten in die Rekonstruktionen sind als spekulativ einzustufen: a) Die Auflösung der Rekonstruktion ist verbesserungswürdig. b) Es gibt keine adäquate Vorlage für eine verlässliche Strukturvorhersage; die verschiedenen EcHc-Sequenzen liegen nur als Modellierung vor. c) Es wäre eine flexible Einpassung notwendig, um Ungenauigkeiten in den modellierten Strukturen durch Sekundärstrukturanpassung zu minimieren.
Resumo:
Zusammenfassung Nanokomposite aus Polymeren und Schichtsilikaten werden zumeist auf der Basis natürlicher Tone wie Montmorillonit hergestellt. Für NMR- und EPR-Untersuchungen der Tensidschicht, die das Silikat mit dem Polymer kompatibilisiert, ist der Eisengehalt natürlicher Tone jedoch abträglich, weil er zu einer Verkürzung der Relaxationszeiten und zu einer Linienverbreiterung in den Spektren führt. Dieses Problem konnte überwunden werden, indem als Silikatkomponente eisenfreies, strukturell wohldefiniertes Magadiit hydrothermal synthetisiert und für die Kompositbildung eingesetzt wurde. Die Morphologie des Magadiits wurde durch Rasterelektronenmikroskopie charakterisiert und der Interkalationsgrad von schmelzinterkalierten Polymer-Nanokompositen wurde durch Weitwinkelröntgenstreuung bestimmt. Polymere mit Carbonylgruppen scheinen leichter zu interkalieren als solche ohne Carbonylgruppen. Polycaprolacton interkalierte sowohl in Oragnomagadiite auf der Basis von Ammoniumtensiden als auch in solche auf der Basis von Phosphoniumtensiden. Die Dynamik auf einer Nanosekundenzeitskala und die Struktur der Tensidschicht wurden mittels ortsspezifisch spinmarkierter Tensidsonden unter Nutzung von Dauerstrich- (CW) und Puls-Methoden der elektronenparamagnetischen Resonanzspektroskopie (EPR) untersucht. Zusätzlich wurde die statische 2H-Kernmagnetresonanz (NMR) an spezifisch deuterierten Tensiden angewendet, um die Tensiddynamik auf einer komplementären Zeitskala zwischen Mikrosekunden und Millisekunden zu erfassen. Sowohl die CW-EPR- als auch die 2H-NMR-Ergebnisse zeigen eine Beschleunigung der Tensiddynamik durch Interkalation von Polycaprolacton auf, während sich in den nichtinterkalierten Mikrokompositen mit Polystyrol die Tensiddynamik verlangsamt. Die Rotationskorrelationszeiten und Aktivierungsenergien offenbaren verschiedene Regime der Tensiddynamik. In Polystyrol-Mikrokompositen entspricht die Übergangstemperatur zwischen den Regimen der Glasübergangstemperatur von Polystyrol, während sie in Polycaprolacton-Nanokompositen bei der Schmelztemperatur von Polycaprolacton liegt. Durch die erhebliche Verlängerung der Elektronenspin-Relaxationszeiten bei Verwendung von eisenfreiem Magadiit können Messdaten hoher Qualität mit Puls-EPR-Experimenten erhalten werden. Insebsondere wurden die Vier-Puls-Elektron-Elektron-Doppelresonanz (DEER), die Elektronenspinechoenveloppenmodulation (ESEEM) und die Elektronen-Kern-Doppelresonanz (ENDOR) an spinmarkierten sowie spezifisch deuterierten Tensiden angewandt. Die ENDOR-Ergebnisse legen ein Model der Tensidschicht nahe, in dem zusätzlich zu den Oberflächenlagen auf dem Silikat eine wohldefinierte mittlere Lage existiert. Dieses Modell erklärt auch Verdünnungseffekte durch das Polymer in Kompositen mit Polycaprolacton und Polystyrol. Die umfangreiche Information aus den Magnetresonanztechniken ergänzt die Information aus konventionellen Charakterisierungstechniken wie Röntgendiffraktion und Transmissionselektronenmikroskopie und führt so zu einem detaillierteren Bild der Struktur und Dynamik der Tensidschicht in Nanokompositen aus Polymeren und Schichtsilikaten.
Resumo:
Der Vergleich der deutschen und der schweizerischen Rundfunkordnung unter dem Aspekt des Dualismus 1.Einleitung: Bedeutung und Grundlagen des „Dualismus“ 2.Das „duale System“ in der deutschen Rundfunkordnung 2.1 Die Genese des „dualen Systems“ - Historische und rechtliche Rahmenbedingungen 2.2 Die aktuelle Ausgestaltung des „dualen Systems“ 2.3 Das „duale System“ im europäischen Raum – europarechtliche Einflüsse und Vorgaben 3. Das „duale System“ in der schweizerischen Rundfunkordnung 3.1 Die Genese des „dualen Systems“ - Historische und rechtliche Rahmenbedingungen 3.2 Die aktuelle Ausgestaltung des „dualen Systems“ 3.3 Vergleichende Betrachtung unterschiedlicher Ausprägungen des „dualen Systems“ im Rahmen der Revision des RTVG 4. Vergleichende Betrachtung der „dualen Systeme“ 4.1 Historische und gesetzliche Rahmenbedingungen 4.2 Die spezifischen Besonderheiten des schweizerischen Rundfunkmarktes 4.3 Die einzelnen Elemente der Rundfunkordnung 5. Endergebnis Duale Systeme im Bereich des Rundfunkrechtes bedeuten Koexistenz von privaten und öffentlich-rechtlichen Rundfunkveranstaltern. Die in der Verfassung der Bundesrepublik Deutschland angelegte Rundfunkordnung ist im wesentlichen durch die Rechtsprechung des Bundesverfassungsgerichts geprägt worden. Das aufgrund dieser Vorgaben gewachsene duale System besteht aus einem starken öffentlich-rechtlichen Rundfunk, dessen Position durch die vorrangige Finanzierung aus Gebühren privilegiert wird. Im Gegenzug wird ihm die zentrale Aufgabe zur Sicherung der Grundversorgung zugewiesen. Daneben bestehen die privaten Rundfunkveranstalter, die sich aus Werbeeinnahmen und Nutzungsentgelten finanzieren und insoweit dem Wettbewerb im Markt in höherem Maße ausgeliefert sind. Im europäischen Bereich fällt der Schutz von Pluralismus und Meinungsvielfalt in erster Linie in den Zuständigkeitsbereich der Mitgliedstaaten. Die Medienlandschaften der Mitgliedstaaten sind durch vielfältige Eigenheiten und Traditionen geprägt, die gerade erhalten bleiben sollen. Die Ausgestaltung des dualen Systems im europäischen Rahmen wirft mithin Bedenken allein im Hinblick auf die Finanzierung der öffentlich-rechtlichen Veranstalter aus öffentlichen Ressourcen und die darauf basierende Wettbewerbsverzerrung auf. Mit dem Radio- und Fernsehgesetz von 1991 wurde in der Schweiz ein duales Rundfunksystem eingeführt. Das Treuhandmodell wurde ergänzt durch das Marktmodell. Allerdings galt das duale System für Rundfunk und Fernsehen in der Schweiz nur in der abgeschwächten Form eines staatlich geordneten Wettbewerbs. Es bestand ein Drei-Ebenen-Modell, das eine direkte Konkurrenz zwischen der nationalen Dachorganisation SRG (Schweizerische Rundfunkgesellschaft) und privaten Unternehmen weitestgehend vermied. Die Hauptverpflichtung des Service public oblag der SRG, die auch die Gebühren erhielt. Daneben wurden allerdings alle Veranstalter zu Service-public-Leistungen verpflichtet. Im Gegenzug dazu sah der Gesetzgeber in marktschwachen Regionen ein Gebührensplitting vor. Mit dem neuen RTVG soll dem Service Public eine Bestands- und Entwicklungsgarantie zugesichert werden. Anstelle einer scharfen Trennung zwischen gebühren- und werbefinanzierten Anbietern mit entsprechend unterschiedlichen Funktionen im Mediensystem sollen allerdings die elektronischen Medien in der Schweiz großflächig subventioniert und vermehrt mit Leistungsaufträgen gesteuert werden. Gerade auf lokaler Ebene wird eine Ausweitung des Gebührensplittings vorgesehen. Nicht nur einer, sondern eine Vielzahl von Veranstaltern soll künftig mit der Grundversorgung beauftragt werden. Insbesondere der Service public régional soll von privaten Anbietern und der SRG erbracht werden. Eine Inpflichtnahme sämtlicher privater Rundfunkveranstalter wird indes nicht vorgesehen. Anhand dieser Masterarbeit sollen weiterhin die Unterschiede herausgearbeitet werden, die einzelne nationale Rundfunksysteme aufweisen können und damit auch die rundfunkpolitischen Modelle trotz des gleich bleibenden Grundgedankens, hier des Dualismus. Die Modelle sind stets in ihrem spezifischen politischen und kulturellen Kontext zu sehen, woraus sie historisch gewachsen sind. Durch den Vergleich sollen auf der einen Seite die Probleme der Rundfunkmodelle dargelegt werden, die diesen unabhängig von ihrer Ausgestaltung in mehr oder minder ausgeprägter Form generell innewohnen (Definition der Grundversorgung - des Service public/ Ressourcenknappheit/ Krisen des dualen Systems). Andererseits sollen die spezifischen Probleme der Schweiz aufgrund ihrer mehrsprachigen, kleinstaatlichen Struktur verdeutlicht werden (Hoher Marktanteil an ausländischen, überwiegend deutschsprachigen Programmen an der Fernsehnutzung; Mehrsprachigkeit; Kleinräumigkeit von Zuschauer- und Zuhörermärkten sowie der Werbemärkte).
Resumo:
Precision measurements of phenomena related to fermion mixing require the inclusion of higher order corrections in the calculation of corresponding theoretical predictions. For this, a complete renormalization scheme for models that allow for fermion mixing is highly required. The correct treatment of unstable particles makes this task difficult and yet, no satisfactory and general solution can be found in the literature. In the present work, we study the renormalization of the fermion Lagrange density with Dirac and Majorana particles in models that involve mixing. The first part of the thesis provides a general renormalization prescription for the Lagrangian, while the second one is an application to specific models. In a general framework, using the on-shell renormalization scheme, we identify the physical mass and the decay width of a fermion from its full propagator. The so-called wave function renormalization constants are determined such that the subtracted propagator is diagonal on-shell. As a consequence of absorptive parts in the self-energy, the constants that are supposed to renormalize the incoming fermion and the outgoing antifermion are different from the ones that should renormalize the outgoing fermion and the incoming antifermion and not related by hermiticity, as desired. Instead of defining field renormalization constants identical to the wave function renormalization ones, we differentiate the two by a set of finite constants. Using the additional freedom offered by this finite difference, we investigate the possibility of defining field renormalization constants related by hermiticity. We show that for Dirac fermions, unless the model has very special features, the hermiticity condition leads to ill-defined matrix elements due to self-energy corrections of external legs. In the case of Majorana fermions, the constraints for the model are less restrictive. Here one might have a better chance to define field renormalization constants related by hermiticity. After analysing the complete renormalized Lagrangian in a general theory including vector and scalar bosons with arbitrary renormalizable interactions, we consider two specific models: quark mixing in the electroweak Standard Model and mixing of Majorana neutrinos in the seesaw mechanism. A counter term for fermion mixing matrices can not be fixed by only taking into account self-energy corrections or fermion field renormalization constants. The presence of unstable particles in the theory can lead to a non-unitary renormalized mixing matrix or to a gauge parameter dependence in its counter term. Therefore, we propose to determine the mixing matrix counter term by fixing the complete correction terms for a physical process to experimental measurements. As an example, we calculate the decay rate of a top quark and of a heavy neutrino. We provide in each of the chosen models sample calculations that can be easily extended to other theories.
Resumo:
Ein neu entwickeltes globales Atmosphärenchemie- und Zirkulationsmodell (ECHAM5/MESSy1) wurde verwendet um die Chemie und den Transport von Ozonvorläufersubstanzen zu untersuchen, mit dem Schwerpunkt auf Nichtmethankohlenwasserstoffen. Zu diesem Zweck wurde das Modell durch den Vergleich der Ergebnisse mit Messungen verschiedenen Ursprungs umfangreich evaluiert. Die Analyse zeigt, daß das Modell die Verteilung von Ozon realistisch vorhersagt, und zwar sowohl die Menge als auch den Jahresgang. An der Tropopause gibt das Modell den Austausch zwischen Stratosphäre und Troposphäre ohne vorgeschriebene Flüsse oder Konzentrationen richtig wieder. Das Modell simuliert die Ozonvorläufersubstanzen mit verschiedener Qualität im Vergleich zu den Messungen. Obwohl die Alkane vom Modell gut wiedergeben werden, ergibt sich einige Abweichungen für die Alkene. Von den oxidierten Substanzen wird Formaldehyd (HCHO) richtig wiedergegeben, während die Korrelationen zwischen Beobachtungen und Modellergebnissen für Methanol (CH3OH) und Aceton (CH3COCH3) weitaus schlechter ausfallen. Um die Qualität des Modells im Bezug auf oxidierte Substanzen zu verbessern, wurden einige Sensitivitätsstudien durchgeführt. Diese Substanzen werden durch Emissionen/Deposition von/in den Ozean beeinflußt, und die Kenntnis über den Gasaustausch mit dem Ozean ist mit großen Unsicherheiten behaftet. Um die Ergebnisse des Modells ECHAM5/MESSy1 zu verbessern wurde das neue Submodell AIRSEA entwickelt und in die MESSy-Struktur integriert. Dieses Submodell berücksichtigt den Gasaustausch zwischen Ozean und Atmosphäre einschließlich der oxidierten Substanzen. AIRSEA, welches Informationen über die Flüssigphasenkonzentration des Gases im Oberflächenwasser des Ozeans benötigt wurde ausgiebig getestet. Die Anwendung des neuen Submodells verbessert geringfügig die Modellergebnisse für Aceton und Methanol, obwohl die Verwendung einer vorgeschriebenen Flüssigphasenkonzentration stark den Erfolg der Methode einschränkt, da Meßergebnisse nicht in ausreichendem Maße zu Verfügung stehen. Diese Arbeit vermittelt neue Einsichten über organische Substanzen. Sie stellt die Wichtigkeit der Kopplung zwischen Ozean und Atmosphäre für die Budgets vieler Gase heraus.
Resumo:
In der vorliegenden Arbeit werden verschiedene Enzyme des Ajmalin-Biosynthesewegs aus der Arzneipflanze Rauvolfia serpentina charakterisiert. Dabei handelt es sich einerseits um die Vomilenin-Reduktase und die 2β-(R)-1.2-Dihydrovomilenin-Reduktase. Es wurden Versuche unternommen, diese Enzyme heterolog zu exprimieren. Eine aktive Expression konnte nicht durchgeführt werden, was mit großer Wahrscheinlichkeit auf Modifikationen in der Ursprungspflanze zurückzuführen ist. Allerdings bestehen auch Zweifel, ob es sich bei den Volllängenklonen um die cDNAs der Reduktasen handelte. Zum anderen sollte eine Strukturaufklärung der Vinorin-Synthase im Komplex mit Liganden vorgenommen werden. Die erhaltenen Proteinkristalle stellten sich als derart empfindlich gegenüber Schwankungen ihrer Umgebung und dem Eindringen von Liganden in den Kristall dar, dass eine erfolgreiche Komplexierung und strukturelle Beschreibung durch Röntgenstrukturanalyse nicht möglich war. Weiterhin wurden Mutagenesestudien mit der Vinorin-Synthase durchgeführt. Eine Asparaginsäure bildet eine Salzbrücke mit einem Arginin. Alle durchgeführten Mutationen dieser Asparaginsäure führten zu einem absoluten Aktivitätsverlust. Eine Funktion des Asparagins 277, als mitverantwortliche Aminosäure zur Bindung des Co-Substrats Acetyl-CoA, konnte anhand der Mutagenesestudien ausgeschlossen werden. Weiterhin ist es erstmals gelungen die Polyneuridinaldehyd-Esterase aus Rauvolfia serpentina zu kristallisieren. Schließlich konnte die dreidimensionale Struktur der Polyneuridinaldehyd-Esterase aufgeklärt werden. Es folgte eine Beschreibung struktureller Eigenschaften der Polyneuridinaldehyd-Esterase im Vergleich zu einem Modell, welches durch ein „Molecular Modelling“ erstellt wurde.
Resumo:
Der niederländische Astronom Willem de Sitter ist bekannt für seine inzwischen berühmte Kontroverse mit Einstein von 1916 bis 1918, worin die relativistische Kosmologie begründet wurde. In diesem Kontext wird sein Name mit dem von ihm geschaffenen kosmologischen Modell verbunden, welches er als Gegenbeispiel zu Einsteins physikalischer Intuition schuf. Obwohl diese Debatte schon in wissenschaftshistorischen Arbeiten analysiert wurde, hat de Sitters Rolle in der Rezeption und dem Verbreiten der allgemeinen Relativitätstheorie bislang in der Hauptrichtung der Einstein-Studien noch nicht die ihr zustehende Aufmerksamkeit erhalten. Die vorliegende Untersuchung zielt darauf ab, seine zentrale Wichtigkeit für die Forschung zur ART innerhalb der Leidener Community aufzuzeigen. Wie Eddington war de Sitter einer der wenigen Astronomen, die sowohl hinreichende Ausbildung als auch nötige Interessen vereinten, um zum einen die spezielle und zum anderen die allgemeine Relativitätstheorie zu verfolgen. Er befasste sich zunächst 1911 mit dem Relativitätsprinzip (Einsteins erstes Postulat der SRT); zwei Jahre später fand er einen Nachweis für die Konstanz der Lichtgeschwindigkeit (Einsteins zweites Postulat). De Sitters Interesse an Gravitationstheorien reicht sogar noch weiter zurück und lässt sich bis 1908 zurückverfolgen. Überdies verfolgte er Einsteins Versuche, einen feldtheoretischen Ansatz für die Gravitation zu konstruieren, inklusive der kontroversen Einstein-Grossmann Theorie von 1913. Diese Umstände zeigen deutlich, dass de Sitters bekannteres Werk zur ART eine Konsequenz seiner vorausgegangenen Forschungen war und kein Resultat einer plötzlichen, erst 1916 einsetzenden Beschäftigung mit Einsteins Relativitätstheorie.
Resumo:
In the present thesis, the geochemistry, petrology and geochronology of ophiolite complexes from central northern Greece were studied in detail in order to gain insights on the petrogenetic pathways and geodynamic processes that lead to their formation and evolution. The major- and trace-element content of minerals and whole rocks from all four ophiolite complexes was determined using high-precision analytical equipment. These results were then coupled with Nd and Sr isotopic measurements. In order to precisely place the evolution of these ophiolites in time, U-Pb geochronology on zircons was conducted using a SHRIMP-II. The data obtained suggest that the ophiolites studied invariably show typical characteristics of subduction-zone magmatism (e.g. negative Nb anomalies, Th enrichment). In N-MORB-normalised multielement profiles the high field-strength elements display patterns that vary from depleted to N-MORB-like. Chondrite-normalised rare-earth element (REE) profiles show flat heavy-REE patterns suggesting a shallow regime of source melting for all the ophiolites, well within the stability field of spinel lherzolite. The majority of the samples have light-REE depleted patterns. 87Sr/86Sr isotopic ratios range from 0.703184 to 0.715853 and are in cases influenced by alteration. The εNd values are positive (the majority of the mafic samples is typically 7.1-3.1) but lower than N-MORB and depleted mantle. With the exception of the Thessaloniki ophiolite that has uniform island-arc tholeiitic chemical characteristics, the rest of the ophiolites show dual chemistry consisting of rocks with minor subduction-zone characteristics that resemble chemically back-arc basin basalts (BABB) and rocks with more pronounced subduction-zone characteristics. Tectonomagmatic discrimination schemes classify the samples as island-arc tholeiites and back-arc basin basalts or N-MORB. Melting modelling carried out to evaluate source properties and degree of melting verifies the dual nature of the ophiolites. The samples that resemble back-arc basin basalts require very small degrees of melting (<10%) of fertile sources, whereas the rest of the samples require higher degrees (25-15%) of melting. As deduced from the present geochemical and petrological investigation, the ophiolites from Guevguely, Oraeokastro, Thessaloniki, and Chalkidiki represent relics of supra-subduction zone crust that formed in succeeding stages of island-arc rifting and back-arc spreading as well as in a fore arc setting. The geochronological results have provided precise determination of the timing of formation of these complexes. The age of the Guevguely ophiolite has been determined as 167±1.2 Ma, that of Thessaloniki as 169±1.4 Ma, that of Kassandra as 167±2.2 Ma and that of Sithonia as 160±1.2 Ma.
Resumo:
Der erste experimentelle Test der GDH-Summenregel für das Proton wurde 1998 am MAMI-Beschleuniger der Universität Mainz durchgeführt. Ferner wurde ein Pilot-Experiment mit einem polarisierten Deuteron-Target vorgenommen. Dieselbe Kollaboration führte 2003 ein auf das Deuteron ausgerichtetes Experiment durch mit der Absicht, die GDH-Summenregel für das Neutron zu untersuchen. Der in beiden Experimenten verwendete Aufbau erlaubt nicht nur die Messung des totalen Wirkungsquerschnitts, sondern auch gleichzeitig einzelne Teilreaktionen zu studieren. In dieser Arbeit werden die Daten des Deuteron-Pilot-Experiments von 1998 analysiert. Desweiteren wird eine Studie der Helizitätsabhängigkeit der differenziellen Wirkungsquerschnitte für drei Pion-Photoproduktionskanäle des Deuterons in der oberen Hälfte der Delta-Resonanz präsentiert. Diese Ergebnisse werden mit einem theoretischen Modell verglichen. Dabei wurde eine hinreichend gute Übereinstimmung für die unpolarisierten Reaktionen gefunden, während für die polarisierten Kanäle kleinere Diskrepanzen beobachtet wurden. Der Targetpolarisationsgrad ist einer der relevanten Parameter, der für eine absolute Normalisierung der Wirkungsquerschnitte notwendig ist. Die Analyse dieses Parameters für die 2003er Daten wird in der vorliegenden Arbeit vorgestellt. Zur Zeit ist in Mainz ein Frozen-Spin-Target im Bau. Es wird als Target für polarisierte Protonen oder polarisierte Deuteronen für zukünftige Experimente mit dem Crystal Ball zur Verfügung stehen. Die Vorbereitungen der verschiedenen Subsysteme dieses Aufbaus stellten einen wichtigen Teil dieser Arbeit dar. Die fundamentalen Grundlagen der Methode und deren technische Umsetzung, sowie der momentane Status der Aufbauarbeiten am Target werden im Detail präsentiert.
Resumo:
In dieser Arbeit werden Quantum-Hydrodynamische (QHD) Modelle betrachtet, die ihren Einsatz besonders in der Modellierung von Halbleiterbauteilen finden. Das QHD Modell besteht aus den Erhaltungsgleichungen für die Teilchendichte, das Momentum und die Energiedichte, inklusive der Quanten-Korrekturen durch das Bohmsche Potential. Zu Beginn wird eine Übersicht über die bekannten Ergebnisse der QHD Modelle unter Vernachlässigung von Kollisionseffekten gegeben, die aus einem Schrödinger-System für den gemischten-Zustand oder aus der Wigner-Gleichung hergeleitet werden können. Nach der Reformulierung der eindimensionalen QHD Gleichungen mit linearem Potential als stationäre Schrödinger-Gleichung werden die semianalytischen Fassungen der QHD Gleichungen für die Gleichspannungs-Kurve betrachtet. Weiterhin werden die viskosen Stabilisierungen des QHD Modells berücksichtigt, sowie die von Gardner vorgeschlagene numerische Viskosität für das {sf upwind} Finite-Differenzen Schema berechnet. Im Weiteren wird das viskose QHD Modell aus der Wigner-Gleichung mit Fokker-Planck Kollisions-Operator hergeleitet. Dieses Modell enthält die physikalische Viskosität, die durch den Kollision-Operator eingeführt wird. Die Existenz der Lösungen (mit strikt positiver Teilchendichte) für das isotherme, stationäre, eindimensionale, viskose Modell für allgemeine Daten und nichthomogene Randbedingungen wird gezeigt. Die dafür notwendigen Abschätzungen hängen von der Viskosität ab und erlauben daher den Grenzübergang zum nicht-viskosen Fall nicht. Numerische Simulationen der Resonanz-Tunneldiode modelliert mit dem nichtisothermen, stationären, eindimensionalen, viskosen QHD Modell zeigen den Einfluss der Viskosität auf die Lösung. Unter Verwendung des von Degond und Ringhofer entwickelten Quanten-Entropie-Minimierungs-Verfahren werden die allgemeinen QHD-Gleichungen aus der Wigner-Boltzmann-Gleichung mit dem BGK-Kollisions-Operator hergeleitet. Die Herleitung basiert auf der vorsichtige Entwicklung des Quanten-Maxwellians in Potenzen der skalierten Plankschen Konstante. Das so erhaltene Modell enthält auch vertex-Terme und dispersive Terme für die Geschwindigkeit. Dadurch bleibt die Gleichspannungs-Kurve für die Resonanz-Tunneldiode unter Verwendung des allgemeinen QHD Modells in einer Dimension numerisch erhalten. Die Ergebnisse zeigen, dass der dispersive Geschwindigkeits-Term die Lösung des Systems stabilisiert.
Resumo:
Im ersten Teil der Arbeit wurde das Bindungsverhalten von Annexin A1 und Annexin A2t an festkörperunterstützte Lipidmembranen aus POPC und POPS untersucht. Für beide Proteine konnte mit Hilfe der Fluoreszenzmikroskopie gezeigt werden, dass irreversible Bindung nur in Anwesenheit von POPS auftritt. Durch rasterkraftmikroskopische Aufnahmen konnte die laterale Organisation der Annexine auf der Lipidmembran dargestellt werden. Beide Proteine lagern sich in Form lateraler Aggregate (zweidimensionale Domänen) auf der Oberfläche an, außerdem ist der Belegungsgrad und die Größe der Domänen von der Membranzusammensetzung und der Calciumkonzentration abhängig. Mit zunehmendem POPS-Gehalt und Calciumkonzentration steigt der Belegungsgrad an und der mittlere Domänenradius wird kleiner. Diese Ergebnisse konnten in Verbindung mit detaillierten Bindungsstudien des Annexins A1 mit der Quarzmikrowaage verwendet werden, um ein Bindungsmodell auf Basis einer heterogenen Oberfläche zu entwickeln. Auf einer POPC-reichen Matrix findet reversible Adsorption statt und auf POPS-reichen Domänen irreversible Adsorption. Durch die Anpassung von dynamischen Monte Carlo-Simulationen basierend auf einer zweidimensionalen zufälligen sequentiellen Adsorption konnten Erkenntnisse über die Membranstruktur und die kinetischen Ratenkonstanten in Abhängigkeit von der Calciumkonzentration und der Inkubationszeit des Proteins gewonnen werden. Die irreversible Bindung ist in allen Calciumkonzentrationsbereichen schneller als die reversible. Außerdem zeigt die irreversible Adsorption eine deutlich stärkere Abhängigkeit von der Calciumkonzentration. Ein kleinerer Belegungsgrad bei niedrigen Ca2+-Gehalten ist hauptsächlich durch die Abnahme der verfügbaren Bindungsplätze auf der Oberfläche zu erklären. Die gute Übereinstimmung der aus den Monte Carlo-Simulationen erhaltenen Domänenstrukturen mit den rasterkraftmikroskopischen Aufnahmen und die Tatsache, dass sich die simulierten Resonanzfrequenzverläufe problemlos an die experimentellen Kurven aus den QCM-Messungen anpassen ließen, zeigt die gute Anwendbarkeit des entwickelten Simulationsprogramms auf die Adsorption von Annexin A1. Die Extraktion der kinetischen Parameter aus dem zweidimensionalen RSA-Modell ist mit Sicherheit einem einfachen Langmuir-Ansatz überlegen. Bei einem Langmuir-Modell erfolgt eine integrale Erfassung einer einzelnen makroskopischen Geschwindigkeitskonstante, während durch das RSA-Modell eine differenzierte Betrachtung des reversiblen und irreversiblen Bindungsprozesses möglich ist. Zusätzlich lassen sich mikroskopische Informationen über die Oberflächenbeschaffenheit gewinnen. Im zweiten Teil der Arbeit wurde das thermotrope Phasenverhalten von festkörperunterstützten Phospholipidbilayern untersucht. Dazu wurden mikrostrukturierte, frei stehende Membranstreifen präpariert und mit Hilfe der bildgebenden Ellipsometrie untersucht. Dadurch konnten die temperaturabhängigen Verläufe der Schichtdicke und der lateralen Membranausdehnung parallel beobachtet werden. Die ermittelten Phasenübergangstemperaturen von DMPC, diC15PC und DPPC lagen 2 - 3 °C oberhalb der Literaturwerte für vesikuläre Systeme. Außerdem wurde eine deutliche Verringerung der Kooperativität der Phasenumwandlung gefunden, was auf einen großen Einfluss des Substrats bei den festkörperunterstützten Lipidmembranen schließen lässt. Zusätzlich wurde ein nicht systematischer Zusammenhang der Ergebnisse von der Oberflächenpräparation gefunden, der es unabdingbar macht, bei Untersuchungen von festkörperunterstützten Substraten einen internen Standard einzuführen. Bei der Analyse des thermotropen Phasenübergangsverhaltens von DMPC/Cholesterol - Gemischen wurde daher die individuelle Adressierbarkeit der strukturierten Lipidmembranen ausgenutzt und ein Lipidstreifen aus reinem DMPC als Standard verwendet. Auf diese Weise konnte gezeigt werden, dass das für Phospholipide typische Phasenübergangsverhalten ab 30 mol% Cholesterol in der Membran nicht mehr vorhanden ist. Dies ist auf die Bildung einer nur durch höhere Sterole induzierten fluiden Phase mit hoch geordneten Acylketten zurückzuführen. Abschließend konnte durch die Zugabe von Ethanol zu einer mikrostrukturierten DMPC-Membran die Bildung eines interdigitierten Bilayers nachgewiesen werden. Die bildgebende Ellipsometrie ist eine sehr gute Methode zur Untersuchung festkörperunterstützter Lipidmembranen, da sie über ein sehr gutes vertikales und ein ausreichendes laterales Auflösungsvermögen besitzt. Sie ist darin zwar einem Rasterkraftmikroskop noch unterlegen, besitzt dafür aber eine einfachere Handhabung beim Umgang mit Flüssigkeiten und in der Temperierung, eine schnellere Bildgebung und ist als optische Methode nicht-invasiv.
Resumo:
Die (Wieder-)Nutzung auf Schwerkraft basierender Fördertechniken, die insbesondere durch das niedrige Energiepreisniveau in den Jahrzehnten nach dem 2. Weltkrieg in der Tagebautechnik nahezu vollständig verdrängt wurden, ist bei den heutigen wirtschaftlichen Randbedingungen und anzustrebenden ökologischen Standards eine Herausforderung für die bergbautreibende Industrie. Seit Aufnahme der Entwicklung des Förderkonzeptes – Geführte Versturztechnik – Mitte der 1990er Jahre haben sich die Kosten für Rohöl vor Steuern nach dem Tiefstand um das Jahr 1998 bis heute mehr als verdreifacht, alleine seit 2004 mehr als verdoppelt. Gesetzliche Regelwerke wie die europäische IVU-Richtlinie 96/61/EG zur „integrierten Vermeidung und Verminderung der Umweltverschmutzung“ fordern, Genehmigungen nur noch bei Einsatz der besten verfügbaren Techniken (BVT oder BAT: „best available techniques“) zu erteilen. Die Umsetzung in nationale Vorschriften wie das Bundes-Immissionsschutzgesetz und nachgeordnete Regelwerke fordern hierauf aufbauend, dass Umweltbelastungen nicht in andere Medien verlagert werden dürfen. Die Anordnung einer Versturzrinne zur Nutzung von Massenschwerebewegungen am Beispiel von Quarzitabbau im Rheinischen Schiefergebirge bei denen die Förderbezugsebene unterhalb der Strossen liegt, die zur sichern und selektiven Gewinnung des Rohstoffs aufgefahren werden müssen, erfüllt durch Rückgriff auf ein vermeintlich „archaisches“ Förderkonzept durch Nutzung der Schwerkraft die obigen Anforderungen. Offenkundige Umweltbelastungen, die alleine durch die Verbrennung von Dieselkraftstoff und hieraus resultierender Schadstoff- und Wärmeeinträge in die Luft beim verbreiteten Einsatz von SLKW zur Abwärtsförderung entstehen, können erheblich vermindert werden. Der Aspekt der Betriebssicherheit einer solchen Anordnung kann durch Auffahren eines geradlinigen Bauwerks mit an das Fördergut angepassten Dimensionen sowie Einrichtungen zur Beschränkung der kinetischen Energie erreicht werden. Diese stellen auch gleichzeitig sicher, dass die Zerkleinerung des durch die Versturzrinne abwärts transportierten Materials betrieblich zulässige Grenzen nicht überschreitet. Hierfür kann auf das umfangreiche Wissen zu Massenschwerebewegungen Rückgriff genommen werden. Dem Aspekt des Umweltschutzes, der sich in Bezug auf das Medium Luft auf den autochtonen Staub reduziert, kann durch Vorrichtungen zur Staubniederschlagung Rechnung getragen werden. Vertiefende Untersuchungen sind erforderlich, um die mit komplexen, aber erprobten Techniken arbeitende Tagebauindustrie auch in dicht besiedelten Regionen wieder an die Nutzung von Schwerkraft (-gestützten) Fördertechniken heranzuführen. Auch das Konzept – Geführte Versturztechnik – ist auf konkrete Anwendungsfälle hin in Details anzupassen.