7 resultados para Pressure-State-Response model
em ArchiMeD - Elektronische Publikationen der Universität Mainz - Alemanha
Resumo:
Der Haupt-Lichtsammelkomplex (LHCII) des Photosyntheseapparates höherer Pflanzen gehört zu den häufigsten Membranproteinen der Erde. Seine Kristallstruktur ist bekannt. Das Apoprotein kann rekombinant in Escherichia coli überexprimiert und somit molekularbiologisch vielfältig verändert werden. In Detergenzlösung besitzt das denaturierte Protein die erstaunliche Fähigkeit, sich spontan zu funktionalen Protein-Pigment-Komplexen zu organisieren, welche strukturell nahezu identisch sind mit nativem LHCII. Der Faltungsprozess findet in vitro im Zeitbereich von Sekunden bis Minuten statt und ist abhängig von der Bindung der Cofaktoren Chlorophyll a und b sowie verschiedenen Carotinoiden.rn Diese Eigenschaften machen LHCII besonders geeignet für Strukturuntersuchungen mittels der elektronenparamagnetischen Resonanz (EPR)-Spektrokopie. Diese setzt eine punktspezifische Spinmarkierung des LHCII voraus, die in dieser Arbeit zunächst optimiert wurde. Einschließlich der Beiträge Anderer stand eine breite Auswahl von über 40 spinmarkierten Mutanten des LHCII bereit, einen N-terminalen „Cys walk“ eingeschlossen. Weder der hierfür notwendige Austausch einzelner Aminosäuren noch die Anknüpfung des Spinmarkers beeinträchtigten die Funktion des LHCII. Zudem konnte ein Protokoll zur Präparation heterogen spinmarkierter LHCII-Trimere entwickelt werden, also von Trimeren, die jeweils nur ein Monomer mit einer Spinmarkierung enthalten.rn Spinmarkierte Proben des Detergenz-solubilisierten LHCII wurden unter Verwendung verschiedener EPR-Techniken strukturell analysiert. Als besonders aussagekräftig erwies sich die Messung der Wasserzugänglichkeit einzelner Aminosäurepositionen anhand der Electron Spin Echo Envelope Modulation (ESEEM). In Kombination mit der etablierten Double Electron-Electron Resonance (DEER)-Technik zur Detektion von Abständen zwischen zwei Spinmarkern wurde der membranständige Kernbereich des LHCII in Lösung eingehend untersucht und strukturell der Kristallstruktur für sehr ähnlich befunden. Die Vermessung kristallographisch nicht erfasster Bereiche nahe dem N-Terminus offenbarte die schon früher detektierte Strukturdynamik der Domäne in Abhängigkeit des Oligomerisierungsgrades. Der neue, noch zu vervollständigende Datensatz aus Abstandsverteilungen und ESEEM-Wasserzugänglichkeiten monomerer wie trimerer Proben sollte in naher Zukunft die sehr genaue Modellierung der N-terminalen Domäne des LHCII ermöglichen.rn In einem weiteren Abschnitt der Arbeit wurde die Faltung des LHCII-Apoproteins bei der LHCII-Assemblierung in vitro untersucht. Vorausgegangene fluoreszenzspektroskopi-sche Arbeiten hatten gezeigt, dass die Bindung von Chlorophyll a und b in aufeinanderfolgenden Schritten im Zeitbereich von weniger als einer Minute bzw. mehreren Minuten erfolgten. Sowohl die Wasserzugänglichkeit einzelner Aminosäurepositionen als auch Spin-Spin-Abstände änderten sich in ähnlichen Zeitbereichen. Die Daten deuten darauf hin, dass die Ausbildung der mittleren Transmembran-Helix mit der schnelleren Chlorophyll-a-Bindung einhergeht, während sich die Superhelix aus den beiden anderen Transmembranhelices erst im langsameren Schritt, zusammen mit der Chlorophyll-b-Bindung, ausbildet.rn
Resumo:
Die protokollbasierte Medizin stellt einen interdisziplinären Brennpunkt der Informatik dar. Als besonderer Ausschnitt der medizinischen Teilgebiete erlaubt sie die relativ formale Spezifikation von Prozessen in den drei Bereichen der Prävention, Diagnose und Therapie.Letzterer wurde immer besonders fokussiert und gilt seit jeher im Rahmen klinischer Studien als Projektionsfläche für informationstechnologische Konzepte. Die Euphorie der frühen Jahre ernüchtert sich jedoch bei jeder Bilanz. Nur sehr wenige der unzählbaren Projekte haben ihre Routine in der alltäglichen Praxis gefunden. Die meisten Vorhaben sind an der Illusion der vollständigen Berechenbarkeit medizinischer Arbeitsabläufe gescheitert. Die traditionelle Sichtweise der klinischen Praxis beruht auf einer blockorientierten Vorstellung des Therapieausführungsprozesses. Sie entsteht durch seine Zerlegung in einzelne Therapiezweige, welche aus vordefinierten Blöcken zusammengesetzt sind. Diese können sequentiell oder parallel ausgeführt werden und sind selbst zusammengesetzt aus jeweils einer Menge von Elementen,welche die Aktivitäten der untersten Ebene darstellen. Das blockorientierte Aufbaumodell wird ergänzt durch ein regelorientiertes Ablaufmodell. Ein komplexes Regelwerk bestimmt Bedingungen für die zeitlichen und logischen Abhängigkeiten der Blöcke, deren Anordnung durch den Ausführungsprozeß gebildet wird. Die Modellierung der Therapieausführung steht zunächst vor der grundsätzlichen Frage, inwieweit die traditionelle Sichtweise für eine interne Repräsentation geeignet ist. Das übergeordnete Ziel besteht in der Integration der unterschiedlichen Ebenen der Therapiespezifikation. Dazu gehört nicht nur die strukturelle Komponente, sondern vorallem die Ablaufkomponente. Ein geeignetes Regelmodell ist erforderlich, welches den spezifischen Bedürfnissen der Therapieüberwachung gerecht wird. Die zentrale Aufgabe besteht darin, diese unterschiedlichen Ebenen zusammenzuführen. Eine sinnvolle Alternative zur traditionellen Sichtweise liefert das zustandsorientierte Modell des Therapieausführungsprozesses. Das zustandsorientierte Modell beruht auf der Sichtweise, daß der gesamte Therapieausführungsprozeß letztendlich eine lineare Folge von Zuständen beschreibt, wobei jeder Zustandsübergang durch ein Ereignis eingeleitet wird, an bestimmte Bedingungen geknüpft ist und bestimmte Aktionen auslösen kann. Die Parallelität des blockorientierten Modells tritt in den Hintergrund, denn die Menge der durchzuführenden Maßnahmen sind lediglich Eigenschaften der Zustände und keine strukturellen Elemente der Ablaufspezifikation. Zu jedem Zeitpunkt ist genau ein Zustand aktiv, und er repräsentiert eine von endlich vielen klinischen Situationen, mit all ihren spezifischen Aktivitäten und Ausführungsregeln. Die Vorteile des zustandsorientierten Modells liegen in der Integration. Die Grundstruktur verbindet die statische Darstellung der möglichen Phasenanordnungen mit der dynamischen Ausführung aktiver Regeln. Die ursprünglichen Inhalte des blockorientierten Modells werden als gewöhnliche Eigenschaften der Zustände reproduziert und stellen damit nur einen Spezialfall der zustandsbezogenen Sicht dar.Weitere Möglichkeiten für die Anreicherung der Zustände mit zusätzlichen Details sind denkbar wie sinnvoll. Die Grundstruktur bleibt bei jeder Erweiterung jedoch die gleiche. Es ergibt sich ein wiederverwendbares Grundgerüst,ein gemeinsamer Nenner für die Erfüllung der Überwachungsaufgabe.
Resumo:
We investigate a chain consisting of two coupled worm-like chains withconstant distance between the strands. The effects due todouble-strandedness of the chain are studied. In a previous analyticalstudy of this system an intrinsic twist-stretch coupling and atendency of kinking is predicted. Even though a local twist structureis observed the predicted features are not recovered. A new model for DNA at the base-pair level is presented. Thebase-pairs are treated as flat rigid ellipsoids and thesugar-phosphate backbones are represented as stiff harmonic springs.The base-pair stacking interaction is modeled by a variant of theGay-Berne potential. It is shown by systematic coarse-graininghow the elastic constants of a worm-like chain are related to thelocal fluctuations of the base-pair step parameters. Even though a lotof microscopic details of the base-pair geometry is neglected themodel can be optimized to obtain a B-DNA conformation as ground stateand reasonable elastic properties. Moreover the model allows tosimulate much larger length scales than it is possible with atomisticsimulations due to the simplification of the force-field and inparticular due to the possibility of non-local Monte-Carlo moves. Asa first application the behavior under stretching is investigated. Inagreement with micromanipulation experiments on single DNA moleculesone observes a force-plateau in the force-extension curvescorresponding to an overstretching transition from B-DNA to aso-called S-DNA state. The model suggests a structure for S-DNA withhighly inclined base-pairs in order to enable at least partialbase-pair stacking. Finally a simple model for chromatin is introduced to study itsstructural and elastic properties. The underlying geometry of themodeled fiber is based on a crossed-linker model. The chromatosomesare treated as disk-like objects. Excluded volume and short rangenucleosomal interaction are taken into account by a variant of theGay-Berne potential. It is found that the bending rigidity and thestretching modulus of the fiber increase with more compact fibers. Fora reasonable parameterization of the fiber for physiologicalconditions and sufficiently high attraction between the nucleosomes aforce-extension curve is found similar to stretching experiments onsingle chromatin fibers. For very small stretching forces a kinkedfiber forming a loop is observed. If larger forces are applied theloop formation is stretched out and a decondensation of the fibertakes place.
Resumo:
Die bedeutendste Folge der Luftverschmutzung ist eine erhöhte Konzentration an Ozon (O3) in der Troposphäre innerhalb der letzten 150 Jahre. Ozon ist ein photochemisches Oxidationsmittel und ein Treibhausgas, das als wichtigste Vorstufe des Hydroxyradikals OH die Oxidationskraft der Atmosphäre stark beeinflusst. Um die Oxidationskraft der Atmosphäre und ihren Einfluss auf das Klima verstehen zu können, ist es von großer Bedeutung ein detailliertes Wissen über die Photochemie des Ozons und seiner Vorläufer, den Stickoxiden (NOx), in der Troposphäre zu besitzen. Dies erfordert das Verstehen der Bildungs- und Abbaumechanismen von Ozon und seiner Vorläufer. Als eine für den chemischen Ozonabbau wichtige Region kann die vom Menschen weitgehend unberührte marine Grenzschicht (Marine boundary layer (MBL)) angesehen werden. Bisher wurden für diese Region jedoch kaum Spurengasmessungen durchgeführt, und so sind die dort ablaufenden photochemischen Prozesse wenig untersucht. Da etwa 70 % der Erdoberfläche mit Ozeanen bedeckt sind, können die in der marinen Granzschicht ablaufenden Prozesse als signifikant für die gesamte Atmosphäre angesehen werden. Dies macht eine genaue Untersuchung dieser Region interessant. Um die photochemische Produktion und den Abbau von Ozon abschätzen zu können und den Einfluss antrophogener Emissionen auf troposphärisches Ozon zu quantifizieren, sind aktuelle Messergebnisse von NOx im pptv-Bereich für diese Region erforderlich. Die notwendigen Messungen von NO, NO2, O3, JNO2, J(O1D), HO2, OH, ROx sowie einiger meteorologischer Parameter wurden während der Fahrt des französischen Forschungsschiffes Marion-Dufresne auf dem südlichen Atlantik (28°S-57°S, 46°W-34°E) im März 2007 durchgeführt. Dabei sind für NO und NO2 die bisher niedrigsten gemessenen Werte zu verzeichnen. Die während der Messcampagne gewonnen Daten wurden hinsichtlich Ihrer Übereinstimmung mit den Bedingungen des photochemischen stationären Gleichgewichts (photochemical steady state (PSS)) überprüft. Dabei konnte eine Abweichung vom PSS festgestellt werden, welche unter Bedingungen niedriger NOx-Konzentrationen (5 bis 25pptv) einen unerwarteten Trend im Leighton-Verhältnis bewirkt, der abhängig vom NOx Mischungsverhältnis und der JNO2 Intensität ist. Signifikante Abweichungen vom Verhältnis liegen bei einer Zunahme der JNO2 Intensität vor. Diese Ergebnisse zeigen, dass die Abweichung vom PSS nicht beim Minimum der NOx-Konzentrationen und der JNO2 Werte liegt, so wie es in bisherigen theoretischen Studien dargelegt wurde und können als Hinweis auf weitere photochemische Prozesse bei höheren JNO2-Werten in einem System mit niedrigem NOx verstanden werden. Das wichtigste Ergebnis dieser Untersuchung, ist die Verifizierung des Leighton-Verhältnisses, das zur Charakterisierung des PSS dient, bei sehr geringen NOx-Konzentrationen in der MBL. Die bei dieser Doktorarbeit gewonnenen Erkenntnisse beweisen, dass unter den Bedingungen der marinen Granzschicht rein photochemischer Abbau von Ozon stattfindet und als Hauptursache hierfür während des Tages die Photolyse gilt. Mit Hilfe der gemessenen Parameter wurde der kritische NO-Level auf Werte zwischen 5 und 9 pptv abgeschätzt, wobei diese Werte im Vergleich zu bisherigen Studien vergleichsweise niedrig sind. Möglicherweise bedeutet dies, dass das Ozon Produktion/ Abbau-Potential des südlichen Atlantiks deutlich stärker auf die Verfügbarkeit von NO reagiert, als es in anderen Regionen der Fall ist. Im Rahmen der Doktorarbeit wurde desweiteren ein direkter Vergleich der gemessenen Spezies mit dem Modelergebnis eines 3-dimensionalen Zirkulationsmodel zur Simulation atmosphären chemischer Prozesse (EMAC) entlang der exakten Schiffsstrecke durchgeführt. Um die Übereinstimmung der Messergebnisse mit dem bisherigen Verständnis der atmosphärischen Radikalchemie zu überprüfen, wurde ein Gleichgewichtspunktmodel entwickelt, das die während der Überfahrt erhaltenen Daten für Berechungen verwendet. Ein Vergleich zwischen der gemessenen und der modellierten ROx Konzentrationen in einer Umgebung mit niedrigem NOx zeigt, dass die herkömmliche Theorie zur Reproduktion der Beobachtungen unzureichend ist. Die möglichen Gründe hierfür und die Folgen werden in dieser Doktorarbeit diskutiert.
Resumo:
Die vorliegende Arbeit untersucht den Zusammenhang zwischen Skalen in Systemen weicher Materie, der für Multiskalen-Simulationen eine wichtige Rolle spielt. Zu diesem Zweck wurde eine Methode entwickelt, die die Approximation der Separierbarkeit von Variablen für die Molekulardynamik und ähnliche Anwendungen bewertet. Der zweite und größere Teil dieser Arbeit beschäftigt sich mit der konzeptionellen und technischen Erweiterung des Adaptive Resolution Scheme'' (AdResS), einer Methode zur gleichzeitigen Simulation von Systemen mit mehreren Auflösungsebenen. Diese Methode wurde auf Systeme erweitert, in denen klassische und quantenmechanische Effekte eine Rolle spielen.rnrnDie oben genannte erste Methode benötigt nur die analytische Form der Potentiale, wie sie die meisten Molekulardynamik-Programme zur Verfügung stellen. Die Anwendung der Methode auf ein spezielles Problem gibt bei erfolgreichem Ausgang einen numerischen Hinweis auf die Gültigkeit der Variablenseparation. Bei nicht erfolgreichem Ausgang garantiert sie, dass keine Separation der Variablen möglich ist. Die Methode wird exemplarisch auf ein zweiatomiges Molekül auf einer Oberfläche und für die zweidimensionale Version des Rotational Isomer State (RIS) Modells einer Polymerkette angewandt.rnrnDer zweite Teil der Arbeit behandelt die Entwicklung eines Algorithmus zur adaptiven Simulation von Systemen, in denen Quanteneffekte berücksichtigt werden. Die Quantennatur von Atomen wird dabei in der Pfadintegral-Methode durch einen klassischen Polymerring repräsentiert. Die adaptive Pfadintegral-Methode wird zunächst für einatomige Flüssigkeiten und tetraedrische Moleküle unter normalen thermodynamischen Bedingungen getestet. Schließlich wird die Stabilität der Methode durch ihre Anwendung auf flüssigen para-Wasserstoff bei niedrigen Temperaturen geprüft.
Resumo:
The Standard Model of particle physics is a very successful theory which describes nearly all known processes of particle physics very precisely. Nevertheless, there are several observations which cannot be explained within the existing theory. In this thesis, two analyses with high energy electrons and positrons using data of the ATLAS detector are presented. One, probing the Standard Model of particle physics and another searching for phenomena beyond the Standard Model.rnThe production of an electron-positron pair via the Drell-Yan process leads to a very clean signature in the detector with low background contributions. This allows for a very precise measurement of the cross-section and can be used as a precision test of perturbative quantum chromodynamics (pQCD) where this process has been calculated at next-to-next-to-leading order (NNLO). The invariant mass spectrum mee is sensitive to parton distribution functions (PFDs), in particular to the poorly known distribution of antiquarks at large momentum fraction (Bjoerken x). The measurementrnof the high-mass Drell-Yan cross-section in proton-proton collisions at a center-of-mass energy of sqrt(s) = 7 TeV is performed on a dataset collected with the ATLAS detector, corresponding to an integrated luminosity of 4.7 fb-1. The differential cross-section of pp -> Z/gamma + X -> e+e- + X is measured as a function of the invariant mass in the range 116 GeV < mee < 1500 GeV. The background is estimated using a data driven method and Monte Carlo simulations. The final cross-section is corrected for detector effects and different levels of final state radiation corrections. A comparison isrnmade to various event generators and to predictions of pQCD calculations at NNLO. A good agreement within the uncertainties between measured cross-sections and Standard Model predictions is observed.rnExamples of observed phenomena which can not be explained by the Standard Model are the amount of dark matter in the universe and neutrino oscillations. To explain these phenomena several extensions of the Standard Model are proposed, some of them leading to new processes with a high multiplicity of electrons and/or positrons in the final state. A model independent search in multi-object final states, with objects defined as electrons and positrons, is performed to search for these phenomenas. Therndataset collected at a center-of-mass energy of sqrt(s) = 8 TeV, corresponding to an integrated luminosity of 20.3 fb-1 is used. The events are separated in different categories using the object multiplicity. The data-driven background method, already used for the cross-section measurement was developed further for up to five objects to get an estimation of the number of events including fake contributions. Within the uncertainties the comparison between data and Standard Model predictions shows no significant deviations.
Resumo:
A field of computational neuroscience develops mathematical models to describe neuronal systems. The aim is to better understand the nervous system. Historically, the integrate-and-fire model, developed by Lapique in 1907, was the first model describing a neuron. In 1952 Hodgkin and Huxley [8] described the so called Hodgkin-Huxley model in the article “A Quantitative Description of Membrane Current and Its Application to Conduction and Excitation in Nerve”. The Hodgkin-Huxley model is one of the most successful and widely-used biological neuron models. Based on experimental data from the squid giant axon, Hodgkin and Huxley developed their mathematical model as a four-dimensional system of first-order ordinary differential equations. One of these equations characterizes the membrane potential as a process in time, whereas the other three equations depict the opening and closing state of sodium and potassium ion channels. The membrane potential is proportional to the sum of ionic current flowing across the membrane and an externally applied current. For various types of external input the membrane potential behaves differently. This thesis considers the following three types of input: (i) Rinzel and Miller [15] calculated an interval of amplitudes for a constant applied current, where the membrane potential is repetitively spiking; (ii) Aihara, Matsumoto and Ikegaya [1] said that dependent on the amplitude and the frequency of a periodic applied current the membrane potential responds periodically; (iii) Izhikevich [12] stated that brief pulses of positive and negative current with different amplitudes and frequencies can lead to a periodic response of the membrane potential. In chapter 1 the Hodgkin-Huxley model is introduced according to Izhikevich [12]. Besides the definition of the model, several biological and physiological notes are made, and further concepts are described by examples. Moreover, the numerical methods to solve the equations of the Hodgkin-Huxley model are presented which were used for the computer simulations in chapter 2 and chapter 3. In chapter 2 the statements for the three different inputs (i), (ii) and (iii) will be verified, and periodic behavior for the inputs (ii) and (iii) will be investigated. In chapter 3 the inputs are embedded in an Ornstein-Uhlenbeck process to see the influence of noise on the results of chapter 2.