242 resultados para Ob
Resumo:
In dieser Arbeit wurden die OH-Radikalausbeuten beider Doppelbindungen von alpha-Phellandren, alpha-Terpinen, Limonen und Terpinolen bei der Ozonolyse getrennt voneinander bestimmt. Dabei wurde sich die hohe zeitliche Auflösung des PTR-MS zunutze gemacht. Es wurden die OH-Radikale mittels Cyclohexan abgefangen und aus dem daraus gebildeten Cyclohexanon die OH-Radikalausbeute berechnet. Dadurch konnten zum ersten Mal die OH-Radikalausbeuten der langsamer reagierenden Doppelbindung bestimmt werden. Es ergaben sich für alpha-Phellandren 8%11% (±3%), alpha-Terpinen 12%14% (±4%), Limonen 7%10% (±3%) und für Terpinolen 39%48% (±14%). Desweiteren wurde eine theoretische Diskussion über den Reaktionsmechanismus der Ozonolyse und dem daraus gebildetem Criegee-Intermediat durchgeführt. Dadurch konnten die OH-Radikalausbeuten erklärt werden und eine Voraussage über die OH-Radikalausbeute bei anderen Verbindungen ist mit diesen Überlegungen möglich. In einer Messkampagne in Paris konnten verschiedene VOCs und andere atmosphärisch relevante Komponenten wie Ozon, CO, NO2 und NO gemessen werden. Aus diesen Daten wurde zum einen ein Datenpaket in Igor gefertigt, welches die Interpretation der Daten erleichtern sollte. Zum anderen wurden die Daten mit einem PMF-Model analysiert.Durch die Analyse verschiedener Komponenten konnte die Frage beantwortet werden, ob die Lösungsmittelindustrie in und um Paris einen großen Einfluss auf die Konzentrationen gewisser Komponenten in der Luft hat. Über die Korrelation von Benzol und Toluol mit schwarzem Kohlenstoff und den typischen Tagesverlauf mit zwei Konzentrationsmaxima dieser Komponenten konnte gezeigt werden, dass als Hauptquelle diese beiden Stoffe nur der Straßenverkehr infrage kommt. Desweiteren konnte gezeigt werden, dass die Luftmassen die Paris erreichen einen großen Einfluss auf die Konzentration gewisser Komponenten in der Luft haben. Dadurch konnte gut zwischen lokalen Quellen und weit transportierten VOCs unterschieden werden. Schließlich konnten über das PFM-Model ein Großteil der in Paris gemessenen Substanzen in sieben unterschiedliche Quellen eingeteilt werden und deren prozentualer Einfluss während ozeanischer Luftmassen und kontinentalen Luftmassen bestimmt werden. Um Bestandteile von organischem Aerosol mithilfe eines PTR-MS und dessen schonender Ionisationstechnik detektieren zu können, wurde erfolgreich ein Einlass für das PTR-MS entwickelt der es ermöglicht neben den Messungen von VOCs in der Gasphase auch organisches Aerosol zu sammeln, desorbieren und zu detektieren. Zu Testen des neuen Einlasses wurden verschiedene Laborexperimente durchgeführt und es wurde eine Messkampagne in Cabauw (nahe Utrecht, NL) durchgeführt. Die Labortests des neuen Einlasses zeigen, dass es möglich ist organisches Aerosol und VOCs (Aerosol Precurser) in der Gasphase mit einem einzelnen Instrument zu messen. Dazu wurden in einer Smog Chamber Isopren, alpha-Pinen, Limonen und beta-Caryophyllen jeweils mit Ozon zur Reaktion gebracht. Die Messungen in der Gasphase zeigten, dass verschiedene Komponenten wie gewohnt mit hoher Zeitauflösung durch das PTR-MS detektiert werden konnten. Die Messungen des Aerosols zeigten, dass es möglich ist, viele der aus den Reaktionen bekannten Produkte direkt oder mit geringer Fragmentation zu detektieren. Die Messkampagne in Cabauw zeigte, dass es mit diesem Einlass möglich ist über einen langen Zeitraum Aerosol und VOCs mit nur einem Instrument zu messen. Die Gasphasenmessungen sind unbeeinflusst von den Modifikationen, die an dem PTR-MS und der Driftröhre vorgenommen werden mussten um Aerosol detektieren zu können. Desweiteren konnte gezeigt werden, dass sich natürliches organisches Aerosol von Aerosol aus einer Smog Chamber im Dampfdruck unterscheidet. Deswegen muss man vorsichtig sein, falls man diese zwei Aerosolarten miteinander vergleichen will.
Resumo:
Ein wesentliches Problem der elektiven Colonchirurgie ist die postoperative Darmträgheit. Sie wird von verschieden Faktoren wie der Manipulation am Darm, Ausschüttung von inflamatorischen Substanzen und durch perioperativ notwendige Medikamente wie morphinhaltige Analgetika ausgelöst und aufrechterhalten. Sie führt zu körperlichem Unwohlsein, einem geblähten Abdomen und gegebenenfalls zu Schmerzen. Die Patienten leiden unter Übelkeit und Erbrechen, fühlen sich müde, abgeschlagen und haben einen höheren Schmerzmittelverbrauch. Hierdurch wird die Motivation zur Mobilisation herabgesetzt und führt zu längerem Aufenthalt im Krankenbett, wodurch wiederum die Darmträgheit gefördert, die Rekonvaleszenz verlängert und die Patientenzufriedenheit gemindert wird. Eine längere Immobilisation steigert die Komplikationshäufigkeit, vor allem für thrombo-embolische Ereignisse.rnrnDurch die Einführung des Periduralkatheters (PDK) und der laparoskopischen Operationstechnik in die Colonchirurgie sind die Voraussetzungen zur Frühmobilisation verbessert worden.rnDeshalb und durch den wachsenden wirtschaftlichen Druck zu kürzeren Rekonvaleszenzzeiten und zur Optimierung der Bettenauslastung, sind in den letzten Jahren eine Vielzahl von Konzepten zur beschleunigten postoperativen Rekonvaleszenz erarbeitet worden, die unter dem Schlagwort „Fast Track“ bekannt geworden sind.rnWesentliche Punkte sind hierbei die längst mögliche Erhaltung des körpereigenen Gleichgewichts durch Verzicht auf Darmsäuberung und längere präoperative Nüchternheit. Intraoperativ werden flüssigkeitsrestriktive Infusionsschemata genutzt und auf eine Minimierung der intravenösen Dosierung von morphinhaltigen Analgetika geachtet. Postoperativ gehören die Frühmobilisation sowie die „Frühenterale –Ernährung“ zu den wichtigsten Merkmalen.rnDie Implementierung eines solchen Konzeptes als Standard in den laufenden Betrieb ist sehr aufwendig und teuer. Die individuelle Verträglichkeit der „Frühenteralen – Ernährung“ ist sehr unterschiedlich und wird oft von den Patienten aufgrund der postoperativen Darmträgheit nicht gut toleriert.rnrnEin neuer Ansatz hierfür ist das sogenannte „sham feeding“, also das Vortäuschen von Nahrungsaufnahme durch Kaugummikauen, das helfen soll die Paralyse des Darms postoperativ schneller, komplikationsärmer, sicherer und kostengünstiger zu beheben.rnrnZiel der vorliegenden Studie war es, die Effekte von Kaugummikauen sowie der Kombination von Kaugummikauen und Verwendung eines PDK in Hinblick auf postoperative Rekonvaleszenz, Darmtätigkeit und Patientenzufriedenheit bei unseren Patienten zu vergleichen, um einen Benefit des „sham feedings“ aufzuzeigen. Gleichzeitig sollten alle Einflußgrößen wie Mobilisation, Kostverträglichkeit, Schmerzmittelbedarf und Komplikationen mit erfasst werden, um die jeweilige Effektivität jeweils besser beurteilen zu können.rnDie vorliegende Arbeit soll die Frage beantworten, ob Patienten mit colonresizierenden Eingriffen postoperativ von „sham feeding“ durch kaugummikauen profitieren und ob dies standardmäßig genutzt werden sollte.rn
Resumo:
Das Glaukom ist eine der führenden Erblindungsursachen weltweit. Trotzdem ist die Pathogenese, die zur Degeneration der retinalen Ganglienzellen führt, bisher nicht verstanden. In den letzten Jahren ergaben sich verschiedene Hinweise auf die Beteiligung einer immunologischen Komponente. Thema dieser Arbeit waren elektrophysiologische Untersuchungen, im Sinne von visuell evozierten Potentialen, am Tiermodell des Experimentellen Autoimmun Glaukoms und die Etablierung dieses Modells. Das Modell basiert auf einer Immunisierung von Lewisratten mit Pertussistoxin, inkompletten Freunds Adjuvant und potentiellen Antigenen, die zu einer Immunreaktion und einem Verlust von retinalen Ganglienzellen führen sollen. Zur Etablierung des Experimentellen Autoimmun Glaukom Modells wurde eine fünfwöchige Studie mit vier Gruppen durchgeführt. Als Antigene wurden Glia fibrilläres saures Protein (n= 10) und Myelin basisches Protein (n=10) verwendet, die beide in Studien zu Serum- und Kammerwasseranalysen bei Glaukompatienten eine Abweichung zur Kontrollgruppe gezeigt hatten. Außerdem wurde eine Gruppe mit selbst hergestelltem Sehnerv-Homogenat (n=12) immunisiert. Eine Gruppe erhielt keine Immunisierung und diente als Kontrolle (n=10). Zur Überprüfung der Effekte des Modells dienten verschiedene Untersuchungsmethoden, wie die Augeninnendruckmessung und die Untersuchung der Fundi. Des Weiteren wurden transiente und stationäre visuell evozierte Potentiale abgeleitet und die Latenzen, Amplituden und die Marker S (Steigung) und TR (Temporale Antworten) verglichen. Außerdem erfolgte nach Tötung der Tiere die Entnahme der Gehirne und Augen. Die Gehirne wurden nach Paraffineinbettung geschnitten, mit Luxol Fast Blue und Kresylviolett gefärbt und hinsichtlich etwaiger Entmarkungsherde oder anderer Pathologien unter dem Mikroskop bewertet. Der Verlauf des intraokulären Drucks zeigte sowohl zwischen den Gruppen als auch zwischen den verschiedenen Zeitpunkten keine signifikanten Unterschiede. Er bewegte sich im physiologischen Bereich mit durchschnittlich circa 12 mmHg. Die Funduskopien lieferten zu keinem Zeitpunkt krankhafte Veränderungen. Auch die visuell evozierten Potentiale lieferten zwischen den Gruppen keine signifikanten Unterschiede, sondern belegten normale visuelle Funktion bei allen Tieren. Die Auswertung der histologischen Untersuchung der Hirnschnitte zeigte keine Entmarkungsherde. Die erzielten Ergebnisse dieser Arbeit legen nahe, dass der retinale Ganglienzellverlust beim Experimentellen Autoimmun Glaukom Modell ohne eine Augeninnendruckerhöhung stattfindet. Die Fundusuntersuchung und die visuell evozierten Potentiale, wie in diesem Versuchsaufbau durchgeführt, scheinen nicht sensibel genug zu sein, diese Verluste nachzuweisen. In weiteren Arbeiten sollten andere Methoden zum Nachweis der retinalen Ganglienzellverluste erprobt werden. Neben elektrophysiologischen Methoden bieten sich für das weitere Vorgehen besonders immunhistologische Methoden an. Außerdem sollten die Mechanismen erforscht werden durch die es nach der Immunisierung zur Apoptose von retinalen Ganglienzellen kommt und welche Antikörper dazuführen können. Des Weiteren ist von Interesse, ob und wie eine zelluläre Komponente an der Pathogenese des Experimentellen Autoimmun Glaukoms beteiligt ist.
Resumo:
Compliance lebertransplantierter Patienten mit der immunsuppressiven Therapie ist unerlässlich für den lang-fristigen Erfolg der Lebertransplantation. Aus Non-Compliance mit der immunsuppressiven Therapie können Abstoßungsreaktionen, Organverlust oder sogar Tod resultieren. Hauptziel der vorliegenden Studie war die erstmalige Evaluation der Compliance bei Einnahme von Prograf® (zweimal tägliche Einnahme von Tacrolimus) im Vergleich zur Einnahme von Advagraf® (einmal tägliche Einnahme von Tacrolimus). Von Interesse war außerdem die Fragestellung, ob sich die Compliance bezüglich der immunsuppressiven Therapie mit dem Zeitabstand zur Transplantation verändert. rnDie Compliancemessung wurde offen mittels MEMS® (Aardex Ltd., Schweiz) durchgeführt, der Patient war also über die Compliancekontrolle informiert. Mittels MEMS® konnten Datum und Uhrzeit der Dosisentnahme dokumentiert und damit zuverlässig das gesamte Compliancemuster über im Durchschnitt 176 Tage mit der zweimal täglichen Einnahme und 188 Tage mit der einmal täglichen Einnahme pro Patient erfasst werden. 65 Patienten mit dem Basisimmunsuppressivum Prograf® wurden in die prospektive, nicht-interventionelle Studie eingeschlossen und nach Per Protokoll-Analyse konnten die Daten von 63 in Mainz lebertransplantierten Patienten ausgewertet werden (Prograf®: Gruppe 1: 15 Patienten (Pat.), Gruppe 2: 23 Pat., Gruppe 3: 22 Pat., Drop-outs: 3 Pat.; Advagraf®: Gruppe 1: 16 Pat., Gruppe 2: 23 Pat., Gruppe 3: 23 Pat., Drop-outs: 1 Pat.). Die Dosing Compliance (DC), definiert als Prozent der Tage, an denen der MEMS®-Behälter korrekt geöffnet und die Dosis höchstwahrscheinlich korrekt eingenommen wurde, war der primäre Zielparameter. Weitere Methoden der Compliancemessung, wie der Pill Count, mehrere Fragebögen (Selbsteinschätzung, Patientenwissen-, Morisky-, MESI-, HADS-, SF-36- und Patientenzufriedenheit-Fragebogen) sowie die Blutspiegelmessung wurden eingesetzt, um die Compliance der Patienten umfassend charakterisieren zu können. rnDer Median der DC mit der zweimal täglichen Einnahme betrug 97% bei Pat. > 6 m.p.t. < 2 y.p.t., 97% bei Pat. > 2 y.p.t. < 5 y.p.t. und 98% bei Pat. > 5 y.p.t. (p=0,931; Kruskal-Wallis-Test). Der Median der DC von Tacroli-mus bei einmal täglicher Einnahme (Advagraf®) betrug 99% bei Pat. > 6 m.p.t. < 2 y.p.t., 98% bei Pat. > 2 y.p.t. < 5 y.p.t. und 97% bei Pat. > 5 y.p.t. (p=0,158; Kruskal-Wallis-Test). Insgesamt zeigten die Patienten während des gesamten Beobachtungszeitraums von 12 Monaten eine gute Compliance für die Einnahme ihres Immun-suppressivums. Die Timing Compliance (TiC)-raten lagen auf einem niedrigeren Niveau als die Dosing- und Taking Compliance (TC)-raten. Die Complianceraten der drei Subgruppen unterschieden sich nicht signifikant. Die Patienten mit dem geringsten Abstand zur Transplantation zeigten bei beinahe allen Messmethoden die höchste Compliance im Gegensatz zur etwas geringeren Compliance der Patienten mit größerem Abstand zur Transplantation. Die während der Advagraf®-Phase mittels MEMS® gemessenen DC-, TC- und TiC-raten fielen höher aus als bei Einnahme von Prograf® (p(DC)=0,003; p(TC)=0,077; p(TiC)=0,003; Wilcoxon Vorzeichen-Rang-Test). Dieses Ergebnis untermauert die in anderen Indikationen gefundene Complianceverbesserung durch die einmal tägliche Arzneimittelgabe im Vergleich zur zweimal täglichen Gabe. Die Auswertung der Drug Holidays ergab für die Advagraf®-Phase hingegen niedrigere Complianceraten als für die Prograf®-Phase. Dieses Ergebnis ist auf die Definition des Drug Holidays (keine Arzneimitteleinnahme über 48 h) zurück zu führen. Die Chance Advagraf® einmal pro Tag zu vergessen ist doppelt so hoch, als Prograf® dreimal aufeinander fol-gend zu vergessen. Mit einer verhältnismäßigeren Definition von Drug Holidays (Einnahmepause von 72 Stun-den bei einmal täglicher Einnahme von Advagraf® entsprechend drei ausgelassenen Dosen von Prograf®) ist die Compliancerate 81%. Die Ergebnisse des Pill Counts waren sowohl bei Einnahme von Prograf® als auch von Advagraf® mit der jeweils gemessenen TC vergleichbar, was die Zuverlässigkeit der Messergebnisse bes-tätigt. rnDie zusätzlich eingesetzten Methoden verifizierten das Ergebnis der höheren Compliance mit der einmal tägli-chen Einnahme. Die während der Advagraf®-Phase beantworteten Fragebögen zeigten einen Trend zu besserer Compliance und Lebensqualität. Lediglich die Ergebnisse des MESI-Fragebogens und der Blutspiegelmessungen wichen sowohl während der Prograf®- als auch während der Advagraf®-Phase stark von den Ergebnis-sen der anderen Methoden ab. rnUnter Einbeziehung aller mittels MEMS® und Pill Count objektiv gemessenen Complianceparameter konnten während der Prograf®-Einnahme 54 von 60 Pat. (90%) und während der Advagraf®-Phase 59 von 62 Pat. (95%) als compliant eingestuft werden. Aufgrund subjektiver Compliancemessungen waren 49 von 58 Pat. (84%) während der Prograf®- und 54 von 59 Pat. (92%) während der Advagraf®-Phase als compliant einzustufen. Es wurde beobachtet, dass die zeitlich korrekte Einnahme der Morgendosis einfacher und bei Einmalgabe zu bevorzugen ist. Die wochentagsbezogene Auswertung ergab erwartungsgemäß, dass am Wochenende (Samstag und Sonntag) am häufigsten Dosen ausgelassen wurden. rnDie Umstellung von Prograf® auf Advagraf® stellte kein Problem dar. Beinahe alle Patienten waren dankbar und zufrieden mit der Reduzierung der Dosierungsfrequenz und der größeren Unabhängigkeit durch die entfallene abendliche Einnahme. Der positive Einfluss der geringeren Dosierungshäufigkeit auf die Langzeitcompliance der Patienten, ist ein hinreichender Grund die Entwicklung von Formulierungen zur einmal täglichen Ein-nahme für weitere Immunsuppressiva zu fordern. Insbesondere bei den häufig eingesetzten Kombinationstherapien von Immunsuppressiva würde der Effekt der Complianceverbesserung noch verstärkt werden, wenn alle eingesetzten Immunsuppressiva zur einmal täglichen Gabe geeignet wären.
Resumo:
Das ursprüngliche Ziel der vorliegenden Dissertation war die Untersuchung der Talgenese im Zentralen Hügelland Rwandas. Entstehung und Form der Täler, die Stratigraphie und das Alter der Hang- und Talsedimente sowie die wirkenden reliefgestaltenden Prozesse sind bei weitem nicht abschließend erforscht. Da Strukturen und Prozesse im Rahmen von Prozessresponssystemen in Wechselwirkung stehen, bietet die Untersuchung der Strukturen gleich zwei Möglichkeiten, sich den Prozessen zu nähern: Strukturen sind sowohl Verursacher als auch Indikatoren von Prozessen. Entsprechend der ursprünglichen Fragestellung sollten nach einer Beschreibung der gegenwärtigen Strukturen (morphographische Geomorphologie) die formbildenden Prozesse ergründet werden (funktionale Geomorphologie), um dann die Entwicklung der Strukturen und Prozesse unter Einbeziehung der relevanten Phasen der Erdgeschichte und des Paläoklimas zu rekonstruieren (genetische Geomorphologie). Im Verlauf der zu diesem Zweck durchgeführten geomorphologisch-stratigraphischen Untersuchungen in den Tälern der Region von Butare (Südrwanda) stellten sich aber die holozänen Hangdeckschichten und Talfüllungen als derart mächtig heraus, dass tiefer liegende Sedimente nicht erschlossen werden konnten. Die älteren Strukturen ließen sich daher nur unzureichend rekonstruieren und die eingangs formulierte Fragestellung konnte nicht wie erwartet bearbeitet werden. Angesichts der Mächtigkeit der Sedimente wurde offensichtlich, dass sowohl die spätpleistozäne als auch die holozäne Dimension der Sedimentbildung völlig unterschätzt wurde. Diese Beobachtungen warfen zwei grundlegende Fragen auf: einerseits die Frage warum die holozänen Sedimente so mächtig ausgebildet sind, und andererseits, weshalb ihre Mächtigkeit derartig unterschätzt wurde. Rasch stellte sich heraus, dass die Bearbeitung der ersten Frage eine interdisziplinäre Öffnung und die der zweiten Frage eine interkulturelle Öffnung der Fragestellung erforderte. Dabei stellen sich vor allem zwei Fragen: Zum einen, inwiefern der europäische Ursprung der Begriffe, Theorien und Modelle, die zur Beschreibung und Interpretation der rwandischen landschaftlichen und landschaftsgestaltenden Prozesse verwendet werden, eben jene Beschreibung und Interpretation beeinflusst, und zum anderen, ob und inwiefern auch naturwissenschaftliche Disziplinen in ihrem Umgang mit ‚natürlich gedachten’ Strukturen und Prozessen von diesen Konstruktionen betroffen sind. Ziel der Dekonstruktion der Begriffe, Theorien und Modelle ist kein ‚richtigerer’ oder ‚wahrhaftigerer’, sondern ein ‚bewussterer’ Umgang mit den Begriffen, Theorien und Modellen und dadurch eine bewusstere Rekonstruktion der Strukturen und Prozesse der Landschaften und Paläolandschaften des rwandischen Zentralen Hügellandes.rn
Resumo:
Copper and Zn are essential micronutrients for plants, animals, and humans; however, they may also be pollutants if they occur at high concentrations in soil. Therefore, knowledge of Cu and Zn cycling in soils is required both for guaranteeing proper nutrition and to control possible risks arising from pollution.rnThe overall objective of my study was to test if Cu and Zn stable isotope ratios can be used to investigate into the biogeochemistry, source and transport of these metals in soils. The use of stable isotope ratios might be especially suitable to trace long-term processes occurring during soil genesis and transport of pollutants through the soil. In detail, I aimed to answer the questions, whether (1) Cu stable isotopes are fractionated during complexation with humic acid, (2) 65Cu values can be a tracer for soil genetic processes in redoximorphic soils (3) 65Cu values can help to understand soil genetic processes under oxic weathering conditions, and (4) 65Cu and 66Zn values can act as tracers of sources and transport of Cu and Zn in polluted soils.rnTo answer these questions, I ran adsorption experiments at different pH values in the laboratory and modelled Cu adsorption to humic acid. Furthermore, eight soils were sampled representing different redox and weathering regimes of which two were influenced by stagnic water, two by groundwater, two by oxic weathering (Cambisols), and two by podzolation. In all horizons of these soils, I determined selected basic soil properties, partitioned Cu into seven operationally defined fractions and determined Cu concentrations and Cu isotope ratios (65Cu values). Finally, three additional soils were sampled along a deposition gradient at different distances to a Cu smelter in Slovakia and analyzed together with bedrock and waste material from the smelter for selected basic soil properties, Cu and Zn concentrations and 65Cu and 66Zn values.rnMy results demonstrated that (1) Copper was fractionated during adsorption on humic acid resulting in an isotope fractionation between the immobilized humic acid and the solution (65CuIHA-solution) of 0.26 ± 0.11‰ (2SD) and that the extent of fractionation was independent of pH and involved functional groups of the humic acid. (2) Soil genesis and plant cycling causes measurable Cu isotope fractionation in hydromorphic soils. The results suggested that an increasing number of redox cycles depleted 63Cu with increasing depth resulting in heavier 65Cu values. (3) Organic horizons usually had isotopically lighter Cu than mineral soils presumably because of the preferred uptake and recycling of 63Cu by plants. (4) In a strongly developed Podzol, eluviation zones had lighter and illuviation zones heavier 65Cu values because of the higher stability of organo-65Cu complexes compared to organo-63Cu complexes. In the Cambisols and a little developed Podzol, oxic weathering caused increasingly lighter 65Cu values with increasing depth, resulting in the opposite depth trend as in redoximorphic soils, because of the preferential vertical transport of 63Cu. (5) The 66Zn values were fractionated during the smelting process and isotopically light Zn was emitted allowing source identification of Zn pollution while 65Cu values were unaffected by the smelting and Cu emissions isotopically indistinguishable from soil. The 65Cu values in polluted soils became lighter down to a depth of 0.4 m indicating isotope fractionation during transport and a transport depth of 0.4 m in 60 years. 66Zn values had an opposite depth trend becoming heavier with depth because of fractionation by plant cycling, speciation changes, and mixing of native and smelter-derived Zn. rnCopper showed measurable isotope fractionation of approximately 1‰ in unpolluted soils, allowing to draw conclusions on plant cycling, transport, and redox processes occurring during soil genesis and 65Cu and 66Zn values in contaminated soils allow for conclusions on sources (in my study only possible for Zn), biogeochemical behavior, and depth of dislocation of Cu and Zn pollution in soil. I conclude that stable Cu and Zn isotope ratios are a suitable novel tool to trace long-term processes in soils which are difficult to assess otherwise.rn
Resumo:
In this thesis several models are treated, which are relevant for ultracold fermionic quantum gases loaded onto optical lattices. In particular, imbalanced superfluid Fermi mixtures, which are considered as the best way to realize Fulde-Ferrell-Larkin-Ovchinnikov (FFLO) states experimentally, and antiferromagnetic states, whose experimental realization is one of the next major goals, are examined analytically and numerically with the use of appropriate versions of the Hubbard model.rnrnThe usual Bardeen-Cooper-Schrieffer (BCS) superconductor is known to break down in a magnetic field with a strength exceeding the size of the superfluid gap. A spatially inhomogeneous spin-imbalanced superconductor with a complex order parameter known as FFLO-state is predicted to occur in translationally invariant systems. Since in ultracold quantum gases the experimental setups have a limited size and a trapping potential, we analyze the realistic situation of a non-translationally invariant finite sized Hubbard model for this purpose. We first argue analytically, why the order parameter should be real in a system with continuous coordinates, and map our statements onto the Hubbard model with discrete coordinates defined on a lattice. The relevant Hubbard model is then treated numerically within mean field theory. We show that the numerical results agree with our analytically derived statements and we simulate various experimentally relevant systems in this thesis.rnrnAnalogous calculations are presented for the situation at repulsive interaction strength where the N'eel state is expected to be realized experimentally in the near future. We map our analytical results obtained for the attractive model onto corresponding results for the repulsive model. We obtain a spatially invariant unit vector defining the direction of the order parameter as a consequence of the trapping potential, which is affirmed by our mean field numerical results for the repulsive case. Furthermore, we observe domain wall formation, antiferromagnetically induced density shifts, and we show the relevant role of spin-imbalance for antiferromagnetic states.rnrnSince the first step for understanding the physics of the examined models was the application of a mean field approximation, we analyze the effect of including the second order terms of the weak coupling perturbation expansion for the repulsive model. We show that our results survive the influence of quantum fluctuations and show that the renormalization factors for order parameters and critical temperatures lead to a weaker influence of the fluctuations on the results in finite sized systems than on the results in the thermodynamical limit. Furthermore, in the context of second order theory we address the question whether results obtained in the dynamical mean field theory (DMFT), which is meanwhile a frequently used method for describing trapped systems, survive the effect of the non-local Feynman diagrams neglected in DMFT.
Resumo:
Das Glaukom stellt eine heterogene Gruppe von okularen Erkrankungen dar, deren Pathogenese sich durch einen langsamen, progradienten Untergang von retinalen Ganglienzellen und ihren Axonen auszeichnet. rnIn den letzten Jahren wurde im Kontext der Glaukompathogenese verstärkt die Beteiligung autoreaktiver Antikörper diskutiert. Ein Schwerpunkt dieser Arbeit bestand in dem Vergleich solcher Autoantikörper-Reaktionen in den Serum- und Kammerwasserproben einzelner Glaukompatienten. Hierdurch sollte geklärt werden, inwieweit die Immunreaktivitäten dieser beiden Körperflüssigkeiten miteinander übereinstimmen und ob sich Hinweise auf eine lokale Antikörperproduktion im immunprivilegierten Auge finden lassen. Mittels eines etablierten Protein-Microarray-Verfahrens wurden die Immunreaktionen gegen 40 verschiedene Antigene, wie z.B. Hitzeschock-Proteine oder neuronale Strukturproteine, untersucht. Die Ergebnisse zeigten, dass die detektierten Autoantikörper-Reaktionen gegen mehr als 80% der untersuchten Antigene in beiden Körperflüssigkeiten miteinander übereinstimmen. Verdeutlicht wird hierdurch, dass die Antikörper-basierenden immunologischen Vorgänge im Auge bzw. Kammerwasser, trotz dessen Abschottung vom Blutkreislauf durch die Blut-Retina-Schranke, denen des Serums stark ähneln. Nur vereinzelt lassen sich Hinweise auf eine lokale Antikörperproduktion im Auge finden, wodurch die Bedeutung der detektierten Serumantikörper-Reaktionen für die Glaukomerkrankung belegt wird. rnEin weiterer Schwerpunkt der Arbeit lag auf der Detektion möglicher veränderter Proteinexpressionen in den Retinae und Serumproben von Glaukompatienten, die potentiell zu den neurodegenerativen Prozessen der Glaukompathogenese beitragen. Um die Analyse spezifischer Proteinexpressionen zu ermöglichen, wurde das Verfahren des Antikörper-Microarrays etabliert und auf die Fragestellung angewendet. Untersucht wurden hierbei vor allem die Abundanzen von Komplementproteinen, Zytokinen und Hitzeschock-Proteinen, aber auch die von verschiedenen neuronalen Strukturproteinen. Als Probenmaterial dienten Serum- und Retinaproben von Glaukompatienten, die vergleichend denen von gesunden Probanden gegenübergestellt wurden. Die Analyse erbrachte die Erkenntnis, dass neben der verstärkten Expression von Komplementproteinen in der Retina (z.B. C3, C6) auch im Serum der Glaukompatienten eine erhöhte Konzentration dieser Proteine vorliegt, die im Rahmen der Glaukomerkrankung möglicherweise ebenfalls eine Rolle spielen. Ähnliches konnte für verschiedene Zytokine, wie z.B. TNF-α, IFN-γ oder IL1-β beobachtet werden, die in den untersuchten Retinae von Glaukomprobanden, teilweise auch in den Serumproben der Patienten, in verstärktem Maße detektiert werden konnten. Die erhöhte Produktion von Zytokinen in der Retina ist wahrscheinlich auf die Aktivierung von Gliazellen zurückzuführen, ein Ereignis für das in dieser Arbeit zahlreiche Hinweise gefunden werden konnten. Die Gliaaktivierung wird vermutlich durch apoptotische Prozesse in der Retina ausgelöst, eventuell aber auch durch eine erfolgte Komplementaktivierung. Darüber hinaus konnten mittels eines massenspektrometrischen Verfahrens weitere Expressionsunterschiede verschiedener retinaler Proteine bei Glaukompatienten festgestellt werden. Diese Veränderungen, wie z.B. geminderte Mengen von ROS-eliminierenden Proteinen, wie der Superoxid Dismutase und Peroxiredoxin-2, begünstigen bzw. verstärken sehr wahrscheinlich die neurodegenerativen Prozesse in der Retina von GlaukompatientenrnInwieweit die untersuchten Faktoren kausativ an den neurodegenerativen Prozessen beteiligt sind, bleibt ungeklärt, jedoch untermauert deren Vielzahl die Notwendigkeit, die Ursache der Glaukomerkrankung als komplexe Interaktion und Wechselwirkung verschiedener Komponenten zu betrachten und nicht als einen einzelnen fehlgesteuerten Mechanismus.rn
Resumo:
Zusammenfassungrn Der Faltungsprozess des Hauptlichtsammelkomplexes des Photosystems II aus höheren Pflanzen (light harvesting complex II, LHCII) wurde bereits mehrfach untersucht, die Experimente hierzu fanden stets im Ensemble statt. Anhand der bislang veröffentlichten Faltungskinetiken des LHCII aus höheren Pflanzen lassen sich aber keine eindeutigen Aussagen bezüglich der Diversität der Faltungswege treffen. Daher sollten im Rahmen dieser Arbeit Faltungskinetiken einzelner LHCII-Moleküle während der Komplexbildung aufgenommen werden, um weitergehende Informationen zum Faltungsmechanismus zu erhalten und zur Frage, ob hier mehrere unterschiedliche Wege eingeschlagen werden.rnHierfür war zunächst die Etablierung einer Oberflächenimmobilisierung mit Glas als Trägermaterial notwendig. Nachdem Versuche, diese Immobilisierung über einen His6-tag oder über einen heterobifunktionellen Linker zu bewerkstelligen, nicht zum Erfolg geführt haben, konnte eine Immobilisierung des Biotin-markierten Proteins an Oberflächen-gebundenes Avidin erreicht werden. Die Qualität dieser Immobilisierung wurde hierbei sowohl über Bindungsversuche mit fluoreszenzfarbstoffmarkiertem Protein als auch über eine direkte Kontrolle der Oberflächenbeschaffenheit mittels Rasterkraftmikroskopie überprüft. Die für die folgenden Versuche optimale Belegungsdichte wurde im konfokalen Fluoreszenzmikroskop ermittelt. Zudem wurde sichergestellt, dass die Proteine vereinzelt auf der Oberfläche immobilisiert vorliegen.rnAuf dieser Basis wurden LHCII-Komplexe, die zuvor in vitro rekonstituiert wurden, immobilisiert und Versuche zur kontrollierten Denaturierung unternommen, um Zerfalls-kinetiken im Verfahren der internen Totalreflexionsfluoreszenzmikroskopie (total internal reflection fluorescence, TIRF) aufnehmen zu können. Hierbei traten Schwierigkeiten bezüglich der Lebensdauer der Komplexe unter Laser-Belichtung auf, da sich die Löschung der Fluoreszenz durch Zerstrahlung der Pigmente einerseits oder Dissoziation der LHCII andererseits nicht unterscheiden ließen. Auch durch verschiedene Maßnahmen zur Erhöhung der Lebensdauer konnte diese nicht in dem Maße gesteigert werden, wie es experimentell notwendig gewesen wäre.rnFür das eigentliche Hauptziel dieser Arbeit – die Aufzeichnung von Einzelmolekül-Faltungskinetiken – war die Entwicklung einer Methode zur Rekonstitution oberflächen-immobilisierter LHCII-Apoproteine notwendig. Dieses Ziel wurde mithilfe einer Detergenzmisch-Rekonstitution erreicht. Der Erfolg der Rekonstitution konnte experimentell sowohl im Fluorimeter anhand des komplexinternen Energietransfers auf einen kovalent an das Protein gebundenen Infrarot-Fluorophor als auch im TIRF-Verfahren direkt beobachtet werden. Auch hier konnte nach ca. 80 Sekunden ein Ausbleichen der Komplexe während der Belichtung durch den Anregungs-Laser beobachtet werden.rnIn Versuchen zur Beobachtung des Komplexbildungsvorganges zeigte sich, dass die Rekonstitution offenbar durch die Belichtung massiv gestört wird. Ein weiteres Problem war eine sehr starke Hintergrundfluoreszenz, ausgelöst durch die zur Rekonstitution notwendige Pigmentlösung, die trotz der TIRF-Anregung von ausschließlich oberflächengebundenem Material die Fluoreszenz der Komplexe überlagerte. Somit konnte die Rekonstitution oberflächenimmobilisierter LHCII-Proteine zwar in Vorher-Nachher-Aufnahmen gezeigt werden, der Faltungsprozess an sich konnte dagegen im Rahmen dieser Arbeit nicht aufgezeichnet werden.
Resumo:
Das chronische Postthorakotomie Schmerzsyndrom: Eine vergleichende Untersuchung zweier Analgesieverfahren (PCEA und PCA+Ketamin)rnrnFragestellung: Chronische Schmerzen im Narbenbereich nach Thorakotomien sind ein bekanntes und häufiges Problem. Die Prävalenz des chronischen Postthorakotomie Schmerzsyndroms sechs Monate postoperativ liegt zwischen 52% und 75%. Die Epiduralanästhesie gilt zurzeit als das beste Analgesieverfahren für Thorakotomiepatienten in Bezug auf das Auftreten akuter und chronischer Postthorakotomieschmerzen. In dieser Studie wurde untersucht, ob sich die Epiduralanästhesie (PCEA) und ein opioidbasiertes, systemisches Analgesieverfahren mit der zusätzlichen intravenösen Applikation von Ketamin, einem NMDA-Rezeptorantagonisten, (PCA+Ketamin) in der Prävalenz des chronischen Postthorakotomiesyndroms unterscheiden, oder ob beide Verfahren gleichwertig sind.rnrnMaterial u. Methoden: Es wurden die Datensätze von 173 Patienten, bei denen eine elektive Thorakotomie durchgeführt wurde, retrospektiv an Hand vorliegender Schmerzprotokolle erfasst. Ausgewertet wurden das durchgeführte Analgesieverfahren, die deskriptiven Daten der Patienten (Alter, Geschlecht, Hauptdiagnose, Zeitraum bis zur Nachbefragung), das postoperative Schmerzniveau der ersten beiden Tage, eventuelle Komplikationen und die Patientenzufriedenheit. Durch ein telefonisches Interview wurden die Patienten in einem Zeitraum von 6 bis 24 Monaten postoperativ zum aktuellen Schmerzniveau befragt.rnrnErgebnisse: Die beiden Analgesieverfahren PCEA (135 Patienten) und PCA+Ketamin (38 Patienten) unterscheiden sich signifikant in Bezug auf das Patientenalter, die Hauptdiagnose und das Schmerzniveau am 1. und 2. postoperativen Tag unter Belastung. Es konnte kein signifikanter Unterschied im Auftreten des chronischen Schmerzsyndroms nachgewiesen werden, allerdings gibt es einen deskriptiven Trend zu einer erhöhten Auftretenswahrscheinlichkeit des Postthorakotomiesyndroms in der Epiduralanästhesiegruppe (PCEA: 37,8% vs. PCA+Ketamin 23,7%).rnrnSchlussfolgerung: Die Ketamingabe zur PCA hat möglicherweise einen protektiven Effekt bezüglich der Prävalenz des Postthorakotomie Schmerzsyndroms. Auch wenn die Wirkungsweise des Ketamins auf den chronischen Postthorakotomieschmerz unklar ist, konnte in dieser Studie kein Unterschied in Bezug auf das Auftreten des chronischen Schmerzsyndroms zwischen den beiden Analgesiegruppen PCEA und PCA + Ketamin nachgewiesen werden. Unter Umständen könnte sogar ein Vorteil des PCA + Ketaminschemas gegenüber der Epiduralanästhesie bezüglich des Auftretens des Postthorakotomie Schmerzsyndroms bestehen. Dieser mögliche Vorteil sollte in weiteren Studien überprüft werden.rn
Resumo:
Stress in der Post-Akquisitionsphase begünstigt die Gedächtniskonsolidierung emotional erregender Informationen. Das Zusammenspiel von noradrenerger Aktivierung und Cortisol auf Ebene der Amygdala ist hierbei von entscheidender Bedeutung. rnIn dieser Studie wird untersucht, ob dieser Effekt durch das Ausmaß der kardiovaskulären bzw. der subjektiv erlebten Stressreaktivität beeinflusst wird. 49 Probanden (Alter: 23.8 Jahre; 32 Frauen) wurden je 52 Gesichter, davon 50% mit ärgerlichem sowie 50 % mit glücklichem Ausdruck präsentiert. Sofort nach Akquisition wurde bei 30 Probanden akuter Stress durch den sozial evaluierten Kaltwassertest (SECPT; Eintauchen der dominanten Hand in eiskaltes Wasser für 3 Minuten unter Beobachtung) induziert, bei 19 Probanden wurde eine Kontrollprozedur ohne Stress durchgeführt. Die 30 Probanden der SECPT-Gruppe wurden post-hoc zum einen anhand der individuellen Blutdruckreaktivität und zum zweiten anhand der Stärke der subjektiv bewerteten Stressreaktivität per Mediansplit in zwei Subgrupen unterteilt (High Responder, Low Responder). rnDer erste Wiedererkennungstest fand 30 Minuten nach der Akquisitionsphase, ein weiterer 20 Stunden später statt. Zu den Testzeitpunkten wurden jeweils 26 der initial präsentierten Gesichter mit neutralem Gesichtsausdruck gezeigt sowie 26 neue neutrale Gesichter. rnDie Kontrollgruppe und die Gruppe der High Responder (basierend auf der kardiovaskulären Reaktivität) zeigten ein besseres Erinnerungsvermögen für die initial positiv präsentierten gesichter, wohingegen die Gruppe der Low Responder ein besseres Gedächtnis für die initial negativ präsentierten Gesichter aufwies. rnStress scheint abhängig von der Stärke der kardiovaskulären Reaktion zu valenzspezifischen Konsolidierungseffekten zu führen. Hierbei könnten viszerale Afferenzen z.B. der arteriellen Baroreflexe eine Rolle spielen. rn
Resumo:
Die Verifikation bewertet die Güte von quantitativen Niederschlagsvorhersagen(QNV) gegenüber Beobachtungen und liefert Hinweise auf systematische Modellfehler. Mit Hilfe der merkmals-bezogenen Technik SAL werden simulierte Niederschlagsverteilungen hinsichtlich (S)truktur, (A)mplitude und (L)ocation analysiert. Seit einigen Jahren werden numerische Wettervorhersagemodelle benutzt, mit Gitterpunktabständen, die es erlauben, hochreichende Konvektion ohne Parametrisierung zu simulieren. Es stellt sich jetzt die Frage, ob diese Modelle bessere Vorhersagen liefern. Der hoch aufgelöste stündliche Beobachtungsdatensatz, der in dieser Arbeit verwendet wird, ist eine Kombination von Radar- und Stationsmessungen. Zum einem wird damit am Beispiel der deutschen COSMO-Modelle gezeigt, dass die Modelle der neuesten Generation eine bessere Simulation des mittleren Tagesgangs aufweisen, wenn auch mit zu geringen Maximum und etwas zu spätem Auftreten. Im Gegensatz dazu liefern die Modelle der alten Generation ein zu starkes Maximum, welches erheblich zu früh auftritt. Zum anderen wird mit dem neuartigen Modell eine bessere Simulation der räumlichen Verteilung des Niederschlags, durch eine deutliche Minimierung der Luv-/Lee Proble-matik, erreicht. Um diese subjektiven Bewertungen zu quantifizieren, wurden tägliche QNVs von vier Modellen für Deutschland in einem Achtjahreszeitraum durch SAL sowie klassischen Maßen untersucht. Die höher aufgelösten Modelle simulieren realistischere Niederschlagsverteilungen(besser in S), aber bei den anderen Komponenten tritt kaum ein Unterschied auf. Ein weiterer Aspekt ist, dass das Modell mit der gröbsten Auf-lösung(ECMWF) durch den RMSE deutlich am besten bewertet wird. Darin zeigt sich das Problem des ‚Double Penalty’. Die Zusammenfassung der drei Komponenten von SAL liefert das Resultat, dass vor allem im Sommer das am feinsten aufgelöste Modell (COSMO-DE) am besten abschneidet. Hauptsächlich kommt das durch eine realistischere Struktur zustande, so dass SAL hilfreiche Informationen liefert und die subjektive Bewertung bestätigt. rnIm Jahr 2007 fanden die Projekte COPS und MAP D-PHASE statt und boten die Möglich-keit, 19 Modelle aus drei Modellkategorien hinsichtlich ihrer Vorhersageleistung in Südwestdeutschland für Akkumulationszeiträume von 6 und 12 Stunden miteinander zu vergleichen. Als Ergebnisse besonders hervorzuheben sind, dass (i) je kleiner der Gitter-punktabstand der Modelle ist, desto realistischer sind die simulierten Niederschlags-verteilungen; (ii) bei der Niederschlagsmenge wird in den hoch aufgelösten Modellen weniger Niederschlag, d.h. meist zu wenig, simuliert und (iii) die Ortskomponente wird von allen Modellen am schlechtesten simuliert. Die Analyse der Vorhersageleistung dieser Modelltypen für konvektive Situationen zeigt deutliche Unterschiede. Bei Hochdrucklagen sind die Modelle ohne Konvektionsparametrisierung nicht in der Lage diese zu simulieren, wohingegen die Modelle mit Konvektionsparametrisierung die richtige Menge, aber zu flächige Strukturen realisieren. Für konvektive Ereignisse im Zusammenhang mit Fronten sind beide Modelltypen in der Lage die Niederschlagsverteilung zu simulieren, wobei die hoch aufgelösten Modelle realistischere Felder liefern. Diese wetterlagenbezogene Unter-suchung wird noch systematischer unter Verwendung der konvektiven Zeitskala durchge-führt. Eine erstmalig für Deutschland erstellte Klimatologie zeigt einen einer Potenzfunktion folgenden Abfall der Häufigkeit dieser Zeitskala zu größeren Werten hin auf. Die SAL Ergebnisse sind für beide Bereiche dramatisch unterschiedlich. Für kleine Werte der konvektiven Zeitskala sind sie gut, dagegen werden bei großen Werten die Struktur sowie die Amplitude deutlich überschätzt. rnFür zeitlich sehr hoch aufgelöste Niederschlagsvorhersagen gewinnt der Einfluss der zeitlichen Fehler immer mehr an Bedeutung. Durch die Optimierung/Minimierung der L Komponente von SAL innerhalb eines Zeitfensters(+/-3h) mit dem Beobachtungszeit-punkt im Zentrum ist es möglich diese zu bestimmen. Es wird gezeigt, dass bei optimalem Zeitversatz die Struktur und Amplitude der QNVs für das COSMO-DE besser werden und damit die grundsätzliche Fähigkeit des Modells die Niederschlagsverteilung realistischer zu simulieren, besser gezeigt werden kann.
Resumo:
Hypothermie schützt Neurone vor hypoxischen, ischämischen und traumatischen Schädigungen. Bisher ist jedoch unklar, ob Hypothermie auch endogene Reparaturmechanismen beeinflusst. Die vorliegende Arbeit untersucht daher den Einfluss intraischämischer Hypothermie auf das neuroregenerative Potential des Gehirns nach zerebraler Ischämie.rn50 männliche Sprague-Dawley Ratten wurden hierzu anästhesiert, intubiert und in folgende Versuchsgruppen randomisiert: Normotherme Ischämie (Normo/BACO), intraischämische Hypothermie (Hypo/BACO) sowie korrespondierende scheinoperierte Kontrollgruppen (Normo/Sham und Hypo/Sham). In den Gruppen Normo/Sham und Normo/BACO wurde die perikranielle Temperatur konstant bei 37 °C gehalten während sie in den Gruppen Hypo/Sham und Hypo/BACO für 85 min auf 33 °C gesenkt wurde. Durch bilaterale Okklusion der Aa. carotides communes in Kombination mit hämorrhagischer Hypotension wurde in BACO-Tieren eine 14-minütige inkomplette globale zerebrale Ischämie induziert. Tiere der Kontroll-Gruppen (Sham) blieben ohne Induktion einer Ischämie in Narkose. 15 weitere Tiere durchliefen nicht den operativen Versuchsteil und bildeten die Nativ-Gruppe, die als Referenz für die natürliche Neurogenese diente. Zur in-vivo-Markierung der Stammzellen wurde vom ersten bis siebten postoperativen Tag Bromodeoxyurindine (BrdU) injiziert. Nach 28 Tagen wurden die Gehirne entnommen. Die Analyse des histopathologischen Schadens erfolgte anhand HE-gefärbter Hirnschnitte, die Quantifikation der absoluten Anzahl neu gebildeter Zellen im Gyrus dentatus erfolgte mittels BrdU-Färbung. Anhand einer BrdU/NeuN-Immunfluoreszenz-Doppelfärbung konnte der Anteil neu generierter Neurone bestimmt werden.rnNach zerebraler Ischämie zeigten Tiere mit Normothermie eine Schädigung der CA 1-Region von über 50 % während hypotherme Ischämietiere einen Schaden von weniger als 10 % aufwiesen. Tiere ohne Ischämie (Hypo/Sham, Normo/Sham, Nativ) zeigten keinen histopathologischen Schaden. Die Anzahl neu gebildeter Neurone im Gyrus dentatus lag für normotherme Ischämietiere (Normo/BACO) bei 18819 und für Tiere mit intraischämischer Hypothermie (Hypo/BACO) bei 15175 neuen Neuronen. In den Kontroll-Gruppen wiesen Tiere der Gruppe Normo/Sham 5501, Tiere der Gruppe Hypo/Sham 4600 und Tiere der Nativ-Gruppe 5974 neu generierte Neurone auf.rnDiese Daten bestätigen frühere Studien, die eine Reduktion des neuronalen Schadens durch intraischämische Hypothermie zeigten. Infolge des ischämischen Stimulus kam es im Vergleich zu beiden Kontroll- und der Nativ-Gruppe zu einem signifikanten Anstieg der Anzahl neuer Neurone in beiden Ischämiegruppen unabhängig von der Temperatur. Somit scheint das Ausmaß der histopathologischen Schädigung keinen Einfluss auf die Anzahl neu gebildeter Neurone zu haben. Darüber hinaus beeinflusste die therapeutische Hypothermie auch nicht die natürliche Neurogeneserate. Die erhobenen Daten lassen vermuten, dass Hypothermie keinen Effekt auf die Anzahl und Differenzierung neuronaler Stammzellen aufweist, unabhängig davon, ob eine zerebrale Schädigung vorliegt.
Resumo:
In der vorliegenden Arbeit wurden Zielstrukturen autologer, tumorreaktiver CD8+ T-Zellen im Modell des Melanompatienten D41 charakterisiert, der im metastasierten Stadium nach Vakzinierung mit autologen dendritischen Zellen und bestrahlten Tumorzellen eine dauerhafte komplette Remission erreichte (O´Rourke et al., Melanoma Res. 17:316, 2007). Aus kryokonservierten Blutlymphozyten verschiedener Zeitpunkte wurden durch Stimulation mit autologen Tumorzellen (D41-MEL) in unabhängigen gemischten Lymphozyten-/Tumorzell-Kulturen (MLTCs) tumorreaktive CD8+ T-Zellen angereichert. Als Erstes wurde überprüft, ob sie gegen bekannte Melanomantigene in Assoziation mit den HLA-Klasse I-Allelen des Patienten gerichtet waren. Dabei zeigten sich Reaktivitäten gegen das melanosomale Differenzierungsantigen Melan-A mit HLA-A*0201 und darüber hinaus gegen die Cancer/Testis-Antigene (CTA) MAGE-A3 und MAGE-A6 mit HLA-A*0101, sowie NY-ESO-1, MAGE-A4 und MAGE-A10 mit HLA-A*0201. In einem zweiten Schritt wurde mit T-Zell-Klonen aus D41-MLTC 2, die keines dieser Antigene erkannten, eine cDNA-Expressionsbank von D41-MEL gescreent. Dies führte zur Klonierung einer für TSPY 1 (testis-specific protein Y-encoded 1) kodierenden cDNA mit einem der T-Zell-Klone. Er erkannte mit hoher Affinität die synthetischen TSPY 1-Peptide LLDDIMAEV (Aminosäurepositionen 66-73) und LLLDDIMAEV (Aminosäurepositionen 65-73) in Assoziation mit HLA-A*0201. Serologische Immunantworten gegen das als CTA einzustufende TSPY 1 sind bekannt. In der vorliegenden Arbeit wurde erstmals eine T-Zell-Antwort gegen TSPY 1 nachgewiesen. TSPY 1 trägt mutmaßlich zu Entstehung des Gonadoblastoms bei, seine Expression wurde jedoch z.B. auch in Seminomen, Leberzellkarzinomen und Melanomen nachgewiesen. Die Expression von TSPY 1 in der Zelllinie D41-MEL-Zellen war sehr heterogen. Einzelne Klone der Linie exprimierten TSPY 1 auf stabil hohem, andere Klone auf ebenso stabil intermediärem bzw. nicht detektierbarem Niveau. Die Expression und die Erkennung durch TSPY 1-reaktive T-Zell-Klone wurde durch die demethylierende Substanz 5-Aza-2´-deoxycytidine gesteigert. Dies spricht für eine Promotor-Hypermethylierung als Ursache fehlender bzw. niedriger Expression, wie dies für verschiedene CTA zutrifft. Die im Blut des Patienten D41 detektierbare antitumorale T-Zell-Reaktivität war bereits vor der Vakzinierung mit Tumorzellen nachweisbar und hatte sich somit spontan entwickelt. Ihre Individualität war vorgegeben durch das Antigenexpressionsmuster der D41-Tumorzellen, sowie durch den HLA-Phänotyp und mutmaßlich auch das T-Zellrepertoire des Patienten. Die detaillierte Analyse komplexer antitumoraler T-Zellantworten legt den Grundstein für eine Immuntherapie, die sich auf das tatsächliche Potential des individuellen T-Zellsystems stützen kann.
Resumo:
This thesis concerns artificially intelligent natural language processing systems that are capable of learning the properties of lexical items (properties like verbal valency or inflectional class membership) autonomously while they are fulfilling their tasks for which they have been deployed in the first place. Many of these tasks require a deep analysis of language input, which can be characterized as a mapping of utterances in a given input C to a set S of linguistically motivated structures with the help of linguistic information encoded in a grammar G and a lexicon L: G + L + C → S (1) The idea that underlies intelligent lexical acquisition systems is to modify this schematic formula in such a way that the system is able to exploit the information encoded in S to create a new, improved version of the lexicon: G + L + S → L' (2) Moreover, the thesis claims that a system can only be considered intelligent if it does not just make maximum usage of the learning opportunities in C, but if it is also able to revise falsely acquired lexical knowledge. So, one of the central elements in this work is the formulation of a couple of criteria for intelligent lexical acquisition systems subsumed under one paradigm: the Learn-Alpha design rule. The thesis describes the design and quality of a prototype for such a system, whose acquisition components have been developed from scratch and built on top of one of the state-of-the-art Head-driven Phrase Structure Grammar (HPSG) processing systems. The quality of this prototype is investigated in a series of experiments, in which the system is fed with extracts of a large English corpus. While the idea of using machine-readable language input to automatically acquire lexical knowledge is not new, we are not aware of a system that fulfills Learn-Alpha and is able to deal with large corpora. To instance four major challenges of constructing such a system, it should be mentioned that a) the high number of possible structural descriptions caused by highly underspeci ed lexical entries demands for a parser with a very effective ambiguity management system, b) the automatic construction of concise lexical entries out of a bulk of observed lexical facts requires a special technique of data alignment, c) the reliability of these entries depends on the system's decision on whether it has seen 'enough' input and d) general properties of language might render some lexical features indeterminable if the system tries to acquire them with a too high precision. The cornerstone of this dissertation is the motivation and development of a general theory of automatic lexical acquisition that is applicable to every language and independent of any particular theory of grammar or lexicon. This work is divided into five chapters. The introductory chapter first contrasts three different and mutually incompatible approaches to (artificial) lexical acquisition: cue-based queries, head-lexicalized probabilistic context free grammars and learning by unification. Then the postulation of the Learn-Alpha design rule is presented. The second chapter outlines the theory that underlies Learn-Alpha and exposes all the related notions and concepts required for a proper understanding of artificial lexical acquisition. Chapter 3 develops the prototyped acquisition method, called ANALYZE-LEARN-REDUCE, a framework which implements Learn-Alpha. The fourth chapter presents the design and results of a bootstrapping experiment conducted on this prototype: lexeme detection, learning of verbal valency, categorization into nominal count/mass classes, selection of prepositions and sentential complements, among others. The thesis concludes with a review of the conclusions and motivation for further improvements as well as proposals for future research on the automatic induction of lexical features.