422 resultados para idiografische methoden
Resumo:
Für eine erfolgreiche Behandlung bösartiger Tumore ist eine frühzeitige Diagnose, aber auch eine effektive und effiziente Therapie essentiell. In diesem Zusammenhang sind Nanomaterialien in den Fokus der Arzneimittelentwicklung gerückt, welche für Diagnostik und Therapie genutzt werden könnten.rnSystematische Studien zur Radiometallmarkierung von Nanopartikeln und deren Stabilität in vitro im Zusammenhang mit der Struktur des Linkers und dem Anteil an Chelator wurden anhand verschiedener HPMA-DOTA-Konjugate durchgeführt. Es konnte gezeigt werden, dass die Linkerstruktur und der Belegungsgrad sowohl die Markierung als auch die in vitro -Stabilität von radiometallmarkierten HPMA-rnDOTA-Konjugaten beeinflussen.rnFür die Markierung selbst stehen mehrere Generator-produzierte metallische Positronenemitter zur Verfügung. Infolge der gesetzlichen Bestimmungen muss das Eluat der Generatoren bestimmte Spezifikationen (Elutionsausbeute, Durchbruch des Mutternuklids, Gehalt an Fremdionen, pH-Wert etc.) erfüllen, um für die Darstellung von Radiopharmaka verwendet werden zu können.rnFür das bereits etablierte PET-Nuklid 68Ga konnte eine Ethanol-basierte Aufreinigung entwickelt werden, welche hohe Elutions- und Markierungsausbeuten sowie Radionuklidreinheit garantiert und damit einen wichtigen Schritt für die Entwicklung von Kit-Formulierungen repräsentiert. Ausserdem konnten zwei Methoden zur Qualitätskontrolle entwickelt werden, welche es ermöglichen die Radionuklidreinheit des initialen 68Ga-Eluats, aber auch des finalen 68Ga-Radiopharmakons innerhalb einer Stunde ohne γ–Spektroskopie zu bestimmen.rnWährend mit 68Ga die Pharmakokinetik markierter Derivate für einen Zeitraum von bis 3 Stunden zugänglich ist, deckt das Generator-produzierte 44Sc eine Periode von bis zu einem Tag ab. Damit lässt sich die Pharmakokinetik markierter polymerer Drug Carrier-Systeme – von der frühen Ausscheidungsphase bis hin zu organspezifischen Akkumulationen durch passives und aktives Targeting – gut beschreiben.rnFür 44Sc konnte anhand der Modellverbindung DOTATOC gezeigt werden, dass das aufgereinigte Generatoreluat für die Markierung mit hohen radiochemischen Ausbeuten geeignet ist und etablierte Markierungsmethoden übertragbar sind. In weiterführenden Studien zur molekularen Bildgebung könnte das Potential dieses PET-Nuklids für die Langzeitbildgebung gezeigt werden.
Resumo:
In this thesis, different complex colloids were prepared by the process of solvent evaporation from emulsion droplets (SEED). The term “complex” is used to include both an addressable functionality as well as the heterogeneous nature of the colloids.Firstly, as the SEED process was used throughout the thesis, its mechanism especially in regard to coalescence was investigated,. A wide variety of different techniques was employed to study the coalescence of nanodroplets during the evaporation of the solvent. Techniques such as DLS or FCS turned out not to be suitable methods to determine droplet coalescence because of their dependence on dilution. Thus, other methods were developed. TEM measurements were conducted on mixed polymeric emulsions with the results pointing to an absence of coalescence. However, these results were not quantifiable. FRET measurements on mixed polymeric emulsions also indicated an absence of coalescence. Again the results were not quantifiable. The amount of coalescence taking place was then quantified by the application of DC-FCCS. This method also allowed for measuring coalescence in other processes such as the miniemulsion polymerization or the polycondensation reaction on the interface of the droplets. By simulations it was shown that coalescence is not responsible for the usually observed broad size distribution of the produced particles. Therefore, the process itself, especially the emulsification step, needs to be improved to generate monodisperse colloids.rnThe Janus morphology is probably the best known among the different complex morphologies of nanoparticles. With the help of functional polymers, it was possible to marry click-chemistry to Janus particles. A large library of functional polymers was prepared by copolymerization and subsequent post-functionalization or by ATRP. The polymers were then used to generate Janus particles by the SEED process. Both dually functionalized Janus particles and particles with one functionalized face could be obtained. The latter were used for the quantification of functional groups on the surface of the Janus particles. For this, clickable fluorescent dyes were synthesized. The degree of functionality of the polymers was found to be closely mirrored in the degree of functionality of the surface. Thus, the marriage of click-chemistry to Janus particles was successful.Another complex morphology besides Janus particles are nanocapsules. Stimulus-responsive nanocapsules that show triggered release are a highly demanding and interesting system, as nanocapsules have promising applications in drug delivery and in self-healing materials. To achieve heterogeneity in the polymer shell, the stimulus-responsive block copolymer PVFc-b-PMMA was employed for the preparation of the capsules. The phase separation of the two blocks in the shell of the capsules led to a patchy morphology. These patches could then be oxidized resulting in morphology changes. In addition, swelling occurred because of the hydrophobic to hydrophilic transition of the patches induced by the oxidation. Due to the swelling, an encapsulated payload could diffuse out of the capsules, hence release was achieved.The concept of using block copolymers responsive to one stimulus for the preparation of stimulus-responsive capsules was extended to block copolymers responsive to more than one stimulus. Here, a block copolymer responsive to oxidation and a pH change as well as a block copolymer responsive to a pH change and temperature were studied in detail. The release from the nanocapsules could be regulated by tuning the different stimuli. In addition, by encapsulating stimuli-responsive payloads it was possible to selectively release a payload upon one stimulus but not upon the other one.In conclusion, the approaches taken in the course of this thesis demonstrate the broad applicability and usefulness of the SEED process to generate complex colloids. In addition, the experimental techniques established such as DC-FCCS will provide further insight into other research areas as well.
Resumo:
Since historical times, coastal areas throughout the eastern Mediterranean are exposed to tsunami hazard. For many decades the knowledge about palaeotsunamis was solely based on historical accounts. However, results from timeline analyses reveal different characteristics affecting the quality of the dataset (i.e. distribution of data, temporal thinning backward of events, local periodization phenomena) that emphasize the fragmentary character of the historical data. As an increasing number of geo-scientific studies give convincing examples of well dated tsunami signatures not reported in catalogues, the non-existing record is a major problem to palaeotsunami research. While the compilation of historical data allows a first approach in the identification of areas vulnerable to tsunamis, it must not be regarded as reliable for hazard assessment. Considering the increasing economic significance of coastal regions (e.g. for mass tourism) and the constantly growing coastal population, our knowledge on the local, regional and supraregional tsunami hazard along Mediterranean coasts has to be improved. For setting up a reliable tsunami risk assessment and developing risk mitigation strategies, it is of major importance (i) to identify areas under risk and (ii) to estimate the intensity and frequency of potential events. This approach is most promising when based on the analysis of palaeotsunami research seeking to detect areas of high palaeotsunami hazard, to calculate recurrence intervals and to document palaeotsunami destructiveness in terms of wave run-up, inundation and long-term coastal change. Within the past few years, geo-scientific studies on palaeotsunami events provided convincing evidence that throughout the Mediterranean ancient harbours were subject to strong tsunami-related disturbance or destruction. Constructed to protect ships from storm and wave activity, harbours provide especially sheltered and quiescent environments and thus turned out to be valuable geo-archives for tsunamigenic high-energy impacts on coastal areas. Directly exposed to the Hellenic Trench and extensive local fault systems, coastal areas in the Ionian Sea and the Gulf of Corinth hold a considerably high risk for tsunami events, respectively.Geo-scientific and geoarcheaological studies carried out in the environs of the ancient harbours of Krane (Cefalonia Island), Lechaion (Corinth, Gulf of Corinth) and Kyllini (western Peloponnese) comprised on-shore and near-shore vibracoring and subsequent sedimentological, geochemical and microfossil analyses of the recovered sediments. Geophysical methods like electrical resistivity tomography and ground penetrating radar were applied in order to detect subsurface structures and to verify stratigraphical patterns derived from vibracores over long distances. The overall geochronological framework of each study area is based on radiocarbon dating of biogenic material and age determination of diagnostic ceramic fragments. Results presented within this study provide distinct evidence of multiple palaeotsunami landfalls for the investigated areas. Tsunami signatures encountered in the environs of Krane, Lechaion and Kyllini include (i) coarse-grained allochthonous marine sediments intersecting silt-dominated quiescent harbour deposits and/or shallow marine environments, (ii) disturbed microfaunal assemblages and/or (iii) distinct geochemical fingerprints as well as (iv) geo-archaeological destruction layers and (v) extensive units of beachrock-type calcarenitic tsunamites. For Krane, geochronological data yielded termini ad or post quem (maximum ages) for tsunami event generations dated to 4150 ± 60 cal BC, ~ 3200 ± 110 cal BC, ~ 650 ± 110 cal BC, and ~ 930 ± 40 cal AD, respectively. Results for Lechaion suggest that the harbour was hit by strong tsunami impacts in the 8th-6th century BC, the 1st-2nd century AD and in the 6th century AD. At Kyllini, the harbour site was affected by tsunami impact in between the late 7th and early 4th cent. BC and between the 4th and 6th cent. AD. In case of Lechaion and Kyllini, the final destruction of the harbour facilities also seems to be related to the tsunami impact. Comparing the tsunami signals obtained for each study areas with geo-scientific data from palaeotsunami events from other sites indicates that the investigated harbour sites represent excellent geo-archives for supra-regional mega-tsunamis.
Resumo:
Aerosol particles are strongly related to climate, air quality, visibility and human health issues. They contribute the largest uncertainty in the assessment of the Earth´s radiative budget, directly by scattering or absorbing solar radiation or indirectly by nucleating cloud droplets. The influence of aerosol particles on cloud related climatic effects essentially depends upon their number concentration, size and chemical composition. A major part of submicron aerosol consists of secondary organic aerosol (SOA) that is formed in the atmosphere by the oxidation of volatile organic compounds. SOA can comprise a highly diverse spectrum of compounds that undergo continuous chemical transformations in the atmosphere.rnThe aim of this work was to obtain insights into the complexity of ambient SOA by the application of advanced mass spectrometric techniques. Therefore, an atmospheric pressure chemical ionization ion trap mass spectrometer (APCI-IT-MS) was applied in the field, facilitating the measurement of ions of the intact molecular organic species. Furthermore, the high measurement frequency provided insights into SOA composition and chemical transformation processes on a high temporal resolution. Within different comprehensive field campaigns, online measurements of particular biogenic organic acids were achieved by combining an online aerosol concentrator with the APCI-IT-MS. A holistic picture of the ambient organic aerosol was obtained through the co-located application of other complementary MS techniques, such as aerosol mass spectrometry (AMS) or filter sampling for the analysis by liquid chromatography / ultrahigh resolution mass spectrometry (LC/UHRMS).rnIn particular, during a summertime field study at the pristine boreal forest station in Hyytiälä, Finland, the partitioning of organic acids between gas and particle phase was quantified, based on the online APCI-IT-MS and AMS measurements. It was found that low volatile compounds reside to a large extent in the gas phase. This observation can be interpreted as a consequence of large aerosol equilibration timescales, which build up due to the continuous production of low volatile compounds in the gas phase and/or a semi-solid phase state of the ambient aerosol. Furthermore, in-situ structural informations of particular compounds were achieved by using the MS/MS mode of the ion trap. The comparison to MS/MS spectra from laboratory generated SOA of specific monoterpene precursors indicated that laboratory SOA barely depicts the complexity of ambient SOA. Moreover, it was shown that the mass spectra of the laboratory SOA more closely resemble the ambient gas phase composition, indicating that the oxidation state of the ambient organic compounds in the particle phase is underestimated by the comparison to laboratory ozonolysis. These observations suggest that the micro-scale processes, such as the chemistry of aerosol aging or the gas-to-particle partitioning, need to be better understood in order to predict SOA concentrations more reliably.rnDuring a field study at the Mt. Kleiner Feldberg, Germany, a slightly different aerosol concentrator / APCI-IT-MS setup made the online analysis of new particle formation possible. During a particular nucleation event, the online mass spectra indicated that organic compounds of approximately 300 Da are main constituents of the bulk aerosol during ambient new particle formation. Co-located filter analysis by LC/UHRMS analysis supported these findings and furthermore allowed to determine the molecular formulas of the involved organic compounds. The unambiguous identification of several oxidized C 15 compounds indicated that oxidation products of sesquiterpenes can be important compounds for the initial formation and subsequent growth of atmospheric nanoparticles.rnThe LC/UHRMS analysis furthermore revealed that considerable amounts of organosulfates and nitrooxy organosulfates were detected on the filter samples. Indeed, it was found that several nitrooxy organosulfate related APCI-IT-MS mass traces were simultaneously enhanced. Concurrent particle phase ion chromatography and AMS measurements indicated a strong bias between inorganic sulfate and total sulfate concentrations, supporting the assumption that substantial amounts of sulfate was bonded to organic molecules.rnFinally, the comprehensive chemical analysis of the aerosol composition was compared to the hygroscopicity parameter kappa, which was derived from cloud condensation nuclei (CCN) measurements. Simultaneously, organic aerosol aging was observed by the evolution of a ratio between a second and a first generation biogenic oxidation product. It was found that this aging proxy positively correlates with increasing hygroscopicity. Moreover, it was observed that the bonding of sulfate to organic molecules leads to a significant reduction of kappa, compared to an internal mixture of the same mass fractions of purely inorganic sulfate and organic molecules. Concluding, it has been shown within this thesis that the application of modern mass spectrometric techniques allows for detailed insights into chemical and physico-chemical processes of atmospheric aerosols.rn
Resumo:
Graphene nanoribbons (GNRs), which are defined as nanometer-wide strips of graphene, are attracting an increasing attention as one on the most promising materials for future nanoelectronics. Unlike zero-bandgap graphene that cannot be switched off in transistors, GNRs possess open bandgaps that critically depend on their width and edge structures. GNRs were predominantly prepared through “top-down” methods such as “cutting” of graphene and “unzipping” of carbon nanotubes, but these methods cannot precisely control the structure of the resulting GNRs. In contrast, “bottom-up” chemical synthetic approach enables fabrication of structurally defined and uniform GNRs from tailor-made polyphenylene precursors. Nevertheless, width and length of the GNRs obtainable by this method were considerably limited. In this study, lateral as well as longitudinal extensions of the GNRs were achieved while preserving the high structural definition, based on the bottom-up solution synthesis. Initially, wider (~2 nm) GNRs were synthesized by using laterally expanded monomers through AA-type Yamamoto polymerization, which proved more efficient than the conventional A2B2-type Suzuki polymerization. The wider GNRs showed broad absorption profile extending to the near-infrared region with a low optical bandgap of 1.12 eV, which indicated a potential of such GNRs for the application in photovoltaic cells. Next, high longitudinal extension of narrow (~1 nm) GNRs over 600 nm was accomplished based on AB-type Diels–Alder polymerization, which provided corresponding polyphenylene precursors with the weight-average molecular weight of larger than 600,000 g/mol. Bulky alkyl chains densely installed on the peripheral positions of these GNRs enhanced their liquid-phase processability, which allowed their formation of highly ordered self-assembled monolayers. Furthermore, non-contact time-resolved terahertz spectroscopy measurements demonstrated high charge-carrier mobility within individual GNRs. Remarkably, lateral extension of the AB-type monomer enabled the fabrication of wider (~2 nm) and long (>100 nm) GNRs through the Diels–Alder polymerization. Such longitudinally extended and structurally well-defined GNRs are expected to allow the fabrication of single-ribbon transistors for the fundamental studies on the electronic properties of the GNRs as well as contribute to the development of future electronic devices.
Resumo:
Die vorliegende Dissertation dient dazu, das Verständnis des Exzitonentransports in organischen Halbleitern, wie sie in Leuchtdioden oder Solarzellen eingesetzt werden, zu vertiefen. Mithilfe von Computersimulationen wurde der Transport von Exzitonen in amorphen und kristallinen organischen Materialien beschrieben, angefangen auf mikroskopischer Ebene, auf der quantenmechanische Prozesse ablaufen, bis hin zur makroskopischen Ebene, auf welcher physikalisch bestimmbare Größen wie der Diffusionskoeffizient extrahierbar werden. Die Modellbildung basiert auf dem inkohärenten elektronischen Energietransfer. In diesem Rahmen wird der Transport des Exzitons als Hüpfprozess aufgefasst, welcher mit kinetischen Monte-Carlo Methoden simuliert wurde. Die notwendigen quantenmechanischen Übergangsraten zwischen den Molekülen wurden anhand der molekularen Struktur fester Phasen berechnet. Die Übergangsraten lassen sich in ein elektronisches Kopplungselement und die Franck-Condon-gewichtete Zustandsdichte aufteilen. Der Fokus dieser Arbeit lag einerseits darauf die Methoden zu evaluieren, die zur Berechnung der Übergangsraten in Frage kommen und andererseits den Hüpftransport zu simulieren und eine atomistische Interpretation der makroskopischen Transporteigenschaften der Exzitonen zu liefern. rnrnVon den drei untersuchten organischen Systemen, diente Aluminium-tris-(8-hydroxychinolin) der umfassenden Prüfung des Verfahrens. Es wurde gezeigt, dass stark vereinfachte Modelle wie die Marcus-Theorie die Übergangsraten und damit das Transportverhalten der Exzitonen oftmals qualitativ korrekt wiedergeben. Die meist deutlich größeren Diffusionskonstanten von Singulett- im Vergleich zu Triplett-Exzitonen haben ihren Ursprung in der längeren Reichweite der Kopplungselemente der Singulett-Exzitonen, wodurch ein stärker verzweigtes Netzwerk gebildet wird. Der Verlauf des zeitabhängigen Diffusionskoeffizienten zeigt subdiffusives Verhalten für kurze Beobachtungszeiten. Für Singulett-Exzitonen wechselt dieses Verhalten meist innerhalb der Lebensdauer des Exzitons in ein normales Diffusionsregime, während Triplett-Exzitonen das normale Regime deutlich langsamer erreichen. Das stärker anomale Verhalten der Triplett-Exzitonen wird auf eine ungleichmäßige Verteilung der Übergangsraten zurückgeführt. Beim Vergleich mit experimentell bestimmten Diffusionskonstanten muss das anomale Verhalten der Exzitonen berücksichtigt werden. Insgesamt stimmten simulierte und experimentelle Diffusionskonstanten für das Testsystem gut überein. Das Modellierungsverfahren sollte sich somit zur Charakterisierung des Exzitonentransports in neuen organischen Halbleitermaterialien eignen.
Resumo:
Diese Fall-Kontroll-Studie zeigt an einer Kohorte von 82 langzeitbeatmeten Patienten einer spezialisierten Weaningabteilung Aspiration bei 45 % der Patienten unmittelbar nach Entfernung der Trachealkanüle. Gesichert wurde die Aspiration durch schluckweises Trinken von mit Patentblau V gefärbten Wasser, das nach Durchtritt durch die Stimmlippen durch eine fiberoptische Untersuchung mit dem Bronchoskop durch das Tracheostoma mit dem Blick nach laryngeal nachzuweisen war. Diese Anzahl von 45 % stimmt gut mit den Daten aus der Literatur überein, die mit anderen Methoden zu ähnlichen Ergebnissen kommen. In dieser Arbeit gibt es keinen Vergleich gegen die fiberoptische Evaluation des Schluckens von nasal.rnIm Gegensatz zu anderen Arbeiten fanden wir keinen signifikanten Unterschied in der Länge der invasiven Beatmung, dem Alter oder der Komorbidität in beiden Gruppen. Während in anderen Arbeiten ein erhöhter CRP Wert ein Risikofaktor für eine erhöhte Mortalität war, konnten wir dies bei unseren Patienten nicht nachweisen.rnDurch insgesamt 21 Vergleiche von Alter, Geschlecht, Beatmungszeiten und klinischen Parametern konnte dargelegt werden, dass beide Gruppen mit und ohne Aspiration im Schluckversuch nahezu identisch sind. Es konnten keine statistisch signifikanten Unterschiede festgestellt werden. Somit basieren die Überlebensraten beider Patientengruppen auf dem Merkmal Aspiration.rnDiese Doktorarbeit zeigt als eine der ersten Veröffentlichungen, dass langzeitbeatmete Patienten mit Aspiration nach Dekanülierung innerhalb der ersten 200 Tage ein erhöhtes Mortalitätsrisiko haben im Vergleich zur Patientengruppe ohne Aspiration.rnIm weiteren Verlauf liefen die beiden Überlebenskurven beider Patientengruppen nach ca. 720 Tagen zusammen. In zukünftigen Untersuchungen sind bei einer höheren Fallzahl Komorbiditäten sowie Einzelmerkmale des Allgemeinzustandes der Patienten, wie Stärke der Atemmuskulatur, Hustenstoß, Somnolenz, Fähigkeit des Stimmbandschlusses zu berücksichtigen.rnDas stärkere Auseinanderklaffen der Kurven binnen der ersten 200 Tage führen wir am ehesten auf eine allgemeine Schwäche der Patienten mit Aspiration und vermindertem Hustenstoß bei verminderter Kraft der Atemmuskulatur zurück, wobei Somnolenz, Konzentrationsfähigkeit, Kooperationsfähigkeit und Stimmbandschluss auch eine wesentliche Rolle spielen könnten. Die CRP-Werte deuten nicht darauf hin, dass ein pneumonisches Geschehen einen direkten Einfluss auf die Überlebenskurven hat.rnDysphagie und Aspiration bei langzeitbeatmeten, tracheotomierten Patienten sind weiterhin ein zu wenig untersuchtes Gebiet. Es gibt bislang keine Leitlinien zur Diagnostik und Therapie dieser häufigen Komplikation, deren optimale Diagnose und Behandlung weiterhin unklar bleibt. Logopädische Begleitung der Patienten auf der Beatmungsstation scheint uns entscheidend. Das beste therapeutische Vorgehen bezüglich Kostaufbau und Vermeidung von Aspirationen ist weiterhin unbekannt.
Resumo:
The betaine/GABA transporter BGT1 is one of the most important osmolyte transporters in the kidney. BGT1 is a member of the neurotransmitter sodium symporter (NSS) family, facilitates Na+/Cl--coupled betaine uptake to cope with hyperosmotic stress. Betaine transport in kidney cells is upregulated under hypertonic conditions by a yet unknown mechanism when increasing amounts of intracellular BGT1 are inserted into the plasma membrane. Re-establishing isotonicity results in ensuing depletion of BGT1 from the membrane. BGT1 phosphorylation on serines and threonines might be a regulation mechanism. In the present study, four potential PKC phosphorylation sites were mutated to alanines and the responses to PKC activators, phorbol 12-myristate acetate (PMA) and dioctanoyl-sn-glycerol (DOG) were determined. GABA-sensitive currents were diminished after 30 min preincubation with these PKC activators. Staurosporine blocked the response to DOG. Three mutants evoked normal GABA-sensitive currents but currents in oocytes expressing the mutant T40A were greatly diminished. [3H]GABA uptake was also determined in HEK-293 cells expressing EGFP-tagged BGT1 with the same mutations. Three mutants showed normal upregulation of GABA uptake after hypertonic stress, and downregulation by PMA was normal compared to EGFP-BGT1. In contrast, GABA uptake by the T40A mutant showed no response to hypertonicity or PMA. Confocal microscopy of the EGFP-BGT1 mutants expressed in MDCK cells, grown on glass or filters, revealed that T40A was present in the cytoplasm after 24 h hypertonic stress while the other mutants and EGFP-BGT1 were predominantely present in the plasma membrane. All four mutants co-migrated with EGFP-BGT1 on Western blots suggesting they are full-length proteins. In conclusion, T235, S428, and S564 are not involved in downregulation of BGT1 due to phosphorylation by PKC. However, T40 near the N-terminus may be part of a hot spot important for normal trafficking or insertion of BGT1 into the plasma membrane. Additionally, a link between substrate transport regulation, insertion of BGT1 into the plasma membrane and N-glycosylation in the extracellular loop 2 (EL2) could be revealed. The functional importance of two predicted N-glycosylation sites, which are conserved in EL2 within the NSS family were investigated for trafficking, transport and regulated plasma membrane insertion by immunogold-labelling, electron microscopy, mutagenesis, two-electrode voltage clamp measurements in Xenopus laevis oocytes and uptake of radioactive-labelled substrate into MDCK cells. Trafficking and plasma membrane insertion of BGT1 was clearly promoted by proper N-glycosylation in both, oocytes and MDCK cells. De-glycosylation with PNGase F or tunicamycin led to a decrease in substrate affinity and transport rate. Mutagenesis studies revealed that in BGT1 N183 is the major N-glycosylation site responsible for full protein activity. Replacement of N183 with aspartate resulted in a mutant, which was not able to bind N-glycans suggesting that N171 is a non-glycosylated site in BGT1. N183D exhibited close to WT transport properties in oocytes. Surprisingly, in MDCK cells plasma membrane insertion of the N183D mutant was no longer regulated by osmotic stress indicating unambiguously that association with N-glycans at this position is linked to osmotic stress-induced transport regulation in BGT1. The molecular transport mechanism of BGT1 remains largely unknown in the absence of a crystal structure. Therefore investigating the structure-function relationship of BGT1 by a combination of structural biology (2D and 3D crystallization) and membrane protein biochemistry (cell culture, substrate transport by radioactive labeled GABA uptake into cells and proteoliposomes) was the aim of this work. While the functional assays are well established, structure determination of eukaryotic membrane transporters is still a challenge. Therefore, a suitable heterologous expression system could be defined, starting with cloning and overexpression of an optimized gene. The achieved expression levels in P. pastoris were high enough to proceed with isolation of BGT1. Furthermore, purification protocols could be established and resulted in pure protein, which could even be reconstituted in an active form. The quality and homogeneity of the protein allowed already 2D and 3D crystallization, in which initial crystals could be obtained. Interestingly, the striking structural similarity of BGT1 to the bacterial betaine transporter BetP, which became a paradigm for osmoregulated betaine transport, provided information on substrate coordination in BGT1. The structure of a BetP mutant that showed activity for GABA was solved to 3.2Å in complex with GABA in an inward facing open state. This structure shed some light into the molecular transport mechanisms in BGT1 and might help in future to design conformationally locked BGT1 to enforce the on-going structure determination.
Resumo:
Although the Standard Model of particle physics (SM) provides an extremely successful description of the ordinary matter, one knows from astronomical observations that it accounts only for around 5% of the total energy density of the Universe, whereas around 30% are contributed by the dark matter. Motivated by anomalies in cosmic ray observations and by attempts to solve questions of the SM like the (g-2)_mu discrepancy, proposed U(1) extensions of the SM gauge group have raised attention in recent years. In the considered U(1) extensions a new, light messenger particle, the hidden photon, couples to the hidden sector as well as to the electromagnetic current of the SM by kinetic mixing. This allows for a search for this particle in laboratory experiments exploring the electromagnetic interaction. Various experimental programs have been started to search for hidden photons, such as in electron-scattering experiments, which are a versatile tool to explore various physics phenomena. One approach is the dedicated search in fixed-target experiments at modest energies as performed at MAMI or at JLAB. In these experiments the scattering of an electron beam off a hadronic target e+(A,Z)->e+(A,Z)+l^+l^- is investigated and a search for a very narrow resonance in the invariant mass distribution of the lepton pair is performed. This requires an accurate understanding of the theoretical basis of the underlying processes. For this purpose it is demonstrated in the first part of this work, in which way the hidden photon can be motivated from existing puzzles encountered at the precision frontier of the SM. The main part of this thesis deals with the analysis of the theoretical framework for electron scattering fixed-target experiments searching for hidden photons. As a first step, the cross section for the bremsstrahlung emission of hidden photons in such experiments is studied. Based on these results, the applicability of the Weizsäcker-Williams approximation to calculate the signal cross section of the process, which is widely used to design such experimental setups, is investigated. In a next step, the reaction e+(A,Z)->e+(A,Z)+l^+l^- is analyzed as signal and background process in order to describe existing data obtained by the A1 experiment at MAMI with the aim to give accurate predictions of exclusion limits for the hidden photon parameter space. Finally, the derived methods are used to find predictions for future experiments, e.g., at MESA or at JLAB, allowing for a comprehensive study of the discovery potential of the complementary experiments. In the last part, a feasibility study for probing the hidden photon model by rare kaon decays is performed. For this purpose, invisible as well as visible decays of the hidden photon are considered within different classes of models. This allows one to find bounds for the parameter space from existing data and to estimate the reach of future experiments.
Resumo:
Die vorliegende Arbeit beschäftigt sich mit der Modellierung niederenergetischer elektromagnetischer und hadronischer Prozesse im Rahmen einer manifest lorentzinvarianten, chiralen effektiven Feldtheorie unter expliziter, dynamischer Berücksichtigung resonanter, das heißt vektormesonischer Freiheitsgrade. Diese effektive Theorie kann daher als Approximation der grundlegenden Quantenchromodynamik bei kleinen Energien verstanden werden. Besonderes Augenmerk wird dabei auf das verwendete Zähl- sowie Renormierungschema gelegt, wodurch eine konsistente Beschreibung mesonischer Prozesse bis zu Energien von etwa 1GeV ermöglicht wird. Das verwendete Zählschema beruht dabei im Wesentlichen auf einem Argument für großes N_c (Anzahl der Farbfreiheitsgrade) und lässt eine äquivalente Behandlung von Goldstonebosonen (Pionen) und Resonanzen (Rho- und Omegamesonen) zu. Als Renormierungsschema wird das für (bezüglich der starken Wechselwirkung) instabile Teilchen besonders geeignete complex-mass scheme als Erweiterung des extended on-mass-shell scheme verwendet, welches in Kombination mit dem BPHZ-Renormierungsverfahren (benannt nach Bogoliubov, Parasiuk, Hepp und Zimmermann) ein leistungsfähiges Konzept zur Berechnung von Quantenkorrekturen in dieser chiralen effektiven Feldtheorie darstellt. Sämtliche vorgenommenen Rechnungen schließen Terme der chiralen Ordnung vier sowie einfache Schleifen in Feynman-Diagrammen ein. Betrachtet werden unter anderem der Vektorformfaktor des Pions im zeitartigen Bereich, die reelle Compton-Streuung (beziehungsweise Photonenfusion) im neutralen und geladenen Kanal sowie die virtuelle Compton-Streuung, eingebettet in die Elektron-Positron-Annihilation. Zur Extraktion der Niederenergiekopplungskonstanten der Theorie wird letztendlich eine Reihe experimenteller Datensätze verschiedenartiger Observablen verwendet. Die hier entwickelten Methoden und Prozeduren - und insbesondere deren technische Implementierung - sind sehr allgemeiner Natur und können daher auch an weitere Problemstellungen aus diesem Gebiet der niederenergetischen Quantenchromodynamik angepasst werden.
Resumo:
In dieser Arbeit wird die bisher präziseste und erste direkte Hochpräzisionsmessung des g-Faktors eines einzelnen Protons präsentiert. Die Messung beruht auf der nicht-destruktiven Bestimmung der Zyklotronfrequenz und der Larmorfrequenz eines in einer Penning-Falle gespeicherten Protons. Zur Bestimmung der Larmorfrequenz wird die Spin-Flip-Wahrscheinlichkeit als Funktion einer externen Spin-Flip-Anregung aufgenommen. Zu diesem Zweck wird der kontinuierliche Stern-Gerlach Effekt verwendet, welcher zu einer Kopplung des Spin-Moments an die axiale Bewegung des Protons führt. Ein Spin-Flip zeigt sich dabei in einem Sprung der axialen Bewegungsfrequenz. Die Schwierigkeit besteht darin, diesen Frequenzsprung auf einem Hintergrund axialer Frequenzfluktuationen zu detektieren. Um diese Herausforderung zu bewältigen, wurden neuartige Methoden und Techniken angewandt. Zum einen wurden supraleitende Nachweise mit höchster Empfindlichkeit entwickelt, welche schnelle und damit präzise Frequenzmessungen erlauben. Zum anderen wurde eine auf dem statistischen Bayes Theorem basierende Spin-Flip-Analyse-Methode angewandt. Mit diesen Verbesserungen war es möglich, einzelne Spin-Flips eines einzelnen Protons zu beobachten. Dies wiederum ermöglichte die Anwendung der sogenannten Doppelfallen-Methode, und damit die eingangs erwähnte Messung des g-Faktors mit einer Präzision von 4.3 10^-9.
Resumo:
In der vorliegenden Arbeit wird die Theorie der analytischen zweiten Ableitungen für die EOMIP-CCSD-Methode formuliert sowie die durchgeführte Implementierung im Quantenchemieprogramm CFOUR beschrieben. Diese Ableitungen sind von Bedeutung bei der Bestimmung statischer Polarisierbarkeiten und harmonischer Schwingungsfrequenzen und in dieser Arbeit wird die Genauigkeit des EOMIP-CCSD-Ansatzes bei der Berechnung dieser Eigenschaften für verschiedene radikalische Systeme untersucht. Des Weiteren können mit Hilfe der ersten und zweiten Ableitungen vibronische Kopplungsparameter berechnet werden, welche zur Simulation von Molekülspektren in Kombination mit dem Köppel-Domcke-Cederbaum (KDC)-Modell - in der Arbeit am Beispiel des Formyloxyl (HCO2)-Radikals demonstriert - benötigt werden.rnrnDer konzeptionell einfache EOMIP-CC-Ansatz wurde gewählt, da hier die Wellenfunktion eines Radikalsystems ausgehend von einem stabilen geschlossenschaligen Zustand durch die Entfernung eines Elektrons gebildet wird und somit die Problematik der Symmetriebrechung umgangen werden kann. Im Rahmen der Implementierung wurden neue Programmteile zur Lösung der erforderlichen Gleichungen für die gestörten EOMIP-CC-Amplituden und die gestörten Lagrange-Multiplikatoren zeta zum Quantenchemieprogramm CFOUR hinzugefügt. Die unter Verwendung des Programms bestimmten Eigenschaften werden hinsichtlich ihrer Leistungsfähigkeit im Vergleich zu etablierten Methoden wie z.B. CCSD(T) untersucht. Bei der Berechnung von Polarisierbarkeiten und harmonischen Schwingungsfrequenzen liefert die EOMIP-CCSD-Theorie meist gute Resultate, welche nur wenig von den CCSD(T)-Ergebnissen abweichen. Einzig bei der Betrachtung von Radikalen, für die die entsprechenden Anionen nicht stabil sind (z.B. NH2⁻ und CH3⁻), liefert der EOMIP-CCSD-Ansatz aufgrund methodischer Nachteile keine aussagekräftige Beschreibung. rnrnDie Ableitungen der EOMIP-CCSD-Energie lassen sich auch zur Simulation vibronischer Kopplungen innerhalb des KDC-Modells einsetzen.rnZur Kopplung verschiedener radikalischer Zustände in einem solchen Modellpotential spielen vor allem die Ableitungen von Übergangsmatrixelementen eine wichtige Rolle. Diese sogenannten Kopplungskonstanten können in der EOMIP-CC-Theorie besonders leicht definiert und berechnet werden. Bei der Betrachtung des Photoelektronenspektrums von HCO2⁻ werden zwei Alternativen untersucht: Die vertikale Bestimmung an der Gleichgewichtsgeometrie des HCO2⁻-Anions und die Ermittlung adiabatischer Kraftkonstanten an den Gleichgewichtsgeometrien des Radikals. Lediglich das adiabatische Modell liefert bei Beschränkung auf harmonische Kraftkonstanten eine qualitativ sinnvolle Beschreibung des Spektrums. Erweitert man beide Modelle um kubische und quartische Kraftkonstanten, so nähern sich diese einander an und ermöglichen eine vollständige Zuordnung des gemessenen Spektrums innerhalb der ersten 1500 cm⁻¹. Die adiabatische Darstellung erreicht dabei nahezu quantitative Genauigkeit.
Resumo:
KurzfassungrnrnZiel der vorliegenden Arbeit war es eine gezielte, hochspezifische Inhibierung der Proteinbiosynthese zu erreichen. Dies kann durch eine Blockierung des mRNA-Strangs durch komplementäre DNA/RNA-Stränge (ähnlich zur Antisense-Methode) oder durch die Hydrolyse des mRNA-Strangs mit Hilfe spezieller Enzyme (RNasen) realisiert werden. Da jedoch beide Methoden nicht zu zufriedenstellenden Ergebnissen führen, wäre deshalb eine Kombination aus beiden Methoden ideal, welche in einer spezifischen, gezielten und permanenten Ausschaltung der Proteinbiosynthese resultieren würde. Um dieses Ziel zu verwirklichen, ist es nötig, ein Molekül zu synthetisieren, welches in der Lage ist selektiv an einer spezifischen Position an den RNA-Strang zu hybridisieren und anschließend den RNA-Strang an dieser zu hydrolysieren. Der große Vorteil dieses Konzepts liegt darin, dass die DNA-Sequenz für die Hybridisierung an die entsprechende RNA maßgeschneidert hergestellt werden kann und somit jede RNA gezielt angesteuert werden kann, was letztendlich zu einer spezifischen Inhibierung der korrespondierenden Proteinbiosynthese führen soll.rnDurch die Verwendung und Optimierung der Nativen Chemischen Ligation (NCL) als Konjugationsmethode konnten zwei Biomakromoleküle in Form einer 46-basenlangen DNA (komplementär zum RNA-Strang) und einer 31-aminosäurelangen RNase kovalent verknüpft werden. Durch unterschiedliche chemische und molekularbiologische Analysemethoden, wie PAGE, GPC, CE, MALDI-ToF-MS etc., war es zudem möglich, die erfolgreiche Synthese dieses biologischen Hybridpolymers als monodisperses, reines Produkt zu bestätigen. rnDie Synthese des ca. 800-basenlangen RNA-Strangs, der als Modell-Matrize für die selektive und spezifische Degradierung durch das DNA-RNase-Konjugat dienen sollte, konnte unter Zuhilfenahme gentechnologischer Standard-Methoden erfolgreich bewerkstelligt werden. Weiterhin konnte durch die Verwendung der radioaktiven cDNA-Synthese gezeigt werden, dass das DNA-RNase-Konjugat an die gewünschte Stelle des RNA-Strangs hybridisiert. Die Identifizierung einer anschließenden spezifischen Hydrolyse des RNA-Strangs durch die an den DNA-Strang angeknüpfte RNase war aufgrund der geringen katalytischen Aktivität des Enzyms bisher allerdings nicht möglich.rn
Die effektive Ladung eines Polyelektrolyten in Abhängigkeit der Polymerkonzentration und Ionenstärke
Resumo:
Die Ladungsdichte eines Polyelektrolyten bestimmt im Wesentlichen das spezielle physikochemische Verhalten in Lösung und stellt einen der wichtigsten Parameter bei deren Anwendung dar. Folglich ist ein quantitatives Verständis über die effektive Ladung unabdingbar und stellt nach wie vor einen Schwerpunkt aktueller Polymerforschungen dar. Allgemein anerkannt ist die Tatsache, dass die effektive Ladungsdichte in allen Fällen niedriger ist, als es die chemische Struktur vorgibt. Die vorliegende Arbeit befasst sich mit der quantitativen Bestimmung der effektiven Ladung eines linearen, anionischen Polyelektrolyts in einem organischen Lösungsmittel. Zu diesem Zweck wurde ein Polymer mit geschützten Carboxylatgruppen synthetisiert, das eine nachträgliche quantitative Anpassung der Ladungsdichte durch Verseifung eines Esters erlaubt. Der auf diesemWeg synthetisierte Polyelektrolyt besitzt eine theoretische Ladungsdichte von 20% und wurde mit Lichtstreutechniken, Fluoreszenzkorrelationsspektroskopie und elektrophoretischen Methoden untersucht um anschließend aus den erhaltenen Daten, unter Verwendung verschiedener Theorien, die effektive Ladung in Abhängigkeit der Polymer- und Salzkonzentration zu bestimmen. Die Ergebnisse liefern, in Abhängigkeit der verwendeten Theorie, eine konstante oder von den äußeren Parametern abhängige Ladungsdichte, die immer deutlich unter der theoretisch möglichen liegt.
Resumo:
Das wichtigste Oxidationsmittel für den Abbau flüchtiger Kohlenwasserstoffverbindungen (VOC, engl.: volatile organic compounds) in der Atmosphäre ist das Hydroxylradikal (OH), welches sich in einem schnellen chemischen Gleichgewicht mit dem Hydroperoxylradical (HO2) befindet. Bisherige Messungen und Modellvergleiche dieser Radikalspezies in Waldgebieten haben signifikante Lücken im Verständnis der zugrundeliegenden Prozesse aufgezeigt.rnIm Rahmen dieser Doktorarbeit wurden Messungen von OH- und HO2-Radikalen mittelsrnlaserinduzierten Fluoreszensmesstechnik (LIF, engl.: laser-induced fluorescence) in einem Nadelwald in Süd-Finnland während der Messkampagne HUMPPA–COPEC–2010 (Hyytiälä United Measurements of Photochemistry and Particles in Air – Comprehensive Organic Precursor Emission and Concentration study) im Sommer 2010 durchgeführt. Unterschiedliche Komponenten des LIF-Instruments wurden verbessert. Eine modifizierte Methode zur Bestimmung des Hintergrundsignals (engl.: InletPreInjector technique) wurde in den Messaufbaurnintegriert und erstmals zur Messung von atmosphärischem OH verwendet. Vergleichsmessungen zweier Instrumente basierend auf unterschiedlichen Methoden zur Messung von OH-Radikalen, chemische Ionisationsmassenspektrometrie (CIMS - engl.: chemical ionization mass spectrometry) und LIF-Technik, zeigten eine gute Übereinstimmung. Die Vergleichsmessungen belegen das Vermögen und die Leistungsfähigkeit des modifizierten LIF-Instruments atmosphärische OH Konzentrationen akkurat zu messen. Nachfolgend wurde das LIF-Instrument auf der obersten Plattform eines 20m hohen Turmes positioniert, um knapp oberhalb der Baumkronen die Radikal-Chemie an der Schnittstelle zwischen Ökosystem und Atmosphäre zu untersuchen. Umfangreiche Messungen - dies beinhaltet Messungen der totalen OH-Reaktivität - wurden durchgeführt und unter Verwendung von Gleichgewichtszustandsberechnungen und einem Boxmodell, in welches die gemessenen Daten als Randbedingungen eingehen, analysiert. Wenn moderate OH-Reaktivitäten(k′(OH)≤ 15 s−1) vorlagen, sind OH-Produktionsraten, die aus gemessenen Konzentrationen von OH-Vorläuferspezies berechnet wurden, konsistent mit Produktionsraten, die unter der Gleichgewichtsannahme von Messungen des totalen OH Verlustes abgeleitet wurden. Die primären photolytischen OH-Quellen tragen mit einem Anteil von bis zu einem Drittel zur Gesamt-OH-Produktion bei. Es wurde gezeigt, dass OH-Rezyklierung unter Bedingungen moderater OH-Reaktivität hauptsächlich durch die Reaktionen von HO2 mit NO oder O3 bestimmt ist. Während Zeiten hoher OH-Reaktivität (k′(OH) > 15 s−1) wurden zusätzliche Rezyklierungspfade, die nicht über die Reaktionen von HO2 mit NO oder O3, sondern direkt OH bilden, aufgezeigt.rnFür Hydroxylradikale stimmen Boxmodell-Simulationen und Messungen gut übereinrn(OHmod/OHobs=1.04±0.16), während HO2-Mischungsverhältnisse in der Simulation signifikant unterschätzt werden (HO2mod/HO2obs=0.3±0.2) und die simulierte OH-Reaktivität nicht mit der gemessenen OH-Reaktivität übereinstimmt. Die gleichzeitige Unterschätzung der HO2-Mischungsverhältnisse und der OH-Reaktivität, während OH-Konzentrationen von der Simulation gut beschrieben werden, legt nahe, dass die fehlende OH-Reaktivität in der Simulation eine noch unberücksichtigte HO2-Quelle darstellt. Zusätzliche, OH-unabhängigernRO2/HO2-Quellen, wie z.B. der thermische Zerfall von herantransportiertem peroxyacetylnitrat (PAN) und die Photolyse von Glyoxal sind indiziert.