248 resultados para große Erzählung
Resumo:
Infektionen zählen bei hämodialysepflichtigen Intensivpatienten zu den häufigsten Todesursachen. Um die Wirksamkeit und Sicherheit der Antibiotikatherapie zu verbessern, müssen verschiedene Faktoren, zum Beispiel die Pharmakodynamik und Pharmakokinetik des Antibiotikums, die Art des Hämodialyseverfahrens, die Art des Dialysefilters und der Zustand des Patienten berücksichtigt werden. Im Rahmen einer klinischen Studie wurde die antibiotische Wirkung von Piperacillin und Ciprofloxacin bei kontinuierlichen Hämodialyseverfahren mittels pharmakokinetischer Methoden bestimmt.Für die klinische Studie wurde eine HPLC-Methode mit kombinierter Festphasenextraktion (SPE) entwickelt und nach den Grenzwerten der EMA Guideline on Bioanalytical Method Validation validiert. Die Methode erwies sich für die gleichzeitige Bestimmung von Piperacillin und Ciprofloxacin in Plasma- und Dialysatproben als valide und zuverlässig. Die ermittelten Konzentrationen der beiden Antibiotika wurden für die Berechnung der pharmakokinetischen Parameter verwendet.In der klinischen Studie wurden bei 24 Intensivpatienten mit kontinuierlicher venovenöser Hämodialyse (CVVHD) bzw. kontinuierlicher venovenöser Hämodiafiltration (CVVHDF), bei denen Piperacillin/Tazobactam, Ciprofloxacin oder eine Kombination dieser Antibiotika indiziert war, die Antibiotikakonzentrationen im Plasma und Dialysat im Steady State gemessen. Unmittelbar vor einer Antibiotikainfusion (0 min) wurde ein Volumen von sechs Milliliter Blut entnommen. Weitere Blutentnahmen erfolgten 30 Minuten nach der Infusion sowie nach 1, 2, 3, 4, 8, 12 und 24 Stunden. Sobald ein Filtratbeutel ausgetauscht wurde, wurden parallel zu den Blutproben Dialysatproben entnommen. Die Konzentrationen von Piperacillin und Ciprofloxacin wurden nach der Festphasenextraktion aus den Plasmaproben mit der validierten HPLC-Methode innerhalb von 15 Minuten zuverlässig bestimmt. Neben den gemessenen Plasmakonzentrationen (Cmax, Cmin) wurden pharmakokinetische Parameter wie t0,5, VdSS, AUC, Cltot, ClCRRT und Clextrarenal berechnet. Für Piperacillin wurde untersucht, ob die Plasmaspiegel der Patienten für das gesamte Dosierungsintervall oberhalb der geforderten vierfachen MHK von 64 mg/l liegen. Für Ciprofloxacin wurde untersucht, ob die aus gemessenen Plasmaspiegeln berechnete AUC den Quotienten aus AUC und MHK (=AUIC) ≥ 125 h erfüllt.Bei zehn der 21 mit Piperacillin behandelten Patienten lagen die Plasmaspiegel unterhalb der angestrebten Konzentration von 64 mg/l für das gesamte Dosierungsintervall. Das Patientenkollektiv wies eine große interindividuelle Variabilität auf. Mit einer Wahrscheinlichkeit von 95 % waren 26 - 70 % der Patienten unterdosiert. In der Gruppe der mit Ciprofloxacin behandelten Patienten wurde die angestrebte AUIC von 125 h nur bei neun der 20 Patienten erreicht. Mit einer Wahrscheinlichkeit von 95 % waren 29 - 76 % der Patienten unterdosiert. Die kontinuierlichen Nierenersatzverfahren hatten nur einen geringen Anteil an der totalen Clearance der untersuchten Antibiotika. Während die Clearance des kontinuierlichen Nierenersatzverfahren bei Piperacillin für ein Drittel der Arzneistoffelimination verantwortlich war, trug diese im Fall von Ciprofloxacin lediglich zu 16 % zur Arzneistoffelimination bei.Die Dosierung von Piperacillin/Tazobactam bzw. Ciprofloxacin sollte bei kritisch kranken Intensivpatienten mit kontinuierlicher Hämodialyse mindestens 4 mal 4/0,5 g pro Tag bzw. 2 mal 400 mg pro Tag betragen. Diese Empfehlungen sind insbesondere für die verwendeten Dialyseverfahren und -bedingungen zutreffend. Zur weiteren Optimierung der Antibiotikatherapie ist ein Therapeutisches Drug Monitoring empfehlenswert.
Resumo:
Inbreeding can lead to a fitness reduction due to the unmasking of deleterious recessive alleles and the loss of heterosis. Therefore, most sexually reproducing organisms avoid inbreeding, often by disperal. Besides the avoidance of inbreeding, dispersal lowers intraspecific competition on a local scale and leads to a spreading of genotypes into new habitats. In social insects, winged reproductives disperse and mate during nuptial flights. Therafter, queens independently found a new colony. However, some species also produce wingless sexuals as an alternative reproductive tactic. Wingless sexuals mate within or close to their colony and queens either stay in the nest or they found a new colony by budding. During this dependent colony foundation, wingless queens are accompanied by a fraction of nestmate workers. The production of wingless reproductives therefore circumvents the risks associated with dispersal and independent colony foundation. However, the absence of dispersal can lead to inbreeding and local competition.rnIn my PhD-project, I investigated the mating biology of Hypoponera opacior, an ant that produces winged and wingless reproductives in a population in Arizona. Besides the investigation of the annual reproductive cycle, I particularly focused on the consequences of wingless reproduction. An analysis of sex ratios in wingless sexuals should reveal the relative importance of local resource competition among queens (that mainly compete for the help of workers) and local mate competition among males. Further, sexual selection was expected to act on wingless males that were previously found to mate with and mate-guard pupal queens in response to local mate competition. We studied whether males are able to adapt their mating behaviour to the current competitive situation in the nest and which traits are under selection in this mating situation. Last, we investigated the extent and effects of inbreeding. As the species appeared to produce non-dispersive males and queens quite frequently, we assumed to find no or only weak negative effects of inbreeding and potentially mechanisms that moderate inbreeding levels despite frequent nest-matings.rnWe found that winged and wingless males and queens are produced during two separate seasons of the year. Winged sexuals emerge in early summer and conduct nuptial flights in July, when climate conditions due to frequent rainfalls lower the risks of dispersal and independent colony foundation. In fall, wingless sexuals are produced that reproduce within the colonies leading to an expansion on the local scale. The absence of dispersal during this second reproductive season resulted in a local genetic population viscosity and high levels of inbreeding within the colonies. Male-biased sex ratios in fall indicated a greater importance of local resource competition among queens than local mate competition among males. Males were observed to adjust mate-guarding durations to the competitive situation (i.e. the number of competing males and pupae) in the nest, an adaptation that helps maximising their reproductive success. Further, sexual selection was found to act on the timing of emergence as well as on body size in these males, i.e. earlier emerging and larger males show a higher mating success. Genetic analyses revealed that wingless males do not actively avoid inbreeding by choosing less related queens as mating partners. Further, we detected diploid males, a male type that is produced instead of diploid females if close relatives mate. In contrast to many other Hymenopteran species, diploid males were here viable and able to sire sterile triploid offspring. They did not differ in lifespan, body size and mating success from “normal” haploid males. Hence, diploid male production in H. opacior is less costly than in other social Hymenopteran species. No evidence of inbreeding depression was found on the colony level but more inbred colonies invested more resources into the production of sexuals. This effect was more pronounced in the dispersive summer generation. The increased investment in outbreeding sexuals can be regarded as an active strategy to moderate the extent and effects of inbreeding. rnIn summary, my thesis describes an ant species that has evolved alternative reproductive tactics as an adaptation to seasonal environmental variations. Hereby, the species is able to maintain its adaptive mating system without suffering from negative effects due to the absence of dispersal flights in fall.rn
Resumo:
A major challenge in imaging is the detection of small amounts of molecules of interest. In the case of magnetic resonance imaging (MRI) their signals are typically concealed by the large background signal of e.g. the tissue of the body. This problem can be tackled by hyperpolarization which increases the NMR signals up to several orders of magnitude. However, this strategy is limited for 1H, the most widely used nucleus in NMR andrnMRI, because the enormous number of protons in the body screen the small amount of hyperpolarized ones.Here, I describe a method giving rise to high 1H MRI contrast for hyperpolarized molecules against a large background signal. The contrast is based on the J-coupling induced rephasing of the NMR signal of molecules hyperpolarized via parahydrogen induce polarization (PHIP) and it can easily be implemented in common pulse sequences.rnrnHyperpolarization methods typically require expensive technical equipment (e.g. lasers or microwaves) and most techniques work only in batch mode, thus the limited lifetime of the hyperpolarization is limiting its applications. Therefore, the second part of my thesis deals with the simple and efficient generation of an hyperpolarization.These two achievements open up alternative opportunities to use the standard MRI nucleus 1H for e.g. metabolic imaging in the future.
Resumo:
In Deutschland wird zur oralen Vitamin-K-Antagonistentherapie überwiegend der Wirkstoff Phenprocoumon (PPC) eingesetzt und die meisten Patienten werden durch ihren Hausarzt betreut. In einer deskriptiven, nicht-interventionellen Studie wurde die Ist-Situation der Versorgung von PPC-Patienten im ambulanten Sektor untersucht. Ziel war es, die Qualität und Effektivität der bisherigen Standardtherapie zu evaluieren. In Anbetracht der Einführung der neuen oralen Antikoagulantien (NOAC) ist die Untersuchung der PPC-Therapie von besonderem Interesse. Dem „Throughput-Modell“ folgend sollten „Input“- und „Outcome“-Parameter analysiert werden. rnIn einer klinischen Studie wurden 50 ambulant behandelte Patienten mit PPC-Therapie jeweils über einen Zeitraum von 3 Jahren retrospektiv beobachtet. In 5 niedergelassenen Arztpraxen in Rheinland-Pfalz wurden dazu 10 Patienten pro Praxis rekrutiert. Anhand der Patientenakte wurde eine Dokumentenanalyse durchgeführt. Die Selbstmedikation wurde mit einem eigens erstellten Fragebogen erfasst. rnIm Studienkollektiv wurden im Median 3 Comorbiditäten ermittelt. Die mediane Wochendosis betrug 4,0 Tabletten à 3 mg PPC. Die Patienten wurden im Median mit weiteren 15 verschiedenen Wirkstoffen therapiert, einer davon wurde in Selbstmedikation eingenommen. Im gesamten Beobachtungszeitraum fanden pro Patient im Median 57 Arztbesuche statt, die durch die Phenprocoumon-Therapie bedingt waren. INR (International normalized ratio)-Messungen (Median 47) waren der häufigste Grund für die Arztbesuche, so dass ein 3-Wochen-Rhythmus vom Gesamtkollektiv zu 97% erreicht wurde. Die „stabile“ INR-Einstellung wurde im Median nach 94 Tagen erreicht. Die prozentuale Rate (INR (%)) für die Einhaltung des INR-Zielbereiches (ZSB) erreichte internationale Benchmark-Werte, was auf eine gute Versorgungsqualität hindeutete. Die genauere Analyse ergab jedoch große interindividuelle Schwankungen. Während der „stabilen“ INR-Einstellung wurden bessere Ergebnisse als im Gesamtbeobachtungszeitraum erzielt. Drei Patienten (6%) erreichten die „stabile“ INR-Einstellung innerhalb von 3 Jahren nie. Die Auswertung für den erweiterten ZSB (ZSB ± 0,2) ergab bessere INR (%)-Ergebnisse als für den ZSB. Die Zeit im INR-ZSB (TTR (%)) erreichte mit 75% höhere Werte als INR (%) im ZSB mit 70%. Tendenziell war das Patientenkollektiv eher unter- als übertherapiert (Median „Under-INR“ 18% bzw. „Over-INR“ 8%). Erkrankungen und Impfungen stellten die wichtigsten der zahlreichen Einflussfaktoren für INR-Shifts hin zu Werten außerhalb des ZSB dar. Patienten, die Comedikation mit hohem Interaktionspotential einnahmen, erreichten in den INR-Qualitätsindikatoren schlechtere Ergebnisse als Patienten ohne potentiell interagierende Comedikation (Mann-Whitney-U-Test; p-Wert=0,003 für TTR (%), p=0,008 für INR (%)). In Zeitintervallen der „stabilen“ INR-Einstellung war der Unterschied nur für TTR (%) auffällig (Mann-Whitney-U-Test; p=0,015). Für den erweiterten ZSB waren die Unterschiede bezüglich beider INR-Qualitätsindikatoren nicht auffällig. Insgesamt wurden 41 unerwünschte Ereignisse (UAW) beobachtet, davon 24 (59%) in der Phase der „stabilen“ INR-Einstellung (21 leichte Blutungen, 1 schwere Blutung, 2 thromboembolische Ereignisse (TE)). Je 4 leichte Blutungen (19%) wurden in einen möglichen bzw. sicheren kausalen Zusammenhang mit der VKA-Therapie gebracht, wenn ein Zeitintervall von 3 Tagen zwischen der INR-Messung und Auftreten der UAW geprüft wurde. Ein TE wurde als sicher kausal gewertet. Von insgesamt 5 Krankenhausaufenthalten waren 3 bzw. 2 durch Blutungen bzw. TE veranlasst. Des Weiteren wurde im 3-Tage-Zeitintervall für 4 INR-Shifts hin zu Werten außerhalb des ZSB eine Interaktion mit verordneter CM als in sicherem oder möglichem kausalen Zusammenhang bewertet. Bei 49% der beobachteten Grippeimpfungen wurde ein INR-Shift festgestellt, der in ca. 60% der Fälle zu einem subtherapeutischen INR-Wert führte. Insgesamt war das klinische Ergebnis nicht optimal. rnDas „Outcome“ in Form der gesundheitsbezogenen Lebensqualität (LQ) wurde retrospektiv-prospektiv mittels SF-36-Fragebogen ermittelt. Die Patienten zeigten gegenüber der Normalbevölkerung einen Verlust an LQ auf körperlicher Ebene bzw. einen Gewinn auf psychischer Ebene. Das humanistische Ergebnis erfüllte bzw. übertraf damit die Erwartungen. rnInsgesamt wiesen die Ergebnisse darauf hin, dass Qualität und Effektivität der Antikoagulationstherapie mit PPC im ambulanten Sektor weiterer Optimierung bedürfen. Mit intensivierten Betreuungsmodellen lässt sich ein besseres Outcome erzielen. rn
Resumo:
Geometric packing problems may be formulated mathematically as constrained optimization problems. But finding a good solution is a challenging task. The more complicated the geometry of the container or the objects to be packed, the more complex the non-penetration constraints become. In this work we propose the use of a physics engine that simulates a system of colliding rigid bodies. It is a tool to resolve interpenetration conflicts and to optimize configurations locally. We develop an efficient and easy-to-implement physics engine that is specialized for collision detection and contact handling. In succession of the development of this engine a number of novel algorithms for distance calculation and intersection volume were designed and imple- mented, which are presented in this work. They are highly specialized to pro- vide fast responses for cuboids and triangles as input geometry whereas the concepts they are based on can easily be extended to other convex shapes. Especially noteworthy in this context is our ε-distance algorithm - a novel application that is not only very robust and fast but also compact in its im- plementation. Several state-of-the-art third party implementations are being presented and we show that our implementations beat them in runtime and robustness. The packing algorithm that lies on top of the physics engine is a Monte Carlo based approach implemented for packing cuboids into a container described by a triangle soup. We give an implementation for the SAE J1100 variant of the trunk packing problem. We compare this implementation to several established approaches and we show that it gives better results in faster time than these existing implementations.
Resumo:
Dendritische Zellen (DCs) nehmen eine Schlüsselrolle in unserem Immunsystem ein, indem DCs sowohl Immunität, als auch Toleranz induzieren können. Im Falle der Immunität sind DCs in der Lage die Differenzierung der verschiedenen T-Helferzellen, wie Th1-, Th2- und Th17-Zellen zu steuern und tragen so zu der Qualität einer Immunantwort bei. Auf der anderen Seite können DCs in Gegenwart von TGF-β, IDO und Retinsäure die Differenzierung von regulatorischen T-Zellen induzieren und tragen somit zur Aufrechterhaltung der peripheren Toleranz bei. Insbesondere in den Darm-assoziierten lymphatischen Geweben (GALT) müssen DCs unverhältnismäßige Immunantworten gegen harmlose Antigene aus der Nahrung und kommensale Bakterien verhindern, während gegen Pathogene schützende Immunantworten induziert werden müssen. Auf Grund dieser entgegengesetzten Funktionen der DCs wollten wir die molekularen Mechanismen der DCs untersuchen, die der Regulation von Immunität und Toleranz zu Grunde liegen. Insbesondere der Wnt-Signalweg ist für die Aufrechterhaltung der peripheren Toleranz im GALT von Bedeutung. Da die Casein Kinase 2 in diesem Signalweg entscheidend beteiligt ist, haben wir die CK2-Funktion konditionell, unter der Kontrolle des CD11c-Promotors, deletiert. Hierfür haben wir CD11c-cre Mäuse mit Mäusen verpaart, welche ein von loxP-Signalsequenzen flankiertes Ck2β Gen (CK2β-fl/fl) tragen. Die konditionelle Deletion der CK2-Funktion in DCs, führte zu einer verstärkten Expression der kostimulatorischen Moleküle (wie CD40, CD80, CD86) und der Zytokine IL-6 und IL-12 unter „steady-state“ Bedingungen. Detaillierte Untersuchungen der T-Zellen in CD11c-cre x CK2β-fl/fl Mäusen zeigte eine deutlich reduzierte naive T-Zellpopulation, einhergehend mit einer erhöhten Th1- und Th17-Differenzierung. Speziell in den mesenterialen Lymphknoten konnte eine höhere Frequenz von T-bet+ und Rorγt+ CD4+ T-Zellen gefunden werden, welche große Mengen der Zytokine IFN-γ und IL-17 nach ex vivo Stimulation produzierten. Weiterführende in vivo Versuche, hier wurde das Modell der oralen Toleranz gewählt, zeigten das eine CK2-Deletion in DCs die Induktion einer oralen Toleranz verhindert. Unsere Daten zeigen eindeutig, dass die CK2 entscheidend in der Regulation der DC Homöostase und der Aufrechterhaltung der peripheren Toleranz beteiligt ist.
Resumo:
When designing metaheuristic optimization methods, there is a trade-off between application range and effectiveness. For large real-world instances of combinatorial optimization problems out-of-the-box metaheuristics often fail, and optimization methods need to be adapted to the problem at hand. Knowledge about the structure of high-quality solutions can be exploited by introducing a so called bias into one of the components of the metaheuristic used. These problem-specific adaptations allow to increase search performance. This thesis analyzes the characteristics of high-quality solutions for three constrained spanning tree problems: the optimal communication spanning tree problem, the quadratic minimum spanning tree problem and the bounded diameter minimum spanning tree problem. Several relevant tree properties, that should be explored when analyzing a constrained spanning tree problem, are identified. Based on the gained insights on the structure of high-quality solutions, efficient and robust solution approaches are designed for each of the three problems. Experimental studies analyze the performance of the developed approaches compared to the current state-of-the-art.
Resumo:
Das in dieser Arbeit vorgestellte Experiment zur Messung des magnetischen Moments des Protons basiert auf der Messung des Verhältnisses von Zyklotronfrequenz und Larmorfrequenz eines einzelnen, in einer kryogenen Doppel-Penning Falle gespeicherten Protons. In dieser Arbeit konnten erstmalig zwei der drei Bewegungsfrequenzen des Protons gleichzeitig im thermischen Gleichgewicht mit entsprechenden hochsensitiven Nachweissystemen nicht-destruktiv detektiert werden, wodurch die Messzeit zur Bestimmung der Zyklotronfrequenz halbiert werden konnte. Ferner wurden im Rahmen dieser Arbeit erstmalig einzelne Spin-Übergänge eines einzelnen Protons detektiert, wodurch die Bestimmung der Larmorfrequenz ermöglicht wird. Mithilfe des kontinuierlichen Stern-Gerlach Effekts wird durch eine sogenannte magnetische Flasche das magnetische Moment an die axiale Bewegungsmode des Protons gekoppelt. Eine Änderung des Spinzustands verursacht folglich einen Frequenzsprung der axialen Bewegungsfrequenz, welche nicht-destruktiv gemessen werden kann. Erschwert wird die Detektion des Spinzustands dadurch, dass die axiale Frequenz nicht nur vom Spinmoment, sondern auch vom Bahnmoment abhängt. Die große experimentelle Herausforderung besteht also in der Verhinderung von Energieschwankungen in den radialen Bewegungsmoden, um die Detektierbarkeit von Spin-Übergängen zu gewährleisten. Durch systematische Studien zur Stabilität der axialen Frequenz sowie einer kompletten Überarbeitung des experimentellen Aufbaus, konnte dieses Ziel erreicht werden. Erstmalig kann der Spinzustand eines einzelnen Protons mit hoher Zuverlässigkeit bestimmt werden. Somit stellt diese Arbeit einen entscheidenden Schritt auf dem Weg zu einer hochpräzisen Messung des magnetischen Moments des Protons dar.
Resumo:
In den Briefen 4, 6, 11 und 12 der Heroides hat Ovid direkt oder indirekt Figuren des Mythos zum Gegenstand seiner Dichtung gemacht, die den zeitgenössischen wie auch den heutigen Rezipienten insbesondere durch Tragödien des Euripides bekannt sind. Die zu Beginn dieser Arbeit dazu durchgeführte historische Analyse der grundsätzlichen Bedingungen der Rezeption der Tragödien des Euripides in der Zeit Ovids zeigt, dass der römische Dichter für ein intertextuelles Dichten in den Heroides die Werke des griechischen Tragikers als Prätexte nutzen konnte, da die Rezipienten über die theoretische und praktische Kompetenz verfügten, entsprechende Verweisungen zu identifizieren, diese in einem Prozess der intertextuellen Lektüre zu dekodieren und den Text auf diese Weise zu interpretieren. Eine Beschreibung dieses antiken literarischen Kommunikationsprozesses zwischen Ovid und seinen Rezipienten erfolgt dabei mit den Mitteln einer für die Euripidesrezeption Ovids konkretisierten Intertextualitätstheorie (Kapitel A.I und II). Die ausführlichen Interpretationen zu den Heroides-Briefen 12, 6, 4 und 11 sowie zur Rezeption des Medea-Prologs in verschiedenen Gedichten Ovids (Kapitel B.I bis V) zeigen, dass der römische Dichter verschiedene Formen intertextueller Verweisungen nutzt, um in den bekannten Geschichten von Medea, Hypsipyle, Phaedra und Canace bislang ungenutztes narratives Potential zu entdecken und auf dieser Grundlage eine alte Geschichte neu zu erzählen. Das in der Forschung bereits vielfach beschriebene Prinzip Ovids des idem aliter referre ist in den untersuchten Texten konkret darauf ausgerichtet, die aus den Tragödien bekannten Heroinen in einer bestimmten Phase ihrer Geschichte zu Figuren einer elegischen Welt werden zu lassen. Diese neu geschaffene elegische Dimension einer ursprünglich tragischen Geschichte dient dabei nicht einer umwertenden Neuinterpretation der bekannten tragischen Figur. Vielmehr lässt Ovid seine Briefe zu einem Teil des Mythos werden, zu einem elegischen Vorspiel der Tragödie, die einen durch Euripides vorgegebenen Rahmen des Mythos erweitern und damit zugleich zentrale Motive der tragischen Prätexte vorbereiten. Ovid gestaltet aus, was in dem von Euripides initiierten Mythos angelegt ist, und nutzt das elegische Potential der tragischen Erzählung, um das Geschehen und vor allem die Heroine selbst in seinem Brief zur Tragödie hinzuführen. Damit bereitet Ovid in den Heroides die weitere Entwicklung der äußeren tragischen Handlung vor, indem er vor allem eine innere Entwicklung der von ihm geschaffenen Briefschreiberin aufzeigt und auf diese Weise jeweils aus einer von ihm geschaffenen elegischen Frau jene tragische Heldin werden lässt, die den Rezipienten aus der jeweiligen Tragödie des Euripides bekannt ist. Die sich daraus notwendigerweise ergebenden Spannungen und Interferenzen zwischen den Erwartungen der Rezipienten und der Realität der von Ovid neu gestalteten Figur in ihrem elegischen Kontext werden von dem römischen Dichter produktiv genutzt und durch die im Text initiierte Entwicklung aufgehoben. So scheinen dann letztlich aus den Elegien Ovids die Tragödien des Euripides hervorzugehen.
Resumo:
Urban centers significantly contribute to anthropogenic air pollution, although they cover only a minor fraction of the Earth's land surface. Since the worldwide degree of urbanization is steadily increasing, the anthropogenic contribution to air pollution from urban centers is expected to become more substantial in future air quality assessments. The main objective of this thesis was to obtain a more profound insight in the dispersion and the deposition of aerosol particles from 46 individual major population centers (MPCs) as well as the regional and global influence on the atmospheric distribution of several aerosol types. For the first time, this was assessed in one model framework, for which the global model EMAC was applied with different representations of aerosol particles. First, in an approach with passive tracers and a setup in which the results depend only on the source location and the size and the solubility of the tracers, several metrics and a regional climate classification were used to quantify the major outflow pathways, both vertically and horizontally, and to compare the balance between pollution export away from and pollution build-up around the source points. Then in a more comprehensive approach, the anthropogenic emissions of key trace species were changed at the MPC locations to determine the cumulative impact of the MPC emissions on the atmospheric aerosol burdens of black carbon, particulate organic matter, sulfate, and nitrate. Ten different mono-modal passive aerosol tracers were continuously released at the same constant rate at each emission point. The results clearly showed that on average about five times more mass is advected quasi-horizontally at low levels than exported into the upper troposphere. The strength of the low-level export is mainly determined by the location of the source, while the vertical transport is mainly governed by the lifting potential and the solubility of the tracers. Similar to insoluble gas phase tracers, the low-level export of aerosol tracers is strongest at middle and high latitudes, while the regions of strongest vertical export differ between aerosol (temperate winter dry) and gas phase (tropics) tracers. The emitted mass fraction that is kept around MPCs is largest in regions where aerosol tracers have short lifetimes; this mass is also critical for assessing the impact on humans. However, the number of people who live in a strongly polluted region around urban centers depends more on the population density than on the size of the area which is affected by strong air pollution. Another major result was that fine aerosol particles (diameters smaller than 2.5 micrometer) from MPCs undergo substantial long-range transport, with about half of the emitted mass being deposited beyond 1000 km away from the source. In contrast to this diluted remote deposition, there are areas around the MPCs which experience high deposition rates, especially in regions which are frequently affected by heavy precipitation or are situated in poorly ventilated locations. Moreover, most MPC aerosol emissions are removed over land surfaces. In particular, forests experience more deposition from MPC pollutants than other land ecosystems. In addition, it was found that the generic treatment of aerosols has no substantial influence on the major conclusions drawn in this thesis. Moreover, in the more comprehensive approach, it was found that emissions of black carbon, particulate organic matter, sulfur dioxide, and nitrogen oxides from MPCs influence the atmospheric burden of various aerosol types very differently, with impacts generally being larger for secondary species, sulfate and nitrate, than for primary species, black carbon and particulate organic matter. While the changes in the burdens of sulfate, black carbon, and particulate organic matter show an almost linear response for changes in the emission strength, the formation of nitrate was found to be contingent upon many more factors, e.g., the abundance of sulfuric acid, than only upon the strength of the nitrogen oxide emissions. The generic tracer experiments were further extended to conduct the first risk assessment to obtain the cumulative risk of contamination from multiple nuclear reactor accidents on the global scale. For this, many factors had to be taken into account: the probability of major accidents, the cumulative deposition field of the radionuclide cesium-137, and a threshold value that defines contamination. By collecting the necessary data and after accounting for uncertainties, it was found that the risk is highest in western Europe, the eastern US, and in Japan, where on average contamination by major accidents is expected about every 50 years.
Resumo:
Die vorliegende Arbeit befasst sich mit der Synthese und Charakterisierung von Polymeren mit redox-funktionalen Phenothiazin-Seitenketten. Phenothiazin und seine Derivate sind kleine Redoxeinheiten, deren reversibles Redoxverhalten mit electrochromen Eigenschaften verbunden ist. Das besondere an Phenothiazine ist die Bildung von stabilen Radikalkationen im oxidierten Zustand. Daher können Phenothiazine als bistabile Moleküle agieren und zwischen zwei stabilen Redoxzuständen wechseln. Dieser Schaltprozess geht gleichzeitig mit einer Farbveränderung an her.rnrnIm Rahmen dieser Arbeit wird die Synthese neuartiger Phenothiazin-Polymere mittels radikalischer Polymerisation beschrieben. Phenothiazin-Derivate wurden kovalent an aliphatischen und aromatischen Polymerketten gebunden. Dies erfolgte über zwei unterschiedlichen synthetischen Routen. Die erste Route beinhaltet den Einsatz von Vinyl-Monomeren mit Phenothiazin Funktionalität zur direkten Polymerisation. Die zweite Route verwendet Amin modifizierte Phenothiazin-Derivate zur Funktionalisierung von Polymeren mit Aktivester-Seitenketten in einer polymeranalogen Reaktion. rnrnPolymere mit redox-funktionalen Phenothiazin-Seitenketten sind aufgrund ihrer Elektron-Donor-Eigenschaften geeignete Kandidaten für die Verwendung als Kathodenmaterialien. Zur Überprüfung ihrer Eignung wurden Phenothiazin-Polymere als Elektrodenmaterialien in Lithium-Batteriezellen eingesetzt. Die verwendeten Polymere wiesen gute Kapazitätswerte von circa 50-90 Ah/kg sowie schnelle Aufladezeiten in der Batteriezelle auf. Besonders die Aufladezeiten sind 5-10 mal höher als konventionelle Lithium-Batterien. Im Hinblick auf Anzahl der Lade- und Entladezyklen, erzielten die Polymere gute Werte in den Langzeit-Stabilitätstests. Insgesamt überstehen die Polymere 500 Ladezyklen mit geringen Veränderungen der Anfangswerte bezüglich Ladezeiten und -kapazitäten. Die Langzeit-Stabilität hängt unmittelbar mit der Radikalstabilität zusammen. Eine Stabilisierung der Radikalkationen gelang durch die Verlängerung der Seitenkette am Stickstoffatom des Phenothiazins und der Polymerhauptkette. Eine derartige Alkyl-Substitution erhöht die Radikalstabilität durch verstärkte Wechselwirkung mit dem aromatischen Ring und verbessert somit die Batterieleistung hinsichtlich der Stabilität gegenüber Lade- und Entladezyklen. rnrnDes Weiteren wurde die praktische Anwendung von bistabilen Phenothiazin-Polymeren als Speichermedium für hohe Datendichten untersucht. Dazu wurden dünne Filme des Polymers auf leitfähigen Substraten elektrochemisch oxidiert. Die elektrochemische Oxidation erfolgte mittels Rasterkraftmikroskopie in Kombination mit leitfähigen Mikroskopspitzen. Mittels dieser Technik gelang es, die Oberfläche des Polymers im nanoskaligen Bereich zu oxidieren und somit die lokale Leitfähigkeit zu verändern. Damit konnten unterschiedlich große Muster lithographisch beschrieben und aufgrund der Veränderung ihrer Leitfähigkeit detektiert werden. Der Schreibprozess führte nur zu einer Veränderung der lokalen Leitfähigkeit ohne die topographische Beschaffenheit des Polymerfilms zu beeinflussen. Außerdem erwiesen sich die Muster als besonders stabil sowohl mechanisch als auch über die Zeit.rnrnZum Schluss wurden neue Synthesestrategien entwickelt um mechanisch stabile als auch redox-funktionale Oberflächen zu produzieren. Mit Hilfe der oberflächen-initiierten Atomtransfer-Radikalpolymerisation wurden gepfropfte Polymerbürsten mit redox-funktionalen Phenothiazin-Seitenketten hergestellt und mittels Röntgenmethoden und Rasterkraftmikroskopie analysiert. Eine der Synthesestrategien geht von gepfropften Aktivesterbürsten aus, die anschließend in einem nachfolgenden Schritt mit redox-funktionalen Gruppen modifiziert werden können. Diese Vorgehensweise ist besonders vielversprechend und erlaubt es unterschiedliche funktionelle Gruppen an den Aktivesterbürsten zu verankern. Damit können durch Verwendung von vernetzenden Gruppen neben den Redoxeigenschaften, die mechanische Stabilität solcher Polymerfilme optimiert werden. rn rn
Resumo:
Alkylierte Quecksilberspezies sind hundertfach toxischer als anorganisches Quecksilber (Hg) und werden in der Nahrungskette mit zunehmender Trophieebene im Gewebe von Tieren und dem Menschen akkumuliert. Aufgrund der Relevanz für die Umwelt und den Effekt auf die menschliche Gesundheit kommt der biotischen Transformation von anorganischem Hg zu Monomethylquecksilber (MeHg) eine große Bedeutung zu. Es ist bekannt, dass Sulfat-reduzierende Bakterien zu den Hauptproduzenten von MeHg gehören. Darüber hinaus gibt es jedoch nur wenige Untersuchungen über die biologischen Mechanismen und die Zusammenhänge in terrestrischen und insbesondere in intestinalen Systemen. Die vorliegende Arbeit leistet daher einen wichtigen Beitrag zur Abschätzung des Potentials zur Hg-Methylierung durch intestinale Bakterien und vertieft die Kenntnisse zu der damit verbundenen Akkumulation der organischen Schwermetallverbindung im Gewebe des Kompostwurms Eisenia foetida (E. foetida). rnIm Rahmen dieser Arbeit wurde erstmals unter Anwendung der Gas Chromatographie mit induktiv gekoppelter Massenspektrometrie (GC-ICP-MS) und Isotopenverdünnungsanalyse verschiedene Kulturen intestinaler Sulfat-reduzierender Bakterien auf die Bildung von organischem Monomethylquecksilber aus Hg(II) untersucht. Da in komplexen bakteriellen Nährlösungen mit hohem Sulfidgehalt Matrixeffekte auftreten und die Analyse von MeHg im Ultraspurenbereich erschweren können, erfolgte die Probenvorbereitung mittels der Methanol-Kaliumhydroxid-Extraktion unter Verwendung eines Maskierungsreagenzes und der Derivatisierung mit Natriumtetrapropylborat. Das Detektionslimit für MeHg in bakteriellen Nährlösungen betrug 0,03 ng/mL. Die Wiederfindung von zertifiziertem Referenzmaterial ERM® CE-464 Tuna Fish war sehr gut und lag in einem Bereich zwischen 98 – 105%. rnDie Resultate der Untersuchung von 14 verschiedenen Rein- und Anreicherungskulturen Sulfat-reduzierender Bakterien zeigten, dass neun Kulturen innerhalb von 12 h nach einer Inkubation mit 0,1 mg/L Hg2+ im Durchschnitt 100 bis 1200 pg/mL MeHg produzierten. Darunter waren zwei Desulfovibrio sp. Stämme, die Spezies Desulfovibrio piger, Desulfovibrio giganteus, Desulfovibrio termitidis, Desulfotomaculum ruminis, Desulfobulbus propionicus sowie Anreicherungskulturen aus dem Intestinaltrakt einer Zygoptera-Larve Zy1 und E. foetida EF4. Die Fähigkeit zur Hg-Methylierung durch eine Spezies der Ordnung Desulfotomaculum aus der Gruppe der Gram-positiven Firmicutes wurde hiermit erstmals beobachtet.rnWeiterhin wurde gezeigt, dass im Intestinaltrakt von E. foetida im Gegensatz zu mikrobiellen Bodenproben eine signifikante biotische Methylierung von Hg(II) durchgeführt wird. Dass diese Transformationen in hohem Maße von der intestinalen Region ausgeht und somit zur Akkumulation von MeHg im Gewebe beiträgt, konnte durch weiterführende Experimente mittels Laserablations-ICP-MS an histologischen Gefrierschnitten des Invertebraten darge-stellt werden. rn
Resumo:
In vielen Bereichen der industriellen Fertigung, wie zum Beispiel in der Automobilindustrie, wer- den digitale Versuchsmodelle (sog. digital mock-ups) eingesetzt, um die Entwicklung komplexer Maschinen m ̈oglichst gut durch Computersysteme unterstu ̈tzen zu k ̈onnen. Hierbei spielen Be- wegungsplanungsalgorithmen eine wichtige Rolle, um zu gew ̈ahrleisten, dass diese digitalen Pro- totypen auch kollisionsfrei zusammengesetzt werden k ̈onnen. In den letzten Jahrzehnten haben sich hier sampling-basierte Verfahren besonders bew ̈ahrt. Diese erzeugen eine große Anzahl von zuf ̈alligen Lagen fu ̈r das ein-/auszubauende Objekt und verwenden einen Kollisionserken- nungsmechanismus, um die einzelnen Lagen auf Gu ̈ltigkeit zu u ̈berpru ̈fen. Daher spielt die Kollisionserkennung eine wesentliche Rolle beim Design effizienter Bewegungsplanungsalgorith- men. Eine Schwierigkeit fu ̈r diese Klasse von Planern stellen sogenannte “narrow passages” dar, schmale Passagen also, die immer dort auftreten, wo die Bewegungsfreiheit der zu planenden Objekte stark eingeschr ̈ankt ist. An solchen Stellen kann es schwierig sein, eine ausreichende Anzahl von kollisionsfreien Samples zu finden. Es ist dann m ̈oglicherweise n ̈otig, ausgeklu ̈geltere Techniken einzusetzen, um eine gute Performance der Algorithmen zu erreichen.rnDie vorliegende Arbeit gliedert sich in zwei Teile: Im ersten Teil untersuchen wir parallele Kollisionserkennungsalgorithmen. Da wir auf eine Anwendung bei sampling-basierten Bewe- gungsplanern abzielen, w ̈ahlen wir hier eine Problemstellung, bei der wir stets die selben zwei Objekte, aber in einer großen Anzahl von unterschiedlichen Lagen auf Kollision testen. Wir im- plementieren und vergleichen verschiedene Verfahren, die auf Hu ̈llk ̈operhierarchien (BVHs) und hierarchische Grids als Beschleunigungsstrukturen zuru ̈ckgreifen. Alle beschriebenen Verfahren wurden auf mehreren CPU-Kernen parallelisiert. Daru ̈ber hinaus vergleichen wir verschiedene CUDA Kernels zur Durchfu ̈hrung BVH-basierter Kollisionstests auf der GPU. Neben einer un- terschiedlichen Verteilung der Arbeit auf die parallelen GPU Threads untersuchen wir hier die Auswirkung verschiedener Speicherzugriffsmuster auf die Performance der resultierenden Algo- rithmen. Weiter stellen wir eine Reihe von approximativen Kollisionstests vor, die auf den beschriebenen Verfahren basieren. Wenn eine geringere Genauigkeit der Tests tolerierbar ist, kann so eine weitere Verbesserung der Performance erzielt werden.rnIm zweiten Teil der Arbeit beschreiben wir einen von uns entworfenen parallelen, sampling- basierten Bewegungsplaner zur Behandlung hochkomplexer Probleme mit mehreren “narrow passages”. Das Verfahren arbeitet in zwei Phasen. Die grundlegende Idee ist hierbei, in der er- sten Planungsphase konzeptionell kleinere Fehler zuzulassen, um die Planungseffizienz zu erh ̈ohen und den resultierenden Pfad dann in einer zweiten Phase zu reparieren. Der hierzu in Phase I eingesetzte Planer basiert auf sogenannten Expansive Space Trees. Zus ̈atzlich haben wir den Planer mit einer Freidru ̈ckoperation ausgestattet, die es erlaubt, kleinere Kollisionen aufzul ̈osen und so die Effizienz in Bereichen mit eingeschr ̈ankter Bewegungsfreiheit zu erh ̈ohen. Optional erlaubt unsere Implementierung den Einsatz von approximativen Kollisionstests. Dies setzt die Genauigkeit der ersten Planungsphase weiter herab, fu ̈hrt aber auch zu einer weiteren Perfor- mancesteigerung. Die aus Phase I resultierenden Bewegungspfade sind dann unter Umst ̈anden nicht komplett kollisionsfrei. Um diese Pfade zu reparieren, haben wir einen neuartigen Pla- nungsalgorithmus entworfen, der lokal beschr ̈ankt auf eine kleine Umgebung um den bestehenden Pfad einen neuen, kollisionsfreien Bewegungspfad plant.rnWir haben den beschriebenen Algorithmus mit einer Klasse von neuen, schwierigen Metall- Puzzlen getestet, die zum Teil mehrere “narrow passages” aufweisen. Unseres Wissens nach ist eine Sammlung vergleichbar komplexer Benchmarks nicht ̈offentlich zug ̈anglich und wir fan- den auch keine Beschreibung von vergleichbar komplexen Benchmarks in der Motion-Planning Literatur.
Resumo:
In this thesis we investigate the phenomenology of supersymmetric particles at hadron colliders beyond next-to-leading order (NLO) in perturbation theory. We discuss the foundations of Soft-Collinear Effective Theory (SCET) and, in particular, we explicitly construct the SCET Lagrangian for QCD. As an example, we discuss factorization and resummation for the Drell-Yan process in SCET. We use techniques from SCET to improve existing calculations of the production cross sections for slepton-pair production and top-squark-pair production at hadron colliders. As a first application, we implement soft-gluon resummation at next-to-next-to-next-to-leading logarithmic order (NNNLL) for slepton-pair production in the minimal supersymmetric extension of the Standard Model (MSSM). This approach resums large logarithmic corrections arising from the dynamical enhancement of the partonic threshold region caused by steeply falling parton luminosities. We evaluate the resummed invariant-mass distribution and total cross section for slepton-pair production at the Tevatron and LHC and we match these results, in the threshold region, onto NLO fixed-order calculations. As a second application we present the most precise predictions available for top-squark-pair production total cross sections at the LHC. These results are based on approximate NNLO formulas in fixed-order perturbation theory, which completely determine the coefficients multiplying the singular plus distributions. The analysis of the threshold region is carried out in pair invariant mass (PIM) kinematics and in single-particle inclusive (1PI) kinematics. We then match our results in the threshold region onto the exact fixed-order NLO results and perform a detailed numerical analysis of the total cross section.
Resumo:
Im Rahmen dieser Arbeit wurden unterschiedliche Palladium-katalysierte Kreuzkupplungsreaktionen untersucht. Ein besonderes Augenmerk wurde dabei auf die Suzuki-Miyaura-Reaktion gelegt. Unter anderem aufgrund der langen Reaktionszeiten und der zweiphasigen Bedingungen ist diese Reaktionsklasse nur sehr schwer als kontinuierlicher Prozess zu etablieren. Vielen dieser Ansätze ist jedoch zu eigen, dass der große Vorteil der Mikroprozesstechnik, eine überlegene Kontrolle von Temperatur und Stofftransport, kaum ausgeschöpft wird. An diesem Punkt setzt diese Arbeit von technischer aus Seite an. Der zweite Schwerpunkt der Arbeit sind die prinzipiellen Untersuchungen an kontinuierlichen Flüssig-Flüssig-Zwei-Phasen-Reaktionen. Im Zuge des DBU-finanzierten Transkat-Projektes wurden hierbei anhand einfacher Veresterungsreaktionen grundlegende Kenntnisse zu Stofftransport, Grenzflächen und Phasentrennung innerhalb mikrostrukturierter Systeme gesammelt. Dank speziell angefertigter Glasmikroreaktoren von der Firma mikroglas chemtech GmbH war eine genaue optische und digitale Charakterisierung der Phasengrenzflächen möglich. Ein wichtiges Ergebnis war darüber hinaus, dass ionische Flüssigkeiten, als eigenständige Phasen verwendet, enorm zum Massentransfer und somit zur Reaktionsgeschwindigkeit beitragen können.