101 resultados para neues Bauen
Resumo:
The present-day climate in the Mediterranean region is characterized by mild, wet winters and hot, dry summers. There is contradictory evidence as to whether the present-day conditions (“Mediterranean climate”) already existed in the Late Miocene. This thesis presents seasonally-resolved isotope and element proxy data obtained from Late Miocene reef corals from Crete (Southern Aegean, Eastern Mediterranean) in order to illustrate climate conditions in the Mediterranean region during this time. There was a transition from greenhouse to icehouse conditions without a Greenland ice sheet during the Late Miocene. Since the Greenland ice sheet is predicted to melt fully within the next millennia, Late Miocene climate mechanisms can be considered as useful analogues in evaluating models of Northern Hemispheric climate conditions in the future. So far, high resolution chemical proxy data on Late Miocene environments are limited. In order to enlarge the proxy database for this time span, coral genus Tarbellastraea was evaluated as a new proxy archive, and proved reliable based on consistent oxygen isotope records of Tarbellastraea and the established paleoenvironmental archive of coral genus Porites. In combination with lithostratigraphic data, global 87Sr/86Sr seawater chronostratigraphy was used to constrain the numerical age of the coral sites, assuming the Mediterranean Sea to be equilibrated with global open ocean water. 87Sr/86Sr ratios of Tarbellastraea and Porites from eight stratigraphically different sampling sites were measured by thermal ionization mass spectrometry. The ratios range from 0.708900 to 0.708958 corresponding to ages of 10 to 7 Ma (Tortonian to Early Messinian). Spectral analyses of multi-decadal time-series yield interannual δ18O variability with periods of ~2 and ~5 years, similar to that of modern records, indicating that pressure field systems comparable to those controlling the seasonality of present-day Mediterranean climate existed, at least intermittently, already during the Late Miocene. In addition to sea surface temperature (SST), δ18O composition of coral aragonite is controlled by other parameters such as local seawater composition which as a result of precipitation and evaporation, influences sea surface salinity (SSS). The Sr/Ca ratio is considered to be independent of salinity, and was used, therefore, as an additional proxy to estimate seasonality in SST. Major and trace element concentrations in coral aragonite determined by laser ablation inductively coupled plasma mass spectrometry yield significant variations along a transect perpendicular to coral growth increments, and record varying environmental conditions. The comparison between the average SST seasonality of 7°C and 9°C, derived from average annual δ18O (1.1‰) and Sr/Ca (0.579 mmol/mol) amplitudes, respectively, indicates that the δ18O-derived SST seasonality is biased by seawater composition, reducing the δ18O amplitude by 0.3‰. This value is equivalent to a seasonal SSS variation of 1‰, as observed under present-day Aegean Sea conditions. Concentration patterns of non-lattice bound major and trace elements, related to trapped particles within the coral skeleton, reflect seasonal input of suspended load into the reef environment. δ18O, Sr/Ca and non-lattice bound element proxy records, as well as geochemical compositions of the trapped particles, provide evidence for intense precipitation in the Eastern Mediterranean during winters. Winter rain caused freshwater discharge and transport of weathering products from the hinterland into the reef environment. There is a trend in coral δ18O data to more positive mean δ18O values (–2.7‰ to –1.7‰) coupled with decreased seasonal δ18O amplitudes (1.1‰ to 0.7‰) from 10 to 7 Ma. This relationship is most easily explained in terms of more positive summer δ18O. Since coral diversity and annual growth rates indicate more or less constant average SST for the Mediterranean from the Tortonian to the Early Messinian, more positive mean and summer δ18O indicate increasing aridity during the Late Miocene, and more pronounced during summers. The analytical results implicate that winter rainfall and summer drought, the main characteristics of the present-day Mediterranean climate, were already present in the Mediterranean region during the Late Miocene. Some models have argued that the Mediterranean climate did not exist in this region prior to the Pliocene. However, the data presented here show that conditions comparable to those of the present-day existed either intermittently or permanently since at least about 10 Ma.
Resumo:
Der Einsatz von Penningfallen in der Massenspektrometrie hat zu einem einmaligen Genauigkeitssprung geführt. Dadurch wurden Massenwerte verschiedenster Atome zu wichtigen Eingangsparametern bei immer mehr physikalischen Fragestellungen. Die Massenspektrometrie mit Hilfe von Penningfallen basiert auf der Bestimmung der freien Zyklotronfrequenz eines Ions in einem homogenen Magnetfeld νc=qB/(2πm). Sie wird mit Flugzeitmethode (TOF-ICR) bestimmt, wobei eine relative Massenungenauigkeit δm/m von wenigen 10^-9 bei Nukliden mit Lebensdauern von <500 ms erreicht wird. Dies wurde durch die im Rahmen dieser Arbeit erstmals in der Penningfallen-Massenspektrometrie eingesetzten Ramsey-Methode möglich. Dabei werden zeitlich separierte, oszillierenden Feldern zur resonanten Ionenanregung genutzt, um die Frequenzmessung durch die Flugzeitmethode zu verbessern. Damit wurden am Penningfallenmassenspektrometer ISOLTRAP an ISOLDE/CERN die Massen der Nuklide 26,27Al und 38,39Ca bestimmt. Alle Massen wurden in die „Atomic Mass Evaluation“ eingebettet. Die Massenwerte von 26Al und 38Ca dienten insbesondere zu Tests des Standardmodells. Um mit Massenwerten fundamentale Symmetrien oder die Quantenelektrodynamik (QED) in extremen Feldern zu testen wurde ein neues Penningfallenprojekt (PENTATRAP) für hochpräzise Massenmessungen an hochgeladenen Ionen konzipiert. In dieser Doktorarbeit wurde vornehmlich die Entwicklung der Penningfallen betrieben. Eine Neuerung bei Penningfallenexperimenten ist dabei die permanente Beobachtung des Magnetfeldes B und seiner zeitlichen Fluktuationen durch so genannte „Monitorfallen“.
Resumo:
Die vorliegende Arbeit wurde im Rahmen des Verbundprojektes „Wechselwirkung und Transport von Actiniden im natürlichen Tongestein unter Berücksichtigung von Huminstoffen und Tonorganika – Wechselwirkung von Neptunium und Plutonium mit natürlichem Tongestein“ durchgeführt. Diese Untersuchungen sollen die thermodynamische Datenbasis für Actiniden erweitern sowie Informationen zur Ableitung von Bewertungskriterien für die Endlagerung radioaktiver Abfälle in Ton als Wirtsgestein, insbesondere über das Rückhaltevermögen von Tongestein gegenüber Radionukliden, liefern. Dabei stand die Anwendung verschiedener Speziationstechniken wie CE-ICP-MS, UV/VIS und die apparative Entwicklung der CE-RIMS im Vordergrund. Es sollte das Verhalten von Plutonium in umweltrelevanten Medien und Konzentrationen, im Ultraspurenbereich, untersucht werden. Unabhängig davon sollten Uranproben aus dem 2. Weltkrieg und Umweltproben des Landesamts für Umwelt und Forsten Rheinland-Pfalz auf ihren Plutoniumgehalt analysiert werden. Dazu wurde zunächst ein neues ICP-MS-Gerät Agilent 7500ce in Betrieb genommen und auf die Verwendung in Kombination mit der Kapillarelektrophorese optimiert. Die erreichte Nachweisgrenze für die vier Oxidationsstufen des Pu beträgt 0,05 ppb des gesamten Plutoniums in Lösung. Mit Hilfe der CE-ICP-MS wurde die Redoxstabilität einer Mischung aus verschiedenen Oxidationszuständen des Plutoniums in Opalinus-Ton-Porenwasser und Vergleichsmedien unter aeroben und anaeroben Bedingungen mit der CE untersucht. Die Untersuchungen zeigen das Pu(III) bis zu 40 min im verwendeten Elektrolytsystem stabil ist und dann oxidiert wird. In Porenwasser wurde als vorherrschende Spezies Pu(V) bestimmt. Die Redoxstabilität von Pu(VI) wurde untersucht, dabei wurde festgestellt, dass sich Pu(VI) bereits durch einfaches Verdünnen reduzieren lässt. Weiterhin wurden die Kd-Werte für die Sorption von Plutonium an Opalinuston unter aeroben und anaeroben Bedingungen für Pu(III) und Pu(IV) im System Porenwasser/Opalinuston von Kd(aerob) Pu(III) ≈ 53 m3/kg, Kd(aerob) Pu(IV) ≈ 14 m3/kg, Kd(anaerob) Pu(III) ≈ 114 m3/kg, Kd(anaerob) Pu(IV) ≈ 178 m3/kg bestimmt. Ein weiterer Schwerpunkt der Arbeit war die Entwicklung, Optimierung und Anwendung der Kopplung CE-RIMS zur Speziation des Plutoniums im Ultraspurenbereich. Dies konnte erfolgreich in mehreren Schritten durchgeführt und an den Proben aus den Batchversuchen zur Kd-Wert Bestimmung angewandt werden. Der Memory-Effekt des an den Kapillarwänden sorbierenden Pu(IV) konnte mit der empfindlichen Kopplung CE-RIMS ebenfalls nachgewiesen werden.
Resumo:
Es wurde ein für bodengebundene Feldmessungen geeignetes System zur digital-holographischen Abbildung luftgetragener Objekte entwickelt und konstruiert. Es ist, abhängig von der Tiefenposition, geeignet zur direkten Bestimmung der Größe luftgetragener Objekte oberhalb von ca. 20 µm, sowie ihrer Form bei Größen oberhalb von ca. 100µm bis in den Millimeterbereich. Die Entwicklung umfaßte zusätzlich einen Algorithmus zur automatisierten Verbesserung der Hologrammqualität und zur semiautomatischen Entfernungsbestimmung großer Objekte entwickelt. Eine Möglichkeit zur intrinsischen Effizienzsteigerung der Bestimmung der Tiefenposition durch die Berechnung winkelgemittelter Profile wurde vorgestellt. Es wurde weiterhin ein Verfahren entwickelt, das mithilfe eines iterativen Ansatzes für isolierte Objekte die Rückgewinnung der Phaseninformation und damit die Beseitigung des Zwillingsbildes erlaubt. Weiterhin wurden mithilfe von Simulationen die Auswirkungen verschiedener Beschränkungen der digitalen Holographie wie der endlichen Pixelgröße untersucht und diskutiert. Die geeignete Darstellung der dreidimensionalen Ortsinformation stellt in der digitalen Holographie ein besonderes Problem dar, da das dreidimensionale Lichtfeld nicht physikalisch rekonstruiert wird. Es wurde ein Verfahren entwickelt und implementiert, das durch Konstruktion einer stereoskopischen Repräsentation des numerisch rekonstruierten Meßvolumens eine quasi-dreidimensionale, vergrößerte Betrachtung erlaubt. Es wurden ausgewählte, während Feldversuchen auf dem Jungfraujoch aufgenommene digitale Hologramme rekonstruiert. Dabei ergab sich teilweise ein sehr hoher Anteil an irregulären Kristallformen, insbesondere infolge massiver Bereifung. Es wurden auch in Zeiträumen mit formal eisuntersättigten Bedingungen Objekte bis hinunter in den Bereich ≤20µm beobachtet. Weiterhin konnte in Anwendung der hier entwickelten Theorie des ”Phasenrandeffektes“ ein Objekt von nur ca. 40µm Größe als Eisplättchen identifiziert werden. Größter Nachteil digitaler Holographie gegenüber herkömmlichen photographisch abbildenden Verfahren ist die Notwendigkeit der aufwendigen numerischen Rekonstruktion. Es ergibt sich ein hoher rechnerischer Aufwand zum Erreichen eines einer Photographie vergleichbaren Ergebnisses. Andererseits weist die digitale Holographie Alleinstellungsmerkmale auf. Der Zugang zur dreidimensionalen Ortsinformation kann der lokalen Untersuchung der relativen Objektabstände dienen. Allerdings zeigte sich, dass die Gegebenheiten der digitalen Holographie die Beobachtung hinreichend großer Mengen von Objekten auf der Grundlage einzelner Hologramm gegenwärtig erschweren. Es wurde demonstriert, dass vollständige Objektgrenzen auch dann rekonstruiert werden konnten, wenn ein Objekt sich teilweise oder ganz außerhalb des geometrischen Meßvolumens befand. Weiterhin wurde die zunächst in Simulationen demonstrierte Sub-Bildelementrekonstruktion auf reale Hologramme angewandt. Dabei konnte gezeigt werden, dass z.T. quasi-punktförmige Objekte mit Sub-Pixelgenauigkeit lokalisiert, aber auch bei ausgedehnten Objekten zusätzliche Informationen gewonnen werden konnten. Schließlich wurden auf rekonstruierten Eiskristallen Interferenzmuster beobachtet und teilweise zeitlich verfolgt. Gegenwärtig erscheinen sowohl kristallinterne Reflexion als auch die Existenz einer (quasi-)flüssigen Schicht als Erklärung möglich, wobei teilweise in Richtung der letztgenannten Möglichkeit argumentiert werden konnte. Als Ergebnis der Arbeit steht jetzt ein System zur Verfügung, das ein neues Meßinstrument und umfangreiche Algorithmen umfaßt. S. M. F. Raupach, H.-J. Vössing, J. Curtius und S. Borrmann: Digital crossed-beam holography for in-situ imaging of atmospheric particles, J. Opt. A: Pure Appl. Opt. 8, 796-806 (2006) S. M. F. Raupach: A cascaded adaptive mask algorithm for twin image removal and its application to digital holograms of ice crystals, Appl. Opt. 48, 287-301 (2009) S. M. F. Raupach: Stereoscopic 3D visualization of particle fields reconstructed from digital inline holograms, (zur Veröffentlichung angenommen, Optik - Int. J. Light El. Optics, 2009)
Resumo:
Fragestellung: In der vorliegenden Untersuchung wurde geprüft, ob sich neu gelistete Herztransplantationskandidaten mit ischämischer Herzinsuffizienz (IKMP) und dilatativer Kardiomyopathie (DKMP) nach Kontrolle von Krankheitsschwere und Geschlecht in psychosozialen Variablen unterscheiden. Zudem wurde untersucht, ob psychosoziale Risikofaktoren für IKMP-Patienten stärker mit der 1-Jahres-Mortalität auf der Warteliste assoziiert sind als für DKMP-Patienten. Methode: Im Rahmen der multizentrischen, prospektiv angelegten Studie „Warten auf ein neues Herz“ bearbeiteten 160 DKMP- (16 % Frauen) und 122 IKMP-Patienten (13 % Frauen) kurz nach Aufnahme auf die Warteliste einen Fragebogen, der subjektiven Gesundheitszustand, Angst, Depressivität, soziale Unterstützung, Netzwerkgröße, Ärger, Ärgerausdruck und wartezeitspezifische Belastungen erfasste. Medizinische Daten zum Zeitpunkt der Listung und Veränderungen im Wartelistenstatus im 1-Jahres-Follow-Up wurden von Eurotransplant bereitgestellt. Ergebnisse: IKMP-Patienten waren im Vergleich mit DKMP-Patienten älter, häufiger ehemalige Raucher, hatten häufiger vorherige Herzoperationen erlebt, litten seltener unter einer Erregungsleitungsstörung, wurden seltener mit Aldosteronantagonisten sowie häufiger mit Katecholaminen behandelt. Nach Kontrolle dieser Variablen und unter Einbezug des Geschlechts berichteten nur Männer mit IKMP höhere Angstwerte und mehr Anger-In als Männer mit DKMP. Ein höheres Mortalitätsrisiko für IKMP-Patienten ein Jahr nach Aufnahme auf die Warteliste konnte nicht belegt werden. Auch zeigte sich keine Interaktion zwischen psychosozialer Belastung und Grunderkrankung hinsichtlich der Mortalität. Niedrige emotionale Unterstützung ging unabhängig von der Grunderkrankung mit einem dreifach erhöhten Mortalitätsrisiko einher. Fazit: Männer mit IKMP sind stärker durch negative Emotionen belastet als Männer mit DKMP. Eine weitere Risikogruppe stellen Personen mit niedriger emotionaler Unterstützung dar. Psychosoziale Risikofaktoren sollten daher bereits bei Aufnahme auf die Warteliste erfasst und Betreuungsangebote gezielt auf diese beiden Gruppen abgestimmt werden.
Resumo:
Hyperverzweigte Polymere erfuhren in den letzten Jahren immer mehr Beachtung, da sie im Vergleich zu ihren linearen Analoga besondere Eigenschaften besitzen. Im Jahre 2002 wurde die erste enzymkatalysierte Darstellung hyperverzweigter Poly(epsilon-caprolacton)e (hb-PCL) beschrieben. Hier ermöglichte das Konzept der konkurrierenden ringöffnenden Polymerisation und Polykondensation die Kontrolle der Eigenschaften des dargestellten Polymers. Detaillierte Untersuchungen in Hinblick auf Grenzen und Möglichkeiten, aber auch die Synthese im Technikumsmaßstab sind wesentliche Aspekte dieser Arbeit. Außerdem wird ein neues Konzept eingeführt, das Reknitting genannt wurde. Ziel desselben ist das Recycling kommerziellen, linearen PCLs mittels Umesterung zu hb-PCL durch Enzymkatalyse. Diese hb-PCLs zeigen vergleichbare Eigenschaften zu den aus den Comonomeren dargestellten. Ausgehend von hb-PCL sollte eine geeignete Route zu methacrylierten Vernetzerverbindungen entwickelt werden. Aus Mischungen derselben mit 2-Hydroxyethylmethacrylat wurden komplexe Netzwerkarchitekturen durch Copolymerisation erhalten. Diese Netzwerke wurden in Hinblick auf ihre mechanisch physikalischen Eigenschaften untersucht. Zuletzt wurden Screeningexperimente an anderen zyklischen Estern durchgeführt, da ein Transfer des oben vorgestellten Konzepts angestrebt wurde. Zwei neue hyperverzweigte Polymerklassen, hb-Poly(delta-valerolacton) und hb-Polytrimethylencarbonat wurden detaillierter untersucht und in Ihren Eigenschaften mit hb-PCL verglichen.
Resumo:
Die pulmonale Applikation von Arzneimitteln hat in den vergangenen Jahren zu- rnnehmend an Bedeutung gewonnen und wird vor allem in der lokalen Therapie bei Asthma, COPD und Mukoviszidose genutzt. Als neues innovatives Inhalationsgerät befindet sich der Respimat® seit 2004 auf dem Arzneimittelmarkt und ist bisher nur für Erwachsene zugelassen. Daher wurden im Rahmen dieser Arbeit die Anwendbarkeit und die Modifikation des Respimats® bei Kindern untersucht. Zusammenfassend zeigen die Ergebnisse, dass Kinder ab einem Alter von fünf Jahren fähig sind suffizient mit dem Respimat® zu inhalieren und gute Werte für die estimierte Intrathorakaldosis zu erreichen. Besonders Kinder von 9-12 Jahren und Patienten mit DPI- oder Autohaler®-Inhalationserfahrung erreichten aufgrund eines hohen Atemflusses eine niedrigere estimierte Intrathorakaldosis als es das Potenzial des Respimats® erlaubt hätte. Durch den Einbau eines höheren internen Widerstands in den Orginalrespimat® wurde der Atemfluss signifikant verlangsamt und die Intrathorakaldosis erhöht. Des Weiteren wurden in der vorliegenden Arbeit die physikalisch-chemische Kompatibilität und die aerodynamischen Eigenschaften von Mischinhalationslösung/-suspensionen untersucht. In der Praxis mischen Muko-viszidose-Patienten oftmals mehrere Fertigarzneimittel und inhalieren diese simultan. Dadurch wird der Zeitaufwand der täglichen Inhalation reduziert und die Compliance sowie die Lebensqualität verbessert. Die 4er Kombination aus Colistimethat mit konservierungsmittelfreier Salbutamolsulfat, Ipratropiumbromidinhalationslösungen und Fluticason-17-propionatinhalationssuspension erwies sich als physikalisch-chemisch kompatibel. Die entwickelte mikrobiologische Wertbestimmungsmethode erwies sich als robust, präzise, gut reproduzierbar und erfüllte alle Anforderungen des statistischen Modells. Weiterhin wurden die aerodynamischen Eigenschaften einer praxisrelevanten 3er Mischinhalationssuspension aus Salbutamolsulfat, Ipratropiumbromid und Fluticason-17-propionat im Vergleich zu deren konsekutiven Vernebelung mittels Kaskadenimpaktion betrachtet. Die Charakteristik des erzeugten Aerosols änderte sich für simultan vernebeltes Salbutamolsulfat und Ipratropiumbromid nicht, wohingegen Fluticason-17-propionat bei simultaner Vernebelung eine Reduktion des MMADs, der delivered dose und der recovery aufwies. Dennoch ist die inhalative Glukokortikoiddosis ausreichend hoch um eine effektive antiinflammatorische Wirkung zu gewährleisten. Daher kann die simultane Inhalation der 3er Kombination empfohlen werden und somit die Compliance und die Lebensqualität von Mukoviszidosepatienten erhöht werden.rn
Resumo:
Komplementdefizienzen gehen mit einer erhöhten Infektionsanfälligkeit gegenüber bestimmten Krankheitserregern in den ersten Lebensjahren (MBL-Defizienz) und darüber hinaus (C1q- und anderen Komplementdefizienten) einher. Dies unterstreicht die Rolle des Komplementsystems als effektiver Abwehrmechanismus in der Übergangsphase zwischen Verlust des „mütterlichen Nestschutzes“ und Ausreifung der eigenen „erworbenen“ Immunität. Das Auftreten von Autoimmunerkrankungen wie dem SLE-ähnlichen Syndrom bei Defizienzen des Klassischen Weges beleuchten zusätzliche Funktionen des Komplementsystems während der Ausreifung der erworbenen Immunität und als wesentlicher Effektor in der Erkennung apoptotischer Zellen und deren Eliminierung aus dem System.rnHereditäre C1q-Defizienzen gehen mit einer hohen Wahrscheinlichkeit mit einem SLE-ähnlichen Syndrom einher. Sie stellen unter den Defizienzen des Komplementsystems eines Seltenheit dar, ihr klinisches „Gesicht“ ist umso eindrucksvoller. Sie sind von der funktionellen C1q-Defizienz im Rahmen eines erhöhten „turnover“ und in der Folge einer C1q-Autoantokörperbildung abzugrenzen. Ursächlich ist ihnen eine Mutation in einem der drei C1q-Gene, die auf dem Chromosom 1 lokalisiert sind. Homozygote Mutationsträger können den Defekt nicht ausgleichen und zeigen eine C1q-Defizienz mit Verlust der gesamthämolytischen Aktivität CH50. Häufungen treten bei Nachkommen von Geschwister- und Verwandtschaftsehen auf.rnrnIn dieser Arbeit wird der Fall einer Patientin mit einem schweren, frühkindlich einsetzenden, SLE-ähnlichen Syndrom aufgearbeitet. Als Ursache für eine Erkrankung konnte ein hereditärer C1q-Defekt, ohne immunologischem Nachweis eines C1q oer LMQ-C1q, identifiziert werden. Da sich keine der vorab beschriebenen Mutatonsmuster bei der Patientin detektieren ließ, erfolgte die Sequenzierung aller drei C1q-Gene. Dadurch ließ sich ein neues Mutationsmuster darstellen.rnrnDie in dieser Arbeit vorgestellte Mutation unterscheidet sich von den bislang beschriebenen Mutationen dadurch, dass es sich nicht um eine Punktmutation, sonder um eine Deletion von 29 Basen (c283_311) im Exon 2 des C1q-B-Ketten-Gens mit einhergehendem Rasterschub und vorzeitigem Stop-Codon (pMet95TrpfsX8) handelt. Durch die Analyse der Eltern und Geschwister der betroffenen Patientin konnte der Vererbungsweg dargestellt werden. Zudem gelang es die Mutation im Rahmen einer Pränataldiagnostik bei einem „ungeborenen“ Geschwisterkind auszuschließen.rn
A new double laser pulse pumping scheme for transient collisionally excited plasma soft X-ray lasers
Resumo:
Within this thesis a new double laser pulse pumping scheme for plasma-based, transient collisionally excited soft x-ray lasers (SXRL) was developed, characterized and utilized for applications. SXRL operations from ~50 up to ~200 electron volt were demonstrated applying this concept. As a central technical tool, a special Mach-Zehnder interferometer in the chirped pulse amplification (CPA) laser front-end was developed for the generation of fully controllable double-pulses to optimally pump SXRLs.rnThis Mach-Zehnder device is fully controllable and enables the creation of two CPA pulses of different pulse duration and variable energy balance with an adjustable time delay. Besides the SXRL pumping, the double-pulse configuration was applied to determine the B-integral in the CPA laser system by amplifying short pulse replica in the system, followed by an analysis in the time domain. The measurement of B-integral values in the 0.1 to 1.5 radian range, only limited by the reachable laser parameters, proved to be a promising tool to characterize nonlinear effects in the CPA laser systems.rnContributing to the issue of SXRL pumping, the double-pulse was configured to optimally produce the gain medium of the SXRL amplification. The focusing geometry of the two collinear pulses under the same grazing incidence angle on the target, significantly improved the generation of the active plasma medium. On one hand the effect was induced by the intrinsically guaranteed exact overlap of the two pulses on the target, and on the other hand by the grazing incidence pre-pulse plasma generation, which allows for a SXRL operation at higher electron densities, enabling higher gain in longer wavelength SXRLs and higher efficiency at shorter wavelength SXRLs. The observation of gain enhancement was confirmed by plasma hydrodynamic simulations.rnThe first introduction of double short-pulse single-beam grazing incidence pumping for SXRL pumping below 20 nanometer at the laser facility PHELIX in Darmstadt (Germany), resulted in a reliable operation of a nickel-like palladium SXRL at 14.7 nanometer with a pump energy threshold strongly reduced to less than 500 millijoule. With the adaptation of the concept, namely double-pulse single-beam grazing incidence pumping (DGRIP) and the transfer of this technology to the laser facility LASERIX in Palaiseau (France), improved efficiency and stability of table-top high-repetition soft x-ray lasers in the wavelength region below 20 nanometer was demonstrated. With a total pump laser energy below 1 joule the target, 2 mircojoule of nickel-like molybdenum soft x-ray laser emission at 18.9 nanometer was obtained at 10 hertz repetition rate, proving the attractiveness for high average power operation. An easy and rapid alignment procedure fulfilled the requirements for a sophisticated installation, and the highly stable output satisfied the need for a reliable strong SXRL source. The qualities of the DGRIP scheme were confirmed in an irradiation operation on user samples with over 50.000 shots corresponding to a deposited energy of ~ 50 millijoule.rnThe generation of double-pulses with high energies up to ~120 joule enabled the transfer to shorter wavelength SXRL operation at the laser facility PHELIX. The application of DGRIP proved to be a simple and efficient method for the generation of soft x-ray lasers below 10 nanometer. Nickel-like samarium soft x-ray lasing at 7.3 nanometer was achieved at a low total pump energy threshold of 36 joule, which confirmed the suitability of the applied pumping scheme. A reliable and stable SXRL operation was demonstrated, due to the single-beam pumping geometry despite the large optical apertures. The soft x-ray lasing of nickel-like samarium was an important milestone for the feasibility of applying the pumping scheme also for higher pumping pulse energies, which are necessary to obtain soft x-ray laser wavelengths in the water window. The reduction of the total pump energy below 40 joule for 7.3 nanometer short wavelength lasing now fulfilled the requirement for the installation at the high-repetition rate operation laser facility LASERIX.rn
Resumo:
Der Begriff "Bannerwolke" bezeichnet ein eindrucksvolles Phänomen aus dem Bereich der Gebirgsmeteorologie. Bannerwolken können gelegentlich im Hochgebirge im Bereich steiler Bergspitzen oder langgezogener Bergrücken, wie z.B. dem Matterhorn in den Schweizer Alpen oder dem Zugspitzgrat in den Bayrischen Alpen beobachtet werden. Der Begriff bezeichnet eine Banner- oder Fahnen-ähnliche Wolkenstruktur, welche an der windabgewandten Seite des Berges befestigt zu sein scheint, während die windzugewandte Seite vollkommen wolkenfrei ist. Bannerwolken fanden bislang, trotz ihres relativ häufigen Auftretens in der wissenschaftlichen Literatur kaum Beachtung. Entsprechend wenig ist über ihren Entstehungsmechanismus und insbesondere die relative Bedeutung dynamischer gegenüber thermodynamischer Prozesse bekannt. In der wissenschaftlichen Literatur wurden bislang 3 unterschiedliche Mechanismen postuliert, um die Entstehung von Bannerwolken zu erklären. Demnach entstehen Bannerwolken durch (a) den Bernoulli-Effekt, insbesondere durch die lokale adiabatische Kühlung hervorgerufen durch eine Druckabnahme entlang quasi-horizontal verlaufender, auf der windzugewandten Seite startender Trajektorien, (b) durch isobare Mischung bodennaher kälterer Luft mit wärmerer Luft aus höheren Schichten, oder (c) durch erzwungene Hebung im aufsteigenden Ast eines Leerotors. Ziel dieser Arbeit ist es, ein besseres physikalisches Verständnis für das Phänomen der Bannerwolke zu entwickeln. Das Hauptaugenmerk liegt auf dem dominierenden Entstehungsmechanismus, der relativen Bedeutung dynamischer und thermodynamischer Prozesse, sowie der Frage nach geeigneten meteorologischen Bedingungen. Zu diesem Zweck wurde ein neues Grobstruktursimulations (LES)-Modell entwickelt, welches geeignet ist turbulente, feuchte Strömungen in komplexem Terrain zu untersuchen. Das Modell baut auf einem bereits existierenden mesoskaligen (RANS) Modell auf. Im Rahmen dieser Arbeit wurde das neue Modell ausführlich gegen numerische Referenzlösungen und Windkanal-Daten verglichen. Die wesentlichen Ergebnisse werden diskutiert, um die Anwendbarkeit des Modells auf die vorliegende wissenschaftliche Fragestellung zu überprüfen und zu verdeutlichen. Die Strömung über eine idealisierte pyramidenförmige Bergspitze wurde für Froude-Zahlen Fr >> 1 sowohl auf Labor- als auch atmosphärischer Skala mit und ohne Berücksichtigung der Feuchtephysik untersucht. Die Simulationen zeigen, dass Bannerwolken ein primär dynamisches Phänomen darstellen. Sie entstehen im Lee steiler Bergspitzen durch dynamisch erzwungene Hebung. Die Simulationen bestätigen somit die Leerotor-Theorie. Aufgrund des stark asymmetrischen, Hindernis-induzierten Strömungsfeldes können Bannerwolken sogar im Falle horizontal homogener Anfangsbedingungen hinsichtlich Feuchte und Temperatur entstehen. Dies führte zu der neuen Erkenntnis, dass zusätzliche leeseitige Feuchtequellen, unterschiedliche Luftmassen in Luv und Lee, oder Strahlungseffekte keine notwendige Voraussetzung für die Entstehung einer Bannerwolke darstellen. Die Wahrscheinlichkeit der Bannerwolkenbildung steigt mit zunehmender Höhe und Steilheit des pyramidenförmigen Hindernisses und ist in erster Näherung unabhängig von dessen Orientierung zur Anströmung. Simulationen mit und ohne Berücksichtigung der Feuchtephysik machen deutlich, dass thermodynamische Prozesse (insbes. die Umsetzung latenter Wärme) für die Dynamik prototypischer (nicht-konvektiver) Bannerwolken zweitrangig ist. Die Verstärkung des aufsteigenden Astes im Lee und die resultierende Wolkenbildung, hervorgerufen durch die Freisetzung latenter Wärme, sind nahezu vernachlässigbar. Die Feuchtephysik induziert jedoch eine Dipol-ähnliche Struktur im Vertikalprofil der Brunt-Väisälä Frequenz, was zu einem moderaten Anstieg der leeseitigen Turbulenz führt. Es wird gezeigt, dass Gebirgswellen kein entscheidendes Ingredienz darstellen, um die Dynamik von Bannerwolken zu verstehen. Durch eine Verstärkung der Absinkbewegung im Lee, haben Gebirgswellen lediglich die Tendenz die horizontale Ausdehnung von Bannerwolken zu reduzieren. Bezüglich geeigneter meteorologischer Bedingungen zeigen die Simulationen, dass unter horizontal homogenen Anfangsbedingungen die äquivalentpotentielle Temperatur in der Anströmung mit der Höhe abnehmen muss. Es werden 3 notwendige und hinreichende Kriterien, basierend auf dynamischen und thermodynamischen Variablen vorgestellt, welche einen weiteren Einblick in geeignete meteorologische Bedingungen geben.
Resumo:
Die Entstehung eines Marktpreises für einen Vermögenswert kann als Superposition der einzelnen Aktionen der Marktteilnehmer aufgefasst werden, die damit kumulativ Angebot und Nachfrage erzeugen. Dies ist in der statistischen Physik mit der Entstehung makroskopischer Eigenschaften vergleichbar, die von mikroskopischen Wechselwirkungen zwischen den beteiligten Systemkomponenten hervorgerufen werden. Die Verteilung der Preisänderungen an Finanzmärkten unterscheidet sich deutlich von einer Gaußverteilung. Dies führt zu empirischen Besonderheiten des Preisprozesses, zu denen neben dem Skalierungsverhalten nicht-triviale Korrelationsfunktionen und zeitlich gehäufte Volatilität zählen. In der vorliegenden Arbeit liegt der Fokus auf der Analyse von Finanzmarktzeitreihen und den darin enthaltenen Korrelationen. Es wird ein neues Verfahren zur Quantifizierung von Muster-basierten komplexen Korrelationen einer Zeitreihe entwickelt. Mit dieser Methodik werden signifikante Anzeichen dafür gefunden, dass sich typische Verhaltensmuster von Finanzmarktteilnehmern auf kurzen Zeitskalen manifestieren, dass also die Reaktion auf einen gegebenen Preisverlauf nicht rein zufällig ist, sondern vielmehr ähnliche Preisverläufe auch ähnliche Reaktionen hervorrufen. Ausgehend von der Untersuchung der komplexen Korrelationen in Finanzmarktzeitreihen wird die Frage behandelt, welche Eigenschaften sich beim Wechsel von einem positiven Trend zu einem negativen Trend verändern. Eine empirische Quantifizierung mittels Reskalierung liefert das Resultat, dass unabhängig von der betrachteten Zeitskala neue Preisextrema mit einem Anstieg des Transaktionsvolumens und einer Reduktion der Zeitintervalle zwischen Transaktionen einhergehen. Diese Abhängigkeiten weisen Charakteristika auf, die man auch in anderen komplexen Systemen in der Natur und speziell in physikalischen Systemen vorfindet. Über 9 Größenordnungen in der Zeit sind diese Eigenschaften auch unabhängig vom analysierten Markt - Trends, die nur für Sekunden bestehen, zeigen die gleiche Charakteristik wie Trends auf Zeitskalen von Monaten. Dies eröffnet die Möglichkeit, mehr über Finanzmarktblasen und deren Zusammenbrüche zu lernen, da Trends auf kleinen Zeitskalen viel häufiger auftreten. Zusätzlich wird eine Monte Carlo-basierte Simulation des Finanzmarktes analysiert und erweitert, um die empirischen Eigenschaften zu reproduzieren und Einblicke in deren Ursachen zu erhalten, die zum einen in der Finanzmarktmikrostruktur und andererseits in der Risikoaversion der Handelsteilnehmer zu suchen sind. Für die rechenzeitintensiven Verfahren kann mittels Parallelisierung auf einer Graphikkartenarchitektur eine deutliche Rechenzeitreduktion erreicht werden. Um das weite Spektrum an Einsatzbereichen von Graphikkarten zu aufzuzeigen, wird auch ein Standardmodell der statistischen Physik - das Ising-Modell - auf die Graphikkarte mit signifikanten Laufzeitvorteilen portiert. Teilresultate der Arbeit sind publiziert in [PGPS07, PPS08, Pre11, PVPS09b, PVPS09a, PS09, PS10a, SBF+10, BVP10, Pre10, PS10b, PSS10, SBF+11, PB10].
Resumo:
The ability of block copolymers to spontaneously self-assemble into a variety of ordered nano-structures not only makes them a scientifically interesting system for the investigation of order-disorder phase transitions, but also offers a wide range of nano-technological applications. The architecture of a diblock is the most simple among the block copolymer systems, hence it is often used as a model system in both experiment and theory. We introduce a new soft-tetramer model for efficient computer simulations of diblock copolymer melts. The instantaneous non-spherical shape of polymer chains in molten state is incorporated by modeling each of the two blocks as two soft spheres. The interactions between the spheres are modeled in a way that the diblock melt tends to microphase separate with decreasing temperature. Using Monte Carlo simulations, we determine the equilibrium structures at variable values of the two relevant control parameters, the diblock composition and the incompatibility of unlike components. The simplicity of the model allows us to scan the control parameter space in a completeness that has not been reached in previous molecular simulations.The resulting phase diagram shows clear similarities with the phase diagram found in experiments. Moreover, we show that structural details of block copolymer chains can be reproduced by our simple model.We develop a novel method for the identification of the observed diblock copolymer mesophases that formalizes the usual approach of direct visual observation,using the characteristic geometry of the structures. A cluster analysis algorithm is used to determine clusters of each component of the diblock, and the number and shape of the clusters can be used to determine the mesophase.We also employ methods from integral geometry for the identification of mesophases and compare their usefulness to the cluster analysis approach.To probe the properties of our model in confinement, we perform molecular dynamics simulations of atomistic polyethylene melts confined between graphite surfaces. The results from these simulations are used as an input for an iterative coarse-graining procedure that yields a surface interaction potential for the soft-tetramer model. Using the interaction potential derived in that way, we perform an initial study on the behavior of the soft-tetramer model in confinement. Comparing with experimental studies, we find that our model can reflect basic features of confined diblock copolymer melts.
Resumo:
In dieser Arbeit wurden die vielfältigen Anwendungsmöglichkeiten von Carbazol-reichen Verbindungen in unterschiedlichen Architekturen von pi-konjugierten Materialien untersucht. Die Darstellung der Makrozyklen in Kapitel 1 erfolgte über eine templatunterstützte Synthese, da die ausschließlich über ihre para-Position verknüpften Einheiten einen Zugang über ihre Geometrie nicht erlaubten. Cyclododeca-2,7-fluoren wurde als zyklische Modellverbindung für die zahlreichen bekannten linearen Oligo- und Polyfluorene dargestellt, um den Einfluss der Ringstruktur auf die optischen Eigenschaften dieser blau emittierenden Verbindungen zu untersuchen. Motiviert von den geringen Ausbeuten bei der Zyklisierung des Rings unter Yamamoto-Bedingungen wurde nach einer alternativen Kupplungsreaktion gesucht, die den Zugang zu größeren Substanzmengen erlaubt. Die Einführung von terminalen Ethinylgruppen an die zu verknüpfenden Bausteine erlaubte über die Glaser-Eglinton-Reaktion nicht nur eine Verbesserung der Reaktionsausbeute um den Faktor 10, sondern gleichzeitig auch die Erweiterung des Durchmessers auf rund 5 nm. Demonstriert wurde dies anhand der Darstellung von Cyclo[tetrakis(2,7-diethinyltriscarbazol)] und Cyclo[tetrakis(2,7-diethinyltrisfluoren)].rnDer zweite Abschnitt der Dissertation befasste sich mit ausgedehnten zweidimensionalen Strukturen, zu denen auch mehrsträngige Polymere zählen. Für die Darstellung eines Doppelstrang-Polymers mit hoher Periodizität in den beiden in regelmäßigen Abständen verknüpften Strängen wurde ein neues Konzept entwickelt, dass den Zugang zu solchen Verbindungen erlauben sollte. Dieses basierte auf einem vierfach funktionalisierten Carbazol-Makromonomer. Die Polymerisationen wurden in zwei Schritten über Glaser-Eglinton-Reaktionen durchgeführt. Um unkontrollierte Kupplungen zu vermeiden, wurden zwei der vier reaktiven Positionen am Monomer zunächst über Schutzgruppen maskiert und nach der ersten Polymerisation wieder aktiviert. Neben diesem Ansatz über oxidative Ethinylkupplungen wurde auch eine Organometall-Variante mit einem Platin-Komplex im Polymerrückgrat vorgestellt. rnIm dritten Kapitel wurde die Darstellung von Donor-Akzeptor-Polymeren mit niedriger Bandlücke für den Einsatz in organischen Solarzellen besprochen. Im Gegensatz zu den bisherigen Ansätzen in der Literatur wurden hier ganz gezielt Donor- und Akzeptor-Einheiten mit einer Länge von mindestens 1,5 nm synthetisiert und kombiniert, um zu untersuchen, welche Auswirkungen der Einsatz solcher Makromonomere auf die Eigenschaften der Materialien hat. Dabei bestand der Akzeptor-Baustein in drei Polymeren aus Bis[2,7-di-(4,4,5,5-tetramethyl-1,3,2-dioxaborolan-2-yl)-9,9,18,18-tetraoctylindeno[1,2-b]-yl]-indeno[1,2-b]fluoren-12,15-dion, während die Donor-Stärke durch den Übergang von einem reinen leiterverbrückten Carbazol-Monomer über eine gemischte Carbazol-Thiophen-Einheit hin zu einem reinen Thiophen-Precursor variiert wurde. Dabei zeigte das Polymer mit Thiophen als Donor den höchsten Zellwirkungsgrad von 0,41 %.rn
Resumo:
This thesis concerns artificially intelligent natural language processing systems that are capable of learning the properties of lexical items (properties like verbal valency or inflectional class membership) autonomously while they are fulfilling their tasks for which they have been deployed in the first place. Many of these tasks require a deep analysis of language input, which can be characterized as a mapping of utterances in a given input C to a set S of linguistically motivated structures with the help of linguistic information encoded in a grammar G and a lexicon L: G + L + C → S (1) The idea that underlies intelligent lexical acquisition systems is to modify this schematic formula in such a way that the system is able to exploit the information encoded in S to create a new, improved version of the lexicon: G + L + S → L' (2) Moreover, the thesis claims that a system can only be considered intelligent if it does not just make maximum usage of the learning opportunities in C, but if it is also able to revise falsely acquired lexical knowledge. So, one of the central elements in this work is the formulation of a couple of criteria for intelligent lexical acquisition systems subsumed under one paradigm: the Learn-Alpha design rule. The thesis describes the design and quality of a prototype for such a system, whose acquisition components have been developed from scratch and built on top of one of the state-of-the-art Head-driven Phrase Structure Grammar (HPSG) processing systems. The quality of this prototype is investigated in a series of experiments, in which the system is fed with extracts of a large English corpus. While the idea of using machine-readable language input to automatically acquire lexical knowledge is not new, we are not aware of a system that fulfills Learn-Alpha and is able to deal with large corpora. To instance four major challenges of constructing such a system, it should be mentioned that a) the high number of possible structural descriptions caused by highly underspeci ed lexical entries demands for a parser with a very effective ambiguity management system, b) the automatic construction of concise lexical entries out of a bulk of observed lexical facts requires a special technique of data alignment, c) the reliability of these entries depends on the system's decision on whether it has seen 'enough' input and d) general properties of language might render some lexical features indeterminable if the system tries to acquire them with a too high precision. The cornerstone of this dissertation is the motivation and development of a general theory of automatic lexical acquisition that is applicable to every language and independent of any particular theory of grammar or lexicon. This work is divided into five chapters. The introductory chapter first contrasts three different and mutually incompatible approaches to (artificial) lexical acquisition: cue-based queries, head-lexicalized probabilistic context free grammars and learning by unification. Then the postulation of the Learn-Alpha design rule is presented. The second chapter outlines the theory that underlies Learn-Alpha and exposes all the related notions and concepts required for a proper understanding of artificial lexical acquisition. Chapter 3 develops the prototyped acquisition method, called ANALYZE-LEARN-REDUCE, a framework which implements Learn-Alpha. The fourth chapter presents the design and results of a bootstrapping experiment conducted on this prototype: lexeme detection, learning of verbal valency, categorization into nominal count/mass classes, selection of prepositions and sentential complements, among others. The thesis concludes with a review of the conclusions and motivation for further improvements as well as proposals for future research on the automatic induction of lexical features.
Resumo:
In this thesis we develop further the functional renormalization group (RG) approach to quantum field theory (QFT) based on the effective average action (EAA) and on the exact flow equation that it satisfies. The EAA is a generalization of the standard effective action that interpolates smoothly between the bare action for krightarrowinfty and the standard effective action rnfor krightarrow0. In this way, the problem of performing the functional integral is converted into the problem of integrating the exact flow of the EAA from the UV to the IR. The EAA formalism deals naturally with several different aspects of a QFT. One aspect is related to the discovery of non-Gaussian fixed points of the RG flow that can be used to construct continuum limits. In particular, the EAA framework is a useful setting to search for Asymptotically Safe theories, i.e. theories valid up to arbitrarily high energies. A second aspect in which the EAA reveals its usefulness are non-perturbative calculations. In fact, the exact flow that it satisfies is a valuable starting point for devising new approximation schemes. In the first part of this thesis we review and extend the formalism, in particular we derive the exact RG flow equation for the EAA and the related hierarchy of coupled flow equations for the proper-vertices. We show how standard perturbation theory emerges as a particular way to iteratively solve the flow equation, if the starting point is the bare action. Next, we explore both technical and conceptual issues by means of three different applications of the formalism, to QED, to general non-linear sigma models (NLsigmaM) and to matter fields on curved spacetimes. In the main part of this thesis we construct the EAA for non-abelian gauge theories and for quantum Einstein gravity (QEG), using the background field method to implement the coarse-graining procedure in a gauge invariant way. We propose a new truncation scheme where the EAA is expanded in powers of the curvature or field strength. Crucial to the practical use of this expansion is the development of new techniques to manage functional traces such as the algorithm proposed in this thesis. This allows to project the flow of all terms in the EAA which are analytic in the fields. As an application we show how the low energy effective action for quantum gravity emerges as the result of integrating the RG flow. In any treatment of theories with local symmetries that introduces a reference scale, the question of preserving gauge invariance along the flow emerges as predominant. In the EAA framework this problem is dealt with the use of the background field formalism. This comes at the cost of enlarging the theory space where the EAA lives to the space of functionals of both fluctuation and background fields. In this thesis, we study how the identities dictated by the symmetries are modified by the introduction of the cutoff and we study so called bimetric truncations of the EAA that contain both fluctuation and background couplings. In particular, we confirm the existence of a non-Gaussian fixed point for QEG, that is at the heart of the Asymptotic Safety scenario in quantum gravity; in the enlarged bimetric theory space where the running of the cosmological constant and of Newton's constant is influenced by fluctuation couplings.