996 resultados para morphometrische Daten
Resumo:
In der vorliegenden Arbeit fokussierten wir uns auf drei verschiedene Aspekte der Leishmanien-Infektion. Wir charakterisierten den Prozess des Zelltods „Apoptose“ bei Parasiten (1), untersuchten die Eignung von Makrophagen und dendritischen Zellen als Wirtszelle für die Entwicklung der Parasiten (2) und analysierten die Konsequenzen der Infektion für die Entstehung einer adaptiven Immunantwort im humanen System. Von zentraler Bedeutung für dieses Projekt war die Hypothese, dass apoptotische Leishmanien den Autophagie-Mechanismus ihrer Wirtszellen ausnutzen, um eine T-Zell-vermittelte Abtötung der Parasiten zu vermindern.rnWir definierten eine apoptotische Leishmanien-Population, welche durch eine rundliche Morphologie und die Expression von Phosphatidylserin auf der Parasitenoberfläche charakterisiert war. Die apoptotischen Parasiten befanden sich zudem in der SubG1-Phase und wiesen weniger und fragmentierte DNA auf, welche durch TUNEL-Assay nachgewiesen werden konnte. Bei der Interaktion der Parasiten mit humanen Makrophagen und dendritischen Zellen zeigte sich, dass die anti-inflammatorischen Makrophagen anfälliger für Infektionen waren als die pro-inflammatorischen Makrophagen oder die dendritischen Zellen. Interessanterweise wurde in den dendritischen Zellen jedoch die effektivste Umwandlung zur krankheitsauslösenden, amastigoten Lebensform beobachtet. Da sowohl Makrophagen als auch dendritische Zellen zu den antigenpräsentierenden Zellen gehören, könnte dies zur Aktivierung der T-Zellen des adaptiven Immunsystems führen. Tatsächlich konnte während der Leishmanien-Infektion die Proliferation von T-Zellen beobachtet werden. Dabei stellten wir fest, dass es sich bei den proliferierenden T-Zellen um CD3+CD4+ T-Zellen handelte, welche sich überraschenderweise als Leishmanien-spezifische CD45RO+ T-Gedächtniszellen herausstellten. Dies war unerwartet, da ein vorheriger Kontakt der Spender mit Leishmanien als unwahrscheinlich gilt. In Gegenwart von apoptotischen Parasiten konnte eine signifikant schwächere T-Zell-Proliferation in Makrophagen, jedoch nicht in dendritischen Zellen beobachtet werden. Da sich die T-Zell-Proliferation negativ auf das Überleben der Parasiten auswirkt, konnten die niedrigsten Überlebensraten in dendritischen Zellen vorgefunden werden. Innerhalb der Zellen befanden sich die Parasiten in beiden Zelltypen im Phagosom, welches allerdings nur in Makrophagen den Autophagie-Marker LC3 aufwies. Chemische Induktion von Autophagie führte, ebenso wie die Anwesenheit von apoptotischen Parasiten, zu einer stark reduzierten T-Zell-Proliferation und dementsprechend zu einem höheren Überleben der Parasiten.rnZusammenfassend lässt sich aus unseren Daten schließen, dass Apoptose in Einzellern vorkommt. Während der Infektion können sowohl Makrophagen, als auch dendritische Zellen mit Leishmanien infiziert und das adaptive Immunsystem aktivert werden. Die eingeleitete T-Zell-Proliferation nach Infektion von Makrophagen ist in Gegenwart von apoptotischen Parasiten reduziert, weshalb sie im Vergleich zu dendritischen Zellen die geeigneteren Wirtszellen für Leishmanien darstellen. Dafür missbrauchen die Parasiten den Autophagie-Mechanismus der Makrophagen als Fluchtstrategie um das adaptive Immunsystem zu umgehen und somit das Überleben der Gesamtpopulation zu sichern. Diese Ergebnisse erklären den Vorteil von Apoptose in Einzellern und verdeutlichen, dass der Autophagie-Mechanismus als potentielles therapeutisches Ziel für die Behandlung von Leishmaniose dienen kann.rn
Resumo:
Durch die ansteigende Inzidenz und niedrige Mortalität steigt die Anzahl der überlebenden Männer nach Prostatakarzinom. Mit einer 5-Jahresprävalenz von 279.000 Männern stellte das Prostatakarzinom im Jahr 2010 den größten Anteil der Krebspatienten. Die absolute 5-Jahres-Überlebensrate liegt bei 78 %. Studien zur Lebensqualität dieser Langzeitüberlebenden (> 5 Jahre nach Diagnosestellung) beschränken sich meist auf bestimmte Therapien, schließen höhere Tumorstadien aus oder untersuchen nur die Wirkung von klinischen Einflussfaktoren. In Schleswig-Holstein wurde im Rahmen der populationsbezogenen OVIS- und CAESAR-Studie die Lebensqualität bei Männern mit bzw. nach Prostatakrebs zu drei Zeitpunkten erhoben (15 Monate, 3 ½ und 7 Jahre nach initialer Diagnose). Für die allgemeine krebsspezifische Lebensqualität (EORTC QLQ-C30) erfolgt eine Beschreibung des Verlaufs sowie ein Vergleich mit Referenzdaten aus der deutschen Allgemeinbevölkerung. Aus der dritten Befragung liegen auch Daten zur prostataspezifischen Lebensqualität (EORTC QLQ-PR25) vor. Mittels multipler linearer Regressionen werden für elf ausgewählte Lebensqualitätsskalen (mögliche Werte 0 bis 100) potenzielle Einflussfaktoren (klinisch, soziodemographisch, Lifestyle) untersucht. Die Lebensqualität der 911 Männer (medianes Alter bei Drittbefragung: 72 Jahre) nimmt im zeitlichen Verlauf nur gering, aber nicht klinisch relevant ab. Es zeigen sich nur geringe Unterschiede zur Lebensqualität der Referenzbevölkerung. Im absoluten Vergleich aller Skalen werden zum Zeitpunkt der Drittbefragung auf den prostataspezifischen Skalen die größten Einschränkungen berichtet. In den berechneten multiplen Regressionen war sieben Jahre nach Diagnose eine Krankheitsprogression auf allen untersuchten Skalen signifikant mit einer geringeren Lebensqualität assoziiert (niedrigster Regressionskoeffizient βadj -13,8, 95 %-CI -18,8; -8,8). Eine Strahlentherapie zeigte auf zehn, eine Hormontherapie auf fünf Skalen einen negativen Einfluss. Ebenfalls auf fünf Skalen war ein höherer Body-Mass-Index ein Prädiktor für eine geringere Lebensqualität. Auf allen Funktionsskalen war ein höherer Sozialstatus mit einer besseren Lebensqualität assoziiert und zeigte tendenziell einen größeren Einfluss als die initiale Therapie. Alleinstehende Männer berichteten eine geringere sexuelle Aktivität (βadj -7,5, 95 %-CI -13,8; -1,2) als Männer in einer Partnerschaft. Neben klinischen Faktoren beeinflussen auch soziodemographische Variablen die Lebensqualität von langzeitüberlebenden Männern nach bzw. mit Prostatakarzinom signifikant. Daher sollten in nicht-randomisierten Studien zum Adjustieren die entsprechenden Variablen (wie z. B. Body-Mass-Index, Sozialstatus, Partnerschaft) mit erhoben werden. Klinisch relevante Veränderungen der allgemeinen krebsspezifischen Lebensqualität finden – wenn überhaupt – innerhalb der ersten 15 Monate nach Diagnosestellung statt. Referenzdaten für die prostataspezifische Lebensqualität der Allgemeinbevölkerung liegen nicht vor. Eine Erhebung dieser scheint sinnvoll, da hier größere Unterschiede im Vergleich beider Gruppen erwartet werden.
Resumo:
Die Arbeit untersucht anhand empirischer Daten aus dem Jahr 2012 (ESS 6) das normative Demokratieverständnis von Jugendlichen im Alter zwischen 15 und 26 Jahren. Im Unterschied zu vorangegangenen Studien wird das normative Demokratieverständnis der Jugendlichen zum einen detaillierter untersucht, zum anderen dem der Erwachsenen gegenüber gestellt und drittens werden dessen Determinanten umfassender betrachtet. rnDen theoretischen Rahmen der Untersuchung bilden das klassische Konzept der politischen Kultur und die politische Sozialisationstheorie. rnEs zeigt sich, dass Jugendliche über ein verhältnismäßig gut ausgeprägtes normatives Demokratieverständnis verfügen, dieses jedoch niedriger ausgeprägt ist als das der Erwachsenen, wobei letzterer Befund für ältere Jugendliche nur noch punktuell gilt. Zudem weisen die Ergebnisse darauf hin, dass bei den Jugendlichen weitestgehend die gleichen Aspekte des normativen Demokratieverständnisses im gruppeninternen Vergleich über- bzw. unterdurchschnittlich ausgeprägt sind wie bei den Erwachsenen. Unterschiede zwischen Jugendlichen und Erwachsenen zeigen sich insbesondere für die elektorale Dimension der Demokratie und weniger für die liberale Dimension. Als wichtige Determinanten des Demokratieverständnisses von Jugendlichen werden sowohl der individuelle Bildungsgrad und das individuelle politische Interesse als auch der Bildungshintergrund der Eltern identifiziert.rnAus den Ergebnissen werden am Ende der Arbeit Implikationen mit Bezügen zu Inhalten, Adressaten und Akteuren politischer Bildungsarbeit diskustiert. rn
Resumo:
The quark model successfully describes all ground state bary-ons as members of $SU(N)$ flavour multiplets. For excited baryon states the situation is totally different. There are much less states found in the experiment than predicted in most theoretical calculations. This fact has been known for a long time as the 'missing resonance problem'. In addition, many states found in experiments are only poorly measured up to now. Therefore, further experimental efforts are needed to clarify the situation.rnrnAt mbox{COMPASS}, reactions of a $190uskgigaeVperclight$ hadron beam impinging on a liquid hydrogen target are investigated.rnThe hadron beam contains different species of particles ($pi$, $K$, $p$). To distinguish these particles, two Cherenkov detectors are used. In this thesis, a new method for the identification of particles from the detector information is developed. This method is based on statistical approaches and allows a better kaon identification efficiency with a similar purity compared to the method, which was used before.rnrnThe reaction $pprightarrow ppX$ with $X=(pi^0,~eta,~omega,~phi)$ is used to study different production mechanisms. A previous analysis of $omega$ and $phi$ mesons is extended to pseudoscalar mesons. As the resonance contributions in $peta$ are smaller than in $ppi^0$ a different behaviour of these two final states is expected as a function of kinematic variables. The investigation of these differences allows to study different production mechanisms and to estimate the size of the resonant contribution in the different channels.rnrnIn addition, the channel $pprightarrow ppX$ allows to study baryon resonances in the $pX$ system.rnIn the mbox{COMPASS} energy regime, the reaction is dominated by Pomeron exchange. As a Pomeron carries vacuum quantum numbers, no isospin is transferred between the target proton and the beam proton. Therefore, the $pX$ final state has isospin $textstylefrac{1}{2}$ and all baryon resonances in this channel are $N^ast$ baryons. This offers the opportunity to do spectroscopy without taking $Delta$ resonances into account. rnrnTo disentangle the contributions of different resonances a partial wave analysis (PWA) is used. Different resonances have different spin and parity $J^parity$, which results in different angular distributions of the decay particles. These angular distributions can be calculated from models and then be fitted to the data. From the fit the contributions of the single resonances as well as resonance parameters -- namely the mass and the width -- can be extracted. In this thesis, two different approaches for a partial wave analysis of the reaction $pprightarrow pppi^0$ are developed and tested.
Resumo:
Molecular dynamics simulations of silicate and borate glasses and melts: Structure, diffusion dynamics and vibrational properties. In this work computer simulations of the model glass formers SiO2 and B2O3 are presented, using the techniques of classical molecular dynamics (MD) simulations and quantum mechanical calculations, based on density functional theory (DFT). The latter limits the system size to about 100−200 atoms. SiO2 and B2O3 are the two most important network formers for industrial applications of oxide glasses. Glass samples are generated by means of a quench from the melt with classical MD simulations and a subsequent structural relaxation with DFT forces. In addition, full ab initio quenches are carried out with a significantly faster cooling rate. In principle, the structural properties are in good agreement with experimental results from neutron and X-ray scattering, in all cases. A special focus is on the study of vibrational properties, as they give access to low-temperature thermodynamic properties. The vibrational spectra are calculated by the so-called ”frozen phonon” method. In all cases, the DFT curves show an acceptable agreement with experimental results of inelastic neutron scattering. In case of the model glass former B2O3, a new classical interaction potential is parametrized, based on the liquid trajectory of an ab initio MD simulation at 2300 K. In this course, a structural fitting routine is used. The inclusion of 3-body angular interactions leads to a significantly improved agreement of the liquid properties of the classical MD and ab initio MD simulations. However, the generated glass structures, in all cases, show a significantly lower fraction of 3-membered planar boroxol rings as predicted by experimental results (f=60%-80%). The largest boroxol ring fraction of f=15±5% is observed in the full ab initio quenches from 2300 K. In case of SiO2, the glass structures after the quantum mechanical relaxation are the basis for calculations of the linear thermal expansion coefficient αL(T), employing the quasi-harmonic approximation. The striking observation is a change change of sign of αL(T) going along with a temperature range of negative αL(T) at low temperatures, which is in good agreement with experimental results.
Resumo:
In der Archäologie werden elektrische Widerstandsmessungen routinemäßig zur Prospektion von Fundstellen eingesetzt. Die Methode ist kostengünstig, leicht anwendbar und liefert in den meisten Fällen zuverlässige und leicht zu interpretierende Ergebnisse. Dennoch kann die Methode die archäologischen Strukturen in manchen Fällen nur teilweise oder gar nicht abbilden, wenn die bodenphysikalischen und bodenchemischen Eigenschaften des Bodens und der archäologischen Strukturen dies nicht zulassen. Der spezifische elektrische Widerstand wird durch Parameter wie Wassergehalt, Bodenstruktur, Bodenskelett, Bodentextur, Salinität und Bodentemperatur beeinflusst. Manche dieser Parameter, wie z.B. der Wassergehalt und die Bodentemperatur, unterliegen einer saisonalen Veränderung. Die vorliegende Arbeit untersucht den spezifischen elektrischen Widerstand von archäologischen Steinstrukturen und evaluiert die Möglichkeit, auf Grundlage von Geländemessungen und Laboranalysen archäologische Strukturen und Böden als numerische Modelle darzustellen. Dazu wurde eine Kombination von verschiedenen bodenkundlichen, geoarchäologischen und geophysikalischen Methoden verwendet. Um archäologische Strukturen und Bodenprofile als numerische Widerstandsmodelle darstellen zu können, werden Informationen zur Geometrie der Strukturen und ihren elektrischen Widerstandswerten benötigt. Dabei ist die Qualität der Hintergrundinformationen entscheidend für die Genauigkeit des Widerstandsmodells. Die Geometrie der Widerstandsmodelle basiert auf den Ergebnissen von Rammkernsondierungen und archäologische Ausgrabungen. Die an der Ausbildung des elektrischen Widerstands beteiligten Parameter wurden durch die Analyse von Bodenproben gemessen und ermöglichen durch Pedotransfer-Funktion, wie die Rhoades-Formel, die Abschätzung des spezifischen elektrischen Widerstandes des Feinbodens. Um den Einfluss des Bodenskeletts auf den spezifischen elektrischen Widerstand von Bodenprofilen und archäologischen Strukturen zu berechnen, kamen die Perkolationstheorie und die Effective Medium Theory zum Einsatz. Die Genauigkeit und eventuelle Limitierungen der Methoden wurden im Labor durch experimentelle Widerstandsmessungen an ungestörten Bodenproben und synthetischen Materialien überprüft. Die saisonale Veränderung des Wassergehalts im Boden wurde durch numerische Modelle mit der Software HYDRUS simuliert. Die hydraulischen Modelle wurden auf Grundlage der ermittelten bodenkundlichen und archäologischen Stratigraphie erstellt und verwenden die Daten von lokalen Wetterstationen als Eingangsparameter. Durch die Kombination der HYDRUS-Ergebnisse mit den Pedotransfer-Funktionen konnte der Einfluss dieser saisonalen Veränderung auf die Prospektionsergebnisse von elektrischen Widerstandsmethoden berechnet werden. Die Ergebnisse der Modellierungsprozesse wurden mit den Geländemessungen verglichen. Die beste Übereinstimmung zwischen Modellergebnissen und den Prospektionsergebnissen konnte für die Fallstudie bei Katzenbach festgestellt werden. Bei dieser wurden die Modelle auf Grundlage von archäologischen Grabungsergebnissen und detaillierten bodenkundlichen Analysen erstellt. Weitere Fallstudien zeigen, dass elektrische Widerstandsmodelle eingesetzt werden können, um den Einfluss von ungünstigen Prospektionsbedingungen auf die Ergebnisse der elektrischen Widerstandsmessungen abzuschätzen. Diese Informationen unterstützen die Planung und Anwendung der Methoden im Gelände und ermöglichen eine effektivere Interpretation der Prospektionsergebnisse. Die präsentierten Modellierungsansätze benötigen eine weitere Verifizierung durch den Vergleich der Modellierungsergebnisse mit detailliertem geophysikalischem Gelände-Monitoring von archäologischen Fundstellen. Zusätzlich könnten elektrische Widerstandsmessungen an künstlichen Mauerstrukturen unter kontrollierten Bedingungen zur Überprüfung der Modellierungsprozesse genutzt werden.
Resumo:
Zeitreihen sind allgegenwärtig. Die Erfassung und Verarbeitung kontinuierlich gemessener Daten ist in allen Bereichen der Naturwissenschaften, Medizin und Finanzwelt vertreten. Das enorme Anwachsen aufgezeichneter Datenmengen, sei es durch automatisierte Monitoring-Systeme oder integrierte Sensoren, bedarf außerordentlich schneller Algorithmen in Theorie und Praxis. Infolgedessen beschäftigt sich diese Arbeit mit der effizienten Berechnung von Teilsequenzalignments. Komplexe Algorithmen wie z.B. Anomaliedetektion, Motivfabfrage oder die unüberwachte Extraktion von prototypischen Bausteinen in Zeitreihen machen exzessiven Gebrauch von diesen Alignments. Darin begründet sich der Bedarf nach schnellen Implementierungen. Diese Arbeit untergliedert sich in drei Ansätze, die sich dieser Herausforderung widmen. Das umfasst vier Alignierungsalgorithmen und ihre Parallelisierung auf CUDA-fähiger Hardware, einen Algorithmus zur Segmentierung von Datenströmen und eine einheitliche Behandlung von Liegruppen-wertigen Zeitreihen.rnrnDer erste Beitrag ist eine vollständige CUDA-Portierung der UCR-Suite, die weltführende Implementierung von Teilsequenzalignierung. Das umfasst ein neues Berechnungsschema zur Ermittlung lokaler Alignierungsgüten unter Verwendung z-normierten euklidischen Abstands, welches auf jeder parallelen Hardware mit Unterstützung für schnelle Fouriertransformation einsetzbar ist. Des Weiteren geben wir eine SIMT-verträgliche Umsetzung der Lower-Bound-Kaskade der UCR-Suite zur effizienten Berechnung lokaler Alignierungsgüten unter Dynamic Time Warping an. Beide CUDA-Implementierungen ermöglichen eine um ein bis zwei Größenordnungen schnellere Berechnung als etablierte Methoden.rnrnAls zweites untersuchen wir zwei Linearzeit-Approximierungen für das elastische Alignment von Teilsequenzen. Auf der einen Seite behandeln wir ein SIMT-verträgliches Relaxierungschema für Greedy DTW und seine effiziente CUDA-Parallelisierung. Auf der anderen Seite führen wir ein neues lokales Abstandsmaß ein, den Gliding Elastic Match (GEM), welches mit der gleichen asymptotischen Zeitkomplexität wie Greedy DTW berechnet werden kann, jedoch eine vollständige Relaxierung der Penalty-Matrix bietet. Weitere Verbesserungen umfassen Invarianz gegen Trends auf der Messachse und uniforme Skalierung auf der Zeitachse. Des Weiteren wird eine Erweiterung von GEM zur Multi-Shape-Segmentierung diskutiert und auf Bewegungsdaten evaluiert. Beide CUDA-Parallelisierung verzeichnen Laufzeitverbesserungen um bis zu zwei Größenordnungen.rnrnDie Behandlung von Zeitreihen beschränkt sich in der Literatur in der Regel auf reellwertige Messdaten. Der dritte Beitrag umfasst eine einheitliche Methode zur Behandlung von Liegruppen-wertigen Zeitreihen. Darauf aufbauend werden Distanzmaße auf der Rotationsgruppe SO(3) und auf der euklidischen Gruppe SE(3) behandelt. Des Weiteren werden speichereffiziente Darstellungen und gruppenkompatible Erweiterungen elastischer Maße diskutiert.
Resumo:
In dieser Masterarbeit wird die Frage untersucht, ob sich in den mittel- und osteuropäischen EU-Mitgliedsländern der Erweiterungsrunde von 2004 (Estland, Litauen, Polen, Slowakei, Slowenien, Ungarn, Tschechien) in der Befürwortung verschiedener normativer Demokratiemodelle Unterschiede zwischen der jüngsten und den älteren Generationen finden lassen. Diese demokratischen Wertorientierungen spielen für die Persistenz der noch jungen Demokratien eine entscheidende Rolle. Eine Inkongruenz des mehrheitlich favorisierten Demokratiemodells einerseits und der institutionellen Struktur andererseits kann zu Spannungen und Instabilität des politischen Systems führen. Theoretisch werden zwei Demokratiekonzeptionen unterschieden: Das Modell der liberalen Demokratie und das Modell der sozialistischen Demokratie. Dem Sozialisationsansatz folgend, sollte die jüngste Generation ein liberales Demokratiemodell eher und ein sozialistisches Demokratiemodell weniger befürworten als die älteren Generationen. In der empirischen Analyse auf Basis der Daten der sechsten Welle des European Social Survey von 2012 wird zunächst durch konfirmatorische Faktorenanalysen die konzeptuelle Trennung beider Modelle bestätigt. In der Regressionsanalyse wird der Fokus durch die Untersuchung verschiedener Kohorten gelegt, zusätzlich wird für situative Faktoren und mögliche Alterseffekte kontrolliert. Die Ergebnisse der Modellschätzungen zeichnen ein heterogenes Bild. In keinem der untersuchten Länder zeigt sich eine signifikant höhere Zustimmung zum liberalen Demokratiemodell durch die jüngste Generation, wie es der theoretischen Erwartung entsprechen würde. Stattdessen finden sich entweder keine signifikanten Unterschiede zwischen den Generationen oder sogar signifikant niedrigere Zustimmungswerte durch die jüngste Generation. Bei der Befürwortung eines sozialistischen Demokratiemodells entsprechen die Ergebnisse teilweise der theoretischen Erwartung: In einigen Ländern finden sich signifikant niedrigere Zustimmungswerte in der jüngsten Generation.
Resumo:
The excitation spectrum is one of the fundamental properties of every spatially extended system. The excitations of the building blocks of normal matter, i.e., protons and neutrons (nucleons), play an important role in our understanding of the low energy regime of the strong interaction. Due to the large coupling, perturbative solutions of quantum chromodynamics (QCD) are not appropriate to calculate long-range phenomena of hadrons. For many years, constituent quark models were used to understand the excitation spectra. Recently, calculations in lattice QCD make first connections between excited nucleons and the fundamental field quanta (quarks and gluons). Due to their short lifetime and large decay width, excited nucleons appear as resonances in scattering processes like pion nucleon scattering or meson photoproduction. In order to disentangle individual resonances with definite spin and parity in experimental data, partial wave analyses are necessary. Unique solutions in these analyses can only be expected if sufficient empirical information about spin degrees of freedom is available. The measurement of spin observables in pion photoproduction is the focus of this thesis. The polarized electron beam of the Mainz Microtron (MAMI) was used to produce high-intensity, polarized photon beams with tagged energies up to 1.47 GeV. A "frozen-spin" Butanol target in combination with an almost 4π detector setup consisting of the Crystal Ball and the TAPS calorimeters allowed the precise determination of the helicity dependence of the γp → π0p reaction. In this thesis, as an improvement of the target setup, an internal polarizing solenoid has been constructed and tested. A magnetic field of 2.32 T and homogeneity of 1.22×10−3 in the target volume have been achieved. The helicity asymmetry E, i.e., the difference of events with total helicity 1/2 and 3/2 divided by the sum, was determined from data taken in the years 2013-14. The subtraction of background events arising from nucleons bound in Carbon and Oxygen was an important part of the analysis. The results for the asymmetry E are compared to existing data and predictions from various models. The results show a reasonable agreement to the models in the energy region of the ∆(1232)-resonance but large discrepancies are observed for energy above 600 MeV. The expansion of the present data in terms of Legendre polynomials, shows the sensitivity of the data to partial wave amplitudes up to F-waves. Additionally, a first, preliminary multipole analysis of the present data together with other results from the Crystal Ball experiment has been as been performed.
Resumo:
Metallische Nanopartikel und ihre Oxide (z.B. ZnO NP, TiO2 NP und Fe2O3 NP) werden aufgrund ihrer chemischen und physikalischen Eigenschaften häufig als Additive in der Reifenproduktion, in Katalysatoren, Lebensmitteln, Arzneimitteln und Kosmetikprodukten verwendet. Künftig wird ein kontinuierlicher Anstieg der industriellen Anwendung (~ 1663 Tonnen im Jahr 2025) mit gesteigerter Freisetzung in die Umwelt erwartet, was zwangsläufig zu einer vermehrten Aufnahme über das respiratorische Epithel führt. Metalldampffieber ist als gesundheitsschädigender Effekt von Metalloxid-haltigen Aerosolen (z.B. ZnO) nach Inhalation bekannt. Immunreaktionen, wie beispielsweise Entzündungen, werden häufig mit der Entstehung von Sauerstoffradikalen (ROS) in Verbindung gebracht, die wiederum zu DNA-Schäden führen können. Drei mögliche Ursachen der Genotoxität werden angenommen: direkte Interaktion von Nanopartikeln mit intrazellulären Strukturen, Interaktion von Ionen dissoziierter Partikel mit intrazellulären Strukturen sowie die Entstehung von ROS initiiert durch Partikel oder Ionen.rnDie vorliegende Studie befasst sich mit den Mechanismen der Genotoxizität von ZnO Nanopartikeln (ZnO NP), als Beispiel für metallische Nanopartikel, im respiratorischen Epithel. In der Studie wurde gezielt die intrazelluläre Aufnahme und Verteilung von ZnO NP, deren Toxizität, deren DNA schädigendes Potential sowie die Aktivierung der DNA damage response (DDR) analysiert.rnEs konnten kaum internalisierte ZnO NP mittels TEM detektiert werden. Innerhalb der ersten Sekunden nach Behandlung mit ZnO NP wurde spektrofluorometrisch ein starker Anstieg der intrazellulären Zn2+ Konzentration gemessen. In unbehandelten Zellen war Zn2+ in granulären Strukturen lokalisiert. Die Behandlung mit ZnO NP führte zu einer Akkumulation von Zn2+ in diesen Strukturen. Im zeitlichen Verlauf verlagerten sich die Zn2+-Ionen in das Zytoplasma, sowie in Zellkerne und Mitochondrien. Es wurde keine Kolokalisation von Zn2+ mit den frühen Endosomen und dem endoplasmatischen Retikulum beobachtet. Die Vorbehandlung der Zellen mit Diethylen-triaminpentaessigsäure (DTPA), als extrazellulärem Komplexbildner, verhinderte den intrazellulären Anstieg von Zn2+ nach Behandlung mit den Partikeln.rnDie Behandlung mit ZnO NP resultierte in einer zeit- und dosisabhängigen Reduktion der zellulären Viabilität, während die intrazelluläre ROS-Konzentrationen in den ersten 30 min leicht und anschließend kontinuierlich bis zum Ende der Messung anstiegen. Außerdem verringerte sich das mitochondriale Membranpotential, während sich die Anzahl der frühapoptotischen Zellen in einer zeitabhängigen Weise erhöhte. rnDNA Doppelstrangbrüche (DNA DSB) wurden mittels Immunfluoreszenz-Färbung der γH2A.X foci sichtbar gemacht und konnten nach Behandlung mit ZnO NP detektiert werden. Die Vorbehandlung mit dem Radikalfänger N-Acetyl-L-Cytein (NAC) resultierte in stark reduzierten intrazellulären ROS-Konzentrationen sowie wenigen DNA DSB. Die DNA Schädigung wurde durch Vorbehandlung mit DTPA ganz verhindert.rnDie Aktivierung der DDR wurde durch die Analyse von ATM, ATR, Chk1, Chk2, p53 und p21 mittels Western Blot und ELISA nach Behandlung mit ZnO NP überprüft. Der ATR/Chk1 Signalweg wurde durch ZnO NP nicht aktiviert. Die Komplexierung von Zn2+ resultierte in einer verminderten ATM/Chk2 Signalwegaktivierung. Es zeigte sich, dass das Abfangen von ROS keinen Effekt auf die ATM/Chk2 Signalwegaktivierung hatte.rnZusammengefasst wurde festgestellt, dass die Exposition mit ZnO NP in der Entstehung von ROS, reduzierter Viabilität und vermindertem mitochondrialem Membranpotential resultiert, sowie zeitabhängig eine frühe Apoptose initiiert. ZnO NP dissoziierten extrazellulär und wurden schnell als Zn2+ über unbekannte Mechanismen internalisiert. Die Zn2+-Ionen wurden im Zytoplasma, sowie besonders in den Mitochondrien und dem Zellkern, akkumuliert. Die DDR Signalgebung wurde durch ZnO NP aktiviert, jedoch nicht durch NAC inhibiert. Es wurde gezeigt, dass DTPA die DDR Aktivierung komplett inhibierte. Die Behandlung mit ZnO NP induzierte DNA DSB. Die Inhibition von ROS reduzierte die DNA DSB und die Komplexierung der Zn2+ verhinderte die Entstehung von DNA DSB.rnDiese Daten sprechen für die Dissoziation der Partikel und die hierbei freigesetzten Zn2+ als Hauptmediator der Genotoxizität metallischer Nanopartikel. rn
Resumo:
Addressing current limitations of state-of-the-art instrumentation in aerosol research, the aim of this work was to explore and assess the applicability of a novel soft ionization technique, namely flowing atmospheric-pressure afterglow (FAPA), for the mass spectrometric analysis of airborne particulate organic matter. Among other soft ionization methods, the FAPA ionization technique was developed in the last decade during the advent of ambient desorption/ionization mass spectrometry (ADI–MS). Based on a helium glow discharge plasma at atmospheric-pressure, excited helium species and primary reagent ions are generated which exit the discharge region through a capillary electrode, forming the so-called afterglow region where desorption and ionization of the analytes occurs. Commonly, fragmentation of the analytes during ionization is reported to occur only to a minimum extent, predominantly resulting in the formation of quasimolecular ions, i.e. [M+H]+ and [M–H]– in the positive and the negative ion mode, respectively. Thus, identification and detection of signals and their corresponding compounds is facilitated in the acquired mass spectra. The focus of the first part of this study lies on the application, characterization and assessment of FAPA–MS in the offline mode, i.e. desorption and ionization of the analytes from surfaces. Experiments in both positive and negative ion mode revealed ionization patterns for a variety of compound classes comprising alkanes, alcohols, aldehydes, ketones, carboxylic acids, organic peroxides, and alkaloids. Besides the always emphasized detection of quasimolecular ions, a broad range of signals for adducts and losses was found. Additionally, the capabilities and limitations of the technique were studied in three proof-of-principle applications. In general, the method showed to be best suited for polar analytes with high volatilities and low molecular weights, ideally containing nitrogen- and/or oxygen functionalities. However, for compounds with low vapor pressures, containing long carbon chains and/or high molecular weights, desorption and ionization is in direct competition with oxidation of the analytes, leading to the formation of adducts and oxidation products which impede a clear signal assignment in the acquired mass spectra. Nonetheless, FAPA–MS showed to be capable of detecting and identifying common limonene oxidation products in secondary OA (SOA) particles on a filter sample and, thus, is considered a suitable method for offline analysis of OA particles. In the second as well as the subsequent parts, FAPA–MS was applied online, i.e. for real time analysis of OA particles suspended in air. Therefore, the acronym AeroFAPA–MS (i.e. Aerosol FAPA–MS) was chosen to refer to this method. After optimization and characterization, the method was used to measure a range of model compounds and to evaluate typical ionization patterns in the positive and the negative ion mode. In addition, results from laboratory studies as well as from a field campaign in Central Europe (F–BEACh 2014) are presented and discussed. During the F–BEACh campaign AeroFAPA–MS was used in combination with complementary MS techniques, giving a comprehensive characterization of the sampled OA particles. For example, several common SOA marker compounds were identified in real time by MSn experiments, indicating that photochemically aged SOA particles were present during the campaign period. Moreover, AeroFAPA–MS was capable of detecting highly oxidized sulfur-containing compounds in the particle phase, presenting the first real-time measurements of this compound class. Further comparisons with data from other aerosol and gas-phase measurements suggest that both particulate sulfate as well as highly oxidized peroxyradicals in the gas phase might play a role during formation of these species. Besides applying AeroFAPA–MS for the analysis of aerosol particles, desorption processes of particles in the afterglow region were investigated in order to gain a more detailed understanding of the method. While during the previous measurements aerosol particles were pre-evaporated prior to AeroFAPA–MS analysis, in this part no external heat source was applied. Particle size distribution measurements before and after the AeroFAPA source revealed that only an interfacial layer of OA particles is desorbed and, thus, chemically characterized. For particles with initial diameters of 112 nm, desorption radii of 2.5–36.6 nm were found at discharge currents of 15–55 mA from these measurements. In addition, the method was applied for the analysis of laboratory-generated core-shell particles in a proof-of-principle study. As expected, predominantly compounds residing in the shell of the particles were desorbed and ionized with increasing probing depths, suggesting that AeroFAPA–MS might represent a promising technique for depth profiling of OA particles in future studies.
Resumo:
Die Mikrophysik in Wolken bestimmt deren Strahlungseigenschaften und beeinflusst somit auch den Strahlungshaushalt des Planeten Erde. Aus diesem Grund werden im Rahmen der vorliegenden Arbeit die mikrophysikalischen Charakteristika von Cirrus-Wolken sowie von arktischen Grenzschicht-Wolken behandelt. Die Untersuchung dieser Wolken wurde mithilfe verschiedener Instrumente verwirklicht, welche Partikel in einem Durchmesserbereich von 250nm bis zu 6.4mm vermessen und an Forschungsflugzeugen montiert werden. Ein Instrumentenvergleich bestätigt, dass innerhalb der Bereiche in denen sich die Messungen dieser Instrumente überlappen, die auftretenden Diskrepanzen als sehr gering einzustufen sind. Das vorrangig verwendete Instrument trägt die Bezeichnung CCP (Cloud Combination Probe) und ist eine Kombination aus einem Instrument, das Wolkenpartikel anhand von vorwärts-gerichtetem Streulicht detektiert und einem weiteren, das zweidimensionale Schattenbilder einzelner Wolkenpartikel aufzeichnet. Die Untersuchung von Cirrus-Wolken erfolgt mittels Daten der AIRTOSS-ICE (AIRcraft TOwed Sensor Shuttle - Inhomogeneous Cirrus Experiment) Kampagne, welche im Jahr 2013 über der deutschen Nord- und Ostsee stattfand. Parameter wie Partikeldurchmesser, Partikelanzahlkonzentration, Partikelform, Eiswassergehalt, Wolkenhöhe und Wolkendicke der detektierten Cirrus-Wolken werden bestimmt und im Kontext des aktuellen Wissenstandes diskutiert. Des Weiteren wird eine beprobte Cirrus-Wolke im Detail analysiert, welche den typischen Entwicklungsprozess und die vertikale Struktur dieser Wolkengattung widerspiegelt. Arktische Grenzschicht-Wolken werden anhand von Daten untersucht, die während der VERDI (VERtical Distribution of Ice in Arctic Clouds) Kampagne im Jahr 2012 über der kanadischen Beaufortsee aufgezeichnet wurden. Diese Messkampagne fand im Frühling statt, um die Entwicklung von Eis-Wolken über Mischphasen-Wolken bis hin zu Flüssigwasser-Wolken zu beobachten. Unter bestimmten atmosphärischen Bedingungen tritt innerhalb von Mischphasen-Wolken der sogenannte Wegener-Bergeron-Findeisen Prozess auf, bei dem Flüssigwassertropfen zugunsten von Eispartikeln verdampfen. Es wird bestätigt, dass dieser Prozess anhand von mikrophysikalischen Messungen, insbesondere den daraus resultierenden Größenverteilungen, nachweisbar ist. Darüber hinaus wird eine arktische Flüssigwasser-Wolke im Detail untersucht, welche im Inneren das Auftreten von monomodalen Tröpfchen-Größenverteilungen zeigt. Mit zunehmender Höhe wachsen die Tropfen an und die Maxima der Größenverteilungen verschieben sich hin zu größeren Durchmessern. Dahingegen findet im oberen Übergangsbereich dieser Flüssigwasser-Wolke, zwischen Wolke und freier Atmosphäre, ein Wechsel von monomodalen zu bimodalen Tröpfchen-Größenverteilungen statt. Diese weisen eine Mode 1 mit einem Tropfendurchmesser von 20μm und eine Mode 2 mit einem Tropfendurchmesser von 10μm auf. Das dieses Phänomen eventuell typisch für arktische Flüssigwasser-Wolken ist, zeigen an dem Datensatz durchgeführte Analysen. Mögliche Entstehungsprozesse der zweiten Mode können durch Kondensation von Wasserdampf auf eingetragenen Aerosolpartikeln, die aus einer Luftschicht oberhalb der Wolke stammen oder durch Wirbel, welche trockene Luftmassen in die Wolke induzieren und Verdampfungsprozesse von Wolkentröpfchen hervorrufen, erklärt werden. Unter Verwendung einer direkten numerischen Simulation wird gezeigt, dass die Einmischung von trockenen Luftmassen in den Übergangsbereich der Wolke am wahrscheinlichsten die Ausbildung von Mode 2 verursacht.
Resumo:
Diese Arbeit beschreibt die Entwicklung, Konstruktion und Untersuchung eines Magnetometers zur exakten und präzisen Messung schwacher Magnetfelder. Diese Art von Magnetometer eignet sich zur Anwendung in physikalischen hochpräzisions Experimenten wie zum Beispiel der Suche nach dem elektrischen Dipolmomentrndes Neutrons. Die Messmethode beruht auf der gleichzeitigen Detektion der freien Spin Präzession Kern-Spin polarisierten 3He Gases durch mehrere optisch gepumpte Cäsium Magnetometer. Es wird gezeigt, dass Cäsium Magnetometer eine zuverlässige und vielseitige Methode zur Messung der 3He Larmor Frequenz und eine komfortable Alternative zur Benutzung von SQUIDs für diesen Zweck darstellen. Ein Prototyp dieses Magnetometers wurde gebaut und seine Funktion in der magnetisch abgeschirmten Messkabine der Physikalisch Technischen Bundesanstalt untersucht. Die Sensitivität des Magnetometers in Abhängigkeitrnvon der Messdauer wurde experimentell untersucht. Es wird gezeigt, dass für kurze Messperioden (< 500s) Cramér-Rao limitierte Messungen möglich sind während die Sensitivität bei längeren Messungen durch die Stabilität des angelegten Magnetfeldes limitiert ist. Messungen eines 1 muT Magnetfeldes mit einer relative Genauigkeit von besser als 5x10^(-8) in 100s werden präsentiert. Es wird gezeigt, dass die Messgenauigkeit des Magnetometers durch die Zahl der zur Detektion der 3He Spin Präzession eingesetzten Cäsium Magnetometer skaliert werden kann. Prinzipiell ist dadurch eine Anpassung der Messgenauigkeit an jegliche experimentellen Bedürfnisse möglich. Es wird eine gradiometrische Messmethode vorgestellt, die es erlaubt den Einfluss periodischerrnmagnetischer Störungen auf dieMessung zu unterdrücken. Der Zusammenhang zwischen der Sensitivität des kombinierten Magnetometers und den Betriebsparametern der Cäsium Magnetometer die zur Spin Detektion verwendet werden wird theoretisch untersucht und anwendungsspezifische Vor- und Nachteile verschiedener Betriebsartenwerden diskutiert. Diese Zusammenhänge werden in einer Formel zusammengefasst die es erlaubt, die erwartete Sensitivität des Magnetometers zu berechnen. Diese Vorhersagen befinden sich in perfekter Übereinstimmung mit den experimentellen Daten. Die intrinsische Sensitivität des Magnetometer Prototyps wird auf Basis dieser Formel theoretisch bestimmt. Ausserdem wird die erwartete Sensitivität für die Anwendung im Rahmen des Experiments der nächsten Generation zur Bestimmung des elektrischenrnDipolmoments des Neutrons am Paul Scherrer Institut abgeschätzt. Des weiteren wird eine bequeme experimentelle Methode zur Messung des Polarisationsgrades und des Rabi Flip-Winkels der 3He Kernspin Polarisation vorgestellt. Letztere Messung ist sehr wichtig für die Anwendung in hochpräzisions Experimenten.
Resumo:
This thesis assesses the question, whether accounting for non-tradable goods sectors in a calibrated Auerbach-Kotlikoff multi-regional overlapping-generations-model significantly affects this model’s results when simulating the economic impact of demographic change. Non-tradable goods constitute a major part of up to 80 percent of GDP of modern economies. At the same time, multi-regional overlapping-generations-models presented by literature on demographic change so far ignored their existence and counterfactually assumed perfect tradability between model regions. Moreover, this thesis introduces the assumption of an increasing preference share for non-tradable goods of old generations. This fact-based as-sumption is also not part of models in relevant literature. rnThese obvious simplifications of common models vis-à-vis reality notwithstanding, this thesis concludes that differences in results between a model featuring non-tradable goods and a common model with perfect tradability are very small. In other words, the common simplifi-cation of ignoring non-tradable goods is unlikely to lead to significant distortions in model results. rnIn order to ensure that differences in results between the ‘new’ model, featuring both non-tradable and tradable goods, and the common model solely reflect deviations due to the more realistic structure of the ‘new’ model, both models are calibrated to match exactly the same benchmark data and thus do not show deviations in their respective baseline steady states.rnA variation analysis performed in this thesis suggests that differences between the common model and a model with non-tradable goods can theoretically be large, but only if the bench-mark tradable goods sector is assumed to be unrealistically small.rnFinally, this thesis analyzes potential real exchange rate effects of demographic change, which could occur due to regional price differences of non-tradable goods. However, results show that shifts in real exchange rate based on these price differences are negligible.rn
Resumo:
Die Dissertation „Strategisches Innovationsmanagement von Buchverlagen im Kontext konvergierender Medienmärkte“ nimmt sich des Themengebiets der Innovation in Buchverlagen in Zeiten der Digitalisierung an. Grob gliedert die Arbeit sich in einen Theorieteil und einen Empirieteil. Den Einstieg in den Theorieteil bildet eine Einführung in die Themenstellung, in der das Erkenntnisinteresse anhand von vier forschungsleitenden Fragen eingegrenzt wird: rn1) „Welche Anforderungen an die Innovationsfähigkeit von Verlagen ergeben sich aus aktuellen und antizipierten zukünftigen Entwicklungen, insbesondere der Medienkonvergenz?“rn2) „Welchen Beitrag kann strategisches Innovationsmanagement leisten, um diesen Anforderungen mit erfolgreichen Innovationen gerecht zu werden?“ rn3) „Welches sind die kritischen Faktoren für erfolgreiches Innovieren im Buchverlag?“ rn4) „Wie kann erfolgsförderndes Innovationsmanagement in Buchverlage implementiert werden?“rnrnDer Ausgangspunkt ist dabei die Darstellung aktueller Entwicklungen im Buchmarkt, die in ihrer Relevanz für das Thema bewertet werden. Dabei stehen solche Veränderungen im Mediennutzungsverhalten und dem veränderten Marktumfeld im Fokus, aus denen resultiert, dass Verlage sich nicht mehr nur auf ihre tradierten Kernkompetenzen verlassen können. Der Medienkonvergenz wird in dem Kontext als Suprakategorie eine herausgehobene Bedeutung zuerkannt. Am Ende des dritten Kapitels wird resümierend erörtert, woraus für Verlage heute die Notwendigkeit innovativen Handelns erwächst. Damit findet auch eine Überleitung in das folgende Kapitel über Innovation im Buchverlag statt, das inhaltlich den Kern des Theorieteils der Arbeit bildet.rnrnIm Kapitel Innovation im Buchverlag wird zuerst eine definitorische Eingrenzung des Innovationsbegriffs vorgenommen. Dabei wird eine Entscheidung für den mehrdimensionalen Ansatz nach Hauschildt und Salomo als definitorisches Grundraster getroffen. Darauf folgt eine Einführung in theoretische Grundbegriffe und Konzepte des Innovationsmanagements. Im Folgenden finden Erkenntnisse aus der Innovationsforschung Anwendung auf Spezifika in Buchverlagen, wobei zunächst Handlungsfelder identifiziert werden. Eine wesentliche Rolle im Argumentationsgang der Arbeit spielen dann die Erfolgsfaktoren des Innovationsmanagements in Buchverlagen. Eine herausragende Stellung wird dabei dem Wissensmanagement zuerkannt. Es folgt darauf ein Unterkapitel über Innovationskooperation. Darin wird zunächst die strategische Relevanz von Kooperationen beleuchtet, wobei auch eine teils kritische Auseinandersetzung mit dem modernen Begriff der Open Innovation stattfindet. Dann wird dargestellt, wer sich als Kooperationspartner für Buchverlage eignet und welche Modi des kooperativen Innovierens existieren. Es folgen darauf Ausführungen zur Implementierung einer Innovationsstrategie, wobei sowohl aufbau- als auch ablauforganisatorische Aspekte zum Tragen kommen. Im Mittelpunkt steht dabei die Darstellung des Stage-Gate-Modells als Ansatz für die Ablaufplanung von Innovationsprozessen in Buchverlagen. Wegen seiner guten Skalierbarkeit wird diesem Ansatz eine Eignung sowohl für kleine als auch mittelgroße und große Verlage zuerkannt. Den Abschluss des Kapitels über Innovation im Buchverlag bilden Betrachtungen über die rechtliche und technische Absicherung von Innovationen. rnrnDer empirische Teil der Arbeit wird eingeläutet mit einer Herleitung empirischer Fragestellungen. Dies geschieht zum einen auf der Grundlage einer Betrachtung, welche Erkenntnislücken die rein theoretische Auseinandersetzung mit dem Thema offengelassen hat. Die empirischen Fragestellungen bilden das Grundgerüst, auf dem im Folgenden die Ergebnisse einer qualitativen Maßnahme in Form von Interviews und einer quantitativen Maßnahme in Form einer Befragung per Fragebogen dargestellt werden. In der Auswertung der Ergebnisse werden dabei zunächst Hypothesen aus den Fallstudien gebildet, die auf Grundlage der Interviews entstanden sind. Diese Hypothesen werden anhand der Daten, die bei der Erhebung per Fragebogen gewonnen wurden, mit statistischen Methoden überprüft.rnrnDen Abschluss der Arbeit bildet eine Schlussbetrachtung, in der die gewonnenen Erkenntnisse verdichtet und vor dem Hintergrund der eingangs gestellten forschungsleitenden Fragen als Quintessens der Arbeit präsentiert werden. Zu jeder forschungsleitenden Frage findet dabei ein kurzes Resümee statt. Als größte Anforderung an die Innovationsfähigkeit von Verlagen wird darin erkannt, den Modus der eigenen Wertschöpfung kontinuierlich zu aktualisieren und an die dynamischen Veränderungen im Umfeld anzupassen. Dem strategischen Innovationsmanagement kommt dabei vor allem die Bedeutung zu, dass es ein konsistentes Handeln ermöglicht, das als Voraussetzung für die Planbarkeit von Innovationserfolgen gesehen wird. Auch erscheint es zunehmend wichtig, den Paradigmenwechsel weg vom Denken in Produktkategorien hin zu einem Denken in Problemlösungskategorien zu vollziehen, wobei ein strategisches Innovationsmanagement Buchverlagen hilfreich sein kann.rn