93 resultados para real von Neumann measurement


Relevância:

30.00% 30.00%

Publicador:

Resumo:

In dieser Arbeit wurden die OH-Radikalausbeuten beider Doppelbindungen von alpha-Phellandren, alpha-Terpinen, Limonen und Terpinolen bei der Ozonolyse getrennt voneinander bestimmt. Dabei wurde sich die hohe zeitliche Auflösung des PTR-MS zunutze gemacht. Es wurden die OH-Radikale mittels Cyclohexan abgefangen und aus dem daraus gebildeten Cyclohexanon die OH-Radikalausbeute berechnet. Dadurch konnten zum ersten Mal die OH-Radikalausbeuten der langsamer reagierenden Doppelbindung bestimmt werden. Es ergaben sich für alpha-Phellandren 8%11% (±3%), alpha-Terpinen 12%14% (±4%), Limonen 7%10% (±3%) und für Terpinolen 39%48% (±14%). Desweiteren wurde eine theoretische Diskussion über den Reaktionsmechanismus der Ozonolyse und dem daraus gebildetem Criegee-Intermediat durchgeführt. Dadurch konnten die OH-Radikalausbeuten erklärt werden und eine Voraussage über die OH-Radikalausbeute bei anderen Verbindungen ist mit diesen Überlegungen möglich. In einer Messkampagne in Paris konnten verschiedene VOCs und andere atmosphärisch relevante Komponenten wie Ozon, CO, NO2 und NO gemessen werden. Aus diesen Daten wurde zum einen ein Datenpaket in Igor gefertigt, welches die Interpretation der Daten erleichtern sollte. Zum anderen wurden die Daten mit einem PMF-Model analysiert.Durch die Analyse verschiedener Komponenten konnte die Frage beantwortet werden, ob die Lösungsmittelindustrie in und um Paris einen großen Einfluss auf die Konzentrationen gewisser Komponenten in der Luft hat. Über die Korrelation von Benzol und Toluol mit schwarzem Kohlenstoff und den typischen Tagesverlauf mit zwei Konzentrationsmaxima dieser Komponenten konnte gezeigt werden, dass als Hauptquelle diese beiden Stoffe nur der Straßenverkehr infrage kommt. Desweiteren konnte gezeigt werden, dass die Luftmassen die Paris erreichen einen großen Einfluss auf die Konzentration gewisser Komponenten in der Luft haben. Dadurch konnte gut zwischen lokalen Quellen und weit transportierten VOCs unterschieden werden. Schließlich konnten über das PFM-Model ein Großteil der in Paris gemessenen Substanzen in sieben unterschiedliche Quellen eingeteilt werden und deren prozentualer Einfluss während ozeanischer Luftmassen und kontinentalen Luftmassen bestimmt werden. Um Bestandteile von organischem Aerosol mithilfe eines PTR-MS und dessen schonender Ionisationstechnik detektieren zu können, wurde erfolgreich ein Einlass für das PTR-MS entwickelt der es ermöglicht neben den Messungen von VOCs in der Gasphase auch organisches Aerosol zu sammeln, desorbieren und zu detektieren. Zu Testen des neuen Einlasses wurden verschiedene Laborexperimente durchgeführt und es wurde eine Messkampagne in Cabauw (nahe Utrecht, NL) durchgeführt. Die Labortests des neuen Einlasses zeigen, dass es möglich ist organisches Aerosol und VOCs (Aerosol Precurser) in der Gasphase mit einem einzelnen Instrument zu messen. Dazu wurden in einer Smog Chamber Isopren, alpha-Pinen, Limonen und beta-Caryophyllen jeweils mit Ozon zur Reaktion gebracht. Die Messungen in der Gasphase zeigten, dass verschiedene Komponenten wie gewohnt mit hoher Zeitauflösung durch das PTR-MS detektiert werden konnten. Die Messungen des Aerosols zeigten, dass es möglich ist, viele der aus den Reaktionen bekannten Produkte direkt oder mit geringer Fragmentation zu detektieren. Die Messkampagne in Cabauw zeigte, dass es mit diesem Einlass möglich ist über einen langen Zeitraum Aerosol und VOCs mit nur einem Instrument zu messen. Die Gasphasenmessungen sind unbeeinflusst von den Modifikationen, die an dem PTR-MS und der Driftröhre vorgenommen werden mussten um Aerosol detektieren zu können. Desweiteren konnte gezeigt werden, dass sich natürliches organisches Aerosol von Aerosol aus einer Smog Chamber im Dampfdruck unterscheidet. Deswegen muss man vorsichtig sein, falls man diese zwei Aerosolarten miteinander vergleichen will.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Atmospheric aerosol particles serving as cloud condensation nuclei (CCN) are key elements of the hydrological cycle and climate. Knowledge of the spatial and temporal distribution of CCN in the atmosphere is essential to understand and describe the effects of aerosols in meteorological models. In this study, CCN properties were measured in polluted and pristine air of different continental regions, and the results were parameterized for efficient prediction of CCN concentrations.The continuous-flow CCN counter used for size-resolved measurements of CCN efficiency spectra (activation curves) was calibrated with ammonium sulfate and sodium chloride aerosols for a wide range of water vapor supersaturations (S=0.068% to 1.27%). A comprehensive uncertainty analysis showed that the instrument calibration depends strongly on the applied particle generation techniques, Köhler model calculations, and water activity parameterizations (relative deviations in S up to 25%). Laboratory experiments and a comparison with other CCN instruments confirmed the high accuracy and precision of the calibration and measurement procedures developed and applied in this study.The mean CCN number concentrations (NCCN,S) observed in polluted mega-city air and biomass burning smoke (Beijing and Pearl River Delta, China) ranged from 1000 cm−3 at S=0.068% to 16 000 cm−3 at S=1.27%, which is about two orders of magnitude higher than in pristine air at remote continental sites (Swiss Alps, Amazonian rainforest). Effective average hygroscopicity parameters, κ, describing the influence of chemical composition on the CCN activity of aerosol particles were derived from the measurement data. They varied in the range of 0.3±0.2, were size-dependent, and could be parameterized as a function of organic and inorganic aerosol mass fraction. At low S (≤0.27%), substantial portions of externally mixed CCN-inactive particles with much lower hygroscopicity were observed in polluted air (fresh soot particles with κ≈0.01). Thus, the aerosol particle mixing state needs to be known for highly accurate predictions of NCCN,S. Nevertheless, the observed CCN number concentrations could be efficiently approximated using measured aerosol particle number size distributions and a simple κ-Köhler model with a single proxy for the effective average particle hygroscopicity. The relative deviations between observations and model predictions were on average less than 20% when a constant average value of κ=0.3 was used in conjunction with variable size distribution data. With a constant average size distribution, however, the deviations increased up to 100% and more. The measurement and model results demonstrate that the aerosol particle number and size are the major predictors for the variability of the CCN concentration in continental boundary layer air, followed by particle composition and hygroscopicity as relatively minor modulators. Depending on the required and applicable level of detail, the measurement results and parameterizations presented in this study can be directly implemented in detailed process models as well as in large-scale atmospheric and climate models for efficient description of the CCN activity of atmospheric aerosols.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Ozon (O3) ist in der Atmosphäre ein wichtiges Oxidanz und Treibhausgas. Während die höchsten Konzentrationen in der Stratosphäre beobachtet werden und die vor der gefährlichen UV-Strahlung schützende Ozonschicht bilden, können sich signifikante Änderungen der Ozon-Konzentration in der Region der Tropopause auf das Klima der Erde auswirken. Des Weiteren ist Ozon eine der Hauptquellen für das Hydroxylradikal (OH) und nimmt damit entscheidend Einfluss auf die Oxidationskraft der Atmosphäre. Der konvektive Transport von Ozon und seinen Vorläufergasen aus Regionen nahe der Erdoberfläche in die freie Troposphäre beeinflusst das Budget dieser Spezies in der Tropopausenregion.rnDie Datengrundlage der Studie in der vorliegenden Arbeit basiert auf den flugzeuggetragenen Messkampagnen GABRIEL 2005 (Suriname, Südamerika) sowie HOOVER I 2006 und HOOVER II 2007 (beide in Europa). Mit dem zur Verfügung stehenden Datensatz wird das Ozonbudget in der freien, unbelasteten Hintergrundatmosphäre und in der durch hochreichende Konvektion gestörten, oberen Troposphäre untersucht. Anhand der auf in-situ Messungen von O3, NO, OH, HO2 und dem aktinischen Strahlungsfluss basierten Berechnung der Netto-Ozonproduktionsrate (NOPR) werden für das Messgebiet Ozontendenzen in der unbelasteten Troposphäre abgeleitet und mit Simulationen des globalen Chemie-Transport-Modells MATCH-MPIC verglichen. Mit Hilfe zweier Fallstudien in den Tropen in Südamerika und den mittleren Breiten in Europa werden die Auswirkungen von hochreichender Konvektion auf die obere Troposphäre quantifiziert.rnDie Ergebnisse zeigen für die Grenzschicht in niedrigen und mittleren Breiten eine eindeutige Tendenz zur Produktion von Ozon, was für den tropischen Regenwald in der Messregion nicht der allgemeinen Erwartung entsprach, nach der diese Region durch die Zerstörung von Ozon charakterisiert sein sollte. In der oberen Troposphäre ab etwa 7 km wird für die beiden Regionen eine leichte Tendenz zur Ozonproduktion beobachtet. Signifikante Unterschiede zeigen die Ergebnisse für die mittlere Troposphäre. Während die Tropen in dieser Region durch eine eindeutige Tendenz zur Zerstörung von Ozon charakterisiert sind, lässt sich über den mittleren Breiten zwar eine hohe photochemische Aktivität aber keine derart klare Tendenz feststellen. Die hohen Breiten zeichnen sich durch eine neutrale Troposphäre in Bezug auf die Ozontendenz aus und weisen kaum photochemische Aktivität auf. Der Vergleich dieser Ergebnisse mit dem MATCH-MPIC Modell zeigt in weiten Teilen der Messregionen eine grundlegende Übereinstimmung in der Tendenz zur Produktion oder Zerstörung von Ozon. Die absoluten Werte werden vom Modell aber generell unterschätzt. Signifikante Unterschiede zwischen in-situ Daten und Modellsimulationen werden in der Grenzschicht über dem tropischen Regenwald identifiziert.rnDer Einfluss der Konvektion ist durch eine signifikant erhöhte NOPR gekennzeichnet. In dieser Arbeit wird in den Tropen mit einem Median-Wert von 0.20 ppbv h−1 eine um den Faktor 3.6 erhöhte NOPR im Vergleich zur ungestörten oberen Troposphäre abgeschätzt. In den mittleren Breiten führt die um eine Größenordnung höhere NO-Konzentration zu einem Wert von 1.89 ppbv h−1, was einer Überhöhung um einen Faktor 6.5 im Vergleich zum ungestörten Zustand entspricht. Diese Ergebnisse zeigen für beide Regionen in der oberen Troposphäre eine erhöhte Ozonproduktion als Folge konvektiver Aktivität. rnrnHochreichende Konvektion ist zudem ein sehr effektiver Mechanismus für den Vertikaltransport aus der Grenzschicht in die obere Troposphäre. Die schnelle Hebung in konvektiven Wolken führt bei Spurengasen mit Quellen an der Erdoberfläche zu einer Erhöhung ihrer Konzentration in der oberen Troposphäre. Die hochgradig löslichen Spurenstoffe Formaldehyd (HCHO) und Wasserstoffperoxid (H2O2) sind wichtige Vorläufergase der HOx-Radikale. Es wird angenommen, dass sie aufgrund ihrer Löslichkeit in Gewitterwolken effektiv ausgewaschen werden.rnIn der vorliegenden Arbeit wird eine Fallstudie von hochreichender Konvektion im Rahmen des HOOVER II Projekts im Sommer 2007 analysiert. Am 19.07.2007 entwickelten sich am Nachmittag am Südostrand eines in nordöstlicher Richtung ziehenden mesoskaligen konvektiven Systems drei zunächst isolierte konvektive Zellen. Flugzeuggetragene Messungen in der Aus- und der Einströmregion einer dieser Gewitterzellen stellen einen exzellenten Datensatz bereit, um die Auswirkungen von hochreichender Konvektion auf die Verteilung verschiedener Spurengase in der oberen Troposphäre zu untersuchen. Der Vergleich der Konzentrationen von Kohlenstoffmonoxid (CO) und Methan (CH4) zwischen der oberen Troposphäre und der Grenzschicht deutet auf einen nahezu unverdünnten Transport dieser langlebigen Spezies in der konvektiven Zelle hin. Die Verhältnisse betragen (0.94±0.04) für CO und (0.99±0.01) für CH4. Für die löslichen Spezies HCHO und H2O2 beträgt dieses Verhältnis in der Ausströmregion (0.55±0.09) bzw. (0.61±0.08). Dies ist ein Indiz dafür, dass diese Spezies nicht so effektiv ausgewaschen werden wie angenommen. Zum besseren Verständnis des Einflusses der Konvektion auf die Budgets dieser Spezies in der oberen Troposphäre wurden im Rahmen dieser Arbeit Boxmodell-Studien für den Beitrag der photochemischen Produktion in der Ausströmregion durchgeführt, wobei die gemessenen Spezies und Photolysefrequenzen als Randbedingungen dienten. Aus den Budgetbetrachtungen für HCHO und H2O2 wird eine Auswascheffizienz von (67±24) % für HCHO und (41±18) % für H2O2 abgeschätzt. Das für H2O2 überraschende Ergebnis lässt darauf schließen, dass dieses Molekül in einer Gewitterwolke deutlich effektiver transportiert werden kann, als aufgrund seiner hohen Löslichkeit aus der Henry-Konstanten zu erwarten wäre. Das Ausgasen von gelöstem H2O2 beim Gefrieren eines Wolkentropfens, d.h. ein Retentionskoeffizient kleiner 1, ist ein möglicher Mechanismus, der zum beobachteten Mischungsverhältnis dieser löslichen Spezies in der Ausströmregion beitragen kann.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The electromagnetic form factors of the proton are fundamental quantities sensitive to the distribution of charge and magnetization inside the proton. Precise knowledge of the form factors, in particular of the charge and magnetization radii provide strong tests for theory in the non-perturbative regime of QCD. However, the existing data at Q^2 below 1 (GeV/c)^2 are not precise enough for a hard test of theoretical predictions.rnrnFor a more precise determination of the form factors, within this work more than 1400 cross sections of the reaction H(e,e′)p were measured at the Mainz Microtron MAMI using the 3-spectrometer-facility of the A1-collaboration. The data were taken in three periods in the years 2006 and 2007 using beam energies of 180, 315, 450, 585, 720 and 855 MeV. They cover the Q^2 region from 0.004 to 1 (GeV/c)^2 with counting rate uncertainties below 0.2% for most of the data points. The relative luminosity of the measurements was determined using one of the spectrometers as a luminosity monitor. The overlapping acceptances of the measurements maximize the internal redundancy of the data and allow, together with several additions to the standard experimental setup, for tight control of systematic uncertainties.rnTo account for the radiative processes, an event generator was developed and implemented in the simulation package of the analysis software which works without peaking approximation by explicitly calculating the Bethe-Heitler and Born Feynman diagrams for each event.rnTo separate the form factors and to determine the radii, the data were analyzed by fitting a wide selection of form factor models directly to the measured cross sections. These fits also determined the absolute normalization of the different data subsets. The validity of this method was tested with extensive simulations. The results were compared to an extraction via the standard Rosenbluth technique.rnrnThe dip structure in G_E that was seen in the analysis of the previous world data shows up in a modified form. When compared to the standard-dipole form factor as a smooth curve, the extracted G_E exhibits a strong change of the slope around 0.1 (GeV/c)^2, and in the magnetic form factor a dip around 0.2 (GeV/c)^2 is found. This may be taken as indications for a pion cloud. For higher Q^2, the fits yield larger values for G_M than previous measurements, in agreement with form factor ratios from recent precise polarized measurements in the Q2 region up to 0.6 (GeV/c)^2.rnrnThe charge and magnetic rms radii are determined as rn⟨r_e⟩=0.879 ± 0.005(stat.) ± 0.004(syst.) ± 0.002(model) ± 0.004(group) fm,rn⟨r_m⟩=0.777 ± 0.013(stat.) ± 0.009(syst.) ± 0.005(model) ± 0.002(group) fm.rnThis charge radius is significantly larger than theoretical predictions and than the radius of the standard dipole. However, it is in agreement with earlier results measured at the Mainz linear accelerator and with determinations from Hydrogen Lamb shift measurements. The extracted magnetic radius is smaller than previous determinations and than the standard-dipole value.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Das Ziel der Dissertation war die Synthese und pharmakologische Charakterisierung von COX-1-, COX-2- und 5-LOX-Inhibitoren, die zur Behandlung entzündlicher Dermatosen für die topische Anwendung geeignet sein sollten. Hierfür wurden zwei Strukturklassen - die sogenannten Imidazothiazole und die Chalcone-Derivate - entworfen und synthetisiert sowie in verschiedenen in vitro-Testsystemen auf ihre pharmakologische Wirksamkeit untersucht. rnDie Leitsubstanz der ersten Strukturklasse wurde in Anlehnung an die Struktur von Licofelon entworfen. Licofelon ist ein dualer COX/LOX-Inhibitor, der für die Indikation Osteoarthritis eingesetzt werden soll. Durch den Austausch einzelner Substituenten an den Phenylringen wurde die Leitstruktur schrittweise verändert, um die Wirksamkeit zu optimieren. Die Substituentenvariation erfolgte anhand des sogenannten Topliss-Schemas. Bei der zweiten Substanzklasse wurde durch Kombination zweier antiinflammatorisch wirksamer Molekülgruppen - mit dem Ziel eines synergistischen Effekts - eine Grundstruktur entwickelt, die zur Optimierung der Wirksamkeit derivatisiert wurde. Als Komponenten dienten 4,5-Bis(4-methoxyphenyl)-1H-imidazol-2-thiol (Z11) und ein Chalcon. Z11 ist sowohl in der Literatur als auch in vorangegangen Arbeiten des Arbeitskreises als dualer COX/LOX-Inhibitor beschrieben. Chalcone besitzen eine 1,3-Diphenylpropenon-Partialstruktur und können über einen der beiden Phenylringe mit Z11 verknüpft werden. In der Literatur wurde vielfach über die vielfältigen pharmakologischen Eigenschaften der Chalcone berichtet; im Rahmen dieser Arbeit stand deren antiinflammatorische Eigenschaft im Vordergrund. rnZur Beurteilung der Effektivität und Toxizität der Substanzen wurden diese anschließend pharmakologisch charakterisiert werden. Hierfür standen verschiedene in vitro-Testsysteme zur Verfügung, die Aufschluss über die COX-1-, COX-2- und 5-LOX-Inhibition der synthetisierten Substanzen gaben. Des Weiteren wurden die Substanzen auf eine mögliche inhibitorische Aktivität gegenüber TNF- untersucht. Da die Entwicklung der Testverbindungen mit dem Ziel der topischen Anwendung erfolgte, wurde eine log P-Wert-Bestimmung durchgeführt, um eine Aussage über die Lipophilie der Verbindungen treffen zu können.rn

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Ein sorgfältiges INR-Monitoring ist wichtig für eine sichere und effektive Vitamin-K-antagonistische Therapie (VKA). Einer von vielen Faktoren, welcher die Einhaltung des INR-ZSB beeinflusst, ist die Compliance. Im Rahmen der vorliegenden Arbeit wurde erstmals die Effektivität einer intensiven medizinisch-pharmazeutischen Betreuung von Patienten mit Phenprocoumon-Therapie, unter besonderer Berücksichtung der Compliance, untersucht. 71 Patienten mit VKA-Therapie (Interventionsgruppe (IG) und Kontrollgruppe (KG)) wurden in die prospektive Studie eingeschlossen und über 6 Monate beobachtet. Patienten der IG erfuhren eine intensive medizinisch-pharmazeutische Betreuung im Thrombosedienst. Die Patienten der Kontrollgruppe wurden vom Hausarzt betreut. Zusätzlich fand eine Compliance-Messung mittels OtCM-Blistern (Objective-therapy-compliance-measurement-system) statt. Während die Compliance der Kontrollgruppe retrospektiv am Ende des Beobachtungszeitraums ausgewertet wurde, erfuhren die Patienten der Interventionsgruppe ein „real-time“ Monitoring der Phenprocoumon-Entnahme aus den Blistern. Nach per Protokoll-Analyse konnten die Daten von 58 Patienten ausgewertet werden. Patienten der IG zeigten eine signifikant bessere INR-Einhaltung im ZSB (Time in Therapeutic Range (TTR) 74%) im Vergleich zur Kontrollgruppe (TTR 53%; p= 0,001). Die verschiedenen gemessenen Compliance-Raten (Dosing-, Taking-, Timing Compliance und Drug Holidays) waren in der IG höher als in der KG. Patienten mit einer höheren TTR waren tendenziell besser compliant. Spezialisierte medizinisch-pharmazeutische Betreuung hat einen positiven Effekt auf das Outcome der VKA-Therapie.rnrn

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Flüchtige organische Verbindungen (volatile organic compounds, VOCs), besonders rnTerpene, gelten als Vorläufer des sekundären organischen Aerosols (secondary rnorganic aerosols, SOA). Terpene werden von Pflanzen zur Abwehr oder zur rnAttraktion von Bestäubern emittiert. Ungesättigten Verbindungen, wie Sesquiterpene, rnsind sehr ozonolyseempfindlich und weisen nur geringe Konzentrationen in der rnAtmosphäre auf. Zudem lassen sie sich mit handelsüblichen rnThermodesorptionseinheiten meist nicht ohne Artefakte nachweisen, da sie eine hohe rnReaktivität mit vielen Oberflächen zeigen. rnDiese Arbeit präsentiert Forschungsergebnisse der qualitativen und rn(semi)quantitativen Auswertungen flüchtiger organischer Verbindungen in rnLaborstudien und biogenen Emissionsproben (Feldmessungen) mittels rnThermodesorption-Gaschromatographie-Massenspektrometrie (TD-GC/MS). Speziell rnzur Analyse hochreaktiver Verbindungen wurde eine Thermodesorptionseinheit für die rnGC/MS entwickelt. Diese besteht aus einer Kryofokussierung, einem Desorptionsofen rnund einer Heizung. Die Steuerung erfolgt über eine eigens dafür geschaffene rnBedienoberf läche von Labview® an einem PC über eine nachgeschaltete SPS rn(speicherprogrammierbare Steuerung). Das komplette Desorptionsprogramm und der rnStart der GC/MS-Analyse wurden automatisiert. rnDie Quantifizierung alle Proben wurde über Diffusionsquellen und rnVergleichsmessungen durch auf Adsorptionsröhrchen aufgebrachte rnVerdünnungsreihen realisiert. Um Informationen über die mutmaßlichen Vorläufer des rnsekundären organischen Aerosols zu erhalten, wurde zudem eine Ozon-Scrubber-rnMethode basierend auf Propen entwickelt. Diese wurde anhand von Standards in einer rnReaktionskammer getestet und in Feldmessungen erfolgreich angewendet. rnQuantitative Analysen zeigen, dass die meisten Terpene so vollständig vor der rnOzonolyse bewahrt werden können. Für hochreaktive Analyte wie α-Humulen oder rnβ-Caryophyllen wurden Wiederfindungsraten von über 80 % erreicht. So konnte die rnTemperaturabhängigkeit der Terpen-Emissionen der Fichte (Picea abies) in rnFeldmessungen nachgewiesen werden. rnEine weitere Anwendungsmöglichkeit wurde mit der Unterscheidung verschiedener rnArten der gleichen Gattung anhand der Emissionsmuster und der möglichen rnAbgrenzung verschiedener Bestäubertypen am Beispiel der Gattung Salvia untersucht. rnDie Emissionsanalysen zeigen, dass eine Zuordnung der Verwandtschaftsverhältnisse rnzusätzlich zu anderen Vergleichen möglich ist. Das gleiche gilt für die Differenzierung rnvon Bestäubertypen. Die Ergebnisse der Feldmessungen wurden durch rnMethodenvergleich zwischen biogenen Emissionsmessungen mit anschließender rnTD-GC/MS-Analyse und Extraktionen der jeweiligen Blüten/Blätter mit rnanschließender GC/MS-Messung bestätigt.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Im Zuge dieser Arbeit ist ein Massenspektrometer zur flugzeuggetragenen Messung von HNO3 und HONO auf dem neuen deutschen Forschungsflugzeug HALO aufgebaut worden (AIMS - Atmospheric chemical Ionization Mass Spectrometer). Die Ionisation der HNO3- und HONO-Moleküle erfolgt chemisch durch Reaktion mit SF5- -Ionen. Basierend auf den Ergebnissen von Laborversuchen wurden die Betriebsparameter optimiert, die Einzelkomponenten im HALO-Rack zusammengestellt und eine Einlassleitung entworfen, die Wandeffekte minimiert und Untergrundmessungen und HNO3-Kalibrationen im Flug ermöglicht. Die Empfindlichkeit der Messung von HNO3 und HONO wurde ebenso im Labor untersucht wie Interferenzen mit Wasserdampf und Ozon. Die HONO-Vergleichskampagne FIONA am Europäischen Photoreaktor (EUPHORE) in Valencia war die erste Messkampagne mit AIMS. Bei den offenen Vergleichsmessungen stimmten die von AIMS gemessenen HONO-Mischungsverhältnisse innerhalb +-20% mit dem Median von 9 weiteren HONO-Messungen überein. Die ersten flugzeuggetragenen Messungen mit AIMS werden im Verlauf der HALO-Missionen ML-CIRRUS und TACTS stattfinden. Neben dem Aufbau und der Charakterisierung von AIMS war die Analyse der Aufnahme von HNO3 in Eispartikel von Kondensstreifen und Zirren Gegenstand dieser Arbeit. Die Aufnahme von HNO3 in Kondensstreifeneispartikel wurde erstmals systematisch anhand einer Flugzeugmesskampagne (CIRRUS-III) untersucht. Während CIRRUS-III im November 2006 wurden Zirren und zufällig knapp 40 persistente Kondensstreifen über Deutschland und Nordeuropa beprobt. Die Messungen fanden in Höhen zwischen 10 und 11.5 km und bei Temperaturen zwischen 210 und 230 K statt. Die HNO3-Konzentration wurde mit Hilfe von NOy-Messungen bestimmt. Im Mittel war in Kondensstreifen ein größerer Anteil des Gesamt-HNO3 in den Eispartikeln gebunden (6 %) als in Zirren (3 %). Das Gasphasenäquivalent des eisgebundenen HNO3 betrug in Zirren durchschnittlich 6 pmol/mol, in Kondensstreifen 14 pmol/mol und in jungen Kondensstreifen (Alter<1 h) 21 pmol/mol. Das Mischungsverhältnis von HNO3 zu H2O in Eispartikeln war in Kondensstreifen leicht höher als in Zirren unter ähnlichen meteorologischen Bedingungen. Ursächlich für die höheren Werte in persistenten Kondensstreifen sind wahrscheinlich die hohen HNO3-Konzentrationen in den Abgasfahnen der Flugzeuge bei der Kondensstreifenbildung. Die beobachtete Abnahme des HNO3/H2O-Molverhältnisses mit zunehmendem Effektivdurchmesser der Eispartikel deutet an, dass die HNO3-Konzentrationen in Eispartikeln von jungen Kondensstreifen durch die Aufnahme von Abgas-HNO3 in die gefrierenden Aerosolpartikel bestimmt wird. Die Konzentrationen in älteren Kondensstreifen werden zunehmend durch das Vergraben von Umgebungs-HNO3 in wachsenden Eispartikeln kontrolliert. Diese Studie leistet einen Beitrag zu einem besseren Prozessverständnis der HNO3-Aufnahme in atmosphärische Eispartikel. Sie motiviert die Nutzung persistenter Kondensstreifen als atmosphärisches Labor zur Untersuchung der Spurengasaufnahme in wachsende Eispartikel.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Die Analyse tandem-repetitiver DNA-Sequenzen hat einen festen Platz als genetisches Typisierungsverfahren in den Breichen der stammesgeschichtlichen Untersuchung, der Verwandtschaftsanalyse und vor allem in der forensischen Spurenkunde, bei der es durch den Einsatz der Multiplex-PCR-Analyse von Short Tandem Repeat-Systemen (STR) zu einem Durchbruch bei der Aufklärung und sicheren Zuordnung von biologischen Tatortspuren kam. Bei der Sequenzierung des humanen Genoms liegt ein besonderes Augenmerk auf den genetisch polymorphen Sequenzvariationen im Genom, den SNPs (single nucleotide polymorphisms). Zwei ihrer Eigenschaften – das häufige Vorkommen innerhalb des humanen Genoms und ihre vergleichbar geringe Mutationsrate – machen sie zu besonders gut geeigneten Werkzeugen sowohl für die Forensik als auch für die Populationsgenetik.rnZum Ziel des EU-Projekts „SNPforID“, aus welchem die vorliegende Arbeit entstanden ist, wurde die Etablierung neuer Methoden zur validen Typisierung von SNPs in Multiplexverfahren erklärt. Die Berücksichtigung der Sensitivität bei der Untersuchung von Spuren sowie die statistische Aussagekraft in der forensischen Analyse standen dabei im Vordergrund. Hierfür wurden 52 autosomale SNPs ausgewählt und auf ihre maximale Individualisierungsstärke hin untersucht. Die Untersuchungen der ersten 23 selektierten Marker stellen den ersten Teil der vorliegenden Arbeit dar. Sie umfassen die Etablierung des Multiplexverfahrens und der SNaPshot™-Typisierungsmethode sowie ihre statistische Auswertung. Die Ergebnisse dieser Untersuchung sind ein Teil der darauf folgenden, in enger Zusammenarbeit der Partnerlaboratorien durchgeführten Studie der 52-SNP-Multiplexmethode. rnEbenfalls im Rahmen des Projekts und als Hauptziel der Dissertation erfolgten Etablierung und Evaluierung des auf der Microarray-Technologie basierenden Verfahrens der Einzelbasenverlängerung auf Glasobjektträgern. Ausgehend von einer begrenzten DNA-Menge wurde hierbei die Möglichkeit der simultanen Hybridisierung einer möglichst hohen Anzahl von SNP-Systemen untersucht. Die Auswahl der hierbei eingesetzten SNP-Marker erfolgte auf der Basis der Vorarbeiten, die für die Etablierung des 52-SNP-Multiplexes erfolgreich durchgeführt worden waren. rnAus einer Vielzahl von Methoden zur Genotypisierung von biallelischen Markern hebt sich das Assay in seiner Parallelität und der Einfachheit des experimentellen Ansatzes durch eine erhebliche Zeit- und Kostenersparnis ab. In der vorliegenden Arbeit wurde das „array of arrays“-Prinzip eingesetzt, um zur gleichen Zeit unter einheitlichen Versuchsbedingungen zwölf DNA-Proben auf einem Glasobjektträger zu typisieren. Auf der Basis von insgesamt 1419 typisierten Allelen von 33 Markern konnte die Validierung mit einem Typisierungserfolg von 86,75% abgeschlossen werden. Dabei wurden zusätzlich eine Reihe von Randbedingungen in Bezug auf das Sonden- und Primerdesign, die Hybridisierungsbedingungen sowie physikalische Parameter der laserinduzierten Fluoreszenzmessung der Signale ausgetestet und optimiert. rn

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Durch die Möglichkeit, gleichzeitig mehrere Polarisationsfreiheitsgradernin der quasi-elastischen Elektronstreuung an $^3mathrm{He}$ zurnmessen, bietet sich ein neuer experimenteller Zugang zu kleinen, aber rnwichtigen Partialwellenbeiträgen ($S'$, $D$-Welle) desrn$^3mathrm{He}$-Grundzustands. Dies ermöglicht nicht nur ein tieferesrnVerständnis des Drei-Körper-Systems, sondern bietet auch diernMöglichkeit, Erkenntnisse über die $^3mathrm{He}$-Struktur undrnDynamik zu erlangen. Mit Hilfe dieser Informationen lassen sich abrninitio Rechnungen testen, sowie Korrekturen berechnen, die für anderernExperimente (z.B. Messung von $G_{en}$) benötigt werden. rnrnModerne Faddeev-Rechnungen liefern nicht nur eine quantitativernBeschreibung des $^3mathrm{He}$-Grundzustands, sondern geben auchrneinen Einblick in die sogenannten spinabhängigenrnImpulsverteilungen. Eine gründliche experimentelle Untersuchung ist in rndiesem Zusammenhang nötig, um eine solide Basis für die Üperprüfungrnder theoretische Modelle zu liefern. EinrnDreifach-Polarisationsexperiment liefert hier zum einen wichtigernDaten, zum anderen kann damit untersucht werden, ob mit der Methoderndes glqq Deuteron-Tagginggrqq polarisiertes $^3mathrm{He}$ alsrneffektives polarisiertes Protonentarget verwendet werden kann. rnrnDas hier vorgestellte Experiment kombiniert erstmals Strahl- undrnTargetpolarisation sowie die Messung der Polarisation des auslaufendenrnProtons. Das Experiment wurde im Sommer 2007 an derrnDrei-Spektrometer-Anlage der A1-Kollaboration an MAMI rndurchgeführt. Dabei wurde mit einer Strahlenergie vonrn$E=855,mathrm{MeV}$ bei $q^2=-0,14,(mathrm{GeV/c})^2$rn$(omega=0,13,mathrm{GeV}$, $q=0,4,mathrm{GeV/c})$ gemessen.rnrnDie bestimmten Wirkungsquerschnitte, sowie die Strahl-Target- und diernDreifach-Asymmetrie werden mit theoretischen Modellrechnungen vonrnJ. Golak (Plane Wave Impuls Approximation PWIA, sowie ein Modell mitrnEndzustandswechselwirkung) verglichen. Zudem wurde das Modell von dernForest verwendet, welches den Wirkungsquerschnitt über eine gemessenernSpektralfunktion berechnet. Der Vergleich mit den Modellrechnungenrnzeigt, dass sowohl der Wirkungsquerschnitt, als auch die Doppel- undrnDreifach-Asymmetrie gut mit den theoretischen Rechnungenrnübereinstimmen. rnrnDie Ergebnisse dieser Arbeit bestätigen, dass polarisiertesrn$^3mathrm{He}$ nicht nur als polarisiertes Neutronentarget, sondernrndurch Nachweis des Deuterons ebenfalls als polarisiertesrnProtonentarget verwendet werden kann.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Die Entstehung der Atherosklerose ist ein komplexer Vorgang, der sich durch Ablagerung von Lipiden an der Gefäßwand sowie durch immunologische und inflammatorische Prozesse auszeichnet. Neben konventionellen Risikofaktoren wie Alter, Geschlecht, Rauchen, HDL-Cholesterin, Diabetes mellitus und einer positiven Familienanamnese werden zur Bestimmung des atherosklerotischen Risikos neue Biomarker der inflammatorischen Reaktion untersucht. Ziel dieser Arbeit war die Entwicklung einer Methode zur Diagnostik des Atheroskleroserisikos. Es wurde eine neuartige Chip-Technologie eingesetzt, um das Risiko für eine potentiell drohende atherosklerotische Erkrankung abzuschätzen. Dabei wurde ausgenutzt, dass molekulare Veränderungen in Genen bestimmte Krankheitsbilder auslösen können. rnEs wurde ein molekularbiologischer Test entwickelt, welcher die Untersuchung von genetischen Variationen aus genomischer DNA ermöglicht. Dafür fand die Entwicklung einer Multiplex-PCR statt, deren Produkt mit der Chip-Technologie untersucht werden kann. Dazu wurden auf einem Mikroarray Sonden immobilisiert, mit deren Hilfe genspezifische Mutationen nachgewiesen werden können. So wurden mehrere Gene mit einem geringen Aufwand gleichzeitig getestet. rnDie Auswahl der entsprechenden Marker erfolgte anhand einer Literaturrecherche von randomisierten und kontrollierten klinischen Studien. Der Mikroarray konnte für zwölf Variationen in den acht Genen Prostaglandinsynthase-1 (PTGS1), Endotheliale NO-Synthase (eNOS), Faktor V (F5), 5,10-Methylentetrahydrofolsäure-Reduktase (MTHFR), Cholesterinester-Transferprotein (CETP), Apolipoprotein E (ApoE), Prothrombin (F2) und Lipoproteinlipase (LPL) erfolgreich etabliert werden. Die Präzision des Biochips wurde anhand der Echtzeit-PCR und der Sequenzierung nachgewiesen. rnDer innovative Mikroarray ermöglicht eine einfache, schnelle und kosteneffektive Genotypisierung von wichtigen Allelen. Viele klinisch relevante Variationen für Atherosklerose können nun in nur einem Test überprüft werden. Zukünftige Studien müssen zeigen, ob die Methode eine Vorhersage über den Ausbruch der Erkrankung und eine gezielte Therapie ermöglicht. Dies wäre ein erster Schritt in Richtung präventive und personalisierter Medizin für Atherosklerose.rn

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The Standard Model of elementary particle physics was developed to describe the fundamental particles which constitute matter and the interactions between them. The Large Hadron Collider (LHC) at CERN in Geneva was built to solve some of the remaining open questions in the Standard Model and to explore physics beyond it, by colliding two proton beams at world-record centre-of-mass energies. The ATLAS experiment is designed to reconstruct particles and their decay products originating from these collisions. The precise reconstruction of particle trajectories plays an important role in the identification of particle jets which originate from bottom quarks (b-tagging). This thesis describes the step-wise commissioning of the ATLAS track reconstruction and b-tagging software and one of the first measurements of the b-jet production cross section in pp collisions at sqrt(s)=7 TeV with the ATLAS detector. The performance of the track reconstruction software was studied in great detail, first using data from cosmic ray showers and then collisions at sqrt(s)=900 GeV and 7 TeV. The good understanding of the track reconstruction software allowed a very early deployment of the b-tagging algorithms. First studies of these algorithms and the measurement of the b-tagging efficiency in the data are presented. They agree well with predictions from Monte Carlo simulations. The b-jet production cross section was measured with the 2010 dataset recorded by the ATLAS detector, employing muons in jets to estimate the fraction of b-jets. The measurement is in good agreement with the Standard Model predictions.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The dominant process in hard proton-proton collisions is the production of hadronic jets.rnThese sprays of particles are produced by colored partons, which are struck out of their confinement within the proton.rnPrevious measurements of inclusive jet cross sections have provided valuable information for the determination of parton density functions and allow for stringent tests of perturbative QCD at the highest accessible energies.rnrnThis thesis will present a measurement of inclusive jet cross sections in proton-proton collisions using the ATLAS detector at the LHC at a center-of-mass energy of 7 TeV.rnJets are identified using the anti-kt algorithm and jet radii of R=0.6 and R=0.4.rnThey are calibrated using a dedicated pT and eta dependent jet calibration scheme.rnThe cross sections are measured for 40 GeV < pT <= 1 TeV and |y| < 2.8 in four bins of absolute rapidity, using data recorded in 2010 corresponding to an integrated luminosity of 3 pb^-1.rnThe data is fully corrected for detector effects and compared to theoretical predictions calculated at next-to-leading order including non-perturbative effects.rnThe theoretical predictions are found to agree with data within the experimental and theoretic uncertainties.rnrnThe ratio of cross sections for R=0.4 and R=0.6 is measured, exploiting the significant correlations of the systematic uncertainties, and is compared to recently developed theoretical predictions.rnThe underlying event can be characterized by the amount of transverse momentum per unit rapidity and azimuth, called rhoue.rnUsing analytical approaches to the calculation of non-perturbative corrections to jets, rhoue at the LHC is estimated using the ratio measurement.rnA feasibility study of a combined measurement of rhoue and the average strong coupling in the non-perturbative regime alpha_0 is presented and proposals for future jet measurements at the LHC are made.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Auf Paulfallen basierende Experimente spielen eine wichtige Rolle in verschiedenen Bereichen der Physik, z.B. der Atomphysik zum Test theoretischer Modelle und der Massenspektroskopie. Die vorliegende Arbeit widmet sich beiden Themengebieten und gliedert sich entsprechend in zwei Teilbereiche: 1) Erdalkali-Ionen sind aufgrund ihrer Energieniveaus optimale Kandidaten für Laserspektroskopie-Experimente mit Ionenfallen und bestens geeignet, um mittels der spektroskopischen Daten die theoretischen Modelle zu testen. Lediglich für Ra+ fehlen bislang als einzigem Erdalkali-Ion diese Daten wie z.B. die Lebensdauern der metastabilen Niveaus. Diese wären auch von Interesse für bereits geplante Radium-Experimente zur Paritätsverletzung. Im ersten Teil dieser Arbeit wird der Aufbau eines Laser-Paulfallenexperiments zur Messung der Lebensdauer des 6D3/2 Zustands von 226Ra+ dokumentiert und es werden Testmessungen mit 138Ba+ vorgestellt. 2) Für die Verwendung der Paulfalle in der Massenspektroskopie und zur Analyse von Reaktionsprodukten ist die Kenntnis der Lage der im Speicherbereich auftretenden nichtlinearen Resonanzen wesentlich, ebenso wie deren Veränderung durch Dämpfung und Raumladung. Im zweiten Teil dieser Arbeit werden detaillierte Untersuchungen der Speicherung großer puffergasgekühlter Ionenwolken an zwei unterschiedlichen Paulfallen-Experimenten vorgestellt. Am ersten wurden 138Ba+-Ionenwolken kontinuierlich durch Laserspektroskopie bzw. über einen elektronischen Nachweis beobachtet, während das zweite N2+-Molekülionen automatisiert destruktiv nachwies. Am N2+-Experiment wurden zwei hochaufgelöste Messungen des ersten Speicherbereichs durchgeführt, die erstmals eine direkte Überprüfung der theoretisch berechneten Verläufe der Resonanzen mit experimentellen Daten erlauben. Die Nachweiseichung ermöglichte dabei zum ersten Mal die Angabe absoluter Ionenzahlen. Im Gegensatz zu vergleichbaren früheren Messungen wurden hierbei die sich überlagernden Speicherbereiche von 4 simultan gespeicherten Ionensorten beobachtet und zur Analyse der Resonanzen herangezogen. Die nichtlinearen Resonanzen wurden untersucht bei Variation von Puffergasdruck und Ionenzahl, wobei kollektive Resonanzen ohne zusätzliche externe Anregung beobachtet wurden. Die gemessenen Raumladungsverschiebungen wurden mit theoretischen Modellen verglichen. Bei Variation des Puffergasdrucks wurde mit Bariumionen die räumliche Ausdehnung der Ionenwolke gemessen und mit Stickstoffionen die Verschiebung des Punktes optimaler Speicherung bestimmt. Dabei wurde festgestellt, daß der zum Ioneneinfang optimale Puffergasdruck kleiner ist als der, bei dem die längsten Speicherdauern erzielt werden. Mit gespeicherten N2+-Ionen wurde die Position extern angeregter kollektiver und individueller Resonanzen im Frequenzspektrum bei Änderung der Parameter Ionenzahl, Puffergasdruck und Dauer der Anregung untersucht, ebenso wie die Resonanzform, die mit theoretischen Linienformen verglichen wurde. Bei Änderung der Fallenparameter wurden verstärkende Effekte zwischen nahen kollektiven Resonanzen festgestellt. Die Beobachtung, welche der im Frequenzspektrum vorher identifizierten Bewegungs-Resonanzen sich bei Variation der Fallenparameter a bzw. q überlagern, ermöglicht eine bislang nicht beschriebene einfache Methode der Bestimmung von nichtlinearen Resonanzen im Stabilitätsdiagramm.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Therapeutisches Drug Monitoring (TDM) findet Anwendung in der Therapie mit Immunosuppressiva, Antibiotika, antiretroviraler Medikation, Antikonvulsiva, Antidepressiva und auch Antipsychotika, um die Effizienz zu steigern und das Risiko von Intoxikationen zu reduzieren. Jedoch ist die Anwendung von TDM für Substanzen, die Einsatz finden in der Rückfallprophylaxe, der Substitution oder dem Entzug von Abhängigkeitserkrankungen nicht etabliert. Für diese Arbeit wurde im ersten Schritt eine sensitive Rating-Skala mit 22 Items entwickelt, mit Hilfe derer der theoretische Nutzen von TDM in der Pharmakotherapie von substanzbezogenen Abhängigkeitserkrankungen auf der Basis von pharmakologischen Eigenschaften der Medikamente und von Patientencharakteristika evaluiert wurde. Die vorgenommene Einschätzung zeigte für Bupropion, Buprenorphin, Disulfiram (oder einen Metaboliten), Methadon (chirale Bestimmung wenn möglich) und Naltrexon einen potentiellen Nutzen von TDM.rnFür die meisten Medikamente, die zur Behandlung von Abhängigkeitserkrankungen zugelassen sind, fehlen valide Messverfahren für TDM. Im Alltag werden überwiegend Drogen Screening-Tests in Form immunologischer Schnelltests angewendet. Für die Anwendung von TDM wurden in dieser Arbeit chromatographische Verfahren für die Bestimmung von Naltrexon und 6β-Naltrexol, Bupropion und Hydroxybupropion sowie R,S-Methadon und R,S-2-Ethyliden-1,5-dimethyl-3,3-diphenylpyrrolidin entwickelt, optimiert und validiert. Es handelt sich dabei HPLC-UV-Methoden mit Säulenschaltung sowie zur Bestimmung von Naltrexon und 6β-Naltrexol zusätzlich eine LC-MS/MS-Methode. Voraussetzung für die Interpretation der Plasmaspiegel ist im Wesentlichen die Kenntnis eines therapeutischen Bereichs. Für Naltrexon und seinen aktiven Metaboliten 6β-Naltrexol konnte eine signifikante Korrelation zwischen dem auftretenden Craving und der Summenkonzentration gefunden werden. Mittels Receiver-Operation-Characteristics-Kurven-Analyse wurde ein Schwellenwert von 16,6 ng/ml ermittelt, oberhalb dessen mit einem erhöhten Ansprechen gerechnet werden kann. Für Levomethadon wurde bezüglich der Detoxifikationsbehandlung ein Zusammenhang in der prozentualen Reduktion des Plasmaspiegels und den objektiven und subjektiven Entzugssymptomen gefunden. rnDoch nicht nur die Wirkstoffe, sondern auch das Patientenmerkmal substanzbezogene Abhängigkeit wurde charakterisiert, zum einen bezüglich pharmakokinetischer Besonderheiten, zum anderen in Hinsicht auf die Therapietreue (Adhärenz). Für Patienten mit komorbider Substanzabhängigkeit konnte eine verminderte Adhärenz unabhängig von der Hauptdiagnose gezeigt werden. Die Betrachtung des Einflusses von veränderten Leberwerten zeigt für komorbide Patienten eine hohe Korrelation mit dem Metabolisiererstatus, nicht aber für Patienten ohne Substanzabhängigkeit.rnÜbergeordnetes Ziel von TDM ist die Erhöhung der Therapiesicherheit und die Steigerung der Therapieeffizienz. Dies ist jedoch nur möglich, wenn TDM im klinischen Alltag integriert ist und korrekt eingesetzt wird. Obwohl es klare Evidenz für TDM von psychiatrischer Medikation gibt, ist die Diskrepanz zwischen Laborempfehlung und der klinischen Umsetzung hoch. Durch Intensivierung der interdisziplinären Zusammenarbeit zwischen Ärzten und Labor, der Entwicklung von interaktivem TDM (iTDM), konnte die Qualität der Anwendung von TDM verbessert und das Risiko von unerwünschten Arzneimittelwirkungen vermindert werden. rnInsgesamt konnte durch die eigenen Untersuchungen gezeigt werden, dass TDM für die medikamentöse Einstellung von Patienten mit Abhängigkeitserkrankung sinnvoll ist und dass optimales TDM eine interdisziplinäre Zusammenarbeit erfordert.rn