4 resultados para Combining ability

em ArchiMeD - Elektronische Publikationen der Universität Mainz - Alemanha


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Der AMANDA-II Detektor ist primär für den richtungsaufgelösten Nachweis hochenergetischer Neutrinos konzipiert. Trotzdem können auch niederenergetische Neutrinoausbrüche, wie sie von Supernovae erwartet werden, mit hoher Signifikanz nachgewiesen werden, sofern sie innerhalb der Milchstraße stattfinden. Die experimentelle Signatur im Detektor ist ein kollektiver Anstieg der Rauschraten aller optischen Module. Zur Abschätzung der Stärke des erwarteten Signals wurden theoretische Modelle und Simulationen zu Supernovae und experimentelle Daten der Supernova SN1987A studiert. Außerdem wurden die Sensitivitäten der optischen Module neu bestimmt. Dazu mussten für den Fall des südpolaren Eises die Energieverluste geladener Teilchen untersucht und eine Simulation der Propagation von Photonen entwickelt werden. Schließlich konnte das im Kamiokande-II Detektor gemessene Signal auf die Verhältnisse des AMANDA-II Detektors skaliert werden. Im Rahmen dieser Arbeit wurde ein Algorithmus zur Echtzeit-Suche nach Signalen von Supernovae als Teilmodul der Datennahme implementiert. Dieser beinhaltet diverse Verbesserungen gegenüber der zuvor von der AMANDA-Kollaboration verwendeten Version. Aufgrund einer Optimierung auf Rechengeschwindigkeit können nun mehrere Echtzeit-Suchen mit verschiedenen Analyse-Zeitbasen im Rahmen der Datennahme simultan laufen. Die Disqualifikation optischer Module mit ungeeignetem Verhalten geschieht in Echtzeit. Allerdings muss das Verhalten der Module zu diesem Zweck anhand von gepufferten Daten beurteilt werden. Dadurch kann die Analyse der Daten der qualifizierten Module nicht ohne eine Verzögerung von etwa 5 Minuten geschehen. Im Falle einer erkannten Supernova werden die Daten für die Zeitdauer mehrerer Minuten zur späteren Auswertung in 10 Millisekunden-Intervallen archiviert. Da die Daten des Rauschverhaltens der optischen Module ansonsten in Intervallen von 500 ms zur Verfgung stehen, ist die Zeitbasis der Analyse in Einheiten von 500 ms frei wählbar. Im Rahmen dieser Arbeit wurden drei Analysen dieser Art am Südpol aktiviert: Eine mit der Zeitbasis der Datennahme von 500 ms, eine mit der Zeitbasis 4 s und eine mit der Zeitbasis 10 s. Dadurch wird die Sensitivität für Signale maximiert, die eine charakteristische exponentielle Zerfallszeit von 3 s aufweisen und gleichzeitig eine gute Sensitivität über einen weiten Bereich exponentieller Zerfallszeiten gewahrt. Anhand von Daten der Jahre 2000 bis 2003 wurden diese Analysen ausführlich untersucht. Während die Ergebnisse der Analyse mit t = 500 ms nicht vollständig nachvollziehbare Ergebnisse produzierte, konnten die Resultate der beiden Analysen mit den längeren Zeitbasen durch Simulationen reproduziert und entsprechend gut verstanden werden. Auf der Grundlage der gemessenen Daten wurden die erwarteten Signale von Supernovae simuliert. Aus einem Vergleich zwischen dieser Simulation den gemessenen Daten der Jahre 2000 bis 2003 und der Simulation des erwarteten statistischen Untergrunds kann mit einem Konfidenz-Niveau von mindestens 90 % gefolgert werden, dass in der Milchstraße nicht mehr als 3.2 Supernovae pro Jahr stattfinden. Zur Identifikation einer Supernova wird ein Ratenanstieg mit einer Signifikanz von mindestens 7.4 Standardabweichungen verlangt. Die Anzahl erwarteter Ereignisse aus dem statistischen Untergrund beträgt auf diesem Niveau weniger als ein Millionstel. Dennoch wurde ein solches Ereignis gemessen. Mit der gewählten Signifikanzschwelle werden 74 % aller möglichen Vorläufer-Sterne von Supernovae in der Galaxis überwacht. In Kombination mit dem letzten von der AMANDA-Kollaboration veröffentlicheten Ergebnis ergibt sich sogar eine obere Grenze von nur 2.6 Supernovae pro Jahr. Im Rahmen der Echtzeit-Analyse wird für die kollektive Ratenüberhöhung eine Signifikanz von mindestens 5.5 Standardabweichungen verlangt, bevor eine Meldung über die Detektion eines Supernova-Kandidaten verschickt wird. Damit liegt der überwachte Anteil Sterne der Galaxis bei 81 %, aber auch die Frequenz falscher Alarme steigt auf bei etwa 2 Ereignissen pro Woche. Die Alarm-Meldungen werden über ein Iridium-Modem in die nördliche Hemisphäre übertragen, und sollen schon bald zu SNEWS beitragen, dem weltweiten Netzwerk zur Früherkennung von Supernovae.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The research interest of this study is to investigate surface immobilization strategies for proteins and other biomolecules by the surface plasmon field-enhanced fluorescence spectroscopy (SPFS) technique. The recrystallization features of the S-layer proteins and the possibility of combining the S-layer lattice arrays with other functional molecules make this protein a prime candidate for supramolecular architectures. The recrystallization behavior on gold or on the secondary cell wall polymer (SCWP) was recorded by SPR. The optical thicknesses and surface densities for different protein layers were calculated. In DNA hybridization tests performed in order to discriminate different mismatches, recombinant S-layer-streptavidin fusion protein matrices showed their potential for new microarrays. Moreover, SCWPs coated gold chips, covered with a controlled and oriented assembly of S-layer fusion proteins, represent an even more sensitive fluorescence testing platform. Additionally, S-layer fusion proteins as the matrix for LHCII immobilization strongly demonstrate superiority over routine approaches, proving the possibility of utilizing them as a new strategy for biomolecular coupling. In the study of the SPFS hCG immunoassay, the biophysical and immunological characteristics of this glycoprotein hormone were presented first. After the investigation of the effect of the biotin thiol dilution on the coupling efficiently, the interfacial binding model including the appropriate binary SAM structure and the versatile streptavidin-biotin interaction was chosen as the basic supramolecular architecture for the fabrication of a SPFS-based immunoassay. Next, the affinity characteristics between different antibodies and hCG were measured via an equilibrium binding analysis, which is the first example for the titration of such a high affinity interaction by SPFS. The results agree very well with the constants derived from the literature. Finally, a sandwich assay and a competitive assay were selected as templates for SPFS-based hCG detection, and an excellent LOD of 0.15 mIU/ml was attained via the “one step” sandwich method. Such high sensitivity not only fulfills clinical requirements, but is also better than most other biosensors. Fully understanding how LHCII complexes transfer the sunlight energy directionally and efficiently to the reaction center is potentially useful for constructing biomimetic devices as solar cells. After the introduction of the structural and the spectroscopic features of LHCII, different surface immobilization strategies of LHCII were summarized next. Among them the strategy based on the His-tag and the immobilized metal (ion) affinity chromatography (IMAC) technique were of great interest and resulted in different kinds of home-fabricated His-tag chelating chips. Their substantial protein coupling capacity, maintenance of high biological activity and a remarkably repeatable binding ability on the same chip after regeneration was demonstrated. Moreover, different parameters related to the stability of surface coupled reconstituted complexes, including sucrose, detergent, lipid, oligomerization, temperature and circulation rate, were evaluated in order to standardize the most effective immobilization conditions. In addition, partial lipid bilayers obtained from LHCII contained proteo-liposomes fusion on the surface were observed by the QCM technique. Finally, the inter-complex energy transfer between neighboring LHCIIs on a gold protected silver surface by excitation with a blue laser (λ = 473nm) was recorded for the first time, and the factors influencing the energy transfer efficiency were evaluated.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Proxy data are essential for the investigation of climate variability on time scales larger than the historical meteorological observation period. The potential value of a proxy depends on our ability to understand and quantify the physical processes that relate the corresponding climate parameter and the signal in the proxy archive. These processes can be explored under present-day conditions. In this thesis, both statistical and physical models are applied for their analysis, focusing on two specific types of proxies, lake sediment data and stable water isotopes.rnIn the first part of this work, the basis is established for statistically calibrating new proxies from lake sediments in western Germany. A comprehensive meteorological and hydrological data set is compiled and statistically analyzed. In this way, meteorological times series are identified that can be applied for the calibration of various climate proxies. A particular focus is laid on the investigation of extreme weather events, which have rarely been the objective of paleoclimate reconstructions so far. Subsequently, a concrete example of a proxy calibration is presented. Maxima in the quartz grain concentration from a lake sediment core are compared to recent windstorms. The latter are identified from the meteorological data with the help of a newly developed windstorm index, combining local measurements and reanalysis data. The statistical significance of the correlation between extreme windstorms and signals in the sediment is verified with the help of a Monte Carlo method. This correlation is fundamental for employing lake sediment data as a new proxy to reconstruct windstorm records of the geological past.rnThe second part of this thesis deals with the analysis and simulation of stable water isotopes in atmospheric vapor on daily time scales. In this way, a better understanding of the physical processes determining these isotope ratios can be obtained, which is an important prerequisite for the interpretation of isotope data from ice cores and the reconstruction of past temperature. In particular, the focus here is on the deuterium excess and its relation to the environmental conditions during evaporation of water from the ocean. As a basis for the diagnostic analysis and for evaluating the simulations, isotope measurements from Rehovot (Israel) are used, provided by the Weizmann Institute of Science. First, a Lagrangian moisture source diagnostic is employed in order to establish quantitative linkages between the measurements and the evaporation conditions of the vapor (and thus to calibrate the isotope signal). A strong negative correlation between relative humidity in the source regions and measured deuterium excess is found. On the contrary, sea surface temperature in the evaporation regions does not correlate well with deuterium excess. Although requiring confirmation by isotope data from different regions and longer time scales, this weak correlation might be of major importance for the reconstruction of moisture source temperatures from ice core data. Second, the Lagrangian source diagnostic is combined with a Craig-Gordon fractionation parameterization for the identified evaporation events in order to simulate the isotope ratios at Rehovot. In this way, the Craig-Gordon model can be directly evaluated with atmospheric isotope data, and better constraints for uncertain model parameters can be obtained. A comparison of the simulated deuterium excess with the measurements reveals that a much better agreement can be achieved using a wind speed independent formulation of the non-equilibrium fractionation factor instead of the classical parameterization introduced by Merlivat and Jouzel, which is widely applied in isotope GCMs. Finally, the first steps of the implementation of water isotope physics in the limited-area COSMO model are described, and an approach is outlined that allows to compare simulated isotope ratios to measurements in an event-based manner by using a water tagging technique. The good agreement between model results from several case studies and measurements at Rehovot demonstrates the applicability of the approach. Because the model can be run with high, potentially cloud-resolving spatial resolution, and because it contains sophisticated parameterizations of many atmospheric processes, a complete implementation of isotope physics will allow detailed, process-oriented studies of the complex variability of stable isotopes in atmospheric waters in future research.rn

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Die Dissertationsschrift beschäftigt sich mit der Entwicklung und Anwendung einer alternativen Probenzuführungstechnik für flüssige Proben in der Massenspektrometrie. Obwohl bereits einige Anstrengungen zur Verbesserung unternommen wurden, weisen konventionelle pneumatische Zerstäuber- und Sprühkammersysteme, die in der Elementspurenanalytik mittels induktiv gekoppeltem Plasma (ICP) standardmäßig verwendet werden, eine geringe Gesamteffizienz auf. Pneumatisch erzeugtes Aerosol ist durch eine breite Tropfengrößenverteilung gekennzeichnet, was den Einsatz einer Sprühkammer bedingt, um die Aerosolcharakteristik an die Betriebsbedingungen des ICPs anzupassen.. Die Erzeugung von Tropfen mit einer sehr engen Tropfengrößenverteilung oder sogar monodispersen Tropfen könnte die Effizienz des Probeneintrags verbessern. Ein Ziel dieser Arbeit ist daher, Tropfen, die mittels des thermischen Tintenstrahldruckverfahrens erzeugt werden, zum Probeneintrag in der Elementmassenspektrometrie einzusetzen. Das thermische Tintenstrahldruckverfahren konnte in der analytischen Chemie im Bereich der Oberflächenanalytik mittels TXRF oder Laserablation bisher zur gezielten, reproduzierbaren Deposition von Tropfen auf Oberflächen eingesetzt werden. Um eine kontinuierliche Tropfenerzeugung zu ermöglichen, wurde ein elektronischer Mikrokontroller entwickelt, der eine Dosiereinheit unabhängig von der Hard- und Software des Druckers steuern kann. Dabei sind alle zur Tropfenerzeugung relevanten Parameter (Frequenz, Heizpulsenergie) unabhängig voneinander einstellbar. Die Dosiereinheit, der "drop-on-demand" Aerosolgenerator (DOD), wurde auf eine Aerosoltransportkammer montiert, welche die erzeugten Tropfen in die Ionisationsquelle befördert. Im Bereich der anorganischen Spurenanalytik konnten durch die Kombination des DOD mit einem automatischen Probengeber 53 Elemente untersucht und die erzielbare Empfindlichkeiten sowie exemplarisch für 15 Elemente die Nachweisgrenzen und die Untergrundäquivalentkonzentrationen ermittelt werden. Damit die Vorteile komfortabel genutzt werden können, wurde eine Kopplung des DOD-Systems mit der miniaturisierten Fließinjektionsanalyse (FIA) sowie miniaturisierten Trenntechniken wie der µHPLC entwickelt. Die Fließinjektionsmethode wurde mit einem zertifizierten Referenzmaterial validiert, wobei für Vanadium und Cadmium die zertifizierten Werte gut reproduziert werden konnten. Transiente Signale konnten bei der Kopplung des Dosiersystems in Verbindung mit der ICP-MS an eine µHPLC abgebildet werden. Die Modifikation der Dosiereinheit zum Ankoppeln an einen kontinuierlichen Probenfluss bedarf noch einer weiteren Reduzierung des verbleibenden Totvolumens. Dazu ist die Unabhängigkeit von den bisher verwendeten, kommerziell erhältlichen Druckerpatronen anzustreben, indem die Dosiereinheit selbst gefertigt wird. Die Vielseitigkeit des Dosiersystems wurde mit der Kopplung an eine kürzlich neu entwickelte Atmosphärendruck-Ionisationsmethode, die "flowing atmospheric-pressure afterglow" Desorptions/Ionisations Ionenquelle (FAPA), aufgezeigt. Ein direkter Eintrag von flüssigen Proben in diese Quelle war bislang nicht möglich, es konnte lediglich eine Desorption von eingetrockneten Rückständen oder direkt von der Flüssigkeitsoberfläche erfolgen. Die Präzision der Analyse ist dabei durch die variable Probenposition eingeschränkt. Mit dem Einsatz des DOD-Systems können flüssige Proben nun direkt in die FAPA eingetragen, was ebenfalls das Kalibrieren bei quantitativen Analysen organischer Verbindungen ermöglicht. Neben illegalen Drogen und deren Metaboliten konnten auch frei verkäufliche Medikamente und ein Sprengstoffanalogon in entsprechend präpariertem reinem Lösungsmittel nachgewiesen werden. Ebenso gelang dies in Urinproben, die mit Drogen und Drogenmetaboliten versetzt wurden. Dabei ist hervorzuheben, dass keinerlei Probenvorbereitung notwendig war und zur Ermittlung der NWG der einzelnen Spezies keine interne oder isotopenmarkierte Standards verwendet wurden. Dennoch sind die ermittelten NWG deutlich niedriger, als die mit der bisherigen Prozedur zur Analyse flüssiger Proben erreichbaren. Um im Vergleich zu der bisher verwendeten "pin-to-plate" Geometrie der FAPA die Lösungsmittelverdampfung zu beschleunigen, wurde eine alternative Elektrodenanordnung entwickelt, bei der die Probe länger in Kontakt mit der "afterglow"-Zone steht. Diese Glimmentladungsquelle ist ringförmig und erlaubt einen Probeneintrag mittels eines zentralen Gasflusses. Wegen der ringförmigen Entladung wird der Name "halo-FAPA" (h-FAPA) für diese Entladungsgeometrie verwendet. Eine grundlegende physikalische und spektroskopische Charakterisierung zeigte, dass es sich tatsächlich um eine FAPA Desorptions/Ionisationsquelle handelt.