902 resultados para Incidental parameter bias


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Type Ia supernovae have been successfully used as standardized candles to study the expansion history of the Universe. In the past few years, these studies led to the exciting result of an accelerated expansion caused by the repelling action of some sort of dark energy. This result has been confirmed by measurements of cosmic microwave background radiation, the large-scale structure, and the dynamics of galaxy clusters. The combination of all these experiments points to a “concordance model” of the Universe with flat large-scale geometry and a dominant component of dark energy. However, there are several points related to supernova measurements which need careful analysis in order to doubtlessly establish the validity of the concordance model. As the amount and quality of data increases, the need of controlling possible systematic effects which may bias the results becomes crucial. Also important is the improvement of our knowledge of the physics of supernovae events to assure and possibly refine their calibration as standardized candle. This thesis addresses some of those issues through the quantitative analysis of supernova spectra. The stress is put on a careful treatment of the data and on the definition of spectral measurement methods. The comparison of measurements for a large set of spectra from nearby supernovae is used to study the homogeneity and to search for spectral parameters which may further refine the calibration of the standardized candle. One such parameter is found to reduce the dispersion in the distance estimation of a sample of supernovae to below 6%, a precision which is comparable with the current lightcurve-based calibration, and is obtained in an independent manner. Finally, the comparison of spectral measurements from nearby and distant objects is used to test the possibility of evolution with cosmic time of the intrinsic brightness of type Ia supernovae.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

[EN]This presentation will give examples on how multi-parameter platforms have been used in a variety of applications ranging from shallow coastal on-line observatories down to measuring in the deepest Ocean trenches. Focus will be on projects in which optode technology (primarily for CO2 and O2) has served to study different aspects of the carbon system including primary production/consumption, air-sea exchange, leakage detection from underwater storage of CO2 and measurements from moving platforms like gliders and ferries. The performance of recently developed pH optodes will als

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This thesis presents a creative and practical approach to dealing with the problem of selection bias. Selection bias may be the most important vexing problem in program evaluation or in any line of research that attempts to assert causality. Some of the greatest minds in economics and statistics have scrutinized the problem of selection bias, with the resulting approaches – Rubin’s Potential Outcome Approach(Rosenbaum and Rubin,1983; Rubin, 1991,2001,2004) or Heckman’s Selection model (Heckman, 1979) – being widely accepted and used as the best fixes. These solutions to the bias that arises in particular from self selection are imperfect, and many researchers, when feasible, reserve their strongest causal inference for data from experimental rather than observational studies. The innovative aspect of this thesis is to propose a data transformation that allows measuring and testing in an automatic and multivariate way the presence of selection bias. The approach involves the construction of a multi-dimensional conditional space of the X matrix in which the bias associated with the treatment assignment has been eliminated. Specifically, we propose the use of a partial dependence analysis of the X-space as a tool for investigating the dependence relationship between a set of observable pre-treatment categorical covariates X and a treatment indicator variable T, in order to obtain a measure of bias according to their dependence structure. The measure of selection bias is then expressed in terms of inertia due to the dependence between X and T that has been eliminated. Given the measure of selection bias, we propose a multivariate test of imbalance in order to check if the detected bias is significant, by using the asymptotical distribution of inertia due to T (Estadella et al. 2005) , and by preserving the multivariate nature of data. Further, we propose the use of a clustering procedure as a tool to find groups of comparable units on which estimate local causal effects, and the use of the multivariate test of imbalance as a stopping rule in choosing the best cluster solution set. The method is non parametric, it does not call for modeling the data, based on some underlying theory or assumption about the selection process, but instead it calls for using the existing variability within the data and letting the data to speak. The idea of proposing this multivariate approach to measure selection bias and test balance comes from the consideration that in applied research all aspects of multivariate balance, not represented in the univariate variable- by-variable summaries, are ignored. The first part contains an introduction to evaluation methods as part of public and private decision process and a review of the literature of evaluation methods. The attention is focused on Rubin Potential Outcome Approach, matching methods, and briefly on Heckman’s Selection Model. The second part focuses on some resulting limitations of conventional methods, with particular attention to the problem of how testing in the correct way balancing. The third part contains the original contribution proposed , a simulation study that allows to check the performance of the method for a given dependence setting and an application to a real data set. Finally, we discuss, conclude and explain our future perspectives.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The digital electronic market development is founded on the continuous reduction of the transistors size, to reduce area, power, cost and increase the computational performance of integrated circuits. This trend, known as technology scaling, is approaching the nanometer size. The lithographic process in the manufacturing stage is increasing its uncertainty with the scaling down of the transistors size, resulting in a larger parameter variation in future technology generations. Furthermore, the exponential relationship between the leakage current and the threshold voltage, is limiting the threshold and supply voltages scaling, increasing the power density and creating local thermal issues, such as hot spots, thermal runaway and thermal cycles. In addiction, the introduction of new materials and the smaller devices dimension are reducing transistors robustness, that combined with high temperature and frequently thermal cycles, are speeding up wear out processes. Those effects are no longer addressable only at the process level. Consequently the deep sub-micron devices will require solutions which will imply several design levels, as system and logic, and new approaches called Design For Manufacturability (DFM) and Design For Reliability. The purpose of the above approaches is to bring in the early design stages the awareness of the device reliability and manufacturability, in order to introduce logic and system able to cope with the yield and reliability loss. The ITRS roadmap suggests the following research steps to integrate the design for manufacturability and reliability in the standard CAD automated design flow: i) The implementation of new analysis algorithms able to predict the system thermal behavior with the impact to the power and speed performances. ii) High level wear out models able to predict the mean time to failure of the system (MTTF). iii) Statistical performance analysis able to predict the impact of the process variation, both random and systematic. The new analysis tools have to be developed beside new logic and system strategies to cope with the future challenges, as for instance: i) Thermal management strategy that increase the reliability and life time of the devices acting to some tunable parameter,such as supply voltage or body bias. ii) Error detection logic able to interact with compensation techniques as Adaptive Supply Voltage ASV, Adaptive Body Bias ABB and error recovering, in order to increase yield and reliability. iii) architectures that are fundamentally resistant to variability, including locally asynchronous designs, redundancy, and error correcting signal encodings (ECC). The literature already features works addressing the prediction of the MTTF, papers focusing on thermal management in the general purpose chip, and publications on statistical performance analysis. In my Phd research activity, I investigated the need for thermal management in future embedded low-power Network On Chip (NoC) devices.I developed a thermal analysis library, that has been integrated in a NoC cycle accurate simulator and in a FPGA based NoC simulator. The results have shown that an accurate layout distribution can avoid the onset of hot-spot in a NoC chip. Furthermore the application of thermal management can reduce temperature and number of thermal cycles, increasing the systemreliability. Therefore the thesis advocates the need to integrate a thermal analysis in the first design stages for embedded NoC design. Later on, I focused my research in the development of statistical process variation analysis tool that is able to address both random and systematic variations. The tool was used to analyze the impact of self-timed asynchronous logic stages in an embedded microprocessor. As results we confirmed the capability of self-timed logic to increase the manufacturability and reliability. Furthermore we used the tool to investigate the suitability of low-swing techniques in the NoC system communication under process variations. In this case We discovered the superior robustness to systematic process variation of low-swing links, which shows a good response to compensation technique as ASV and ABB. Hence low-swing is a good alternative to the standard CMOS communication for power, speed, reliability and manufacturability. In summary my work proves the advantage of integrating a statistical process variation analysis tool in the first stages of the design flow.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Diese Arbeit beschäftigt sich mit Strukturbildung im schlechten Lösungsmittel bei ein- und zweikomponentigen Polymerbürsten, bei denen Polymerketten durch Pfropfung am Substrat verankert sind. Solche Systeme zeigen laterale Strukturbildungen, aus denen sich interessante Anwendungen ergeben. Die Bewegung der Polymere erfolgt durch Monte Carlo-Simulationen im Kontinuum, die auf CBMC-Algorithmen sowie lokalen Monomerverschiebungen basieren. Eine neu entwickelte Variante des CBMC-Algorithmus erlaubt die Bewegung innerer Kettenteile, da der bisherige Algorithmus die Monomere in Nähe des Pfropfmonomers nicht gut relaxiert. Zur Untersuchung des Phasenverhaltens werden mehrere Analysemethoden entwickelt und angepasst: Dazu gehören die Minkowski-Maße zur Strukturuntersuchung binären Bürsten und die Pfropfkorrelationen zur Untersuchung des Einflusses von Pfropfmustern. Bei einkomponentigen Bürsten tritt die Strukturbildung nur beim schwach gepfropften System auf, dichte Pfropfungen führen zu geschlossenen Bürsten ohne laterale Struktur. Für den graduellen Übergang zwischen geschlossener und aufgerissener Bürste wird ein Temperaturbereich bestimmt, in dem der Übergang stattfindet. Der Einfluss des Pfropfmusters (Störung der Ausbildung einer langreichweitigen Ordnung) auf die Bürstenkonfiguration wird mit den Pfropfkorrelationen ausgewertet. Bei unregelmäßiger Pfropfung sind die gebildeten Strukturen größer als bei regelmäßiger Pfropfung und auch stabiler gegen höhere Temperaturen. Bei binären Systemen bilden sich Strukturen auch bei dichter Pfropfung aus. Zu den Parametern Temperatur, Pfropfdichte und Pfropfmuster kommt die Zusammensetzung der beiden Komponenten hinzu. So sind weitere Strukturen möglich, bei gleicher Häufigkeit der beiden Komponenten bilden sich streifenförmige, lamellare Muster, bei ungleicher Häufigkeit formt die Minoritätskomponente Cluster, die in der Majoritätskomponente eingebettet sind. Selbst bei gleichmäßig gepfropften Systemen bildet sich keine langreichweitige Ordnung aus. Auch bei binären Bürsten hat das Pfropfmuster großen Einfluss auf die Strukturbildung. Unregelmäßige Pfropfmuster führen schon bei höheren Temperaturen zur Trennung der Komponenten, die gebildeten Strukturen sind aber ungleichmäßiger und etwas größer als bei gleichmäßig gepfropften Systemen. Im Gegensatz zur self consistent field-Theorie berücksichtigen die Simulationen Fluktuationen in der Pfropfung und zeigen daher bessere Übereinstimmungen mit dem Experiment.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Die FT-Rheologie wird zur Unterscheidung verschiedener Kamm-Topologien in Polystyrollösungen und –schmelzen angewendet. Die Polystyrole werden in Abhängigkeit der Deborahzahl De unter LAOS-Bedingungen vermessen. Die Meßergebnisse zeigen, daß der Schritt von wohldefinierten Systemen (lineare Ketten, Sterne) zu solchen mit statistischer Verteilung wie in Kämmen zu großen Veränderungen sowohl im linearen als auch im nichtlinearen Bereich der rheologischen Messungen führt. Sowohl die Masterkurven als auch die Intenstiäten I3/1 und Phasen Phi3 der Nichtlinearitäten der einzelnen Proben weisen jeweils deutliche Unterschiede untereinander auf. Diese sind durch die bisherigen Ergebnisse noch nicht vollständig mit topologischen Merkmalen in Verbindung zu bringen. Die Messungen wurden mit dem von McLeish eingeführten Pom-pom Modell und daraus weiterentwickelten double convected-Pom-pom Modell (DCPP) simuliert und lieferten gute Übereinstimmung sowie auch Vorhersagen über den experimentell nicht mehr zugänglichen Bereich. Zur Untersuchung des Einflusses von mechanischer Scherung auf die lokale, molekulare Dynamik wird das LAOS-Experiment in situ mit dielektrischer Spektroskopie kombiniert. Dazu wurde eine Apparatur entwickelt, die das hochsensitive ARES-Rheometer mit dem hochauflösenden dielektrischen ALPHA-Analyzer verbindet. Mit dieser Apparatur wurde das Typ-A Polymer 1,4-cis-Polyisopren, mit einem Dipolmoment entlang des Rückgrats, bei oszillatorischer Scherung unter gleichzeitiger Aufnahme eines dielektrischen Spektrums vermessen. Es konnte gezeigt werden, daß die oszillatorische Verscherung weder die charakteristische Relaxationszeit noch die Form des Normal Mode Peaks beeinflußt, wohl aber die dielektrische Stärke Delta epsilon. Diese entspricht der Fläche unter dem e“-Peak und kann mit einer Debye- und einer Cole/Davidson-Funktion angepasst werden. Die Abnahme der dielektrischen Stärke mit zunehmender Scheramplitude kann mit der Orientierungsverteilung der End-zu-End-Vektoren in der Probe erklärt werden.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Die zuverlässige Berechnung von quantitativen Parametern der Lungenventilation ist für ein Verständnis des Verhaltens der Lunge und insbesondere für die Diagnostik von Lungenerkrankungen von großer Bedeutung. Nur durch quantitative Parameter sind verlässliche und reproduzierbare diagnostische Aussagen über den Gesundheitszustand der Lunge möglich. Im Rahmen dieser Arbeit wurden neue quantitative Verfahren zur Erfassung der Lungenventilation basierend auf der dynamischen Computer- (CT) und Magnetresonanztomographie (MRT) entwickelt. Im ersten Teil dieser Arbeit wurde die Frage untersucht, ob das Aufblähen der Lunge in gesunden Schweinelungen und Lungen mit Akutem Lungenversagen (ARDS) durch einzelne, diskrete Zeitkonstanten beschrieben werden kann, oder ob kontinuierliche Verteilungen von Zeitkonstanten die Realität besser beschreiben. Hierzu wurden Serien dynamischer CT-Aufnahmen während definierter Beatmungsmanöver (Drucksprünge) aufgenommen und anschließend aus den Messdaten mittels inverser Laplace-Transformation die zugehörigen Verteilungen der Zeitkonstanten berechnet. Um die Qualität der Ergebnisse zu analysieren, wurde der Algorithmus im Rahmen von Simulationsrechnungen systematisch untersucht und anschließend in-vivo an gesunden und ARDS-Schweinelungen eingesetzt. Während in den gesunden Lungen mono- und biexponentielle Verteilungen bestimmt wurden, waren in den ARDS-Lungen Verteilungen um zwei dominante Zeitkonstanten notwendig, um die gemessenen Daten auf der Basis des verwendeten Modells verlässlich zu beschreiben. Es wurden sowohl diskrete als auch kontinuierliche Verteilungen gefunden. Die CT liefert Informationen über das solide Lungengewebe, während die MRT von hyperpolarisiertem 3He in der Lage ist, direkt das eingeatmete Gas abzubilden. Im zweiten Teil der Arbeit wurde zeitlich hochaufgelöst das Einströmen eines 3He-Bolus in die Lunge erfasst. Über eine Entfaltungsanalyse wurde anschließend das Einströmverhalten unter Idealbedingungen (unendlich kurzer 3He-Bolus), also die Gewebeantwortfunktion, berechnet und so eine Messtechnik-unabhängige Erfassung des Einströmens von 3He in die Lunge ermöglicht. Zentrale Fragestellung war hier, wie schnell das Gas in die Lunge einströmt. Im Rahmen von Simulationsrechnungen wurde das Verhalten eines Entfaltungsalgorithmus (basierend auf B-Spline Repräsentationen) systematisch analysiert. Zusätzlich wurde ein iteratives Entfaltungsverfahren eingesetzt. Aus zeitlich hochaufgelösten Messungen (7ms) an einer gesunden und einer ARDS-Schweinelunge konnte erstmals nachgewiesen werden, dass das Einströmen in-vivo in weniger als 0,1s geschieht. Die Ergebnisse zeigen Zeitkonstanten im Bereich von 4ms–50ms, wobei zwischen der gesunden Lungen und der ARDS-Lunge deutliche Unterschiede beobachtet wurden. Zusammenfassend ermöglichen daher die in dieser Arbeit vorgestellten Algorithmen eine objektivere Bestimmung quantitativer Parameter der Lungenventilation. Dies ist für die eindeutige Beschreibung ventilatorischer Vorgänge in der Lunge und somit für die Lungendiagnostik unerlässlich. Damit stehen quantitative Methoden für die Lungenfunktionsdiagnostik zur Verfügung, deren diagnostische Relevanz im Rahmen wissenschaftlicher und klinischer Studien untersucht werden kann.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This thesis examines the literature on local home bias, i.e. investor preference towards geographically nearby stocks, and investigates the role of firm’s visibility, profitability, and opacity in explaining such behavior. While firm’s visibility is expected to proxy for the behavioral root originating such a preference, firm’s profitability and opacity are expected to capture the informational one. I find that less visible, and more profitable and opaque firms, conditionally to the demand, benefit from being headquartered in regions characterized by a scarcity of listed firms (local supply of stocks). Specifically, research estimates suggest that firms headquartered in regions with a poor supply of stocks would be worth i) 11 percent more if non-visible, non-profitable and non-opaque; ii) 16 percent more if profitable; and iii) 28 percent more if both profitable and opaque. Overall, as these features are able to explain most, albeit not all, of the local home bias effect, I reasonably argue and then assess that most of the preference for local is determined by a successful attempt to exploit local information advantage (60 percent), while the rest is determined by a mere (irrational) feeling of familiarity with the local firm (40 percent). Several and significant methodological, theoretical, and practical implications come out.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The motivating problem concerns the estimation of the growth curve of solitary corals that follow the nonlinear Von Bertalanffy Growth Function (VBGF). The most common parameterization of the VBGF for corals is based on two parameters: the ultimate length L∞ and the growth rate k. One aim was to find a more reliable method for estimating these parameters, which can capture the influence of environmental covariates. The main issue with current methods is that they force the linearization of VBGF and neglect intra-individual variability. The idea was to use the hierarchical nonlinear model which has the appealing features of taking into account the influence of collection sites, possible intra-site measurement correlation and variance heterogeneity, and that can handle the influence of environmental factors and all the reliable information that might influence coral growth. This method was used on two databases of different solitary corals i.e. Balanophyllia europaea and Leptopsammia pruvoti, collected in six different sites in different environmental conditions, which introduced a decisive improvement in the results. Nevertheless, the theory of the energy balance in growth ascertains the linear correlation of the two parameters and the independence of the ultimate length L∞ from the influence of environmental covariates, so a further aim of the thesis was to propose a new parameterization based on the ultimate length and parameter c which explicitly describes the part of growth ascribable to site-specific conditions such as environmental factors. We explored the possibility of estimating these parameters characterizing the VBGF new parameterization via the nonlinear hierarchical model. Again there was a general improvement with respect to traditional methods. The results of the two parameterizations were similar, although a very slight improvement was observed in the new one. This is, nevertheless, more suitable from a theoretical point of view when considering environmental covariates.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The collapse of linear polyelectrolyte chains in a poor solvent: When does a collapsing polyelectrolyte collect its counter ions? The collapse of polyions in a poor solvent is a complex system and is an active research subject in the theoretical polyelectrolyte community. The complexity is due to the subtle interplay between hydrophobic effects, electrostatic interactions, entropy elasticity, intrinsic excluded volume as well as specific counter-ion and co-ion properties. Long range Coulomb forces can obscure single molecule properties. The here presented approach is to use just a small amount of screening salt in combination with a very high sample dilution in order to screen intermolecular interaction whereas keeping intramolecular interaction as much as possible (polyelectrolyte concentration cp ≤ 12 mg/L, salt concentration; Cs = 10^-5 mol/L). This is so far not described in literature. During collapse, the polyion is subject to a drastic change in size along with strong reduction of free counterions in solution. Therefore light scattering was utilized to obtain the size of the polyion whereas a conductivity setup was developed to monitor the proceeding of counterion collection by the polyion. Partially quaternized PVP’s below and above the Manning limit were investigated and compared to the collapse of their uncharged precursor. The collapses were induced by an isorefractive solvent/non-solvent mixture consisting of 1-propanol and 2-pentanone, with nearly constant dielectric constant. The solvent quality for the uncharged polyion could be quantified which, for the first time, allowed the experimental investigation of the effect of electrostatic interaction prior and during polyion collapse. Given that the Manning parameter M for QPVP4.3 is as low as lB / c = 0.6 (lB the Bjerrum length and c the mean contour distance between two charges), no counterion binding should occur. However the Walden product reduces with first addition of non solvent and accelerates when the structural collapse sets in. Since the dielectric constant of the solvent remains virtually constant during the chain collapse, the counterion binding is entirely caused by the reduction in the polyion chain dimension. The collapse is shifted to lower wns with higher degrees of quaternization as the samples QPVP20 and QPVP35 show (M = 2.8 respectively 4.9). The combination of light scattering and conductivity measurement revealed for the first time that polyion chains already collect their counter ions well above the theta-dimension when the dimensions start to shrink. Due to only small amounts of screening salt, strong electrostatic interactions bias dynamic as well as static light scattering measurements. An extended Zimm formula was derived to account for this interaction and to obtain the real chain dimensions. The effective degree of dissociation g could be obtained semi quantitatively using this extrapolated static in combination with conductivity measurements. One can conclude the expansion factor a and the effective degree of ionization of the polyion to be mutually dependent. In the good solvent regime g of QPVP4.3, QPVP20 and QPVP35 exhibited a decreasing value in the order 1 > g4.3 > g20 > g35. The low values of g for QPVP20 and QPVP35 are assumed to be responsible for the prior collapse of the higher quaternized samples. Collapse theory predicts dipole-dipole attraction to increase accordingly and even predicts a collapse in the good solvent regime. This could be exactly observed for the QPVP35 sample. The experimental results were compared to a newly developed theory of uniform spherical collapse induced by concomitant counterion binding developed by M. Muthukumar and A. Kundagrami. The theory agrees qualitatively with the location of the phase boundary as well as the trend of an increasing expansion with an increase of the degree of quaternization. However experimental determined g for the samples QPVP4.3, QPVP20 and QPVP35 decreases linearly with the degree of quaternization whereas this theory predicts an almost constant value.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Das am Südpol gelegene Neutrinoteleskop IceCube detektiert hochenergetische Neutrinos über die schwache Wechselwirkung geladener und neutraler Ströme. Die Analyse basiert auf einem Vergleich mit Monte-Carlo-Simulationen, deren Produktion global koordiniert wird. In Mainz ist es erstmalig gelungen, Simulationen innerhalb der Architektur des Worldwide LHC Computing Grid (WLCG) zu realisieren, was die Möglichkeit eröffnet, Monte-Carlo-Berechnungen auch auf andere deutsche Rechnerfarmen (CEs) mit IceCube-Berechtigung zu verteilen. Atmosphärische Myonen werden mit einer Rate von über 1000 Ereignissen pro Sekunde aufgezeichnet. Eine korrekte Interpretation dieses dominanten Signals, welches um einen Faktor von 10^6 reduziert werden muss um das eigentliche Neutrinosignal zu extrahieren, ist deswegen von großer Bedeutung. Eigene Simulationen mit der Software-Umgebung CORSIKA wurden durchgeführt um die von Energie und Einfallswinkel abhängige Entstehungshöhe atmosphärischer Myonen zu bestimmen. IceCube Myonraten wurden mit Wetterdaten des European Centre for Medium-Range Weather Forcasts (ECMWF) verglichen und Korrelationen zwischen jahreszeitlichen sowie kurzzeitigen Schwankungen der Atmosphärentemperatur und Myonraten konnten nachgewiesen werden. Zudem wurde eine Suche nach periodischen Effekten in der Atmosphäre, verursacht durch z.B. meteorologische Schwerewellen, mit Hilfe einer Fourieranalyse anhand der IceCube-Daten durchgeführt. Bislang konnte kein signifikanter Nachweis zur Existenz von Schwerewellen am Südpol erbracht werden.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Diese Dissertation untersucht den Einfluss von Eiskristallform und räumlicher Inhomogenität von Zirren auf das Retrieval von optischer Wolkendicke und effektivem Eispartikelradius. Zu diesem Zweck werden flugzeuggetragene spektrale Messungen solarer Strahlung sowie solare und langwellige Strahlungstransfersimulationen durchgeführt. Flugzeuggetragene spektrale aufwärtsgerichtete Radianzen (Strahldichten) sind mit dem SMART-Albedometer (Spectral Modular Airborne Radiation measurement sysTem) während des CIRCLE-2 (CIRrus CLoud Experiment-2) Feldexperiments im Mai 2007 gemessen worden. Basierend auf diesen Radianzdaten werden mittels eines Wolkenretrievalalgorithmus optische Wolkendicken und effektive Eispartikelradien anhand von eindimensionalen Strahlungstransferrechnungen bestimmt. Die Auswirkung der Annahme unterschiedlicher Eiskristallformen auf die retrievten Parameter wird durch Variation der Einfachstreueigenschaften der Eispartikel untersucht. Darüber hinaus wird mittels Strahlungstransferrechnungen auch der Einfluss der Eiskristallform auf den Strahlungsantrieb von Eiswolken ermittelt. Die Frage nach dem relativen Einfluss von räumlicher Wolkeninhomogenität und Eiskristallform wird anhand von dreidimensionalen und independent pixel approximation (IPA) Strahlungssimulationen untersucht. Die Analyse basiert auf einer Modelleiswolke, die aus Daten des NASA (National Aeronautics and Space Administration) TC4 (Tropical Composition, Cloud, and Climate Coupling) Feldexperiments im Sommer 2007 in Costa Rica erzeugt wurde. Lokal gesehen können beide Effekte - Eiskristallform und räumliche Eiswolkeninhomogenität - die gleiche Grössenordnung haben und zu einer Unter- bzw. Überschätzung der retrievten Parameter um 40 – 60% führen. Gemittelt über die ganze Wolke ist jedoch der Einfluss der Eiskristallform viel bedeutender als der von räumlichen Inhomogenitäten.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Der semileptonische Zerfall K^±→π^0 μ^± υ ist ein geeigneter Kanal zur Be-stimmung des CKM-Matrixelementes 〖|V〗_us |. Das hadronische Matrixelement dieses Zerfalls wird durch zwei dimensionslose Formfaktoren f_± (t) beschrieben. Diese sind abhängig vom Impulsübertrag t=〖(p_K-p_π)〗^2 auf das Leptonpaar. Zur Bestimmung von 〖|V〗_us | dienen die Formfaktoren als wichtige Parameter zur Berechnung des Phasenraumintegrals dieses Zerfalls. Eine präzise Messung der Formfaktoren ist zusätzlich dadurch motiviert, dass das Resultat des NA48-Experimentes von den übrigen Messungen der Experimente KLOE, KTeV und ISTRA+ abweicht. Die Daten einer Messperiode des NA48/2 -Experimentes mit offenem Trigger aus dem Jahre 2004 wurden analysiert. Daraus wählte ich 1.8 Millionen K_μ3^±-Zerfallskandidaten mit einem Untergrundanteil von weniger als 0.1% aus. Zur Bestimmung der Formfaktoren diente die zweidimensionale Dalitz-Verteilung der Daten, nachdem sie auf Akzeptanz des Detektors und auf radiative Effekte korrigiert war. An diese Verteilung wurde die theoretische Parameter-abhängige Funktion mit einer Chiquadrat-Methode angepasst. Es ergeben sich für quadratische, Pol- und dispersive Parametrisierung folgende Formfaktoren: λ_0=(14.82±〖1.67〗_stat±〖0.62〗_sys )×〖10〗^(-3) λ_+^'=(25.53±〖3.51〗_stat±〖1.90〗_sys )×〖10〗^(-3) λ_+^''=( 1.40±〖1.30〗_stat±〖0.48〗_sys )×〖10〗^(-3) m_S=1204.8±〖32.0〗_stat±〖11.4〗_(sys ) MeV/c^2 m_V=(877.4±〖11.1〗_stat±〖11.2〗_(sys ) MeV/c^2 LnC=0.1871±〖0.0088〗_stat±〖0.0031〗_(sys )±=〖0.0056〗_ext Λ_+=(25.42±〖0.73〗_stat±〖0.73〗_(sys )±=〖1.52〗_ext )×〖10〗^(-3) Die Resultate stimmen mit den Messungen der Experimente KLOE, KTeV und ISTRA+ gut überein, und ermöglichen eine Verbesserung des globalen Fits der Formfaktoren. Mit Hilfe der dispersiven Parametrisierung der Formfaktoren, unter Verwendung des Callan-Treiman-Theorems, ist es möglich, einen Wert für f_± (0) zu bestimmen. Das Resultat lautet: f_+ (0)=0.987±〖0.011〗_(NA48/2)±〖0.008〗_(ext ) Der für f_+ (0) berechnete Wert stimmt im Fehler gut mit den vorherigen Messungen von KTeV, KLOE und ISTRA+ überein, weicht jedoch um knapp zwei Standardabweichungen von der theoretischen Vorhersage ab.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The steadily increasing diversity of colloidal systems demands for new theoretical approaches and a cautious experimental characterization. Here we present a combined rheological and microscopical study of colloids in their arrested state whereas we did not aim for a generalized treatise but rather focused on a few model colloids, liquid crystal based colloidal suspensions and sedimented colloidal films. We laid special emphasis on the understanding of the mutual influence of dominant interaction mechanisms, structural characteristics and the particle properties on the mechanical behavior of the colloid. The application of novel combinations of experimental techniques played an important role in these studies. Beside of piezo-rheometry we employed nanoindentation experiments and associated standardized analysis procedures. These rheometric methods were complemented by real space images using confocal microscopy. The flexibility of the home-made setup allowed for a combination of both techniques and thereby for a simultaneous rheological and three-dimensional structural analysis on a single particle level. Though, the limits of confocal microscopy are not reached by now. We show how hollow and optically anisotropic particles can be utilized to quantify contact forces and rotational motions for individual particles. In future such data can contribute to a better understanding of particle reorganization processes, such as the liquidation of colloidal gels and glasses under shear.