980 resultados para Systematic errors


Relevância:

60.00% 60.00%

Publicador:

Resumo:

Das Institut für Kernphysik der Universität Mainz betreibt seit 1990 eine weltweit einzigartige Beschleunigeranlage für kern- und teilchenphysikalische Experimente – das Mainzer Mikrotron (MAMI-B). Diese Beschleunigerkaskade besteht aus drei Rennbahn-Mikrotrons (RTMs) mit Hochfrequenzlinearbeschleunigern bei 2.45 GHz, mit denen ein quasi kontinuierlicher Elektronenstrahl von bis zu 100 μA auf 855MeV beschleunigt werden kann.rnrnIm Jahr 1999 wurde die Umsetzung der letzten Ausbaustufe – ein Harmonisches Doppelseitiges Mikrotron (HDSM, MAMI-C) – mit einer Endenergie von 1.5 GeV begonnen. Die Planung erforderte einige mutige Schritte, z.B. Umlenkmagnete mit Feldgradient und ihren daraus resultierenden strahloptischen Eigenschaften, die einen großen Einfluss auf die Longitudinaldynamik des Beschleunigers haben. Dies erforderte die Einführung der „harmonischen“ Betriebsweise mit zwei Frequenzen der zwei Linearbeschleuniger.rnrnViele Maschinenparameter (wie z.B. HF-Amplituden oder -Phasen) wirken direkt auf den Beschleunigungsprozess ein, ihre physikalischen Größen sind indes nicht immer auf einfache Weise messtechnisch zugänglich. Bei einem RTM mit einer verhältnismäßig einfachen und wohldefinierten Strahldynamik ist das im Routinebetrieb unproblematisch, beim HDSM hingegen ist schon allein wegen der größeren Zahl an Parametern die Kenntnis der physikalischen Größen von deutlich größerer Bedeutung. Es gelang im Rahmen dieser Arbeit, geeignete Methoden der Strahldiagnose zu entwickeln, mit denen diese Maschinenparameter überprüft und mit den Planungsvorgaben verglichen werden können.rnrnDa die Anpassung des Maschinenmodells an eine einzelne Phasenmessung aufgrund der unvermeidlichen Messfehler nicht immer eindeutige Ergebnisse liefert, wird eine Form der Tomographie verwendet. Der longitudinale Phasenraum wird dann in Form einer Akzeptanzmessung untersucht. Anschließend kann ein erweitertes Modell an die gewonnene Datenvielfalt angepasst werden, wodurch eine größere Signifikanz der Modellparameter erreicht wird.rnrnDie Ergebnisse dieser Untersuchungen zeigen, dass sich der Beschleuniger als Gesamtsystem im Wesentlichen wie vorhergesagt verhält und eine große Zahl unterschiedlicher Konfigurationen zum Strahlbetrieb möglich sind – im Routinebetrieb wird dies jedoch vermieden und eine bewährte Konfiguration für die meisten Situationen eingesetzt. Das führt zu einer guten Reproduzierbarkeit z.B. der Endenergie oder des Spinpolarisationswinkels an den Experimentierplätzen.rnrnDie Erkenntnisse aus diesen Untersuchungen wurden teilweise automatisiert, so dass nun den Operateuren zusätzliche und hilfreiche Diagnose zur Verfügung steht, mit denen der Maschinenbetrieb noch zuverlässiger durchgeführt werden kann.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Zentrales Thema der Arbeit war die Aufklärung von Verwandtschaftsverhältnissen im „Tree of Life“ der vielzelligen Tiere (Metazoa) unter Einsatz großer DNA-Sequenzdatensätze und phylogenomischer Methoden. Zur Untersuchung der internen Phylogenie der Syndermata (= meist freilebende Rädertiere („Rotifera“) + endoparasitische Kratzwürmer (Acanthocephala)) sowie ihrer Position im Metazoen-Stammbaum wurden insgesamt sieben neue mitochondriale (mt) Genome sowie neue Transkriptom-Sequenzdaten von sieben verschiedenen Syndermata-Spezies generiert und/oder analysiert. Die Stammbaumrekonstruktionen auf Grundlage dieser sowie orthologer Sequenzen anderer Spezies in Form von phylogenomischen Datensätzen mit bis zu 82.000 Aminosäurepositionen ergaben folgende Aussagen zur Evolution: (i) Innerhalb der Acanthocephala bilden monophyletische Palaeacanthocephala das Schwestertaxon zu den Eoacanthocephala. Die Archiacanthocephala sind Schwestertaxon zu allen vorgenannten. (ii) Innerhalb der Syndermata bilden die epizoisch lebenden Seisonidea das Schwestertaxon zu den endoparasitischen Acanthocephala (= Pararotatoria), die Bdelloidea sind das Schwestertaxon zu den Pararotatoria (= Hemirotifera) und die Monogononta das Schwestertaxon zu den Hemirotifera. Die klassischen Eurotatoria (= Bdelloidea + Monogononta) sind demnach paraphyletisch. (iii) Innerhalb der Metazoa bilden die Syndermata gemeinsam mit den Gnathostomulida die Gnathifera. Diese sind die Schwestergruppe zu allen anderen Spiralia-Taxa, welche sich in Rouphozoa (= Platyhelminthes + Gastrotricha) sowie die Lophotrochozoa aufspalten. Die Platyzoa (= Gnathifera + Platyhelminthes + Gastrotricha) sind demnach paraphyletisch. Diese phylogenetischen Hypothesen wurden im Hinblick auf ihre Implikationen für die Evolution morphologischer und ökologischer Merkmale interpretiert. Demnach sind während der Evolution dieser Tiergruppen mehrfach sekundäre Verlustereignisse von komplexen morphologischen Merkmalen aufgetreten (laterale sensorische Organe innerhalb der Acanthocephala und das Räderorgan (Corona) innerhalb der Syndermata), was die Verwendung dieser Merkmale im Sinne einer klassisch-morphologischen Phylogenetik kritisch erscheinen lässt. Der Endoparasitismus der Acanthocephala hat sich wahrscheinlich über ein epizoisches Zwischenstadium, wie man es heute noch bei den Seisonidea findet, entwickelt. Der letzte gemeinsame Vorfahre der Spiralia war vermutlich klein und unsegmentiert und besaß keine echte Leibeshöhle (Coelom). Demnach hätten sich Segmentierung und Coelome innerhalb der Metazoa mehrfach unabhängig voneinander (konvergent) entwickelt. Die Arbeit beinhaltete folgende weitere, zum Teil methodische Aspekte: (i) die Analyse der Architektur der mt Genome der Monogononta bestätigte die aberrante Organisation in zwei Subgenomen für die Brachionidae. (ii) Eine Prüfung der Tauglichkeit ribosomaler Proteine für molekular-phylogenetische Arbeiten ergab das Vorhandensein widersprüchlicher phylogenetischer Signale in diesen speziellen Proteinsequenzen. (iii) Es konnte nachgewiesen werden, dass systematische Fehler wie „long-branch attraction“ bei der Positionierung der Syndermata im Stammbaum der Metazoa eine große Rolle spielen und adressiert werden müssen.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Diese Arbeit befasst sich mit der photoinduzierten Erzeugung neutraler Pionen, sehr nahe an der Schwellenenergie. Dabei werden zwei Ziele verfolgt: Zum einen die Überprüfung von Vorhersagen dieser effektiven Theorien und Modelle, zum anderen werden hier erstmals alle relevanten Partialwellenamplituden modellunabhängig aus gemessenen Observablen bestimmt. Diese Methode soll in Zukunft auch bei höheren Energien im Bereich der Nukleonresonanzen Anwendung finden. rnrnKonkret wird die Durchführung und Analyse eines Experiments vorgestellt, welches am Mainzer Mikrotron (MAMI) in den Jahren 2010 bis 2013 mit zirkular polarisiertem Photonenstrahl stattfand. Der Photonenstrahl wurde an einer Anlage zur Erzeugung energiemarkierter Bremsstrahlung aus dem Elektronenstrahl von MAMI gewonnen. Zum Nachweis der Reaktionsprodukte diente das hermetische 4pi CB/TAPS-Detektorsystem. Erstmalig standen bei derartigen Messungen auch transversal polarisierte Protonen zur Verfügung. Dazu wird Butanol in einer speziellen Apparatur dynamisch polarisiert. Molekularer Wasserstoff lässt sich aufgrund der para-Konfiguration nicht polarisieren. Wegen der Verwendung von Butanol als Targetmaterial, bei dem weniger als 5% aller erzeugten Pionen an polarisierten Protonen produziert wurden, ist die Behandlung des Untergrunds eine zentrale Aufgabe. rnrnEs werden zwei Methoden der Untergrundseparation vorgestellt, wovon die bessere in der Analyse angewendet wurde. Abschließend findet eine ausführliche Bewertung systematischer Fehler statt.rnrnDie erstmalige Verwendung transversal polarisierter Protonen ermöglicht den Zugang zu bisher nicht gemessenen Spin"=Freiheitsgraden. In Kombination mit einem komplementären Vorläufer-Experiment aus dem Jahr 2008 mit linear polarisiertem Photonenstrahl konnten aus den gewonnenen Daten erstmals alle komplexen s- und p-Partialwellenamplituden modellunabhängig bestimmt werden. rnrnDarüber hinaus wurden im Rahmen dieser Arbeit wesentliche Verbesserungen am apparativen Aufbau erzielt. Beispiele sind ein Elektronenstrahl-Polarimeter, ein zellularer CB-Multiplizitätstrigger, sowie signifikante Verbesserungen der Datennahmeelektronik und des Triggersystems, die teilweise in dieser Arbeit vorgestellt werden.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Thema dieser Arbeit ist die Entwicklung und Kombination verschiedener numerischer Methoden, sowie deren Anwendung auf Probleme stark korrelierter Elektronensysteme. Solche Materialien zeigen viele interessante physikalische Eigenschaften, wie z.B. Supraleitung und magnetische Ordnung und spielen eine bedeutende Rolle in technischen Anwendungen. Es werden zwei verschiedene Modelle behandelt: das Hubbard-Modell und das Kondo-Gitter-Modell (KLM). In den letzten Jahrzehnten konnten bereits viele Erkenntnisse durch die numerische Lösung dieser Modelle gewonnen werden. Dennoch bleibt der physikalische Ursprung vieler Effekte verborgen. Grund dafür ist die Beschränkung aktueller Methoden auf bestimmte Parameterbereiche. Eine der stärksten Einschränkungen ist das Fehlen effizienter Algorithmen für tiefe Temperaturen.rnrnBasierend auf dem Blankenbecler-Scalapino-Sugar Quanten-Monte-Carlo (BSS-QMC) Algorithmus präsentieren wir eine numerisch exakte Methode, die das Hubbard-Modell und das KLM effizient bei sehr tiefen Temperaturen löst. Diese Methode wird auf den Mott-Übergang im zweidimensionalen Hubbard-Modell angewendet. Im Gegensatz zu früheren Studien können wir einen Mott-Übergang bei endlichen Temperaturen und endlichen Wechselwirkungen klar ausschließen.rnrnAuf der Basis dieses exakten BSS-QMC Algorithmus, haben wir einen Störstellenlöser für die dynamische Molekularfeld Theorie (DMFT) sowie ihre Cluster Erweiterungen (CDMFT) entwickelt. Die DMFT ist die vorherrschende Theorie stark korrelierter Systeme, bei denen übliche Bandstrukturrechnungen versagen. Eine Hauptlimitation ist dabei die Verfügbarkeit effizienter Störstellenlöser für das intrinsische Quantenproblem. Der in dieser Arbeit entwickelte Algorithmus hat das gleiche überlegene Skalierungsverhalten mit der inversen Temperatur wie BSS-QMC. Wir untersuchen den Mott-Übergang im Rahmen der DMFT und analysieren den Einfluss von systematischen Fehlern auf diesen Übergang.rnrnEin weiteres prominentes Thema ist die Vernachlässigung von nicht-lokalen Wechselwirkungen in der DMFT. Hierzu kombinieren wir direkte BSS-QMC Gitterrechnungen mit CDMFT für das halb gefüllte zweidimensionale anisotrope Hubbard Modell, das dotierte Hubbard Modell und das KLM. Die Ergebnisse für die verschiedenen Modelle unterscheiden sich stark: während nicht-lokale Korrelationen eine wichtige Rolle im zweidimensionalen (anisotropen) Modell spielen, ist in der paramagnetischen Phase die Impulsabhängigkeit der Selbstenergie für stark dotierte Systeme und für das KLM deutlich schwächer. Eine bemerkenswerte Erkenntnis ist, dass die Selbstenergie sich durch die nicht-wechselwirkende Dispersion parametrisieren lässt. Die spezielle Struktur der Selbstenergie im Impulsraum kann sehr nützlich für die Klassifizierung von elektronischen Korrelationseffekten sein und öffnet den Weg für die Entwicklung neuer Schemata über die Grenzen der DMFT hinaus.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Energy transfer between the interacting waves in a distributed Brillouin sensor can result in a distorted measurement of the local Brillouin gain spectrum, leading to systematic errors. It is demonstrated that this depletion effect can be precisely modelled. This has been validated by experimental tests in an excellent quantitative agreement. Strict guidelines can be enunciated from the model to make the impact of depletion negligible, for any type and any length of fiber. (C) 2013 Optical Society of America

Relevância:

60.00% 60.00%

Publicador:

Resumo:

The purpose of this study was to validate the accuracy, consistency, and reproducibility/reliability of a new method for correction of pelvic tilt and rotation of radiographic hip parameters for pincer type of femoroacetabular impingement on an anteroposterior pelvic radiograph. Thirty cadaver hips and 100 randomized, blinded AP pelvic radiographs were used for investigation. To detect the software accuracy, the calculated femoral head coverage and classic hip parameters determined with our software were compared to reference measurements based on CT scans or conventional radiographs in a neutral orientation as gold standard. To investigate software consistency, differences among the different parameters for each cadaver pelvis were calculated when reckoned back from a random to the neutral orientation. Intra- and interobserver comparisons were used to analyze the reliability and reproducibility of all parameters. All but two parameters showed a good-to-very good accuracy with the reference measurements. No relevant systematic errors were detected in the Bland-Altman analysis. Software consistency was good-to-very good for all parameters. A good-to-very good reliability and reproducibility was found for a substantial number of the evaluated radiographic acetabular parameters. The software appears to be an accurate, consistent, reliable, and reproducible method for analysis of acetabular pathomorphologies.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Our goal was to validate accuracy, consistency, and reproducibility/reliability of a new method for determining cup orientation in total hip arthroplasty (THA). This method allows matching the 3D-model from CT images or slices with the projected pelvis on an anteroposterior pelvic radiograph using a fully automated registration procedure. Cup orientation (inclination and anteversion) is calculated relative to the anterior pelvic plane, corrected for individual malposition of the pelvis during radiograph acquisition. Measurements on blinded and randomized radiographs of 80 cadaver and 327 patient hips were investigated. The method showed a mean accuracy of 0.7 +/- 1.7 degrees (-3.7 degrees to 4.0 degrees) for inclination and 1.2 +/- 2.4 degrees (-5.3 degrees to 5.6 degrees) for anteversion in the cadaver trials and 1.7 +/- 1.7 degrees (-4.6 degrees to 5.5 degrees) for inclination and 0.9 +/- 2.8 degrees (-5.2 degrees to 5.7 degrees) for anteversion in the clinical data when compared to CT-based measurements. No systematic errors in accuracy were detected with the Bland-Altman analysis. The software consistency and the reproducibility/reliability were very good. This software is an accurate, consistent, reliable, and reproducible method to measure cup orientation in THA using a sophisticated 2D/3D-matching technique. Its robust and accurate matching algorithm can be expanded to statistical models.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

The reproducibility of metabolite content determined by MR spectroscopy (MRS) is usually at best a few percent for the prominent singlets. When studying low-concentration metabolites, like phenylalanine (Phe), where tissue content can be <100 micromol/kg, better reproducibility is paramount-particularly in view of using MRS results for potential individual treatment advice. An optimized, targeted spectroscopy method was established at 1.5T and reproducibility was established in 21 patients with phenylketonuria (PKU) where three spectra were recorded in each of three independent sessions, two of which were in immediate succession to minimize physiologic variation. Intersession variation was found to be only 7 micromol/kg Phe for back-to-back repetition of sessions, in close agreement with the variation of 16 micromol/kg observed for single spectra within a session. Analysis of variance proved the individuality of the blood/brain Phe ratio-though this ratio seems to be influenced by physiologic factors that are not stable in time. The excellent reproducibility was achieved through optimization of various factors, including signal-to-noise ratio, repositioning, and prescan calibrations, but also by enforcing as much prior information as possible (e.g., lineshape and phase from reference scans, constant prior-knowledge-locked baseline). While the application of maximum general prior knowledge is a general method to reduce fluctuations, one should remember that it may introduce systematic errors.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Any functionally important mutation is embedded in an evolutionary matrix of other mutations. Cladistic analysis, based on this, is a method of investigating gene effects using a haplotype phylogeny to define a set of tests which localize causal mutations to branches of the phylogeny. Previous implementations of cladistic analysis have not addressed the issue of analyzing data from related individuals, though in human studies, family data are usually needed to obtain unambiguous haplotypes. In this study, a method of cladistic analysis is described in which haplotype effects are parameterized in a linear model which accounts for familial correlations. The method was used to study the effect of apolipoprotein (Apo) B gene variation on total-, LDL-, and HDL-cholesterol, triglyceride, and Apo B levels in 121 French families. Five polymorphisms defined Apo B haplotypes: the signal peptide Insertion/deletion, Bsp 1286I, XbaI, MspI, and EcoRI. Eleven haplotypes were found, and a haplotype phylogeny was constructed and used to define a set of tests of haplotype effects on lipid and apo B levels.^ This new method of cladistic analysis, the parametric method, found significant effects for single haplotypes for all variables. For HDL-cholesterol, 3 clusters of evolutionarily-related haplotypes affecting levels were found. Haplotype effects accounted for about 10% of the genetic variance of triglyceride and HDL-cholesterol levels. The results of the parametric method were compared to those of a method of cladistic analysis based on permutational testing. The permutational method detected fewer haplotype effects, even when modified to account for correlations within families. Simulation studies exploring these differences found evidence of systematic errors in the permutational method due to the process by which haplotype groups were selected for testing.^ The applicability of cladistic analysis to human data was shown. The parametric method is suggested as an improvement over the permutational method. This study has identified candidate haplotypes for sequence comparisons in order to locate the functional mutations in the Apo B gene which may influence plasma lipid levels. ^

Relevância:

60.00% 60.00%

Publicador:

Resumo:

The GOCE satellite was orbiting the Earth in a Sun-synchronous orbit at a very low altitude for more than 4 years. This low orbit and the availability of high-quality data make it worthwhile to assess the contribution of GOCE GPS data to the recovery of both the static and time-variable gravity fields. We use the kinematic positions of the official GOCE precise science orbit (PSO) product to perform gravity field determination using the Celestial Mechanics Approach. The generated gravity field solutions reveal severe systematic errors centered along the geomagnetic equator. Their size is significantly coupled with the ionospheric density and thus generally increasing over the mission period. The systematic errors may be traced back to the kinematic positions of the PSO product and eventually to the ionosphere-free GPS carrier phase observations used for orbit determination. As they cannot be explained by the current higher order ionospheric correction model recommended by the IERS Conventions 2010, an empirical approach is presented by discarding GPS data affected by large ionospheric changes. Such a measure yields a strong reduction of the systematic errors along the geomagnetic equator in the gravity field recovery, and only marginally reduces the set of useable kinematic positions by at maximum 6 % for severe ionosphere conditions. Eventually it is shown that GOCE gravity field solutions based on kinematic positions have a limited sensitivity to the largest annual signal related to land hydrology.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

The Multi-GNSS Experiment (MGEX) of the International GNSS Service (IGS) aims at the data collection and analysis of all available satellite navigation systems. In particular the new global and regional satellite navigation systems are of interest, i.e., the European Galileo, the Chinese BeiDou, the Japanese QZSS as well as satellite based augmentation systems. This article analyzes the orbit and clock quality of the Galileo products of four MGEX analysis centers for a common time period of 20 weeks. Orbit comparisons of the individual analysis centers have a consistency at the 5–30 cm level. Day boundary discontinuities range from 4 to 28 cm whereas 2-day orbit fit RMS values vary between 1 and 7 cm. The accuracy evaluated by satellite laser ranging residuals is on the one decimeter level with a systematic bias of about −5 cm for all analysis centers. In addition, systematic errors on the decimeter level related to solar radiation pressure mismodeling are present in all orbit products. Due to the correlation of radial orbit errors with the clock parameters, these errors are also visible as a bump in the Allan deviation of the Galileo satellite clocks at the orbital frequency.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

BACKGROUND The abstraction of data from medical records is a widespread practice in epidemiological research. However, studies using this means of data collection rarely report reliability. Within the Transition after Childhood Cancer Study (TaCC) which is based on a medical record abstraction, we conducted a second independent abstraction of data with the aim to assess a) intra-rater reliability of one rater at two time points; b) the possible learning effects between these two time points compared to a gold-standard; and c) inter-rater reliability. METHOD Within the TaCC study we conducted a systematic medical record abstraction in the 9 Swiss clinics with pediatric oncology wards. In a second phase we selected a subsample of medical records in 3 clinics to conduct a second independent abstraction. We then assessed intra-rater reliability at two time points, the learning effect over time (comparing each rater at two time-points with a gold-standard) and the inter-rater reliability of a selected number of variables. We calculated percentage agreement and Cohen's kappa. FINDINGS For the assessment of the intra-rater reliability we included 154 records (80 for rater 1; 74 for rater 2). For the inter-rater reliability we could include 70 records. Intra-rater reliability was substantial to excellent (Cohen's kappa 0-6-0.8) with an observed percentage agreement of 75%-95%. In all variables learning effects were observed. Inter-rater reliability was substantial to excellent (Cohen's kappa 0.70-0.83) with high agreement ranging from 86% to 100%. CONCLUSIONS Our study showed that data abstracted from medical records are reliable. Investigating intra-rater and inter-rater reliability can give confidence to draw conclusions from the abstracted data and increase data quality by minimizing systematic errors.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Recently a new method to set the scale in lattice gauge theories, based on the gradient flow generated by the Wilson action, has been proposed, and the systematic errors of the new scales t0 and w0 have been investigated by various groups. The Wilson flow provides also an interesting alternative smoothing procedure particularly useful for the measurement of the topological charge as a pure gluonic observable. We show the viability of this method for N=1 supersymmetric Yang-Mills theory by analysing the configurations produced by the DESY-Muenster Collaboration. The relation between the scale and the topological charge has been investigated showing a strong correlation. We have found that the scale has a linear dependence on the topological charge, the slope of which increases decreasing the volume and the gluino mass. Moreover we have investigated this dependence as a function of the reference parameter used to define the scale: the tuning of this parameter turns out to be fundamental for a more reliable scale setting. Similar conclusions hold for the Sommer parameter r0.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Additive and multiplicative models of relative risk were used to measure the effect of cancer misclassification and DS86 random errors on lifetime risk projections in the Life Span Study (LSS) of Hiroshima and Nagasaki atomic bomb survivors. The true number of cancer deaths in each stratum of the cancer mortality cross-classification was estimated using sufficient statistics from the EM algorithm. Average survivor doses in the strata were corrected for DS86 random error ($\sigma$ = 0.45) by use of reduction factors. Poisson regression was used to model the corrected and uncorrected mortality rates with covariates for age at-time-of-bombing, age at-time-of-death and gender. Excess risks were in good agreement with risks in RERF Report 11 (Part 2) and the BEIR-V report. Bias due to DS86 random error typically ranged from $-$15% to $-$30% for both sexes, and all sites and models. The total bias, including diagnostic misclassification, of excess risk of nonleukemia for exposure to 1 Sv from age 18 to 65 under the non-constant relative projection model was $-$37.1% for males and $-$23.3% for females. Total excess risks of leukemia under the relative projection model were biased $-$27.1% for males and $-$43.4% for females. Thus, nonleukemia risks for 1 Sv from ages 18 to 85 (DRREF = 2) increased from 1.91%/Sv to 2.68%/Sv among males and from 3.23%/Sv to 4.02%/Sv among females. Leukemia excess risks increased from 0.87%/Sv to 1.10%/Sv among males and from 0.73%/Sv to 1.04%/Sv among females. Bias was dependent on the gender, site, correction method, exposure profile and projection model considered. Future studies that use LSS data for U.S. nuclear workers may be downwardly biased if lifetime risk projections are not adjusted for random and systematic errors. (Supported by U.S. NRC Grant NRC-04-091-02.) ^

Relevância:

60.00% 60.00%

Publicador:

Resumo:

This paper reports the concentrations and within-class distributions of long-chain alkenones and alkyl alkenoates in the surface waters (0-50 m) of the eastern North Atlantic, and correlates their abundance and distribution with those of source organisms and with water temperature and other environmental variables. We collected these samples of >0.8 µm particulate material from the euphotic zone along the JGOFS 20°W longitude transect, from 61°N to 24°N, during seven cruises of the UK-JGOFS Biogeochemical Ocean Flux Study (BOFS) in 1989-1991; the biogeographical range of our 53 samples extends from the cold (<10°C), nutrient-rich and highly productive subarctic waters of the Iceland Basin to the warm (>25°C) oligotrophic subtropical waters off Africa. Surface water concentrations of total alkenone and alkenoates ranged from <50 ng/l in oligotrophic waters below 40°N to 2000-4500 ng/l in high latitude E. huxleyi blooms, and were well correlated with E. huxleyi cell densities, supporting the assumption that E. huxleyi is the predominant source of these compounds in the present day North Atlantic. The within-class distribution of the C37 and C38 alkenones and C36 alkenoates varied strongly as a function of temperature, and was largely unaffected by nutrient concentration, bloom status and other surface water properties. The biosynthetic response of the source organisms to growth temperature differed between the cold (<16°C) waters above 47°N and the warmer waters to the south. In cold (<16°C) waters above 47°N, the relative amounts of alkenoates and C38 alkenones synthesized was a strong function of growth temperature, while the unsaturation ratio of the alkenones (C37 and C38) was uncorrelated with temperature. Conversely, in warm (>16°C) waters below 47°N, the relative proportions of alkenoates and alkenones synthesized remained constant with increasing temperature while the unsaturation ratios of the C37 and C38 methyl alkenones (Uk37 and Uk38Me, respectively) increased linearly. The fitted regressions of Uk37 and Uk38Me versus temperature for waters >16°C were both highly significant (r**2 > 0.96) and had identical slopes (0.057) that were 50% higher than the slope (0.034) of the temperature calibration of Uk37 reported by Prahl and Wakeham (1987; doi:10.1038/330367a0) over the same temperature range. These observations suggest either a physiological adjustment in biochemical response to growth temperature above a 16-17°C threshold and/or variation between different E. huxleyi strains and/or related species inhabiting the cold and warm water regions of the eastern North Atlantic. Using our North Atlantic data set, we have produced multivariate temperature calibrations incorporating all major features of the alkenone and alkenoate data set. Predicted temperatures using multivariate calibrations are largely unbiased, with a standard error of approximately ±1°C over the entire data range. In contrast, simpler calibration models cannot adequately incorporate regional diversity and nonlinear trends with temperature. Our results indicate that calibrations based upon single variables, such as Uk37, can be strongly biased by unknown systematic errors arising from natural variability in the biosynthetic response of the source organisms to growth temperature. Multivariate temperature calibration can be expected to give more precise estimates of Integrated Production Temperatures (IPT) in the sedimentary record over a wider range of paleoenvironmental conditions, when derived using a calibration data set incorporating a similar range of natural variability in biosynthetic response.