962 resultados para Measurement errors


Relevância:

60.00% 60.00%

Publicador:

Resumo:

Although measurement errors can impair statistical analysis, reliability analysis has been neglected in applied microbiology. This study assessed the intra-rater reproducibility of the Agar-based method for estimation of phospholipase activity (Pz). Pz readings were performed twice by two examiners (E1, E2), either directly on plates or in photos, and both black and white backgrounds were used. Pz values were taken from one or triplicate colonies from each sample (n=30). Intra-examiner reproducibility was estimated using Intraclass Correlation Coefficient (ICC). For both examiners, reading triplicate (ICCE1=0.91, ICCE2=0.86) was better than one colony (ICCE1=0.86, ICCE2=0.80). E1 had an excellent concordance when measurements were performed on photos using a white background (ICC=0.95) and a good concordance in the other conditions

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Most biological systems are formed by component parts that are to some degree interrelated. Groups of parts that are more associated among themselves and are relatively autonomous from others are called modules. One of the consequences of modularity is that biological systems usually present an unequal distribution of the genetic variation among traits. Estimating the covariance matrix that describes these systems is a difficult problem due to a number of factors such as poor sample sizes and measurement errors. We show that this problem will be exacerbated whenever matrix inversion is required, as in directional selection reconstruction analysis. We explore the consequences of varying degrees of modularity and signal-to-noise ratio on selection reconstruction. We then present and test the efficiency of available methods for controlling noise in matrix estimates. In our simulations, controlling matrices for noise vastly improves the reconstruction of selection gradients. We also perform an analysis of selection gradients reconstruction over a New World Monkeys skull database to illustrate the impact of noise on such analyses. Noise-controlled estimates render far more plausible interpretations that are in full agreement with previous results.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

The purpose of this Thesis is to develop a robust and powerful method to classify galaxies from large surveys, in order to establish and confirm the connections between the principal observational parameters of the galaxies (spectral features, colours, morphological indices), and help unveil the evolution of these parameters from $z \sim 1$ to the local Universe. Within the framework of zCOSMOS-bright survey, and making use of its large database of objects ($\sim 10\,000$ galaxies in the redshift range $0 < z \lesssim 1.2$) and its great reliability in redshift and spectral properties determinations, first we adopt and extend the \emph{classification cube method}, as developed by Mignoli et al. (2009), to exploit the bimodal properties of galaxies (spectral, photometric and morphologic) separately, and then combining together these three subclassifications. We use this classification method as a test for a newly devised statistical classification, based on Principal Component Analysis and Unsupervised Fuzzy Partition clustering method (PCA+UFP), which is able to define the galaxy population exploiting their natural global bimodality, considering simultaneously up to 8 different properties. The PCA+UFP analysis is a very powerful and robust tool to probe the nature and the evolution of galaxies in a survey. It allows to define with less uncertainties the classification of galaxies, adding the flexibility to be adapted to different parameters: being a fuzzy classification it avoids the problems due to a hard classification, such as the classification cube presented in the first part of the article. The PCA+UFP method can be easily applied to different datasets: it does not rely on the nature of the data and for this reason it can be successfully employed with others observables (magnitudes, colours) or derived properties (masses, luminosities, SFRs, etc.). The agreement between the two classification cluster definitions is very high. ``Early'' and ``late'' type galaxies are well defined by the spectral, photometric and morphological properties, both considering them in a separate way and then combining the classifications (classification cube) and treating them as a whole (PCA+UFP cluster analysis). Differences arise in the definition of outliers: the classification cube is much more sensitive to single measurement errors or misclassifications in one property than the PCA+UFP cluster analysis, in which errors are ``averaged out'' during the process. This method allowed us to behold the \emph{downsizing} effect taking place in the PC spaces: the migration between the blue cloud towards the red clump happens at higher redshifts for galaxies of larger mass. The determination of $M_{\mathrm{cross}}$ the transition mass is in significant agreement with others values in literature.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Die diffusionsgewichtete Magnetresonanztomographie (MRT) mit dem hyperpolarisierten Edelgas-Isotop 3He ist ein neues Verfahren zur Untersuchung von Erkrankungen der Atem-wege und der Lunge. Die Diffusionsbewegung der 3He-Atome in den Luftwegen der Lunge wird durch deren Wände begrenzt, wobei diese Einschränkung sowohl von den Dimensionen der Atemwege als auch von den Messparametern abhängt. Man misst daher einen scheinbaren Diffusionskoeffizienten (Apparent Diffusion Coefficient, ADC) der kleiner ist als der Diffusionskoeffizient bei freier Diffusion. Der ADC gestattet somit eine qualitative Abschät-zung der Größe der Luftwege und deren krankhafte Veränderung, ohne eine direkte Abbil-dung der Luftwege selbst. Eine dreidimensionale Abbildung der räumlichen Verteilung von Lungenschädigungen wird dadurch möglich. Ziel der vorliegenden Arbeit war es, ein tieferes physikalisch fundiertes Verständnis der 3He-Diffusionsmessung zu ermöglichen und die Methode der diffusionsgewichteten 3He-MRT hin zur Erfassung des kompletten 3He-Diffusionstensors weiterzuentwickeln. Dazu wurde systematisch im Rahmen von Phantom- und tierexperimentellen Studien sowie Patientenmes-sungen untersucht, inwieweit unterschiedliche Einflussfaktoren das Ergebnis der ADC-Messung beeinflussen. So konnte beispielsweise nachgewiesen werden, dass residuale Luftströmungen am Ende der Einatmung keinen Einfluss auf den ADC-Wert haben. Durch Simulationsrechnungen konnte gezeigt werden, in welchem Maße sich die durch den Anregungspuls hervorgerufene Abnah-me der Polarisation des 3He-Gases auf den gemessenen ADC-Wert auswirkt. In einer Studie an lungengesunden Probanden und Patienten konnte die Wiederholbarkeit der ADC-Messung untersucht werden, aber auch der Einfluss von Gravitationseffekten. Diese Ergebnisse ermöglichen genauere Angaben über systematische und statistische Messfehler, sowie über Grenzwerte zwischen normalem und krankhaft verändertem Lungengewebe. Im Rahmen dieser Arbeit wurde die bestehende diffusionsgewichtete Bildgebung methodisch zur Erfassung des kompletten Diffusionstensors von 3He in der Lunge weiterentwickelt. Dies war wichtig, da entlang der Luftwege weitestgehend freie Diffusion vorherrscht, während senkrecht zu den Luftwegen die Diffusion eingeschränkt ist. Mit Hilfe von Simulationsrech-nungen wurde der kritische Einfluss von Rauschen in den MRT-Bildern auf die Qualität der Messergebnisse untersucht. Diese neue Methodik wurde zunächst an einem Phantom beste-hend aus einem Bündel aus Glaskapillaren, deren innerer Durchmesser mit dem des mensch-lichen Azinus übereinstimmt, validiert. Es ergab sich eine gute Übereinstimmung zwischen theoretischen Berechnungen und experimentellen Ergebnissen. In ersten Messungen am Menschen konnten so unterschiedliche Anisotropiewerte zwischen lungengesunden Proban-den und Patienten gefunden werden. Es zeigte sich eine Tendenz zu isotroper Diffusion bei Patienten mit einem Lungenemphysem. Zusammenfassend tragen die Ergebnisse der vorliegenden Arbeit zu einem besseren Ver-ständnis der ADC-Messmethode bei und helfen zukünftige Studien aufgrund des tieferen Verständnisses der die 3He Messung beeinflussenden Faktoren besser zu planen.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Die Verifikation numerischer Modelle ist für die Verbesserung der Quantitativen Niederschlagsvorhersage (QNV) unverzichtbar. Ziel der vorliegenden Arbeit ist die Entwicklung von neuen Methoden zur Verifikation der Niederschlagsvorhersagen aus dem regionalen Modell der MeteoSchweiz (COSMO-aLMo) und des Globalmodells des Europäischen Zentrums für Mittelfristvorhersage (engl.: ECMWF). Zu diesem Zweck wurde ein neuartiger Beobachtungsdatensatz für Deutschland mit stündlicher Auflösung erzeugt und angewandt. Für die Bewertung der Modellvorhersagen wurde das neue Qualitätsmaß „SAL“ entwickelt. Der neuartige, zeitlich und räumlich hoch-aufgelöste Beobachtungsdatensatz für Deutschland wird mit der während MAP (engl.: Mesoscale Alpine Program) entwickelten Disaggregierungsmethode erstellt. Die Idee dabei ist, die zeitlich hohe Auflösung der Radardaten (stündlich) mit der Genauigkeit der Niederschlagsmenge aus Stationsmessungen (im Rahmen der Messfehler) zu kombinieren. Dieser disaggregierte Datensatz bietet neue Möglichkeiten für die quantitative Verifikation der Niederschlagsvorhersage. Erstmalig wurde eine flächendeckende Analyse des Tagesgangs des Niederschlags durchgeführt. Dabei zeigte sich, dass im Winter kein Tagesgang existiert und dies vom COSMO-aLMo gut wiedergegeben wird. Im Sommer dagegen findet sich sowohl im disaggregierten Datensatz als auch im COSMO-aLMo ein deutlicher Tagesgang, wobei der maximale Niederschlag im COSMO-aLMo zu früh zwischen 11-14 UTC im Vergleich zu 15-20 UTC in den Beobachtungen einsetzt und deutlich um das 1.5-fache überschätzt wird. Ein neues Qualitätsmaß wurde entwickelt, da herkömmliche, gitterpunkt-basierte Fehlermaße nicht mehr der Modellentwicklung Rechnung tragen. SAL besteht aus drei unabhängigen Komponenten und basiert auf der Identifikation von Niederschlagsobjekten (schwellwertabhängig) innerhalb eines Gebietes (z.B. eines Flusseinzugsgebietes). Berechnet werden Unterschiede der Niederschlagsfelder zwischen Modell und Beobachtungen hinsichtlich Struktur (S), Amplitude (A) und Ort (L) im Gebiet. SAL wurde anhand idealisierter und realer Beispiele ausführlich getestet. SAL erkennt und bestätigt bekannte Modelldefizite wie das Tagesgang-Problem oder die Simulation zu vieler relativ schwacher Niederschlagsereignisse. Es bietet zusätzlichen Einblick in die Charakteristiken der Fehler, z.B. ob es sich mehr um Fehler in der Amplitude, der Verschiebung eines Niederschlagsfeldes oder der Struktur (z.B. stratiform oder kleinskalig konvektiv) handelt. Mit SAL wurden Tages- und Stundensummen des COSMO-aLMo und des ECMWF-Modells verifiziert. SAL zeigt im statistischen Sinne speziell für stärkere (und damit für die Gesellschaft relevante Niederschlagsereignisse) eine im Vergleich zu schwachen Niederschlägen gute Qualität der Vorhersagen des COSMO-aLMo. Im Vergleich der beiden Modelle konnte gezeigt werden, dass im Globalmodell flächigere Niederschläge und damit größere Objekte vorhergesagt werden. Das COSMO-aLMo zeigt deutlich realistischere Niederschlagsstrukturen. Diese Tatsache ist aufgrund der Auflösung der Modelle nicht überraschend, konnte allerdings nicht mit herkömmlichen Fehlermaßen gezeigt werden. Die im Rahmen dieser Arbeit entwickelten Methoden sind sehr nützlich für die Verifikation der QNV zeitlich und räumlich hoch-aufgelöster Modelle. Die Verwendung des disaggregierten Datensatzes aus Beobachtungen sowie SAL als Qualitätsmaß liefern neue Einblicke in die QNV und lassen angemessenere Aussagen über die Qualität von Niederschlagsvorhersagen zu. Zukünftige Anwendungsmöglichkeiten für SAL gibt es hinsichtlich der Verifikation der neuen Generation von numerischen Wettervorhersagemodellen, die den Lebenszyklus hochreichender konvektiver Zellen explizit simulieren.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

The interaction between aerosols and sun light plays an important role in the radiative balance of Earth’s atmosphere. This interaction is obtained by measuring the removal (extinction), redistribution (scattering), and transformation into heat (absorption) of light by the aerosols; i.e. their optical properties. Knowledge of these properties is crucial for our understanding of the atmospheric system. rn Light absorption by aerosols is a major contributor to the direct and indirect effects on our climate system, and an accurate and sensitive measurement method is crucial to further our understanding. A homebuilt photoacoustic sensor (PAS), measuring at a 532nm wavelength, was fully characterized and its functionality validated for measurements of absorbing aerosols. The optical absorption cross-sections of absorbing polystyrene latex spheres, to be used as a standard for aerosol absorption measurements, were measured and compared to literature values. Additionally, a calibration method using absorbing aerosol of known complex refractive index was presented.rn A new approach to retrieve the effective broadband refractive indices (mbroad,eff) of aerosol particles by a white light aerosol spectrometer (WELAS) optical particle counter (OPC) was achieved. Using a tandem differential mobility analyzer (DMA)-OPC system, the nbroad,eff are obtained for both laboratory and field applications. This method was tested in the laboratory using substances with a wide range of optical properties and it was used in ambient measurements to retrieve the nbroad,eff of biomass burning aerosols in a nationwide burning event in Israel. The retrieved effective broadband refractive indices for laboratory generated scattering aerosols were: ammonium sulfate (AS), glutaric acid (GA), and sodium chloride, all within 4% of literature values. For absorbing substances, nigrosine and various mixtures of nigrosine with AS and GA were measured, as well as a lightly absorbing substance, Suwannee river fulvic acid (SRFA). For the ambient measurements, the calibration curves generated from this method were to follow the optical evolution of biomass burning (BB) aerosols. A decrease in the overall aerosol absorption and scattering for aged aerosols during the day after the fires compared to the smoldering phase of the fires was found. rn The connection between light extinction of aerosols, their chemical composition and hygroscopicity for particles with different degrees of absorption was studied. The extinction cross-section (σext) at 532nm for different mobility diameters was measured at 80% and 90% relative humidity (RH), and at an RH<10%. The ratio of the humidified aerosols to the dry ones, fRHext(%RH,Dry), is presented. For purely scattering aerosols, fRHext(%RH,Dry) is inversely proportional with size; this dependence was suppressed for lightly absorbing ones. In addition, the validity of the mixing rules for water soluble absorbing aerosols is explored. The difference between the derived and calculated real parts of the complex RIs were less than 5.3% for all substances, wavelengths, and RHs. The obtained imaginary parts for the retrieved and calculated RIs were in good agreement with each other, and well within the measurement errors of retrieval from pulsed CRD spectroscopy measurements. Finally, a core-shell structure model is also used to explore the differences between the models, for substances with low growth factors, under these hydration conditions. It was found that at 80% RH and for size parameters less than 2.5, there is less than a 5 % difference between the extinction efficiencies calculated with both models. This difference is within measurement errors; hence, there is no significant difference between the models in this case. However, for greater size parameters the difference can be up to 10%. For 90% RH the differences below a size parameter of 2.5 were up to 7%.rn Finally, the fully characterized PAS together with a cavity ring down spectrometer (CRD), were used to study the optical properties of soot and secondary organic aerosol (SOA) during the SOOT-11 project in the AIDA chamber in Karlsruhe, Germany. The fresh fractal-like soot particles were allowed to coagulate for 28 hours before stepwise coating them with SOA. The single scattering albedo for fresh fractal-like soot was measured to be 0.2 (±0.03), and after allowing the soot to coagulate for 28 hours and coating it with SOA, it increased to 0.71(±0.01). An absorption enhancement of the coated soot of up to 1.71 (±0.03) times from the non-coated coagulated soot was directly measured with the PAS. Monodisperse measurements of SOA and soot coated with SOA were performed to derive the complex refractive index (m) of both aerosols. A complex refractive index of m = 1.471(±0.008) + i0.0(±0.002) for the SOA-αO3 was retrieved. For the compact coagulated soot a preliminary complex refractive index of m = 2.04(+0.21/-0.14) + i0.34(+0.18/-0.06) with 10nm(+4/-6) coating thickness was retrieved.rn These detail properties can be use by modelers to decrease uncertainties in assessing climatic impacts of the different species and to improve weather forecasting.rn

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Polare Stratosphärenwolken (PSC), die unterhalb einer Temperatur von etwa -78 °C in polaren Regionen auftreten, üben einen starken Einfluss auf die stratosphärische Ozonschicht aus. Dieser Einfluss erfolgt größtenteils über heterogene chemische Reaktionen, die auf den Oberflächen von Wolkenpartikeln stattfinden. Chemische Reaktionen die dabei ablaufen sind eine Voraussetzung für den späteren Ozonabbau. Des Weiteren verändert die Sedimentation der Wolkenpartikel die chemische Zusammensetzung bzw. die vertikale Verteilung der Spurengase in der Stratosphäre. Für die Ozonchemie spielt dabei die Beseitigung von reaktivem Stickstoff durch Sedimentation Salpetersäure-haltiger Wolkenpartikeln (Denitrifizierung) eine wichtige Rolle. Durch gleichen Sedimentationsprozess von PSC Elementen wird der Stratosphäre des weiteren Wasserdampf entzogen (Dehydrierung). Beide Prozesse begünstigen einen länger andauernden stratosphärischen Ozonabbau im polaren Frühling.rnGerade im Hinblick auf die Denitrifikation durch Sedimentation größerer PSC-Partikel werden in dieser Arbeit neue Resultate von in-situ Messungen vorgestellt, die im Rahmen der RECONCILE-Kampagne im Winter des Jahres 2010 an Bord des Höhenforschungs-Flugzeugs M-55 Geophysica durchgeführt wurden. Dabei wurden in fünf Flügen Partikelgrößenverteilungen in einem Größenbereich zwischen 0,5 und 35 µm mittels auf der Lichtstreuung basierender Wolkenpartikel-Spektrometer gemessen. Da polare Stratosphärenwolken in Höhen zwischen 17 und 30 km auftreten, sind in-situ Messungen vergleichsweise selten, so dass noch einige offene Fragen bestehen bleiben. Gerade Partikel mit optischen Durchmessern von bis zu 35µm, die während der neuen Messungen detektiert wurden, müssen mit theoretischen Einschränkungen in Einklang gebracht werden. Die Größe der Partikel wird dabei durch die Verfügbarkeit der beteiligten Spurenstoffe (Wasserdampf und Salpetersäure), die Sedimentationsgeschwindigkeit, Zeit zum Anwachsen und von der Umgebungstemperatur begrenzt. Diese Faktoren werden in der vorliegenden Arbeit diskutiert. Aus dem gemessenen Partikelvolumen wird beispielsweise unter der Annahme der NAT-Zusammensetzung (Nitric Acid Trihydrate) die äquivalente Konzentration des HNO 3 der Gasphase berechnet. Im Ergebnis wird die verfügbare Konzentration von Salpetersäure der Stratosphäre überschritten. Anschließend werden Hypothesen diskutiert, wodurch das gemessene Partikelvolumen überschätzt worden sein könnte, was z.B. im Fall einer starken Asphärizität der Partikel möglich wäre. Weiterhin wurde eine Partikelmode unterhalb von 2-3µm im Durchmesser aufgrund des Temperaturverhaltens als STS (Supercooled Ternary Solution droplets) identifiziert.rnUm die Konzentration der Wolkenpartikel anhand der Messung möglichst genau berechnen zu können, muss das Messvolumen bzw. die effektive Messfläche der Instrumente bekannt sein. Zum Vermessen dieser Messfläche wurde ein Tröpfchengenerator aufgebaut und zum Kalibrieren von drei Instrumenten benutzt. Die Kalibration mittels des Tröpfchengenerators konzentrierte sich auf die Cloud Combination Probe (CCP). Neben der Messfläche und der Größenbestimmung der Partikel werden in der Arbeit unter Zuhilfenahme von Messungen in troposphärischen Wolken und an einer Wolkensimulationskammer auch weitere Fehlerquellen der Messung untersucht. Dazu wurde unter anderem die statistische Betrachtung von Intervallzeiten einzelner Messereignisse, die in neueren Sonden aufgezeichnet werden, herangezogen. Letzteres ermöglicht es, Messartefakte wie Rauschen, Koinzidenzfehler oder „Shattering“ zu identifizieren.rn

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Die Materialverfolgung gewinnt in der Metallindustrie immer mehr an Bedeutung:rnEs ist notwendig, dass ein Metallband im Fertigungsprozess ein festgelegtes Programm durchläuft - erst dann ist die Qualität des Endprodukts garantiert. Die bisherige Praxis besteht darin, jedem Metallband eine Nummer zuzuordnen, mit der dieses Band beschriftet wird. Bei einer tagelangen Lagerung der Bänder zwischen zwei Produktionsschritten erweist sich diese Methode als fehleranfällig: Die Beschriftungen können z.B. verloren gehen, verwechselt, falsch ausgelesen oder unleserlich werden. 2007 meldete die iba AG das Patent zur Identifikation der Metallbänder anhand ihres Dickenprofils an (Anhaus [3]) - damit kann die Identität des Metallbandes zweifelsfrei nachgewiesen werden, eine zuverlässige Materialverfolgung wurde möglich.Es stellte sich jedoch heraus, dass die messfehlerbehafteten Dickenprofile, die als lange Zeitreihen aufgefasst werden können, mit Hilfe von bisherigen Verfahren (z.B. L2-Abstandsminimierung oder Dynamic Time Warping) nicht erfolgreich verglichen werden können.Diese Arbeit stellt einen effizienten feature-basierten Algorithmus zum Vergleichrnzweier Zeitreihen vor. Er ist sowohl robust gegenüber Rauschen und Messausfällen als auch invariant gegenüber solchen Koordinatentransformationen der Zeitreihen wie Skalierung und Translation. Des Weiteren sind auch Vergleiche mit Teilzeitreihen möglich. Unser Framework zeichnet sich sowohl durch seine hohe Genauigkeit als auch durch seine hohe Geschwindigkeit aus: Mehr als 99.5% der Anfragen an unsere aus realen Profilen bestehende Testdatenbank werden richtig beantwortet. Mit mehreren hundert Zeitreihen-Vergleichen pro Sekunde ist es etwa um den Faktor 10 schneller als die auf dem Gebiet der Zeitreihenanalyse etablierten Verfahren, die jedoch nicht im Stande sind, mehr als 90% der Anfragen korrekt zu verarbeiten. Der Algorithmus hat sich als industrietauglich erwiesen. Die iba AG setzt ihn in einem weltweit einzigartigen dickenprofilbasierten Überwachungssystemrnzur Materialverfolgung ein, das in ersten Stahl- und Aluminiumwalzwerkenrnbereits erfolgreich zum Einsatz kommt.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

A popular method for nasolabial rating in unilateral cleft lip and palate (UCLP) is the Asher-McDade system consisting of a 5-point ordinal scale assessing nasal form, nasal symmetry, nasal profile, and vermilion border. The aim of the current study was to identify reference photographs illustrating this scale to facilitate its use.Four observers assessed nasolabial appearance on frontal and profile photographs of the nasolabial area of 42 children of Caucasian origin with a repaired UCLP at age 9 years. Cronbachs alpha, based on the individual scores of the 4 observers, ranged from 0.73 to 0.82 for the 4 nasolabial ratings, indicating a good reliability. The reliability of the overall score (mean of the 4 component scores) was also high (Cronbachs alpha, 0.83). Both for the nasolabial component ratings and for the overall score, duplicate measurement errors were small. The reliability for the mean of the 4 observers' scores was good, Spearman rank correlation coefficients ranging from 0.56 to 0.96.Subsequently, photographs were selected that showed the highest agreement among observers. For each of the 4 components (eg, nasal form, nasal deviation, nasal profile, and shape of the vermilion border), 5 photographs were selected to illustrate the whole range of the scale (score, 1-5), resulting in the selection of 20 pictures.It was concluded that nasolabial appearance rating can be performed reliably using a panel of judges and averaging the scores of all observers. Reference photographs, as developed from this study, may facilitate the rating task.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

In situ diffusion experiments are performed in geological formations at underground research laboratories to overcome the limitations of laboratory diffusion experiments and investigate scale effects. Tracer concentrations are monitored at the injection interval during the experiment (dilution data) and measured from host rock samples around the injection interval at the end of the experiment (overcoring data). Diffusion and sorption parameters are derived from the inverse numerical modeling of the measured tracer data. The identifiability and the uncertainties of tritium and Na-22(+) diffusion and sorption parameters are studied here by synthetic experiments having the same characteristics as the in situ diffusion and retention (DR) experiment performed on Opalinus Clay. Contrary to previous identifiability analyses of in situ diffusion experiments, which used either dilution or overcoring data at approximate locations, our analysis of the parameter identifiability relies simultaneously on dilution and overcoring data, accounts for the actual position of the overcoring samples in the claystone, uses realistic values of the standard deviation of the measurement errors, relies on model identification criteria to select the most appropriate hypothesis about the existence of a borehole disturbed zone and addresses the effect of errors in the location of the sampling profiles. The simultaneous use of dilution and overcoring data provides accurate parameter estimates in the presence of measurement errors, allows the identification of the right hypothesis about the borehole disturbed zone and diminishes other model uncertainties such as those caused by errors in the volume of the circulation system and the effective diffusion coefficient of the filter. The proper interpretation of the experiment requires the right hypothesis about the borehole disturbed zone. A wrong assumption leads to large estimation errors. The use of model identification criteria helps in the selection of the best model. Small errors in the depth of the overcoring samples lead to large parameter estimation errors. Therefore, attention should be paid to minimize the errors in positioning the depth of the samples. The results of the identifiability analysis do not depend on the particular realization of random numbers. (C) 2012 Elsevier B.V. All rights reserved.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

OBJECTIVES The aim of this phantom study was to minimize the radiation dose by finding the best combination of low tube current and low voltage that would result in accurate volume measurements when compared to standard CT imaging without significantly decreasing the sensitivity of detecting lung nodules both with and without the assistance of CAD. METHODS An anthropomorphic chest phantom containing artificial solid and ground glass nodules (GGNs, 5-12 mm) was examined with a 64-row multi-detector CT scanner with three tube currents of 100, 50 and 25 mAs in combination with three tube voltages of 120, 100 and 80 kVp. This resulted in eight different protocols that were then compared to standard CT sensitivity (100 mAs/120 kVp). For each protocol, at least 127 different nodules were scanned in 21-25 phantoms. The nodules were analyzed in two separate sessions by three independent, blinded radiologists and computer-aided detection (CAD) software. RESULTS The mean sensitivity of the radiologists for identifying solid lung nodules on a standard CT was 89.7% ± 4.9%. The sensitivity was not significantly impaired when the tube and current voltage were lowered at the same time, except at the lowest exposure level of 25 mAs/80 kVp [80.6% ± 4.3% (p = 0.031)]. Compared to the standard CT, the sensitivity for detecting GGNs was significantly lower at all dose levels when the voltage was 80 kVp; this result was independent of the tube current. The CAD significantly increased the radiologists' sensitivity for detecting solid nodules at all dose levels (5-11%). No significant volume measurement errors (VMEs) were documented for the radiologists or the CAD software at any dose level. CONCLUSIONS Our results suggest a CT protocol with 25 mAs and 100 kVp is optimal for detecting solid and ground glass nodules in lung cancer screening. The use of CAD software is highly recommended at all dose levels.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

The acquisition of accurate information on the size of traits in animals is fundamental for the study of animal ecology and evolution and their management. We demonstrate how morphological traits of free-ranging animals can reliably be estimated on very large observation distances of several hundred meters by the use of ordinary digital photographic equipment and simple photogrammetric software. In our study, we estimated the length of horn annuli in free-ranging male Alpine ibex (Capra ibex) by taking already measured horn annuli of conspecifics on the same photographs as scaling units. Comparisons with hand-measured horn annuli lengths and repeatability analyses revealed a high accuracy of the photogrammetric estimates. If length estimations of specific horn annuli are based on multiple photographs measurement errors of <5.5 mm can be expected. In the current study the application of the described photogrammetric procedure increased the sample size of animals with known horn annuli length by an additional 104%. The presented photogrammetric procedure is of broad applicability and represents an easy, robust and cost-efficient method for the measuring of individuals in populations where animals are hard to capture or to approach.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

INTRODUCTION The aim of this study was to determine the reproducibility and accuracy of linear measurements on 2 types of dental models derived from cone-beam computed tomography (CBCT) scans: CBCT images, and Anatomodels (InVivoDental, San Jose, Calif); these were compared with digital models generated from dental impressions (Digimodels; Orthoproof, Nieuwegein, The Netherlands). The Digimodels were used as the reference standard. METHODS The 3 types of digital models were made from 10 subjects. Four examiners repeated 37 linear tooth and arch measurements 10 times. Paired t tests and the intraclass correlation coefficient were performed to determine the reproducibility and accuracy of the measurements. RESULTS The CBCT images showed significantly smaller intraclass correlation coefficient values and larger duplicate measurement errors compared with the corresponding values for Digimodels and Anatomodels. The average difference between measurements on CBCT images and Digimodels ranged from -0.4 to 1.65 mm, with limits of agreement values up to 1.3 mm for crown-width measurements. The average difference between Anatomodels and Digimodels ranged from -0.42 to 0.84 mm with limits of agreement values up to 1.65 mm. CONCLUSIONS Statistically significant differences between measurements on Digimodels and Anatomodels, and between Digimodels and CBCT images, were found. Although the mean differences might be clinically acceptable, the random errors were relatively large compared with corresponding measurements reported in the literature for both Anatomodels and CBCT images, and might be clinically important. Therefore, with the CBCT settings used in this study, measurements made directly on CBCT images and Anatomodels are not as accurate as measurements on Digimodels.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

The current standard for temperature sensitive imaging using magnetic resonance (MR) is 2-D, spoiled, fast gradient-echo (fGRE) phase-difference imaging exploiting temperature dependent changes in the proton resonance frequency (PRF). The echo-time (TE) for optimal sensitivity is larger than the typical repetition time (TR) of an fGRE sequence. Since TE must be less than TR in the fGRE sequence, this limits the technique's achievable sensitivity, spatial, and temporal resolution. This adversely affects both accuracy and volume coverage of the measurements. Accurate measurement of the rapid temperature changes associated with pulsed thermal therapies, such as high-intensity focused ultrasound (FUS), at optimal temperature sensitivity requires faster acquisition times than those currently available. ^ Use of fast MR acquisition strategies, such as interleaved echo-planar and spiral imaging, can provide the necessary increase in temporal performance and sensitivity while maintaining adequate signal-to-noise and in-plane spatial resolution. This research explored the adaptation and optimization of several fast MR acquisition methods for thermal monitoring of pulsed FUS thermal therapy. Temperature sensitivity, phase-difference noise and phase-difference to phase-difference-to noise ratio for the different pulse sequences were evaluated under varying imaging parameters in an agar gel phantom to establish optimal sequence parameters for temperature monitoring. The temperature sensitivity coefficient of the gel phantom was measured, allowing quantitative temperature extrapolations. ^ Optimized fast sequences were compared based on the ability to accurately monitor temperature changes at the focus of a high-intensity focused ultrasound unit, volume coverage, and contrast-to-noise ratio in the temperature maps. Operating parameters, which minimize complex phase-difference measurement errors introduced by use of the fast-imaging methods, were established. ^

Relevância:

60.00% 60.00%

Publicador:

Resumo:

This dataset present result from the DFG- funded Arctic-Turbulence-Experiment (ARCTEX-2006) performed by the University of Bayreuth on the island of Svalbard, Norway, during the winter/spring transition 2006. From May 5 to May 19, 2006 turbulent flux and meteorological measurements were performed on the monitoring field near Ny-Ålesund, at 78°55'24'' N, 11°55'15'' E Kongsfjord, Svalbard (Spitsbergen), Norway. The ARCTEX-2006 campaign site was located about 200 m southeast of the settlement on flat snow covered tundra, 11 m to 14 m above sea level. The permanent sites used for this study consisted of the 10 m meteorological tower of the Alfred Wegener Institute for Polar- and Marine Research (AWI), the international standardized radiation measurement site of the Baseline Surface Radiation Network (BSRN), the radiosonde launch site and the AWI tethered balloon launch sites. The temporary sites - set up by the University of Bayreuth - were a 6 m meteorological gradient tower, an eddy-flux measurement complex (EF), and a laser-scintillometer section (SLS). A quality assessment and data correction was applied to detect and eliminate specific measurement errors common at a high arctic landscape. In addition, the quality checked sensible heat flux measurements are compared with bulk aerodynamic formulas that are widely used in atmosphere-ocean/land-ice models for polar regions as described in Ebert and Curry (1993, doi:10.1029/93JC00656) and Launiainen and Cheng (1995). These parameterization approaches easily allow estimation of the turbulent surface fluxes from routine meteorological measurements. The data show: - the role of the intermittency of the turbulent atmospheric fluctuation of momentum and scalars, - the existence of a disturbed vertical temperature profile (sharp inversion layer) close to the surface, - the relevance of possible free convection events for the snow or ice melt in the Arctic spring at Svalbard, and - the relevance of meso-scale atmospheric circulation pattern and air-mass advection for the near-surface turbulent heat exchange in the Arctic spring at Svalbard. Recommendations and improvements regarding the interpretation of eddy-flux and laser-scintillometer data as well as the arrangement of the instrumentation under polar distinct exchange conditions and (extreme) weather situations could be derived.