971 resultados para ALS data-set
Resumo:
The Standard Model of particle physics was developed to describe the fundamental particles, which form matter, and their interactions via the strong, electromagnetic and weak force. Although most measurements are described with high accuracy, some observations indicate that the Standard Model is incomplete. Numerous extensions were developed to solve these limitations. Several of these extensions predict heavy resonances, so-called Z' bosons, that can decay into an electron positron pair. The particle accelerator Large Hadron Collider (LHC) at CERN in Switzerland was built to collide protons at unprecedented center-of-mass energies, namely 7 TeV in 2011. With the data set recorded in 2011 by the ATLAS detector, a large multi-purpose detector located at the LHC, the electron positron pair mass spectrum was measured up to high masses in the TeV range. The properties of electrons and the probability that other particles are mis-identified as electrons were studied in detail. Using the obtained information, a sophisticated Standard Model expectation was derived with data-driven methods and Monte Carlo simulations. In the comparison of the measurement with the expectation, no significant deviations from the Standard Model expectations were observed. Therefore exclusion limits for several Standard Model extensions were calculated. For example, Sequential Standard Model (SSM) Z' bosons with masses below 2.10 TeV were excluded with 95% Confidence Level (C.L.).
Resumo:
In der Erdöl– und Gasindustrie sind bildgebende Verfahren und Simulationen auf der Porenskala im Begriff Routineanwendungen zu werden. Ihr weiteres Potential lässt sich im Umweltbereich anwenden, wie z.B. für den Transport und Verbleib von Schadstoffen im Untergrund, die Speicherung von Kohlendioxid und dem natürlichen Abbau von Schadstoffen in Böden. Mit der Röntgen-Computertomografie (XCT) steht ein zerstörungsfreies 3D bildgebendes Verfahren zur Verfügung, das auch häufig für die Untersuchung der internen Struktur geologischer Proben herangezogen wird. Das erste Ziel dieser Dissertation war die Implementierung einer Bildverarbeitungstechnik, die die Strahlenaufhärtung der Röntgen-Computertomografie beseitigt und den Segmentierungsprozess dessen Daten vereinfacht. Das zweite Ziel dieser Arbeit untersuchte die kombinierten Effekte von Porenraumcharakteristika, Porentortuosität, sowie die Strömungssimulation und Transportmodellierung in Porenräumen mit der Gitter-Boltzmann-Methode. In einer zylindrischen geologischen Probe war die Position jeder Phase auf Grundlage der Beobachtung durch das Vorhandensein der Strahlenaufhärtung in den rekonstruierten Bildern, das eine radiale Funktion vom Probenrand zum Zentrum darstellt, extrahierbar und die unterschiedlichen Phasen ließen sich automatisch segmentieren. Weiterhin wurden Strahlungsaufhärtungeffekte von beliebig geformten Objekten durch einen Oberflächenanpassungsalgorithmus korrigiert. Die Methode der „least square support vector machine” (LSSVM) ist durch einen modularen Aufbau charakterisiert und ist sehr gut für die Erkennung und Klassifizierung von Mustern geeignet. Aus diesem Grund wurde die Methode der LSSVM als pixelbasierte Klassifikationsmethode implementiert. Dieser Algorithmus ist in der Lage komplexe geologische Proben korrekt zu klassifizieren, benötigt für den Fall aber längere Rechenzeiten, so dass mehrdimensionale Trainingsdatensätze verwendet werden müssen. Die Dynamik von den unmischbaren Phasen Luft und Wasser wird durch eine Kombination von Porenmorphologie und Gitter Boltzmann Methode für Drainage und Imbibition Prozessen in 3D Datensätzen von Böden, die durch synchrotron-basierte XCT gewonnen wurden, untersucht. Obwohl die Porenmorphologie eine einfache Methode ist Kugeln in den verfügbaren Porenraum einzupassen, kann sie dennoch die komplexe kapillare Hysterese als eine Funktion der Wassersättigung erklären. Eine Hysterese ist für den Kapillardruck und die hydraulische Leitfähigkeit beobachtet worden, welche durch die hauptsächlich verbundenen Porennetzwerke und der verfügbaren Porenraumgrößenverteilung verursacht sind. Die hydraulische Konduktivität ist eine Funktion des Wassersättigungslevels und wird mit einer makroskopischen Berechnung empirischer Modelle verglichen. Die Daten stimmen vor allem für hohe Wassersättigungen gut überein. Um die Gegenwart von Krankheitserregern im Grundwasser und Abwässern vorhersagen zu können, wurde in einem Bodenaggregat der Einfluss von Korngröße, Porengeometrie und Fluidflussgeschwindigkeit z.B. mit dem Mikroorganismus Escherichia coli studiert. Die asymmetrischen und langschweifigen Durchbruchskurven, besonders bei höheren Wassersättigungen, wurden durch dispersiven Transport aufgrund des verbundenen Porennetzwerks und durch die Heterogenität des Strömungsfeldes verursacht. Es wurde beobachtet, dass die biokolloidale Verweilzeit eine Funktion des Druckgradienten als auch der Kolloidgröße ist. Unsere Modellierungsergebnisse stimmen sehr gut mit den bereits veröffentlichten Daten überein.
Resumo:
Für das Vermögen der Atmosphäre sich selbst zu reinigen spielen Stickstoffmonoxid (NO) und Stickstoffdioxid (NO2) eine bedeutende Rolle. Diese Spurengase bestimmen die photochemische Produktion von Ozon (O3) und beeinflussen das Vorkommen von Hydroxyl- (OH) und Nitrat-Radikalen (NO3). Wenn tagsüber ausreichend Solarstrahlung und Ozon vorherrschen, stehen NO und NO2 in einem schnellen photochemischen Gleichgewicht, dem „Photostationären Gleichgewichtszustand“ (engl.: photostationary state). Die Summe von NO und NO2 wird deshalb als NOx zusammengefasst. Vorhergehende Studien zum photostationären Gleichgewichtszustand von NOx umfassen Messungen an unterschiedlichsten Orten, angefangen bei Städten (geprägt von starken Luftverschmutzungen), bis hin zu abgeschiedenen Regionen (geprägt von geringeren Luftverschmutzungen). Während der photochemische Kreislauf von NO und NO2 unter Bedingungen erhöhter NOx-Konzentrationen grundlegend verstanden ist, gibt es in ländlicheren und entlegenen Regionen, welche geprägt sind von niedrigeren NOx-Konzetrationen, signifikante Lücken im Verständnis der zugrundeliegenden Zyklierungsprozesse. Diese Lücken könnten durch messtechnische NO2-Interferenzen bedingt sein - insbesondere bei indirekten Nachweismethoden, welche von Artefakten beeinflusst sein können. Bei sehr niedrigen NOx-Konzentrationen und wenn messtechnische NO2-Interferenzen ausgeschlossen werden können, wird häufig geschlussfolgert, dass diese Verständnislücken mit der Existenz eines „unbekannten Oxidationsmittels“ (engl.: unknown oxidant) verknüpft ist. Im Rahmen dieser Arbeit wird der photostationäre Gleichgewichtszustand von NOx analysiert, mit dem Ziel die potenzielle Existenz bislang unbekannter Prozesse zu untersuchen. Ein Gasanalysator für die direkte Messung von atmosphärischem NO¬2 mittels laserinduzierter Fluoreszenzmesstechnik (engl. LIF – laser induced fluorescence), GANDALF, wurde neu entwickelt und während der Messkampagne PARADE 2011 erstmals für Feldmessungen eingesetzt. Die Messungen im Rahmen von PARADE wurden im Sommer 2011 in einem ländlich geprägten Gebiet in Deutschland durchgeführt. Umfangreiche NO2-Messungen unter Verwendung unterschiedlicher Messtechniken (DOAS, CLD und CRD) ermöglichten einen ausführlichen und erfolgreichen Vergleich von GANDALF mit den übrigen NO2-Messtechniken. Weitere relevante Spurengase und meteorologische Parameter wurden gemessen, um den photostationären Zustand von NOx, basierend auf den NO2-Messungen mit GANDALF in dieser Umgebung zu untersuchen. Während PARADE wurden moderate NOx Mischungsverhältnisse an der Messstelle beobachtet (10^2 - 10^4 pptv). Mischungsverhältnisse biogener flüchtige Kohlenwasserstoffverbindungen (BVOC, engl.: biogenic volatile organic compounds) aus dem umgebenden Wald (hauptsächlich Nadelwald) lagen in der Größenordnung 10^2 pptv vor. Die Charakteristiken des photostationären Gleichgewichtszustandes von NOx bei niedrigen NOx-Mischungsverhältnissen (10 - 10^3 pptv) wurde für eine weitere Messstelle in einem borealen Waldgebiet während der Messkampagne HUMPPA-COPEC 2010 untersucht. HUMPPA–COPEC–2010 wurde im Sommer 2010 in der SMEARII-Station in Hyytiälä, Süd-Finnland, durchgeführt. Die charakteristischen Eigenschaften des photostationären Gleichgewichtszustandes von NOx in den beiden Waldgebieten werden in dieser Arbeit verglichen. Des Weiteren ermöglicht der umfangreiche Datensatz - dieser beinhaltet Messungen von relevanten Spurengasen für die Radikalchemie (OH, HO2), sowie der totalen OH-Reaktivität – das aktuelle Verständnis bezüglich der NOx-Photochemie unter Verwendung von einem Boxmodell, in welches die gemessenen Daten als Randbedingungen eingehen, zu überprüfen und zu verbessern. Während NOx-Konzentrationen in HUMPPA-COPEC 2010 niedriger sind, im Vergleich zu PARADE 2011 und BVOC-Konzentrationen höher, sind die Zyklierungsprozesse von NO und NO2 in beiden Fällen grundlegend verstanden. Die Analyse des photostationären Gleichgewichtszustandes von NOx für die beiden stark unterschiedlichen Messstandorte zeigt auf, dass potenziell unbekannte Prozesse in keinem der beiden Fälle vorhanden sind. Die aktuelle Darstellung der NOx-Chemie wurde für HUMPPA-COPEC 2010 unter Verwendung des chemischen Mechanismus MIM3* simuliert. Die Ergebnisse der Simulation sind konsistent mit den Berechnungen basierend auf dem photostationären Gleichgewichtszustand von NOx.
Resumo:
Stratosphärische Partikel sind typischerweise mit dem bloßen Auge nicht wahrnehmbar. Dennoch haben sie einen signifikanten Einfluss auf die Strahlungsbilanz der Erde und die heteorogene Chemie in der Stratosphäre. Kontinuierliche, vertikal aufgelöste, globale Datensätze sind daher essenziell für das Verständnis physikalischer und chemischer Prozesse in diesem Teil der Atmosphäre. Beginnend mit den Messungen des zweiten Stratospheric Aerosol Measurement (SAM II) Instruments im Jahre 1978 existiert eine kontinuierliche Zeitreihe für stratosphärische Aerosol-Extinktionsprofile, welche von Messinstrumenten wie dem zweiten Stratospheric Aerosol and Gas Experiment (SAGE II), dem SCIAMACHY, dem OSIRIS und dem OMPS bis heute fortgeführt wird. rnrnIn dieser Arbeit wird ein neu entwickelter Algorithmus vorgestellt, der das sogenannte ,,Zwiebel-Schäl Prinzip'' verwendet, um Extinktionsprofile zwischen 12 und 33 km zu berechnen. Dafür wird der Algorithmus auf Radianzprofile einzelner Wellenlängen angewandt, die von SCIAMACHY in der Limb-Geometrie gemessen wurden. SCIAMACHY's einzigartige Methode abwechselnder Limb- und Nadir-Messungen bietet den Vorteil, hochaufgelöste vertikale und horizontale Messungen mit zeitlicher und räumlicher Koinzidenz durchführen zu können. Die dadurch erlangten Zusatzinformationen können verwendet werden, um die Effekte von horizontalen Gradienten entlang der Sichtlinie des Messinstruments zu korrigieren, welche vor allem kurz nach Vulkanausbrüchen und für polare Stratosphärenwolken beobachtet werden. Wenn diese Gradienten für die Berechnung von Extinktionsprofilen nicht beachtet werden, so kann dies dazu führen, dass sowohl die optischen Dicke als auch die Höhe von Vulkanfahnen oder polarer Stratosphärenwolken unterschätzt werden. In dieser Arbeit wird ein Verfahren vorgestellt, welches mit Hilfe von dreidimensionalen Strahlungstransportsimulationen und horizontal aufgelösten Datensätzen die berechneten Extinktionsprofile korrigiert.rnrnVergleichsstudien mit den Ergebnissen von Satelliten- (SAGE II) und Ballonmessungen zeigen, dass Extinktionsprofile von stratosphärischen Partikeln mit Hilfe des neu entwickelten Algorithmus berechnet werden können und gut mit bestehenden Datensätzen übereinstimmen. Untersuchungen des Nabro Vulkanausbruchs 2011 und des Auftretens von polaren Stratosphärenwolken in der südlichen Hemisphäre zeigen, dass das Korrekturverfahren für horizontale Gradienten die berechneten Extinktionsprofile deutlich verbessert.
Resumo:
Die Mikrophysik in Wolken bestimmt deren Strahlungseigenschaften und beeinflusst somit auch den Strahlungshaushalt des Planeten Erde. Aus diesem Grund werden im Rahmen der vorliegenden Arbeit die mikrophysikalischen Charakteristika von Cirrus-Wolken sowie von arktischen Grenzschicht-Wolken behandelt. Die Untersuchung dieser Wolken wurde mithilfe verschiedener Instrumente verwirklicht, welche Partikel in einem Durchmesserbereich von 250nm bis zu 6.4mm vermessen und an Forschungsflugzeugen montiert werden. Ein Instrumentenvergleich bestätigt, dass innerhalb der Bereiche in denen sich die Messungen dieser Instrumente überlappen, die auftretenden Diskrepanzen als sehr gering einzustufen sind. Das vorrangig verwendete Instrument trägt die Bezeichnung CCP (Cloud Combination Probe) und ist eine Kombination aus einem Instrument, das Wolkenpartikel anhand von vorwärts-gerichtetem Streulicht detektiert und einem weiteren, das zweidimensionale Schattenbilder einzelner Wolkenpartikel aufzeichnet. Die Untersuchung von Cirrus-Wolken erfolgt mittels Daten der AIRTOSS-ICE (AIRcraft TOwed Sensor Shuttle - Inhomogeneous Cirrus Experiment) Kampagne, welche im Jahr 2013 über der deutschen Nord- und Ostsee stattfand. Parameter wie Partikeldurchmesser, Partikelanzahlkonzentration, Partikelform, Eiswassergehalt, Wolkenhöhe und Wolkendicke der detektierten Cirrus-Wolken werden bestimmt und im Kontext des aktuellen Wissenstandes diskutiert. Des Weiteren wird eine beprobte Cirrus-Wolke im Detail analysiert, welche den typischen Entwicklungsprozess und die vertikale Struktur dieser Wolkengattung widerspiegelt. Arktische Grenzschicht-Wolken werden anhand von Daten untersucht, die während der VERDI (VERtical Distribution of Ice in Arctic Clouds) Kampagne im Jahr 2012 über der kanadischen Beaufortsee aufgezeichnet wurden. Diese Messkampagne fand im Frühling statt, um die Entwicklung von Eis-Wolken über Mischphasen-Wolken bis hin zu Flüssigwasser-Wolken zu beobachten. Unter bestimmten atmosphärischen Bedingungen tritt innerhalb von Mischphasen-Wolken der sogenannte Wegener-Bergeron-Findeisen Prozess auf, bei dem Flüssigwassertropfen zugunsten von Eispartikeln verdampfen. Es wird bestätigt, dass dieser Prozess anhand von mikrophysikalischen Messungen, insbesondere den daraus resultierenden Größenverteilungen, nachweisbar ist. Darüber hinaus wird eine arktische Flüssigwasser-Wolke im Detail untersucht, welche im Inneren das Auftreten von monomodalen Tröpfchen-Größenverteilungen zeigt. Mit zunehmender Höhe wachsen die Tropfen an und die Maxima der Größenverteilungen verschieben sich hin zu größeren Durchmessern. Dahingegen findet im oberen Übergangsbereich dieser Flüssigwasser-Wolke, zwischen Wolke und freier Atmosphäre, ein Wechsel von monomodalen zu bimodalen Tröpfchen-Größenverteilungen statt. Diese weisen eine Mode 1 mit einem Tropfendurchmesser von 20μm und eine Mode 2 mit einem Tropfendurchmesser von 10μm auf. Das dieses Phänomen eventuell typisch für arktische Flüssigwasser-Wolken ist, zeigen an dem Datensatz durchgeführte Analysen. Mögliche Entstehungsprozesse der zweiten Mode können durch Kondensation von Wasserdampf auf eingetragenen Aerosolpartikeln, die aus einer Luftschicht oberhalb der Wolke stammen oder durch Wirbel, welche trockene Luftmassen in die Wolke induzieren und Verdampfungsprozesse von Wolkentröpfchen hervorrufen, erklärt werden. Unter Verwendung einer direkten numerischen Simulation wird gezeigt, dass die Einmischung von trockenen Luftmassen in den Übergangsbereich der Wolke am wahrscheinlichsten die Ausbildung von Mode 2 verursacht.
Resumo:
When estimating the effect of treatment on HIV using data from observational studies, standard methods may produce biased estimates due to the presence of time-dependent confounders. Such confounding can be present when a covariate, affected by past exposure, is both a predictor of the future exposure and the outcome. One example is the CD4 cell count, being a marker for disease progression for HIV patients, but also a marker for treatment initiation and influenced by treatment. Fitting a marginal structural model (MSM) using inverse probability weights is one way to give appropriate adjustment for this type of confounding. In this paper we study a simple and intuitive approach to estimate similar treatment effects, using observational data to mimic several randomized controlled trials. Each 'trial' is constructed based on individuals starting treatment in a certain time interval. An overall effect estimate for all such trials is found using composite likelihood inference. The method offers an alternative to the use of inverse probability of treatment weights, which is unstable in certain situations. The estimated parameter is not identical to the one of an MSM, it is conditioned on covariate values at the start of each mimicked trial. This allows the study of questions that are not that easily addressed fitting an MSM. The analysis can be performed as a stratified weighted Cox analysis on the joint data set of all the constructed trials, where each trial is one stratum. The model is applied to data from the Swiss HIV cohort study.
Resumo:
Despite association with lung growth and long-term respiratory morbidity, there is a lack of normative lung function data for unsedated infants conforming to latest European Respiratory Society/American Thoracic Society standards. Lung function was measured using an ultrasonic flow meter in 342 unsedated, healthy, term-born infants at a mean ± sd age of 5.1 ± 0.8 weeks during natural sleep according to the latest standards. Tidal breathing flow-volume loops (TBFVL) and exhaled nitric oxide (eNO) measurements were obtained from 100 regular breaths. We aimed for three acceptable measurements for multiple-breath washout and 5-10 acceptable interruption resistance (R(int)) measurements. Acceptable measurements were obtained in ≤ 285 infants with high variability. Mean values were 7.48 mL·kg⁻¹ (95% limits of agreement 4.95-10.0 mL·kg⁻¹) for tidal volume, 14.3 ppb (2.6-26.1 ppb) for eNO, 23.9 mL·kg⁻¹ (16.0-31.8 mL·kg⁻¹) for functional residual capacity, 6.75 (5.63-7.87) for lung clearance index and 3.78 kPa·s·L⁻¹ (1.14-6.42 kPa·s·L⁻¹) for R(int). In males, TBFVL outcomes were associated with anthropometric parameters and in females, with maternal smoking during pregnancy, maternal asthma and Caesarean section. This large normative data set in unsedated infants offers reference values for future research and particularly for studies where sedation may put infants at risk. Furthermore, it highlights the impact of maternal and environmental risk factors on neonatal lung function.
Resumo:
Published evidence suggests that aspects of trial design lead to biased intervention effect estimates, but findings from different studies are inconsistent. This study combined data from 7 meta-epidemiologic studies and removed overlaps to derive a final data set of 234 unique meta-analyses containing 1973 trials. Outcome measures were classified as "mortality," "other objective," "or subjective," and Bayesian hierarchical models were used to estimate associations of trial characteristics with average bias and between-trial heterogeneity. Intervention effect estimates seemed to be exaggerated in trials with inadequate or unclear (vs. adequate) random-sequence generation (ratio of odds ratios, 0.89 [95% credible interval {CrI}, 0.82 to 0.96]) and with inadequate or unclear (vs. adequate) allocation concealment (ratio of odds ratios, 0.93 [CrI, 0.87 to 0.99]). Lack of or unclear double-blinding (vs. double-blinding) was associated with an average of 13% exaggeration of intervention effects (ratio of odds ratios, 0.87 [CrI, 0.79 to 0.96]), and between-trial heterogeneity was increased for such studies (SD increase in heterogeneity, 0.14 [CrI, 0.02 to 0.30]). For each characteristic, average bias and increases in between-trial heterogeneity were driven primarily by trials with subjective outcomes, with little evidence of bias in trials with objective and mortality outcomes. This study is limited by incomplete trial reporting, and findings may be confounded by other study design characteristics. Bias associated with study design characteristics may lead to exaggeration of intervention effect estimates and increases in between-trial heterogeneity in trials reporting subjectively assessed outcomes.
Resumo:
This paper proposes Poisson log-linear multilevel models to investigate population variability in sleep state transition rates. We specifically propose a Bayesian Poisson regression model that is more flexible, scalable to larger studies, and easily fit than other attempts in the literature. We further use hierarchical random effects to account for pairings of individuals and repeated measures within those individuals, as comparing diseased to non-diseased subjects while minimizing bias is of epidemiologic importance. We estimate essentially non-parametric piecewise constant hazards and smooth them, and allow for time varying covariates and segment of the night comparisons. The Bayesian Poisson regression is justified through a re-derivation of a classical algebraic likelihood equivalence of Poisson regression with a log(time) offset and survival regression assuming piecewise constant hazards. This relationship allows us to synthesize two methods currently used to analyze sleep transition phenomena: stratified multi-state proportional hazards models and log-linear models with GEE for transition counts. An example data set from the Sleep Heart Health Study is analyzed.
DIMENSION REDUCTION FOR POWER SYSTEM MODELING USING PCA METHODS CONSIDERING INCOMPLETE DATA READINGS
Resumo:
Principal Component Analysis (PCA) is a popular method for dimension reduction that can be used in many fields including data compression, image processing, exploratory data analysis, etc. However, traditional PCA method has several drawbacks, since the traditional PCA method is not efficient for dealing with high dimensional data and cannot be effectively applied to compute accurate enough principal components when handling relatively large portion of missing data. In this report, we propose to use EM-PCA method for dimension reduction of power system measurement with missing data, and provide a comparative study of traditional PCA and EM-PCA methods. Our extensive experimental results show that EM-PCA method is more effective and more accurate for dimension reduction of power system measurement data than traditional PCA method when dealing with large portion of missing data set.
Resumo:
Mit zunehmender Komplexität und Vielfalt der Logistikprozesse steigt der Stellenwert der eingesetzten Informationstechnologien. Die den Warenfluss begleitenden bzw. vorhereilenden Informationen sind erforderlich, um Waren identifizieren und Unternehmensressourcen optimal einsetzen zu können. Als Beispiel ist der klassische Wareneingang zu nennen. Durch die Avisierung von Menge und Art eingehender Waren können der Einsatz des Personals zur Entladung und Vereinnahmung sowie die erforderlichen Ressourcen (Ladehilfsmittel, Flurförderzeuge, usw.) im Vorfeld geplant und bereitgestellt werden. Der Informationsfluss ist demnach als Qualitätsmerkmal und als Wirtschaftlichkeitsfaktor zu verstehen. Die Schnittstelle zwischen dem physischen Warenfluss und dem Informationsfluss auf EDV-Basis bildet die Identifikationstechnologien. In der Industrie verbreitete Identifikationstechnologien bestehen in der Regel aus einem Datenträger und einem Erfassungsgerät. Der Datenträger ist am physischen Objekt fixiert. Das Erfassungsgerät liest die auf dem Datenträger befindlichen Objektinformationen und wandelt sie in einen Binär-Code um, der durch nachgelagerte EDV weiterverarbeitet wird. Die momentan in der Industrie und im Handel am häufigsten verwendete Identifikationstechnologie ist der Barcode. In den letzten Jahren tritt die RFID-Technologie in den Fokus der Industrie und des Handels im Bereich Materialfluss und Logistik. Unter „Radio Frequency IDentification“ wird die Kommunikation per Funkwellen zwischen Datenträger (Transponder) und Lesegerät verstanden. Mittels der RFID-Technologie ist der Anwender, im Gegensatz zum Barcode, in der Lage, Informationen auf dem Transponder ohne Sichtkontakt zu erfassen. Eine Ausrichtung der einzelnen Artikel ist nicht erforderlich. Zudem können auf bestimmten Transpondertypen weitaus größere Datenmengen als auf einem Barcode hinterlegt werden. Transponder mit hoher Speicherkapazität eignen sich in der Regel, um die auf ihnen hinterlegten Daten bei Bedarf aktualisieren zu k��nnen. Eine dezentrale Datenorganisation ist realisierbar. Ein weiterer Vorteil der RFID-Technologie ist die Möglichkeit, mehrere Datenträger im Bruchteil einer Sekunde zu erfassen. In diesem Fall spricht man von einer Pulkerfassung. Diese Eigenschaft ist besonders im Bereich Warenein- und -ausgang von Interesse. Durch RFID ist es möglich, Ladeeinheiten, z. B. Paletten mit Waren, durch einen Antennenbereich zu fördern, und die mit Transpondern versehenen Artikel zu identifizieren und in die EDV zu übertragen. Neben der Funktionalität einer solchen Technologie steht in der Industrie vor allem die Wirtschaftlichkeit im Vordergrund. Transponder sind heute teuerer als Barcodes. Zudem müssen Investitionen in die für den Betrieb von RFID erforderliche Hard- und Software einkalkuliert werden. Daher muss der Einsatz der RFID-Technologie Einsparungen durch die Reorganisation der Unternehmensprozesse nach sich ziehen. Ein Schwachpunkt der RFID-Technologie ist momentan je nach Anwendung die mangelnde Zuverlässigkeit und Wiederholgenauigkeit bei Pulklesungen. Die Industrie und der Handel brauchen Identifikationstechnologien, deren Erfassungsrate im Bereich nahe 100 % liegt. Die Gefahr besteht darin, dass durch ein unzuverlässiges RFID-System unvollständige bzw. fehlerhafte Datensätze erzeugt werden können. Die Korrektur der Daten kann teurer sein als die durch die Reorganisation der Prozesse mittels RFID erzielten Einsparungen. Die Erfassungsrate der Transponder bei Pulkerfassungen wird durch mehrere Faktoren beeinflusst, die im Folgenden detailliert dargestellt werden. Das Institut für Fördertechnik und Logistik (IFT) in Stuttgart untersucht m��gliche Einflussgrößen auf die Erkennungsraten bei Pulkerfassungen. Mit den gewonnenen Erkenntnissen sollen mögliche Schwachstellen bei der Erkennung mehrerer Transponder im Vorfeld einer Implementierung in die Logistikprozesse eines Unternehmens eliminiert werden. With increasing complexity and variety of the logistics processes the significance of the used information technologies increases. The information accompanying the material flow is necessary in order to be able to identify goods and to be able to use corporate resources optimally. The classical goods entrance is to be mentioned as an example. The notification of amount and kind of incoming goods can be used for previously planning and providing of the personnel and necessary resources. The flow of information is to be understood accordingly as a high-quality feature and as an economic efficiency factor. With increasing complexity and variety of the logistics processes the significance of the used information technologies increases. The information accompanying the material flow is necessary in order to be able to identify goods and to be able to use corporate resources optimally. The classical goods entrance is to be mentioned as an example. The notification of amount and kind of incoming goods can be used for previously planning and providing of the personnel and necessary resources. The flow of information is to be understood accordingly as a high-quality feature and as an economic efficiency factor.
Resumo:
Here we present a study of the 11 yr sunspot cycle's imprint on the Northern Hemisphere atmospheric circulation, using three recently developed gridded upper-air data sets that extend back to the early twentieth century. We find a robust response of the tropospheric late-wintertime circulation to the sunspot cycle, independent from the data set. This response is particularly significant over Europe, although results show that it is not directly related to a North Atlantic Oscillation (NAO) modulation; instead, it reveals a significant connection to the more meridional Eurasian pattern (EU). The magnitude of mean seasonal temperature changes over the European land areas locally exceeds 1 K in the lower troposphere over a sunspot cycle. We also analyse surface data to address the question whether the solar signal over Europe is temporally stable for a longer 250 yr period. The results increase our confidence in the existence of an influence of the 11 yr cycle on the European climate, but the signal is much weaker in the first half of the period compared to the second half. The last solar minimum (2005 to 2010), which was not included in our analysis, shows anomalies that are consistent with our statistical results for earlier solar minima.
Resumo:
Dynamic changes in ERP topographies can be conveniently analyzed by means of microstates, the so-called "atoms of thoughts", that represent brief periods of quasi-stable synchronized network activation. Comparing temporal microstate features such as on- and offset or duration between groups and conditions therefore allows a precise assessment of the timing of cognitive processes. So far, this has been achieved by assigning the individual time-varying ERP maps to spatially defined microstate templates obtained from clustering the grand mean data into predetermined numbers of topographies (microstate prototypes). Features obtained from these individual assignments were then statistically compared. This has the problem that the individual noise dilutes the match between individual topographies and templates leading to lower statistical power. We therefore propose a randomization-based procedure that works without assigning grand-mean microstate prototypes to individual data. In addition, we propose a new criterion to select the optimal number of microstate prototypes based on cross-validation across subjects. After a formal introduction, the method is applied to a sample data set of an N400 experiment and to simulated data with varying signal-to-noise ratios, and the results are compared to existing methods. In a first comparison with previously employed statistical procedures, the new method showed an increased robustness to noise, and a higher sensitivity for more subtle effects of microstate timing. We conclude that the proposed method is well-suited for the assessment of timing differences in cognitive processes. The increased statistical power allows identifying more subtle effects, which is particularly important in small and scarce patient populations.
Resumo:
Persons with Down syndrome (DS) uniquely have an increased frequency of leukemias but a decreased total frequency of solid tumors. The distribution and frequency of specific types of brain tumors have never been studied in DS. We evaluated the frequency of primary neural cell embryonal tumors and gliomas in a large international data set. The observed number of children with DS having a medulloblastoma, central nervous system primitive neuroectodermal tumor (CNS-PNET) or glial tumor was compared to the expected number. Data were collected from cancer registries or brain tumor registries in 13 countries of Europe, America, Asia and Oceania. The number of DS children with each category of tumor was treated as a Poisson variable with mean equal to 0.000884 times the total number of registrations in that category. Among 8,043 neural cell embryonal tumors (6,882 medulloblastomas and 1,161 CNS-PNETs), only one patient with medulloblastoma had DS, while 7.11 children in total and 6.08 with medulloblastoma were expected to have DS. (p 0.016 and 0.0066 respectively). Among 13,797 children with glioma, 10 had DS, whereas 12.2 were expected. Children with DS appear to be specifically protected against primary neural cell embryonal tumors of the CNS, whereas gliomas occur at the same frequency as in the general population. A similar protection against neuroblastoma, the principal extracranial neural cell embryonal tumor, has been observed in children with DS. Additional genetic material on the supernumerary chromosome 21 may protect against embryonal neural cell tumor development.
Resumo:
Historical, i.e. pre-1957, upper-air data are a valuable source of information on the state of the atmosphere, in some parts of the world dating back to the early 20th century. However, to date, reanalyses have only partially made use of these data, and only of observations made after 1948. Even for the period between 1948 (the starting year of the NCEP/NCAR (National Centers for Environmental Prediction/National Center for Atmospheric Research) reanalysis) and the International Geophysical Year in 1957 (the starting year of the ERA-40 reanalysis), when the global upper-air coverage reached more or less its current status, many observations have not yet been digitised. The Comprehensive Historical Upper-Air Network (CHUAN) already compiled a large collection of pre-1957 upper-air data. In the framework of the European project ERA-CLIM (European Reanalysis of Global Climate Observations), significant amounts of additional upper-air data have been catalogued (> 1.3 million station days), imaged (> 200 000 images) and digitised (> 700 000 station days) in order to prepare a new input data set for upcoming reanalyses. The records cover large parts of the globe, focussing on, so far, less well covered regions such as the tropics, the polar regions and the oceans, and on very early upper-air data from Europe and the US. The total number of digitised/inventoried records is 61/101 for moving upper-air data, i.e. data from ships, etc., and 735/1783 for fixed upper-air stations. Here, we give a detailed description of the resulting data set including the metadata and the quality checking procedures applied. The data will be included in the next version of CHUAN. The data are available at doi:10.1594/PANGAEA.821222