912 resultados para ERROR THRESHOLD
Resumo:
Workplace accidents involving machines are relevant for their magnitude and their impacts on worker health. Despite consolidated critical statements, explanation centered on errors of operators remains predominant with industry professionals, hampering preventive measures and the improvement of production-system reliability. Several initiatives were adopted by enforcement agencies in partnership with universities to stimulate production and diffusion of analysis methodologies with a systemic approach. Starting from one accident case that occurred with a worker who operated a brake-clutch type mechanical press, the article explores cognitive aspects and the existence of traps in the operation of this machine. It deals with a large-sized press that, despite being endowed with a light curtain in areas of access to the pressing zone, did not meet legal requirements. The safety devices gave rise to an illusion of safety, permitting activation of the machine when a worker was still found within the operational zone. Preventive interventions must stimulate the tailoring of systems to the characteristics of workers, minimizing the creation of traps and encouraging safety policies and practices that replace judgments of behaviors that participate in accidents by analyses of reasons that lead workers to act in that manner.
Resumo:
Background: This study assessed the relationship between lower limb hemodynamics and metabolic parameters with walking tolerance in patients with intermittent claudication (IC). Patients and methods: Resting ankle-brachial index (ABI), baseline blood flow (BF), BF response to reactive hyperemia (BFRH), oxygen uptake (VO2), initial claudication distance (ICD) and total walking distance (TWD) were measured in 28 IC patients. Pearson and Spearman correlations were calculated. Results: ABI, baseline BF and BF response to RH did not correlate with ICD or TWD. VO2 at first ventilatory threshold and VO(2)peak were significantly and positively correlated with ICD (r = 0.41 and 0.54, respectively) and TWD (r = 0.65 and 0.71, respectively). Conclusions: VO(2)peak and VO2 at first ventilatory threshold, but not ABI, baseline BF and BFHR were associated with walking tolerance in IC patients. These results suggest that VO2 at first ventilatory threshold may be useful to evaluate walking tolerance and improvements in IC patients.
Resumo:
The aims were both to determine lactate and ventilatory threshold during incremental resistance training and to analyze the acute cardiorespiratory and metabolic responses during constant-load resistance exercise at lactate threshold (LT) intensity. Ten healthy men performed 2 protocols on leg press machine. The incremental test was performed to determine the lactate and ventilatory thresholds through an algorithmic adjustment method. After 48 h, a constant-load exercise at LT intensity was executed. The intensity of LT and ventilatory threshold was 27.1 +/- 3.7 and 30.3 +/- 7.9% of 1RM, respectively (P=0.142). During the constant-load resistance exercise, no significant variation was observed between set 9 and set 15 for blood lactate concentration (3.3 +/- 0.9 and 4.1 +/- 1.4 mmol.L-1, respectively. P=0.166) and BORG scale (11.5 +/- 2.9 and 13.0 +/- 3.5, respectively. P=0.783). No significant variation was observed between set 6 and set 15 for minute ventilation (19.4 +/- 4.9 and 22.4 +/- 5.5L. min(-1), respectively. P=0.091) and between S3 and S15 for VO2 (0.77 +/- 0.18 and 0.83 +/- 0.16L. min(-1), respectively. P=1.0). Constant-load resistance exercise at LT intensity corresponds to a steady state of ventilatory, cardio-metabolic parameters and ratings of perceived exertion.
Resumo:
The ability to discriminate nestmates from non-nestmates in insect societies is essential to protect colonies from conspecific invaders. The acceptance threshold hypothesis predicts that organisms whose recognition systems classify recipients without errors should optimize the balance between acceptance and rejection. In this process, cuticular hydrocarbons play an important role as cues of recognition in social insects. The aims of this study were to determine whether guards exhibit a restrictive level of rejection towards chemically distinct individuals, becoming more permissive during the encounters with either nestmate or non-nestmate individuals bearing chemically similar profiles. The study demonstrates that Melipona asilvai (Hymenoptera: Apidae: Meliponini) guards exhibit a flexible system of nestmate recognition according to the degree of chemical similarity between the incoming forager and its own cuticular hydrocarbons profile. Guards became less restrictive in their acceptance rates when they encounter non-nestmates with highly similar chemical profiles, which they probably mistake for nestmates, hence broadening their acceptance level.
Resumo:
The objective of this study was to determine the inter- and intra-examiner reliability of pain pressure threshold algometry at various points of the abdominal wall of healthy women. Twenty-one healthy women in menacme with a mean age of 28 +/- 5.4 years (range: 19-39 years) were included. All volunteers had regular menstrual cycles (27-33 days) and were right-handed and, to the best of our knowledge, none were taking medications at the time of testing. Women with a diagnosis of depression, anxiety or other mood disturbances were excluded. Women with previous abdominal surgery, any pain condition or any evidence of inflammation, hypertension, smoking, alcoholism, or inflammatory disease were also excluded. Pain perception thresholds were assessed with a pressure algometer with digital traction and compression and a measuring capacity for 5 kg. All points were localized by palpation and marked with a felt-tipped pen and each individual was evaluated over a period of 2 days in two consecutive sessions, each session consisting of a set of 14 point measurements repeated twice by two examiners in random sequence. There was no statistically significant difference in the mean pain threshold obtained by the two examiners on 2 diferent days (examiner A: P = 1.00; examiner B: P = 0.75; Wilcoxon matched pairs test). There was excellent/good agreement between examiners for all days and all points. Our results have established baseline values to which future researchers will be able to refer. They show that pressure algometry is a reliable measure for pain perception in the abdominal wall of healthy women.
Resumo:
Objective: To evaluate the influence of myofascial pain on the Pressure Pain Threshold (PPT) of masticatory muscles in women with migraine. Methods: The sample comprised 101 women, ages ranging from 18 to 60 years, with an episodic migraine diagnosis previously confirmed by a neurologist. All patients were evaluated using Research Diagnostic Criteria for Temporomandibular Disorders to determine the presence of myofascial pain and were divided into 2 groups: group I (n=56), comprising women with a migraine, and group II (n=45), comprising women with a migraine and myofascial pain. Two more groups (49 asymptomatic women and 50 women with myofascial pain), matched for sex and race, obtained from a previous study, were added to this study. The PPT values of masseter and temporalis (anterior, middle, and posterior regions) muscles were recorded bilaterally using a pressure algometer. One-way analysis of variance and the Tukey test for pairwise comparisons were used in statistical analysis with a 5% significance level. Results: We found that all groups had significantly lower PPT values compared with asymptomatic women, with lower values seen in group II (women with migraine and myofascial pain). Women with a migraine and myofascial pain showed significantly lower PPT values compared with women with a migraine only, and also when compared with women with myofascial pain only. Discussion: Migraine, especially when accompanied by myofascial pain, reduces the PPT of masticatory muscles, suggesting the importance of masticatory muscle palpation during examination of patients with migraine.
Resumo:
[ES] Este trabajo presenta algunas posibilidades de aprovechamiento de la opinión cualitativa de un auditor. Se desarrolla en torno a un caso ficticio que contiene las ideas básicas sobre la metodología expuesta.
Resumo:
The digital electronic market development is founded on the continuous reduction of the transistors size, to reduce area, power, cost and increase the computational performance of integrated circuits. This trend, known as technology scaling, is approaching the nanometer size. The lithographic process in the manufacturing stage is increasing its uncertainty with the scaling down of the transistors size, resulting in a larger parameter variation in future technology generations. Furthermore, the exponential relationship between the leakage current and the threshold voltage, is limiting the threshold and supply voltages scaling, increasing the power density and creating local thermal issues, such as hot spots, thermal runaway and thermal cycles. In addiction, the introduction of new materials and the smaller devices dimension are reducing transistors robustness, that combined with high temperature and frequently thermal cycles, are speeding up wear out processes. Those effects are no longer addressable only at the process level. Consequently the deep sub-micron devices will require solutions which will imply several design levels, as system and logic, and new approaches called Design For Manufacturability (DFM) and Design For Reliability. The purpose of the above approaches is to bring in the early design stages the awareness of the device reliability and manufacturability, in order to introduce logic and system able to cope with the yield and reliability loss. The ITRS roadmap suggests the following research steps to integrate the design for manufacturability and reliability in the standard CAD automated design flow: i) The implementation of new analysis algorithms able to predict the system thermal behavior with the impact to the power and speed performances. ii) High level wear out models able to predict the mean time to failure of the system (MTTF). iii) Statistical performance analysis able to predict the impact of the process variation, both random and systematic. The new analysis tools have to be developed beside new logic and system strategies to cope with the future challenges, as for instance: i) Thermal management strategy that increase the reliability and life time of the devices acting to some tunable parameter,such as supply voltage or body bias. ii) Error detection logic able to interact with compensation techniques as Adaptive Supply Voltage ASV, Adaptive Body Bias ABB and error recovering, in order to increase yield and reliability. iii) architectures that are fundamentally resistant to variability, including locally asynchronous designs, redundancy, and error correcting signal encodings (ECC). The literature already features works addressing the prediction of the MTTF, papers focusing on thermal management in the general purpose chip, and publications on statistical performance analysis. In my Phd research activity, I investigated the need for thermal management in future embedded low-power Network On Chip (NoC) devices.I developed a thermal analysis library, that has been integrated in a NoC cycle accurate simulator and in a FPGA based NoC simulator. The results have shown that an accurate layout distribution can avoid the onset of hot-spot in a NoC chip. Furthermore the application of thermal management can reduce temperature and number of thermal cycles, increasing the systemreliability. Therefore the thesis advocates the need to integrate a thermal analysis in the first design stages for embedded NoC design. Later on, I focused my research in the development of statistical process variation analysis tool that is able to address both random and systematic variations. The tool was used to analyze the impact of self-timed asynchronous logic stages in an embedded microprocessor. As results we confirmed the capability of self-timed logic to increase the manufacturability and reliability. Furthermore we used the tool to investigate the suitability of low-swing techniques in the NoC system communication under process variations. In this case We discovered the superior robustness to systematic process variation of low-swing links, which shows a good response to compensation technique as ASV and ABB. Hence low-swing is a good alternative to the standard CMOS communication for power, speed, reliability and manufacturability. In summary my work proves the advantage of integrating a statistical process variation analysis tool in the first stages of the design flow.
Resumo:
Die Drei-Spektrometer-Anlage am Mainzer Institut für Kernphysik wurde um ein zusätzliches Spektrometer ergänzt, welches sich durch seine kurze Baulänge auszeichnet und deshalb Short-Orbit-Spektrometer (SOS) genannt wird. Beim nominellen Abstand des SOS vom Target (66 cm) legen die nachzuweisenden Teilchen zwischen Reaktionsort und Detektor eine mittlere Bahnlänge von 165 cm zurück. Für die schwellennahe Pionproduktion erhöht sich dadurch im Vergleich zu den großen Spektrometern die Überlebenswahrscheinlichkeit geladener Pionen mit Impuls 100 MeV/c von 15% auf 73%. Demzufolge verringert sich der systematische Fehler ("Myon-Kontamination"), etwa bei der geplanten Messung der schwachen Formfaktoren G_A(Q²) und G_P(Q²), signifikant. Den Schwerpunkt der vorliegenden Arbeit bildet die Driftkammer des SOS. Ihre niedrige Massenbelegung (0,03% X_0) zur Reduzierung der Kleinwinkelstreuung ist auf den Nachweis niederenergetischer Pionen hin optimiert. Aufgrund der neuartigen Geometrie des Detektors musste eine eigene Software zur Spurrekonstruktion, Effizienzbestimmung etc. entwickelt werden. Eine komfortable Möglichkeit zur Eichung der Driftweg-Driftzeit-Relation, die durch kubische Splines dargestellt wird, wurde implementiert. Das Auflösungsvermögen des Spurdetektors liegt in der dispersiven Ebene bei 76 µm für die Orts- und 0,23° für die Winkelkoordinate (wahrscheinlichster Fehler) sowie entsprechend in der nicht-dispersiven Ebene bei 110 µm bzw. 0,29°. Zur Rückrechnung der Detektorkoordinaten auf den Reaktionsort wurde die inverse Transfermatrix des Spektrometers bestimmt. Hierzu wurden an Protonen im ¹²C-Kern quasielastisch gestreute Elektronen verwendet, deren Startwinkel durch einen Lochkollimator definiert wurden. Daraus ergeben sich experimentelle Werte für die mittlere Winkelauflösung am Target von sigma_phi = 1,3 mrad bzw. sigma_theta = 10,6 mrad. Da die Impulseichung des SOS nur mittels quasielastischer Streuung (Zweiarmexperiment) durchgeführt werden kann, muss man den Beitrag des Protonarms zur Breite des Piks der fehlenden Masse in einer Monte-Carlo-Simulation abschätzen und herausfalten. Zunächst lässt sich nur abschätzen, dass die Impulsauflösung sicher besser als 1% ist.
Resumo:
Die Messung der Elektroproduktion geladener Pionen in der Nähe der Produktionsschwelle ermöglicht die Bestimmung des axialen Formfaktors des Nukleons G_A(Q²) und aus seinem Verlauf die Extraktion der axialen Masse M_A. Diese Größe kann im Rahmen der chiralen Störungstheorie vorhergesagt werden, so daß ihre experimentelle Bestimmung eine Überprüfung der theoretischen Beschreibung des Nukleons erlaubt. Im Rahmen dieser Arbeit wurden die bereits am Institut für Kernphysik der Universität Mainz in der A1-Kollaboration durchgeführten Messungen der Reaktion H(e,e'Pi+)n bei einer Schwerpunktsenergie von W = 1125 MeV und einem Vierer- impulsübertrag Q² von 0.117, 0.195 und 0.273 (GeV/c)² durch eine weitere Messung bei Q² = 0.058 (GeV/c)² ergänzt. In einer zweiten Meßperiode wurden zusätzlich die Messungen für die Q²-Werte von 0.117 und 0.195 (GeV/c)² wiederholt. Für alle Q²-Werte wurden Daten bei mindestens drei verschiedenen Werten der Polarisation des virtuellen Photons genommen, so daß für alle Messungen eine Rosenbluthseparation durchgeführt werden konnte, um den transversalen und den longitudinalen Anteil des Wirkungsquerschnitts zu bestimmen. Das Ergebnis für Q² = 0.195 (GeV/c)² stimmt im Rahmen der Fehler mit dem alten Ergebnis überein, für Q² = 0.117 (GeV/c)² ergibt sich eine deutliche Abweichung des longitudinalen Anteils. Das Ergebnis für Q² = 0.058 (GeV/c)² liegt unter der aus den alten Messungen gewonnenen Vorhersage. Der induzierte pseudoskalare Formfaktor des Nukleons G_P(Q²) kann ebenfalls in der Pionelektroproduktion bestimmt werden, wenn die Messung bei einer Schwerpunktsenergie nur wenige MeV über der Produktionsschwelle stattfindet. Eine solche Messung erfordert den Nachweis von Pionen mit kinetischen Energien unter 35 MeV, für den die in der A1-Kollaboration vorhandenen Spektrometer nicht geeignet sind. Im apparativen Teil der Arbeit wurde daher ein Szintillatorhodoskop für ein dediziertes Pionspektrometer mit kurzer Weglänge gebaut und getestet. Außerdem wurden für dieses sogenannte Short-Orbit-Spektrometer drei Kollimatoren entworfen und eingebaut.
Resumo:
Die Verifikation numerischer Modelle ist für die Verbesserung der Quantitativen Niederschlagsvorhersage (QNV) unverzichtbar. Ziel der vorliegenden Arbeit ist die Entwicklung von neuen Methoden zur Verifikation der Niederschlagsvorhersagen aus dem regionalen Modell der MeteoSchweiz (COSMO-aLMo) und des Globalmodells des Europäischen Zentrums für Mittelfristvorhersage (engl.: ECMWF). Zu diesem Zweck wurde ein neuartiger Beobachtungsdatensatz für Deutschland mit stündlicher Auflösung erzeugt und angewandt. Für die Bewertung der Modellvorhersagen wurde das neue Qualitätsmaß „SAL“ entwickelt. Der neuartige, zeitlich und räumlich hoch-aufgelöste Beobachtungsdatensatz für Deutschland wird mit der während MAP (engl.: Mesoscale Alpine Program) entwickelten Disaggregierungsmethode erstellt. Die Idee dabei ist, die zeitlich hohe Auflösung der Radardaten (stündlich) mit der Genauigkeit der Niederschlagsmenge aus Stationsmessungen (im Rahmen der Messfehler) zu kombinieren. Dieser disaggregierte Datensatz bietet neue Möglichkeiten für die quantitative Verifikation der Niederschlagsvorhersage. Erstmalig wurde eine flächendeckende Analyse des Tagesgangs des Niederschlags durchgeführt. Dabei zeigte sich, dass im Winter kein Tagesgang existiert und dies vom COSMO-aLMo gut wiedergegeben wird. Im Sommer dagegen findet sich sowohl im disaggregierten Datensatz als auch im COSMO-aLMo ein deutlicher Tagesgang, wobei der maximale Niederschlag im COSMO-aLMo zu früh zwischen 11-14 UTC im Vergleich zu 15-20 UTC in den Beobachtungen einsetzt und deutlich um das 1.5-fache überschätzt wird. Ein neues Qualitätsmaß wurde entwickelt, da herkömmliche, gitterpunkt-basierte Fehlermaße nicht mehr der Modellentwicklung Rechnung tragen. SAL besteht aus drei unabhängigen Komponenten und basiert auf der Identifikation von Niederschlagsobjekten (schwellwertabhängig) innerhalb eines Gebietes (z.B. eines Flusseinzugsgebietes). Berechnet werden Unterschiede der Niederschlagsfelder zwischen Modell und Beobachtungen hinsichtlich Struktur (S), Amplitude (A) und Ort (L) im Gebiet. SAL wurde anhand idealisierter und realer Beispiele ausführlich getestet. SAL erkennt und bestätigt bekannte Modelldefizite wie das Tagesgang-Problem oder die Simulation zu vieler relativ schwacher Niederschlagsereignisse. Es bietet zusätzlichen Einblick in die Charakteristiken der Fehler, z.B. ob es sich mehr um Fehler in der Amplitude, der Verschiebung eines Niederschlagsfeldes oder der Struktur (z.B. stratiform oder kleinskalig konvektiv) handelt. Mit SAL wurden Tages- und Stundensummen des COSMO-aLMo und des ECMWF-Modells verifiziert. SAL zeigt im statistischen Sinne speziell für stärkere (und damit für die Gesellschaft relevante Niederschlagsereignisse) eine im Vergleich zu schwachen Niederschlägen gute Qualität der Vorhersagen des COSMO-aLMo. Im Vergleich der beiden Modelle konnte gezeigt werden, dass im Globalmodell flächigere Niederschläge und damit größere Objekte vorhergesagt werden. Das COSMO-aLMo zeigt deutlich realistischere Niederschlagsstrukturen. Diese Tatsache ist aufgrund der Auflösung der Modelle nicht überraschend, konnte allerdings nicht mit herkömmlichen Fehlermaßen gezeigt werden. Die im Rahmen dieser Arbeit entwickelten Methoden sind sehr nützlich für die Verifikation der QNV zeitlich und räumlich hoch-aufgelöster Modelle. Die Verwendung des disaggregierten Datensatzes aus Beobachtungen sowie SAL als Qualitätsmaß liefern neue Einblicke in die QNV und lassen angemessenere Aussagen über die Qualität von Niederschlagsvorhersagen zu. Zukünftige Anwendungsmöglichkeiten für SAL gibt es hinsichtlich der Verifikation der neuen Generation von numerischen Wettervorhersagemodellen, die den Lebenszyklus hochreichender konvektiver Zellen explizit simulieren.
Resumo:
Die vorliegende Arbeit ist motiviert durch biologische Fragestellungen bezüglich des Verhaltens von Membranpotentialen in Neuronen. Ein vielfach betrachtetes Modell für spikende Neuronen ist das Folgende. Zwischen den Spikes verhält sich das Membranpotential wie ein Diffusionsprozess X der durch die SDGL dX_t= beta(X_t) dt+ sigma(X_t) dB_t gegeben ist, wobei (B_t) eine Standard-Brown'sche Bewegung bezeichnet. Spikes erklärt man wie folgt. Sobald das Potential X eine gewisse Exzitationsschwelle S überschreitet entsteht ein Spike. Danach wird das Potential wieder auf einen bestimmten Wert x_0 zurückgesetzt. In Anwendungen ist es manchmal möglich, einen Diffusionsprozess X zwischen den Spikes zu beobachten und die Koeffizienten der SDGL beta() und sigma() zu schätzen. Dennoch ist es nötig, die Schwellen x_0 und S zu bestimmen um das Modell festzulegen. Eine Möglichkeit, dieses Problem anzugehen, ist x_0 und S als Parameter eines statistischen Modells aufzufassen und diese zu schätzen. In der vorliegenden Arbeit werden vier verschiedene Fälle diskutiert, in denen wir jeweils annehmen, dass das Membranpotential X zwischen den Spikes eine Brown'sche Bewegung mit Drift, eine geometrische Brown'sche Bewegung, ein Ornstein-Uhlenbeck Prozess oder ein Cox-Ingersoll-Ross Prozess ist. Darüber hinaus beobachten wir die Zeiten zwischen aufeinander folgenden Spikes, die wir als iid Treffzeiten der Schwelle S von X gestartet in x_0 auffassen. Die ersten beiden Fälle ähneln sich sehr und man kann jeweils den Maximum-Likelihood-Schätzer explizit angeben. Darüber hinaus wird, unter Verwendung der LAN-Theorie, die Optimalität dieser Schätzer gezeigt. In den Fällen OU- und CIR-Prozess wählen wir eine Minimum-Distanz-Methode, die auf dem Vergleich von empirischer und wahrer Laplace-Transformation bezüglich einer Hilbertraumnorm beruht. Wir werden beweisen, dass alle Schätzer stark konsistent und asymptotisch normalverteilt sind. Im letzten Kapitel werden wir die Effizienz der Minimum-Distanz-Schätzer anhand simulierter Daten überprüfen. Ferner, werden Anwendungen auf reale Datensätze und deren Resultate ausführlich diskutiert.