921 resultados para Standard method
Resumo:
The aim of this study was to evaluate the influence of dental plaque and moisture on performance of a laser fluorescence device in detecting occlusal and proximal caries lesions in primary teeth. Fifty-five occlusal and 58 proximal sites on primary molars were evaluated using a DIAGNOdent pen (LFpen) device. For the drying time study, the evaluations were performed in: (I) moist teeth; (II) teeth dried for 3 s, or (III) dried for 15 s. For the plaque study, the evaluations were done in sites: (I) without plaque; (II) with plaque, and (III) after cleaning. Evaluation of the teeth sections in stereomicroscope was the reference standard method. LF pen values, sensitivity, specificity, and accuracy were compared. The values obtained after 15 s of drying were higher than those obtained with moist teeth or dried for 3 s at both occlusal and proximal surfaces. However, there was no change in the performance in detecting caries lesions. With regard to the presence of plaque, there was no significant change in the readings of the device, but specificity was decreased in occlusal surfaces with plaque. At proximal surfaces, however, no significant differences were observed. In conclusion, the moisture conditions do not influence significantly the performance of the LFpen, but the presence of plaque can affect its performance in detecting occlusal caries lesions in primary teeth.
Resumo:
Máster en Oceanografía
Resumo:
La tecnica di ozonolisi viene applicata ai fanghi biologici derivanti da impianti di depurazione acque reflue urbane, e consiste nell'ottenere, grazie all'ozono, una minor massa fangosa da smaltire e una miglior trattabilità del fango residue. In questo elaborato si prendono in esame le sperimentazioni effettuate a Marina di Ravenna e si estraggono le prime conclusioni gestionali, economiche e ambientali sull'applicabilità del metodo a questo tipo di fango.
Resumo:
In questa tesi si è voluta porre l’attenzione sulla suscettibilità alle alte temperature delle resine che li compongono. Lo studio del comportamento alle alte temperature delle resine utilizzate per l’applicazione dei materiali compositi è risultato un campo di studio ancora non completamente sviluppato, nel quale c’è ancora necessità di ricerche per meglio chiarire alcuni aspetti del comportamento. L’analisi di questi materiali si sviluppa partendo dal contesto storico, e procedendo successivamente ad una accurata classificazione delle varie tipologie di materiali compositi soffermandosi sull’ utilizzo nel campo civile degli FRP (Fiber Reinforced Polymer) e mettendone in risalto le proprietà meccaniche. Considerata l’influenza che il comportamento delle resine riveste nel comportamento alle alte temperature dei materiali compositi si è, per questi elementi, eseguita una classificazione in base alle loro proprietà fisico-chimiche e ne sono state esaminate le principali proprietà meccaniche e termiche quali il modulo elastico, la tensione di rottura, la temperatura di transizione vetrosa e il fenomeno del creep. Sono state successivamente eseguite delle prove sperimentali, effettuate presso il Laboratorio Resistenza Materiali e presso il Laboratorio del Dipartimento di Chimica Applicata e Scienza dei Materiali, su dei provini confezionati con otto differenti resine epossidiche. Per valutarne il comportamento alle alte temperature, le indagini sperimentali hanno valutato dapprima le temperature di transizione vetrosa delle resine in questione e, in seguito, le loro caratteristiche meccaniche. Dalla correlazione dei dati rilevati si sono cercati possibili legami tra le caratteristiche meccaniche e le proprietà termiche delle resine. Si sono infine valutati gli aspetti dell’applicazione degli FRP che possano influire sul comportamento del materiale composito soggetto alle alte temperature valutando delle possibili precauzioni che possano essere considerate in fase progettuale.
Resumo:
Die Resonanzionisations-Massenspektrometrie (RIMS) ist sowohl für spektroskopische Untersuchungen seltener Isotope als auch für den Ultraspurennachweis langlebiger radioaktiver Elemente einsetzbar. Durch die mehrstufige resonante Anregung atomarer Energieniveaus mit anschließender Ionisation mit Laserlicht wird eine sehr hohe Elementselektivität und Ionisationseffizienz erreicht. Der nachfolgende massenselektive Ionennachweis liefert eine gute Isotopenselektivität zusammen mit einer effektiven Untergrundunterdrückung. Ein wichtiger Bestandteil der RIMS-Apparatur ist ein zuverlässig arbeitendes, leistungsstarkes Lasersystem für die Resonanzionisation. Im Rahmen dieser Arbeit wurde ein von einem hochrepetierenden Nd:YAG-Laser gepumptes, aus drei Titan-Saphir-Lasern bestehendes System fertig aufgebaut und in den Routinebetrieb überführt. Die Titan-Saphir-Laser liefern im Durchstimmbereich von 730 - 880 nm eine mittlere Leistung von bis zu 3 W pro Laser bei einer Linienbreite von 2 - 3 GHz. Sie lassen sich computergesteuert in ihren Wellenlängen durchstimmen. Die mittels Resonanzionisation erzeugten Ionen werden dann in einem Flugzeit-Massenspektrometer entsprechend ihrer Masse aufgetrennt und mit einem Kanalplattendetektor nachgewiesen.Als Voraussetzung für die isotopenselektive Ultraspurenanalyse von Plutonium wurden mit diesem Lasersystem die Isotopieverschiebungen eines effizienten, dreistufigen Anregungsschema für Plutonium bestimmt. Die Laserleistungen reichen zur vielfachen Sättigung der ersten beiden Anregungsschritte und zur zweifachen Sättigung des dritten Anregungsschritts aus.Außerdem wurden die Ionisationsenergien von Pu-239 und Pu-244 zur Untersuchung ihrer Isotopenabhängigkeit bestimmt. Die beiden Ionisationsenergien sind im Rahmen der erreichten Genauigkeit bei einem Meßwert von IP239-IP244 = 0,24(82) cm^-1 gleich.Die Nachweiseffizienz der RIMS-Apparatur für Plutonium wurde in Effizienzmessungen zu 10^-5 bestimmt. Durch die gute Untergrundunterdrückung ergab sich daraus eine Nachweisgrenze von 10^6 Atomen bei der Messung eines Plutoniumisotops. Die Bestimmung der Isotopenverhältnisse von Proben mit einer zertifizierten Isotopenzusammensetzung lieferte eine gute Übereinstimmung der Meßwerte mit den angegebenen Zusammensetzungen.Die RIMS-Apparatur wurde zur Bestimmung des Gehalts und der Isotopenzusammensetzung von Plutonium in Meerwasser- und Staubproben eingesetzt.Auf Grund der Isotopenzusammensetzung konnte gezeigt werden, daß das Plutonium bei den meisten Proben aus dem Fallout von oberirdischen Kernwaffentests stammte. Des weiteren wurde Plutonium in Urinproben bestimmt. Die Nachweisgrenzen lagen bei diesen Umweltproben bei 10^6 bis 10^7 Atomen Plutonium und damit um zwei Größenordnungen niedriger als die Nachweisgrenze für Pu-239 bei der alpha-Spektroskopie, der Standardmethode für den Plutoniumnachweis.
Resumo:
Im Rahmen der vorliegenden Arbeit wurden zum ersten Mal kalorimetrische Tieftemperatur-Detektoren in der Beschleuniger-Massenspektrometrie (Accelerator Mass Spectrometry AMS), einer Standard-Methode zur Bestimmung kleinster Isotopenverhältnisse, eingesetzt, um das Isotopenverhältnis von 236U zu 238U zu bestimmen. Das Uran-Isotop 236U entsteht in der Neutroneneinfang-Reaktion 235U(n,gamma)236U und kann daher als Monitor-Nuklid für Neutronenflüsse verwendet werden. Die Detektoren bestehen aus einem Saphir-Absorber, auf den ein supraleitender Aluminium-Film aufgedampft ist, der als Thermistor dient. Ein energetisches Schwerion deponiert seine kinetische Energie als Wärme im Absorber, dessen Temperaturänderung durch die Widerstandsänderung des Supraleiters nachgewiesen wird. Mit solchen Detektoren konnte in vorhergehenden Experimenten bei GSI in einem Energiebereich von E = 5 - 300 MeV/amu für eine Vielzahl von Ionen von Neon bis Uran eine relative Energieauflösung von (1 - 4) E-3 erreicht werden. Der für die Beschleuniger-Massenspektrometrie typische Energiebereich liegt bei E = 0.1 - 1 MeV/amu. Im ersten Schritt wurde daher die systematische Untersuchung der Detektoreigenschaften auf diesen Energiebereich ausgedehnt. Diese Untersuchungen sowie die AMS-Messungen wurden am Tandem-Beschleuniger VERA des Instituts für Isotopenforschung und Kernphysik der Universität Wien durchgeführt. In einem Energiebereich von 10 - 60 MeV konnte für verschiedene Ionen (13C, 197Au, 238U) zunächst eine relative Energieauflösung von DeltaE/E = 7 E-3 erreicht werden. Dies übertrifft die Auflösung konventioneller Ionisations-Detektoren um ca. eine Größenordnung. Durch eine Verbesserung thermischer und elektronischer Rauschbeiträge konnte in einem zweiten Experiment für Uran der Energie 17 MeV die Auflösung auf DeltaE/E = 4.6 E-3 verbessert werden. Die Energie-Response des Detektors war linear über den gesamten beobachteten Energiebereich und unabhängig von der Ionenmasse; bis auf ein Niveau von 0.1 % wurde kein Pulshöhendefekt beobachtet. Diese Ergebnisse zeigen, daß solche Detektoren ein wertvolles Werkzeug in der Schwerionenphysik im Bereich relativ niedriger Ionenenergien darstellen. Mit der erreichten Energieauflösung war es möglich, für mehrere Proben aus natürlichem Uran das Isotopenverhältnis 236U/238U zu bestimmen: Um einen Material-Standard für Uran in der AMS zu etablieren, wurde das Isotopenverhältnis 236U/238U für zwei Proben aus der Mine ''K.u.K. Joachimsthal'' möglichst präzise bestimmt. Die Ergebnisse in der vorliegenden Arbeit stimmen gut mit früheren Messungen überein, die mit einem konventionellen Detektorsystem durchgeführt wurden. Sowohl der statistische als auch der systematische Fehler konnten deutlich reduziert werden. Für eine weitere Probe, extrahiert aus dem Wasser einer Uran-haltigen Quelle in Bad Gastein, wurde ein Isotopenverhältnis von 6.1 E-12 gemessen. Dies stellt das kleinste bislang für 236U/238U gemessene Isotopenverhältnis dar und bedeutet eine Steigerung der Sensitivität um eine Größenordnung. Die erreichte Energieauflösung ermöglicht es außerdem, die Detektoren zur direkten Massenidentifikation von schweren Ionen mittels einer kombinierten Energie-Flugzeit-Messung einzusetzen. In ersten Test-Messungen im Rahmen der vorliegenden Arbeit wurde eine Massenauflösung von DeltaM/M = (8.5 - 11.0) E-3 erreicht. In einem ersten Test für den Einsatz dieser Detektoren zum Nachweis sog. ''superschwerer Elemente (Z >= 112)'' erlaubte der große dynamische Bereich, die Reaktionsprodukte und ihre nachfolgenden Alpha-Zerfälle mit hoher Energieauflösung simultan und zeitaufgelöst nachzuweisen.
Resumo:
Im ersten Teil dieser Arbeit wird die Anwendung der MALDI-TOF Massenspektrometrie auf annähernd monodisperse und eng verteilte Verbindungen polymerer Gestalt beschrieben. Dazu werden mit Polyphenylendendrimeren, Polybutadien-Sternpolymeren, Propionylethyleniminen und Polyethylmethylsiloxanen weniger gängige Verbindungen ausgewählt, für deren Analyse keine Standardmethodik vorliegt. Dabei wird gezeigt, dass andere Analysemethoden (wie z.B. GPC oder NMR) der MALDI-TOF Massenspektrometrie oftmals deutlich unterlegen sind - in einigen Fällen werden deren Ergebnisse gar widerlegt. In anderen Fällen wird allerdings auch festgestellt, dass diese Methoden die Massenspektrometrie unterstützen oder ergänzen können. Im darauf folgenden Teil werden durch Mischen eng verteilter Polymerstandards breite Verteilung simuliert, um so die Gründe für die Limitierung der Anwendbarkeit der MALDI-TOF Massenspektrometrie auf breite Verteilungen zu ermitteln. Die Problematik der Messung von breiten Verteilungen wird oftmals durch eine vorherige Fraktionierung mit der GPC gelöst. Auch dieses Verfahren wird in dieser Arbeit an Hand von simulierten breiten Verteilungen untersucht und bewertet. Neben qualitativen Untersuchungen mit der MALDI-TOF Massenspektrometrie wird in dieser Arbeit abgeschätzt, inwieweit diese Methode auch zur quantitativen Analyse eingesetzt werden kann. Dazu werden die Untersuchungen von Oligo(para-phenylene) (OPP) und von Cyclodehydrierungsprodukten sehr großer Dendrimere (C385, C474) beschrieben. Dabei stellt sich heraus, das neben der direkten UV-Absorption (im Falle der OPPs) auch die zunehmende Ionisierungswahrscheinlichkeit und die sinkende Desorptionswahrscheinlichkeit mit fortschreitender Cyclodehydrierung eine Quantifizierung problematisch gestalten. In einem abschließenden Kapitel wird der Versuch beschrieben, aus polyzyklischen aromatischen Kohlenwasserstoffen (PAHs) durch den Beschuss mit den UV-Strahlen des MALDI-TOF Massenspektrometers Fullerene zu erzeugen. Der Einsatz von NaCl als sogenannte Inertmatrix führt zu vielversprechenden ersten Ergebnissen.
Resumo:
In this thesis a mathematical model was derived that describes the charge and energy transport in semiconductor devices like transistors. Moreover, numerical simulations of these physical processes are performed. In order to accomplish this, methods of theoretical physics, functional analysis, numerical mathematics and computer programming are applied. After an introduction to the status quo of semiconductor device simulation methods and a brief review of historical facts up to now, the attention is shifted to the construction of a model, which serves as the basis of the subsequent derivations in the thesis. Thereby the starting point is an important equation of the theory of dilute gases. From this equation the model equations are derived and specified by means of a series expansion method. This is done in a multi-stage derivation process, which is mainly taken from a scientific paper and which does not constitute the focus of this thesis. In the following phase we specify the mathematical setting and make precise the model assumptions. Thereby we make use of methods of functional analysis. Since the equations we deal with are coupled, we are concerned with a nonstandard problem. In contrary, the theory of scalar elliptic equations is established meanwhile. Subsequently, we are preoccupied with the numerical discretization of the equations. A special finite-element method is used for the discretization. This special approach has to be done in order to make the numerical results appropriate for practical application. By a series of transformations from the discrete model we derive a system of algebraic equations that are eligible for numerical evaluation. Using self-made computer programs we solve the equations to get approximate solutions. These programs are based on new and specialized iteration procedures that are developed and thoroughly tested within the frame of this research work. Due to their importance and their novel status, they are explained and demonstrated in detail. We compare these new iterations with a standard method that is complemented by a feature to fit in the current context. A further innovation is the computation of solutions in three-dimensional domains, which are still rare. Special attention is paid to applicability of the 3D simulation tools. The programs are designed to have justifiable working complexity. The simulation results of some models of contemporary semiconductor devices are shown and detailed comments on the results are given. Eventually, we make a prospect on future development and enhancements of the models and of the algorithms that we used.
Resumo:
In den letzten drei Jahrzehnten sind Fernerkundung und GIS in den Geowissenschaften zunehmend wichtiger geworden, um die konventionellen Methoden von Datensammlung und zur Herstellung von Landkarten zu verbessern. Die vorliegende Arbeit befasst sich mit der Anwendung von Fernerkundung und geographischen Informationssystemen (GIS) für geomorphologische Untersuchungen. Durch die Kombination beider Techniken ist es vor allem möglich geworden, geomorphologische Formen im Überblick und dennoch detailliert zu erfassen. Als Grundlagen werden in dieser Arbeit topographische und geologische Karten, Satellitenbilder und Klimadaten benutzt. Die Arbeit besteht aus 6 Kapiteln. Das erste Kapitel gibt einen allgemeinen Überblick über den Untersuchungsraum. Dieser umfasst folgende morphologische Einheiten, klimatischen Verhältnisse, insbesondere die Ariditätsindizes der Küsten- und Gebirgslandschaft sowie das Siedlungsmuster beschrieben. Kapitel 2 befasst sich mit der regionalen Geologie und Stratigraphie des Untersuchungsraumes. Es wird versucht, die Hauptformationen mit Hilfe von ETM-Satellitenbildern zu identifizieren. Angewandt werden hierzu folgende Methoden: Colour Band Composite, Image Rationing und die sog. überwachte Klassifikation. Kapitel 3 enthält eine Beschreibung der strukturell bedingten Oberflächenformen, um die Wechselwirkung zwischen Tektonik und geomorphologischen Prozessen aufzuklären. Es geht es um die vielfältigen Methoden, zum Beispiel das sog. Image Processing, um die im Gebirgskörper vorhandenen Lineamente einwandfrei zu deuten. Spezielle Filtermethoden werden angewandt, um die wichtigsten Lineamente zu kartieren. Kapitel 4 stellt den Versuch dar, mit Hilfe von aufbereiteten SRTM-Satellitenbildern eine automatisierte Erfassung des Gewässernetzes. Es wird ausführlich diskutiert, inwieweit bei diesen Arbeitsschritten die Qualität kleinmaßstäbiger SRTM-Satellitenbilder mit großmaßstäbigen topographischen Karten vergleichbar ist. Weiterhin werden hydrologische Parameter über eine qualitative und quantitative Analyse des Abflussregimes einzelner Wadis erfasst. Der Ursprung von Entwässerungssystemen wird auf der Basis geomorphologischer und geologischer Befunde interpretiert. Kapitel 5 befasst sich mit der Abschätzung der Gefahr episodischer Wadifluten. Die Wahrscheinlichkeit ihres jährlichen Auftretens bzw. des Auftretens starker Fluten im Abstand mehrerer Jahre wird in einer historischen Betrachtung bis 1921 zurückverfolgt. Die Bedeutung von Regentiefs, die sich über dem Roten Meer entwickeln, und die für eine Abflussbildung in Frage kommen, wird mit Hilfe der IDW-Methode (Inverse Distance Weighted) untersucht. Betrachtet werden außerdem weitere, regenbringende Wetterlagen mit Hilfe von Meteosat Infrarotbildern. Genauer betrachtet wird die Periode 1990-1997, in der kräftige, Wadifluten auslösende Regenfälle auftraten. Flutereignisse und Fluthöhe werden anhand von hydrographischen Daten (Pegelmessungen) ermittelt. Auch die Landnutzung und Siedlungsstruktur im Einzugsgebiet eines Wadis wird berücksichtigt. In Kapitel 6 geht es um die unterschiedlichen Küstenformen auf der Westseite des Roten Meeres zum Beispiel die Erosionsformen, Aufbauformen, untergetauchte Formen. Im abschließenden Teil geht es um die Stratigraphie und zeitliche Zuordnung von submarinen Terrassen auf Korallenriffen sowie den Vergleich mit anderen solcher Terrassen an der ägyptischen Rotmeerküste westlich und östlich der Sinai-Halbinsel.
Resumo:
This thesis was undertaken to explore possible applications of high gradient magnetic separation (HGMS) for the separation of RBCs infected with Plasmodium falciparum, with the dual aim of establishing a novel and superior method for isolating late-stage infected cells, and of obtaining synchronized cell cultures.rnThe presented work presents protocols for HGMS of parasitized RBCs that fulfil these aims. Late-stage parasitized cell can be isolated essentially devoid of contamination with non-infected and ring-stage infected cells. Such an easy method for a highly quantitative and qualitative purification has not yet been reported. Synchronous cultures can be obtained both following depletion of late-stage infected cells, and following isolation of the latter. The quality of synchronization cultures matches that of sorbitol lysis, the current standard method for malaria culture synchronization. An advantage of HGMS is the avoidance of osmotic stress for RBCs. The new methods further have the appeal of high reproducibility, cost-effectiveness, and simple protocol.rnIt should be possible to take the methods beyond Plasmodium infected RBCs. Most magnetic separation techniques in the sector of biomedical research employ columns with a hydrophilic polymer-coated matrix. Our procedure employs an optimized buffer system. Polymer coating becomes unnecessary and uncoated columns are available at a fraction of the cost.
Resumo:
This thesis details the development of quantum chemical methods for the accurate theoretical description of molecular systems with a complicated electronic structure. In simple cases, a single Slater determinant, in which the electrons occupy a number of energetically lowest molecular orbitals, offers a qualitatively correct model. The widely used coupled-cluster method CCSD(T) efficiently includes electron correlation effects starting from this determinant and provides reaction energies in error by only a few kJ/mol. However, the method often fails when several electronic configurations are important, as, for instance, in the course of many chemical reactions or in transition metal compounds. Internally contracted multireference coupled-cluster methods (ic-MRCC methods) cure this deficiency by using a linear combination of determinants as a reference function. Despite their theoretical elegance, the ic-MRCC equations involve thousands of terms and are therefore derived by the computer. Calculations of energy surfaces of BeH2, HF, LiF, H2O, N2 and Be3 unveil the theory's high accuracy compared to other approaches and the quality of various hierarchies of approximations. New theoretical advances include size-extensive techniques for removing linear dependencies in the ic-MRCC equations and a multireference analog of CCSD(T). Applications of the latter method to O3, Ni2O2, benzynes, C6H7NO and Cr2 underscore its potential to become a new standard method in quantum chemistry.
Resumo:
High arterial partial oxygen pressure (Pao(2)) oscillations within the respiratory cycle were described recently in experimental acute lung injury. This phenomenon has been related to cyclic recruitment of atelectasis and varying pulmonary shunt fractions. Noninvasive detection of Spo(2) (oxygen saturation measured by pulse oximetry) as an indicator of cyclic collapse of atelectasis, instead of recording Pao(2) oscillations, could be of clinical interest in critical care. Spo(2) oscillations were recorded continuously in three different cases of lung damage to demonstrate the technical feasibility of this approach. To deduce Pao(2) from Spo(2), a mathematical model of the hemoglobin dissociation curve including left and right shifts was derived from the literature and adapted to the dynamic changes of oxygenation. Calculated Pao(2) amplitudes (derived from Spo(2) measurements) were compared to simultaneously measured fast changes of Pao(2), using a current standard method (fluorescence quenching of ruthenium). Peripheral hemoglobin saturation was capable to capture changes of Spo(2) within each respiratory cycle. For the first time, Spo(2) oscillations due to cyclic recruitment of atelectasis within a respiratory cycle were determined by photoplethysmography, a technology that can be readily applied noninvasively in clinical routine. A mathematic model to calculate the respective Pao(2) changes was developed and its applicability tested.
Resumo:
Pulse-wave velocity (PWV) is considered as the gold-standard method to assess arterial stiffness, an independent predictor of cardiovascular morbidity and mortality. Current available devices that measure PWV need to be operated by skilled medical staff, thus, reducing the potential use of PWV in the ambulatory setting. In this paper, we present a new technique allowing continuous, unsupervised measurements of pulse transit times (PTT) in central arteries by means of a chest sensor. This technique relies on measuring the propagation time of pressure pulses from their genesis in the left ventricle to their later arrival at the cutaneous vasculature on the sternum. Combined thoracic impedance cardiography and phonocardiography are used to detect the opening of the aortic valve, from which a pre-ejection period (PEP) value is estimated. Multichannel reflective photoplethysmography at the sternum is used to detect the distal pulse-arrival time (PAT). A PTT value is then calculated as PTT = PAT - PEP. After optimizing the parameters of the chest PTT calculation algorithm on a nine-subject cohort, a prospective validation study involving 31 normo- and hypertensive subjects was performed. 1/chest PTT correlated very well with the COMPLIOR carotid to femoral PWV (r = 0.88, p < 10 (-9)). Finally, an empirical method to map chest PTT values onto chest PWV values is explored.
Resumo:
The prevention of ischaemia and the adequate restitution of blood flow to ischaemic tissue are pivotal to halt the progression of cellular injury associated with decreased oxygen and nutrient supply. Accordingly, the search for novel strategies which aim at preventing ischaemia-reperfusion-induced tissue damage is still of major interest in flap surgery. Preconditioning represents an elegant approach to render the tissue more resistant against deleterious ischaemic insults. For many decades, 'surgical delay' has been the standard method of tissue preconditioning. During the last 10 years, ischaemic preconditioning was added to the repertoire of plastic surgeons to protect flaps from ischaemic necrosis. The invasiveness and expenditure of time of these procedures, however, have always been major drawbacks, hindering a wide distribution in clinical practice. Consequently, the motivation has all along been to further refine and simplify protective strategies. Recent experimental studies have now shown that efficient protection from ischaemic necrosis can also be achieved by remote preconditioning or pretreatment with chemical agents and growth factors, which mimic the action of surgical delay and ischaemic preconditioning. In addition, the local application of unspecific stressors, including both heating and cooling, have been shown to effectively improve flap microcirculation and, thus, tissue survival. In view of successful translational research, it is now time that the efficacy of these novel preconditioning procedures is proven in prospective randomised clinical trials.
Resumo:
OBJECTIVE: Meta-analysis of studies of the accuracy of diagnostic tests currently uses a variety of methods. Statistically rigorous hierarchical models require expertise and sophisticated software. We assessed whether any of the simpler methods can in practice give adequately accurate and reliable results. STUDY DESIGN AND SETTING: We reviewed six methods for meta-analysis of diagnostic accuracy: four simple commonly used methods (simple pooling, separate random-effects meta-analyses of sensitivity and specificity, separate meta-analyses of positive and negative likelihood ratios, and the Littenberg-Moses summary receiver operating characteristic [ROC] curve) and two more statistically rigorous approaches using hierarchical models (bivariate random-effects meta-analysis and hierarchical summary ROC curve analysis). We applied the methods to data from a sample of eight systematic reviews chosen to illustrate a variety of patterns of results. RESULTS: In each meta-analysis, there was substantial heterogeneity between the results of different studies. Simple pooling of results gave misleading summary estimates of sensitivity and specificity in some meta-analyses, and the Littenberg-Moses method produced summary ROC curves that diverged from those produced by more rigorous methods in some situations. CONCLUSION: The closely related hierarchical summary ROC curve or bivariate models should be used as the standard method for meta-analysis of diagnostic accuracy.