893 resultados para SPARSE


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Arbeit behandelt das Problem der Skalierbarkeit von Reinforcement Lernen auf hochdimensionale und komplexe Aufgabenstellungen. Unter Reinforcement Lernen versteht man dabei eine auf approximativem Dynamischen Programmieren basierende Klasse von Lernverfahren, die speziell Anwendung in der Künstlichen Intelligenz findet und zur autonomen Steuerung simulierter Agenten oder realer Hardwareroboter in dynamischen und unwägbaren Umwelten genutzt werden kann. Dazu wird mittels Regression aus Stichproben eine Funktion bestimmt, die die Lösung einer "Optimalitätsgleichung" (Bellman) ist und aus der sich näherungsweise optimale Entscheidungen ableiten lassen. Eine große Hürde stellt dabei die Dimensionalität des Zustandsraums dar, die häufig hoch und daher traditionellen gitterbasierten Approximationsverfahren wenig zugänglich ist. Das Ziel dieser Arbeit ist es, Reinforcement Lernen durch nichtparametrisierte Funktionsapproximation (genauer, Regularisierungsnetze) auf -- im Prinzip beliebig -- hochdimensionale Probleme anwendbar zu machen. Regularisierungsnetze sind eine Verallgemeinerung von gewöhnlichen Basisfunktionsnetzen, die die gesuchte Lösung durch die Daten parametrisieren, wodurch die explizite Wahl von Knoten/Basisfunktionen entfällt und so bei hochdimensionalen Eingaben der "Fluch der Dimension" umgangen werden kann. Gleichzeitig sind Regularisierungsnetze aber auch lineare Approximatoren, die technisch einfach handhabbar sind und für die die bestehenden Konvergenzaussagen von Reinforcement Lernen Gültigkeit behalten (anders als etwa bei Feed-Forward Neuronalen Netzen). Allen diesen theoretischen Vorteilen gegenüber steht allerdings ein sehr praktisches Problem: der Rechenaufwand bei der Verwendung von Regularisierungsnetzen skaliert von Natur aus wie O(n**3), wobei n die Anzahl der Daten ist. Das ist besonders deswegen problematisch, weil bei Reinforcement Lernen der Lernprozeß online erfolgt -- die Stichproben werden von einem Agenten/Roboter erzeugt, während er mit der Umwelt interagiert. Anpassungen an der Lösung müssen daher sofort und mit wenig Rechenaufwand vorgenommen werden. Der Beitrag dieser Arbeit gliedert sich daher in zwei Teile: Im ersten Teil der Arbeit formulieren wir für Regularisierungsnetze einen effizienten Lernalgorithmus zum Lösen allgemeiner Regressionsaufgaben, der speziell auf die Anforderungen von Online-Lernen zugeschnitten ist. Unser Ansatz basiert auf der Vorgehensweise von Recursive Least-Squares, kann aber mit konstantem Zeitaufwand nicht nur neue Daten sondern auch neue Basisfunktionen in das bestehende Modell einfügen. Ermöglicht wird das durch die "Subset of Regressors" Approximation, wodurch der Kern durch eine stark reduzierte Auswahl von Trainingsdaten approximiert wird, und einer gierigen Auswahlwahlprozedur, die diese Basiselemente direkt aus dem Datenstrom zur Laufzeit selektiert. Im zweiten Teil übertragen wir diesen Algorithmus auf approximative Politik-Evaluation mittels Least-Squares basiertem Temporal-Difference Lernen, und integrieren diesen Baustein in ein Gesamtsystem zum autonomen Lernen von optimalem Verhalten. Insgesamt entwickeln wir ein in hohem Maße dateneffizientes Verfahren, das insbesondere für Lernprobleme aus der Robotik mit kontinuierlichen und hochdimensionalen Zustandsräumen sowie stochastischen Zustandsübergängen geeignet ist. Dabei sind wir nicht auf ein Modell der Umwelt angewiesen, arbeiten weitestgehend unabhängig von der Dimension des Zustandsraums, erzielen Konvergenz bereits mit relativ wenigen Agent-Umwelt Interaktionen, und können dank des effizienten Online-Algorithmus auch im Kontext zeitkritischer Echtzeitanwendungen operieren. Wir demonstrieren die Leistungsfähigkeit unseres Ansatzes anhand von zwei realistischen und komplexen Anwendungsbeispielen: dem Problem RoboCup-Keepaway, sowie der Steuerung eines (simulierten) Oktopus-Tentakels.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this study two ophiolites and a mafic-ultramafic complexes of the northeastern Aegean Sea, Greece, have been investigated to re-evaluate their petrogenetic evolution and tectonic setting. These complexes are: the mafic-ultramafic complex of Lesvos Island and the ophiolites of Samothraki Island and the Evros area. In order to examine these complexes in detail whole-rock major- and trace-elements as well as Sr and Nd isotopes, and minerals were analysed and U-Pb SHRIMP ages on zircons were determined. The mafic-ultramafic complex of Lesvos Island consists of mantle peridotite thrusted over a tectonic mélange containing metasediments, metabasalts and a few metagabbros. This succession had previously been interpreted as an ophiolite of Late Jurassic age. The new field and geochemical data allow a reinterpretation of this complex as representing an incipient continental rift setting that led to the subsequent formation of the Meliata-Maliac-Vardar branches of Neotethys in Upper Permian times (253 ± 6 Ma) and the term “Lesvos ophiolite” should be abandoned. With proceeding subduction and closure of the Maliac Ocean in Late Jurassic times (155 Ma) the Lesvos mafic-ultramafic complex was obducted. Zircon ages of 777, 539 and 338 Ma from a gabbro strongly suggest inheritance from the intruded basement and correspond to ages of distinct terranes recently recognized in the Hellenides (e.g. Florina terrane). Geochemical similar complexes which contain rift associations with Permo-Triassic ages can be found elsewhere in Greece and Turkey, namely the Teke Dere Thrust Sheet below the Lycian Nappes (SW Turkey), the Pindos subophiolitic mélange (W Greece), the Volcanosedimentary Complex on Central Evia Island (Greece) and the Karakaya Complex (NW Turkey). This infers that the rift-related rocks from Lesvos belong to an important Permo-Triassic rifting episode in the eastern Mediterranean. The ‘in-situ’ ophiolite of Samothraki Island comprises gabbros, sparse dykes and basalt flows as well as pillows cut by late dolerite dykes and had conventionally been interpreted as having formed in an ensialic back-arc basin. The results of this study revealed that none of the basalts and dolerites resemble mid-ocean ridge or back-arc basin basalts thus suggesting that the Samothraki ophiolite cannot represent mature back-arc basin crust. The age of the complex is regarded to be 160 ± 5 Ma (i.e. Oxfordian; early Upper Jurassic), which precludes any correlation with the Lesvos mafic-ultramafic complex further south (253 ± 6 Ma; Upper Permian). Restoration of the block configuration in NE Greece, before extensional collapse of the Hellenic hinterland and exhumation of the Rhodope Metamorphic Core Complex (mid-Eocene to mid-Miocene), results in a continuous ophiolite belt from Guevgueli in the NW to Samothraki in the SE, thus assigning the latter to the Innermost Hellenic Ophiolite Belt. In view of the data of this study, the Samothraki ophiolite represents a rift propagation of the Sithonia ophiolite spreading ridge into the Chortiatis calc-alkaline arc. The ophiolite of the Evros area consists of a plutonic sequence comprising cumulate and non-cumulate gabbros with plagiogranite veins, and an extrusive sequence of basalt dykes, massive and pillow lavas as well as pyroclastic rocks. Furthermore, in the Rhodope Massif tectonic lenses of harzburgites and dunites can be found. All rocks are spatially separated. The analytical results of this study revealed an intra-oceanic island arc setting for the Evros ophiolitic rocks. During late Middle Jurassic times (169 ± 2 Ma) an intra-oceanic arc has developed above a northwards directed intra-oceanic subduction zone of the Vardar Ocean in front of the Rhodope Massif. The boninitic, island arc tholeiitic and calc-alkaline rocks reflect the evolution of the Evros island arc. The obduction of the ophiolitic rocks onto the Rhodope basement margin took place during closure of the Vardar ocean basins. The harzburgites and dunites of the Rhodope Massif are strongly depleted and resemble harzburgites from recent oceanic island arcs. After melt extraction they underwent enrichment processes by percolating melts and fluids from the subducted slab. The relationship of the peridotites and the Evros ophiolite is still ambiguous, but the stratigraphic positions of the peridotites and the ophiolitic rocks indicate separated origin. The harzburgites and dunites most probably represent remnants of the mantle wedge of the island arc of the Rhodope terrane formed above subducted slab of the Nestos Ocean in late Middle Jurassic times. During collision of the Thracia terrane with the Rhodope terrane thrusting of the Rhodope terrane onto the Thracia terrane took place, whereas the harzburgites and dunites were pushed between the two terranes now cropping out on top of the Thracia terrane of the Rhodope Massif.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The work presented in this thesis deals with complex materials, which were obtained by self-assembly of monodisperse colloidal particles, also called colloidal crystallization. Two main fields of interest were investigated, the first dealing with the fabrication of colloidal monolayers and nanostructures, which derive there from. The second turned the focus on the phononic properties of colloidal particles, crystals, and glasses. For the fabrication of colloidal monolayers a method is introduced, which is based on the sparse distribution of dry colloidal particles on a parent substrate. In the ensuing floating step the colloidal monolayer assembles readily at the three-phase-contact line, giving a 2D hexagonally ordered film under the right conditions. The unique feature of this fabrication process is an anisotropic shrinkage, which occurs alongside with the floating step. This phenomenon is exploited for the tailored structuring of colloidal monolayers, leading to designed hetero-monolayers by inkjet printing. Furthermore, the mechanical stability of the floating monolayers allows the deposition on hydrophobic substrates, which enables the fabrication of ultraflat nanostructured surfaces. Densely packed arrays of crescent shaped nanoparticles have also been synthesized. It is possible to stack those arrays in a 3D manner allowing to mutually orientate the individual layers. In a step towards 3D mesoporous materials a methodology to synthesize hierarchically structured inverse opals is introduced. The deposition of colloidal particles in the free voids of a host inverse opal allows for the fabrication of composite inverse opals on two length scales. The phononic properties of colloidal crystals and films are characterized by Brillouin light scattering (BLS). At first the resonant modes of colloidal particles consisting of polystyrene, a copolymer of methylmethacrylate and butylacrylate, or of a silica core-PMMA shell topography are investigated, giving insight into their individual mechanical properties. The infiltration of colloidal films with an index matching liquid allows measuring the phonon dispersion relation. This leads to the assignment of band gaps to the material under investigation. Here, two band gaps could be found, one originating from the fcc order in the colloidal crystal (Bragg gap), the other stemming from the vibrational eigenmodes of the colloidal particles (hybridization gap).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die bedeutendste Folge der Luftverschmutzung ist eine erhöhte Konzentration an Ozon (O3) in der Troposphäre innerhalb der letzten 150 Jahre. Ozon ist ein photochemisches Oxidationsmittel und ein Treibhausgas, das als wichtigste Vorstufe des Hydroxyradikals OH die Oxidationskraft der Atmosphäre stark beeinflusst. Um die Oxidationskraft der Atmosphäre und ihren Einfluss auf das Klima verstehen zu können, ist es von großer Bedeutung ein detailliertes Wissen über die Photochemie des Ozons und seiner Vorläufer, den Stickoxiden (NOx), in der Troposphäre zu besitzen. Dies erfordert das Verstehen der Bildungs- und Abbaumechanismen von Ozon und seiner Vorläufer. Als eine für den chemischen Ozonabbau wichtige Region kann die vom Menschen weitgehend unberührte marine Grenzschicht (Marine boundary layer (MBL)) angesehen werden. Bisher wurden für diese Region jedoch kaum Spurengasmessungen durchgeführt, und so sind die dort ablaufenden photochemischen Prozesse wenig untersucht. Da etwa 70 % der Erdoberfläche mit Ozeanen bedeckt sind, können die in der marinen Granzschicht ablaufenden Prozesse als signifikant für die gesamte Atmosphäre angesehen werden. Dies macht eine genaue Untersuchung dieser Region interessant. Um die photochemische Produktion und den Abbau von Ozon abschätzen zu können und den Einfluss antrophogener Emissionen auf troposphärisches Ozon zu quantifizieren, sind aktuelle Messergebnisse von NOx im pptv-Bereich für diese Region erforderlich. Die notwendigen Messungen von NO, NO2, O3, JNO2, J(O1D), HO2, OH, ROx sowie einiger meteorologischer Parameter wurden während der Fahrt des französischen Forschungsschiffes Marion-Dufresne auf dem südlichen Atlantik (28°S-57°S, 46°W-34°E) im März 2007 durchgeführt. Dabei sind für NO und NO2 die bisher niedrigsten gemessenen Werte zu verzeichnen. Die während der Messcampagne gewonnen Daten wurden hinsichtlich Ihrer Übereinstimmung mit den Bedingungen des photochemischen stationären Gleichgewichts (photochemical steady state (PSS)) überprüft. Dabei konnte eine Abweichung vom PSS festgestellt werden, welche unter Bedingungen niedriger NOx-Konzentrationen (5 bis 25pptv) einen unerwarteten Trend im Leighton-Verhältnis bewirkt, der abhängig vom NOx Mischungsverhältnis und der JNO2 Intensität ist. Signifikante Abweichungen vom Verhältnis liegen bei einer Zunahme der JNO2 Intensität vor. Diese Ergebnisse zeigen, dass die Abweichung vom PSS nicht beim Minimum der NOx-Konzentrationen und der JNO2 Werte liegt, so wie es in bisherigen theoretischen Studien dargelegt wurde und können als Hinweis auf weitere photochemische Prozesse bei höheren JNO2-Werten in einem System mit niedrigem NOx verstanden werden. Das wichtigste Ergebnis dieser Untersuchung, ist die Verifizierung des Leighton-Verhältnisses, das zur Charakterisierung des PSS dient, bei sehr geringen NOx-Konzentrationen in der MBL. Die bei dieser Doktorarbeit gewonnenen Erkenntnisse beweisen, dass unter den Bedingungen der marinen Granzschicht rein photochemischer Abbau von Ozon stattfindet und als Hauptursache hierfür während des Tages die Photolyse gilt. Mit Hilfe der gemessenen Parameter wurde der kritische NO-Level auf Werte zwischen 5 und 9 pptv abgeschätzt, wobei diese Werte im Vergleich zu bisherigen Studien vergleichsweise niedrig sind. Möglicherweise bedeutet dies, dass das Ozon Produktion/ Abbau-Potential des südlichen Atlantiks deutlich stärker auf die Verfügbarkeit von NO reagiert, als es in anderen Regionen der Fall ist. Im Rahmen der Doktorarbeit wurde desweiteren ein direkter Vergleich der gemessenen Spezies mit dem Modelergebnis eines 3-dimensionalen Zirkulationsmodel zur Simulation atmosphären chemischer Prozesse (EMAC) entlang der exakten Schiffsstrecke durchgeführt. Um die Übereinstimmung der Messergebnisse mit dem bisherigen Verständnis der atmosphärischen Radikalchemie zu überprüfen, wurde ein Gleichgewichtspunktmodel entwickelt, das die während der Überfahrt erhaltenen Daten für Berechungen verwendet. Ein Vergleich zwischen der gemessenen und der modellierten ROx Konzentrationen in einer Umgebung mit niedrigem NOx zeigt, dass die herkömmliche Theorie zur Reproduktion der Beobachtungen unzureichend ist. Die möglichen Gründe hierfür und die Folgen werden in dieser Doktorarbeit diskutiert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this thesis, we consider the problem of solving large and sparse linear systems of saddle point type stemming from optimization problems. The focus of the thesis is on iterative methods, and new preconditioning srategies are proposed, along with novel spectral estimtates for the matrices involved.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die vorliegende Arbeit behandelt die Entwicklung und Verbesserung von linear skalierenden Algorithmen für Elektronenstruktur basierte Molekulardynamik. Molekulardynamik ist eine Methode zur Computersimulation des komplexen Zusammenspiels zwischen Atomen und Molekülen bei endlicher Temperatur. Ein entscheidender Vorteil dieser Methode ist ihre hohe Genauigkeit und Vorhersagekraft. Allerdings verhindert der Rechenaufwand, welcher grundsätzlich kubisch mit der Anzahl der Atome skaliert, die Anwendung auf große Systeme und lange Zeitskalen. Ausgehend von einem neuen Formalismus, basierend auf dem großkanonischen Potential und einer Faktorisierung der Dichtematrix, wird die Diagonalisierung der entsprechenden Hamiltonmatrix vermieden. Dieser nutzt aus, dass die Hamilton- und die Dichtematrix aufgrund von Lokalisierung dünn besetzt sind. Das reduziert den Rechenaufwand so, dass er linear mit der Systemgröße skaliert. Um seine Effizienz zu demonstrieren, wird der daraus entstehende Algorithmus auf ein System mit flüssigem Methan angewandt, das extremem Druck (etwa 100 GPa) und extremer Temperatur (2000 - 8000 K) ausgesetzt ist. In der Simulation dissoziiert Methan bei Temperaturen oberhalb von 4000 K. Die Bildung von sp²-gebundenem polymerischen Kohlenstoff wird beobachtet. Die Simulationen liefern keinen Hinweis auf die Entstehung von Diamant und wirken sich daher auf die bisherigen Planetenmodelle von Neptun und Uranus aus. Da das Umgehen der Diagonalisierung der Hamiltonmatrix die Inversion von Matrizen mit sich bringt, wird zusätzlich das Problem behandelt, eine (inverse) p-te Wurzel einer gegebenen Matrix zu berechnen. Dies resultiert in einer neuen Formel für symmetrisch positiv definite Matrizen. Sie verallgemeinert die Newton-Schulz Iteration, Altmans Formel für beschränkte und nicht singuläre Operatoren und Newtons Methode zur Berechnung von Nullstellen von Funktionen. Der Nachweis wird erbracht, dass die Konvergenzordnung immer mindestens quadratisch ist und adaptives Anpassen eines Parameters q in allen Fällen zu besseren Ergebnissen führt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Computing the weighted geometric mean of large sparse matrices is an operation that tends to become rapidly intractable, when the size of the matrices involved grows. However, if we are not interested in the computation of the matrix function itself, but just in that of its product times a vector, the problem turns simpler and there is a chance to solve it even when the matrix mean would actually be impossible to compute. Our interest is motivated by the fact that this calculation has some practical applications, related to the preconditioning of some operators arising in domain decomposition of elliptic problems. In this thesis, we explore how such a computation can be efficiently performed. First, we exploit the properties of the weighted geometric mean and find several equivalent ways to express it through real powers of a matrix. Hence, we focus our attention on matrix powers and examine how well-known techniques can be adapted to the solution of the problem at hand. In particular, we consider two broad families of approaches for the computation of f(A) v, namely quadrature formulae and Krylov subspace methods, and generalize them to the pencil case f(A\B) v. Finally, we provide an extensive experimental evaluation of the proposed algorithms and also try to assess how convergence speed and execution time are influenced by some characteristics of the input matrices. Our results suggest that a few elements have some bearing on the performance and that, although there is no best choice in general, knowing the conditioning and the sparsity of the arguments beforehand can considerably help in choosing the best strategy to tackle the problem.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Individuare e conoscere la natura degli inquinanti atmosferici e disporre dei dati delle emissioni sono azioni fondamentali per formulare politiche ambientali incentrate sul miglioramento della qualità dell'aria e monitorarne l'efficacia. Sorge l'esigenza di un controllo costante della qualità dell'aria, processo che avviene utilizzando delle centraline di monitoraggio fisse sparse nelle vie delle maggiori città o nei pressi dei principali insediamenti industriali. Lo scopo di questo progetto è quello di realizzare una stazione di monitoraggio mobile al fine di aumentare la superficie di controllo, realizzando un oggetto dinamico capace di acquisire dati sull'inquinamento. Questo è stato fatto applicando ad un drone un sistema di sensori capaci di rilevare le variazioni dei livelli di concentrazione degli agenti inquinanti. Ciò permette di eliminare le stazioni di monitoraggio fisse, le quali rappresentano una spesa ingente. Inoltre, attraverso l'utilizzo di un drone, è possibile monitorare siti più vasti, permettendo un monitoraggio costante e ripetuto nel tempo. La prima parte dell'elaborato analizza il sistema Embedded utilizzato per l'acquisizione dei dati, concentrando l'attenzione prevalentemente sui moduli utilizzati. La seconda descrive quali sono i primi passi per cominciare ad utilizzare i sensori posti sulla Gases Board 2.0 e risponde ai dubbi più comuni su quali parametri di configurazione adottare per un avere una risposta adeguata, quale processo di calibrazione seguire o come trasformare i dati acquisiti, espressi in tensioni, in valori di concentrazione di gas. La terza parte illustra i test effettuati per verificare il corretto funzionamento del sistema completo, con l’esposizione delle problematiche individuate, e una presentazione delle alternative più valide per superarle.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Although it is clear that regional analgesia in association with general anaesthesia substantially reduces postoperative pain, the benefits in terms of overall perioperative outcome are less evident. The aim of this nonsystematic review was to evaluate the effect on middle and long-term postoperative outcomes of adding regional perioperative analgesia to general anaesthesia. This study is based mostly on systematic reviews, large epidemiological studies and large or high-quality randomized controlled trials that were selected and evaluated by the author. The endpoints that are discussed are perioperative morbidity, cancer recurrence, chronic postoperative pain, postoperative rehabilitation and risk of neurologic damage. Epidural analgesia may have a favourable but very small effect on perioperative morbidity. The influence of other regional anaesthetic techniques on perioperative morbidity is unclear. Preliminary data suggest that regional analgesia might reduce the incidence of cancer recurrence. However, adequately powered randomized controlled trials are lacking. The sparse literature available suggests that regional analgesia may prevent the development of chronic postoperative pain. Rehabilitation in the immediate postoperative period is possibly improved, but the advantages in the long term remain unclear. Permanent neurological damage is extremely rare. In conclusion, while the risk of permanent neurologic damage remains extremely low, evidence suggests that regional analgesia may improve relevant outcomes in the long term. The effect size is mostly small or the number-needed-to-treat is high. However, considering the importance of the outcomes of interest, even minor improvement probably has substantial clinical relevance.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Energy efficiency is a major concern in the design of Wireless Sensor Networks (WSNs) and their communication protocols. As the radio transceiver typically accounts for a major portion of a WSN node’s power consumption, researchers have proposed Energy-Efficient Medium Access (E2-MAC) protocols that switch the radio transceiver off for a major part of the time. Such protocols typically trade off energy-efficiency versus classical quality of service parameters (throughput, latency, reliability). Today’s E2-MAC protocols are able to deliver little amounts of data with a low energy footprint, but introduce severe restrictions with respect to throughput and latency. Regrettably, they yet fail to adapt to varying traffic load at run-time. This paper presents MaxMAC, an E2-MAC protocol that targets at achieving maximal adaptivity with respect to throughput and latency. By adaptively tuning essential parameters at run-time, the protocol reaches the throughput and latency of energy-unconstrained CSMA in high-traffic phases, while still exhibiting a high energy-efficiency in periods of sparse traffic. The paper compares the protocol against a selection of today’s E2-MAC protocols and evaluates its advantages and drawbacks.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Abstract- In this correspondence, a simple one-dimensional (1-D) differencing operation is applied to bilevel images prior to block coding to produce a sparse binary image that can be encoded efficiently using any of a number of well-known techniques. The difference image can be encoded more efficiently than the original bilevel image whenever the average run length of black pixels in the original image is greater than two. Compression is achieved because the correlation between adjacent pixels is reduced compared with the original image. The encoding/decoding operations are described and compression performance is presented for a set of standard bilevel images.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Automatic scan planning for magnetic resonance imaging of the knee aims at defining an oriented bounding box around the knee joint from sparse scout images in order to choose the optimal field of view for the diagnostic images and limit acquisition time. We propose a fast and fully automatic method to perform this task based on the standard clinical scout imaging protocol. The method is based on sequential Chamfer matching of 2D scout feature images with a three-dimensional mean model of femur and tibia. Subsequently, the joint plane separating femur and tibia, which contains both menisci, can be automatically detected using an information-augmented active shape model on the diagnostic images. This can assist the clinicians in quickly defining slices with standardized and reproducible orientation, thus increasing diagnostic accuracy and also comparability of serial examinations. The method has been evaluated on 42 knee MR images. It has the potential to be incorporated into existing systems because it does not change the current acquisition protocol.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Sclerosing cholangitis in critically ill patients (SC-CIP) with sepsis and acute respiratory distress syndrome (ARDS) is a cholestatic liver disease with a rapid progression to liver cirrhosis and hepatic failure. Data on outcome of these patients after liver transplantation (LT) are sparse.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Data on practice and quality of postoperative pain treatment by anaesthesiologists after ambulatory surgery are sparse. The current survey enrolled anaesthesiologists in private practice who were responsible for pain therapy after ambulatory surgery. The aim of this investigation was to evaluate the implementation of the German S3 guidelines for acute and postoperative pain therapy in the outpatient setting.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The widening gap between the numbers of patients on the waiting list for organ transplantation and the insufficient numbers of organ donors results in the use of "critical" donors, so-called marginal donors or extended criteria donors. Data concerning the evaluation of extended criteria donors (ECD) in Switzerland are sparse.