806 resultados para Hand shape
Resumo:
In this thesis, a systematic analysis of the bar B to X_sgamma photon spectrum in the endpoint region is presented. The endpoint region refers to a kinematic configuration of the final state, in which the photon has a large energy m_b-2E_gamma = O(Lambda_QCD), while the jet has a large energy but small invariant mass. Using methods of soft-collinear effective theory and heavy-quark effective theory, it is shown that the spectrum can be factorized into hard, jet, and soft functions, each encoding the dynamics at a certain scale. The relevant scales in the endpoint region are the heavy-quark mass m_b, the hadronic energy scale Lambda_QCD and an intermediate scale sqrt{Lambda_QCD m_b} associated with the invariant mass of the jet. It is found that the factorization formula contains two different types of contributions, distinguishable by the space-time structure of the underlying diagrams. On the one hand, there are the direct photon contributions which correspond to diagrams with the photon emitted directly from the weak vertex. The resolved photon contributions on the other hand arise at O(1/m_b) whenever the photon couples to light partons. In this work, these contributions will be explicitly defined in terms of convolutions of jet functions with subleading shape functions. While the direct photon contributions can be expressed in terms of a local operator product expansion, when the photon spectrum is integrated over a range larger than the endpoint region, the resolved photon contributions always remain non-local. Thus, they are responsible for a non-perturbative uncertainty on the partonic predictions. In this thesis, the effect of these uncertainties is estimated in two different phenomenological contexts. First, the hadronic uncertainties in the bar B to X_sgamma branching fraction, defined with a cut E_gamma > 1.6 GeV are discussed. It is found, that the resolved photon contributions give rise to an irreducible theory uncertainty of approximately 5 %. As a second application of the formalism, the influence of the long-distance effects on the direct CP asymmetry will be considered. It will be shown that these effects are dominant in the Standard Model and that a range of -0.6 < A_CP^SM < 2.8 % is possible for the asymmetry, if resolved photon contributions are taken into account.
Resumo:
Shape memory materials (SMMs) represent an important class of smart materials that have the ability to return from a deformed state to their original shape. Thanks to such a property, SMMs are utilized in a wide range of innovative applications. The increasing number of applications and the consequent involvement of industrial players in the field have motivated researchers to formulate constitutive models able to catch the complex behavior of these materials and to develop robust computational tools for design purposes. Such a research field is still under progress, especially in the prediction of shape memory polymer (SMP) behavior and of important effects characterizing shape memory alloy (SMA) applications. Moreover, the frequent use of shape memory and metallic materials in biomedical devices, particularly in cardiovascular stents, implanted in the human body and experiencing millions of in-vivo cycles by the blood pressure, clearly indicates the need for a deeper understanding of fatigue/fracture failure in microsize components. The development of reliable stent designs against fatigue is still an open subject in scientific literature. Motivated by the described framework, the thesis focuses on several research issues involving the advanced constitutive, numerical and fatigue modeling of elastoplastic and shape memory materials. Starting from the constitutive modeling, the thesis proposes to develop refined phenomenological models for reliable SMA and SMP behavior descriptions. Then, concerning the numerical modeling, the thesis proposes to implement the models into numerical software by developing implicit/explicit time-integration algorithms, to guarantee robust computational tools for practical purposes. The described modeling activities are completed by experimental investigations on SMA actuator springs and polyethylene polymers. Finally, regarding the fatigue modeling, the thesis proposes the introduction of a general computational approach for the fatigue-life assessment of a classical stent design, in order to exploit computer-based simulations to prevent failures and modify design, without testing numerous devices.
Resumo:
Gegenstand dieser Arbeit ist die Präparation und die ausführliche Charakterisierung epitaktischer Dünnschicht-Proben der Heusler Verbindung Ni2MnGa. Diese intermetallische Verbindung zeigt einen magnetischen Formgedächtnis-Effekt (MFG), der sowohl im Bezug auf mögliche Anwendungen, als auch im Kontext der Grundlagenforschung äußerst interessant ist. In Einkristallen nahe der Stöchiometrie Ni2MnGa wurden riesige magnetfeldinduzierte Dehnungen von bis zu 10 % nachgewiesen. Der zugrundeliegende Mechanismus basiert auf einer Umverteilung von kristallographischen Zwillings-Varianten, die eine tetragonale oder orthorhombische Symmetrie besitzen. Unter dem Einfluss des Magnetfeldes bewegen sich die Zwillingsgrenzen durch den Kristall, was eine makroskopische Formänderung mit sich bringt. Die somit erzeugten reversiblen Längenänderungen können mit hoher Frequenz geschaltet werden, was Ni2MnGa zu einem vielversprechenden Aktuatorwerkstoff macht. rnDa der Effekt auf einem intrinsischen Prozess beruht, eignen sich Bauteile aus MFG Legierungen zur Integration in Mikrosystemen (z.B. im Bereich der Mikrofluidik). rnrnBislang konnten große magnetfeldinduzierte Dehnungen nur für Einkristalle und Polykristalle mit hoher Porosität („foams") nachgewiesen werden. Um den Effekt für Anwendungen nutzbar zu machen, werden allerdings Konzepte zur Miniaturisierung benötigt. Eine Möglichkeit bieten epitaktische dünne Filme, die im Rahmen dieser Arbeit hergestellt und untersucht werden sollen. Im Fokus stehen dabei die Optimierung der Herstellungsparameter, sowie die Präparation von freitragenden Schichten. Zudem werden verschiedene Konzepte zur Herstellung freistehender Mikrostrukturen erprobt. Mittels Röntgendiffraktometrie konnte die komplizierte Kristallstruktur für verschiedene Wachstumsrichtungen verstanden und die genaue Verteilung der Zwillingsvarianten aufgedeckt werden. In Verbindung mit Mikroskopie-Methoden konnte so die Zwillingsstruktur auf verschiedenen Längenskalen geklärt werden. Die Ergebnisse erklären das Ausbleiben des MFG Effekts in den Proben mit (100) Orientierung. Andererseits wurde für Schichten mit (110) Wachstum eine vielversprechende Mikrostruktur entdeckt, die einen guten Ausgangspunkt für weitere Untersuchungen bietet.rnDurch die spezielle Geometrie der Proben war es möglich, Spektroskopie-Experimente in Transmission durchzuführen. Die Ergebnisse stellen den ersten experimentellen Nachweis der Änderungen in der elektronischen Struktur einer metallischen Verbindung während des martensitischen Phasenübergangs dar. Durch Messen des magnetischen Zirkulardichroismus in der Röntgenabsorption konnten quantitative Aussagen über die magnetischen Momente von Ni und Mn getroffen werden. Die Methode erlaubt überdies die Beiträge von Spin- und Bahn-Moment separat zu bestimmen. Durch winkelabhängige Messungen gelang es, die mikroskopische Ursache der magnetischen Anisotropie aufzuklären. Diese Ergebnisse tragen wesentlich zum Verständnis der komplexen magnetischen und strukturellen Eigenschaften von Ni2MnGa bei.rn
Resumo:
This PhD thesis discusses the impact of Cloud Computing infrastructures on Digital Forensics in the twofold role of target of investigations and as a helping hand to investigators. The Cloud offers a cheap and almost limitless computing power and storage space for data which can be leveraged to commit either new or old crimes and host related traces. Conversely, the Cloud can help forensic examiners to find clues better and earlier than traditional analysis applications, thanks to its dramatically improved evidence processing capabilities. In both cases, a new arsenal of software tools needs to be made available. The development of this novel weaponry and its technical and legal implications from the point of view of repeatability of technical assessments is discussed throughout the following pages and constitutes the unprecedented contribution of this work
Resumo:
Diese Arbeit untersucht zwei Lipoproteine, das discoidale High density-Lipoprotein (dHDL) und das β-Glukan-Bindeprotein (BGBP) aus dem Flusskrebs Astacus leptodactylus in funktioneller, struktureller und phylogenetischer Hinsicht. Die Nukleotid-Sequenz des BGBP konnte nahezu vollständig entschlüsselt werden. Dabei errechnet sich aus der abgeleiteten Aminosäure-Sequenz ein Molekulargewicht von 153 kDa. Das reife BGBP hat nur eine molekulare Masse von 105 kDa. Vermutlich kommt es durch eine Furin-ähnliche Protease zu einer post-translationalen N- und C-terminalen Prozessierung: zwei bisher nicht beschriebene, aber auch in der BGBP-Sequenz von anderen höheren Krebsen vorhandene, typische Furin-Schnittstellen (RAKR, bzw. RARR) wurden anhand von Sequenzvergleichen identifiziert. BGBP hat zwei Funktionen: zum Einen ist es für den Transport und die Aktivierung des proPhenoloxidase-Systems zuständig, zum Anderen für die Versorgung der Organe mit Lipiden, welche vermutlich der Energiegewinnung dienen. Eine 100 kDa große, BGBP-bindende Rezeptor-Fraktion konnte in Hämocyten-Membranen identifiziert werden. Das Vorkommen von dHDL war aus eigenen Befunden bisher ausschließlich in Astacus leptodactylus bekannt, doch konnte in dieser Arbeit ein mit dem dHDL-Antikörper reagierendes Protein erstmalig auch in anderen Arthropoden-Spezies nachgewiesen werden. Die discoidale Form und das Untereinheiten-Muster (240 + 85 kDa) sind typisch für die bei Vertretern ursprünglicher Tiergruppen gefundenen Lipoproteine (z.B. beim Cheliceraten Limulus und beim Polychaeten Nereis). Eventuell handelt es sich bei dHDL also um einen ‚Prototypen’ in der Lipoprotein-Evolution. Obwohl die Sequenz des dHDL auf Nukleotid-Ebene unbekannt ist, wurden die Sequenzen einiger dHDL-Peptide aus massenspektroskopischen Analysen gewonnen. Überraschenderweise befinden sich diese Sequenzen in der Aminosäuresequenz des BGBP. Dabei liegen alle Peptide am N- und/oder am C-Terminus der abgeleiteten BGBP-Aminosäure-Sequenz, und zwar in den Bereichen, die vermutlich durch das erwähnte Furin vom BGBP abgeschnitten werden, im reifen BGBP also gar nicht mehr vorkommen. Deshalb ist zu vermuten, dass BGBP und dHDL ein gemeinsames Vorläuferprotein haben und durch Genduplikation entstanden sind, oder dass es sich beim dHDL- und beim BGBP-Gen um ein und dasselbe Gen handelt. Das Genprodukt wird dann auf unterschiedliche Weise prozessiert und es entstehen die beiden Proteine dHDL und BGBP. Die Funktion von dHDL ist noch nicht eindeutig geklärt, es ließen sich aber dHDL-bindende Rezeptor-Fraktionen mit einer molekularen Masse von 160 kDa in somatischen Geweben (Muskel, Darm, Hepatopankreas, Kiemen und Samenleiter) sowie in Oocyten und Hämocyten nachweisen. Deshalb wird vermutet, dass dHDL als Energielieferant in Stoffwechsel-aktiven Organen und als Speicherprotein in Oocyten dient. Eine endocytotische Aufnahme konnte gezeigt werden.
Resumo:
In technical design processes in the automotive industry, digital prototypes rapidly gain importance, because they allow for a detection of design errors in early development stages. The technical design process includes the computation of swept volumes for maintainability analysis and clearance checks. The swept volume is very useful, for example, to identify problem areas where a safety distance might not be kept. With the explicit construction of the swept volume an engineer gets evidence on how the shape of components that come too close have to be modified.rnIn this thesis a concept for the approximation of the outer boundary of a swept volume is developed. For safety reasons, it is essential that the approximation is conservative, i.e., that the swept volume is completely enclosed by the approximation. On the other hand, one wishes to approximate the swept volume as precisely as possible. In this work, we will show, that the one-sided Hausdorff distance is the adequate measure for the error of the approximation, when the intended usage is clearance checks, continuous collision detection and maintainability analysis in CAD. We present two implementations that apply the concept and generate a manifold triangle mesh that approximates the outer boundary of a swept volume. Both algorithms are two-phased: a sweeping phase which generates a conservative voxelization of the swept volume, and the actual mesh generation which is based on restricted Delaunay refinement. This approach ensures a high precision of the approximation while respecting conservativeness.rnThe benchmarks for our test are amongst others real world scenarios that come from the automotive industry.rnFurther, we introduce a method to relate parts of an already computed swept volume boundary to those triangles of the generator, that come closest during the sweep. We use this to verify as well as to colorize meshes resulting from our implementations.
Resumo:
The mass estimation of galaxy clusters is a crucial point for modern cosmology, and can be obtained by several different techniques. In this work we discuss a new method to measure the mass of galaxy clusters connecting the gravitational potential of the cluster with the kinematical properties of its surroundings. We explore the dynamics of the structures located in the region outside virialized cluster, We identify groups of galaxies, as sheets or filaments, in the cluster outer region, and model how the cluster gravitational potential perturbs the motion of these structures from the Hubble fow. This identification is done in the redshift space where we look for overdensities with a filamentary shape. Then we use a radial mean velocity profile that has been found as a quite universal trend in simulations, and we fit the radial infall velocity profile of the overdensities found. The method has been tested on several cluster-size haloes from cosmological N-body simulations giving results in very good agreement with the true values of virial masses of the haloes and orientation of the sheets. We then applied the method to the Coma cluster and even in this case we found a good correspondence with previous. It is possible to notice a mass discrepancy between sheets with different alignments respect to the center of the cluster. This difference can be used to reproduce the shape of the cluster, and to demonstrate that the spherical symmetry is not always a valid assumption. In fact, if the cluster is not spherical, sheets oriented along different axes should feel a slightly different gravitational potential, and so give different masses as result of the analysis described before. Even this estimation has been tested on cosmological simulations and then applied to Coma, showing the actual non-sphericity of this cluster.
Resumo:
Efficient coupling of light to quantum emitters, such as atoms, molecules or quantum dots, is one of the great challenges in current research. The interaction can be strongly enhanced by coupling the emitter to the eva-nescent field of subwavelength dielectric waveguides that offer strong lateral confinement of the guided light. In this context subwavelength diameter optical nanofibers as part of a tapered optical fiber (TOF) have proven to be powerful tool which also provide an efficient transfer of the light from the interaction region to an optical bus, that is to say, from the nanofiber to an optical fiber. rnAnother approach towards enhancing light–matter interaction is to employ an optical resonator in which the light is circulating and thus passes the emitters many times. Here, both approaches are combined by experi-mentally realizing a microresonator with an integrated nanofiber waist. This is achieved by building a fiber-integrated Fabry-Pérot type resonator from two fiber Bragg grating mirrors with a stop-band near the cesium D2-line wavelength. The characteristics of this resonator fulfill the requirements of nonlinear optics, optical sensing, and cavity quantum electrodynamics in the strong-coupling regime. Together with its advantageous features, such as a constant high coupling strength over a large volume, tunability, high transmission outside the mirror stop band, and a monolithic design, this resonator is a promising tool for experiments with nanofiber-coupled atomic ensembles in the strong-coupling regime. rnThe resonator's high sensitivity to the optical properties of the nanofiber provides a probe for changes of phys-ical parameters that affect the guided optical mode, e.g., the temperature via the thermo-optic effect of silica. Utilizing this detection scheme, the thermalization dynamics due to far-field heat radiation of a nanofiber is studied over a large temperature range. This investigation provides, for the first time, a measurement of the total radiated power of an object with a diameter smaller than all absorption lengths in the thermal spectrum at the level of a single object of deterministic shape and material. The results show excellent agreement with an ab initio thermodynamic model that considers heat radiation as a volumetric effect and that takes the emitter shape and size relative to the emission wavelength into account. Modeling and investigating the thermalization of microscopic objects with arbitrary shape from first principles is of fundamental interest and has important applications, such as heat management in nano-devices or radiative forcing of aerosols in Earth's climate system. rnUsing a similar method, the effect of the TOF's mechanical modes on the polarization and phase of the fiber-guided light is studied. The measurement results show that in typical TOFs these quantities exhibit high-frequency thermal fluctuations. They originate from high-Q torsional oscillations that couple to the nanofiber-guided light via the strain-optic effect. An ab-initio opto-mechanical model of the TOF is developed that provides an accurate quantitative prediction for the mode spectrum and the mechanically induced polarization and phase fluctuations. These high-frequency fluctuations may limit the ultimate ideality of fiber-coupling into photonic structures. Furthermore, first estimations show that they may currently limit the storage time of nanofiber-based atom traps. The model, on the other hand, provides a method to design TOFs with tailored mechanical properties in order to meet experimental requirements. rn
Resumo:
Die Quantenchromodynamik ist die zugrundeliegende Theorie der starken Wechselwirkung und kann in zwei Bereiche aufgeteilt werden. Harte Streuprozesse, wie zum Beispiel die Zwei-Jet-Produktion bei hohen invarianten Massen, können störungstheoretisch behandelt und berechnet werden. Bei Streuprozessen mit niedrigen Impulsüberträgen hingegen ist die Störungstheorie nicht mehr anwendbar und phänemenologische Modelle werden für Vorhersagen benutzt. Das ATLAS Experiment am Large Hadron Collider am CERN ermöglicht es, QCD Prozesse bei hohen sowie niedrigen Impulsüberträgen zu untersuchen. In dieser Arbeit werden zwei Analysen vorgestellt, die jeweils ihren Schwerpunkt auf einen der beiden Regime der QCD legen:rnDie Messung von Ereignisformvariablen bei inelastischen Proton--Proton Ereignissen bei einer Schwerpunktsenergie von $sqrt{s} = unit{7}{TeV}$ misst den transversalen Energiefluss in hadronischen Ereignissen. rnDie Messung des zweifachdifferentiellen Zwei-Jet-Wirkungsquerschnittes als Funktion der invarianten Masse sowie der Rapiditätsdifferenz der beiden Jets mit den höchsten Transversalimpulsen kann genutzt werden um Theorievorhersagen zu überprüfen. Proton--Proton Kollisionen bei $sqrt{s} = unit{8}{TeV}$, welche während der Datennahme im Jahr 2012 aufgezeichnet wurden, entsprechend einer integrierten Luminosität von $unit{20.3}{fb^{-1}}$, wurden analysiert.rn
Resumo:
Zeitreihen sind allgegenwärtig. Die Erfassung und Verarbeitung kontinuierlich gemessener Daten ist in allen Bereichen der Naturwissenschaften, Medizin und Finanzwelt vertreten. Das enorme Anwachsen aufgezeichneter Datenmengen, sei es durch automatisierte Monitoring-Systeme oder integrierte Sensoren, bedarf außerordentlich schneller Algorithmen in Theorie und Praxis. Infolgedessen beschäftigt sich diese Arbeit mit der effizienten Berechnung von Teilsequenzalignments. Komplexe Algorithmen wie z.B. Anomaliedetektion, Motivfabfrage oder die unüberwachte Extraktion von prototypischen Bausteinen in Zeitreihen machen exzessiven Gebrauch von diesen Alignments. Darin begründet sich der Bedarf nach schnellen Implementierungen. Diese Arbeit untergliedert sich in drei Ansätze, die sich dieser Herausforderung widmen. Das umfasst vier Alignierungsalgorithmen und ihre Parallelisierung auf CUDA-fähiger Hardware, einen Algorithmus zur Segmentierung von Datenströmen und eine einheitliche Behandlung von Liegruppen-wertigen Zeitreihen.rnrnDer erste Beitrag ist eine vollständige CUDA-Portierung der UCR-Suite, die weltführende Implementierung von Teilsequenzalignierung. Das umfasst ein neues Berechnungsschema zur Ermittlung lokaler Alignierungsgüten unter Verwendung z-normierten euklidischen Abstands, welches auf jeder parallelen Hardware mit Unterstützung für schnelle Fouriertransformation einsetzbar ist. Des Weiteren geben wir eine SIMT-verträgliche Umsetzung der Lower-Bound-Kaskade der UCR-Suite zur effizienten Berechnung lokaler Alignierungsgüten unter Dynamic Time Warping an. Beide CUDA-Implementierungen ermöglichen eine um ein bis zwei Größenordnungen schnellere Berechnung als etablierte Methoden.rnrnAls zweites untersuchen wir zwei Linearzeit-Approximierungen für das elastische Alignment von Teilsequenzen. Auf der einen Seite behandeln wir ein SIMT-verträgliches Relaxierungschema für Greedy DTW und seine effiziente CUDA-Parallelisierung. Auf der anderen Seite führen wir ein neues lokales Abstandsmaß ein, den Gliding Elastic Match (GEM), welches mit der gleichen asymptotischen Zeitkomplexität wie Greedy DTW berechnet werden kann, jedoch eine vollständige Relaxierung der Penalty-Matrix bietet. Weitere Verbesserungen umfassen Invarianz gegen Trends auf der Messachse und uniforme Skalierung auf der Zeitachse. Des Weiteren wird eine Erweiterung von GEM zur Multi-Shape-Segmentierung diskutiert und auf Bewegungsdaten evaluiert. Beide CUDA-Parallelisierung verzeichnen Laufzeitverbesserungen um bis zu zwei Größenordnungen.rnrnDie Behandlung von Zeitreihen beschränkt sich in der Literatur in der Regel auf reellwertige Messdaten. Der dritte Beitrag umfasst eine einheitliche Methode zur Behandlung von Liegruppen-wertigen Zeitreihen. Darauf aufbauend werden Distanzmaße auf der Rotationsgruppe SO(3) und auf der euklidischen Gruppe SE(3) behandelt. Des Weiteren werden speichereffiziente Darstellungen und gruppenkompatible Erweiterungen elastischer Maße diskutiert.
Resumo:
Kulturlandschaften als Ausdruck einer über viele Jahrhunderte währenden intensiven Interaktion zwischen Menschen und der sie umgebenden natürlichen Umwelt, sind ein traditionelles Forschungsobjekt der Geographie. Mensch/Natur-Interaktionen führen zu Veränderungen der natürlichen Umwelt, indem Menschen Landschaften kultivieren und modifizieren. Die Mensch/Natur-Interaktionen im Weinbau sind intensiv rückgekoppelt, Veränderungen der natürlichen Umwelt wirken auf die in den Kulturlandschaften lebenden und wirtschaftenden Winzer zurück und beeinflussen deren weiteres Handeln, was wiederum Einfluss auf die Entwicklung der gesamten Weinbau-Kulturlandschaft hat. Kulturlandschaft wird aus diesem Grund als ein heterogenes Wirkungsgefüge sozialer und natürlicher Elemente konzeptionalisiert, an dessen Entwicklung soziale und natürliche Elemente gleichzeitig und wechselseitig beteiligt sind. Grundlegend für die vorliegende Arbeit ist die Überzeugung, dass sich Kulturlandschaften durch Mensch/Natur-Interaktionen permanent neu organisieren und nie in einen Gleichgewichtszustand geraten, sondern sich ständig weiterentwickeln und wandeln. Die Komplexitätstheorie bietet hierfür die geeignete theoretische Grundlage. Sie richtet ihren Fokus auf die Entwicklung und den Wandel von Systemen und sucht dabei nach den Funktionsweisen von Systemzusammenhängen, um ein Verständnis für das Gesamtsystemverhalten von nicht-linearen dynamischen Systemen zu erreichen. Auf der Grundlage der Komplexitätstheorie wird ein Untersuchungsschema entwickelt, dass es ermöglich, die sozio-ökonomischen und raum-strukturellen Veränderungsprozesse in der Kulturlandschaftsentwicklung als sich wechselseitig beeinflussenden Systemzusammenhang zu erfassen. Die Rekonstruktion von Entwicklungsphasen, die Analysen von raum-strukturellen Mustern und Akteurskonstellationen sowie die Identifikation von Bifurkationspunkten in der Systemgeschichte sind dabei von übergeordneter Bedeutung. Durch die Untersuchung sowohl der physisch-räumlichen als auch der sozio-ökonomischen Dimension der Kulturlandschaftsentwicklung im Weinbau des Oberen Mittelrheintals soll ein Beitrag für die geographische Erforschung von Mensch/Natur-Interaktionen im Schnittstellenbereich von Physischer Geographie und Humangeographie geleistet werden. Die Anwendung des Untersuchungsschemas erfolgt auf den Weinbau im Oberen Mittelrheintal. Das Anbaugebiet ist seit vielen Jahrzehnten einem starken Rückgang an Weinbaubetrieben und Rebfläche unterworfen. Die rückläufigen Entwicklungen seit 1950 verliefen dabei nicht linear, sondern differenzierten das System in unterschiedliche Entwicklungspfade aus. Die Betriebsstrukturen und die Rahmenbedingungen im Weinbau veränderten sich grundlegend, was sichtbare Spuren in der Kulturlandschaft hinterließ. Dies zu rekonstruieren, zu analysieren und die zu verschiedenen Phasen der Entwicklung bedeutenden externen und internen Einflussfaktoren zu identifizieren, soll dazu beitragen, ein tief greifendes Verständnis für das selbstorganisierte Systemverhalten zu generieren und darauf basierende Handlungsoptionen für zukünftige Eingriffe in die Systementwicklung aufzuzeigen
Resumo:
In the last years the number of shoulder arthroplasties has been increasing. Simultaneously the study of their shape, size and strength and the reasons that bring to a possible early explantation have not yet been examined in detail. The research carried out directly on explants is practically nonexistent, this means a poor understanding of the mechanisms leading the patient and so the surgeon, to their removal. The analysis of the mechanisms which are the cause of instability, dislocation, broken, fracture, etc, may lead to a change in the structure or design of the shoulder prostheses and lengthen the life of the implant in situ. The idea was to analyze 22 explants through three methods in order to find roughness, corrosion and surface wear. In the first method, the humeral heads and/or the glenospheres were examined with the interferometer, a machine that through electromagnetic waves gives information about the roughness of the surfaces under examination. The output of the device was a total profile containing both roughness and information on the waves (representing the spatial waves most characteristic on the surface). The most important value is called "roughness average" and brings the average value of the peaks found in the local defects of the surfaces. It was found that 42% of the prostheses had considerable peak values in the area where the damage was caused by the implant and not only by external events, such as possibly the surgeon's hand. One of the problems of interest in the use of metallic biomaterials is their resistance to corrosion. The clinical significance of the degradation of metal implants has been the purpose of the second method; the interaction between human body and metal components is critical to understand how and why they arrive to corrosion. The percentage of damage in the joints of the prosthetic components has been calculated via high resolution photos and the software ImageJ. The 40% and 50% of the area appeared to have scratches or multiple lines due to mechanical artifacts. The third method of analysis has been made through the use of electron microscopy to quantify the wear surface in polyethylene components. Different joint movements correspond to different mechanisms of damage, which were imprinted in the parts of polyethylene examined. The most affected area was located mainly in the side edges. The results could help the manufacturers to modify the design of the prostheses and thus reduce the number of explants. It could also help surgeons in choosing the model of the prosthesis to be implanted in the patient.
Resumo:
La tesi indaga il problema di calibrazione Hand Eye, ovvero la trasformazione geometrica fra i diversi sistemi di riferimento della camera e dell'attuatore del robot, presentando il problema ed analizzando le varie soluzioni proposte in letteratura. Viene infine presentata una implementazione realizzata in collaborazione con l'azienda SpecialVideo, implementata utilizzando l'algoritmo proposto da Konstantinos Daniilidis, il quale propone una formulazione del problema sfruttando l'utilizzo di quaternioni duali, risolvendo simultaneamente la parte rotatoria e traslatoria della trasformazione. Si conclude il lavoro con una analisi dell'efficacia del metodo implementato su dati simulati e proponendo eventuali estensioni, allo scopo di poter riutilizzare in futuro il lavoro svolto nel software aziendale, con dati reali e con diversi tipi di telecamere, principalmente camere lineari o laser.
Resumo:
Root canal treatment is a frequently performed dental procedure and is carried out on teeth in which irreversible pulpitis has led to necrosis of the dental pulp. Removal of the necrotic tissue remnants and cleaning and shaping of the root canal are important phases of root canal treatment. Treatment options include the use of hand and rotary instruments and methods using ultrasonic or sonic equipment. OBJECTIVES: The objectives of this systematic review of randomized controlled trials were to determine the relative clinical effectiveness of hand instrumentation versus ultrasonic instrumentation alone or in conjunction with hand instrumentation for orthograde root canal treatment of permanent teeth. MATERIAL AND METHODS: The search strategy retrieved 226 references from the Cochrane Oral Health Group Trials Register (7), the Cochrane Central Register of Controlled Trials (CENTRAL) (12), MEDLINE (192), EMBASE (8) and LILACS (7). No language restriction was applied. The last electronic search was conducted on December 13th, 2007. Screening of eligible studies was conducted in duplicate and independently. RESULTS: Results were to be expressed as fixed-effect or random-effects models using mean differences for continuous outcomes and risk ratios for dichotomous outcomes with 95% confidence intervals. Heterogeneity was to be investigated including both clinical and methodological factors. No eligible randomized controlled trials were identified. CONCLUSIONS: This review illustrates the current lack of published or ongoing randomized controlled trials and the unavailability of high-level evidence based on clinically relevant outcomes referring to the effectiveness of ultrasonic instrumentation used alone or as an adjunct to hand instrumentation for orthograde root canal treatment. In the absence of reliable research-based evidence, clinicians should base their decisions on clinical experience, individual circumstances and in conjunction with patients' preferences where appropriate. Future randomized controlled trials might focus more closely on evaluating the effectiveness of combinations of these interventions with an emphasis on not only clinically relevant, but also patient-centered outcomes.
Resumo:
Purpose: In a prospective study, we assessed if a diagnosis of osteoporosis and periodontitis could predict hip and hand fractures in older persons. Materials and methods: Bone density was assessed by a Densitometer. Periodontitis was defined by evidence of alveolar bone loss. Results: 788 Caucasians (52.4% women, overall mean age: 76 years, S.D. +/- 9.0, range: 62 to 96) were enrolled and 7.4% had a hip/hand fracture in 3 years. Calcaneus PIXI T-values < - 1.6 identified osteoporosis in 28.2% of the older persons predicting a hip/hand fracture with an odds ratio of 3.3:1 (95% CI: 1.9, 5.7, p < 0.001). Older persons with osteoporosis had more severe periodontitis (p < 0.01). Periodontitis defined by >= 30% of sites with >= 5 mm distance between the cemento-enamel junction (CEJ) and bone level (ABL) was found in 18.7% of the older persons predicting a hip/hand fracture with an odds ratio of 1.8:1 (95% CI: 1.0, 3.3, p < 0.05). Adjusted for age, the odds ratio of a hip/hand fracture in older persons with osteoporosis (PIXI T-value <-2.5) and periodontitis was 12.2:1 (95% CI: 3.5, 42.3, p < 0.001). Conclusions: Older persons with osteoporosis and periodontitis have an increased risk for hip/hand fractures