10 resultados para weighting triangles

em ArchiMeD - Elektronische Publikationen der Universität Mainz - Alemanha


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Das Ziel des Experiments NA48 am CERN ist die Messung des Parameters Re(epsilon'/epsilon) der direktenCP-Verletzung mit einer Genauigkeit von 2x10^-4. Experimentell zugänglich ist das DoppelverhältnisR, das aus den Zerfällen des KL und KS in zwei neutrale bzw. zwei geladene Pionengebildet wird. Für R gilt in guter Näherung: R=1-6Re(epsilon'/epsilon).
NA48 verwendet eine Wichtung der KL-Ereignisse zur Reduzierung der Sensitivität auf dieDetektorakzeptanz. Zur Kontrolle der bisherigen Standardanalyse wurde eine Analyse ohne Ereigniswichtung durchgeführt. Das Ergebnis derungewichteten Analyse wird in dieser Arbeit vorgestellt. Durch Verzicht auf die Ereigniswichtung kann derstatistische Anteil des Gesamtfehlers deutlich verringert werden. Da der limitierende Kanal der Zerfall deslanglebigen Kaons in zwei neutrale Pionen ist, ist die Verwendung der gesamten Anzahl derKL-Zerfälle ein lohnendes Ziel.Im Laufe dieser Arbeit stellte sich heraus, dass dersystematische Fehler der Akzeptanzkorrektur diesen Gewinn wieder aufhebt.

Das Ergebnis der Arbeit für die Daten aus den Jahren 1998und 1999 ohne Ereigniswichtung lautet
Re(epsilon'/epsilon)=(17,91+-4,41(syst.)+-1,36(stat.))x10^-4.
Damit ist eindeutig die Existenz der direkten CP-Verletzungbestätigt. Dieses Ergebnis ist mit dem veröffentlichten Ergebnis vonNA48 verträglichSomit ist der Test der bisherigen Analysestrategie bei NA48erfolgreich durchgeführt worden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die vorliegende Arbeit beschäftigt sich mit der Entwicklung eines Funktionsapproximators und dessen Verwendung in Verfahren zum Lernen von diskreten und kontinuierlichen Aktionen: 1. Ein allgemeiner Funktionsapproximator – Locally Weighted Interpolating Growing Neural Gas (LWIGNG) – wird auf Basis eines Wachsenden Neuralen Gases (GNG) entwickelt. Die topologische Nachbarschaft in der Neuronenstruktur wird verwendet, um zwischen benachbarten Neuronen zu interpolieren und durch lokale Gewichtung die Approximation zu berechnen. Die Leistungsfähigkeit des Ansatzes, insbesondere in Hinsicht auf sich verändernde Zielfunktionen und sich verändernde Eingabeverteilungen, wird in verschiedenen Experimenten unter Beweis gestellt. 2. Zum Lernen diskreter Aktionen wird das LWIGNG-Verfahren mit Q-Learning zur Q-LWIGNG-Methode verbunden. Dafür muss der zugrunde liegende GNG-Algorithmus abgeändert werden, da die Eingabedaten beim Aktionenlernen eine bestimmte Reihenfolge haben. Q-LWIGNG erzielt sehr gute Ergebnisse beim Stabbalance- und beim Mountain-Car-Problem und gute Ergebnisse beim Acrobot-Problem. 3. Zum Lernen kontinuierlicher Aktionen wird ein REINFORCE-Algorithmus mit LWIGNG zur ReinforceGNG-Methode verbunden. Dabei wird eine Actor-Critic-Architektur eingesetzt, um aus zeitverzögerten Belohnungen zu lernen. LWIGNG approximiert sowohl die Zustands-Wertefunktion als auch die Politik, die in Form von situationsabhängigen Parametern einer Normalverteilung repräsentiert wird. ReinforceGNG wird erfolgreich zum Lernen von Bewegungen für einen simulierten 2-rädrigen Roboter eingesetzt, der einen rollenden Ball unter bestimmten Bedingungen abfangen soll.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A study of maar-diatreme volcanoes has been perfomed by inversion of gravity and magnetic data. The geophysical inverse problem has been solved by means of the damped nonlinear least-squares method. To ensure stability and convergence of the solution of the inverse problem, a mathematical tool, consisting in data weighting and model scaling, has been worked out. Theoretical gravity and magnetic modeling of maar-diatreme volcanoes has been conducted in order to get information, which is used for a simple rough qualitative and/or quantitative interpretation. The information also serves as a priori information to design models for the inversion and/or to assist the interpretation of inversion results. The results of theoretical modeling have been used to roughly estimate the heights and the dip angles of the walls of eight Eifel maar-diatremes — each taken as a whole. Inversemodeling has been conducted for the Schönfeld Maar (magnetics) and the Hausten-Morswiesen Maar (gravity and magnetics). The geometrical parameters of these maars, as well as the density and magnetic properties of the rocks filling them, have been estimated. For a reliable interpretation of the inversion results, beside the knowledge from theoretical modeling, it was resorted to other tools such like field transformations and spectral analysis for complementary information. Geologic models, based on thesynthesis of the respective interpretation results, are presented for the two maars mentioned above. The results gave more insight into the genesis, physics and posteruptive development of the maar-diatreme volcanoes. A classification of the maar-diatreme volcanoes into three main types has been elaborated. Relatively high magnetic anomalies are indicative of scoria cones embeded within maar-diatremes if they are not caused by a strong remanent component of the magnetization. Smaller (weaker) secondary gravity and magnetic anomalies on the background of the main anomaly of a maar-diatreme — especially in the boundary areas — are indicative for subsidence processes, which probably occurred in the late sedimentation phase of the posteruptive development. Contrary to postulates referring to kimberlite pipes, there exists no generalized systematics between diameter and height nor between geophysical anomaly and the dimensions of the maar-diatreme volcanoes. Although both maar-diatreme volcanoes and kimberlite pipes are products of phreatomagmatism, they probably formed in different thermodynamic and hydrogeological environments. In the case of kimberlite pipes, large amounts of magma and groundwater, certainly supplied by deep and large reservoirs, interacted under high pressure and temperature conditions. This led to a long period phreatomagmatic process and hence to the formation of large structures. Concerning the maar-diatreme and tuff-ring-diatreme volcanoes, the phreatomagmatic process takes place due to an interaction between magma from small and shallow magma chambers (probably segregated magmas) and small amounts of near-surface groundwater under low pressure and temperature conditions. This leads to shorter time eruptions and consequently to structures of smaller size in comparison with kimberlite pipes. Nevertheless, the results show that the diameter to height ratio for 50% of the studied maar-diatremes is around 1, whereby the dip angle of the diatreme walls is similar to that of the kimberlite pipes and lies between 70 and 85°. Note that these numerical characteristics, especially the dip angle, hold for the maars the diatremes of which — estimated by modeling — have the shape of a truncated cone. This indicates that the diatreme can not be completely resolved by inversion.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The aim of this work is to investigate the evaporation dynamics of water microdrops deposited on atomic force microscope cantilevers, which were employed as sensitive stress, mass and temperature sensors with high time resolution. The technique has some advantages with respect to video-microscope imaging and ultra-precision weighting with electronic microbalances or quartz crystal microbalances, since it allows to measure more drop parameters simultaneously for smaller drop sizes. On hydrophobic surfaces a single measurement with a silicon cantilever provides data for the drop mass, contact angle and radius until very close to complete evaporation. On hydrophilic surfaces, it is as well possible to measure drop mass and inclination of the cantilever. The technique further allows to detect differences between water microdrops evaporating from clean hydrophilic and hydrophobic surfaces. On hydrophilic surfaces the cantilever inclination is negative at the end of the evaporation process. Negative inclination mostly occurs when drops are pinned. This effect can not be detected with any of the other well-established methods. The evidence arises that on the hydrophilic surface a thin water film forms, while this is not the case for the hydrophobic surface. Metal coated cantilevers can be used as thermometers, and allow to precisely measure the temperature of an evaporating microdrop. This can be relevant for further applications of cantilevers as calorimetric sensors for chemical reactions taking place in drops on their surface. The applicability of Young’s equation was verified for microdrops. It was shown that Young’s equation can not be applied to microscopic drops due to their fast evaporation. A study on evaporation of microdrops in saturated vapor atmosphere was performed to estimate evaporation times and compare them with a theory developed, which relates the initial drop volume with the overall evaporation time.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The standard model (SM) of particle physics is a theory, describing three out of four fundamental forces. In this model the Cabibbo-Kobayashi-Maskawa (CKM) matrix describes the transformation between the mass and weak eigenstates of quarks. The matrix properties can be visualized as triangles in the complex plane. A precise measurement of all triangle parameters can be used to verify the validity of the SM. The least precisely measured parameter of the triangle is related to the CKM element |Vtd|, accessible through the mixing frequency (oscillation) of neutral B mesons, where mixing is the transition of a neutral meson into its anti-particle and vice versa. It is possible to calculate the CKM element |Vtd| and a related element |Vts| by measuring the mass differences Dmd (Dms ) between neutral Bd and bar{Bd} (Bs and bar{Bs}) meson mass eigenstates. This measurement is accomplished by tagging the initial and final state of decaying B mesons and determining their lifetime. Currently the Fermilab Tevatron Collider (providing pbar{p} collisions at sqrt{s}=1.96 TeV) is the only place, where Bs oscillations can be studied. The first selection of the "golden", fully hadronic decay mode Bs->Ds pi(phi pi)X at DØ is presented in this thesis. All data, taken between April 2002 and August 2007 with the DØ detector, corresponding to an integrated luminosity of int{L}dt=2.8/fb is used. The oscillation frequency Dms and the ratio |Vtd|/|Vts| are determined as Dms = (16.6 +0.5-0.4(stat) +0.4-0.3(sys)) 1/ps, |Vtd|/|Vts| = 0.213 +0.004-0.003(exp)pm 0.008(theor). These results are consistent with the standard model expectations and no evidence for new physics is observable.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In technical design processes in the automotive industry, digital prototypes rapidly gain importance, because they allow for a detection of design errors in early development stages. The technical design process includes the computation of swept volumes for maintainability analysis and clearance checks. The swept volume is very useful, for example, to identify problem areas where a safety distance might not be kept. With the explicit construction of the swept volume an engineer gets evidence on how the shape of components that come too close have to be modified.rnIn this thesis a concept for the approximation of the outer boundary of a swept volume is developed. For safety reasons, it is essential that the approximation is conservative, i.e., that the swept volume is completely enclosed by the approximation. On the other hand, one wishes to approximate the swept volume as precisely as possible. In this work, we will show, that the one-sided Hausdorff distance is the adequate measure for the error of the approximation, when the intended usage is clearance checks, continuous collision detection and maintainability analysis in CAD. We present two implementations that apply the concept and generate a manifold triangle mesh that approximates the outer boundary of a swept volume. Both algorithms are two-phased: a sweeping phase which generates a conservative voxelization of the swept volume, and the actual mesh generation which is based on restricted Delaunay refinement. This approach ensures a high precision of the approximation while respecting conservativeness.rnThe benchmarks for our test are amongst others real world scenarios that come from the automotive industry.rnFurther, we introduce a method to relate parts of an already computed swept volume boundary to those triangles of the generator, that come closest during the sweep. We use this to verify as well as to colorize meshes resulting from our implementations.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Geometric packing problems may be formulated mathematically as constrained optimization problems. But finding a good solution is a challenging task. The more complicated the geometry of the container or the objects to be packed, the more complex the non-penetration constraints become. In this work we propose the use of a physics engine that simulates a system of colliding rigid bodies. It is a tool to resolve interpenetration conflicts and to optimize configurations locally. We develop an efficient and easy-to-implement physics engine that is specialized for collision detection and contact handling. In succession of the development of this engine a number of novel algorithms for distance calculation and intersection volume were designed and imple- mented, which are presented in this work. They are highly specialized to pro- vide fast responses for cuboids and triangles as input geometry whereas the concepts they are based on can easily be extended to other convex shapes. Especially noteworthy in this context is our ε-distance algorithm - a novel application that is not only very robust and fast but also compact in its im- plementation. Several state-of-the-art third party implementations are being presented and we show that our implementations beat them in runtime and robustness. The packing algorithm that lies on top of the physics engine is a Monte Carlo based approach implemented for packing cuboids into a container described by a triangle soup. We give an implementation for the SAE J1100 variant of the trunk packing problem. We compare this implementation to several established approaches and we show that it gives better results in faster time than these existing implementations.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Plasmonic nanoparticles exhibit strong light scattering efficiency due to the oscillations of their conductive electrons (plasmon), which are excited by light. For rod-shaped nanoparticles, the resonance position is highly tunable by the aspect ratio (length/width) and the sensitivity to changes in the refractive index in the local environment depends on their diameter, hence, their volume. Therefore, rod-shaped nanoparticles are highly suitable as plasmonic sensors.rnWithin this thesis, I study the formation of gold nanorods and nanorods from a gold-copper alloy using a combination of small-angle X-ray scattering and optical extinction spectroscopy. The latter represents one of the first metal alloy nanoparticle synthesis protocols for producing rod-shaped single crystalline gold-copper (AuxCu(1-x)) alloyed nanoparticles. I find that both length and width independently follow an exponential growth behavior with different time-constants, which intrinsically leads to a switch between positive and negative aspect ratio growth during the course of the synthesis. In a parameter study, I find linear relations for the rate constants as a function of [HAuCl4]/[CTAB] ratio and [HAuCl4]/[seed] ratio. Furthermore, I find a correlation of final aspect ratio and ratio of rate constants for length and width growth rate for different [AgNO3]/[HAuCl4] ratios. I identify ascorbic acid as the yield limiting species in the reaction by the use of spectroscopic monitoring and TEM. Finally, I present the use of plasmonic nanorods that absorb light at 1064nm as contrast agents for photoacoustic imaging (BMBF project Polysound). rnIn the physics part, I present my automated dark-field microscope that is capable of collecting spectra in the range of 450nm to 1750 nm. I show the characteristics of that setup for the spectra acquisition in the UV-VIS range and how I use this information to simulate measurements. I show the major noise sources of the measurements and ways to reduce the noise and how the combination of setup charactersitics and simulations of sensitivity and sensing volume can be used to select appropriate gold rods for single unlabeled protein detection. Using my setup, I show how to estimate the size of gold nano-rods directly from the plasmon linewidth measured from optical single particle spectra. Then, I use this information to reduce the distribution (between particles) of the measured plasmonic sensitivity S by 30% by correcting for the systematic error introduced from the variation in particle size. I investigate the single particle scattering of bowtie structures — structures consisting of two (mostly) equilateral triangles pointing one tip at each other. I simulate the spectra of the structures considering the oblique illumination angle in my setup, which leads to additional plasmon modes in the spectra. The simulations agree well with the measurements form a qualitative point of view.rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In vielen Industriezweigen, zum Beispiel in der Automobilindustrie, werden Digitale Versuchsmodelle (Digital MockUps) eingesetzt, um die Konstruktion und die Funktion eines Produkts am virtuellen Prototypen zu überprüfen. Ein Anwendungsfall ist dabei die Überprüfung von Sicherheitsabständen einzelner Bauteile, die sogenannte Abstandsanalyse. Ingenieure ermitteln dabei für bestimmte Bauteile, ob diese in ihrer Ruhelage sowie während einer Bewegung einen vorgegeben Sicherheitsabstand zu den umgebenden Bauteilen einhalten. Unterschreiten Bauteile den Sicherheitsabstand, so muss deren Form oder Lage verändert werden. Dazu ist es wichtig, die Bereiche der Bauteile, welche den Sicherhabstand verletzen, genau zu kennen. rnrnIn dieser Arbeit präsentieren wir eine Lösung zur Echtzeitberechnung aller den Sicherheitsabstand unterschreitenden Bereiche zwischen zwei geometrischen Objekten. Die Objekte sind dabei jeweils als Menge von Primitiven (z.B. Dreiecken) gegeben. Für jeden Zeitpunkt, in dem eine Transformation auf eines der Objekte angewendet wird, berechnen wir die Menge aller den Sicherheitsabstand unterschreitenden Primitive und bezeichnen diese als die Menge aller toleranzverletzenden Primitive. Wir präsentieren in dieser Arbeit eine ganzheitliche Lösung, welche sich in die folgenden drei großen Themengebiete unterteilen lässt.rnrnIm ersten Teil dieser Arbeit untersuchen wir Algorithmen, die für zwei Dreiecke überprüfen, ob diese toleranzverletzend sind. Hierfür präsentieren wir verschiedene Ansätze für Dreiecks-Dreiecks Toleranztests und zeigen, dass spezielle Toleranztests deutlich performanter sind als bisher verwendete Abstandsberechnungen. Im Fokus unserer Arbeit steht dabei die Entwicklung eines neuartigen Toleranztests, welcher im Dualraum arbeitet. In all unseren Benchmarks zur Berechnung aller toleranzverletzenden Primitive beweist sich unser Ansatz im dualen Raum immer als der Performanteste.rnrnDer zweite Teil dieser Arbeit befasst sich mit Datenstrukturen und Algorithmen zur Echtzeitberechnung aller toleranzverletzenden Primitive zwischen zwei geometrischen Objekten. Wir entwickeln eine kombinierte Datenstruktur, die sich aus einer flachen hierarchischen Datenstruktur und mehreren Uniform Grids zusammensetzt. Um effiziente Laufzeiten zu gewährleisten ist es vor allem wichtig, den geforderten Sicherheitsabstand sinnvoll im Design der Datenstrukturen und der Anfragealgorithmen zu beachten. Wir präsentieren hierzu Lösungen, die die Menge der zu testenden Paare von Primitiven schnell bestimmen. Darüber hinaus entwickeln wir Strategien, wie Primitive als toleranzverletzend erkannt werden können, ohne einen aufwändigen Primitiv-Primitiv Toleranztest zu berechnen. In unseren Benchmarks zeigen wir, dass wir mit unseren Lösungen in der Lage sind, in Echtzeit alle toleranzverletzenden Primitive zwischen zwei komplexen geometrischen Objekten, bestehend aus jeweils vielen hunderttausend Primitiven, zu berechnen. rnrnIm dritten Teil präsentieren wir eine neuartige, speicheroptimierte Datenstruktur zur Verwaltung der Zellinhalte der zuvor verwendeten Uniform Grids. Wir bezeichnen diese Datenstruktur als Shrubs. Bisherige Ansätze zur Speicheroptimierung von Uniform Grids beziehen sich vor allem auf Hashing Methoden. Diese reduzieren aber nicht den Speicherverbrauch der Zellinhalte. In unserem Anwendungsfall haben benachbarte Zellen oft ähnliche Inhalte. Unser Ansatz ist in der Lage, den Speicherbedarf der Zellinhalte eines Uniform Grids, basierend auf den redundanten Zellinhalten, verlustlos auf ein fünftel der bisherigen Größe zu komprimieren und zur Laufzeit zu dekomprimieren.rnrnAbschießend zeigen wir, wie unsere Lösung zur Berechnung aller toleranzverletzenden Primitive Anwendung in der Praxis finden kann. Neben der reinen Abstandsanalyse zeigen wir Anwendungen für verschiedene Problemstellungen der Pfadplanung.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Robben sind amphibische marine Säugetiere. Das bedeutet, dass sie zweirnunterschiedliche Lebensräume, Wasser und Land, bewohnen. Ihre sensorischen Systeme müssen auf beide Medien abgestimmt sein. Gerade für das Sehvermögen ist es eine große Herausforderung, sich den zwei optisch unterschiedlichen Medien anzupassen. Deshalb sind Forscher an dem Sehen von marinen Säugern seit dem zwanzigsten Jahrhundert so sehr interessiert. rnBis heute wird kontrovers diskutiert, ob marine Säugetiere Farbe sehen können, da sie durch einen Gendefekt nur einen Zapfentyp besitzen und somit zu den Zapfen-Monochromaten gehören. Dressurexperimente zeigten jedoch, dass Seebären und Seelöwen in der Lage sind grüne und blaue Testfelder von Graustufen zu unterscheiden (Busch & Dücker, 1987; Griebel & Schmid, 1992).rnUm auszuschließen, dass die Tiere ein Farbensehen über die Unterscheidung von Helligkeit vortäuschen, wurde in der vorliegenden Arbeit zunächst die Kontrasterkennung untersucht und danach Tests auf Farbensehen durchgeführt. Als Versuchstiere dienten zwei Seehunde (Phoca vitulina) und zwei Südafrikanische Seebären (Arctocephalus pusillus). Alle Versuche wurden unter freien Himmel im Zoo Frankfurt durchgeführt. Den Tieren wurden immer drei Testfelder zur Auswahl geboten: zwei waren gleich und zeigten ein homogenen Hintergrund, das dritte zeigte ein Dreieck auf demselben Hintergrund. Die Tiere wurden auf das Dreieck dressiert. In den Versuchen zum Helligkeitskontrast wurden graue Dreiecke auf grauem Hintergrund verwendet. Das Dreieck wurde nicht erkannt bei einem Luminanz-Kontrast (K= LD/(LD+LH)) zwischen 0,03 und -0,12.rnBeim Test auf Farbensehen wurden die Farben Blau, Grün, Gelb und Orange auf grauem Hintergrund verwendet. Die Testreihen zeigten, dass jedes Tier auch in Bereichen von geringem Helligkeitskontrast hohe Wahlhäufigkeiten auf das farbige Dreieck erzielte und somit eindeutig die Farben Blau, Grün und Gelb sehen konnte. Lediglich bei der Farbe Orange kann keine Aussage zum Farbensehen getroffen werden, da das farbige Dreieck immer dunkler war als der Hintergrund. rnZusammenfassend konnte in dieser Arbeit gezeigt werden, dass Seehunde und Seebären in der Lage sind Farbe zu sehen. Vermutlich beruht diese Fähigkeit auf der Interaktion von Stäbchen und Zapfen. rn