938 resultados para Quasi-analytical algorithms
Resumo:
We develop several algorithms for computations in Galois extensions of p-adic fields. Our algorithms are based on existing algorithms for number fields and are exact in the sense that we do not need to consider approximations to p-adic numbers. As an application we describe an algorithmic approach to prove or disprove various conjectures for local and global epsilon constants.
Resumo:
Data mining means to summarize information from large amounts of raw data. It is one of the key technologies in many areas of economy, science, administration and the internet. In this report we introduce an approach for utilizing evolutionary algorithms to breed fuzzy classifier systems. This approach was exercised as part of a structured procedure by the students Achler, Göb and Voigtmann as contribution to the 2006 Data-Mining-Cup contest, yielding encouragingly positive results.
Resumo:
We discuss the possibility of identifying superheavy elements from the observation of their M-shell x-ray spectra, which might occur during the collision of a superheavy element with a heavy target. The same question is discussed for the possible observation of the x-rays from the quasimolecule (quasi-superheavy element) which is formed during such a heavy-ion collision. It is shown that it is very difficult, if not impossible, to determine any information about the interesting quantum electrodynamical effects from the M-shell x-ray spectra of these quasimolecules.
Resumo:
Due to the tremendous spin-orbit splitting of quasi-molecular levels in superheavy collision systems (Z = Z_1 + Z_2 {\ge\approx} 137) bombarding energy 0.5-6 MeV N{^-1}, unusual couplings may occur around Z \simeq 165. Experimental evidence for such a theoretically predicted coupling is discussed.
Resumo:
The potential energy curve of the system Ne-Ne is calculated for small internuclear distances from 0.005 to 3.0 au using a newly developed relativistic molecular Dirac-Fock-Slater code. A significant structure in the potential energy curve is found which leads to a nearly complete agreement with experimental differential elastic scattering cross sections. This demonstrates the presence of quasi-molecular effects in elastic ion-atom collisions at keV energies.
Resumo:
Das von Maz'ya eingeführte Approximationsverfahren, die Methode der näherungsweisen Näherungen (Approximate Approximations), kann auch zur numerischen Lösung von Randintegralgleichungen verwendet werden (Randpunktmethode). In diesem Fall hängen die Komponenten der Matrix des resultierenden Gleichungssystems zur Berechnung der Näherung für die Dichte nur von der Position der Randpunkte und der Richtung der äußeren Einheitsnormalen in diesen Punkten ab. Dieses numerisches Verfahren wird am Beispiel des Dirichlet Problems für die Laplace Gleichung und die Stokes Gleichungen in einem beschränkten zweidimensionalem Gebiet untersucht. Die Randpunktmethode umfasst drei Schritte: Im ersten Schritt wird die unbekannte Dichte durch eine Linearkombination von radialen, exponentiell abklingenden Basisfunktionen approximiert. Im zweiten Schritt wird die Integration über den Rand durch die Integration über die Tangenten in Randpunkten ersetzt. Für die auftretende Näherungspotentiale können sogar analytische Ausdrücke gewonnen werden. Im dritten Schritt wird das lineare Gleichungssystem gelöst, und eine Näherung für die unbekannte Dichte und damit auch für die Lösung der Randwertaufgabe konstruiert. Die Konvergenz dieses Verfahrens wird für glatte konvexe Gebiete nachgewiesen.
Resumo:
In this report, we discuss the application of global optimization and Evolutionary Computation to distributed systems. We therefore selected and classified many publications, giving an insight into the wide variety of optimization problems which arise in distributed systems. Some interesting approaches from different areas will be discussed in greater detail with the use of illustrative examples.
Resumo:
A conceptual information system consists of a database together with conceptual hierarchies. The management system TOSCANA visualizes arbitrary combinations of conceptual hierarchies by nested line diagrams and allows an on-line interaction with a database to analyze data conceptually. The paper describes the conception of conceptual information systems and discusses the use of their visualization techniques for on-line analytical processing (OLAP).
Resumo:
Die Verordnung des Europäischen Rates (EC) 834/2007 erkennt das Recht des Konsumenten auf eine Entscheidung basierend auf vollständiger Information bezüglich der enthaltenen Zutaten im Produkt und deren Herkunft (Qualität der Verarbeitung). Die primäre Kennzeichnungsverordnung betont „organische“ Produktionsstandards ebenso wie die Notwendigkeit zur Kontrolle und Aufsicht. Jedoch ist zurzeit keine validierte Methode zur analytischen Diskriminierung zwischen „organischer“ und „konventioneller“ Herkunft von angebotenen Lebensmitteln verfügbar. Das Ziel der Dissertationsarbeit war die Überprüfung der Möglichkeit mit ausgewählten analytischen und holistischen Methoden zwischen organisch und konventionell angebautem Weizen objektiv zu unterscheiden. Dies beinhaltete die Bestimmung des Gesamtstickstoff (Protein) nach Dumas, zweidimensionale Fluoreszenzdifferenz Gelelektrophorese (2D DIGE) und die Kupferchloridkristallisation. Zusätzlich wurde die Anzahl der Körner pro Ähre (Kornzahl) bestimmt. Alle Bestimmungen wurden an rückverfolgbaren in den Jahren 2005 – 2007 in Belgien gesammelten Proben des Winterweizen (Triticum aestivum L. cv. Cubus) durchgeführt. Statistisch signifikante (p < 0.05) Unterschiede wurden innerhalb der untersuchten Probengruppen sowohl in der Kornzahl, dem Gesamtsticksoff (Eiweißgehalt), als auch in der Gesamtausbeute gefunden, wobei in den meisten Fällen die konventionellen Proben höhere Kornzahlen und Gesamtsticksoff (Eiweißgehalte) aufwiesen. Eine mit der 2D DIGE kompatible Probenvorbereitungsmethode für Winterweizen wurde entwickelt und auf einen internen Winterweizenstandard sowie die entsprechenden Proben angewendet. Die organischen Proben waren im Vergleich mit den konventionellen Gegenstücken in allen Fällen durch eine kleinere Anzahl von signifikant (p < 0.05) stärker exprimierten Proteinspots gekennzeichnet. Gewisse Tendenzen in Richtung der Bevorzugung bestimmter Regionen von stärker ausgeprägten Proteinspots auf aufeinanderfolgenden 2D Abbildungen in Abhängigkeit von der landwirtschaftlichen Methode konnten zwar beobachtet werden, jedoch konnte kein universelles Markerprotein zur Unterscheidung von konventionell und biologisch angebautem Winterweizen identifiziert werden. Die rechnergestützte Verarbeitung der digitalisierten Kristallisierungsbilder mittels multivariater statistischer Analyse und der Regression partieller kleinster Quadrate ermöglichte eine 100%ig korrekte Vorhersage der landwirtschaftlichen Methode unbekannter Proben sowie der Beschreibung der Kristallisierungsbilder. Diese Vorhersage bezieht sich nur auf den hier verwendeten Datensatz (Proben einer Sorte von drei Standorten über zwei Jahre) und kann nicht ohne weiteres übertragen (generalisiert) werden. Die Ergebnisse deuten an, dass die Quantifizierung der beschriebenen Parameter ein hohes Potential zur Lösung der gestellten Aufgabe besitzt.
Resumo:
About ten years ago, triadic contexts were presented by Lehmann and Wille as an extension of Formal Concept Analysis. However, they have rarely been used up to now, which may be due to the rather complex structure of the resulting diagrams. In this paper, we go one step back and discuss how traditional line diagrams of standard (dyadic) concept lattices can be used for exploring and navigating triadic data. Our approach is inspired by the slice & dice paradigm of On-Line-Analytical Processing (OLAP). We recall the basic ideas of OLAP, and show how they may be transferred to triadic contexts. For modeling the navigation patterns a user might follow, we use the formalisms of finite state machines. In order to present the benefits of our model, we show how it can be used for navigating the IT Baseline Protection Manual of the German Federal Office for Information Security.
Resumo:
Distributed systems are one of the most vital components of the economy. The most prominent example is probably the internet, a constituent element of our knowledge society. During the recent years, the number of novel network types has steadily increased. Amongst others, sensor networks, distributed systems composed of tiny computational devices with scarce resources, have emerged. The further development and heterogeneous connection of such systems imposes new requirements on the software development process. Mobile and wireless networks, for instance, have to organize themselves autonomously and must be able to react to changes in the environment and to failing nodes alike. Researching new approaches for the design of distributed algorithms may lead to methods with which these requirements can be met efficiently. In this thesis, one such method is developed, tested, and discussed in respect of its practical utility. Our new design approach for distributed algorithms is based on Genetic Programming, a member of the family of evolutionary algorithms. Evolutionary algorithms are metaheuristic optimization methods which copy principles from natural evolution. They use a population of solution candidates which they try to refine step by step in order to attain optimal values for predefined objective functions. The synthesis of an algorithm with our approach starts with an analysis step in which the wanted global behavior of the distributed system is specified. From this specification, objective functions are derived which steer a Genetic Programming process where the solution candidates are distributed programs. The objective functions rate how close these programs approximate the goal behavior in multiple randomized network simulations. The evolutionary process step by step selects the most promising solution candidates and modifies and combines them with mutation and crossover operators. This way, a description of the global behavior of a distributed system is translated automatically to programs which, if executed locally on the nodes of the system, exhibit this behavior. In our work, we test six different ways for representing distributed programs, comprising adaptations and extensions of well-known Genetic Programming methods (SGP, eSGP, and LGP), one bio-inspired approach (Fraglets), and two new program representations called Rule-based Genetic Programming (RBGP, eRBGP) designed by us. We breed programs in these representations for three well-known example problems in distributed systems: election algorithms, the distributed mutual exclusion at a critical section, and the distributed computation of the greatest common divisor of a set of numbers. Synthesizing distributed programs the evolutionary way does not necessarily lead to the envisaged results. In a detailed analysis, we discuss the problematic features which make this form of Genetic Programming particularly hard. The two Rule-based Genetic Programming approaches have been developed especially in order to mitigate these difficulties. In our experiments, at least one of them (eRBGP) turned out to be a very efficient approach and in most cases, was superior to the other representations.
Resumo:
The present dissertation is devoted to the construction of exact and approximate analytical solutions of the problem of light propagation in highly nonlinear media. It is demonstrated that for many experimental conditions, the problem can be studied under the geometrical optics approximation with a sufficient accuracy. Based on the renormalization group symmetry analysis, exact analytical solutions of the eikonal equations with a higher order refractive index are constructed. A new analytical approach to the construction of approximate solutions is suggested. Based on it, approximate solutions for various boundary conditions, nonlinear refractive indices and dimensions are constructed. Exact analytical expressions for the nonlinear self-focusing positions are deduced. On the basis of the obtained solutions a general rule for the single filament intensity is derived; it is demonstrated that the scaling law (the functional dependence of the self-focusing position on the peak beam intensity) is defined by a form of the nonlinear refractive index but not the beam shape at the boundary. Comparisons of the obtained solutions with results of experiments and numerical simulations are discussed.
Resumo:
In dieser Arbeit werden Algorithmen zur Untersuchung der äquivarianten Tamagawazahlvermutung von Burns und Flach entwickelt. Zunächst werden Algorithmen angegeben mit denen die lokale Fundamentalklasse, die globale Fundamentalklasse und Tates kanonische Klasse berechnet werden können. Dies ermöglicht unter anderem Berechnungen in Brauergruppen von Zahlkörpererweiterungen. Anschließend werden diese Algorithmen auf die Tamagawazahlvermutung angewendet. Die Epsilonkonstantenvermutung kann dadurch für alle Galoiserweiterungen L|K bewiesen werden, bei denen L in einer Galoiserweiterung E|Q vom Grad kleiner gleich 15 eingebettet werden kann. Für die Tamagawazahlvermutung an der Stelle 1 wird ein Algorithmus angegeben, der die Vermutung für ein gegebenes Fallbeispiel L|Q numerischen verifizieren kann. Im Spezialfall, dass alle Charaktere rational oder abelsch sind, kann dieser Algorithmus die Vermutung für L|Q sogar beweisen.