982 resultados para Computer Algebra
Resumo:
Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)
Resumo:
Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)
Resumo:
We use computer algebra to study polynomial identities for the trilinear operation [a, b, c] = abc - acb - bac + bca + cab - cba in the free associative algebra. It is known that [a, b, c] satisfies the alternating property in degree 3, no new identities in degree 5, a multilinear identity in degree 7 which alternates in 6 arguments, and no new identities in degree 9. We use the representation theory of the symmetric group to demonstrate the existence of new identities in degree 11. The only irreducible representations of dimension <400 with new identities correspond to partitions 2(5), 1 and 2(4), 1(3) and have dimensions 132 and 165. We construct an explicit new multilinear identity for partition 2(5), 1 and we demonstrate the existence of a new non-multilinear identity in which the underlying variables are permutations of a(2)b(2)c(2)d(2)e(2) f.
Resumo:
We apply Kolesnikov's algorithm to obtain a variety of nonassociative algebras defined by right anticommutativity and a "noncommutative" version of the Malcev identity. We use computer algebra to verify that these identities are equivalent to the identities of degree up to 4 satisfied by the dicommutator in every alternative dialgebra. We extend these computations to show that any special identity for Malcev dialgebras must have degree at least 7. Finally, we introduce a trilinear operation which makes any Malcev dialgebra into a Leibniz triple system.
Resumo:
Über viele Jahre hinweg wurden wieder und wieder Argumente angeführt, die diskreten Räumen gegenüber kontinuierlichen Räumen eine fundamentalere Rolle zusprechen. Unser Zugangzur diskreten Welt wird durch neuere Überlegungen der Nichtkommutativen Geometrie (NKG) bestimmt. Seit ca. 15Jahren gibt es Anstrengungen und auch Fortschritte, Physikmit Hilfe von Nichtkommutativer Geometrie besser zuverstehen. Nur eine von vielen Möglichkeiten ist dieReformulierung des Standardmodells derElementarteilchenphysik. Unter anderem gelingt es, auch denHiggs-Mechanismus geometrisch zu beschreiben. Das Higgs-Feld wird in der NKG in Form eines Zusammenhangs auf einer zweielementigen Menge beschrieben. In der Arbeit werden verschiedene Ziele erreicht:Quantisierung einer nulldimensionalen ,,Raum-Zeit'', konsistente Diskretisierungf'ur Modelle im nichtkommutativen Rahmen.Yang-Mills-Theorien auf einem Punkt mit deformiertemHiggs-Potenzial. Erweiterung auf eine ,,echte''Zwei-Punkte-Raum-Zeit, Abzählen von Feynman-Graphen in einer nulldimensionalen Theorie, Feynman-Regeln. Eine besondere Rolle werden Termini, die in derQuantenfeldtheorie ihren Ursprung haben, gewidmet. In diesemRahmen werden Begriffe frei von Komplikationen diskutiert,die durch etwaige Divergenzen oder Schwierigkeitentechnischer Natur verursacht werden könnten.Eichfixierungen, Geistbeiträge, Slavnov-Taylor-Identität undRenormierung. Iteratives Lösungsverfahren derDyson-Schwinger-Gleichung mit Computeralgebra-Unterstützung,die Renormierungsprozedur berücksichtigt.
Resumo:
1. Teil: Bekannte Konstruktionen. Die vorliegende Arbeit gibt zunächst einen ausführlichen Überblick über die bisherigen Entwicklungen auf dem klassischen Gebiet der Hyperflächen mit vielen Singularitäten. Die maximale Anzahl mu^n(d) von Singularitäten auf einer Hyperfläche vom Grad d im P^n(C) ist nur in sehr wenigen Fällen bekannt, im P^3(C) beispielsweise nur für d<=6. Abgesehen von solchen Ausnahmen existieren nur obere und untere Schranken. 2. Teil: Neue Konstruktionen. Für kleine Grade d ist es oft möglich, bessere Resultate zu erhalten als jene, die durch allgemeine Schranken gegeben sind. In dieser Arbeit beschreiben wir einige algorithmische Ansätze hierfür, von denen einer Computer Algebra in Charakteristik 0 benutzt. Unsere anderen algorithmischen Methoden basieren auf einer Suche über endlichen Körpern. Das Liften der so experimentell gefundenen Hyperflächen durch Ausnutzung ihrer Geometrie oder Arithmetik liefert beispielsweise eine Fläche vom Grad 7 mit $99$ reellen gewöhnlichen Doppelpunkten und eine Fläche vom Grad 9 mit 226 gewöhnlichen Doppelpunkten. Diese Konstruktionen liefern die ersten unteren Schranken für mu^3(d) für ungeraden Grad d>5, die die allgemeine Schranke übertreffen. Unser Algorithmus hat außerdem das Potential, auf viele weitere Probleme der algebraischen Geometrie angewendet zu werden. Neben diesen algorithmischen Methoden beschreiben wir eine Konstruktion von Hyperflächen vom Grad d im P^n mit vielen A_j-Singularitäten, j>=2. Diese Beispiele, deren Existenz wir mit Hilfe der Theorie der Dessins d'Enfants beweisen, übertreffen die bekannten unteren Schranken in den meisten Fällen und ergeben insbesondere neue asymptotische untere Schranken für j>=2, n>=3. 3. Teil: Visualisierung. Wir beschließen unsere Arbeit mit einer Anwendung unserer neuen Visualisierungs-Software surfex, die die Stärken mehrerer existierender Programme bündelt, auf die Konstruktion affiner Gleichungen aller 45 topologischen Typen reeller kubischer Flächen.
Resumo:
In der vorliegenden Arbeit werden Photopionproduktion (PPP) und Elektropionproduktion (EPP) im Rahmen der manifest lorentzinvarianten baryonischen chiralen Störungstheorie untersucht. Dabei werden zwei verschiedene Ansätze verfolgt. Zum einen wird eine Rechnung auf Einschleifenniveau bis zur chiralen Ordnung O(q^4) mit Pionen und Nukleonen als Freiheitsgrade durchgeführt, um die Energieabhängigkeit der Reaktionen über einen möglichst großen Bereich zu beschreiben. Um die Abhängigkeit von der Photonvirtualität in der EPP zu verbessern, werden zum anderen in einer zweiten Rechnung Vektormesonen in die Theorie einbezogen. Diese Rechnung wird bis zur chiralen Ordnung O(q^3) auf Einschleifenniveau durchgeführt. rnrnVon den vier physikalischen Prozessen in PPP und EPP sind nur drei experimentell zugänglich. Untersucht werden diese Reaktionen an mehreren verschiedenen Anlagen, z.B. in Mainz, Bonn oder Saskatoon. Die dort gewonnenen Daten werden hier verwendet, um die Grenzen der chiralen Störungstheorie auszuloten. rnrnDiese Arbeit stellt die erste, vollständige, manifest lorentzinvariante Rechnung in O(q^4) für PPP und EPP, und die erste jemals durchgeführte Rechnung mit Vektormesonen als Freiheitsgrade für diesen Prozess, dar. Neben der Berechnung der physikalischen Observablen wird auch eine Partialwellenzerlegung durchgeführt und die wichtigsten Multipole untersucht. Diese lassen sich aus den gewonnenen Amplituden extrahieren und bieten eine gute Möglichkeit das Nukleon und Resonanzen zu untersuchen. rnrnUm das Matrixelement für die Prozesse berechnen zu können, wurden verschiedene Routinen für das Computeralgebrasystem Mathematica entwickelt, da die Anzahl der zu bestimmenden Diagramme sehr groß ist. Für die Multipolzerlegung werden zwei verschiedene Programme verwendet. Zum einen das bereits existierende Programm XMAID, welches für diese Arbeit entsprechend modifiziert wurde. Zum anderen wurden vergleichbare Routinen für Mathematica entwickelt. Am Ende der Analysen werden die verschiedenen Rechnungen bezüglich ihrer Anwendbarkeit auf PPP und EPP verglichen.
Resumo:
Burnside posed the question as to whether or not there exist groups having an external automorphism that behaves in a certain, specific way like an inner automorphism: we shall define such automorphisms to be nearly-inner. NI-groups are fairly rare. With the aid of the computer algebra system Magma - in particular with the aid of its small group database - we set out to test this hypothesis.
Resumo:
The problem of parameterizing approximately algebraic curves and surfaces is an active research field, with many implications in practical applications. The problem can be treated locally or globally. We formally state the problem, in its global version for the case of algebraic curves (planar or spatial), and we report on some algorithms approaching it, as well as on the associated error distance analysis.
Resumo:
A matrix representation of the sparse differential resultant is the basis for efficient computation algorithms, whose study promises a great contribution to the development and applicability of differential elimination techniques. It is shown how sparse linear differential resultant formulas provide bounds for the order of derivation, even in the nonlinear case, and they also provide (in many cases) the bridge with results in the nonlinear algebraic case.
Resumo:
Over the past 20 years,theuse of Computer Algebra Systems(CAS) has helped with the teaching of mathematics inengineer-ingschools. However the traditional use of CAS only in math labs has led to a narrow view by the student: the CAS is an additional work, not included in the learning process. The didactic guidelines of the European Higher Education Area(EHEA) propose a new teaching–learning model based on competencies. We suggest the use of the CAS be adapted to the new rules. In this paper,we present a model for the integrated use of the CAS,and we describe and analyze two experiments carried out in the academic year2011–2012. Our analysis suggests that the use of CAS in all learning and assessment activities has the potential to positively influence the development of competencies.
Resumo:
The EHEA proposes a student-centered teaching model. Therefore, it seems necessary to actively involve the students in the teaching-learning process. Increasing the active participation of the students is not always easy in mathematical topics, since, when the students just enter the University, their ability to carry out autonomous mathematical work is scarce. In this paper we present some experiences related with the use of Computer Algebra Systems (CAS). All the experiences are designed in order to develop some mathematical competencies and mainly self-learning, the use of technology and team-work. The experiences include some teachers? proposals including: small projects to be executed in small groups, participation in competitions, the design of different CAS-Toolboxes, etc. The results obtained in the experiences, carried out with different groups of students from different engineering studies at different universities, makes us slightly optimistic about the educational value of the model.
Resumo:
This paper is framed within the problem of analyzing the rationality of the components of two classical geometric constructions, namely the offset and the conchoid to an algebraic plane curve and, in the affirmative case, the actual computation of parametrizations. We recall some of the basic definitions and main properties on offsets (see [13]), and conchoids (see [15]) as well as the algorithms for parametrizing their rational components (see [1] and [16], respectively). Moreover, we implement the basic ideas creating two packages in the computer algebra system Maple to analyze the rationality of conchoids and offset curves, as well as the corresponding help pages. In addition, we present a brief atlas where the offset and conchoids of several algebraic plane curves are obtained, their rationality analyzed, and parametrizations are provided using the created packages.
Resumo:
Resource analysis aims at inferring the cost of executing programs for any possible input, in terms of a given resource, such as the traditional execution steps, time ormemory, and, more recently energy consumption or user defined resources (e.g., number of bits sent over a socket, number of database accesses, number of calls to particular procedures, etc.). This is performed statically, i.e., without actually running the programs. Resource usage information is useful for a variety of optimization and verification applications, as well as for guiding software design. For example, programmers can use such information to choose different algorithmic solutions to a problem; program transformation systems can use cost information to choose between alternative transformations; parallelizing compilers can use cost estimates for granularity control, which tries to balance the overheads of task creation and manipulation against the benefits of parallelization. In this thesis we have significatively improved an existing prototype implementation for resource usage analysis based on abstract interpretation, addressing a number of relevant challenges and overcoming many limitations it presented. The goal of that prototype was to show the viability of casting the resource analysis as an abstract domain, and howit could overcome important limitations of the state-of-the-art resource usage analysis tools. For this purpose, it was implemented as an abstract domain in the abstract interpretation framework of the CiaoPP system, PLAI.We have improved both the design and implementation of the prototype, for eventually allowing an evolution of the tool to the industrial application level. The abstract operations of such tool heavily depend on the setting up and finding closed-form solutions of recurrence relations representing the resource usage behavior of program components and the whole program as well. While there exist many tools, such as Computer Algebra Systems (CAS) and libraries able to find closed-form solutions for some types of recurrences, none of them alone is able to handle all the types of recurrences arising during program analysis. In addition, there are some types of recurrences that cannot be solved by any existing tool. This clearly constitutes a bottleneck for this kind of resource usage analysis. Thus, one of the major challenges we have addressed in this thesis is the design and development of a novel modular framework for solving recurrence relations, able to combine and take advantage of the results of existing solvers. Additionally, we have developed and integrated into our novel solver a technique for finding upper-bound closed-form solutions of a special class of recurrence relations that arise during the analysis of programs with accumulating parameters. Finally, we have integrated the improved resource analysis into the CiaoPP general framework for resource usage verification, and specialized the framework for verifying energy consumption specifications of embedded imperative programs in a real application, showing the usefulness and practicality of the resulting tool.---ABSTRACT---El Análisis de recursos tiene como objetivo inferir el coste de la ejecución de programas para cualquier entrada posible, en términos de algún recurso determinado, como pasos de ejecución, tiempo o memoria, y, más recientemente, el consumo de energía o recursos definidos por el usuario (por ejemplo, número de bits enviados a través de un socket, el número de accesos a una base de datos, cantidad de llamadas a determinados procedimientos, etc.). Ello se realiza estáticamente, es decir, sin necesidad de ejecutar los programas. La información sobre el uso de recursos resulta muy útil para una gran variedad de aplicaciones de optimización y verificación de programas, así como para asistir en el diseño de los mismos. Por ejemplo, los programadores pueden utilizar dicha información para elegir diferentes soluciones algorítmicas a un problema; los sistemas de transformación de programas pueden utilizar la información de coste para elegir entre transformaciones alternativas; los compiladores paralelizantes pueden utilizar las estimaciones de coste para realizar control de granularidad, el cual trata de equilibrar el coste debido a la creación y gestión de tareas, con los beneficios de la paralelización. En esta tesis hemos mejorado de manera significativa la implementación de un prototipo existente para el análisis del uso de recursos basado en interpretación abstracta, abordando diversos desafíos relevantes y superando numerosas limitaciones que éste presentaba. El objetivo de dicho prototipo era mostrar la viabilidad de definir el análisis de recursos como un dominio abstracto, y cómo se podían superar las limitaciones de otras herramientas similares que constituyen el estado del arte. Para ello, se implementó como un dominio abstracto en el marco de interpretación abstracta presente en el sistema CiaoPP, PLAI. Hemos mejorado tanto el diseño como la implementación del mencionado prototipo para posibilitar su evolución hacia una herramienta utilizable en el ámbito industrial. Las operaciones abstractas de dicha herramienta dependen en gran medida de la generación, y posterior búsqueda de soluciones en forma cerrada, de relaciones recurrentes, las cuales modelizan el comportamiento, respecto al consumo de recursos, de los componentes del programa y del programa completo. Si bien existen actualmente muchas herramientas capaces de encontrar soluciones en forma cerrada para ciertos tipos de recurrencias, tales como Sistemas de Computación Algebraicos (CAS) y librerías de programación, ninguna de dichas herramientas es capaz de tratar, por sí sola, todos los tipos de recurrencias que surgen durante el análisis de recursos. Existen incluso recurrencias que no las puede resolver ninguna herramienta actual. Esto constituye claramente un cuello de botella para este tipo de análisis del uso de recursos. Por lo tanto, uno de los principales desafíos que hemos abordado en esta tesis es el diseño y desarrollo de un novedoso marco modular para la resolución de relaciones recurrentes, combinando y aprovechando los resultados de resolutores existentes. Además de ello, hemos desarrollado e integrado en nuestro nuevo resolutor una técnica para la obtención de cotas superiores en forma cerrada de una clase característica de relaciones recurrentes que surgen durante el análisis de programas lógicos con parámetros de acumulación. Finalmente, hemos integrado el nuevo análisis de recursos con el marco general para verificación de recursos de CiaoPP, y hemos instanciado dicho marco para la verificación de especificaciones sobre el consumo de energía de programas imperativas embarcados, mostrando la viabilidad y utilidad de la herramienta resultante en una aplicación real.
Resumo:
Efficient hardware implementations of arithmetic operations in the Galois field are highly desirable for several applications, such as coding theory, computer algebra and cryptography. Among these operations, multiplication is of special interest because it is considered the most important building block. Therefore, high-speed algorithms and hardware architectures for computing multiplication are highly required. In this paper, bit-parallel polynomial basis multipliers over the binary field GF(2(m)) generated using type II irreducible pentanomials are considered. The multiplier here presented has the lowest time complexity known to date for similar multipliers based on this type of irreducible pentanomials.