938 resultados para Non-negative rational numbers


Relevância:

100.00% 100.00%

Publicador:

Resumo:

The problem of sharing a cost M among n individuals, identified by some characteristic ci∈R+,ci∈R+, appears in many real situations. Two important proposals on how to share the cost are the egalitarian and the proportional solutions. In different situations a combination of both distributions provides an interesting approach to the cost sharing problem. In this paper we obtain a family of (compromise) solutions associated to the Perron’s eigenvectors of Levinger’s transformations of a characteristics matrix A. This family includes both the egalitarian and proportional solutions, as well as a set of suitable intermediate proposals, which we analyze in some specific contexts, as claims problems and inventory cost games.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

We introduce transreal analysis as a generalisation of real analysis. We find that the generalisation of the real exponential and logarithmic functions is well defined for all transreal numbers. Hence, we derive well defined values of all transreal powers of all non-negative transreal numbers. In particular, we find a well defined value for zero to the power of zero. We also note that the computation of products via the transreal logarithm is identical to the transreal product, as expected. We then generalise all of the common, real, trigonometric functions to transreal functions and show that transreal (sin x)/x is well defined everywhere. This raises the possibility that transreal analysis is total, in other words, that every function and every limit is everywhere well defined. If so, transreal analysis should be an adequate mathematical basis for analysing the perspex machine - a theoretical, super-Turing machine that operates on a total geometry. We go on to dispel all of the standard counter "proofs" that purport to show that division by zero is impossible. This is done simply by carrying the proof through in transreal arithmetic or transreal analysis. We find that either the supposed counter proof has no content or else that it supports the contention that division by zero is possible. The supposed counter proofs rely on extending the standard systems in arbitrary and inconsistent ways and then showing, tautologously, that the chosen extensions are not consistent. This shows only that the chosen extensions are inconsistent and does not bear on the question of whether division by zero is logically possible. By contrast, transreal arithmetic is total and consistent so it defeats any possible "straw man" argument. Finally, we show how to arrange that a function has finite or else unmeasurable (nullity) values, but no infinite values. This arithmetical arrangement might prove useful in mathematical physics because it outlaws naked singularities in all equations.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The aim of the present set of studies was to explore primary school children’s Spontaneous Focusing On quantitative Relations (SFOR) and its role in the development of rational number conceptual knowledge. The specific goals were to determine if it was possible to identify a spontaneous quantitative focusing tendency that indexes children’s tendency to recognize and utilize quantitative relations in non-explicitly mathematical situations and to determine if this tendency has an impact on the development of rational number conceptual knowledge in late primary school. To this end, we report on six original empirical studies that measure SFOR in children ages five to thirteen years and the development of rational number conceptual knowledge in ten- to thirteen-year-olds. SFOR measures were developed to determine if there are substantial differences in SFOR that are not explained by the ability to use quantitative relations. A measure of children’s conceptual knowledge of the magnitude representations of rational numbers and the density of rational numbers is utilized to capture the process of conceptual change with rational numbers in late primary school students. Finally, SFOR tendency was examined in relation to the development of rational number conceptual knowledge in these students. Study I concerned the first attempts to measure individual differences in children’s spontaneous recognition and use of quantitative relations in 86 Finnish children from the ages of five to seven years. Results revealed that there were substantial inter-individual differences in the spontaneous recognition and use of quantitative relations in these tasks. This was particularly true for the oldest group of participants, who were in grade one (roughly seven years old). However, the study did not control for ability to solve the tasks using quantitative relations, so it was not clear if these differences were due to ability or SFOR. Study II more deeply investigated the nature of the two tasks reported in Study I, through the use of a stimulated-recall procedure examining children’s verbalizations of how they interpreted the tasks. Results reveal that participants were able to verbalize reasoning about their quantitative relational responses, but not their responses based on exact number. Furthermore, participants’ non-mathematical responses revealed a variety of other aspects, beyond quantitative relations and exact number, which participants focused on in completing the tasks. These results suggest that exact number may be more easily perceived than quantitative relations. As well, these tasks were revealed to contain both mathematical and non-mathematical aspects which were interpreted by the participants as relevant. Study III investigated individual differences in SFOR 84 children, ages five to nine, from the US and is the first to report on the connection between SFOR and other mathematical abilities. The cross-sectional data revealed that there were individual differences in SFOR. Importantly, these differences were not entirely explained by the ability to solve the tasks using quantitative relations, suggesting that SFOR is partially independent from the ability to use quantitative relations. In other words, the lack of use of quantitative relations on the SFOR tasks was not solely due to participants being unable to solve the tasks using quantitative relations, but due to a lack of the spontaneous attention to the quantitative relations in the tasks. Furthermore, SFOR tendency was found to be related to arithmetic fluency among these participants. This is the first evidence to suggest that SFOR may be a partially distinct aspect of children’s existing mathematical competences. Study IV presented a follow-up study of the first graders who participated in Studies I and II, examining SFOR tendency as a predictor of their conceptual knowledge of fraction magnitudes in fourth grade. Results revealed that first graders’ SFOR tendency was a unique predictor of fraction conceptual knowledge in fourth grade, even after controlling for general mathematical skills. These results are the first to suggest that SFOR tendency may play a role in the development of rational number conceptual knowledge. Study V presents a longitudinal study of the development of 263 Finnish students’ rational number conceptual knowledge over a one year period. During this time participants completed a measure of conceptual knowledge of the magnitude representations and the density of rational numbers at three time points. First, a Latent Profile Analysis indicated that a four-class model, differentiating between those participants with high magnitude comparison and density knowledge, was the most appropriate. A Latent Transition Analysis reveal that few students display sustained conceptual change with density concepts, though conceptual change with magnitude representations is present in this group. Overall, this study indicated that there were severe deficiencies in conceptual knowledge of rational numbers, especially concepts of density. The longitudinal Study VI presented a synthesis of the previous studies in order to specifically detail the role of SFOR tendency in the development of rational number conceptual knowledge. Thus, the same participants from Study V completed a measure of SFOR, along with the rational number test, including a fourth time point. Results reveal that SFOR tendency was a predictor of rational number conceptual knowledge after two school years, even after taking into consideration prior rational number knowledge (through the use of residualized SFOR scores), arithmetic fluency, and non-verbal intelligence. Furthermore, those participants with higher-than-expected SFOR scores improved significantly more on magnitude representation and density concepts over the four time points. These results indicate that SFOR tendency is a strong predictor of rational number conceptual development in late primary school children. The results of the six studies reveal that within children’s existing mathematical competences there can be identified a spontaneous quantitative focusing tendency named spontaneous focusing on quantitative relations. Furthermore, this tendency is found to play a role in the development of rational number conceptual knowledge in primary school children. Results suggest that conceptual change with the magnitude representations and density of rational numbers is rare among this group of students. However, those children who are more likely to notice and use quantitative relations in situations that are not explicitly mathematical seem to have an advantage in the development of rational number conceptual knowledge. It may be that these students gain quantitative more and qualitatively better self-initiated deliberate practice with quantitative relations in everyday situations due to an increased SFOR tendency. This suggests that it may be important to promote this type of mathematical activity in teaching rational numbers. Furthermore, these results suggest that there may be a series of spontaneous quantitative focusing tendencies that have an impact on mathematical development throughout the learning trajectory.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In this paper we champion Diophantus of Alexandria and Isabella Basmakova against Norbert Schappacher. In two publications ([46] and [47]) he puts forward inter alia two propositions: Questioning Diophantus' originality he considers affirmatively the possibility, that the Arithmetica are the joint work of a team of authors like Bourbaki. And he calls Basmakova's claim (in [5]), that Diophantus uses negative numbers, a "nonsense", reproaching her for her "thoughtlessness". First, we disprove Schappacher's Bourbaki thesis. Second, we investigate the semantic meaning and historical significance of Diophantus' keywords leipsis and mparxis. Next, we discuss Schappacher's epistemology of the history of mathematics and defend Basmakova's methods. Furthermore, we give 33 places where Diophantus uses negative quantities as intermediate results; they appear as differences a - b of positive rational numbers, the subtrahend b being bigger than the minuend a; they each represent the (negative) basis (pleyra) of a square number (tetragonos), which is afterwards computed by the formula (a - b)^2 = a^2 + b^2 - 2ab. Finally, we report how the topic "Diophantus and the negative numbers" has been dealt with by translators and commentators from Maximus Planudes onwards.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

We present four estimators of the shared information (or interdepency) in ground states given that the coefficients appearing in the wave function are all real non-negative numbers and therefore can be interpreted as probabilities of configurations. Such ground states of Hermitian and non-Hermitian Hamiltonians can be given, for example, by superpositions of valence bond states which can describe equilibrium but also stationary states of stochastic models. We consider in detail the last case, the system being a classical not a quantum one. Using analytical and numerical methods we compare the values of the estimators in the directed polymer and the raise and peel models which have massive, conformal invariant and nonconformal invariant massless phases. We show that like in the case of the quantum problem, the estimators verify the area law with logarithmic corrections when phase transitions take place.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Consider the celebrated Lyness recurrence $x_{n+2}=(a+x_{n+1})/x_{n}$ with $a\in\Q$. First we prove that there exist initial conditions and values of $a$ for which it generates periodic sequences of rational numbers with prime periods $1,2,3,5,6,7,8,9,10$ or $12$ and that these are the only periods that rational sequences $\{x_n\}_n$ can have. It is known that if we restrict our attention to positive rational values of $a$ and positive rational initial conditions the only possible periods are $1,5$ and $9$. Moreover 1-periodic and 5-periodic sequences are easily obtained. We prove that for infinitely many positive values of $a,$ positive 9-period rational sequences occur. This last result is our main contribution and answers an open question left in previous works of Bastien \& Rogalski and Zeeman. We also prove that the level sets of the invariant associated to the Lyness map is a two-parameter family of elliptic curves that is a universal family of the elliptic curves with a point of order $n, n\ge5,$ including $n$ infinity. This fact implies that the Lyness map is a universal normal form for most birrational maps on elliptic curves.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Notre recherche s’intéresse à la transformation des rapports aux nombres rationnels d’élèves de 1re secondaire présentant des difficultés d’apprentissage. Comme le montrent plusieurs recherches, le défi majeur auquel sont confrontés les enseignants, ainsi que les chercheurs, est de ne pas s’enliser dans le cercle vicieux d’une réduction des enjeux de l’apprentissage des nombres rationnels et des possibilités d’apprentissage de l’élève en difficultés d’apprentissage, cet élève n’ayant pas ainsi la chance de mettre à l’épreuve ses connaissances, d’oser s’engager dans une démarche de construction de connaissances et d’apprécier les effets de son engagement cognitif. Afin de relever ce défi, nous avons misé sur l’intégration harmonieuse de situations problèmes. Il nous a semblé que, dans une démarche d’acculturation, l’approche écologique soit tout indiquée pour penser une «dé-transposition/re-transposition didactique» (Antibi et Brousseau, 2000) et reconstruire une mémoire porteuse d’espoirs (Brousseau et Centeno, 1998). Notre recherche vise à: 1) caractériser la progression des démarches d’acculturation institutionnelle de l’enseignant, du chercheur et des élèves et leurs effets sur les processus d’élaboration et de gestion des situations d’enseignement; 2) préciser l’évolution des connaissances, des habitus et des rapports des élèves aux nombres rationnels. Notre intégration en classe, d’une durée de 6 mois, nous a permis d’apprécier les effets du processus d’acculturation. Nous avons noté des changements importants dans la topogénèse et la chronogénèse des savoirs (Mercier, 1995); alors qu’à notre entrée, l’enseignante adoptait la démarche suivante, soit effectuer un exposé des savoirs et des démarches que les élèves devaient consigner dans leurs notes de cours, afin de pouvoir par la suite s’y référer pour effectuer des exercices et résoudre des problèmes, elle modifiait progressivement cette démarche en proposant des problèmes qui pouvaient permettre aux élèves de coordonner diverses connaissances et de construire ainsi des savoirs auxquels ils pouvaient faire référence dans la construction de leurs notes de cours qu’ils pouvaient par la suite consulter pour effectuer divers exercices. Nous avons également pu apprécier les effets de l’intégration de diverses représentations des nombres rationnels sur l’avancée du temps didactique (Mercier, 1995) et la transformation des rapports et habitus des élèves aux nombres rationnels (Bourdieu, 1980). Ces changements se sont manifestés, entre autres, par : a) un investissement important lors de situations complexes; b) l’adoption de pratiques mathématiques plus attentives aux données numériques et aux relations entre ces données; c) l’apparition de conduites « inusitées » [ex. coordination de divers registres sémiotiques,exploitation de compositions additives/multiplicatives et d’écritures non conventionnelles]. De telles conduites sont similaires à celles observées dans plusieurs recherches effectuées auprès d’une population d’élèves qui ne présentent pas de difficultés d’apprentissage (Moss et Case, 1999). Les résultats de notre recherche soutiennent donc l’importance indéniable de considérer les élèves en difficultés comme étant mathématiquement compétents, comme le soulignent Empson (2003) et Houssart (2002). Il nous semble enfin important de souligner que le travail sur la représentation des nombres rationnels a constitué une niche particulièrement fertile, pour un travail fondamental sur les nombres rationnels, travail qui puisse permettre aux élèves de poursuivre plus harmonieusement leurs apprentissages, les nombres rationnels étant des objets de savoir incontournables.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'objectif du présent mémoire vise à présenter des modèles de séries chronologiques multivariés impliquant des vecteurs aléatoires dont chaque composante est non-négative. Nous considérons les modèles vMEM (modèles vectoriels et multiplicatifs avec erreurs non-négatives) présentés par Cipollini, Engle et Gallo (2006) et Cipollini et Gallo (2010). Ces modèles représentent une généralisation au cas multivarié des modèles MEM introduits par Engle (2002). Ces modèles trouvent notamment des applications avec les séries chronologiques financières. Les modèles vMEM permettent de modéliser des séries chronologiques impliquant des volumes d'actif, des durées, des variances conditionnelles, pour ne citer que ces applications. Il est également possible de faire une modélisation conjointe et d'étudier les dynamiques présentes entre les séries chronologiques formant le système étudié. Afin de modéliser des séries chronologiques multivariées à composantes non-négatives, plusieurs spécifications du terme d'erreur vectoriel ont été proposées dans la littérature. Une première approche consiste à considérer l'utilisation de vecteurs aléatoires dont la distribution du terme d'erreur est telle que chaque composante est non-négative. Cependant, trouver une distribution multivariée suffisamment souple définie sur le support positif est plutôt difficile, au moins avec les applications citées précédemment. Comme indiqué par Cipollini, Engle et Gallo (2006), un candidat possible est une distribution gamma multivariée, qui impose cependant des restrictions sévères sur les corrélations contemporaines entre les variables. Compte tenu que les possibilités sont limitées, une approche possible est d'utiliser la théorie des copules. Ainsi, selon cette approche, des distributions marginales (ou marges) peuvent être spécifiées, dont les distributions en cause ont des supports non-négatifs, et une fonction de copule permet de tenir compte de la dépendance entre les composantes. Une technique d'estimation possible est la méthode du maximum de vraisemblance. Une approche alternative est la méthode des moments généralisés (GMM). Cette dernière méthode présente l'avantage d'être semi-paramétrique dans le sens que contrairement à l'approche imposant une loi multivariée, il n'est pas nécessaire de spécifier une distribution multivariée pour le terme d'erreur. De manière générale, l'estimation des modèles vMEM est compliquée. Les algorithmes existants doivent tenir compte du grand nombre de paramètres et de la nature élaborée de la fonction de vraisemblance. Dans le cas de l'estimation par la méthode GMM, le système à résoudre nécessite également l'utilisation de solveurs pour systèmes non-linéaires. Dans ce mémoire, beaucoup d'énergies ont été consacrées à l'élaboration de code informatique (dans le langage R) pour estimer les différents paramètres du modèle. Dans le premier chapitre, nous définissons les processus stationnaires, les processus autorégressifs, les processus autorégressifs conditionnellement hétéroscédastiques (ARCH) et les processus ARCH généralisés (GARCH). Nous présentons aussi les modèles de durées ACD et les modèles MEM. Dans le deuxième chapitre, nous présentons la théorie des copules nécessaire pour notre travail, dans le cadre des modèles vectoriels et multiplicatifs avec erreurs non-négatives vMEM. Nous discutons également des méthodes possibles d'estimation. Dans le troisième chapitre, nous discutons les résultats des simulations pour plusieurs méthodes d'estimation. Dans le dernier chapitre, des applications sur des séries financières sont présentées. Le code R est fourni dans une annexe. Une conclusion complète ce mémoire.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La présente thèse porte sur différentes questions émanant de la géométrie spectrale. Ce domaine des mathématiques fondamentales a pour objet d'établir des liens entre la géométrie et le spectre d'une variété riemannienne. Le spectre d'une variété compacte fermée M munie d'une métrique riemannienne $g$ associée à l'opérateur de Laplace-Beltrami est une suite de nombres non négatifs croissante qui tend vers l’infini. La racine carrée de ces derniers représente une fréquence de vibration de la variété. Cette thèse présente quatre articles touchant divers aspects de la géométrie spectrale. Le premier article, présenté au Chapitre 1 et intitulé « Superlevel sets and nodal extrema of Laplace eigenfunctions », porte sur la géométrie nodale d'opérateurs elliptiques. L’objectif de mes travaux a été de généraliser un résultat de L. Polterovich et de M. Sodin qui établit une borne sur la distribution des extrema nodaux sur une surface riemannienne pour une assez vaste classe de fonctions, incluant, entre autres, les fonctions propres associées à l'opérateur de Laplace-Beltrami. La preuve fournie par ces auteurs n'étant valable que pour les surfaces riemanniennes, je prouve dans ce chapitre une approche indépendante pour les fonctions propres de l’opérateur de Laplace-Beltrami dans le cas des variétés riemanniennes de dimension arbitraire. Les deuxième et troisième articles traitent d'un autre opérateur elliptique, le p-laplacien. Sa particularité réside dans le fait qu'il est non linéaire. Au Chapitre 2, l'article « Principal frequency of the p-laplacian and the inradius of Euclidean domains » se penche sur l'étude de bornes inférieures sur la première valeur propre du problème de Dirichlet du p-laplacien en termes du rayon inscrit d’un domaine euclidien. Plus particulièrement, je prouve que, si p est supérieur à la dimension du domaine, il est possible d'établir une borne inférieure sans aucune hypothèse sur la topologie de ce dernier. L'étude de telles bornes a fait l'objet de nombreux articles par des chercheurs connus, tels que W. K. Haymann, E. Lieb, R. Banuelos et T. Carroll, principalement pour le cas de l'opérateur de Laplace. L'adaptation de ce type de bornes au cas du p-laplacien est abordée dans mon troisième article, « Bounds on the Principal Frequency of the p-Laplacian », présenté au Chapitre 3 de cet ouvrage. Mon quatrième article, « Wolf-Keller theorem for Neumann Eigenvalues », est le fruit d'une collaboration avec Guillaume Roy-Fortin. Le thème central de ce travail gravite autour de l'optimisation de formes dans le contexte du problème aux valeurs limites de Neumann. Le résultat principal de cet article est que les valeurs propres de Neumann ne sont pas toujours maximisées par l'union disjointe de disques arbitraires pour les domaines planaires d'aire fixée. Le tout est présenté au Chapitre 4 de cette thèse.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In dieser Arbeit werden mithilfe der Likelihood-Tiefen, eingeführt von Mizera und Müller (2004), (ausreißer-)robuste Schätzfunktionen und Tests für den unbekannten Parameter einer stetigen Dichtefunktion entwickelt. Die entwickelten Verfahren werden dann auf drei verschiedene Verteilungen angewandt. Für eindimensionale Parameter wird die Likelihood-Tiefe eines Parameters im Datensatz als das Minimum aus dem Anteil der Daten, für die die Ableitung der Loglikelihood-Funktion nach dem Parameter nicht negativ ist, und dem Anteil der Daten, für die diese Ableitung nicht positiv ist, berechnet. Damit hat der Parameter die größte Tiefe, für den beide Anzahlen gleich groß sind. Dieser wird zunächst als Schätzer gewählt, da die Likelihood-Tiefe ein Maß dafür sein soll, wie gut ein Parameter zum Datensatz passt. Asymptotisch hat der Parameter die größte Tiefe, für den die Wahrscheinlichkeit, dass für eine Beobachtung die Ableitung der Loglikelihood-Funktion nach dem Parameter nicht negativ ist, gleich einhalb ist. Wenn dies für den zu Grunde liegenden Parameter nicht der Fall ist, ist der Schätzer basierend auf der Likelihood-Tiefe verfälscht. In dieser Arbeit wird gezeigt, wie diese Verfälschung korrigiert werden kann sodass die korrigierten Schätzer konsistente Schätzungen bilden. Zur Entwicklung von Tests für den Parameter, wird die von Müller (2005) entwickelte Simplex Likelihood-Tiefe, die eine U-Statistik ist, benutzt. Es zeigt sich, dass für dieselben Verteilungen, für die die Likelihood-Tiefe verfälschte Schätzer liefert, die Simplex Likelihood-Tiefe eine unverfälschte U-Statistik ist. Damit ist insbesondere die asymptotische Verteilung bekannt und es lassen sich Tests für verschiedene Hypothesen formulieren. Die Verschiebung in der Tiefe führt aber für einige Hypothesen zu einer schlechten Güte des zugehörigen Tests. Es werden daher korrigierte Tests eingeführt und Voraussetzungen angegeben, unter denen diese dann konsistent sind. Die Arbeit besteht aus zwei Teilen. Im ersten Teil der Arbeit wird die allgemeine Theorie über die Schätzfunktionen und Tests dargestellt und zudem deren jeweiligen Konsistenz gezeigt. Im zweiten Teil wird die Theorie auf drei verschiedene Verteilungen angewandt: Die Weibull-Verteilung, die Gauß- und die Gumbel-Copula. Damit wird gezeigt, wie die Verfahren des ersten Teils genutzt werden können, um (robuste) konsistente Schätzfunktionen und Tests für den unbekannten Parameter der Verteilung herzuleiten. Insgesamt zeigt sich, dass für die drei Verteilungen mithilfe der Likelihood-Tiefen robuste Schätzfunktionen und Tests gefunden werden können. In unverfälschten Daten sind vorhandene Standardmethoden zum Teil überlegen, jedoch zeigt sich der Vorteil der neuen Methoden in kontaminierten Daten und Daten mit Ausreißern.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This work deals with some classes of linear second order partial differential operators with non-negative characteristic form and underlying non- Euclidean structures. These structures are determined by families of locally Lipschitz-continuous vector fields in RN, generating metric spaces of Carnot- Carath´eodory type. The Carnot-Carath´eodory metric related to a family {Xj}j=1,...,m is the control distance obtained by minimizing the time needed to go from two points along piecewise trajectories of vector fields. We are mainly interested in the causes in which a Sobolev-type inequality holds with respect to the X-gradient, and/or the X-control distance is Doubling with respect to the Lebesgue measure in RN. This study is divided into three parts (each corresponding to a chapter), and the subject of each one is a class of operators that includes the class of the subsequent one. In the first chapter, after recalling “X-ellipticity” and related concepts introduced by Kogoj and Lanconelli in [KL00], we show a Maximum Principle for linear second order differential operators for which we only assume a Sobolev-type inequality together with a lower terms summability. Adding some crucial hypotheses on measure and on vector fields (Doubling property and Poincar´e inequality), we will be able to obtain some Liouville-type results. This chapter is based on the paper [GL03] by Guti´errez and Lanconelli. In the second chapter we treat some ultraparabolic equations on Lie groups. In this case RN is the support of a Lie group, and moreover we require that vector fields satisfy left invariance. After recalling some results of Cinti [Cin07] about this class of operators and associated potential theory, we prove a scalar convexity for mean-value operators of L-subharmonic functions, where L is our differential operator. In the third chapter we prove a necessary and sufficient condition of regularity, for boundary points, for Dirichlet problem on an open subset of RN related to sub-Laplacian. On a Carnot group we give the essential background for this type of operator, and introduce the notion of “quasi-boundedness”. Then we show the strict relationship between this notion, the fundamental solution of the given operator, and the regularity of the boundary points.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The main part of this thesis describes a method of calculating the massless two-loop two-point function which allows expanding the integral up to an arbitrary order in the dimensional regularization parameter epsilon by rewriting it as a double Mellin-Barnes integral. Closing the contour and collecting the residues then transforms this integral into a form that enables us to utilize S. Weinzierl's computer library nestedsums. We could show that multiple zeta values and rational numbers are sufficient for expanding the massless two-loop two-point function to all orders in epsilon. We then use the Hopf algebra of Feynman diagrams and its antipode, to investigate the appearance of Riemann's zeta function in counterterms of Feynman diagrams in massless Yukawa theory and massless QED. The class of Feynman diagrams we consider consists of graphs built from primitive one-loop diagrams and the non-planar vertex correction, where the vertex corrections only depend on one external momentum. We showed the absence of powers of pi in the counterterms of the non-planar vertex correction and diagrams built by shuffling it with the one-loop vertex correction. We also found the invariance of some coefficients of zeta functions under a change of momentum flow through these vertex corrections.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This paper is drawn from the use of data envelopment analysis (DEA) in helping a Portuguese bank to manage the performance of its branches. The bank wanted to set targets for the branches on such variables as growth in number of clients, growth in funds deposited and so on. Such variables can take positive and negative values but apart from some exceptions, traditional DEA models have hitherto been restricted to non-negative data. We report on the development of a model to handle unrestricted data in a DEA framework and illustrate the use of this model on data from the bank concerned.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

With the reformation of spectrum policy and the development of cognitive radio, secondary users will be allowed to access spectrums licensed to primary users. Spectrum auctions can facilitate this secondary spectrum access in a market-driven way. To design an efficient auction framework, we first study the supply and demand pressures and the competitive equilibrium of the secondary spectrum market, considering the spectrum reusability. In well-designed auctions, competition among participants should lead to the competitive equilibrium according to the traditional economic point of view. Then, a discriminatory price spectrum double auction framework is proposed for this market. In this framework, rational participants compete with each other by using bidding prices, and their profits are guaranteed to be non-negative. A near-optimal heuristic algorithm is also proposed to solve the auction clearing problem of the proposed framework efficiently. Experimental results verify the efficiency of the proposed auction clearing algorithm and demonstrate that competition among secondary users and primary users can lead to the competitive equilibrium during auction iterations using the proposed auction framework. Copyright © 2011 John Wiley & Sons, Ltd.