999 resultados para von neumann-morgenstern


Relevância:

80.00% 80.00%

Publicador:

Resumo:

Es mi intención centrar mis investigaciones en los próximos años en las álgebras de Lie tipo H. Es nuestro objetivo encontrar nuevas familias de álgebras regulares no de tipo H y verificar la existencia o no de irreducibles cumpliendo de estas propiedades. En particular es interesante plantear su cuantización, es decir encontrar estructuras de álgebras de Hopf que sean deformaciones del álgebra envolvente correspondiente al álgebra de Lie en estudio. En particular estudiaremos si existen cuantizaciones quasitriangulares lo que nos llevaría soluciones de la ecuación de Yang-Baxter cuántica. Hasta ahora hemos logrado la cuantización en ciertos casos particulares. Para comprender cómo deben ser hechas las cuantizaciones en forma más general es necesario realizar un estudio sistemático de las estructuras de la biálgebra de las álgebras de Lie de tipo H. En particular se tratarán de detectar estructuras de biálgebra quasitriangulares y por consiguientes soluciones de la ecuación de Yang-Baxter clásica. Es un resultado conocido que las funciones de theta se pueden expresar como coeficiente matricial de la representación de Stone-Von Neumann. De los teoremas de Stone-Von Neumann para álgebras de tipo H surgen entonces funciones que serían una generalización de las funciones theta; es nuestro objetivo encontrar propiedades de estas funciones que puedan ser de interés.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

The modern computer systems that are in use nowadays are mostly processor-dominant, which means that their memory is treated as a slave element that has one major task – to serve execution units data requirements. This organization is based on the classical Von Neumann's computer model, proposed seven decades ago in the 1950ties. This model suffers from a substantial processor-memory bottleneck, because of the huge disparity between the processor and memory working speeds. In order to solve this problem, in this paper we propose a novel architecture and organization of processors and computers that attempts to provide stronger match between the processing and memory elements in the system. The proposed model utilizes a memory-centric architecture, wherein the execution hardware is added to the memory code blocks, allowing them to perform instructions scheduling and execution, management of data requests and responses, and direct communication with the data memory blocks without using registers. This organization allows concurrent execution of all threads, processes or program segments that fit in the memory at a given time. Therefore, in this paper we describe several possibilities for organizing the proposed memory-centric system with multiple data and logicmemory merged blocks, by utilizing a high-speed interconnection switching network.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

We prove a double commutant theorem for hereditary subalgebras of a large class of C*-algebras, partially resolving a problem posed by Pedersen[8]. Double commutant theorems originated with von Neumann, whose seminal result evolved into an entire field now called von Neumann algebra theory. Voiculescu proved a C*-algebraic double commutant theorem for separable subalgebras of the Calkin algebra. We prove a similar result for hereditary subalgebras which holds for arbitrary corona C*-algebras. (It is not clear how generally Voiculescu's double commutant theorem holds.)

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Let A be a simple, separable C*-algebra of stable rank one. We prove that the Cuntz semigroup of C (T, A) is determined by its Murray-von Neumann semigroup of projections and a certain semigroup of lower semicontinuous functions (with values in the Cuntz semigroup of A). This result has two consequences. First, specializing to the case that A is simple, finite, separable and Z-stable, this yields a description of the Cuntz semigroup of C (T, A) in terms of the Elliott invariant of A. Second, suitably interpreted, it shows that the Elliott functor and the functor defined by the Cuntz semigroup of the tensor product with the algebra of continuous functions on the circle are naturally equivalent.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

En el presente trabajo, los a\~nos de vida ajustados por la calidad(AVAC), son caracterizados como funciones de utilidad von Newman--Morgenstern.Esta caracterizaci\'on se efect\'ua para dos problemas de elecci\'on: laelecci\'on entre loter{\'\i}as definidas sobre estados de salud cr\'onicosy la elecci\'on entre loter{\'\i}as definidas sobre estados de saludtemporales. En el primer caso, deducimos las mismas condiciones que Pliskinet al. (1980), s\'olo que siguiendo un camino m\'as directo. En el segundocaso, una vez establecida una condici\'on de independencia aditiva basadaen Fishburn (1970), inferimos una nueva condici\'on en la literatura sobreAVAC que denominamos \underline{condici\'on de simetr{\'\i}a}.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Se estudian en este trabajo algunas magnitudes relacionadas con el enfoque de la reproducción social. Ante todo se hace hincapié en tres ideas fundamentales, las nociones de: a) Salidas menos entradas; b) Salidas dividido por entradas; c) Subsistemas. A continuación se subrayan los obstáculos para la cuantificación directa de estos conceptos, y se repasan las vías sugeridas para sortear las dificultades (por medio de constructos teóricos propuestos por Leontief, von Neumann y Sraffa). Luego se examinan dos nuevos indicadores: la ¿tasaespecífica de excedente¿, que se refiere a los bienes autorreproducibles, y el ¿coeficiente neto de reproducción¿, que se predica de todos los bienes básicos. De pasada se apuntan algunas pistas para establecer indicadores del mismogénero en campos como la economía ecológica y la economía feminista. Por último, se anotan algunas conjeturas relacionadas con la dirección adecuada del cambio técnico

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Recently a new Bell inequality has been introduced by Collins et al. [Phys. Rev. Lett. 88, 040404 (2002)], which is strongly resistant to noise for maximally entangled states of two d-dimensional quantum systems. We prove that a larger violation, or equivalently a stronger resistance to noise, is found for a nonmaximally entangled state. It is shown that the resistance to noise is not a good measure of nonlocality and we introduce some other possible measures. The nonmaximally entangled state turns out to be more robust also for these alternative measures. From these results it follows that two von Neumann measurements per party may be not optimal for detecting nonlocality. For d=3,4, we point out some connections between this inequality and distillability. Indeed, we demonstrate that any state violating it, with the optimal von Neumann settings, is distillable.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

The questions studied in this thesis are centered around the moment operators of a quantum observable, the latter being represented by a normalized positive operator measure. The moment operators of an observable are physically relevant, in the sense that these operators give, as averages, the moments of the outcome statistics for the measurement of the observable. The main questions under consideration in this work arise from the fact that, unlike a projection valued observable of the von Neumann formulation, a general positive operator measure cannot be characterized by its first moment operator. The possibility of characterizing certain observables by also involving higher moment operators is investigated and utilized in three different cases: a characterization of projection valued measures among all the observables is given, a quantization scheme for unbounded classical variables using translation covariant phase space operator measures is presented, and, finally, a mathematically rigorous description is obtained for the measurements of rotated quadratures and phase space observables via the high amplitude limit in the balanced homodyne and eight-port homodyne detectors, respectively. In addition, the structure of the covariant phase space operator measures, which is essential for the above quantization, is analyzed in detail in the context of a (not necessarily unimodular) locally compact group as the phase space.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

In this article I deal with time as a notion of epistemological content associated though with the notion of a subjective consciousness co-constitutive of physical reality. In this phenomenologically grounded approach I attempt to establish a 'metaphysical' aspect of time, within a strictly epistemological context, in the sense of an underlying absolute subjectivity which is non-objectifiable within objective temporality and thus non-susceptible of any ontological designation. My arguments stem, on the one hand, from a version of quantum-mechanical theory (History Projection Operator theory, HPO theory) in view of its formal treatment of two different aspects of time within a quantum context. The discrete, partial-ordering properties (the notions of before and after) and the dynamical-parameter properties reflected in the wave equations of motion. On the other hand, to strengthen my arguments for a transcendental factor of temporality, I attempt an interpretation of some relevant conclusions in the work of J. Eccles ([5]) and of certain results of experimental research of S. Deahaene et al. ([2]) and others.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Dans ce mémoire, je démontre que la distribution de probabilités de l'état quantique Greenberger-Horne-Zeilinger (GHZ) sous l'action locale de mesures de von Neumann indépendantes sur chaque qubit suit une distribution qui est une combinaison convexe de deux distributions. Les coefficients de la combinaison sont reliés aux parties équatoriales des mesures et les distributions associées à ces coefficients sont reliées aux parties réelles des mesures. Une application possible du résultat est qu'il permet de scinder en deux la simulation de l'état GHZ. Simuler, en pire cas ou en moyenne, un état quantique comme GHZ avec des ressources aléatoires, partagées ou privées, et des ressources classiques de communication, ou même des ressources fantaisistes comme les boîtes non locales, est un problème important en complexité de la communication quantique. On peut penser à ce problème de simulation comme un problème où plusieurs personnes obtiennent chacune une mesure de von Neumann à appliquer sur le sous-système de l'état GHZ qu'il partage avec les autres personnes. Chaque personne ne connaît que les données décrivant sa mesure et d'aucune façon une personne ne connaît les données décrivant la mesure d'une autre personne. Chaque personne obtient un résultat aléatoire classique. La distribution conjointe de ces résultats aléatoires classiques suit la distribution de probabilités trouvée dans ce mémoire. Le but est de simuler classiquement la distribution de probabilités de l'état GHZ. Mon résultat indique une marche à suivre qui consiste d'abord à simuler les parties équatoriales des mesures pour pouvoir ensuite savoir laquelle des distributions associées aux parties réelles des mesures il faut simuler. D'autres chercheurs ont trouvé comment simuler les parties équatoriales des mesures de von Neumann avec de la communication classique dans le cas de 3 personnes, mais la simulation des parties réelles résiste encore et toujours.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Le théorème ergodique de Birkhoff nous renseigne sur la convergence de suites de fonctions. Nous nous intéressons alors à étudier la convergence en moyenne et presque partout de ces suites, mais dans le cas où la suite est une suite strictement croissante de nombres entiers positifs. C’est alors que nous définirons les suites uniformes et étudierons la convergence presque partout pour ces suites. Nous regarderons également s’il existe certaines suites pour lesquelles la convergence n’a pas lieu. Nous présenterons alors un résultat dû en partie à Alexandra Bellow qui dit que de telles suites existent. Finalement, nous démontrerons une équivalence entre la notion de transformatiuon fortement mélangeante et la convergence d'une certaine suite qui utilise des “poids” qui satisfont certaines propriétés.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La thèse est divisée principalement en deux parties. La première partie regroupe les chapitres 2 et 3. La deuxième partie regroupe les chapitres 4 et 5. La première partie concerne l'échantillonnage de distributions continues non uniformes garantissant un niveau fixe de précision. Knuth et Yao démontrèrent en 1976 comment échantillonner exactement n'importe quelle distribution discrète en n'ayant recours qu'à une source de bits non biaisés indépendants et identiquement distribués. La première partie de cette thèse généralise en quelque sorte la théorie de Knuth et Yao aux distributions continues non uniformes, une fois la précision fixée. Une borne inférieure ainsi que des bornes supérieures pour des algorithmes génériques comme l'inversion et la discrétisation figurent parmi les résultats de cette première partie. De plus, une nouvelle preuve simple du résultat principal de l'article original de Knuth et Yao figure parmi les résultats de cette thèse. La deuxième partie concerne la résolution d'un problème en théorie de la complexité de la communication, un problème qui naquit avec l'avènement de l'informatique quantique. Étant donné une distribution discrète paramétrée par un vecteur réel de dimension N et un réseau de N ordinateurs ayant accès à une source de bits non biaisés indépendants et identiquement distribués où chaque ordinateur possède un et un seul des N paramètres, un protocole distribué est établi afin d'échantillonner exactement ladite distribution.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

In [4], Guillard and Viozat propose a finite volume method for the simulation of inviscid steady as well as unsteady flows at low Mach numbers, based on a preconditioning technique. The scheme satisfies the results of a single scale asymptotic analysis in a discrete sense and comprises the advantage that this can be derived by a slight modification of the dissipation term within the numerical flux function. Unfortunately, it can be observed by numerical experiments that the preconditioned approach combined with an explicit time integration scheme turns out to be unstable if the time step Dt does not satisfy the requirement to be O(M2) as the Mach number M tends to zero, whereas the corresponding standard method remains stable up to Dt=O(M), M to 0, which results from the well-known CFL-condition. We present a comprehensive mathematical substantiation of this numerical phenomenon by means of a von Neumann stability analysis, which reveals that in contrast to the standard approach, the dissipation matrix of the preconditioned numerical flux function possesses an eigenvalue growing like M-2 as M tends to zero, thus causing the diminishment of the stability region of the explicit scheme. Thereby, we present statements for both the standard preconditioner used by Guillard and Viozat [4] and the more general one due to Turkel [21]. The theoretical results are after wards confirmed by numerical experiments.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

El desarrollo de modelos económicos lineales fue uno de los logros más signifi cativos en teoría económica en la Norteamérica de la posguerra. La programación lineal, desarrollada por George B. Dantzig (1947), los modelos de insumo producto de Wassily Leontief (1946) y la teoría de juegos de John. Von Neumann (1944) se constituyeron en tres ramas diferentes de la teoría económica lineal. Sus aplicaciones en variados campos del conocimiento, como la Economía y la Ciencia Política, y en actividades de gestión en la industria y en el gobierno son cada vez más signifi cativas. El objetivo principal de este trabajo es el de presentar un modelo práctico de los procesos de producción típicos de una fábrica o empresa que transforma insumos en productos. El modelo se desarrolla en el contexto y con los conceptos propios de la teoría de modelos económicos lineales, y el enfoque de la investigación de operaciones, también conocido como el de las ciencias de la administración.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

From the beginning, the world of game-playing by machine has been fortunate in attracting contributions from the leading names of computer science. Charles Babbage, Konrad Zuse, Claude Shannon, Alan Turing, John von Neumann, John McCarthy, Alan Newell, Herb Simon and Ken Thompson all come to mind, and each reader will wish to add to this list. Recently, the Journal has saluted both Claude Shannon and Herb Simon. Ken’s retirement from Lucent Technologies’ Bell Labs to the start-up Entrisphere is also a good moment for reflection.