999 resultados para Von Neumann


Relevância:

70.00% 70.00%

Publicador:

Resumo:

A dolgozat a klasszikusnak tekinthető Neumann-féle növekedési modell egy új alapra helyezését tartalmazza. Az eredeti Neumann-modellben expliciten vállalatok nem szerepelnek, csak technológiák vagy eljárások. A dolgozat egy olyan Neumann-típusú modellt vizsgál, amelyben az egyes technológiáknak vállalatokat feleltet meg, és azt vizsgálja, hogy ilyen feltételezés mellett egy ilyen gazdaságban léteznek-e olyan megoldások, amelyek mellett a vállalatok maximalizálják a nyereségüket. Ennek vizsgálata közben arra az eredményre juthatunk, hogy erre az esetre a klasszikus Neumann-modell által feltételezett nempozitív nyereséget felül kell vizsgálni, ami a klasszikus matematikai közgazdaságtan dualitáson alapuló alapfeltételezése. ______ The paper investigates a generalization of the classical growth model of John von Neumann. There are only technologies in model of von Neumann. The aim of the paper is to rename technologies as firms and it is analyzed whether there exist equilibrium prices and quantities for firms to maximize the total profit. The paper reexamines the classical assumption about the duality of prices, i.e. it is allowed a nonnegative profit of firms.

Relevância:

70.00% 70.00%

Publicador:

Resumo:

A szerző a tisztán elméleti célokra kifejlesztett Neumann-modellt és a gyakorlati alkalmazások céljára kifejlesztett Leontief-modellt veti össze. A Neumann-modell és a Leontief-modell éves termelési periódust feltételező, zárt, stacionárius változatának hasonló matematikai struktúrája azt a feltételezést sugallja, hogy az utóbbi a Neumann-modell sajátos eseteként értelmezhető. Az egyes modellek közgazdasági tartalmát és feltevéseit részletesen kibontva és egymással összevetve a szerző megmutatja, hogy a fenti következtetés félrevezető, két merőben különböző modellről van szó, nem lehet az egyikből a másikat levezetni. Az ikertermelés és technológiai választék lehetősége a Neumann-modell elengedhetetlen feltevése, az éves termelési periódus feltevése pedig kizárja folyam jellegű kibocsátások explicit figyelembevételét. Mindezek feltevések ugyanakkor idegenek a Leontief-modelltől. A két modell valójában egy általánosabb állomány–folyam jellegű zárt, stacionárius modell sajátos esete, méghozzá azok folyamváltozókra redukált alakja. _____ The paper compares the basic assumptions and methodology of the Von Neumann model, developed for purely abstract theoretical purposes, and those of the Leontief model, designed originally for practical applications. Study of the similar mathematical structures of the Von Neumann model and the closed, stationary Leontief model, with a unit length of production period, often leads to the false conclusion that the latter is just a simplified version of the former. It is argued that the economic assumptions of the two models are quite different, which makes such an assertion unfounded. Technical choice and joint production are indispensable features of the Von Neumann model, and the assumption of unitary length of production period excludes the possibility of taking service flows explicitly into account. All these features are completely alien to the Leontief model, however. It is shown that the two models are in fact special cases of a more general stock-flow stationary model, reduced to forms containing only flow variables.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

In a quantum critical chain, the scaling regime of the energy and momentum of the ground state and low-lying excitations are described by conformal field theory (CFT). The same holds true for the von Neumann and Renyi entropies of the ground state, which display a universal logarithmic behavior depending on the central charge. In this Letter we generalize this result to those excited states of the chain that correspond to primary fields in CFT. It is shown that the nth Renyi entropy is related to a 2n-point correlator of primary fields. We verify this statement for the critical XX and XXZ chains. This result uncovers a new link between quantum information theory and CFT.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

In this report, the application of a class of separated local field NMR experiments named dipolar chemical shift correlation (DIPSHIFT) for probing motions in the intermediate regime is discussed. Simple analytical procedures based on the Anderson-Weiss (AW) approximation are presented. In order to establish limits of validity of the AW based formulas, a comparison with spin dynamics simulations based on the solution of the stochastic Liouville-von-Neumann equation is presented. It is shown that at short evolution times (less than 30% of the rotor period), the AW based formulas are suitable for fitting the DIPSHIFT curves and extracting kinetic parameters even in the case of jumplike motions. However, full spin dynamics simulations provide a more reliable treatment and extend the frequency range of the molecular motions accessible by DIPSHIFT experiments. As an experimental test, molecular jumps of imidazol methyl sulfonate and trimethylsulfoxonium iodide, as well as the side-chain motions in the photoluminescent polymer poly[2-methoxy-5-(2(')-ethylhexyloxy)-1,4-phenylenevinylene], were characterized. Possible extensions are also discussed. (c) 2008 American Institute of Physics.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

In 1966 the Brazilian physicist Klaus Tausk (b. 1927) circulated a preprint from the International Centre for Theoretical Physics in Trieste, Italy, criticizing Adriana Daneri, Angelo Loinger, and Giovanni Maria Prosperi`s theory of 1962 on the measurement problem in quantum mechanics. A heated controversy ensued between two opposing camps within the orthodox interpretation of quantum theory, represented by Leon Rosenfeld and Eugene P. Wigner. The controversy went well beyond the strictly scientific issues, however, reflecting philosophical and political commitments within the context of the Cold War, the relationship between science in developed and Third World countries, the importance of social skills, and personal idiosyncrasies.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

A remarkable feature of quantum entanglement is that an entangled state of two parties, Alice (A) and Bob (B), may be more disordered locally than globally. That is, S(A) > S(A, B), where S() is the von Neumann entropy. It is known that satisfaction of this inequality implies that a state is nonseparable. In this paper we prove the stronger result that for separable states the vector of eigenvalues of the density matrix of system AB is majorized by the vector of eigenvalues of the density matrix of system A alone. This gives a strong sense in which a separable state is more disordered globally than locally and a new necessary condition for separability of bipartite states in arbitrary dimensions.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

The phase behaviour of a number of N-alkylimidazolium salts was studied using polarizing optical microscopy, differential scanning calorimetry and X-ray diffraction. Two of these compounds exhibit lamellar mesophases at temperatures above 50 degrees C. In these systems, the liquid crystalline behaviour may be induced at room temperature by shear. Sheared films of these materials, observed between crossed polarisers, have a morphology that is typical of (wet) liquid foams: they partition into dark domains separated by brighter (birefringent) walls, which are approximately arcs of circle and meet at "Plateau borders" with three or more sides. Where walls meet three at a time, they do so at approximately 120 degrees angles. These patterns coarsen with time and both T1 and T2 processes have been observed, as in foams. The time evolution of domains is also consistent with von Neumann's law. We conjecture that the bright walls are regions of high concentration of defects produced by shear, and that the system is dominated by the interfacial tension between these walls and the uniform domains. The control of self-organised monodomains, as observed in these systems, is expected to play an important role in potential applications.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Philosophical Magazine Letters Volume 88, Issue 9-10, 2008 Special Issue: Solid and Liquid Foams. In commemoration of Manuel Amaral Fortes

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Face à estagnação da tecnologia uniprocessador registada na passada década, aos principais fabricantes de microprocessadores encontraram na tecnologia multi-core a resposta `as crescentes necessidades de processamento do mercado. Durante anos, os desenvolvedores de software viram as suas aplicações acompanhar os ganhos de performance conferidos por cada nova geração de processadores sequenciais, mas `a medida que a capacidade de processamento escala em função do número de processadores, a computação sequencial tem de ser decomposta em várias partes concorrentes que possam executar em paralelo, para que possam utilizar as unidades de processamento adicionais e completar mais rapidamente. A programação paralela implica um paradigma completamente distinto da programação sequencial. Ao contrário dos computadores sequenciais tipificados no modelo de Von Neumann, a heterogeneidade de arquiteturas paralelas requer modelos de programação paralela que abstraiam os programadores dos detalhes da arquitectura e simplifiquem o desenvolvimento de aplicações concorrentes. Os modelos de programação paralela mais populares incitam os programadores a identificar instruções concorrentes na sua lógica de programação, e a especificá-las sob a forma de tarefas que possam ser atribuídas a processadores distintos para executarem em simultâneo. Estas tarefas são tipicamente lançadas durante a execução, e atribuídas aos processadores pelo motor de execução subjacente. Como os requisitos de processamento costumam ser variáveis, e não são conhecidos a priori, o mapeamento de tarefas para processadores tem de ser determinado dinamicamente, em resposta a alterações imprevisíveis dos requisitos de execução. `A medida que o volume da computação cresce, torna-se cada vez menos viável garantir as suas restrições temporais em plataformas uniprocessador. Enquanto os sistemas de tempo real se começam a adaptar ao paradigma de computação paralela, há uma crescente aposta em integrar execuções de tempo real com aplicações interativas no mesmo hardware, num mundo em que a tecnologia se torna cada vez mais pequena, leve, ubíqua, e portável. Esta integração requer soluções de escalonamento que simultaneamente garantam os requisitos temporais das tarefas de tempo real e mantenham um nível aceitável de QoS para as restantes execuções. Para tal, torna-se imperativo que as aplicações de tempo real paralelizem, de forma a minimizar os seus tempos de resposta e maximizar a utilização dos recursos de processamento. Isto introduz uma nova dimensão ao problema do escalonamento, que tem de responder de forma correcta a novos requisitos de execução imprevisíveis e rapidamente conjeturar o mapeamento de tarefas que melhor beneficie os critérios de performance do sistema. A técnica de escalonamento baseado em servidores permite reservar uma fração da capacidade de processamento para a execução de tarefas de tempo real, e assegurar que os efeitos de latência na sua execução não afectam as reservas estipuladas para outras execuções. No caso de tarefas escalonadas pelo tempo de execução máximo, ou tarefas com tempos de execução variáveis, torna-se provável que a largura de banda estipulada não seja consumida por completo. Para melhorar a utilização do sistema, os algoritmos de partilha de largura de banda (capacity-sharing) doam a capacidade não utilizada para a execução de outras tarefas, mantendo as garantias de isolamento entre servidores. Com eficiência comprovada em termos de espaço, tempo, e comunicação, o mecanismo de work-stealing tem vindo a ganhar popularidade como metodologia para o escalonamento de tarefas com paralelismo dinâmico e irregular. O algoritmo p-CSWS combina escalonamento baseado em servidores com capacity-sharing e work-stealing para cobrir as necessidades de escalonamento dos sistemas abertos de tempo real. Enquanto o escalonamento em servidores permite partilhar os recursos de processamento sem interferências a nível dos atrasos, uma nova política de work-stealing que opera sobre o mecanismo de capacity-sharing aplica uma exploração de paralelismo que melhora os tempos de resposta das aplicações e melhora a utilização do sistema. Esta tese propõe uma implementação do algoritmo p-CSWS para o Linux. Em concordância com a estrutura modular do escalonador do Linux, ´e definida uma nova classe de escalonamento que visa avaliar a aplicabilidade da heurística p-CSWS em circunstâncias reais. Ultrapassados os obstáculos intrínsecos `a programação da kernel do Linux, os extensos testes experimentais provam que o p-CSWS ´e mais do que um conceito teórico atrativo, e que a exploração heurística de paralelismo proposta pelo algoritmo beneficia os tempos de resposta das aplicações de tempo real, bem como a performance e eficiência da plataforma multiprocessador.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

In this paper, we characterize the existence and give an expression of the group inverse of a product of two regular elements by means of a ring unit.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

In this paper, we introduce a new notion in a semigroup $S$ as an extension of Mary's inverse. Let $a,d\in S$. An element $a$ is called left (resp. right) invertible along $d$ if there exists $b\in S$ such that $bad=d$ (resp. $dab=b$) and $b\leq_\mathcal{L}d$ (resp. $b\leq_\mathcal{R}d$). An existence criterion of this type inverse is derived. Moreover, several characterizations of left (right) regularity, left (right) $\pi$-regularity and left (right) $*$-regularity are given in a semigroup. Further, another existence criterion of this type inverse is given by means of a left (right) invertibility of certain elements in a ring. Finally we study the (left, right) inverse along a product in a ring, and, as an application, Mary's inverse along a matrix is expressed.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

In this paper, we study the recently defined notion of the inverse along an element. An existence criterion for the inverse along a product is given in a ring. As applications, we present the equivalent conditions for the existence and expressions of the inverse along a matrix.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Este proyecto cuenta con 7 subproyectos.Subproyecto: Restricciones de representaciones de cuadrado integrable.Se continuará trabajando en el problema de restringir representaciones de cuadrado integrable en un grupo de Lie a un subgrupo semisimple o la factor unipotente de un subgrupo parabólico. En particular, se continuará analizando el caso de restringir desde el grupo SO(2n,1) al subgrupo SO(2) x SO(2n-2,1) y al factor unipotente del parabólico minimal de un grupo de Lie clásico de rango uno. Subproyecto: Representación metapléctica y grupos de Heisenberg generalizados. Se estudia la restricción de la representación metapléctica a subgrupos del grupo metapléctico. Subproyecto: Álgebras de tipo H. Se estudiarán estructuras de biálgebra en las álgebras de tipo H, álgebras de Lie nilpotentes de dos etapas. Se continuará con el estudio de cuantizaciones de álgebras de tipo H. Se estudiarán propiedades geométricas de las funciones theta generalizadas que surgen de álgebras de tipo H. Subproyecto: Módulos de peso máximo. Se intenta dar una respuesta al problema de clasificación de módulos quasifinitos de peso máximo sobre ciertas álgebras de dimensión infinita. Subproyecto: Cuantización de las álgebras de tipo H. Se tratará de cuantizar las álgebras de tipo H, álgebras de Lie nilpotentes de dos etapas. Se trabajará con una definición más general de las álgebras de Heisenberg, tratando de encontrar teoremas tipo Stone-Von Neumann y generalizaciones de las funciones theta. Subproyecto: Continuación analítica de integrales de coeficientes matriciales. Se analiza la existencia de continuación holomorfa de la integral a lo largo de un grupo semisimple real de las potencias complejas de un coeficiente matricial de una representación irreducible admisible. Subproyecto: Cálculo explícito de soluciones fundamentales de operadores invariantes. Se analizan condiciones en el polinomio que define un operador diferencial k-invariante para que resulte hipoellítico. Se trata en particular el caso del grupo SO(n,1). Subproyecto 7: Generadores de Goldie. Se trata de encontrar algoritmos para el cálculo de generadores de Goldie.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Es mi intención centrar mis investigaciones en los próximos años en las álgebras de Lie tipo H. Es nuestro objetivo encontrar nuevas familias de álgebras regulares no de tipo H y verificar la existencia o no de irreducibles cumpliendo de estas propiedades. En particular es interesante plantear su cuantización, es decir encontrar estructuras de álgebras de Hopf que sean deformaciones del álgebra envolvente correspondiente al álgebra de Lie en estudio. En particular estudiaremos si existen cuantizaciones quasitriangulares lo que nos llevaría soluciones de la ecuación de Yang-Baxter cuántica. Hasta ahora hemos logrado la cuantización en ciertos casos particulares. Para comprender cómo deben ser hechas las cuantizaciones en forma más general es necesario realizar un estudio sistemático de las estructuras de la biálgebra de las álgebras de Lie de tipo H. En particular se tratarán de detectar estructuras de biálgebra quasitriangulares y por consiguientes soluciones de la ecuación de Yang-Baxter clásica. Es un resultado conocido que las funciones de theta se pueden expresar como coeficiente matricial de la representación de Stone-Von Neumann. De los teoremas de Stone-Von Neumann para álgebras de tipo H surgen entonces funciones que serían una generalización de las funciones theta; es nuestro objetivo encontrar propiedades de estas funciones que puedan ser de interés.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

The modern computer systems that are in use nowadays are mostly processor-dominant, which means that their memory is treated as a slave element that has one major task – to serve execution units data requirements. This organization is based on the classical Von Neumann's computer model, proposed seven decades ago in the 1950ties. This model suffers from a substantial processor-memory bottleneck, because of the huge disparity between the processor and memory working speeds. In order to solve this problem, in this paper we propose a novel architecture and organization of processors and computers that attempts to provide stronger match between the processing and memory elements in the system. The proposed model utilizes a memory-centric architecture, wherein the execution hardware is added to the memory code blocks, allowing them to perform instructions scheduling and execution, management of data requests and responses, and direct communication with the data memory blocks without using registers. This organization allows concurrent execution of all threads, processes or program segments that fit in the memory at a given time. Therefore, in this paper we describe several possibilities for organizing the proposed memory-centric system with multiple data and logicmemory merged blocks, by utilizing a high-speed interconnection switching network.