8 resultados para EMPIRICAL DISTRIBUTION FUNCTION

em Universitat de Girona, Spain


Relevância:

100.00% 100.00%

Publicador:

Resumo:

The authors focus on one of the methods for connection acceptance control (CAC) in an ATM network: the convolution approach. With the aim of reducing the cost in terms of calculation and storage requirements, they propose the use of the multinomial distribution function. This permits direct computation of the associated probabilities of the instantaneous bandwidth requirements. This in turn makes possible a simple deconvolution process. Moreover, under certain conditions additional improvements may be achieved

Relevância:

90.00% 90.00%

Publicador:

Resumo:

The preceding two editions of CoDaWork included talks on the possible consideration of densities as infinite compositions: Egozcue and D´ıaz-Barrero (2003) extended the Euclidean structure of the simplex to a Hilbert space structure of the set of densities within a bounded interval, and van den Boogaart (2005) generalized this to the set of densities bounded by an arbitrary reference density. From the many variations of the Hilbert structures available, we work with three cases. For bounded variables, a basis derived from Legendre polynomials is used. For variables with a lower bound, we standardize them with respect to an exponential distribution and express their densities as coordinates in a basis derived from Laguerre polynomials. Finally, for unbounded variables, a normal distribution is used as reference, and coordinates are obtained with respect to a Hermite-polynomials-based basis. To get the coordinates, several approaches can be considered. A numerical accuracy problem occurs if one estimates the coordinates directly by using discretized scalar products. Thus we propose to use a weighted linear regression approach, where all k- order polynomials are used as predictand variables and weights are proportional to the reference density. Finally, for the case of 2-order Hermite polinomials (normal reference) and 1-order Laguerre polinomials (exponential), one can also derive the coordinates from their relationships to the classical mean and variance. Apart of these theoretical issues, this contribution focuses on the application of this theory to two main problems in sedimentary geology: the comparison of several grain size distributions, and the comparison among different rocks of the empirical distribution of a property measured on a batch of individual grains from the same rock or sediment, like their composition

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Observations in daily practice are sometimes registered as positive values larger then a given threshold α. The sample space is in this case the interval (α,+∞), α > 0, which can be structured as a real Euclidean space in different ways. This fact opens the door to alternative statistical models depending not only on the assumed distribution function, but also on the metric which is considered as appropriate, i.e. the way differences are measured, and thus variability

Relevância:

80.00% 80.00%

Publicador:

Resumo:

This paper focuses on one of the methods for bandwidth allocation in an ATM network: the convolution approach. The convolution approach permits an accurate study of the system load in statistical terms by accumulated calculations, since probabilistic results of the bandwidth allocation can be obtained. Nevertheless, the convolution approach has a high cost in terms of calculation and storage requirements. This aspect makes real-time calculations difficult, so many authors do not consider this approach. With the aim of reducing the cost we propose to use the multinomial distribution function: the enhanced convolution approach (ECA). This permits direct computation of the associated probabilities of the instantaneous bandwidth requirements and makes a simple deconvolution process possible. The ECA is used in connection acceptance control, and some results are presented

Relevância:

80.00% 80.00%

Publicador:

Resumo:

The characteristics of service independence and flexibility of ATM networks make the control problems of such networks very critical. One of the main challenges in ATM networks is to design traffic control mechanisms that enable both economically efficient use of the network resources and desired quality of service to higher layer applications. Window flow control mechanisms of traditional packet switched networks are not well suited to real time services, at the speeds envisaged for the future networks. In this work, the utilisation of the Probability of Congestion (PC) as a bandwidth decision parameter is presented. The validity of PC utilisation is compared with QOS parameters in buffer-less environments when only the cell loss ratio (CLR) parameter is relevant. The convolution algorithm is a good solution for CAC in ATM networks with small buffers. If the source characteristics are known, the actual CLR can be very well estimated. Furthermore, this estimation is always conservative, allowing the retention of the network performance guarantees. Several experiments have been carried out and investigated to explain the deviation between the proposed method and the simulation. Time parameters for burst length and different buffer sizes have been considered. Experiments to confine the limits of the burst length with respect to the buffer size conclude that a minimum buffer size is necessary to achieve adequate cell contention. Note that propagation delay is a no dismiss limit for long distance and interactive communications, then small buffer must be used in order to minimise delay. Under previous premises, the convolution approach is the most accurate method used in bandwidth allocation. This method gives enough accuracy in both homogeneous and heterogeneous networks. But, the convolution approach has a considerable computation cost and a high number of accumulated calculations. To overcome this drawbacks, a new method of evaluation is analysed: the Enhanced Convolution Approach (ECA). In ECA, traffic is grouped in classes of identical parameters. By using the multinomial distribution function instead of the formula-based convolution, a partial state corresponding to each class of traffic is obtained. Finally, the global state probabilities are evaluated by multi-convolution of the partial results. This method avoids accumulated calculations and saves storage requirements, specially in complex scenarios. Sorting is the dominant factor for the formula-based convolution, whereas cost evaluation is the dominant factor for the enhanced convolution. A set of cut-off mechanisms are introduced to reduce the complexity of the ECA evaluation. The ECA also computes the CLR for each j-class of traffic (CLRj), an expression for the CLRj evaluation is also presented. We can conclude that by combining the ECA method with cut-off mechanisms, utilisation of ECA in real-time CAC environments as a single level scheme is always possible.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The algebraic-geometric structure of the simplex, known as Aitchison geometry, is used to look at the Dirichlet family of distributions from a new perspective. A classical Dirichlet density function is expressed with respect to the Lebesgue measure on real space. We propose here to change this measure by the Aitchison measure on the simplex, and study some properties and characteristic measures of the resulting density

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A novel test of spatial independence of the distribution of crystals or phases in rocks based on compositional statistics is introduced. It improves and generalizes the common joins-count statistics known from map analysis in geographic information systems. Assigning phases independently to objects in RD is modelled by a single-trial multinomial random function Z(x), where the probabilities of phases add to one and are explicitly modelled as compositions in the K-part simplex SK. Thus, apparent inconsistencies of the tests based on the conventional joins{count statistics and their possibly contradictory interpretations are avoided. In practical applications we assume that the probabilities of phases do not depend on the location but are identical everywhere in the domain of de nition. Thus, the model involves the sum of r independent identical multinomial distributed 1-trial random variables which is an r-trial multinomial distributed random variable. The probabilities of the distribution of the r counts can be considered as a composition in the Q-part simplex SQ. They span the so called Hardy-Weinberg manifold H that is proved to be a K-1-affine subspace of SQ. This is a generalisation of the well-known Hardy-Weinberg law of genetics. If the assignment of phases accounts for some kind of spatial dependence, then the r-trial probabilities do not remain on H. This suggests the use of the Aitchison distance between observed probabilities to H to test dependence. Moreover, when there is a spatial uctuation of the multinomial probabilities, the observed r-trial probabilities move on H. This shift can be used as to check for these uctuations. A practical procedure and an algorithm to perform the test have been developed. Some cases applied to simulated and real data are presented. Key words: Spatial distribution of crystals in rocks, spatial distribution of phases, joins-count statistics, multinomial distribution, Hardy-Weinberg law, Hardy-Weinberg manifold, Aitchison geometry

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La tesi doctoral presentada té com a objectius principals l'estudi de les etapes fonamentals de desintegració i flotació en un procés de destintatge de papers vell de qualitats elevades per a poder millorar l'eficàcia d'aquestes etapes clau. Conté una revisió teòrica completa i molt actualitzada del procés de desintegració i flotació tant a nivell macroscòpic com microscòpic. La metodologia de treball en el laboratori, la posada a punt dels aparells, així com les anàlisis efectuades per a valorar la resposta del procés (anàlisi de blancor, anàlisi d'imatge i anàlisi de la concentració efectiva de tinta residual) estan descrites en el capítol de material i mètodes. La posada en marxa permet obtenir unes primeres conclusions respecte la necessitat de treballar amb una matèria primera homogènia i respecte la no significació de la temperatura de desintegració dins l'interval de treball permès al laboratori (20-50°C). L'anàlisi de les variables mecàniques de desintegració: consistència de desintegració (c), velocitat d'agitació en la desintegració (N) i temps de desintegració (t), permet de discernir que la consistència de desintegració és una variable fonamental. El valor de consistència igual al 10% marca el límit d'existència de les forces d'impacte mecànic en la suspensió fibrosa. A consistències superiors, les forces viscoses i d'acceleració dominen l'etapa de desintegració. Existeix una interacció entre la consistència i el temps de desintegració, optimitzant-se aquesta darrera variable en funció del valor de la consistència. La velocitat d'agitació és significativa només per a valors de consistència de desintegració inferiors al 10%. En aquests casos, incrementar el valor de N de 800 a 1400 rpm representa una disminució de 14 punts en el factor de destintabilitat. L'anàlisi de les variables químiques de desintegració: concentració de silicat sòdic (% Na2SiO3), peròxid d'hidrogen (% H2O2) i hidròxid sòdic (% Na2OH), proporciona resultats força significatius. El silicat sòdic presenta un efecte altament dispersant corroborat per les corbes de distribució dels diàmetres de partícula de tinta obtingudes mitjançant anàlisi d'imatges. L'hidròxid sòdic també presenta un efecte dispersant tot i que no és tant important com el del silicat sòdic. Aquests efectes dispersants són deguts principalment a l'increment de les repulsions electrostàtiques que aporten a la suspensió fibrosa aquests reactius químics fent disminuir l'eficàcia d'eliminació de l'etapa de flotació. El peròxid d'hidrogen utilitzat generalment com agent blanquejant, actua en aquests casos com a neutralitzador dels grups hidroxil provinents tant del silicat sòdic com de l'hidròxid sòdic, disminuint la repulsió electrostàtica dins la suspensió. Amb l'anàlisi de les variables hidrodinàmiques de flotació: consistència de flotació (c), velocitat d'agitació durant la flotació (N) i cabal d'aire aplicat (q), s'aconsegueix la seva optimització dins el rang de treball permès al laboratori. Valors elevats tant de la velocitat d'agitació com del cabal d'aire aplicat durant la flotació permeten eliminar majors quantitats de tinta. La consistència de flotació assoleix valors òptims depenent de les condicions de flux dins la cel·la de flotació. Les metodologies d'anàlisi emprades permeten obtenir diferents factors de destintabilitat. Entre aquests factors existeix una correlació important (determinada pels coeficients de correlació de Pearson) que permet assegurar la utilització de la blancor com a paràmetre fonamental en l'anàlisi del destintatge de papers vells, sempre i quan es complementi amb anàlisis d'imatge o bé amb anàlisi de la concentració efectiva de tinta residual. S'aconsegueixen expressions empíriques tipus exponencial que relacionen aquests factors de destintabilitat amb les variables experimentals. L' estudi de les cinètiques de flotació permet calcular les constants cinètiques (kBlancor, kERIC, kSupimp) en funció de les variables experimentals, obtenint un model empíric de flotació que relacionant-lo amb els paràmetres microscòpics que afecten realment l'eliminació de partícules de tinta, deriva en un model fonamental molt més difícil d'interpretar. Mitjançant l'estudi d'aquestes cinètiques separades per classes, també s'aconsegueix determinar que l'eficàcia d'eliminació de partícules de tinta és màxima si el seu diàmetre equivalent és superior a 50 μm. Les partícules amb diàmetres equivalents inferiors a 15 μm no són eliminades en les condicions de flotació analitzades. Es pot dir que és físicament impossible eliminar partícules de tinta de diàmetres molt diferents amb la mateixa eficiència i sota les mateixes condicions de treball. El rendiment del procés analitzat en funció de l'eliminació de sòlids per l'etapa de flotació no ha presentat relacions significatives amb cap de les variables experimentals analitzades. Únicament es pot concloure que addicionar quantitats elevades de silicat sòdic provoca una disminució tant de sòlids com de matèria inorgànica presents en les escumes de flotació.