982 resultados para Gamma Distribution


Relevância:

60.00% 60.00%

Publicador:

Resumo:

We address the problem of denoising images corrupted by multiplicative noise. The noise is assumed to follow a Gamma distribution. Compared with additive noise distortion, the effect of multiplicative noise on the visual quality of images is quite severe. We consider the mean-square error (MSE) cost function and derive an expression for an unbiased estimate of the MSE. The resulting multiplicative noise unbiased risk estimator is referred to as MURE. The denoising operation is performed in the wavelet domain by considering the image-domain MURE. The parameters of the denoising function (typically, a shrinkage of wavelet coefficients) are optimized for by minimizing MURE. We show that MURE is accurate and close to the oracle MSE. This makes MURE-based image denoising reliable and on par with oracle-MSE-based estimates. Analogous to the other popular risk estimation approaches developed for additive, Poisson, and chi-squared noise degradations, the proposed approach does not assume any prior on the underlying noise-free image. We report denoising results for various noise levels and show that the quality of denoising obtained is on par with the oracle result and better than that obtained using some state-of-the-art denoisers.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Stock-rebuilding time isopleths relate constant levels of fishing mortality (F), stock biomass, and management goals to rebuilding times for overfished stocks. We used simulation models with uncertainty about FMSY and variability in annual intrinsic growth rates (ry) to calculate rebuilding time isopleths for Georges Bank yellowtail flounder, Limanda ferruginea, and cowcod rockfish, Sebastes levis, in the Southern California Bight. Stock-rebuilding time distributions from stochastic models were variable and right-skewed, indicating that rebuilding may take less or substantially more time than expected. The probability of long rebuilding times increased with lower biomass, higher F, uncertainty about FMSY, and autocorrelation in ry values. Uncertainty about FMSY had the greatest effect on rebuilding times. Median recovery times from simulations were insensitive to model assumptions about uncertainty and variability, suggesting that median recovery times should be considered in rebuilding plans. Isopleths calculated in previous studies by deterministic models approximate median, rather than mean, rebuilding times. Stochastic models allow managers to specify and evaluate the risk (measured as a probability) of not achieving a rebuilding goal according to schedule. Rebuilding time isopleths can be used for stocks with a range of life histories and can be based on any type of population dynamics model. They are directly applicable with constant F rebuilding plans but are also useful in other cases. We used new algorithms for simulating autocorrelated process errors from a gamma distribution and evaluated sensitivity to statistical distributions assumed for ry. Uncertainty about current biomass and fishing mortality rates can be considered with rebuilding time isopleths in evaluating and designing constant-F rebuilding plans.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

High speed photographic images of jets formed from dilute solutions of polystyrene in diethyl phthalate ejected from a piezoelectric drop-on-demand inkjet head have been analyzed in order to study the formation and distribution of drops as the ligament collapses. Particular attention has been paid to satellite drops, and their relative separation and sizes. The effect of polymer concentration was investigated. The distribution of nearest-neighbour centre spacing between the drops formed from the ligament is better described by a 2-parameter modified gamma distribution than by a Gaussian distribution. There are (at least) two different populations of satellite size relative to the main drop size formed at normal jetting velocities, with ratios of about three between the diameters of the main drop and the successive satellite sizes. The distribution of the differences in drop size between neighbouring drops is close to Gaussian, with a small non-zero mean for low polymer concentrations, which is associated with the conical shape of the ligament prior to its collapse and the formation of satellites. Higher polymer concentrations result in slower jets for the same driving impulse, and also a tendency to form ligaments with a near-constant width. Under these conditions the mean of the distribution of differences in nearest-neighbour drop size was zero.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Mitochondria experience continuous fusion and fission in a living cell, but their dynamics remains poorly quantified. Here a theoretical model was developed, upon a simplified population balance equation (PBE), to predict the morphological changes induced by mitochondrial fission and fusion. Assuming that both fission and fusion events are statistically independent, the survival probability of mitochondria staying in the fission or fusion state was formulated as an exponentially-decayed function with time, which depended on the time-dependent distribution of the mitochondrial volume and the fission and fusion rates. Parametric analysis was done for two typical volume distributions. One was Gamma distribution and the other was Gaussian distribution, derived from the measurements of volume distribution for individual mitochondria in a living cell and purified mitochondria in vitro. The predictions indicated that the survival probability strongly depended on morphological changes of individual mitochondria and was inversely correlated to the fission and fusion rates. This work provided a new insight into quantifying the mitochondrial dynamics via monitoring the evolution of the mitochondrial volume.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Under natural viewing conditions, a single depthful percept of the world is consciously seen. When dissimilar images are presented to corresponding regions of the two eyes, binocular rivalyr may occur, during which the brain consciously perceives alternating percepts through time. How do the same brain mechanisms that generate a single depthful percept of the world also cause perceptual bistability, notably binocular rivalry? What properties of brain representations correspond to consciously seen percepts? A laminar cortical model of how cortical areas V1, V2, and V4 generate depthful percepts is developed to explain and quantitatively simulate binocualr rivalry data. The model proposes how mechanisms of cortical developement, perceptual grouping, and figure-ground perception lead to signle and rivalrous percepts. Quantitative model simulations include influences of contrast changes that are synchronized with switches in the dominant eye percept, gamma distribution of dominant phase durations, piecemeal percepts, and coexistence of eye-based and stimulus-based rivalry. The model also quantitatively explains data about multiple brain regions involved in rivalry, effects of object attention on switching between superimposed transparent surfaces, and monocular rivalry. These data explanations are linked to brain mechanisms that assure non-rivalrous conscious percepts. To our knowledge, no existing model can explain all of these phenomena.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

We present a novel method for the light-curve characterization of Pan-STARRS1 Medium Deep Survey (PS1 MDS) extragalactic sources into stochastic variables (SVs) and burst-like (BL) transients, using multi-band image-differencing time-series data. We select detections in difference images associated with galaxy hosts using a star/galaxy catalog extracted from the deep PS1 MDS stacked images, and adopt a maximum a posteriori formulation to model their difference-flux time-series in four Pan-STARRS1 photometric bands gP1, rP1, iP1, and zP1. We use three deterministic light-curve models to fit BL transients; a Gaussian, a Gamma distribution, and an analytic supernova (SN) model, and one stochastic light-curve model, the Ornstein-Uhlenbeck process, in order to fit variability that is characteristic of active galactic nuclei (AGNs). We assess the quality of fit of the models band-wise and source-wise, using their estimated leave-out-one cross-validation likelihoods and corrected Akaike information criteria. We then apply a K-means clustering algorithm on these statistics, to determine the source classification in each band. The final source classification is derived as a combination of the individual filter classifications, resulting in two measures of classification quality, from the averages across the photometric filters of (1) the classifications determined from the closest K-means cluster centers, and (2) the square distances from the clustering centers in the K-means clustering spaces. For a verification set of AGNs and SNe, we show that SV and BL occupy distinct regions in the plane constituted by these measures. We use our clustering method to characterize 4361 extragalactic image difference detected sources, in the first 2.5 yr of the PS1 MDS, into 1529 BL, and 2262 SV, with a purity of 95.00% for AGNs, and 90.97% for SN based on our verification sets. We combine our light-curve classifications with their nuclear or off-nuclear host galaxy offsets, to define a robust photometric sample of 1233 AGNs and 812 SNe. With these two samples, we characterize their variability and host galaxy properties, and identify simple photometric priors that would enable their real-time identification in future wide-field synoptic surveys.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)

Relevância:

60.00% 60.00%

Publicador:

Resumo:

L’Organisation mondiale de la Santé recommande aux individus de limiter leur consommation d’aliments sucrés dans le but de prévenir le développement des maladies chroniques. En santé publique, peu de recherches ont tenté d’identifier les facteurs individuels et contextuels qui peuvent influencer conjointement la consommation de ces aliments. Or, de telles connaissances seraient utiles pour guider les interventions nutritionnelles visant à en réduire la consommation. L’objectif de cette thèse est d'étudier les facteurs reliés au comportement et les contextes associés à la consommation quotidienne d’aliments sucrés chez des adultes vivant dans un milieu urbain occidental. Cette étude a été menée auprès d'une communauté moyen-orientale établie dans la Ville de Montréal. Les aliments sucrés ont été définis comme étant les glucides raffinés dont la teneur en sucres totaux dépasse 20 % de l’énergie totale. Lors de l’étape exploratoire (N = 42), un rappel de 24 heures a permis d’identifier les sources d’aliments sucrés et de déterminer l’apport quotidien en sucres totaux de cette communauté. Une étude qualitative descriptive a été privilégiée et un cadre écologique a guidé la réalisation d’entrevues semi-dirigées sur les contextes de consommation (N = 42). Une analyse de contenu employant des procédures de codage initial et focus a mené à l’élaboration d’un instrument de mesure quantitatif sur les contextes de consommation. Cet instrument a été soumis à un pré-test (N = 20), puis administré à l’échantillon principal (N = 192). Une analyse factorielle exploratoire a permis de préciser les contextes de consommation. Les facteurs individuels mesurés incluent les données sociodémographiques, les symptômes dépressifs, la maîtrise de soi, l’assoupissement de jour, les perceptions ainsi que l’hémoglobine glycosylée. La consommation quotidienne de sucres totaux a été mesurée par un questionnaire de fréquence alimentaire (N = 192). Une analyse de régression multivariée employant le modèle linéaire généralisé (distribution de type gamma et lien logarithmique) a été effectuée pour mesurer les relations entre les contextes de consommation, les facteurs individuels et la consommation de sucres totaux, en contrôlant l’âge et le sexe. L’apport quotidien en sucres totaux de l'échantillon est de 20,3 %, ce qui s’apparente aux apports des Canadiens et des Québécois. La consommation quotidienne moyenne est de 76 g/j. Les analyses qualitative et factorielle ont permis d’identifier un ensemble de 42 contextes de consommation regroupés en sept domaines (Actes et situations de grignotage, Stimuli visuels, Besoins énergétiques, Besoins émotionnels, Indulgence, Contraintes, Socialisation). La consommation quotidienne de sucres totaux est supérieure chez les hommes (B = 0,204, ES = 0,094, p = 0,03). Les facteurs positivement associés à la consommation sont le grignotage (B = 0,225, ES = 0,091, p = 0,01), la prise de dessert (B = 0,105, ES = 0,036, p = 0,001) ainsi que les symptômes dépressifs (B = 0,017, ES = 0,094, p = 0,03). L’âge (B = -0,01, ES = 0,004, p = 0,02), l’indulgence (B = -0,103, ES = 0,052, p = 0,05) et l’auto-modération (B = -0,121, ES = 0,042, p = 0,001) montrent, pour leur part, une association négative. Cette étude a privilégié une méthodologie mixte et a permis de développer une mesure innovatrice pour étudier les facteurs contextuels associés à la consommation d’aliments sucrés. Ceux-ci ont été analysés conjointement avec les facteurs individuels. Afin d'encourager les individus à réduire leur consommation de sucres totaux lorsque nécessaire, les initiatives en santé publique devraient en effet cibler les contextes de consommation de même que les facteurs individuels.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Les titres financiers sont souvent modélisés par des équations différentielles stochastiques (ÉDS). Ces équations peuvent décrire le comportement de l'actif, et aussi parfois certains paramètres du modèle. Par exemple, le modèle de Heston (1993), qui s'inscrit dans la catégorie des modèles à volatilité stochastique, décrit le comportement de l'actif et de la variance de ce dernier. Le modèle de Heston est très intéressant puisqu'il admet des formules semi-analytiques pour certains produits dérivés, ainsi qu'un certain réalisme. Cependant, la plupart des algorithmes de simulation pour ce modèle font face à quelques problèmes lorsque la condition de Feller (1951) n'est pas respectée. Dans ce mémoire, nous introduisons trois nouveaux algorithmes de simulation pour le modèle de Heston. Ces nouveaux algorithmes visent à accélérer le célèbre algorithme de Broadie et Kaya (2006); pour ce faire, nous utiliserons, entre autres, des méthodes de Monte Carlo par chaînes de Markov (MCMC) et des approximations. Dans le premier algorithme, nous modifions la seconde étape de la méthode de Broadie et Kaya afin de l'accélérer. Alors, au lieu d'utiliser la méthode de Newton du second ordre et l'approche d'inversion, nous utilisons l'algorithme de Metropolis-Hastings (voir Hastings (1970)). Le second algorithme est une amélioration du premier. Au lieu d'utiliser la vraie densité de la variance intégrée, nous utilisons l'approximation de Smith (2007). Cette amélioration diminue la dimension de l'équation caractéristique et accélère l'algorithme. Notre dernier algorithme n'est pas basé sur une méthode MCMC. Cependant, nous essayons toujours d'accélérer la seconde étape de la méthode de Broadie et Kaya (2006). Afin de réussir ceci, nous utilisons une variable aléatoire gamma dont les moments sont appariés à la vraie variable aléatoire de la variance intégrée par rapport au temps. Selon Stewart et al. (2007), il est possible d'approximer une convolution de variables aléatoires gamma (qui ressemble beaucoup à la représentation donnée par Glasserman et Kim (2008) si le pas de temps est petit) par une simple variable aléatoire gamma.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

L'objectif du présent mémoire vise à présenter des modèles de séries chronologiques multivariés impliquant des vecteurs aléatoires dont chaque composante est non-négative. Nous considérons les modèles vMEM (modèles vectoriels et multiplicatifs avec erreurs non-négatives) présentés par Cipollini, Engle et Gallo (2006) et Cipollini et Gallo (2010). Ces modèles représentent une généralisation au cas multivarié des modèles MEM introduits par Engle (2002). Ces modèles trouvent notamment des applications avec les séries chronologiques financières. Les modèles vMEM permettent de modéliser des séries chronologiques impliquant des volumes d'actif, des durées, des variances conditionnelles, pour ne citer que ces applications. Il est également possible de faire une modélisation conjointe et d'étudier les dynamiques présentes entre les séries chronologiques formant le système étudié. Afin de modéliser des séries chronologiques multivariées à composantes non-négatives, plusieurs spécifications du terme d'erreur vectoriel ont été proposées dans la littérature. Une première approche consiste à considérer l'utilisation de vecteurs aléatoires dont la distribution du terme d'erreur est telle que chaque composante est non-négative. Cependant, trouver une distribution multivariée suffisamment souple définie sur le support positif est plutôt difficile, au moins avec les applications citées précédemment. Comme indiqué par Cipollini, Engle et Gallo (2006), un candidat possible est une distribution gamma multivariée, qui impose cependant des restrictions sévères sur les corrélations contemporaines entre les variables. Compte tenu que les possibilités sont limitées, une approche possible est d'utiliser la théorie des copules. Ainsi, selon cette approche, des distributions marginales (ou marges) peuvent être spécifiées, dont les distributions en cause ont des supports non-négatifs, et une fonction de copule permet de tenir compte de la dépendance entre les composantes. Une technique d'estimation possible est la méthode du maximum de vraisemblance. Une approche alternative est la méthode des moments généralisés (GMM). Cette dernière méthode présente l'avantage d'être semi-paramétrique dans le sens que contrairement à l'approche imposant une loi multivariée, il n'est pas nécessaire de spécifier une distribution multivariée pour le terme d'erreur. De manière générale, l'estimation des modèles vMEM est compliquée. Les algorithmes existants doivent tenir compte du grand nombre de paramètres et de la nature élaborée de la fonction de vraisemblance. Dans le cas de l'estimation par la méthode GMM, le système à résoudre nécessite également l'utilisation de solveurs pour systèmes non-linéaires. Dans ce mémoire, beaucoup d'énergies ont été consacrées à l'élaboration de code informatique (dans le langage R) pour estimer les différents paramètres du modèle. Dans le premier chapitre, nous définissons les processus stationnaires, les processus autorégressifs, les processus autorégressifs conditionnellement hétéroscédastiques (ARCH) et les processus ARCH généralisés (GARCH). Nous présentons aussi les modèles de durées ACD et les modèles MEM. Dans le deuxième chapitre, nous présentons la théorie des copules nécessaire pour notre travail, dans le cadre des modèles vectoriels et multiplicatifs avec erreurs non-négatives vMEM. Nous discutons également des méthodes possibles d'estimation. Dans le troisième chapitre, nous discutons les résultats des simulations pour plusieurs méthodes d'estimation. Dans le dernier chapitre, des applications sur des séries financières sont présentées. Le code R est fourni dans une annexe. Une conclusion complète ce mémoire.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

The present study on the characterization of probability distributions using the residual entropy function. The concept of entropy is extensively used in literature as a quantitative measure of uncertainty associated with a random phenomenon. The commonly used life time models in reliability Theory are exponential distribution, Pareto distribution, Beta distribution, Weibull distribution and gamma distribution. Several characterization theorems are obtained for the above models using reliability concepts such as failure rate, mean residual life function, vitality function, variance residual life function etc. Most of the works on characterization of distributions in the reliability context centers around the failure rate or the residual life function. The important aspect of interest in the study of entropy is that of locating distributions for which the shannon’s entropy is maximum subject to certain restrictions on the underlying random variable. The geometric vitality function and examine its properties. It is established that the geometric vitality function determines the distribution uniquely. The problem of averaging the residual entropy function is examined, and also the truncated form version of entropies of higher order are defined. In this study it is established that the residual entropy function determines the distribution uniquely and that the constancy of the same is characteristics to the geometric distribution

Relevância:

60.00% 60.00%

Publicador:

Resumo:

When variables in time series context are non-negative, such as for volatility, survival time or wave heights, a multiplicative autoregressive model of the type Xt = Xα t−1Vt , 0 ≤ α < 1, t = 1, 2, . . . may give the preferred dependent structure. In this paper, we study the properties of such models and propose methods for parameter estimation. Explicit solutions of the model are obtained in the case of gamma marginal distribution

Relevância:

60.00% 60.00%

Publicador:

Resumo:

The present work is intended to discuss various properties and reliability aspects of higher order equilibrium distributions in continuous, discrete and multivariate cases, which contribute to the study on equilibrium distributions. At first, we have to study and consolidate the existing literature on equilibrium distributions. For this we need some basic concepts in reliability. These are being discussed in the 2nd chapter, In Chapter 3, some identities connecting the failure rate functions and moments of residual life of the univariate, non-negative continuous equilibrium distributions of higher order and that of the baseline distribution are derived. These identities are then used to characterize the generalized Pareto model, mixture of exponentials and gamma distribution. An approach using the characteristic functions is also discussed with illustrations. Moreover, characterizations of ageing classes using stochastic orders has been discussed. Part of the results of this chapter has been reported in Nair and Preeth (2009). Various properties of equilibrium distributions of non-negative discrete univariate random variables are discussed in Chapter 4. Then some characterizations of the geo- metric, Waring and negative hyper-geometric distributions are presented. Moreover, the ageing properties of the original distribution and nth order equilibrium distribu- tions are compared. Part of the results of this chapter have been reported in Nair, Sankaran and Preeth (2012). Chapter 5 is a continuation of Chapter 4. Here, several conditions, in terms of stochastic orders connecting the baseline and its equilibrium distributions are derived. These conditions can be used to rede_ne certain ageing notions. Then equilibrium distributions of two random variables are compared in terms of various stochastic orders that have implications in reliability applications. In Chapter 6, we make two approaches to de_ne multivariate equilibrium distribu- tions of order n. Then various properties including characterizations of higher order equilibrium distributions are presented. Part of the results of this chapter have been reported in Nair and Preeth (2008). The Thesis is concluded in Chapter 7. A discussion on further studies on equilib- rium distributions is also made in this chapter.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Exercises and solutions in PDF

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Exercises and solutions in LaTex