965 resultados para Maximum-entropy probability density
Resumo:
La texture est un élément clé pour l’interprétation des images de télédétection à fine résolution spatiale. L’intégration de l’information texturale dans un processus de classification automatisée des images se fait habituellement via des images de texture, souvent créées par le calcul de matrices de co-occurrences (MCO) des niveaux de gris. Une MCO est un histogramme des fréquences d’occurrence des paires de valeurs de pixels présentes dans les fenêtres locales, associées à tous les pixels de l’image utilisée; une paire de pixels étant définie selon un pas et une orientation donnés. Les MCO permettent le calcul de plus d’une dizaine de paramètres décrivant, de diverses manières, la distribution des fréquences, créant ainsi autant d’images texturales distinctes. L’approche de mesure des textures par MCO a été appliquée principalement sur des images de télédétection monochromes (ex. images panchromatiques, images radar monofréquence et monopolarisation). En imagerie multispectrale, une unique bande spectrale, parmi celles disponibles, est habituellement choisie pour générer des images de texture. La question que nous avons posée dans cette recherche concerne justement cette utilisation restreinte de l’information texturale dans le cas des images multispectrales. En fait, l’effet visuel d’une texture est créé, non seulement par l’agencement particulier d’objets/pixels de brillance différente, mais aussi de couleur différente. Plusieurs façons sont proposées dans la littérature pour introduire cette idée de la texture à plusieurs dimensions. Parmi celles-ci, deux en particulier nous ont intéressés dans cette recherche. La première façon fait appel aux MCO calculées bande par bande spectrale et la seconde utilise les MCO généralisées impliquant deux bandes spectrales à la fois. Dans ce dernier cas, le procédé consiste en le calcul des fréquences d’occurrence des paires de valeurs dans deux bandes spectrales différentes. Cela permet, en un seul traitement, la prise en compte dans une large mesure de la « couleur » des éléments de texture. Ces deux approches font partie des techniques dites intégratives. Pour les distinguer, nous les avons appelées dans cet ouvrage respectivement « textures grises » et « textures couleurs ». Notre recherche se présente donc comme une analyse comparative des possibilités offertes par l’application de ces deux types de signatures texturales dans le cas spécifique d’une cartographie automatisée des occupations de sol à partir d’une image multispectrale. Une signature texturale d’un objet ou d’une classe d’objets, par analogie aux signatures spectrales, est constituée d’une série de paramètres de texture mesurés sur une bande spectrale à la fois (textures grises) ou une paire de bandes spectrales à la fois (textures couleurs). Cette recherche visait non seulement à comparer les deux approches intégratives, mais aussi à identifier la composition des signatures texturales des classes d’occupation du sol favorisant leur différentiation : type de paramètres de texture / taille de la fenêtre de calcul / bandes spectrales ou combinaisons de bandes spectrales. Pour ce faire, nous avons choisi un site à l’intérieur du territoire de la Communauté Métropolitaine de Montréal (Longueuil) composé d’une mosaïque d’occupations du sol, caractéristique d’une zone semi urbaine (résidentiel, industriel/commercial, boisés, agriculture, plans d’eau…). Une image du satellite SPOT-5 (4 bandes spectrales) de 10 m de résolution spatiale a été utilisée dans cette recherche. Puisqu’une infinité d’images de texture peuvent être créées en faisant varier les paramètres de calcul des MCO et afin de mieux circonscrire notre problème nous avons décidé, en tenant compte des études publiées dans ce domaine : a) de faire varier la fenêtre de calcul de 3*3 pixels à 21*21 pixels tout en fixant le pas et l’orientation pour former les paires de pixels à (1,1), c'est-à-dire à un pas d’un pixel et une orientation de 135°; b) de limiter les analyses des MCO à huit paramètres de texture (contraste, corrélation, écart-type, énergie, entropie, homogénéité, moyenne, probabilité maximale), qui sont tous calculables par la méthode rapide de Unser, une approximation des matrices de co-occurrences, c) de former les deux signatures texturales par le même nombre d’éléments choisis d’après une analyse de la séparabilité (distance de Bhattacharya) des classes d’occupation du sol; et d) d’analyser les résultats de classification (matrices de confusion, exactitudes, coefficients Kappa) par maximum de vraisemblance pour conclure sur le potentiel des deux approches intégratives; les classes d’occupation du sol à reconnaître étaient : résidentielle basse et haute densité, commerciale/industrielle, agricole, boisés, surfaces gazonnées (incluant les golfs) et plans d’eau. Nos principales conclusions sont les suivantes a) à l’exception de la probabilité maximale, tous les autres paramètres de texture sont utiles dans la formation des signatures texturales; moyenne et écart type sont les plus utiles dans la formation des textures grises tandis que contraste et corrélation, dans le cas des textures couleurs, b) l’exactitude globale de la classification atteint un score acceptable (85%) seulement dans le cas des signatures texturales couleurs; c’est une amélioration importante par rapport aux classifications basées uniquement sur les signatures spectrales des classes d’occupation du sol dont le score est souvent situé aux alentours de 75%; ce score est atteint avec des fenêtres de calcul aux alentours de11*11 à 15*15 pixels; c) Les signatures texturales couleurs offrant des scores supérieurs à ceux obtenus avec les signatures grises de 5% à 10%; et ce avec des petites fenêtres de calcul (5*5, 7*7 et occasionnellement 9*9) d) Pour plusieurs classes d’occupation du sol prises individuellement, l’exactitude dépasse les 90% pour les deux types de signatures texturales; e) une seule classe est mieux séparable du reste par les textures grises, celle de l’agricole; f) les classes créant beaucoup de confusions, ce qui explique en grande partie le score global de la classification de 85%, sont les deux classes du résidentiel (haute et basse densité). En conclusion, nous pouvons dire que l’approche intégrative par textures couleurs d’une image multispectrale de 10 m de résolution spatiale offre un plus grand potentiel pour la cartographie des occupations du sol que l’approche intégrative par textures grises. Pour plusieurs classes d’occupations du sol un gain appréciable en temps de calcul des paramètres de texture peut être obtenu par l’utilisation des petites fenêtres de traitement. Des améliorations importantes sont escomptées pour atteindre des exactitudes de classification de 90% et plus par l’utilisation des fenêtres de calcul de taille variable adaptées à chaque type d’occupation du sol. Une méthode de classification hiérarchique pourrait être alors utilisée afin de séparer les classes recherchées une à la fois par rapport au reste au lieu d’une classification globale où l’intégration des paramètres calculés avec des fenêtres de taille variable conduirait inévitablement à des confusions entre classes.
Resumo:
Quantile functions are efficient and equivalent alternatives to distribution functions in modeling and analysis of statistical data (see Gilchrist, 2000; Nair and Sankaran, 2009). Motivated by this, in the present paper, we introduce a quantile based Shannon entropy function. We also introduce residual entropy function in the quantile setup and study its properties. Unlike the residual entropy function due to Ebrahimi (1996), the residual quantile entropy function determines the quantile density function uniquely through a simple relationship. The measure is used to define two nonparametric classes of distributions
Resumo:
The time evolution of the out-of-equilibrium Mott insulator is investigated numerically through calculations of space-time-resolved density and entropy profiles resulting from the release of a gas of ultracold fermionic atoms from an optical trap. For adiabatic, moderate and sudden switching-off of the trapping potential, the out-of-equilibrium dynamics of the Mott insulator is found to differ profoundly from that of the band insulator and the metallic phase, displaying a self-induced stability that is robust within a wide range of densities, system sizes and interaction strengths. The connection between the entanglement entropy and changes of phase, known for equilibrium situations, is found to extend to the out-of-equilibrium regime. Finally, the relation between the system`s long time behavior and the thermalization limit is analyzed. Copyright (C) EPLA, 2011
Resumo:
We introduce a five-parameter continuous model, called the McDonald inverted beta distribution, to extend the two-parameter inverted beta distribution and provide new four- and three-parameter sub-models. We give a mathematical treatment of the new distribution including expansions for the density function, moments, generating and quantile functions, mean deviations, entropy and reliability. The model parameters are estimated by maximum likelihood and the observed information matrix is derived. An application of the new model to real data shows that it can give consistently a better fit than other important lifetime models. (C) 2012 The Franklin Institute. Published by Elsevier Ltd. All rights reserved.
Resumo:
Lattice calculations of the QCD trace anomaly at temperatures T < 160 MeV have been shown to match hadron resonance gas model calculations, which include an exponentially rising hadron mass spectrum. In this paper we perform a more detailed comparison of the model calculations to lattice data that confirms the need for an exponentially increasing density of hadronic states. Also, we find that the lattice data is compatible with a hadron density of states that goes as rho(m) similar to m(-a) exp(m/T-H) at large m with a > 5/2 (where T-H similar to 167 MeV). With this specific subleading contribution to the density of states, heavy resonances are most likely to undergo two-body decay (instead of multiparticle decay), which facilitates their inclusion into hadron transport codes. Moreover, estimates for the shear viscosity and the shear relaxation time coefficient of the hadron resonance model computed within the excluded volume approximation suggest that these transport coefficients are sensitive to the parameters that define the hadron mass spectrum.
Resumo:
Although negative density dependence (NDD) can facilitate tree species coexistence in forests, the underlying mechanisms can differ, and rarely are the dynamics of seedlings and saplings studied together. Herein we present and discuss a novel mechanism based on our investigation of NDD predictions for the large, grove-forming ectomycorrhizal mast fruiting tree, Microberlinia bisulcata (Caesalpiniaceae), in an 82.5-ha plot at Korup, Cameroon. We tested whether juvenile density, size, growth and survival decreases with increasing conspecific adult basal area for 3245 ‘new’ seedlings and 540 ‘old’ seedlings (< 75-cm tall) during an approximately 4-year study period (2008–2012) and for 234 ‘saplings’ (≥ 75-cm tall) during an approximately 6-year study period (2008–2014). We found that the respective densities of new seedlings, old seedlings and saplings were positively, not and negatively related to increasing BA. Maximum leaf numbers and heights of old seedlings were negatively correlated with increasing basal areas, as were sapling heights and stem diameters. Whereas survivorship of new seedlings decreased by more than one-half with increasing basal area over its range in 2010–2012, that of old seedlings decreased by almost two-thirds, but only in 2008–2010, and was generally unrelated to conspecific seedling density. In 2010–2012 relative growth rates in new seedlings’ heights decreased with increasing basal area, as well as with increasing seedling density, together with increasing leaf numbers, whereas old seedlings’ growth was unrelated to either conspecific density or basal area. Saplings of below-average height had reduced survivorship with increasing basal area (probability decreasing from approx. 0.4 to 0.05 over the basal area range tested), but only sapling growth in terms of leaf numbers decreased with increasing basal area. These static and dynamic results indicate that NDD is operating within this system, possibly stabilizing the M. bisulcata population. However, these NDD patterns are unlikely to be caused by symmetric competition or by consumers. Instead, an alternative mechanism for conspecific adult–juvenile negative feedback is proposed, one which involves the interaction between tree phenology and ectomycorrhizal linkages.
Resumo:
The effects of elevated CO2 and temperature on photosynthesis and calcification in the calcifying algae Halimeda macroloba and Halimeda cylindracea and the symbiont-bearing benthic foraminifera Marginopora vertebralis were investigated through exposure to a combination of four temperatures (28°C, 30°C, 32°C, and 34°C) and four CO2 levels (39, 61, 101, and 203 Pa; pH 8.1, 7.9, 7.7, and 7.4, respectively). Elevated CO2 caused a profound decline in photosynthetic efficiency (FV : FM), calcification, and growth in all species. After five weeks at 34°C under all CO2 levels, all species died. Chlorophyll (Chl) a and b concentration in Halimeda spp. significantly decreased in 203 Pa, 32°C and 34°C treatments, but Chl a and Chl c2 concentration in M. vertebralis was not affected by temperature alone, with significant declines in the 61, 101, and 203 Pa treatments at 28°C. Significant decreases in FV : FM in all species were found after 5 weeks of exposure to elevated CO2 (203 Pa in all temperature treatments) and temperature (32°C and 34°C in all pH treatments). The rate of oxygen production declined at 61, 101, and 203 Pa in all temperature treatments for all species. The elevated CO2 and temperature treatments greatly reduced calcification (growth and crystal size) in M. vertebralis and, to a lesser extent, in Halimeda spp. These findings indicate that 32°C and 101 Pa CO2, are the upper limits for survival of these species on Heron Island reef, and we conclude that these species will be highly vulnerable to the predicted future climate change scenarios of elevated temperature and ocean acidification.
Resumo:
Motivated by Bravais' rule, of wide validity for crystals, we introduce a maximum density rule for the surfaces of quasicrystals and use it to determine the 5-, 2- and 3-fold bulk terminations in a geometric icosahedral model of i-AlPdMn and i-AlCuFe that represent surfaces.
Resumo:
We consider the problem of estimating P(Yi + (...) + Y-n > x) by importance sampling when the Yi are i.i.d. and heavy-tailed. The idea is to exploit the cross-entropy method as a toot for choosing good parameters in the importance sampling distribution; in doing so, we use the asymptotic description that given P(Y-1 + (...) + Y-n > x), n - 1 of the Yi have distribution F and one the conditional distribution of Y given Y > x. We show in some specific parametric examples (Pareto and Weibull) how this leads to precise answers which, as demonstrated numerically, are close to being variance minimal within the parametric class under consideration. Related problems for M/G/l and GI/G/l queues are also discussed.
Resumo:
Minimization of a sum-of-squares or cross-entropy error function leads to network outputs which approximate the conditional averages of the target data, conditioned on the input vector. For classifications problems, with a suitably chosen target coding scheme, these averages represent the posterior probabilities of class membership, and so can be regarded as optimal. For problems involving the prediction of continuous variables, however, the conditional averages provide only a very limited description of the properties of the target variables. This is particularly true for problems in which the mapping to be learned is multi-valued, as often arises in the solution of inverse problems, since the average of several correct target values is not necessarily itself a correct value. In order to obtain a complete description of the data, for the purposes of predicting the outputs corresponding to new input vectors, we must model the conditional probability distribution of the target data, again conditioned on the input vector. In this paper we introduce a new class of network models obtained by combining a conventional neural network with a mixture density model. The complete system is called a Mixture Density Network, and can in principle represent arbitrary conditional probability distributions in the same way that a conventional neural network can represent arbitrary functions. We demonstrate the effectiveness of Mixture Density Networks using both a toy problem and a problem involving robot inverse kinematics.