974 resultados para analogy calculation


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Calculation of ditching in the south side of the feeder from Brown’s ditch culvert to lot no.5, n.d.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In the context of decision making under uncertainty, we formalize the concept of analogy: an analogy between two decision problems is a mapping that transforms one problem into the other while preserving the problem's structure. We identify the basic structure of a decision problem, and provide a representation of the mappings that pre- serve this structure. We then consider decision makers who use multiple analogies. Our main results are a representation theorem for "aggregators" of analogies satisfying certain minimal requirements, and the identification of preferences emerging from analogical reasoning. We show that a large variety of multiple-prior preferences can be thought of as emerging from analogical reasoning.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La texture est un élément clé pour l’interprétation des images de télédétection à fine résolution spatiale. L’intégration de l’information texturale dans un processus de classification automatisée des images se fait habituellement via des images de texture, souvent créées par le calcul de matrices de co-occurrences (MCO) des niveaux de gris. Une MCO est un histogramme des fréquences d’occurrence des paires de valeurs de pixels présentes dans les fenêtres locales, associées à tous les pixels de l’image utilisée; une paire de pixels étant définie selon un pas et une orientation donnés. Les MCO permettent le calcul de plus d’une dizaine de paramètres décrivant, de diverses manières, la distribution des fréquences, créant ainsi autant d’images texturales distinctes. L’approche de mesure des textures par MCO a été appliquée principalement sur des images de télédétection monochromes (ex. images panchromatiques, images radar monofréquence et monopolarisation). En imagerie multispectrale, une unique bande spectrale, parmi celles disponibles, est habituellement choisie pour générer des images de texture. La question que nous avons posée dans cette recherche concerne justement cette utilisation restreinte de l’information texturale dans le cas des images multispectrales. En fait, l’effet visuel d’une texture est créé, non seulement par l’agencement particulier d’objets/pixels de brillance différente, mais aussi de couleur différente. Plusieurs façons sont proposées dans la littérature pour introduire cette idée de la texture à plusieurs dimensions. Parmi celles-ci, deux en particulier nous ont intéressés dans cette recherche. La première façon fait appel aux MCO calculées bande par bande spectrale et la seconde utilise les MCO généralisées impliquant deux bandes spectrales à la fois. Dans ce dernier cas, le procédé consiste en le calcul des fréquences d’occurrence des paires de valeurs dans deux bandes spectrales différentes. Cela permet, en un seul traitement, la prise en compte dans une large mesure de la « couleur » des éléments de texture. Ces deux approches font partie des techniques dites intégratives. Pour les distinguer, nous les avons appelées dans cet ouvrage respectivement « textures grises » et « textures couleurs ». Notre recherche se présente donc comme une analyse comparative des possibilités offertes par l’application de ces deux types de signatures texturales dans le cas spécifique d’une cartographie automatisée des occupations de sol à partir d’une image multispectrale. Une signature texturale d’un objet ou d’une classe d’objets, par analogie aux signatures spectrales, est constituée d’une série de paramètres de texture mesurés sur une bande spectrale à la fois (textures grises) ou une paire de bandes spectrales à la fois (textures couleurs). Cette recherche visait non seulement à comparer les deux approches intégratives, mais aussi à identifier la composition des signatures texturales des classes d’occupation du sol favorisant leur différentiation : type de paramètres de texture / taille de la fenêtre de calcul / bandes spectrales ou combinaisons de bandes spectrales. Pour ce faire, nous avons choisi un site à l’intérieur du territoire de la Communauté Métropolitaine de Montréal (Longueuil) composé d’une mosaïque d’occupations du sol, caractéristique d’une zone semi urbaine (résidentiel, industriel/commercial, boisés, agriculture, plans d’eau…). Une image du satellite SPOT-5 (4 bandes spectrales) de 10 m de résolution spatiale a été utilisée dans cette recherche. Puisqu’une infinité d’images de texture peuvent être créées en faisant varier les paramètres de calcul des MCO et afin de mieux circonscrire notre problème nous avons décidé, en tenant compte des études publiées dans ce domaine : a) de faire varier la fenêtre de calcul de 3*3 pixels à 21*21 pixels tout en fixant le pas et l’orientation pour former les paires de pixels à (1,1), c'est-à-dire à un pas d’un pixel et une orientation de 135°; b) de limiter les analyses des MCO à huit paramètres de texture (contraste, corrélation, écart-type, énergie, entropie, homogénéité, moyenne, probabilité maximale), qui sont tous calculables par la méthode rapide de Unser, une approximation des matrices de co-occurrences, c) de former les deux signatures texturales par le même nombre d’éléments choisis d’après une analyse de la séparabilité (distance de Bhattacharya) des classes d’occupation du sol; et d) d’analyser les résultats de classification (matrices de confusion, exactitudes, coefficients Kappa) par maximum de vraisemblance pour conclure sur le potentiel des deux approches intégratives; les classes d’occupation du sol à reconnaître étaient : résidentielle basse et haute densité, commerciale/industrielle, agricole, boisés, surfaces gazonnées (incluant les golfs) et plans d’eau. Nos principales conclusions sont les suivantes a) à l’exception de la probabilité maximale, tous les autres paramètres de texture sont utiles dans la formation des signatures texturales; moyenne et écart type sont les plus utiles dans la formation des textures grises tandis que contraste et corrélation, dans le cas des textures couleurs, b) l’exactitude globale de la classification atteint un score acceptable (85%) seulement dans le cas des signatures texturales couleurs; c’est une amélioration importante par rapport aux classifications basées uniquement sur les signatures spectrales des classes d’occupation du sol dont le score est souvent situé aux alentours de 75%; ce score est atteint avec des fenêtres de calcul aux alentours de11*11 à 15*15 pixels; c) Les signatures texturales couleurs offrant des scores supérieurs à ceux obtenus avec les signatures grises de 5% à 10%; et ce avec des petites fenêtres de calcul (5*5, 7*7 et occasionnellement 9*9) d) Pour plusieurs classes d’occupation du sol prises individuellement, l’exactitude dépasse les 90% pour les deux types de signatures texturales; e) une seule classe est mieux séparable du reste par les textures grises, celle de l’agricole; f) les classes créant beaucoup de confusions, ce qui explique en grande partie le score global de la classification de 85%, sont les deux classes du résidentiel (haute et basse densité). En conclusion, nous pouvons dire que l’approche intégrative par textures couleurs d’une image multispectrale de 10 m de résolution spatiale offre un plus grand potentiel pour la cartographie des occupations du sol que l’approche intégrative par textures grises. Pour plusieurs classes d’occupations du sol un gain appréciable en temps de calcul des paramètres de texture peut être obtenu par l’utilisation des petites fenêtres de traitement. Des améliorations importantes sont escomptées pour atteindre des exactitudes de classification de 90% et plus par l’utilisation des fenêtres de calcul de taille variable adaptées à chaque type d’occupation du sol. Une méthode de classification hiérarchique pourrait être alors utilisée afin de séparer les classes recherchées une à la fois par rapport au reste au lieu d’une classification globale où l’intégration des paramètres calculés avec des fenêtres de taille variable conduirait inévitablement à des confusions entre classes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The cutoff wavenumbers of higher order modes in circular eccentric guides are computed with the variational analysis combined with a conformal mapping. A conformal mapping is applied to the variational formulation, and the variational equation is solved by the finite-element method. Numerical results for TE and TM cutoff wavenumbers are presented for different distances between the centers and ratio of the radii. Comparisons with numerical results found in the literature validate the presented method

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A density-functional self-consistent calculation of the ground-state electronic density of quantum dots under an arbitrary magnetic field is performed. We consider a parabolic lateral confining potential. The addition energy, E(N+1)-E(N), where N is the number of electrons, is compared with experimental data and the different contributions to the energy are analyzed. The Hamiltonian is modeled by a density functional, which includes the exchange and correlation interactions and the local formation of Landau levels for different equilibrium spin populations. We obtain an analytical expression for the critical density under which spontaneous polarization, induced by the exchange interaction, takes place.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This paper attempts to develop an improved tool, which would read two dimensional(2D) cardiac MRI images and compute areas and volume of the scar tissue. Here the computation would be done on the cardiac MR images to quantify the extent of damage inflicted by myocardial infarction on the cardiac muscle (myocardium) using Interpolation

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The ionization potential of small Hg_n clusters has been calculated. For the first time good agreement with experimental results has been obtained. It is shown that interatomic Coulomb interactions are important. The energy of Hg_n^+ is calculated using the unrestricted inhomogeneous Hartree-Fock approximation. As a consequence of a change in the charge distribution in Hg_n^+ , we obtain an abrupt change in the slope of the ionization potential at the critical cluster size n_cr ~ 14. The presented results are expected to be valid for covalent clusters in between ionized van der Waals clusters and metallic clusters.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The electronic properties of neutral and ionized divalent-metal clusters have been studied using a microscopic theory, which takes into account the interplay between van der Waals (vdW) and covalent bonding in the neutral clusters, and the competition between hole delocalization and polarization energy in the ionized clusters. By calculating the ground-state energies of neutral and ionized. Hg_n clusters, we determine the size dependence of the bond character and the ionization potential I_p(n). For neutral Hg_n clusters we obtain a transition from van del Waals to covalent behaviour at the critical size n_c ~ 10-20 atoms. Results for I_p(Hg_n) with n \le 20 are in good agreement with experiments, and suggest that small Hg_n^+ clusters can be viewed as consisting of a positive trimer core Hg_3^+ surrounded by n - 3 polarized neutral atoms.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Total energy SCF calculations were performed for noble gas difluorides in a relativistic procedure and compared with analogous non-relativistic calculations. The discrete variational method with numerical basis functions was used. Rather smooth potential energy curves could be obtained. The theoretical Kr - F and Xe - F bond distances were calculated to be 3.5 a.u. and 3.6 a.u. which should be compared with the experimental values of 3.54 a.u. and 3.7 a.u. Although the dissociation energies are off by a factor of about five it was found that ArF_2 may be a stable molecule. Theoretical ionization energies for the outer levels reproduce the experimental values for KrF_2 and XeF_2 to within 2 eV.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Self-consistent-field calculations for the total potential energy of highly ionized N_2 molecules are presented. We compare these calculations to the experimentally observed energy released in the Coulomb explosion of ionized N_2 molecules created after collision with fast heavy ions. The most important electronic states of the fragment ions are determined.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The time dependence of a heavy-ion-atom collision system is solved via a set of coupled channel equations using energy eigenvalues and matrix elements from a self-consistent field relativistic molecular many-electron Dirac-Fock-Slater calculation. Within this independent particle model we give a full many-particle interpretation by performing a small number of single-particle calculations. First results for the P(b) curves for the Ne K-hole excitation for the systems F{^8+} - Ne and F{^6+} - Ne as examples are discussed.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The approximations normally used in the calculation of the isomer shift are compared with the exact expressions using Dirac-Slater orbitals and a three-parameter Fermi-type nuclear charge distribution. The nonuniformity of the electronic density over the nuclear volume affects the results. Different choices of the nuclear surface thickness t and the radius c in the protonic density P_N (\gamma) also affects the isomer shift differently even though the values are chosen to yield a given value of \delta . The change in the electronic charge density which is caused by the alteration of P_N (\gamma) in the ground state and excited state of the nucleus is discussed using two extrememodels and the possible influence on the observable isomer shift is estimated.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

We calculate the energy and lifetime of the ground state hyperfine structure transition in one-electron Bi^82+ . The influence of various distributions of the magnetic moment and the electric charge in the nucleus ^209_83 Bi on energy and lifetime is studied.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The goal of the work reported here is to capture the commonsense knowledge of non-expert human contributors. Achieving this goal will enable more intelligent human-computer interfaces and pave the way for computers to reason about our world. In the domain of natural language processing, it will provide the world knowledge much needed for semantic processing of natural language. To acquire knowledge from contributors not trained in knowledge engineering, I take the following four steps: (i) develop a knowledge representation (KR) model for simple assertions in natural language, (ii) introduce cumulative analogy, a class of nearest-neighbor based analogical reasoning algorithms over this representation, (iii) argue that cumulative analogy is well suited for knowledge acquisition (KA) based on a theoretical analysis of effectiveness of KA with this approach, and (iv) test the KR model and the effectiveness of the cumulative analogy algorithms empirically. To investigate effectiveness of cumulative analogy for KA empirically, Learner, an open source system for KA by cumulative analogy has been implemented, deployed, and evaluated. (The site "1001 Questions," is available at http://teach-computers.org/learner.html). Learner acquires assertion-level knowledge by constructing shallow semantic analogies between a KA topic and its nearest neighbors and posing these analogies as natural language questions to human contributors. Suppose, for example, that based on the knowledge about "newspapers" already present in the knowledge base, Learner judges "newspaper" to be similar to "book" and "magazine." Further suppose that assertions "books contain information" and "magazines contain information" are also already in the knowledge base. Then Learner will use cumulative analogy from the similar topics to ask humans whether "newspapers contain information." Because similarity between topics is computed based on what is already known about them, Learner exhibits bootstrapping behavior --- the quality of its questions improves as it gathers more knowledge. By summing evidence for and against posing any given question, Learner also exhibits noise tolerance, limiting the effect of incorrect similarities. The KA power of shallow semantic analogy from nearest neighbors is one of the main findings of this thesis. I perform an analysis of commonsense knowledge collected by another research effort that did not rely on analogical reasoning and demonstrate that indeed there is sufficient amount of correlation in the knowledge base to motivate using cumulative analogy from nearest neighbors as a KA method. Empirically, evaluating the percentages of questions answered affirmatively, negatively and judged to be nonsensical in the cumulative analogy case compares favorably with the baseline, no-similarity case that relies on random objects rather than nearest neighbors. Of the questions generated by cumulative analogy, contributors answered 45% affirmatively, 28% negatively and marked 13% as nonsensical; in the control, no-similarity case 8% of questions were answered affirmatively, 60% negatively and 26% were marked as nonsensical.