957 resultados para Dynamic Emission Models
Resumo:
Photosynthetic state transitions were investigated in the cyanobacterium Synechococcus sp. PCC 6301 by studying fluorescence emission, heat loss, and PS I activity in intact cells brought to state 1 and state 2. 77K fluorescence emission spectra were modelled with a sum of 6 components corresponding to PBS, PS II, and PS I emissions. The modelled data showed a large decrease in PS II fluorescence accompanied with a small increase in the PS I fluorescence upon transition to state 2 for excitation wavelengths absorbed by both PBS and ChI ll.. The fluorescence changes seen with ChI .a. excitations do not support the predictions of the mobile PBS model of state transition in PBS-containing organisms. Measurements of heat loss from intact cells in the two states were similar for both ChI it. and PBS excitations over three orders of magnitude of laser flash intensity. This suggests that the PBS does not become decoupled from PS II in state 2 as proposed by the PBS detachment model of state transition in PBS-containing organisms. PS I activity measurements done on intact cells showed no difference in the two states, in contrast with the predictions of all of the existing models of state transitions. Based on these results a model for state transition In PBScontaining organisms is proposed, with a PS II photoprotectory function.
Resumo:
The Meese-Rogoff forecasting puzzle states that foreign exchange (FX) rates are unpredictable. Since one country’s macroeconomic conditions could affect the price of its national currency, we study the dynamic relations between the FX rates and some macroeconomic accounts. Our research tests whether the predictability of the FX rates could be improved through the advanced econometrics. Improving the predictability of the FX rates has important implications for various groups including investors, business entities and the government. The present thesis examines the dynamic relations between the FX rates, savings and investments for a sample of 25 countries from the Organization for Economic Cooperation and Development. We apply quarterly data of FX rates, macroeconomic indices and accounts including the savings and the investments over three decades. Through preliminary Augmented Dickey-Fuller unit root tests and Johansen cointegration tests, we found that the savings rate and the investment rate are cointegrated with the vector (1,-1). This result is consistent with many previous studies on the savings-investment relations and therefore confirms the validity of the Feldstein-Horioka puzzle. Because of the special cointegrating relation between the savings rate and investment rate, we introduce the savings-investment rate differential (SID). Investigating each country through a vector autoregression (VAR) model, we observe extremely insignificant coefficient estimates of the historical SIDs upon the present FX rates. We also report similar findings through the panel VAR approach. We thus conclude that the historical SIDs are useless in forecasting the FX rate. Nonetheless, the coefficients of the past FX rates upon the current SIDs for both the country-specific and the panel VAR models are statistically significant. Therefore, we conclude that the historical FX rates can conversely predict the SID to some degree. Specifically, depreciation in the domestic currency would cause the increase in the SID.
Resumo:
Latent variable models in finance originate both from asset pricing theory and time series analysis. These two strands of literature appeal to two different concepts of latent structures, which are both useful to reduce the dimension of a statistical model specified for a multivariate time series of asset prices. In the CAPM or APT beta pricing models, the dimension reduction is cross-sectional in nature, while in time-series state-space models, dimension is reduced longitudinally by assuming conditional independence between consecutive returns, given a small number of state variables. In this paper, we use the concept of Stochastic Discount Factor (SDF) or pricing kernel as a unifying principle to integrate these two concepts of latent variables. Beta pricing relations amount to characterize the factors as a basis of a vectorial space for the SDF. The coefficients of the SDF with respect to the factors are specified as deterministic functions of some state variables which summarize their dynamics. In beta pricing models, it is often said that only the factorial risk is compensated since the remaining idiosyncratic risk is diversifiable. Implicitly, this argument can be interpreted as a conditional cross-sectional factor structure, that is, a conditional independence between contemporaneous returns of a large number of assets, given a small number of factors, like in standard Factor Analysis. We provide this unifying analysis in the context of conditional equilibrium beta pricing as well as asset pricing with stochastic volatility, stochastic interest rates and other state variables. We address the general issue of econometric specifications of dynamic asset pricing models, which cover the modern literature on conditionally heteroskedastic factor models as well as equilibrium-based asset pricing models with an intertemporal specification of preferences and market fundamentals. We interpret various instantaneous causality relationships between state variables and market fundamentals as leverage effects and discuss their central role relative to the validity of standard CAPM-like stock pricing and preference-free option pricing.
Resumo:
This paper studies seemingly unrelated linear models with integrated regressors and stationary errors. By adding leads and lags of the first differences of the regressors and estimating this augmented dynamic regression model by feasible generalized least squares using the long-run covariance matrix, we obtain an efficient estimator of the cointegrating vector that has a limiting mixed normal distribution. Simulation results suggest that this new estimator compares favorably with others already proposed in the literature. We apply these new estimators to the testing of purchasing power parity (PPP) among the G-7 countries. The test based on the efficient estimates rejects the PPP hypothesis for most countries.
Resumo:
In a recent paper, Bai and Perron (1998) considered theoretical issues related to the limiting distribution of estimators and test statistics in the linear model with multiple structural changes. In this companion paper, we consider practical issues for the empirical applications of the procedures. We first address the problem of estimation of the break dates and present an efficient algorithm to obtain global minimizers of the sum of squared residuals. This algorithm is based on the principle of dynamic programming and requires at most least-squares operations of order O(T 2) for any number of breaks. Our method can be applied to both pure and partial structural-change models. Secondly, we consider the problem of forming confidence intervals for the break dates under various hypotheses about the structure of the data and the errors across segments. Third, we address the issue of testing for structural changes under very general conditions on the data and the errors. Fourth, we address the issue of estimating the number of breaks. We present simulation results pertaining to the behavior of the estimators and tests in finite samples. Finally, a few empirical applications are presented to illustrate the usefulness of the procedures. All methods discussed are implemented in a GAUSS program available upon request for non-profit academic use.
Resumo:
This paper studies testing for a unit root for large n and T panels in which the cross-sectional units are correlated. To model this cross-sectional correlation, we assume that the data is generated by an unknown number of unobservable common factors. We propose unit root tests in this environment and derive their (Gaussian) asymptotic distribution under the null hypothesis of a unit root and local alternatives. We show that these tests have significant asymptotic power when the model has no incidental trends. However, when there are incidental trends in the model and it is necessary to remove heterogeneous deterministic components, we show that these tests have no power against the same local alternatives. Through Monte Carlo simulations, we provide evidence on the finite sample properties of these new tests.
Resumo:
Réalisées aux échelles internationales et nationales, les études de vulnérabilité aux changements et à la variabilité climatiques sont peu pertinentes dans un processus de prise de décisions à des échelles géographiques plus petites qui représentent les lieux d’implantation des stratégies de réponses envisagées. Les études de vulnérabilité aux changements et à la variabilité climatiques à des échelles géographiques relativement petites dans le secteur agricole sont généralement rares, voire inexistantes au Canada, notamment au Québec. Dans le souci de combler ce vide et de favoriser un processus décisionnel plus éclairé à l’échelle de la ferme, cette étude cherchait principalement à dresser un portrait de l’évolution de la vulnérabilité des fermes productrices de maïs-grain des régions de Montérégie-Ouest et du Lac-St-Jean-Est aux changements et à la variabilité climatiques dans un contexte de multiples sources de pression. Une méthodologie générale constituée d'une évaluation de la vulnérabilité globale à partir d’une combinaison de profils de vulnérabilité aux conditions climatiques et socio-économiques a été adoptée. Pour la période de référence (1985-2005), les profils de vulnérabilité ont été dressés à l’aide d’analyses des coefficients de variation des séries temporelles de rendements et de superficies en maïs-grain. Au moyen de méthodes ethnographiques associées à une technique d’analyse multicritère, le Processus d’analyse hiérarchique (PAH), des scénarios d’indicateurs de capacité adaptative du secteur agricole susmentionné ont été développés pour la période de référence. Ceux-ci ont ensuite servi de point de départ dans l’élaboration des indicateurs de capacité de réponses des producteurs agricoles pour la période future 2010-2039. Pour celle-ci, les deux profils de vulnérabilité sont issus d’une simplification du cadre théorique de « Intergovernmental Panel on Climate Change » (IPCC) relatif aux principales composantes du concept de vulnérabilité. Pour la dimension « sensibilité » du secteur des fermes productrices de maïs-grain des deux régions agricoles aux conditions climatiques, une série de données de rendements a été simulée pour la période future. Ces simulations ont été réalisées à l’aide d’un couplage de cinq scénarios climatiques et du modèle de culture CERES-Maize de « Decision Support System for Agrotechnology Transfer » (DSSAT), version 4.0.2.0. En ce qui concerne l’évaluation de la « capacité adaptative » au cours de la période future, la construction des scénarios d’indicateurs de cette composante a été effectuée selon l’influence potentielle des grandes orientations économiques et environnementales considérées dans l’élaboration des lignes directrices des deux familles d’émissions de gaz à effet de serre (GES) A2 et A1B. L’application de la démarche méthodologique préalablement mentionnée a conduit aux principaux résultats suivants. Au cours de la période de référence, la région agricole du Lac-St-Jean-Est semblait être plus vulnérable aux conditions climatiques que celle de Montérégie-Ouest. En effet, le coefficient de variation des rendements du maïs-grain pour la région du Lac-St-Jean-Est était évalué à 0,35; tandis que celui pour la région de Montérégie-Ouest n’était que de 0,23. Toutefois, par rapport aux conditions socio-économiques, la région de Montérégie-Ouest affichait une vulnérabilité plus élevée que celle du Lac-St-Jean-Est. Les valeurs des coefficients de variation pour les superficies en maïs-grain au cours de la période de référence pour la Montérégie-Ouest et le Lac-St-Jean-Est étaient de 0,66 et 0,48, respectivement. Au cours de la période future 2010-2039, la région du Lac-St-Jean-Est serait, dans l’ensemble, toujours plus vulnérable aux conditions climatiques que celle de Montérégie-Ouest. Les valeurs moyennes des coefficients de variation pour les rendements agricoles anticipés fluctuent entre 0,21 et 0,25 pour la région de Montérégie-Ouest et entre 0,31 et 0,50 pour la région du Lac-St-Jean-Est. Néanmoins, en matière de vulnérabilité future aux conditions socio-économiques, la position relative des deux régions serait fonction du scénario de capacité adaptative considéré. Avec les orientations économiques et environnementales considérées dans l’élaboration des lignes directrices de la famille d’émission de GES A2, les indicateurs de capacité adaptative du secteur à l’étude seraient respectivement de 0,13 et 0,08 pour la Montérégie-Ouest et le Lac-St-Jean-Est. D’autre part, en considérant les lignes directrices de la famille d’émission de GES A1B, la région agricole du Lac-St-Jean-Est aurait une capacité adaptative légèrement supérieure (0,07) à celle de la Montérégie-Ouest (0,06). De façon générale, au cours de la période future, la région du Lac-St-Jean-Est devrait posséder une vulnérabilité globale plus élevée que la région de Montérégie-Ouest. Cette situation s’expliquerait principalement par une plus grande vulnérabilité de la région du Lac-St-Jean-Est aux conditions climatiques. Les résultats de cette étude doivent être appréciés dans le contexte des postulats considérés, de la méthodologie suivie et des spécificités des deux régions agricoles examinées. Essentiellement, avec l’adoption d’une démarche méthodologique simple, cette étude a révélé les caractéristiques « dynamique et relative » du concept de vulnérabilité, l’importance de l’échelle géographique et de la prise en compte d’autres sources de pression et surtout de la considération d’une approche contraire à celle du « agriculteur réfractaire aux changements » dans les travaux d’évaluation de ce concept dans le secteur agricole. Finalement, elle a aussi présenté plusieurs pistes de recherche susceptibles de contribuer à une meilleure évaluation de la vulnérabilité des agriculteurs aux changements climatiques dans un contexte de multiples sources de pression.
Resumo:
This paper studies the application of the simulated method of moments (SMM) for the estimation of nonlinear dynamic stochastic general equilibrium (DSGE) models. Monte Carlo analysis is employed to examine the small-sample properties of SMM in specifications with different curvature. Results show that SMM is computationally efficient and delivers accurate estimates, even when the simulated series are relatively short. However, asymptotic standard errors tend to overstate the actual variability of the estimates and, consequently, statistical inference is conservative. A simple strategy to incorporate priors in a method of moments context is proposed. An empirical application to the macroeconomic effects of rare events indicates that negatively skewed productivity shocks induce agents to accumulate additional capital and can endogenously generate asymmetric business cycles.
Resumo:
Avec les avancements de la technologie de l'information, les données temporelles économiques et financières sont de plus en plus disponibles. Par contre, si les techniques standard de l'analyse des séries temporelles sont utilisées, une grande quantité d'information est accompagnée du problème de dimensionnalité. Puisque la majorité des séries d'intérêt sont hautement corrélées, leur dimension peut être réduite en utilisant l'analyse factorielle. Cette technique est de plus en plus populaire en sciences économiques depuis les années 90. Étant donnée la disponibilité des données et des avancements computationnels, plusieurs nouvelles questions se posent. Quels sont les effets et la transmission des chocs structurels dans un environnement riche en données? Est-ce que l'information contenue dans un grand ensemble d'indicateurs économiques peut aider à mieux identifier les chocs de politique monétaire, à l'égard des problèmes rencontrés dans les applications utilisant des modèles standards? Peut-on identifier les chocs financiers et mesurer leurs effets sur l'économie réelle? Peut-on améliorer la méthode factorielle existante et y incorporer une autre technique de réduction de dimension comme l'analyse VARMA? Est-ce que cela produit de meilleures prévisions des grands agrégats macroéconomiques et aide au niveau de l'analyse par fonctions de réponse impulsionnelles? Finalement, est-ce qu'on peut appliquer l'analyse factorielle au niveau des paramètres aléatoires? Par exemple, est-ce qu'il existe seulement un petit nombre de sources de l'instabilité temporelle des coefficients dans les modèles macroéconomiques empiriques? Ma thèse, en utilisant l'analyse factorielle structurelle et la modélisation VARMA, répond à ces questions à travers cinq articles. Les deux premiers chapitres étudient les effets des chocs monétaire et financier dans un environnement riche en données. Le troisième article propose une nouvelle méthode en combinant les modèles à facteurs et VARMA. Cette approche est appliquée dans le quatrième article pour mesurer les effets des chocs de crédit au Canada. La contribution du dernier chapitre est d'imposer la structure à facteurs sur les paramètres variant dans le temps et de montrer qu'il existe un petit nombre de sources de cette instabilité. Le premier article analyse la transmission de la politique monétaire au Canada en utilisant le modèle vectoriel autorégressif augmenté par facteurs (FAVAR). Les études antérieures basées sur les modèles VAR ont trouvé plusieurs anomalies empiriques suite à un choc de la politique monétaire. Nous estimons le modèle FAVAR en utilisant un grand nombre de séries macroéconomiques mensuelles et trimestrielles. Nous trouvons que l'information contenue dans les facteurs est importante pour bien identifier la transmission de la politique monétaire et elle aide à corriger les anomalies empiriques standards. Finalement, le cadre d'analyse FAVAR permet d'obtenir les fonctions de réponse impulsionnelles pour tous les indicateurs dans l'ensemble de données, produisant ainsi l'analyse la plus complète à ce jour des effets de la politique monétaire au Canada. Motivée par la dernière crise économique, la recherche sur le rôle du secteur financier a repris de l'importance. Dans le deuxième article nous examinons les effets et la propagation des chocs de crédit sur l'économie réelle en utilisant un grand ensemble d'indicateurs économiques et financiers dans le cadre d'un modèle à facteurs structurel. Nous trouvons qu'un choc de crédit augmente immédiatement les diffusions de crédit (credit spreads), diminue la valeur des bons de Trésor et cause une récession. Ces chocs ont un effet important sur des mesures d'activité réelle, indices de prix, indicateurs avancés et financiers. Contrairement aux autres études, notre procédure d'identification du choc structurel ne requiert pas de restrictions temporelles entre facteurs financiers et macroéconomiques. De plus, elle donne une interprétation des facteurs sans restreindre l'estimation de ceux-ci. Dans le troisième article nous étudions la relation entre les représentations VARMA et factorielle des processus vectoriels stochastiques, et proposons une nouvelle classe de modèles VARMA augmentés par facteurs (FAVARMA). Notre point de départ est de constater qu'en général les séries multivariées et facteurs associés ne peuvent simultanément suivre un processus VAR d'ordre fini. Nous montrons que le processus dynamique des facteurs, extraits comme combinaison linéaire des variables observées, est en général un VARMA et non pas un VAR comme c'est supposé ailleurs dans la littérature. Deuxièmement, nous montrons que même si les facteurs suivent un VAR d'ordre fini, cela implique une représentation VARMA pour les séries observées. Alors, nous proposons le cadre d'analyse FAVARMA combinant ces deux méthodes de réduction du nombre de paramètres. Le modèle est appliqué dans deux exercices de prévision en utilisant des données américaines et canadiennes de Boivin, Giannoni et Stevanovic (2010, 2009) respectivement. Les résultats montrent que la partie VARMA aide à mieux prévoir les importants agrégats macroéconomiques relativement aux modèles standards. Finalement, nous estimons les effets de choc monétaire en utilisant les données et le schéma d'identification de Bernanke, Boivin et Eliasz (2005). Notre modèle FAVARMA(2,1) avec six facteurs donne les résultats cohérents et précis des effets et de la transmission monétaire aux États-Unis. Contrairement au modèle FAVAR employé dans l'étude ultérieure où 510 coefficients VAR devaient être estimés, nous produisons les résultats semblables avec seulement 84 paramètres du processus dynamique des facteurs. L'objectif du quatrième article est d'identifier et mesurer les effets des chocs de crédit au Canada dans un environnement riche en données et en utilisant le modèle FAVARMA structurel. Dans le cadre théorique de l'accélérateur financier développé par Bernanke, Gertler et Gilchrist (1999), nous approximons la prime de financement extérieur par les credit spreads. D'un côté, nous trouvons qu'une augmentation non-anticipée de la prime de financement extérieur aux États-Unis génère une récession significative et persistante au Canada, accompagnée d'une hausse immédiate des credit spreads et taux d'intérêt canadiens. La composante commune semble capturer les dimensions importantes des fluctuations cycliques de l'économie canadienne. L'analyse par décomposition de la variance révèle que ce choc de crédit a un effet important sur différents secteurs d'activité réelle, indices de prix, indicateurs avancés et credit spreads. De l'autre côté, une hausse inattendue de la prime canadienne de financement extérieur ne cause pas d'effet significatif au Canada. Nous montrons que les effets des chocs de crédit au Canada sont essentiellement causés par les conditions globales, approximées ici par le marché américain. Finalement, étant donnée la procédure d'identification des chocs structurels, nous trouvons des facteurs interprétables économiquement. Le comportement des agents et de l'environnement économiques peut varier à travers le temps (ex. changements de stratégies de la politique monétaire, volatilité de chocs) induisant de l'instabilité des paramètres dans les modèles en forme réduite. Les modèles à paramètres variant dans le temps (TVP) standards supposent traditionnellement les processus stochastiques indépendants pour tous les TVPs. Dans cet article nous montrons que le nombre de sources de variabilité temporelle des coefficients est probablement très petit, et nous produisons la première évidence empirique connue dans les modèles macroéconomiques empiriques. L'approche Factor-TVP, proposée dans Stevanovic (2010), est appliquée dans le cadre d'un modèle VAR standard avec coefficients aléatoires (TVP-VAR). Nous trouvons qu'un seul facteur explique la majorité de la variabilité des coefficients VAR, tandis que les paramètres de la volatilité des chocs varient d'une façon indépendante. Le facteur commun est positivement corrélé avec le taux de chômage. La même analyse est faite avec les données incluant la récente crise financière. La procédure suggère maintenant deux facteurs et le comportement des coefficients présente un changement important depuis 2007. Finalement, la méthode est appliquée à un modèle TVP-FAVAR. Nous trouvons que seulement 5 facteurs dynamiques gouvernent l'instabilité temporelle dans presque 700 coefficients.
Resumo:
The first two articles build procedures to simulate vector of univariate states and estimate parameters in nonlinear and non Gaussian state space models. We propose state space speci fications that offer more flexibility in modeling dynamic relationship with latent variables. Our procedures are extension of the HESSIAN method of McCausland[2012]. Thus, they use approximation of the posterior density of the vector of states that allow to : simulate directly from the state vector posterior distribution, to simulate the states vector in one bloc and jointly with the vector of parameters, and to not allow data augmentation. These properties allow to build posterior simulators with very high relative numerical efficiency. Generic, they open a new path in nonlinear and non Gaussian state space analysis with limited contribution of the modeler. The third article is an essay in commodity market analysis. Private firms coexist with farmers' cooperatives in commodity markets in subsaharan african countries. The private firms have the biggest market share while some theoretical models predict they disappearance once confronted to farmers cooperatives. Elsewhere, some empirical studies and observations link cooperative incidence in a region with interpersonal trust, and thus to farmers trust toward cooperatives. We propose a model that sustain these empirical facts. A model where the cooperative reputation is a leading factor determining the market equilibrium of a price competition between a cooperative and a private firm
Resumo:
The dynamic mechanical properties such as storage modulus, loss modulus and damping properties of blends of nylon copolymer (PA6,66) with ethylene propylene diene (EPDM) rubber was investigated with special reference to the effect of blend ratio and compatibilisation over a temperature range –100°C to 150°C at different frequencies. The effect of change in the composition of the polymer blends on tanδ was studied to understand the extent of polymer miscibility and damping characteristics. The loss tangent curve of the blends exhibited two transition peaks, corresponding to the glass transition temperature (Tg) of individual components indicating incompatibility of the blend systems. The morphology of the blends has been examined by using scanning electron microscopy. The Arrhenius relationship was used to calculate the activation energy for the glass transition of the blends. Finally, attempts have been made to compare the experimental data with theoretical models.
Resumo:
Developments in laser technology over the past few years have made it possible to do experiments with focused intensities of IO"-102' Wcm'z. Short-pulse high-intensity lasers are able to accelerate protons and heavier ions to multi-MeV energies during their interaction with solid targets, gas jets and clusters. When such a laser radiation is focused at the intensity above 10” Wcm'2, local electric field strength will be almost equivalent to that within an atom. Hence, new nonlinear optical phenomena will be expected in the field of light matter interaction. Most of the research in the material interaction using high power lasers, especially related to plasma interaction, has been directed to the short pulse x-ray generation- Nanosecond laser interactions with solid targets also generate plasmas which emit radiation mainly in the optical region, the understanding of which is far from satisfactory. This thesis deals with a detailed study of some of the dynamical processes in plasmas generated by nanosecond and femtosecond lasers
Resumo:
Recently, cumulative residual entropy (CRE) has been found to be a new measure of information that parallels Shannon’s entropy (see Rao et al. [Cumulative residual entropy: A new measure of information, IEEE Trans. Inform. Theory. 50(6) (2004), pp. 1220–1228] and Asadi and Zohrevand [On the dynamic cumulative residual entropy, J. Stat. Plann. Inference 137 (2007), pp. 1931–1941]). Motivated by this finding, in this paper, we introduce a generalized measure of it, namely cumulative residual Renyi’s entropy, and study its properties.We also examine it in relation to some applied problems such as weighted and equilibrium models. Finally, we extend this measure into the bivariate set-up and prove certain characterizing relationships to identify different bivariate lifetime models
Resumo:
Context awareness, dynamic reconfiguration at runtime and heterogeneity are key characteristics of future distributed systems, particularly in ubiquitous and mobile computing scenarios. The main contributions of this dissertation are theoretical as well as architectural concepts facilitating information exchange and fusion in heterogeneous and dynamic distributed environments. Our main focus is on bridging the heterogeneity issues and, at the same time, considering uncertain, imprecise and unreliable sensor information in information fusion and reasoning approaches. A domain ontology is used to establish a common vocabulary for the exchanged information. We thereby explicitly support different representations for the same kind of information and provide Inter-Representation Operations that convert between them. Special account is taken of the conversion of associated meta-data that express uncertainty and impreciseness. The Unscented Transformation, for example, is applied to propagate Gaussian normal distributions across highly non-linear Inter-Representation Operations. Uncertain sensor information is fused using the Dempster-Shafer Theory of Evidence as it allows explicit modelling of partial and complete ignorance. We also show how to incorporate the Dempster-Shafer Theory of Evidence into probabilistic reasoning schemes such as Hidden Markov Models in order to be able to consider the uncertainty of sensor information when deriving high-level information from low-level data. For all these concepts we provide architectural support as a guideline for developers of innovative information exchange and fusion infrastructures that are particularly targeted at heterogeneous dynamic environments. Two case studies serve as proof of concept. The first case study focuses on heterogeneous autonomous robots that have to spontaneously form a cooperative team in order to achieve a common goal. The second case study is concerned with an approach for user activity recognition which serves as baseline for a context-aware adaptive application. Both case studies demonstrate the viability and strengths of the proposed solution and emphasize that the Dempster-Shafer Theory of Evidence should be preferred to pure probability theory in applications involving non-linear Inter-Representation Operations.