20 resultados para Methods for Multi-criteria Evaluation

em Université de Montréal, Canada


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le Problème de Tournées de Véhicules (PTV) est une clé importante pour gérér efficacement des systèmes logistiques, ce qui peut entraîner une amélioration du niveau de satisfaction de la clientèle. Ceci est fait en servant plus de clients dans un temps plus court. En terme général, il implique la planification des tournées d'une flotte de véhicules de capacité donnée basée à un ou plusieurs dépôts. Le but est de livrer ou collecter une certain quantité de marchandises à un ensemble des clients géographiquement dispersés, tout en respectant les contraintes de capacité des véhicules. Le PTV, comme classe de problèmes d'optimisation discrète et de grande complexité, a été étudié par de nombreux au cours des dernières décennies. Ãtant donné son importance pratique, des chercheurs dans les domaines de l'informatique, de la recherche opérationnelle et du génie industrielle ont mis au point des algorithmes très efficaces, de nature exacte ou heuristique, pour faire face aux différents types du PTV. Toutefois, les approches proposées pour le PTV ont souvent été accusées d'être trop concentrées sur des versions simplistes des problèmes de tournées de véhicules rencontrés dans des applications réelles. Par conséquent, les chercheurs sont récemment tournés vers des variantes du PTV qui auparavant étaient considérées trop difficiles à résoudre. Ces variantes incluent les attributs et les contraintes complexes observés dans les cas réels et fournissent des solutions qui sont exécutables dans la pratique. Ces extensions du PTV s'appellent Problème de Tournées de Véhicules Multi-Attributs (PTVMA). Le but principal de cette thèse est d'étudier les différents aspects pratiques de trois types de problèmes de tournées de véhicules multi-attributs qui seront modélisés dans celle-ci. En plus, puisque pour le PTV, comme pour la plupart des problèmes NP-complets, il est difficile de résoudre des instances de grande taille de façon optimale et dans un temps d'exécution raisonnable, nous nous tournons vers des méthodes approcheés à base dâheuristiques.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Thèse réalisée en cotutelle entre l'Université de Montréal et l'Université de Technologie de Troyes

Relevância:

100.00% 100.00%

Publicador:

Resumo:

We instillate rational cognition and learning in seemingly riskless choices and judgments. Preferences and possibilities are given in a stochastic sense and based on revisable expectations. the theory predicts experimental preference reversals and passes a sharp econometric test of the status quo bias drawn from a field study.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Contexte général La Côte d'Ivoire est un pays de lâAfrique de lâOuest qui a décidé, depuis 2001, d'étendre la couverture des prestations de santé à toute sa population. En effet, cette réforme du système de santé avait pour but de fournir, à chaque ivoirien, une couverture médicale et pharmaceutique. Toutefois, la mise en Åuvre de cette réforme était difficile car, contrairement aux pays développés, les pays en développement ont un secteur « informel » échappant à la législation du travail et occupant une place importante. En conséquence, il a été recommandé quâil y ait deux caisses d'assurance santé, une pour le secteur formel (fonctionnaires) et l'autre pour le secteur informel. Ces caisses auraient légitimité en ce qui a trait aux décisions de remboursement de médicaments. Dâores-et-déjà, il existe une mutuelle de santé appelée la Mutuelle Générale des Fonctionnaires et Agents de l'Ãtat de Côte d'Ivoire (MUGEFCI), chargée de couvrir les frais médicaux et pharmaceutiques des fonctionnaires et agents de lâEtat. Celle-ci connaît, depuis quelques années, des contraintes budgétaires. De plus, le processus actuel de remboursement des médicaments, dans cette organisation, ne prend pas en considération les valeurs implicites liées aux critères d'inscription au formulaire. Pour toutes ces raisons, la MUGEFCI souhaite se doter dâune nouvelle liste de médicaments remboursables, qui comprendrait des médicaments sécuritaires avec un impact majeur sur la santé (service médical rendu), à un coût raisonnable. Dans le cadre de cette recherche, nous avons développé une méthode de sélection des médicaments pour des fins de remboursement, dans un contexte de pays à faibles revenus. Cette approche a ensuite été appliquée dans le cadre de lâélaboration dâune nouvelle liste de médicaments remboursables pour la MUGEFCI. Méthode La méthode de sélection des médicaments remboursables, développée dans le cadre de cette recherche, est basée sur l'Analyse de Décision Multicritère (ADM). Elle sâarticule autour de quatre étapes: (1) l'identification et la pondération des critères pertinents d'inscription des médicaments au formulaire (combinant revue de la littérature et recherche qualitative, suivies par la réalisation dâune expérience de choix discrets); (2) la détermination d'un ensemble de traitements qui sont éligibles à un remboursement prioritaire; (3) lâattribution de scores aux traitements selon leurs performances sur les niveaux de variation de chaque critère, et (4) le classement des traitements par ordre de priorité de remboursement (classement des traitements selon un score global, obtenu après avoir additionné les scores pondérés des traitements). Après avoir défini la liste des médicaments remboursables en priorité, une analyse dâimpact budgétaire a été réalisée. Celle-ci a été effectuée afin de déterminer le coût par patient lié à l'utilisation des médicaments figurant sur la liste, selon la perspective de la MUGEFCI. Lâhorizon temporel était de 1 an et l'analyse portait sur tous les traitements admissibles à un remboursement prioritaire par la MUGEFCI. En ce qui concerne la population cible, elle était composée de personnes assurées par la MUGEFCI et ayant un diagnostic positif de maladie prioritaire en 2008. Les coûts considérés incluaient ceux des consultations médicales, des tests de laboratoire et des médicaments. Le coût par patient, résultant de l'utilisation des médicaments figurant sur la liste, a ensuite été comparé à la part des dépenses par habitant (per capita) allouée à la santé en Côte dâIvoire. Cette comparaison a été effectuée pour déterminer un seuil en deçà duquel la nouvelle liste des médicaments remboursables en priorité était abordable pour la MUGEFCI. Résultats Selon les résultats de lâexpérience de choix discrets, réalisée auprès de professionnels de la santé en Côte d'Ivoire, le rapport coût-efficacité et la sévérité de la maladie sont les critères les plus importants pour le remboursement prioritaire des médicaments. Cela se traduit par une préférence générale pour les antipaludiques, les traitements pour l'asthme et les antibiotiques indiqués pour les infections urinaires. En outre, les résultats de lâanalyse dâimpact budgétaire suggèrent que le coût par patient lié à l'utilisation des médicaments figurant sur la liste varierait entre 40 et 160 dollars américains. Etant donné que la part des dépenses par habitant allouées à la santé en Côte dâIvoire est de 66 dollars américains, lâon pourrait conclure que la nouvelle liste de médicaments remboursables serait abordable lorsque l'impact économique réel de lâutilisation des médicaments par patient est en deçà de ces 66 dollars américains. Au delà de ce seuil, la MUGEFCI devra sélectionner les médicaments remboursables en fonction de leur rang ainsi que le coût par patient associé à lâutilisation des médicaments. Plus précisément, cette sélection commencera à partir des traitements dans le haut de la liste de médicaments prioritaires et prendra fin lorsque les 66 dollars américains seront épuisés. Conclusion Cette étude fait la démonstration de ce quâil est possible d'utiliser lâanalyse de décision multicritère pour développer un formulaire pour les pays à faibles revenus, la Côte dâIvoire en lâoccurrence. L'application de cette méthode est un pas en avant vers la transparence dans l'élaboration des politiques de santé dans les pays en développement.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In this paper, we study several tests for the equality of two unknown distributions. Two are based on empirical distribution functions, three others on nonparametric probability density estimates, and the last ones on differences between sample moments. We suggest controlling the size of such tests (under nonparametric assumptions) by using permutational versions of the tests jointly with the method of Monte Carlo tests properly adjusted to deal with discrete distributions. We also propose a combined test procedure, whose level is again perfectly controlled through the Monte Carlo test technique and has better power properties than the individual tests that are combined. Finally, in a simulation experiment, we show that the technique suggested provides perfect control of test size and that the new tests proposed can yield sizeable power improvements.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In this paper, we provide both qualitative and quantitative measures of the cost of measuring the integrated volatility by the realized volatility when the frequency of observation is fixed. We start by characterizing for a general diffusion the difference between the realized and the integrated volatilities for a given frequency of observations. Then, we compute the mean and variance of this noise and the correlation between the noise and the integrated volatility in the Eigenfunction Stochastic Volatility model of Meddahi (2001a). This model has, as special examples, log-normal, affine, and GARCH diffusion models. Using some previous empirical works, we show that the standard deviation of the noise is not negligible with respect to the mean and the standard deviation of the integrated volatility, even if one considers returns at five minutes. We also propose a simple approach to capture the information about the integrated volatility contained in the returns through the leverage effect.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In this paper, we introduce a new approach for volatility modeling in discrete and continuous time. We follow the stochastic volatility literature by assuming that the variance is a function of a state variable. However, instead of assuming that the loading function is ad hoc (e.g., exponential or affine), we assume that it is a linear combination of the eigenfunctions of the conditional expectation (resp. infinitesimal generator) operator associated to the state variable in discrete (resp. continuous) time. Special examples are the popular log-normal and square-root models where the eigenfunctions are the Hermite and Laguerre polynomials respectively. The eigenfunction approach has at least six advantages: i) it is general since any square integrable function may be written as a linear combination of the eigenfunctions; ii) the orthogonality of the eigenfunctions leads to the traditional interpretations of the linear principal components analysis; iii) the implied dynamics of the variance and squared return processes are ARMA and, hence, simple for forecasting and inference purposes; (iv) more importantly, this generates fat tails for the variance and returns processes; v) in contrast to popular models, the variance of the variance is a flexible function of the variance; vi) these models are closed under temporal aggregation.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

We study the problem of measuring the uncertainty of CGE (or RBC)-type model simulations associated with parameter uncertainty. We describe two approaches for building confidence sets on model endogenous variables. The first one uses a standard Wald-type statistic. The second approach assumes that a confidence set (sampling or Bayesian) is available for the free parameters, from which confidence sets are derived by a projection technique. The latter has two advantages: first, confidence set validity is not affected by model nonlinearities; second, we can easily build simultaneous confidence intervals for an unlimited number of variables. We study conditions under which these confidence sets take the form of intervals and show they can be implemented using standard methods for solving CGE models. We present an application to a CGE model of the Moroccan economy to study the effects of policy-induced increases of transfers from Moroccan expatriates.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In the literature on tests of normality, much concern has been expressed over the problems associated with residual-based procedures. Indeed, the specialized tables of critical points which are needed to perform the tests have been derived for the location-scale model; hence reliance on available significance points in the context of regression models may cause size distortions. We propose a general solution to the problem of controlling the size normality tests for the disturbances of standard linear regression, which is based on using the technique of Monte Carlo tests.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

We characterize Paretian quasi-orders in the two-agent continuous case.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The technique of Monte Carlo (MC) tests [Dwass (1957), Barnard (1963)] provides an attractive method of building exact tests from statistics whose finite sample distribution is intractable but can be simulated (provided it does not involve nuisance parameters). We extend this method in two ways: first, by allowing for MC tests based on exchangeable possibly discrete test statistics; second, by generalizing the method to statistics whose null distributions involve nuisance parameters (maximized MC tests, MMC). Simplified asymptotically justified versions of the MMC method are also proposed and it is shown that they provide a simple way of improving standard asymptotics and dealing with nonstandard asymptotics (e.g., unit root asymptotics). Parametric bootstrap tests may be interpreted as a simplified version of the MMC method (without the general validity properties of the latter).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cet article illustre lâapplicabilité des méthodes de rééchantillonnage dans le cadre des tests multiples (simultanés), pour divers problèmes économétriques. Les hypothèses simultanées sont une conséquence habituelle de la théorie économique, de sorte que le contrôle de la probabilité de rejet de combinaisons de tests est un problème que lâon rencontre fréquemment dans divers contextes économétriques et statistiques. à ce sujet, on sait que le fait dâignorer le caractère conjoint des hypothèses multiples peut faire en sorte que le niveau de la procédure globale dépasse considérablement le niveau désiré. Alors que la plupart des méthodes dâinférence multiple sont conservatrices en présence de statistiques non-indépendantes, les tests que nous proposons visent à contrôler exactement le niveau de signification. Pour ce faire, nous considérons des critères de test combinés proposés initialement pour des statistiques indépendantes. En appliquant la méthode des tests de Monte Carlo, nous montrons comment ces méthodes de combinaison de tests peuvent sâappliquer à de tels cas, sans recours à des approximations asymptotiques. Après avoir passé en revue les résultats antérieurs sur ce sujet, nous montrons comment une telle méthodologie peut être utilisée pour construire des tests de normalité basés sur plusieurs moments pour les erreurs de modèles de régression linéaires. Pour ce problème, nous proposons une généralisation valide à distance finie du test asymptotique proposé par Kiefer et Salmon (1983) ainsi que des tests combinés suivant les méthodes de Tippett et de Pearson-Fisher. Nous observons empiriquement que les procédures de test corrigées par la méthode des tests de Monte Carlo ne souffrent pas du problème de biais (ou sous-rejet) souvent rapporté dans cette littérature â notamment contre les lois platikurtiques â et permettent des gains sensibles de puissance par rapport aux méthodes combinées usuelles.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In this paper, we use identification-robust methods to assess the empirical adequacy of a New Keynesian Phillips Curve (NKPC) equation. We focus on the Gali and Gertlerâs (1999) specification, on both U.S. and Canadian data. Two variants of the model are studied: one based on a rationalexpectations assumption, and a modification to the latter which consists in using survey data on inflation expectations. The results based on these two specifications exhibit sharp differences concerning: (i) identification difficulties, (ii) backward-looking behavior, and (ii) the frequency of price adjustments. Overall, we find that there is some support for the hybrid NKPC for the U.S., whereas the model is not suited to Canada. Our findings underscore the need for employing identificationrobust inference methods in the estimation of expectations-based dynamic macroeconomic relations.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Devant le constat du déclin toujours plus rapide de la diversité biologique et les limites des ressources disponibles pour lâenrayer, il est nécessaire de déterminer quels moyens devraient être engagés dans sa protection. Pour ce faire, une méthode efficace serait dâévaluer les bénéfices tirés de la biodiversité afin dâestimer rationnellement les coûts légitimes de sa protection. Lâévaluation économique, qui se présente dâemblée sur un mode quantitatif, serait alors un outil précieux. Dans ce texte, nous présentons différentes méthodes dâévaluation économique de la biodiversité ainsi que certaines de leurs limites méthodologiques. Par la suite, nous montrons quâen dépit de ses avantages pratiques, lâévaluation économique échoue à représenter lâensemble des valeurs en jeu dans la protection de la biodiversité. Nous décrivons alors trois types de valeurs incommensurables avec des bénéfices économiques : la valeur de legs, qui renvoie aux obligations de transmission du patrimoine naturel dont nous avons hérité ; la valeur dâexistence, qui renvoie à la considération morale dâintérêts autres que ceux des êtres humains ; la valeur de transformation, qui renvoie à la capacité dâexaminer et de critiquer nos préférences et inclinaisons afin dâinclure celles-ci dans une vision du monde rationnelle et cohérente. Pour conclure, nous plaidons en faveur de lâélaboration de méthodes de concertation et dâévaluation participatives et pluralistes permettant de rendre compte de la diversité et de lâhétérogénéité des valeurs de la biodiversité.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Quand le E-learning a émergé il ya 20 ans, cela consistait simplement en un texte affiché sur un écran d'ordinateur, comme un livre. Avec les changements et les progrès dans la technologie, le E-learning a parcouru un long chemin, maintenant offrant un matériel éducatif personnalisé, interactif et riche en contenu. Aujourd'hui, le E-learning se transforme de nouveau. En effet, avec la prolifération des systèmes d'apprentissage électronique et des outils d'édition de contenu éducatif, ainsi que les normes établies, câest devenu plus facile de partager et de réutiliser le contenu d'apprentissage. En outre, avec le passage à des méthodes d'enseignement centrées sur l'apprenant, en plus de l'effet des techniques et technologies Web2.0, les apprenants ne sont plus seulement les récipiendaires du contenu d'apprentissage, mais peuvent jouer un rôle plus actif dans l'enrichissement de ce contenu. Par ailleurs, avec la quantité d'informations que les systèmes E-learning peuvent accumuler sur les apprenants, et l'impact que cela peut avoir sur leur vie privée, des préoccupations sont soulevées afin de protéger la vie privée des apprenants. Au meilleur de nos connaissances, il n'existe pas de solutions existantes qui prennent en charge les différents problèmes soulevés par ces changements. Dans ce travail, nous abordons ces questions en présentant Cadmus, SHAREK, et le E-learning préservant la vie privée. Plus précisément, Cadmus est une plateforme web, conforme au standard IMS QTI, offrant un cadre et des outils adéquats pour permettre à des tuteurs de créer et partager des questions de tests et des examens. Plus précisément, Cadmus fournit des modules telles que EQRS (Exam Question Recommender System) pour aider les tuteurs à localiser des questions appropriées pour leur examens, ICE (Identification of Conflits in Exams) pour aider à résoudre les conflits entre les questions contenu dans un même examen, et le Topic Tree, conçu pour aider les tuteurs à mieux organiser leurs questions d'examen et à assurer facilement la couverture des différent sujets contenus dans les examens. D'autre part, SHAREK (Sharing REsources and Knowledge) fournit un cadre pour pouvoir profiter du meilleur des deux mondes : la solidité des systèmes E-learning et la flexibilité de PLE (Personal Learning Environment) tout en permettant aux apprenants d'enrichir le contenu d'apprentissage, et les aider à localiser nouvelles ressources d'apprentissage. Plus précisément, SHAREK combine un système recommandation multicritères, ainsi que des techniques et des technologies Web2.0, tels que le RSS et le web social, pour promouvoir de nouvelles ressources d'apprentissage et aider les apprenants à localiser du contenu adapté. Finalement, afin de répondre aux divers besoins de la vie privée dans le E-learning, nous proposons un cadre avec quatre niveaux de vie privée, ainsi que quatre niveaux de traçabilité. De plus, nous présentons ACES (Anonymous Credentials for E-learning Systems), un ensemble de protocoles, basés sur des techniques cryptographiques bien établies, afin d'aider les apprenants à atteindre leur niveau de vie privée désiré.