7 resultados para Estimation des distances
Resumo:
Les gestionnaires des ventes peuvent se servir de modèles de décision pour répartir de façon optimale les ressources marketing entre les produits et territoires. Ces modèles sont des équations mathématiques qui représentent la façon dont les ventes réagissent aux efforts marketing et peuvent être calibrés à partir de données objectives ou subjectives. Little (1971) affirme que les données subjectives sont plus efficaces parce qu'elles contiennent toute l'expérience des gestionnaires. À partir des recommandations de Little, Lodish (1971) a développé le modèle CALLPLAN afin d'aider les gestionnaires à répartir le temps de visites des représentants entre les clients ou les produits, de façon à maximiser les profits de l'entreprise. Pour calibrer ce modèle, les utilisateurs doivent utiliser les cinq données suivantes : les ventes prévues si aucune visite n'est effectuée, les ventes prévues avec une réduction de 50% des visites actuellement effectuées, les ventes actuelles, les ventes prévues si le nombre de visites est augmenté de 50% et les ventes prévues en effectuant un nombre infiniment grand de visites. Nous avons constaté que les modèles de répartition se basent tous sur les mêmes données pour estimer les paramètres des fonctions de réponse des ventes et que la valeur de ces données n'a jamais été évaluée empiriquement. Cette étude visait donc à évaluer la valeur des données subjectives utilisées dans la procédure d'estimation des paramètres du modèle CALLPLAN. À l'aide de simulations de jugements sur ordinateur, nous avons vérifié si la procédure d'estimation, telle que proposée par Lodish, peut être améliorée. Nous avons trouvé en essayant différentes combinaisons de cinq points, qu'effectivement la combinaison de Lodish n'est pas la meilleure pour estimer adéquatement les paramètres du modèle CALLPLAN. Quand la fonction de réponse des ventes est à priori en forme de S, les points utilisés devraient être les suivants ; les ventes prévues si aucune visite n'est effectuée (min), les ventes actuelles, les ventes prévues si un nombre infiniment grand de visites est effectué (max), les ventes prévues avec le nombre de visites qui correspond au point d'inflexion (P.l.) de la fonction de réponse et les ventes prévues avec le nombre de visites qui correspond à la mi-distance du point d'inflexion et du niveau de ressource min. Quand la fonction de réponse est à priori concave, la combinaison de points utilisée devrait être ; les ventes prévues si aucune visite n'est effectuée, les ventes actuelles, les ventes prévues si un nombre infiniment grand de visites est effectué, les ventes prévues en réduisant au quart le nombre de visites actuellement effectué et les ventes prévues en diminuant de 50% le nombre de visite actuellement utilisé. Nous avons également observé que les jugements concernant les ventes minimales et les ventes maximales influencent grandement les estimés. Nous avons donc trouvé un moyen d'atténuer leur impact en calculant des estimés moyens générés par les jugements individuels d'un groupe déjugés.
Resumo:
Dans ce mémoire, nous expliquons d'abord que les principaux critères d'évaluation d'un plan-média qui sont utilisés en pratique sont inappropriés parce qu'ils reposent sur des hypothèses irréalistes concernant le comportement des rendements marginaux des expositions à la publicité. Les distributions d'exposition à la publicité sont ensuite utilisées pour modéliser l'impact de différents plans-média en assumant l'existence de rendements marginaux décroissants en publicité. La performance de ce premier modèle est comparée à celle d'un autre modèle où l'impact est fonction de la taille de l'auditoire-cible des différents supports publicitaires et du nombre d'insertions dans chacun de ceux-ci. Nous trouvons une forte relation entre les deux modèles, ce qui suggère que les données qui alimentent le deuxième modèle et qui sont immédiatement disponibles pour tous les types de médias peuvent remplacer les distributions d'exposition dont l'estimation est beaucoup plus complexe. Nous dérivons enfin une règle de répartition du budget de publicité qui permet de déterminer de façon analytique le meilleur plan-média sans avoir recours à la procédure exhaustive d'essai et erreur qui est utilisée dans la plupart des modèles-média.
Resumo:
La méthodologie proposée vise à estimer les sensibilités des revenus de trois caisses d'épargne et de crédit par rapport aux modifications de taux d'intérêt. Plusieurs études basées sur le MEDAF permettent d'analyser la relation rendement risque. Notre méthodologie se démarque par l'inclusion d'un facteur taux d'intérêt comme variable explicative et par la segmentation des activités à l'intérieur d'une même caisse d'épargne et de crédit. Notre démarche se détaille comme suit: présentation du cadre conceptuel, laquelle comporte une brève revue de la littérature théorique et empirique et résume l'évolution du sujet; description de la procédure utilisée, de l'échantillon et de l'estimation; l'analyse et l'interprétation des résultats obtenus pour trois caisses. Un cahier des procédures expliquant le programme développé pour l'analyse (sur GAUSS) est présenté en annexe.
Sur des estimateurs et des tests non-paramétriques pour des distributions et copules conditionnelles
Resumo:
Pour modéliser un vecteur aléatoire en présence d'une co-variable, on peut d'abord faire appel à la fonction de répartition conditionnelle. En effet, cette dernière contient toute l'information ayant trait au comportement du vecteur étant donné une valeur prise par la co-variable. Il peut aussi être commode de séparer l'étude du comportement conjoint du vecteur de celle du comportement individuel de chacune de ses composantes. Pour ce faire, on utilise la copule conditionnelle, qui caractérise complètement la dépendance conditionnelle régissant les différentes associations entre les variables. Dans chacun des cas, la mise en oeuvre d'une stratégie d'estimation et d'inférence s'avère une étape essentielle à leur utilisant en pratique. Lorsqu'aucune information n'est disponible a priori quant à un choix éventuel de modèle, il devient pertinent d'opter pour des méthodes non-paramétriques. Le premier article de cette thèse, co-écrit par Jean-François Quessy et moi-même, propose une façon de ré-échantillonner des estimateurs non-paramétriques pour des distributions conditionnelles. Cet article a été publié dans la revue Statistics and Computing. En autres choses, nous y montrons comment obtenir des intervalles de confiance pour des statistiques s'écrivant en terme de la fonction de répartition conditionnelle. Le second article de cette thèse, co-écrit par Taoufik Bouezmarni, Jean-François Quessy et moi-même, s'affaire à étudier deux estimateurs non-paramétriques de la copule conditionnelles, proposés par Gijbels et coll. en présence de données sérielles. Cet article a été soumis dans la revue Statistics and Probability Letters. Nous identifions la distribution asymptotique de chacun de ces estimateurs pour des données mélangeantes. Le troisième article de cette thèse, co-écrit par Taoufik Bouezmarni, Jean-François Quessy et moi-même, propose une nouvelle façon d'étudier les relations de causalité entre deux séries chronologiques. Cet article a été soumis dans la revue Electronic Journal of Statistics. Dans cet article, nous utilisons la copule conditionnelle pour caractériser une version locale de la causalité au sens de Granger. Puis, nous proposons des mesures de causalité basées sur la copule conditionnelle. Le quatrième article de cette thèse, co-écrit par Taoufik Bouezmarni, Anouar El Ghouch et moi-même, propose une méthode qui permette d'estimer adéquatement la copule conditionnelle en présence de données incomplètes. Cet article a été soumis dans la revue Scandinavian Journal of Statistics. Les propriétés asymptotiques de l'estimateur proposé y sont aussi étudiées. Finalement, la dernière partie de cette thèse contient un travail inédit, qui porte sur la mise en oeuvre de tests statistiques permettant de déterminer si deux copules conditionnelles sont concordantes. En plus d'y présenter des résultats originaux, cette étude illustre l'utilité des techniques de ré-échantillonnage développées dans notre premier article.
Resumo:
Résumé : Dans les couverts forestiers, le suivi de l’humidité du sol permet de prévenir plusieurs désastres tels que la paludification, les incendies et les inondations. Comme ce paramètre est très dynamique dans l’espace et dans le temps, son estimation à grande échelle présente un grand défi, d’où le recours à la télédétection radar. Le capteur radar à synthèse d’ouverture (RSO) est couramment utilisé grâce à sa vaste couverture et sa résolution spatiale élevée. Contrairement aux sols nus et aux zones agricoles, le suivi de l’humidité du sol en zone forestière est très peu étudié à cause de la complexité des processus de diffusion dans ce type de milieu. En effet, la forte atténuation de la contribution du sol par la végétation et la forte contribution de volume issue de la végétation réduisent énormément la sensibilité du signal radar à l’humidité du sol. Des études portées sur des couverts forestiers ont montré que le signal radar en bande C provient principalement de la couche supérieure et sature vite avec la densité de la végétation. Cependant, très peu d’études ont exploré le potentiel des paramètres polarimétriques, dérivés d’un capteur polarimétrique comme RADARSAT-2, pour suivre l’humidité du sol sur les couverts forestiers. L’effet du couvert végétal est moins important avec la bande L en raison de son importante profondeur de pénétration qui permet de mieux informer sur l’humidité du sol. L’objectif principal de ce projet est de suivre l’humidité du sol à partir de données radar entièrement polarimétriques en bandes C et L sur des sites forestiers. Les données utilisées sont celles de la campagne terrain Soil Moisture Active Passive Validation EXperiment 2012 (SMAPVEX12) tenue du 6 juin au 17 juillet 2012 au Manitoba (Canada). Quatre sites forestiers de feuillus ont été échantillonnés. L’espèce majoritaire présente est le peuplier faux-tremble. Les données utilisées incluent des mesures de l’humidité du sol, de la rugosité de surface du sol, des caractéristiques des sites forestiers (arbres, sous-bois, litières…) et des données radar entièrement polarimétriques aéroportées et satellitaires acquises respectivement, en bande L (UAVSAR) à 30˚ et 40˚ et en bande C (RADARSAT-2) entre 20˚ et 30˚. Plusieurs paramètres polarimétriques ont été dérivés des données UAVSAR et RADARSAT-2 : les coefficients de corrélation (ρHHVV, φHHVV, etc); la hauteur du socle; l’entropie (H), l’anisotropie (A) et l’angle alpha extraits de la décomposition de Cloude-Pottier; les puissances de diffusion de surface (Ps), de double bond (Pd) extraites de la décomposition de Freeman-Durden, etc. Des relations entre les données radar (coefficients de rétrodiffusion multifréquences et multipolarisations (linéaires et circulaires) et les paramètres polarimétriques) et l’humidité du sol ont été développées et analysées. Les résultats ont montré que 1) En bande L, plusieurs paramètres optimaux permettent le suivi de l’humidité du sol en zone forestière avec un coefficient de corrélation significatif (p-value < 0,05): σ[indice supérieur 0] linéaire et σ[indice supérieur 0] circulaire (le coefficient de corrélation, r, varie entre 0,60 et 0,96), Ps (r entre 0,59 et 0,84), Pd (r entre 0,6 et 0,82), ρHHHV_30˚, ρVVHV_30˚, φHHHV_30˚ and φHHVV_30˚ (r entre 0,56 et 0,81) alors qu’en bande C, ils sont réduits à φHHHV, φVVHV et φHHVV (r est autour de 0,90). 2) En bande L, les paramètres polarimétriques n’ont pas montré de valeur ajoutée par rapport aux signaux conventionnels multipolarisés d’amplitude, pour le suivi de l’humidité du sol sur les sites forestiers. En revanche, en bande C, certains paramètres polarimétriques ont montré de meilleures relations significatives avec l’humidité du sol que les signaux conventionnels multipolarisés d’amplitude.
Resumo:
Résumé : Les eaux souterraines ont un impact majeur sur la vie terrestre, les besoins domestiques et le climat. Elles sont aussi un maillon essentiel du cycle hydrologique. Au Canada par exemple, plus de 30 % de la population est tributaire des eaux souterraines pour leur alimentation en eau potable. Ces ressources subissent de nombreuses pressions sous l’influence de certains facteurs comme la salinisation, la contamination et l’épuisement. La variabilité du climat et la demande croissante sur ces ressources imposent l'amélioration de nos connaissances sur les eaux souterraines. L’objectif principal du projet de recherche est d’exploiter les données d’anomalies (TWS) de la mission Gravity Recovery And Climate Experiment (GRACE) pour localiser, quantifier et analyser les variations des eaux souterraines à travers les bassins versants du Bas-Mackenzie, du Saint-Laurent, du Nord-Québec et du Labrador. Il s’agit aussi d’analyser l’influence des cycles d’accumulation et de fonte de neige sur les variations du niveau des eaux souterraines. Pour estimer les variations des eaux souterraines, la connaissance des autres paramètres du bilan hydrologique est nécessaire. Ces paramètres sont estimés à l’aide des sorties du modèles de surface CLM du Système Global d’Assimilation des Données de la Terre (GLDAS). Les données GRACE qui ont été utilisées sont celles acquises durant la période allant de mars 2002 à août 2012. Les résultats ont été évalués à partir d’enregistrements de niveaux piézométriques provenant de 1841 puits localisés dans les aquifères libres du bassin des réseaux de suivi des eaux souterraines au Canada. Les valeurs de rendements spécifiques des différents types d’aquifères de chaque puits et celles des variations mensuelles du niveau d’eau dans ces puits ont été utilisées pour estimer les variations des anomalies des eaux souterraines in-situ. L’étude de corrélation entre les variations des anomalies des eaux souterraines estimées à partir de la combinaison GRACE-GLDAS et celles issues de données in-situ révèle des concordances significatives avec des valeurs de
Resumo:
Ce mémoire est consacré à l'étude du modèle statistique bivarié duquel sont issues deux variables aléatoires conditionnellement indépendantes de loi de Poisson, dont les taux ne sont pas nécessairement égaux. Tout au long de ce mémoire, l'emphase est mise sur le développement d'un cadre bayésien au problème d'estimation paramétrique pour un tel modèle. Deux thèmes principaux y sont abordés : l'inférence statistique du rapport des deux paramètres d'intensité poissonniens et les densités prédictives. Ces problèmes surviennent notamment dans le contexte d'estimation de l'efficacité d'un vaccin développé par Laurent (Laurent, 2012) de même que Laurent et Legrand (Laurent et Legrand, 2012), ou encore, par celui d'estimation de l'efficacité d'un traitement contre le cancer par Lindley (Lindley, 2002). Alors que, dans ces articles, aucune contrainte paramétrique n'est imposée sur le rapport des deux taux poissonniens, une partie du mémoire abordera également ces thèmes lorsqu'il y a une contrainte restreignant le domaine du rapport sur l'intervalle $[0,1]$. Il sera alors possible d'établir des liens avec un article sur les files d'attente d'Armero et Bayarri (Armero et Bayarri, 1994).