903 resultados para hedonic pricing
Resumo:
Il n’existe présentement aucun code de la consommation dans la législation de la République Démocratique du Congo. Au vu de ce manque d’intérêt du législateur congolais pour les droits des citoyens consommateurs, il ne faut pas s’étonner du mutisme des deux textes réglementaires y régissant le secteur informatique quant à la protection des consommateurs internautes. Le citoyen congolais désireux de faire respecter les droits que lui a conférés un contrat conclu par voie électronique devra s’astreindre (lui ou son procureur) à colliger un certain nombre de textes éparpillés dans la législation de ce pays. La protection juridique accordée au consommateur congolais traditionnel (acheteur de biens matériels en général) se limite en ce moment à quelques dispositions législatives traitant de la publicité dans le secteur pharmaceutique, de l’affichage des prix, de l’interdiction de refuser de vendre un produit une fois que celui-ci a fait l’objet d’une offre et que les conditions de la vente ont été réunies, et de l’interdiction également de refuser de fournir une prestation de services une fois que celle-ci est devenue exigible. À certains égards, et prises dans leur ensemble, les normes éparses relatives à la consommation que la législation congolaise comporte protègent. mais de façon très partielle, les intérêts des consommateurs. Elles sont tout à fait inadéquates quant à la protection des intérêts des « cyberconsommateurs ». La solution à ce vide législatif consiste évidemment à faire adopter une loi en la matière, mais il s’agit là d’une solution imparfaite à cause de son aspect sectoriel. Une solution définitive, à nos yeux, devrait nécessairement être de nature internationale.
Resumo:
L’article traite de l’erreur sur le prix dans les contrats électroniques. Comme toile de fond l’auteure analyse la décision de la Cour Supérieure du Québec Union des consommateurs c. Dell Computer Corp., ainsi que celle de la Cour d’Appel du Québec. Comme la question de l’erreur sur le prix n’est pas traitée dans ces décisions, l’auteure étudie, dans un premier temps, les erreurs reconnues en droit québécois en tant que vices du consentement. Dans un deuxième temps, l’auteure étudie le cas spécifique de l’erreur sur le prix dans les contrats électroniques et la validité de ces derniers. Finalement, l’auteure analyse certaines décisions étrangères qui portent sur la validité d’un contrat électronique conclu sur la base d’une erreur sur le prix.
Resumo:
L’auteur fonde son argument sur l’importance déterminante des conséquences économiques de la numérisation sur l’évolution des droits d’auteur afférant à la musique. La musique numérisée correspondant à un bien public, les prix de sa négociation tendent vers 0, et seules les contraintes légales telles que les droits d’auteur ou les ententes sur les prix, qui sont généralement proscrites par les lois sur la concurrence, peuvent sauver l’entrant intrépide ou l’opérateur mis sur le sable. Alors que les propriétaires de droits d’auteur maximisent leurs profits en prônant l’extension de leur champ d’application et en poursuivant leur application par les tribunaux, leur valeur sociale est mesurée en termes d’efficacité pour la promotion de l’innovation. L’industrie de la musique a projeté le champ d’application des droits d’auteur si grossièrement loin au–delà des limites de la raison par rapport à la musique numérisée que leur position légale sera attaquée inlassablement sur tous les fronts, que ce soit par une banalisation des infractions, ou par la résistance devant les tribunaux ou par des campagnes visant une réforme législative.
Resumo:
Le modèle GARCH à changement de régimes est le fondement de cette thèse. Ce modèle offre de riches dynamiques pour modéliser les données financières en combinant une structure GARCH avec des paramètres qui varient dans le temps. Cette flexibilité donne malheureusement lieu à un problème de path dependence, qui a empêché l'estimation du modèle par le maximum de vraisemblance depuis son introduction, il y a déjà près de 20 ans. La première moitié de cette thèse procure une solution à ce problème en développant deux méthodologies permettant de calculer l'estimateur du maximum de vraisemblance du modèle GARCH à changement de régimes. La première technique d'estimation proposée est basée sur l'algorithme Monte Carlo EM et sur l'échantillonnage préférentiel, tandis que la deuxième consiste en la généralisation des approximations du modèle introduites dans les deux dernières décennies, connues sous le nom de collapsing procedures. Cette généralisation permet d'établir un lien méthodologique entre ces approximations et le filtre particulaire. La découverte de cette relation est importante, car elle permet de justifier la validité de l'approche dite par collapsing pour estimer le modèle GARCH à changement de régimes. La deuxième moitié de cette thèse tire sa motivation de la crise financière de la fin des années 2000 pendant laquelle une mauvaise évaluation des risques au sein de plusieurs compagnies financières a entraîné de nombreux échecs institutionnels. À l'aide d'un large éventail de 78 modèles économétriques, dont plusieurs généralisations du modèle GARCH à changement de régimes, il est démontré que le risque de modèle joue un rôle très important dans l'évaluation et la gestion du risque d'investissement à long terme dans le cadre des fonds distincts. Bien que la littérature financière a dévoué beaucoup de recherche pour faire progresser les modèles économétriques dans le but d'améliorer la tarification et la couverture des produits financiers, les approches permettant de mesurer l'efficacité d'une stratégie de couverture dynamique ont peu évolué. Cette thèse offre une contribution méthodologique dans ce domaine en proposant un cadre statistique, basé sur la régression, permettant de mieux mesurer cette efficacité.
Resumo:
Cette thèse de doctorat consiste en trois chapitres qui traitent des sujets de choix de portefeuilles de grande taille, et de mesure de risque. Le premier chapitre traite du problème d’erreur d’estimation dans les portefeuilles de grande taille, et utilise le cadre d'analyse moyenne-variance. Le second chapitre explore l'importance du risque de devise pour les portefeuilles d'actifs domestiques, et étudie les liens entre la stabilité des poids de portefeuille de grande taille et le risque de devise. Pour finir, sous l'hypothèse que le preneur de décision est pessimiste, le troisième chapitre dérive la prime de risque, une mesure du pessimisme, et propose une méthodologie pour estimer les mesures dérivées. Le premier chapitre améliore le choix optimal de portefeuille dans le cadre du principe moyenne-variance de Markowitz (1952). Ceci est motivé par les résultats très décevants obtenus, lorsque la moyenne et la variance sont remplacées par leurs estimations empiriques. Ce problème est amplifié lorsque le nombre d’actifs est grand et que la matrice de covariance empirique est singulière ou presque singulière. Dans ce chapitre, nous examinons quatre techniques de régularisation pour stabiliser l’inverse de la matrice de covariance: le ridge, spectral cut-off, Landweber-Fridman et LARS Lasso. Ces méthodes font chacune intervenir un paramètre d’ajustement, qui doit être sélectionné. La contribution principale de cette partie, est de dériver une méthode basée uniquement sur les données pour sélectionner le paramètre de régularisation de manière optimale, i.e. pour minimiser la perte espérée d’utilité. Précisément, un critère de validation croisée qui prend une même forme pour les quatre méthodes de régularisation est dérivé. Les règles régularisées obtenues sont alors comparées à la règle utilisant directement les données et à la stratégie naïve 1/N, selon leur perte espérée d’utilité et leur ratio de Sharpe. Ces performances sont mesurée dans l’échantillon (in-sample) et hors-échantillon (out-of-sample) en considérant différentes tailles d’échantillon et nombre d’actifs. Des simulations et de l’illustration empirique menées, il ressort principalement que la régularisation de la matrice de covariance améliore de manière significative la règle de Markowitz basée sur les données, et donne de meilleurs résultats que le portefeuille naïf, surtout dans les cas le problème d’erreur d’estimation est très sévère. Dans le second chapitre, nous investiguons dans quelle mesure, les portefeuilles optimaux et stables d'actifs domestiques, peuvent réduire ou éliminer le risque de devise. Pour cela nous utilisons des rendements mensuelles de 48 industries américaines, au cours de la période 1976-2008. Pour résoudre les problèmes d'instabilité inhérents aux portefeuilles de grandes tailles, nous adoptons la méthode de régularisation spectral cut-off. Ceci aboutit à une famille de portefeuilles optimaux et stables, en permettant aux investisseurs de choisir différents pourcentages des composantes principales (ou dégrées de stabilité). Nos tests empiriques sont basés sur un modèle International d'évaluation d'actifs financiers (IAPM). Dans ce modèle, le risque de devise est décomposé en deux facteurs représentant les devises des pays industrialisés d'une part, et celles des pays émergents d'autres part. Nos résultats indiquent que le risque de devise est primé et varie à travers le temps pour les portefeuilles stables de risque minimum. De plus ces stratégies conduisent à une réduction significative de l'exposition au risque de change, tandis que la contribution de la prime risque de change reste en moyenne inchangée. Les poids de portefeuille optimaux sont une alternative aux poids de capitalisation boursière. Par conséquent ce chapitre complète la littérature selon laquelle la prime de risque est importante au niveau de l'industrie et au niveau national dans la plupart des pays. Dans le dernier chapitre, nous dérivons une mesure de la prime de risque pour des préférences dépendent du rang et proposons une mesure du degré de pessimisme, étant donné une fonction de distorsion. Les mesures introduites généralisent la mesure de prime de risque dérivée dans le cadre de la théorie de l'utilité espérée, qui est fréquemment violée aussi bien dans des situations expérimentales que dans des situations réelles. Dans la grande famille des préférences considérées, une attention particulière est accordée à la CVaR (valeur à risque conditionnelle). Cette dernière mesure de risque est de plus en plus utilisée pour la construction de portefeuilles et est préconisée pour compléter la VaR (valeur à risque) utilisée depuis 1996 par le comité de Bâle. De plus, nous fournissons le cadre statistique nécessaire pour faire de l’inférence sur les mesures proposées. Pour finir, les propriétés des estimateurs proposés sont évaluées à travers une étude Monte-Carlo, et une illustration empirique en utilisant les rendements journaliers du marché boursier américain sur de la période 2000-2011.
Resumo:
L’évolution récente des commutateurs de sélection de longueurs d’onde (WSS -Wavelength Selective Switch) favorise le développement du multiplexeur optique d’insertionextraction reconfigurable (ROADM - Reconfigurable Optical Add/Drop Multiplexers) à plusieurs degrés sans orientation ni coloration, considéré comme un équipement fort prometteur pour les réseaux maillés du futur relativement au multiplexage en longueur d’onde (WDM -Wavelength Division Multiplexing ). Cependant, leur propriété de commutation asymétrique complique la question de l’acheminement et de l’attribution des longueur d’ondes (RWA - Routing andWavelength Assignment). Or la plupart des algorithmes de RWA existants ne tiennent pas compte de cette propriété d’asymétrie. L’interruption des services causée par des défauts d’équipements sur les chemins optiques (résultat provenant de la résolution du problème RWA) a pour conséquence la perte d’une grande quantité de données. Les recherches deviennent ainsi incontournables afin d’assurer la survie fonctionnelle des réseaux optiques, à savoir, le maintien des services, en particulier en cas de pannes d’équipement. La plupart des publications antérieures portaient particulièrement sur l’utilisation d’un système de protection permettant de garantir le reroutage du trafic en cas d’un défaut d’un lien. Cependant, la conception de la protection contre le défaut d’un lien ne s’avère pas toujours suffisante en termes de survie des réseaux WDM à partir de nombreux cas des autres types de pannes devenant courant de nos jours, tels que les bris d’équipements, les pannes de deux ou trois liens, etc. En outre, il y a des défis considérables pour protéger les grands réseaux optiques multidomaines composés de réseaux associés à un domaine simple, interconnectés par des liens interdomaines, où les détails topologiques internes d’un domaine ne sont généralement pas partagés à l’extérieur. La présente thèse a pour objectif de proposer des modèles d’optimisation de grande taille et des solutions aux problèmes mentionnés ci-dessus. Ces modèles-ci permettent de générer des solutions optimales ou quasi-optimales avec des écarts d’optimalité mathématiquement prouvée. Pour ce faire, nous avons recours à la technique de génération de colonnes afin de résoudre les problèmes inhérents à la programmation linéaire de grande envergure. Concernant la question de l’approvisionnement dans les réseaux optiques, nous proposons un nouveau modèle de programmation linéaire en nombres entiers (ILP - Integer Linear Programming) au problème RWA afin de maximiser le nombre de requêtes acceptées (GoS - Grade of Service). Le modèle résultant constitue celui de l’optimisation d’un ILP de grande taille, ce qui permet d’obtenir la solution exacte des instances RWA assez grandes, en supposant que tous les noeuds soient asymétriques et accompagnés d’une matrice de connectivité de commutation donnée. Ensuite, nous modifions le modèle et proposons une solution au problème RWA afin de trouver la meilleure matrice de commutation pour un nombre donné de ports et de connexions de commutation, tout en satisfaisant/maximisant la qualité d’écoulement du trafic GoS. Relativement à la protection des réseaux d’un domaine simple, nous proposons des solutions favorisant la protection contre les pannes multiples. En effet, nous développons la protection d’un réseau d’un domaine simple contre des pannes multiples, en utilisant les p-cycles de protection avec un chemin indépendant des pannes (FIPP - Failure Independent Path Protecting) et de la protection avec un chemin dépendant des pannes (FDPP - Failure Dependent Path-Protecting). Nous proposons ensuite une nouvelle formulation en termes de modèles de flots pour les p-cycles FDPP soumis à des pannes multiples. Le nouveau modèle soulève un problème de taille, qui a un nombre exponentiel de contraintes en raison de certaines contraintes d’élimination de sous-tour. Par conséquent, afin de résoudre efficacement ce problème, on examine : (i) une décomposition hiérarchique du problème auxiliaire dans le modèle de décomposition, (ii) des heuristiques pour gérer efficacement le grand nombre de contraintes. À propos de la protection dans les réseaux multidomaines, nous proposons des systèmes de protection contre les pannes d’un lien. Tout d’abord, un modèle d’optimisation est proposé pour un système de protection centralisée, en supposant que la gestion du réseau soit au courant de tous les détails des topologies physiques des domaines. Nous proposons ensuite un modèle distribué de l’optimisation de la protection dans les réseaux optiques multidomaines, une formulation beaucoup plus réaliste car elle est basée sur l’hypothèse d’une gestion de réseau distribué. Ensuite, nous ajoutons une bande pasiv sante partagée afin de réduire le coût de la protection. Plus précisément, la bande passante de chaque lien intra-domaine est partagée entre les p-cycles FIPP et les p-cycles dans une première étude, puis entre les chemins pour lien/chemin de protection dans une deuxième étude. Enfin, nous recommandons des stratégies parallèles aux solutions de grands réseaux optiques multidomaines. Les résultats de l’étude permettent d’élaborer une conception efficace d’un système de protection pour un très large réseau multidomaine (45 domaines), le plus large examiné dans la littérature, avec un système à la fois centralisé et distribué.
Resumo:
L’essence de la théorie du capital humain (Becker, 1964) prédit que l’investissement dans les activités visant à renforcer le potentiel productif des individus se traduit par une augmentation de leurs revenus tout au long de leur carrière (Benjamin, Gunderson et Riddell, 2002 : 245). Pour le groupe occupationnel constitué par les artistes, la littérature s’accorde pourtant pour dire que l’investissement en capital humain demeure rentable financièrement, mais à un niveau sensiblement moindre que pour les autres professions (Snooks, 1983; Filer, 1990; Rengers, 2002; Alper et Wassall, 2006). Nous exposons les théories du capital humain, des différences de salaire compensatoires (Smith, 1776) ainsi que la théorie hédonique des salaires (Rosen, 1974; Rosen et Thaler, 1975) afin d’atteindre deux objectifs. Premièrement, nous cherchons à vérifier empiriquement l’impact de l’acquisition de capital humain sur le revenu d’emploi autonome des artistes canadiens . Dans une autre perspective, nous souhaitons également évaluer la nature et la taille du différentiel de revenu d’emploi par rapport aux autres professions et investiguer les facteurs sur lesquels il repose. Le projet comble un vide dans la littérature portant sur les déterminants du revenu d’emploi des artistes canadiens et permet de réfléchir à l’orientation des politiques publiques culturelles entourant la formation académique de ceux-ci. Nous employons une analyse de régression multivariée sur des variables de capital humain en ayant recours aux données du recensement canadien de 2006 . Plus précisément, nous tentons de mesurer la relation associative entre le revenu de travail autonome exprimé sous forme de logarithme du salaire hebdomaire des artistes canadiens et la scolarité, l’expérience de travail, le sexe, le statut marital légal, la profession/spécialité artistique (classification selon la CNP-S, en vigueur en 2006), le statut d’immigrant, le statut de minorité visible, le fait d’être le principal soutien de la famille ainsi que la zone de résidence. Les résultats nous apprennent que la scolarité demeure rentable financièrement pour la majorité des spécialités artistiques, mais que des profils de scolarité précis ont avantage à être privilégiés selon la spécialité artistique. L’expérience de travail s’avère quant à elle moins rentable au niveau de la rémunération que chez les autres professions, tout comme elle est moins avantageuse financière pour les artistes issus des arts performatifs chez qui la carrière se termine habituellement assez tôt. En ce qui concerne l’effet des variables sociodémographiques, soulignons seulement que le fait d’être de sexe masculin est associé à de plus hauts revenus chez les artistes, mais dans une proportion moindre que chez les autres professions. Quant aux effets des statuts d’immigrant et de minorité visible sur le revenu d’emploi, ceux-ci varient mais demeurent moins pénalisants chez les artistes, ce qui suggère que le marché du travail culturel serait moins discriminant que le marché du travail traditionnel.
Resumo:
Le contenu de cette thèse est divisé de la façon suivante. Après un premier chapitre d’introduction, le Chapitre 2 est consacré à introduire aussi simplement que possible certaines des théories qui seront utilisées dans les deux premiers articles. Dans un premier temps, nous discuterons des points importants pour la construction de l’intégrale stochastique par rapport aux semimartingales avec paramètre spatial. Ensuite, nous décrirons les principaux résultats de la théorie de l’évaluation en monde neutre au risque et, finalement, nous donnerons une brève description d’une méthode d’optimisation connue sous le nom de dualité. Les Chapitres 3 et 4 traitent de la modélisation de l’illiquidité et font l’objet de deux articles. Le premier propose un modèle en temps continu pour la structure et le comportement du carnet d’ordres limites. Le comportement du portefeuille d’un investisseur utilisant des ordres de marché est déduit et des conditions permettant d’éliminer les possibilités d’arbitrages sont données. Grâce à la formule d’Itô généralisée il est aussi possible d’écrire la valeur du portefeuille comme une équation différentielle stochastique. Un exemple complet de modèle de marché est présenté de même qu’une méthode de calibrage. Dans le deuxième article, écrit en collaboration avec Bruno Rémillard, nous proposons un modèle similaire mais cette fois-ci en temps discret. La question de tarification des produits dérivés est étudiée et des solutions pour le prix des options européennes de vente et d’achat sont données sous forme explicite. Des conditions spécifiques à ce modèle qui permettent d’éliminer l’arbitrage sont aussi données. Grâce à la méthode duale, nous montrons qu’il est aussi possible d’écrire le prix des options européennes comme un problème d’optimisation d’une espérance sur en ensemble de mesures de probabilité. Le Chapitre 5 contient le troisième article de la thèse et porte sur un sujet différent. Dans cet article, aussi écrit en collaboration avec Bruno Rémillard, nous proposons une méthode de prévision des séries temporelles basée sur les copules multivariées. Afin de mieux comprendre le gain en performance que donne cette méthode, nous étudions à l’aide d’expériences numériques l’effet de la force et la structure de dépendance sur les prévisions. Puisque les copules permettent d’isoler la structure de dépendance et les distributions marginales, nous étudions l’impact de différentes distributions marginales sur la performance des prévisions. Finalement, nous étudions aussi l’effet des erreurs d’estimation sur la performance des prévisions. Dans tous les cas, nous comparons la performance des prévisions en utilisant des prévisions provenant d’une série bivariée et d’une série univariée, ce qui permet d’illustrer l’avantage de cette méthode. Dans un intérêt plus pratique, nous présentons une application complète sur des données financières.
Resumo:
The effect of dietary sodium restriction on perceived intensity of and preference for the taste of salt was evaluated in 76 adults, 25-49 years, with diastolic blood pressure between 79-90 mmHg. Participants were volunteers from clinical Hypertension Prevention Trials (HPT), at the University of California, Davis and the University of Minnesota, Minneapolis. Participants followed one of four HPT diets: 1600 mg Na+/day (NA, n=lS), 1600 mg Na+ plus 3200 mg K+/day (NK, n=lS), 1600 mg Na+/day plus energy restriction to achieve weight loss (NW, n=l3) and weight loss only (WT, n=l3). All participants attended regularly scheduled nutrition intervention meetings designed to help them achieve the HPT dietary goals. A fifth, no-intervention group, consisted of 20, no-diet-change controls CCN). Sodium, potassium and energy intakes were monitored by analysis of single, 24-hour food records and corresponding overnight urine specimens, obtained at baseline and after 12 and 24 weeks of intervention. Hedonic responses to sodium chloride in a prepared cream of green bean soup were assessed by two methods : 1) scaling of like/dislike for an NaCl concentration series on 10-cm graphie line scales and 2) ad libitum mixing of unsalted and salted soups to maximum level of liking. Salt content of the mixes was analyzed by sodium ion-selective electrode. The concentration series was also rated for perceived saltinessintensity on similar graphie line scales. Tests were conducted at baseline and after approximately 1, 3, 6, 8, 10, 13 and 24 weeks of intervention. Reduction in sodium intake and excretion in NA, NK and NW participants was accompanied by a shift in preference toward less saltiness in soup. The pattern of hedonic responses changed over time: scores for high NaCl concentrations decreased progressively while scores for low concentrations increased. Hedonic maxima shifted fran a concentration of 0.55% at the onset to 0.1-0.2% added NaCl at week 24. During the same time period, the preferred concentration of ad libitum mixes declined 50%. These shifts occurred independently of changes in saltiness intensity ratings, potassium or energy intakes, and were consistent across the two participating study sites. Like/dislike and sd. libitum responses were similar after 13 and 24 weeks of diet, as were measures of sodium intake and excretion. These findings suggest that after three months of sodium restriction, preference for salt had readjusted to a lower level, reflective of lower sodium intake. Mechanisms underlying the change in preference are unclear, but may include sensory, context, physiological as well as behavioral effects. In contrast, few changes were noted within WT and CN groups. The pattern of hedonic responses varied little in controls while the WT group showed increased liking for mid-range NaCl concentrations. Small, but significant fluctuations in ad libitum mix concentration occurred in both of these groups, but the differences appeared to be random rather than systematic. The results of this study indicate that preference for the taste of salt declines progressively toward a new baseline following reductions in sodium intake. These alterations may enhance maintenance of lowsodium diets for the treatment and prevention of hypertension. Further investigation is needed to establish the degree to which long-term compliance is contingent upon variation in salt taste preference.
Resumo:
Cette thèse est une collection de trois articles en économie de l'information. Le premier chapitre sert d'introduction et les Chapitres 2 à 4 constituent le coeur de l'ouvrage. Le Chapitre 2 porte sur l’acquisition d’information sur l’Internet par le biais d'avis de consommateurs. En particulier, je détermine si les avis laissés par les acheteurs peuvent tout de même transmettre de l’information à d’autres consommateurs, lorsqu’il est connu que les vendeurs peuvent publier de faux avis à propos de leurs produits. Afin de comprendre si cette manipulation des avis est problématique, je démontre que la plateforme sur laquelle les avis sont publiés (e.g. TripAdvisor, Yelp) est un tiers important à considérer, autant que les vendeurs tentant de falsifier les avis. En effet, le design adopté par la plateforme a un effet indirect sur le niveau de manipulation des vendeurs. En particulier, je démontre que la plateforme, en cachant une partie du contenu qu'elle détient sur les avis, peut parfois améliorer la qualité de l'information obtenue par les consommateurs. Finalement, le design qui est choisi par la plateforme peut être lié à la façon dont elle génère ses revenus. Je montre qu'une plateforme générant des revenus par le biais de commissions sur les ventes peut être plus tolérante à la manipulation qu'une plateforme qui génère des revenus par le biais de publicité. Le Chapitre 3 est écrit en collaboration avec Marc Santugini. Dans ce chapitre, nous étudions les effets de la discrimination par les prix au troisième degré en présence de consommateurs non informés qui apprennent sur la qualité d'un produit par le biais de son prix. Dans un environnement stochastique avec deux segments de marché, nous démontrons que la discrimination par les prix peut nuire à la firme et être bénéfique pour les consommateurs. D'un côté, la discrimination par les prix diminue l'incertitude à laquelle font face les consommateurs, c.-à-d., la variance des croyances postérieures est plus faible avec discrimination qu'avec un prix uniforme. En effet, le fait d'observer deux prix (avec discrimination) procure plus d'information aux consommateurs, et ce, même si individuellement chacun de ces prix est moins informatif que le prix uniforme. De l'autre côté, il n'est pas toujours optimal pour la firme de faire de la discrimination par les prix puisque la présence de consommateurs non informés lui donne une incitation à s'engager dans du signaling. Si l'avantage procuré par la flexibilité de fixer deux prix différents est contrebalancé par le coût du signaling avec deux prix différents, alors il est optimal pour la firme de fixer un prix uniforme sur le marché. Finalement, le Chapitre 4 est écrit en collaboration avec Sidartha Gordon. Dans ce chapitre, nous étudions une classe de jeux où les joueurs sont contraints dans le nombre de sources d'information qu'ils peuvent choisir pour apprendre sur un paramètre du jeu, mais où ils ont une certaine liberté quant au degré de dépendance de leurs signaux, avant de prendre une action. En introduisant un nouvel ordre de dépendance entre signaux, nous démontrons qu'un joueur préfère de l'information qui est la plus dépendante possible de l'information obtenue par les joueurs pour qui les actions sont soit, compléments stratégiques et isotoniques, soit substituts stratégiques et anti-toniques, avec la sienne. De même, un joueur préfère de l'information qui est la moins dépendante possible de l'information obtenue par les joueurs pour qui les actions sont soit, substituts stratégiques et isotoniques, soit compléments stratégiques et anti-toniques, avec la sienne. Nous établissons également des conditions suffisantes pour qu'une structure d'information donnée, information publique ou privée par exemple, soit possible à l'équilibre.
Resumo:
Empirical evidence suggests that ambiguity is prevalent in insurance pricing and underwriting, and that often insurers tend to exhibit more ambiguity than the insured individuals (e.g., [23]). Motivated by these findings, we consider a problem of demand for insurance indemnity schedules, where the insurer has ambiguous beliefs about the realizations of the insurable loss, whereas the insured is an expected-utility maximizer. We show that if the ambiguous beliefs of the insurer satisfy a property of compatibility with the non-ambiguous beliefs of the insured, then there exist optimal monotonic indemnity schedules. By virtue of monotonicity, no ex-post moral hazard issues arise at our solutions (e.g., [25]). In addition, in the case where the insurer is either ambiguity-seeking or ambiguity-averse, we show that the problem of determining the optimal indemnity schedule reduces to that of solving an auxiliary problem that is simpler than the original one in that it does not involve ambiguity. Finally, under additional assumptions, we give an explicit characterization of the optimal indemnity schedule for the insured, and we show how our results naturally extend the classical result of Arrow [5] on the optimality of the deductible indemnity schedule.
Resumo:
Essai doctoral présenté à la Faculté des arts et des sciences en vue de l’obtention du grade de Doctorat en psychologie clinique (D.Psy.)
Resumo:
Empirical evidence suggests that ambiguity is prevalent in insurance pricing and underwriting, and that often insurers tend to exhibit more ambiguity than the insured individuals (e.g., [23]). Motivated by these findings, we consider a problem of demand for insurance indemnity schedules, where the insurer has ambiguous beliefs about the realizations of the insurable loss, whereas the insured is an expected-utility maximizer. We show that if the ambiguous beliefs of the insurer satisfy a property of compatibility with the non-ambiguous beliefs of the insured, then there exist optimal monotonic indemnity schedules. By virtue of monotonicity, no ex-post moral hazard issues arise at our solutions (e.g., [25]). In addition, in the case where the insurer is either ambiguity-seeking or ambiguity-averse, we show that the problem of determining the optimal indemnity schedule reduces to that of solving an auxiliary problem that is simpler than the original one in that it does not involve ambiguity. Finally, under additional assumptions, we give an explicit characterization of the optimal indemnity schedule for the insured, and we show how our results naturally extend the classical result of Arrow [5] on the optimality of the deductible indemnity schedule.
Resumo:
A new conceptualization of the investments is defended in accordance with the nature of the uncertainty. The results of this conceptualization offer a theory of the investment compatible with the concept of intrinsec value that is been able expressed in mathematical model. This model is an alternative to the named 'pricing models'.
Resumo:
In India, Food Security meant supply of food grains and the medium was Public Distribution System. Public Distribution System (PDS) is a rationing mechanism that entitles households to specified quantities of selected commodities at subsidized prices. The Objectives of PDS are maintaining Price Stability, rationing during times of scarcity, welfare of the poor, and keeping a check on private trade. Kerala has registered remarkable improvement in poverty reduction in general over the years among all social sections, including scheduled caste and scheduled tribe population. As part of the structural adjustment intended to reduce public expenditure, PDS has been modified as Revamped PDS (RPDS) during 1992 and later on as Targeted PDS (TPDS) in 1997, intended to target households on the basis of income criterion, classifying people as Below Poverty Line (BPL) and Above Poverty Line (APL). TPDS provides 25Kg. of food gra.ins through the Fair Price Shops per month @ Rs.3/- per Kg. of rice/ wheat to the BPL category and @Rs.8.90 and Rs.6.7O for rice and wheat respectively to the APL category of people. Since TPDS is intended to target the poor people, the subsidy spent by the government for the scheme should be beneficial to the poor people and naturally they should utilize the benefits by purchasing the food grains allotted under the scheme. Several studies have shown that there is underutilization of the allotments under TPDS. Therefore, the extent of utilization of TPDS in food grains, how and why remains as a major hurdle, in improving the structure and system of PDS. Livelihood of the tribal population being under threat due to increasing degradation of the resources, the targeting system ought to be effective among the tribal population. Therefore, performance of the TPDS in food grains, in terms of the utilization by the tribal population in Kerala, impact thereof and the factors, if any, affecting proper utilization were considered as the research problem in this study. The study concentrated on the pattern of consumption of food grains by the tribal people, whether their hunger needs are met by distribution of food grains through the TPDS, extent to which TPDS in food grains reduce their share of expenditure on food in the total household expenditure, and the factors affecting the utilization of the TPDS in food grains by the tribal population. Going through the literature, it has been noted that only few studies concentrated on the utilization of TPDS in food grains among the tribal population in Kerala.The Research Design used in this study is descriptive in nature, but exploratory in some aspects. Idukki, Palakkad and Wayanad have more than 60% of the population of the tribals in the state. Within the three districts mentioned above, 14 villages with scheduled tribe concentration were selected for the study. 95 tribal colonies were selected from among the various tribal settlements. Collection of primary data was made from 1231 households with in the above tribal colonies. Analysis of data on the socio-economic factors of the tribal people, pattern of food consumption, extent of reduction in the share of expenditure on food among the household expenditure of the tribal people and the impact of TPDS on the tribal families etc. and testing of hypotheses to find out the relation/association of each of the six variables, using the data on BPL and APL categories of households separately have resulted in findings such as six percent of the tribal families do not have Ration Cards, average per capita consumption of food grains by the tribal people utilizing TPDS meets 62% of their minimum requirement, whereas the per capita consumption of food grains by the tribal people is higher than the national average per capita consumption, 63% deficiency in food grains may be felt by tribal people in general, if TPDS is withdrawn, and the deficit for BPL tribal people may be 82%, TPDS facilitates a reduction of 9.71% in the food expenditure among the total household expenditure of the tribal people in general, share of food to non-food among BPL category of tribals is 55:45 and 40:60 among the APL, Variables, viz. household income, number of members in the family and distance of FPS from tribal settlements etc. have influence on the quantity of rice being purchased by the tribal people from the Fair Price Shops, and there is influence of household income and distance of FPS from tribal settlements on the quantity of rice being purchased by the tribal people from the open market. Rationing with differential pricing on phased allotments, rectification of errors in targeting, anomalies in norms and procedures for classifying tribal people as BPL/APL, exclusive Income Generation for tribal population, paddy cultivation in the landholdings possessed by the tribal people, special drive for allotment of Ration Cards to the tribal people, especially those belonging to the BPL category, Mobile Fair Price Shops in tribal settlements, ensure quality of the food grains distributed through the TPDS, distribution of wheat flour in packed condition instead of wheat through the Fair Price Shops are recommended to address the shortcomings and weaknesses of the TPDS vis-avis the tribal population in Kerala.