27 resultados para Uniformly Convex

em Université de Montréal, Canada


Relevância:

10.00% 10.00%

Publicador:

Resumo:

A group of agents located along a river have quasi-linear preferences over water and money. We ask how the water should be allocated and what money transfers should be performed. We are interested in efficiency, stability (in the sense of the core), and fairness (in a sense to be defined). We first show that the cooperative game associated with our problem is convex : its core is therefore large and easily described. Next, we propose the following fairness requirement : no group of agents should enjoy a welfare higher than what it could achieve in the absence of the remaining agents. We prove that only one welfare vector in the core satisfies this condition : it is the marginal contribution vector corresponding to the ordering of the agents along the river. We discuss how it could be decentralized or implemented.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper studies vertical R&D spillovers between upstream and downstream firms. The model incorporates two vertically related industries, with horizontal spillovers within each industry and vertical spillovers between the two industries. Four types of R&D cooperation are studied : no cooperation, horizontal cooperation, vertical cooperation, and simultaneous horizontal and vertical cooperation. Vertical spillovers always increase R&D and welfare, while horizontal spillovers may increase or decrease them. The comparison of cooperative settings in terms of R&D shows that no setting uniformly dominates the others. Which type of cooperation yields more R&D depends on horizontal and vertical spillovers, and market structure. The ranking of cooperative structures hinges on the signs and magnitudes of three competitive externalities (vertical, horizontal, and diagonal) which capture the effect of the R&D of a firm on the profits of other firms. One of the basic results of the strategic investment literature is that cooperation between competitors increases (decreases) R&D when horizontal spillovers are high (low); the model shows that this result does not necessarily hold when vertical spillovers and vertical cooperation are taken into account. The paper proposes a theory of innovation and market structure, showing that the relation between innovation and competition depends on horizontal spillovers, vertical spillovers, and cooperative settings. The private incentives for R&D cooperation are addressed. It is found that buyers and sellers have divergent interests regarding the choice of cooperative settings and that spillovers increase the likelihood of the emergence of cooperation in a decentralized equilibrium.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In spatial environments, we consider social welfare functions satisfying Arrow's requirements. i.e., weak Pareto and independence of irrelevant alternatives. When the policy space os a one-dimensional continuum, such a welfare function is determined by a collection of 2n strictly quasi-concave preferences and a tie-breaking rule. As a corrollary, we obtain that when the number of voters is odd, simple majority voting is transitive if and only if each voter's preference is strictly quasi-concave. When the policy space is multi-dimensional, we establish Arrow's impossibility theorem. Among others, we show that weak Pareto, independence of irrelevant alternatives, and non-dictatorship are inconsistent if the set of alternatives has a non-empty interior and it is compact and convex.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In an economy where cash can be stored costlessly (in nominal terms), the nominal interest rate is bounded below by zero. This paper derives the implications of this nonnegativity constraint for the term structure and shows that it induces a nonlinear and convex relation between short- and long-term interest rates. As a result, the long-term rate responds asymmetrically to changes in the short-term rate, and by less than predicted by a benchmark linear model. In particular, a decrease in the short-term rate leads to a decrease in the long-term rate that is smaller in magnitude than the increase in the long-term rate associated with an increase in the short-term rate of the same size. Up to the extent that monetary policy acts by affecting long-term rates through the term structure, its power is considerably reduced at low interest rates. The empirical predictions of the model are examined using data from Japan.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Affiliation: Faculté de pharmacie, Université de Montréal

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In spatial environments we consider social welfare functions satisfying Arrow’s requirements, i.e. weak Pareto and independence of irrelevant alternatives. Individual preferences measure distances between alternatives according to the Lp-norm (for a fixed p => 1). When the policy space is multi-dimensional and the set of alternatives has a non-empty interior and it is compact and convex, any quasi-transitive welfare function must be oligarchic. As a corollary we obtain that for transitive welfare functions weak Pareto, independence of irrelevant alternatives, and non-dictatorship are inconsistent if the set of alternatives has a non-empty interior and it is compact and convex.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La technique du laser femtoseconde (fs) a été précédemment utilisée pour la production de nanoparticules d'or dans un environnement aqueux biologiquement compatible. Au cours de ce travail de maîtrise, cette méthode a été investiguée en vue d'une application pour la fabrication de nanocristaux de médicament en utilisant le paclitaxel comme modèle. Deux procédés distincts de cette technologie à savoir l'ablation et la fragmentation ont été étudiés. L'influence de la puissance du laser, de point de focalisation, et de la durée du traitement sur la distribution de taille des particules obtenues ainsi que leur intégrité chimique a été évaluée. Les paramètres ont ainsi été optimisés pour la fabrication des nanoparticules. L’évaluation morphologique et chimique a été réalisée par microscopie électronique et spectroscopie infrarouge respectivement. L'état cristallin des nanoparticules de paclitaxel a été caractérisé par calorimétrie differentielle et diffraction des rayons X. L'optimisation du procédé de production de nanoparticules par laser fs a permis d'obtenir des nanocristaux de taille moyenne (400 nm, polydispersité ≤ 0,3). Cependant une dégradation non négligeable a été observée. La cristallinité du médicament a été maintenue durant la procédure de réduction de taille, mais le paclitaxel anhydre a été transformé en une forme hydratée. Les résultats de cette étude suggèrent que le laser fs peut générer des nanocristaux de principe actif. Cependant cette technique peut se révéler problématique pour des médicaments sensibles à la dégradation. Grâce à sa facilité d'utilisation et la possibilité de travailler avec des quantités restreintes de produit, le laser fs pourrait représenter une alternative valable pour la production de nanoparticules de médicaments peu solubles lors des phases initiales de développement préclinique. Mots-clés: paclitaxel, nanocristaux, laser femtoseconde, ablation, fragmentation

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this paper we provide a thorough characterization of the asset returns implied by a simple general equilibrium production economy with Chew–Dekel risk preferences and convex capital adjustment costs. When households display levels of disappointment aversion consistent with the experimental evidence, a version of the model parameterized to match the volatility of output and consumption growth generates unconditional expected asset returns and price of risk in line with the historical data. For the model with Epstein–Zin preferences to generate similar statistics, the relative risk aversion coefficient needs to be about 55, two orders of magnitude higher than the available estimates. We argue that this is not surprising, given the limited risk imposed on agents by a reasonably calibrated stochastic growth model.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objectifs Aucun agent n’a été approuvé pour prévenir l’ototoxicité secondaire au cisplatin. Nos objectifs consistaient à évaluer la protection auditive offerte par le lactate et le N-acétylcystéine (NAC) intra-tympaniques après injection de cisplatin, ainsi que l’absorption systémique du NAC intra-tympanique. Méthodes Seize cochons d’inde formaient 2 groupes ayant reçu une solution de lactate et de NAC à 20% dans l’oreille testée. L’oreille contro-latérale a reçu une solution saline contrôle. Après 30 minutes, une injection intrapéritonéale de 3 mg/kg de cisplatin a été effectuée et répétée une fois par semaine jusqu’à une dose finale de 24 mg/kg. Les potentiels évoqués auditifs du tronc cérébral (PEATC) ont été mesurés avant les injections, après 9 mg/kg et 24 mg/kg de cisplatin. Les cochlées ont été analysées au microscope électronique à balayage. La diffusion systémique du NAC a été évaluée par chromatographie en phase liquide. Résultats Pour les oreilles contrôles, les seuils auditifs des PEATC ont augmenté uniformément sur toutes les fréquences (28,4 dB en moyenne). Le groupe lactate montrait une augmentation moins importante (17,0 dB). Les basses fréquences étaient nettement moins affectées. Le groupe NAC a subi une augmentation des seuils de 89 dB. La microscopie électronique a démontré une préservation partielle des cellules ciliées externes des cochlées traitées au lactate et une destruction complète de celles traitées au NAC. La chromatographie n’a démontré aucune diffusion de NAC. Conclusions Le lactate offre une protection partielle significative contre l’ototoxicité induite par le cisplatin. Les injections de NAC n’offrent pas de protection lorsque administrées en concentrations élevée. Le NAC intra-tympanique ne se diffuse pas systémiquement.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le fullerène C60 est une molécule sphérique composée exclusivement d'atomes de carbone. Ce composé possède une surface aromatique convexe homogène et peut s'associer, entre autres, avec des molécules possédant des surfaces aromatiques par des interactions non-covalentes. Le triptycène est une molécule en forme de "Y" qui possède des surfaces aromatiques convexes. Cette molécule possède l'habileté de s'associer avec le C60 par des interactions de type π qui sont amplifiées par la complémentarité des surfaces concaves et convexes impliquées dans les arrangements cristallins. Nous avons synthétisé des dérivés triptycényles portant des groupements fonctionnels aux extrémités des bras de ce noyau de façon à étendre les cavités disponibles pour interagir avec le C60. En effet, nous avons découvert que les atomes de chlore, de brome et d'iode ainsi que les groupements méthyle permettent d'étendre les surfaces disponibles pour interagir avec les fullerènes C60 et C70. Nous avons étudié les associations entre les dérivés triptycényles et les fullerènes par l'analyse des structures cristallographiques résolues par diffraction des rayons-X. De plus, nous avons étudié les associations entre les molécules considérées par l'analyse des surfaces d'Hirshfeld entourant les fullerènes. Découlant de ces études, l'effet d'amplification des atomes de chlore, de brome et d'iode ainsi que les groupements méthyle a été employé pour identifier de nouveaux solvants aptes à solubiliser efficacement le C60.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse est constituée de trois articles. Le premier étudie le problème de pollution globale dans un contexte environnemental incertain. Le deuxième article traite des accords internationaux sur l'environnement. Le troisième article montre comment la libéralisation du commerce peut affecter le bien-être et les taxes sur la pollution dans un monde où les pays sont hétérogènes et la pollution transfrontalière. Dans le premier article, je considère un monde dans lequel les pays souffrent uniformément de la pollution globale. Ils font face à une menace continuelle de voir les dommages causés par cette pollution globale s'accroître subitement de façon irréversible. Je caractérise le niveau des émissions, le stock de pollution, et le niveau de bien-être actualisé en équilibres coopératif et non-coopératif. L'objectif visé est d'analyser l'impact de ce type d'incertitude sur les équilibres issus des comportements stratégiques des pays. Je trouve que cette incertitude peut avoir un effet significatif sur ces équilibres. Les pays réduisent leurs émissions pour atténuer leur exposition à cette menace. Plus la menace est grande, plus les pays ajustent leurs émissions afin de réduire le stock de pollution globale. Cependant, en dépit du fait que cette incertitude diminue le bien-être net initial, elle peut à long terme avoir un effet net positif sur le bien-être. Le deuxième article étend la classe des modèles dynamiques standards traitant des accords internationaux sur l'environnement au cas où la durée de la période d'engagement à de tels accords est un paramètre que l'on peut varier de façon exogène. Nous y étudions les évolutions dans le temps de la taille des coalitions stables, du stock de pollution et du taux d'émissions en fonction de la durée d'engagement. Nous montrons que la longueur de la période d'engagement a un effet très significatif sur l'équilibre. Trois intervalles de durée d'engagement sont identifiés pour lesquels l'équilibre et sa dynamique diffèrent considérablement. Alors que pour des durées de la période d'engagement très longues on observe des coalitions stables constituées d'un petit nombre de pays, si ces durées sont suffisamment courtes on peut observer un niveau de coopération élevé. Les durées d'engagement entre ces deux extrêmes sont caractérisées par une relation inverse entre la durée de la période d'engagement et la taille des coalitions stables. Ces faits portent à croire qu'il faudrait accorder une attention toute particulière au choix de la durée d'engagement lors de l'élaboration de tels accords internationaux. Le troisième article s'inscrit dans un contexte où les activités de production des pays potentiellement hétérogènes génèrent de la pollution qui peut traverser les frontières et nuire au bien-être des pays impliqués. Dans chacun de ces pays, l'état impose des taxes sur la pollution aux firmes polluantes et des tarifs à l'importation afin de corriger cette distorsion. Ce papier a pour but d'évaluer les effets que pourrait avoir une diminution des tarifs douaniers sur la production, les taxes sur la pollution et le bien-être de ces pays. La littérature existante a étudié ce problème, mais seulement dans le cadre d'un commerce bilatéral entre pays identiques. Cet article fournit un cadre d'analyse plus réaliste dans lequel les pays ne seront pas nécessairement identiques et où le commerce pourra être multilatéral. Il devient alors possible de mettre en évidence le biais introduit en négligeant ces deux facteurs. Dans ce nouveau contexte, je montre qu'une réduction des tarifs d'importation n'augmente pas nécessairement la production; elle peut aussi nuire au bien-être, même si la pollution est purement locale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le sujet principal de cette thèse porte sur les mesures de risque. L'objectif général est d'investiguer certains aspects des mesures de risque dans les applications financières. Le cadre théorique de ce travail est celui des mesures cohérentes de risque telle que définie dans Artzner et al (1999). Mais ce n'est pas la seule classe de mesure du risque que nous étudions. Par exemple, nous étudions aussi quelques aspects des "statistiques naturelles de risque" (en anglais natural risk statistics) Kou et al (2006) et des mesures convexes du risque Follmer and Schied(2002). Les contributions principales de cette thèse peuvent être regroupées selon trois axes: allocation de capital, évaluation des risques et capital requis et solvabilité. Dans le chapitre 2 nous caractérisons les mesures de risque avec la propriété de Lebesgue sur l'ensemble des processus bornés càdlàg (continu à droite, limité à gauche). Cette caractérisation nous permet de présenter deux applications dans l'évaluation des risques et l'allocation de capital. Dans le chapitre 3, nous étendons la notion de statistiques naturelles de risque à l'espace des suites infinies. Cette généralisation nous permet de construire de façon cohérente des mesures de risque pour des bases de données de n'importe quelle taille. Dans le chapitre 4, nous discutons le concept de "bonnes affaires" (en anglais Good Deals), pour notamment caractériser les situations du marché où ces positions pathologiques sont présentes. Finalement, dans le chapitre 5, nous essayons de relier les trois chapitres en étendant la définition de "bonnes affaires" dans un cadre plus large qui comprendrait les mesures de risque analysées dans les chapitres 2 et 3.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans ce mémoire, je démontre que la distribution de probabilités de l'état quantique Greenberger-Horne-Zeilinger (GHZ) sous l'action locale de mesures de von Neumann indépendantes sur chaque qubit suit une distribution qui est une combinaison convexe de deux distributions. Les coefficients de la combinaison sont reliés aux parties équatoriales des mesures et les distributions associées à ces coefficients sont reliées aux parties réelles des mesures. Une application possible du résultat est qu'il permet de scinder en deux la simulation de l'état GHZ. Simuler, en pire cas ou en moyenne, un état quantique comme GHZ avec des ressources aléatoires, partagées ou privées, et des ressources classiques de communication, ou même des ressources fantaisistes comme les boîtes non locales, est un problème important en complexité de la communication quantique. On peut penser à ce problème de simulation comme un problème où plusieurs personnes obtiennent chacune une mesure de von Neumann à appliquer sur le sous-système de l'état GHZ qu'il partage avec les autres personnes. Chaque personne ne connaît que les données décrivant sa mesure et d'aucune façon une personne ne connaît les données décrivant la mesure d'une autre personne. Chaque personne obtient un résultat aléatoire classique. La distribution conjointe de ces résultats aléatoires classiques suit la distribution de probabilités trouvée dans ce mémoire. Le but est de simuler classiquement la distribution de probabilités de l'état GHZ. Mon résultat indique une marche à suivre qui consiste d'abord à simuler les parties équatoriales des mesures pour pouvoir ensuite savoir laquelle des distributions associées aux parties réelles des mesures il faut simuler. D'autres chercheurs ont trouvé comment simuler les parties équatoriales des mesures de von Neumann avec de la communication classique dans le cas de 3 personnes, mais la simulation des parties réelles résiste encore et toujours.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

I study long-term financial contracts between lenders and borrowers in the absence of perfect enforceability and when both parties are credit constrained. Borrowers repeatedly have projects to undertake and need external financing. Lenders can commit to contractual agreements whereas borrowers can renege any period. I show that equilibrium contracts feature interesting dynamics: the economy exhibits efficient investment cycles; absence of perfect enforcement and shortage of capital skew the cycles toward states of liquidity drought; credit is rationed if either the lender has too little capital or if the borrower has too little collateral. This paper's technical contribution is its demonstration of the existence and characterization of financial contracts that are solutions to a non-convex dynamic programming problem.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Parmi les méthodes d’estimation de paramètres de loi de probabilité en statistique, le maximum de vraisemblance est une des techniques les plus populaires, comme, sous des conditions l´egères, les estimateurs ainsi produits sont consistants et asymptotiquement efficaces. Les problèmes de maximum de vraisemblance peuvent être traités comme des problèmes de programmation non linéaires, éventuellement non convexe, pour lesquels deux grandes classes de méthodes de résolution sont les techniques de région de confiance et les méthodes de recherche linéaire. En outre, il est possible d’exploiter la structure de ces problèmes pour tenter d’accélerer la convergence de ces méthodes, sous certaines hypothèses. Dans ce travail, nous revisitons certaines approches classiques ou récemment d´eveloppées en optimisation non linéaire, dans le contexte particulier de l’estimation de maximum de vraisemblance. Nous développons également de nouveaux algorithmes pour résoudre ce problème, reconsidérant différentes techniques d’approximation de hessiens, et proposons de nouvelles méthodes de calcul de pas, en particulier dans le cadre des algorithmes de recherche linéaire. Il s’agit notamment d’algorithmes nous permettant de changer d’approximation de hessien et d’adapter la longueur du pas dans une direction de recherche fixée. Finalement, nous évaluons l’efficacité numérique des méthodes proposées dans le cadre de l’estimation de modèles de choix discrets, en particulier les modèles logit mélangés.