18 resultados para parallel efficiency
em Universit
Resumo:
A contingent contract in a transferable utility game under uncertainty specifies an outcome for each possible state. It is assumed that coalitions evaluate these contracts by considering the minimal possible excesses. A main question of the paper concerns the existence and characterization of efficient contracts. It is shown that they exist if and only if the set of possible coalitions contains a balanced subset. Moreover, a characterization of values that result in efficient contracts in the case of minimally balanced collections is provided.
Resumo:
In this paper we propose exact likelihood-based mean-variance efficiency tests of the market portfolio in the context of Capital Asset Pricing Model (CAPM), allowing for a wide class of error distributions which include normality as a special case. These tests are developed in the frame-work of multivariate linear regressions (MLR). It is well known however that despite their simple statistical structure, standard asymptotically justified MLR-based tests are unreliable. In financial econometrics, exact tests have been proposed for a few specific hypotheses [Jobson and Korkie (Journal of Financial Economics, 1982), MacKinlay (Journal of Financial Economics, 1987), Gib-bons, Ross and Shanken (Econometrica, 1989), Zhou (Journal of Finance 1993)], most of which depend on normality. For the gaussian model, our tests correspond to Gibbons, Ross and Shanken’s mean-variance efficiency tests. In non-gaussian contexts, we reconsider mean-variance efficiency tests allowing for multivariate Student-t and gaussian mixture errors. Our framework allows to cast more evidence on whether the normality assumption is too restrictive when testing the CAPM. We also propose exact multivariate diagnostic checks (including tests for multivariate GARCH and mul-tivariate generalization of the well known variance ratio tests) and goodness of fit tests as well as a set estimate for the intervening nuisance parameters. Our results [over five-year subperiods] show the following: (i) multivariate normality is rejected in most subperiods, (ii) residual checks reveal no significant departures from the multivariate i.i.d. assumption, and (iii) mean-variance efficiency tests of the market portfolio is not rejected as frequently once it is allowed for the possibility of non-normal errors.
Resumo:
This paper develops a model where the value of the monetary policy instrument is selected by a heterogenous committee engaged in a dynamic voting game. Committee members differ in their institutional power and, in certain states of nature, they also differ in their preferred instrument value. Preference heterogeneity and concern for the future interact to generate decisions that are dynamically ineffcient and inertial around the previously-agreed instrument value. This model endogenously generates autocorrelation in the policy variable and provides an explanation for the empirical observation that the nominal interest rate under the central bank’s control is infrequently adjusted.
Resumo:
This paper examines the use of bundling by a firm that sells in two national markets and faces entry by parallel traders. The firm can bundle its main product, - a tradable good- with a non-traded service. It chooses between the strategies of pure bundling, mixed bundling and no bundling. The paper shows that in the low-price country the threat of grey trade elicits a move from mixed bundling, or no bundling, towards pure bundling. It encourages a move from pure bundling towards mixes bundling or no bundling in the high-price country. The set of parameter values for which the profit maximizing strategy is not to supply the low price country is smaller than in the absence of bundling. The welfare effects of deterrence of grey trade are not those found in conventional models of price arbitrage. Some consumers in the low-price country may gain from the threat of entry by parallel traders although they pay a higher price. This is due to the fact that the firm responds to the threat of arbitrageurs by increasing the amount of services it puts in the bundle targeted at consumers in that country. Similarly, the threat of parallel trade may affect some consumers in the hight-price country adversely.
Resumo:
This paper is an examination of the Supreme Court of Canada's interpretation of federalism since constitutional repatriation in 1982. It argues that the lure of centralist efficiency is overpowering a fundamentally important part of our federal order: regionalism. The author contends that changes made by the Court to certain fundamental concepts of Canadian constitutional law now provide Parliament with greater latitude than before in the exercise of its legislative powers. According to the author, these changes are disturbing because they are structured so as to preclude consideration of the legitimate concerns of regional polities. Furthermore, he argues that the Court has reinforced the central government's power to regulate the economy, including intraprovincial matters affecting trade, by resorting to highly functional tests that emphasize economic efficiency over other criteria. This, he claims, makes it more difficult to invoke legitimate regional interests that would lead to duplication, overlapping and even, in the eyes of some, inefficiency. The author the focuses on the Court's treatment of environmental protection in an attempt to show the tension between the Court's desire to use a functional approach and the need to recognize regional interests. Finally, through an examination of recent case law, he attemps to demonstrate that the Court's dominant perspective remains functional despite its endorsement of a more community-oriented undestanding of federalism in Secession Reference. If the Court chooses to proceed in this manner, it will alienate regional polities and may encourage them to choose more radical means of asserting their differences. Further, the author argues that strict adherence to the functional effectiveness approach will undermine the very values that federalism is meant to promote.
Resumo:
This paper develops a bargaining model of wage and employment determination for the public sector. the solution to the model generates structural wage and employment equations that are estimated using data from New York State teacher-school district collective bargaining agreements.
Resumo:
La dihydrofolate réductase humaine (DHFRh) est une enzyme essentielle à la prolifération cellulaire. Elle réduit le dihydrofolate en tétrahydrofolate, un co-facteur impliqué dans la biosynthèse des purines et du thymidylate. La DHFRh est une cible de choix pour des agents de chimiothérapie comme le méthotrexate (MTX), inhibant spécifiquement l’enzyme ce qui mène à un arrêt de la prolifération et ultimement à la mort cellulaire. Le MTX est utilisé pour le traitement de plusieurs maladies prolifératives, incluant le cancer. La grande utilisation du MTX dans le milieu clinique a mené au développement de mécanismes de résistance, qui réduisent l’efficacité de traitement. La présente étude se penche sur l’un des mécanismes de résistance, soit des mutations dans la DHFRh qui réduisent son affinité pour le MTX, dans le but de mieux comprendre les éléments moléculaires requis pour la reconnaissance de l’inhibiteur au site actif de l’enzyme. En parallèle, nous visons à identifier des variantes plus résistantes au MTX pour leur utilisation en tant que marqueurs de sélection en culture cellulaire pour des systèmes particuliers, tel que la culture de cellules hématopoïétiques souches (CHS), qui offrent des possibilités intéressantes dans le domaine de la thérapie cellulaire. Pour étudier le rôle des différentes régions du site actif, et pour vérifier la présence d’une corrélation entre des mutations à ces régions et une augmentation de la résistance au MTX, une stratégie combinatoire a été dévelopée pour la création de plusieurs banques de variantes à des résidus du site actif à proximité du MTX lié. Les banques ont été sélectionnées in vivo dans un système bactérien en utilisant des milieux de croissance contenant des hautes concentrations de MTX. La banque DHFRh 31/34/35 généra un nombre considérable de variantes combinatoires de la DHFRh hautement résistantes au MTX. Les variantes les plus intéressantes ont été testées pour leur potentiel en tant que marqueur de sélection dans plusieurs lignées cellulaires, dont les cellules hématopoïétiques transduites. Une protection complète contre les effets cytotoxiques du MTX a été observée chez ces cellules suite à leur infection avec les variantes combinatoires. Pour mieux comprendre les causes moléculaires reliées à la résistance au MTX, des études de structure tridimensionnelle de variantes liées au MTX ont été entreprises. La résolution de la structure de la double variante F31R/Q35E lié au MTX a révélé que le phénotype de résistance était attribuable à d’importantes différences entre le site actif de la double variante et de l’enzyme native, possiblement dû à un phénomème dynamique. Une compréhension plus générale de la reconnaissance et la résistance aux antifolates a été réalisée en comparant des séquences et des structures de variantes de la DHFR résistants aux antifolates et provenant de différentes espèces. En somme, ces travaux apportent de nouveaux éléments pour la comprehension des intéractions importantes entre une enzyme et un ligand, pouvant aider au développement de nouveaux antifolates plus efficaces pour le traitement de diverses maladies. De plus, ces travaux ont généré de nouveaux gènes de résistance pouvant être utilisés en tant que marqueurs de sélection en biologie cellulaire.
Resumo:
Depuis l’introduction de la mécanique quantique, plusieurs mystères de la nature ont trouvé leurs explications. De plus en plus, les concepts de la mécanique quantique se sont entremêlés avec d’autres de la théorie de la complexité du calcul. De nouvelles idées et solutions ont été découvertes et élaborées dans le but de résoudre ces problèmes informatiques. En particulier, la mécanique quantique a secoué plusieurs preuves de sécurité de protocoles classiques. Dans ce m´emoire, nous faisons un étalage de résultats récents de l’implication de la mécanique quantique sur la complexité du calcul, et cela plus précisément dans le cas de classes avec interaction. Nous présentons ces travaux de recherches avec la nomenclature des jeux à information imparfaite avec coopération. Nous exposons les différences entre les théories classiques, quantiques et non-signalantes et les démontrons par l’exemple du jeu à cycle impair. Nous centralisons notre attention autour de deux grands thèmes : l’effet sur un jeu de l’ajout de joueurs et de la répétition parallèle. Nous observons que l’effet de ces modifications a des conséquences très différentes en fonction de la théorie physique considérée.
Resumo:
It is highly desirable for an allocation of goods to be efficient. However, one might also deem it important that an allocation gives individuals what they deserve. This paper investigates whether it is possible for an allocation to be both efficient and give people what they deserve. It will first of all consider comparative desert, and conclude that it is possible to satisfy both desiderata. It will then consider absolute desert by integrating Shelly Kagan’s work on desert and economic theory. The conclusion will be that there are potential conflicts between absolute desert and efficiency. The paper will then examine how to select the best compromise between the two values, considering several different conceptions of absolute desert.
Resumo:
Le Ministère des Ressources Naturelles et de la Faune (MRNF) a mandaté la compagnie de géomatique SYNETIX inc. de Montréal et le laboratoire de télédétection de l’Université de Montréal dans le but de développer une application dédiée à la détection automatique et la mise à jour du réseau routier des cartes topographiques à l’échelle 1 : 20 000 à partir de l’imagerie optique à haute résolution spatiale. À cette fin, les mandataires ont entrepris l’adaptation du progiciel SIGMA0 qu’ils avaient conjointement développé pour la mise à jour cartographique à partir d’images satellitales de résolution d’environ 5 mètres. Le produit dérivé de SIGMA0 fut un module nommé SIGMA-ROUTES dont le principe de détection des routes repose sur le balayage d’un filtre le long des vecteurs routiers de la cartographie existante. Les réponses du filtre sur des images couleurs à très haute résolution d’une grande complexité radiométrique (photographies aériennes) conduisent à l’assignation d’étiquettes selon l’état intact, suspect, disparu ou nouveau aux segments routiers repérés. L’objectif général de ce projet est d’évaluer la justesse de l’assignation des statuts ou états en quantifiant le rendement sur la base des distances totales détectées en conformité avec la référence ainsi qu’en procédant à une analyse spatiale des incohérences. La séquence des essais cible d’abord l’effet de la résolution sur le taux de conformité et dans un second temps, les gains escomptés par une succession de traitements de rehaussement destinée à rendre ces images plus propices à l’extraction du réseau routier. La démarche globale implique d’abord la caractérisation d’un site d’essai dans la région de Sherbrooke comportant 40 km de routes de diverses catégories allant du sentier boisé au large collecteur sur une superficie de 2,8 km2. Une carte de vérité terrain des voies de communication nous a permis d’établir des données de référence issues d’une détection visuelle à laquelle sont confrontés les résultats de détection de SIGMA-ROUTES. Nos résultats confirment que la complexité radiométrique des images à haute résolution en milieu urbain bénéficie des prétraitements telles que la segmentation et la compensation d’histogramme uniformisant les surfaces routières. On constate aussi que les performances présentent une hypersensibilité aux variations de résolution alors que le passage entre nos trois résolutions (84, 168 et 210 cm) altère le taux de détection de pratiquement 15% sur les distances totales en concordance avec la référence et segmente spatialement de longs vecteurs intacts en plusieurs portions alternant entre les statuts intact, suspect et disparu. La détection des routes existantes en conformité avec la référence a atteint 78% avec notre plus efficace combinaison de résolution et de prétraitements d’images. Des problèmes chroniques de détection ont été repérés dont la présence de plusieurs segments sans assignation et ignorés du processus. Il y a aussi une surestimation de fausses détections assignées suspectes alors qu’elles devraient être identifiées intactes. Nous estimons, sur la base des mesures linéaires et des analyses spatiales des détections que l’assignation du statut intact devrait atteindre 90% de conformité avec la référence après divers ajustements à l’algorithme. La détection des nouvelles routes fut un échec sans égard à la résolution ou au rehaussement d’image. La recherche des nouveaux segments qui s’appuie sur le repérage de points potentiels de début de nouvelles routes en connexion avec les routes existantes génère un emballement de fausses détections navigant entre les entités non-routières. En lien avec ces incohérences, nous avons isolé de nombreuses fausses détections de nouvelles routes générées parallèlement aux routes préalablement assignées intactes. Finalement, nous suggérons une procédure mettant à profit certaines images rehaussées tout en intégrant l’intervention humaine à quelques phases charnières du processus.
Resumo:
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Réalisé en cotutelle avec l'Université Paris 1 Panthéon-Sorbonne.