21 resultados para markets and wildlife
em Université de Montréal, Canada
Resumo:
Rapport de recherche
Resumo:
We consider entry-level medical markets for physicians in the United Kingdom. These markets experienced failures which led to the adoption of centralized market mechanisms in the 1960's. However, different regions introduced different centralized mechanisms. We advise physicians who do not have detailed information about the rank-order lists submitted by the other participants. We demonstrate that in each of these markets in a low information environment it is not beneficial to reverse the true ranking of any two acceptable hospital positions. We further show that (i) in the Edinburgh 1967 market, ranking unacceptable matches as acceptable is not profitable for any participant and (ii) in any other British entry-level medical market, it is possible that only strategies which rank unacceptable positions as acceptable are optimal for a physician.
Resumo:
This paper extends the Competitive Storage Model by incorporating prominent features of the production process and financial markets. A major limitation of this basic model is that it cannot successfully explain the degree of serial correlation observed in actual data. The proposed extensions build on the observation that in order to generate a high degree of price persistence, a model must incorporate features such that agents are willing to hold stocks more often than predicted by the basic model. We therefore allow unique characteristics of the production and trading mechanisms to provide the required incentives. Specifically, the proposed models introduce (i) gestation lags in production with heteroskedastic supply shocks, (ii) multiperiod forward contracts, and (iii) a convenience return to inventory holding. The rational expectations solutions for twelve commodities are numerically solved. Simulations are then employed to assess the effects of the above extensions on the time series properties of commodity prices. Results indicate that each of the features above partially account for the persistence and occasional spikes observed in actual data. Evidence is presented that the precautionary demand for stocks might play a substantial role in the dynamics of commodity prices.
Resumo:
The following properties of the core of a one well-known: (i) the core is non-empty; (ii) the core is a lattice; and (iii) the set of unmatched agents is identical for any two matchings belonging to the core. The literature on two-sided matching focuses almost exclusively on the core and studies extensively its properties. Our main result is the following characterization of (von Neumann-Morgenstern) stable sets in one-to-one matching problem only if it is a maximal set satisfying the following properties : (a) the core is a subset of the set; (b) the set is a lattice; (c) the set of unmatched agents is identical for any two matchings belonging to the set. Furthermore, a set is a stable set if it is the unique maximal set satisfying properties (a), (b) and (c). We also show that our main result does not extend from one-to-one matching problems to many-to-one matching problems.
Resumo:
This paper examines the use of bundling by a firm that sells in two national markets and faces entry by parallel traders. The firm can bundle its main product, - a tradable good- with a non-traded service. It chooses between the strategies of pure bundling, mixed bundling and no bundling. The paper shows that in the low-price country the threat of grey trade elicits a move from mixed bundling, or no bundling, towards pure bundling. It encourages a move from pure bundling towards mixes bundling or no bundling in the high-price country. The set of parameter values for which the profit maximizing strategy is not to supply the low price country is smaller than in the absence of bundling. The welfare effects of deterrence of grey trade are not those found in conventional models of price arbitrage. Some consumers in the low-price country may gain from the threat of entry by parallel traders although they pay a higher price. This is due to the fact that the firm responds to the threat of arbitrageurs by increasing the amount of services it puts in the bundle targeted at consumers in that country. Similarly, the threat of parallel trade may affect some consumers in the hight-price country adversely.
Resumo:
Dans un contexte d'instabilité économique, force est de constater que les remises en question du libéralisme économique s'intensifient, mettant ainsi l'accent sur l'importance de la réglementation pour la protection des investisseurs ainsi que l'efficience des marchés financiers. Souvent associés aux conséquences d'un manque d'encadrement, les fonds de couverture représentent des cibles de choix pour ceux qui cherchent à expliquer l'effondrement majeur des marchés, tout en prônant un interventionnisme accru des autorités gouvernementales. Pour mieux comprendre les tenants et aboutissants de cette industrie, la présente étude propose une vue d'ensemble des caractéristiques fondamentales des fonds de couverture, tant sous l'angle de leur structure organisationnelle que de leur encadrement réglementaire. À cet égard, il importe de jauger les principaux enjeux découlant des règles applicables à l'administration d'un fonds, particulièrement sur le plan de la transparence informationnelle et au niveau de la gouvernance interne. Ces deux éléments constituant les pierres angulaires de la présente analyse, notre étude offrira finalement une réflexion sur l'approche réglementaire à privilégier, et ce, en tenant compte des particularités des fonds de couverture. Dans un même ordre d'idées, le rôle des divers intermédiaires professionnels sera abordé afin d'élargir notre compréhension de la question sous étude. L'objet de cette étude n'est pas d'apporter une solution complète et définitive à ces enjeux, mais bien d'offrir des pistes de réflexions pouvant servir de balises à une étude subséquente de la question, laquelle devra par ailleurs tenir compte du rôle assumé par les fonds de couverture ainsi que du statut particulier qu'ils occupent sur les marchés financiers.
Resumo:
Parmi les indicateurs de la mondialisation, le secret bancaire est au centre d'un débat animé en ce moment historique, caractérisé par la globalisation de l'économie, les exigences de sécurité croissantes, l'urgence de la lutte contre le blanchiment des capitaux provenant d’activités criminelles et l’internationalisation expansive des réseaux bancaires. La tendance vers le renforcement de la coopération internationale, met en discussion la forte sauvegarde du secret bancaire de plusieurs pays. La question dirimante est plutôt claire. Il s'agit, effectivement, de savoir jusqu'à quel point le secret, dans sa conception la plus inextensible et inflexible, devient par contre un instrument décisif pour contourner les règles communes,faire une concurrence déloyale sur les marchés et assurer des véritables crimes, par exemple de type terroriste. Pour faire évoluer les situations jugées problématiques, la démarche parallèle des trois organismes BÂLE, l’OCDE puis le GAFI est d’autant plus significative, qu’elle a été inspirée par les préoccupations exprimées au sein du G7 sur les dangers que présenteraient pour l’économie internationale certaines activités financières accomplies sur et à partir de ces territoires. L’ordre public justifie aussi la mise en place de mesures particulières en vue d’enrayer le blanchiment des capitaux provenant du trafic des stupéfiants. Selon les pays, des systèmes plus ou moins ingénieux tentent de concilier la nécessaire information des autorités publiques et le droit au secret bancaire, élément avancé de la protection de la vie privée dont le corollaire est, entre autres, l’article 7 et 8 de la Charte canadienne des droits et libertés et l’article 8 de la Convention européenne de sauvegarde des droits de l’homme et des libertés fondamentales du citoyen, et donc de l’atteinte à ces libertés. Nous le verrons, les prérogatives exorbitantes dont bénéficient l’État, l’administration ou certains tiers, par l’exercice d’un droit de communication et d’échange d’information, constituent une véritable atteinte au principe sacré de la vie privée et du droit à la confidentialité. Cette pénétration de l’État ou de l’administration au coeur des relations privilégiées entre la banque et son client trouve certainement une justification irréfutable lorsque la protection est celle de l’intérêt public, de la recherche d’une solution juridique et judiciaire. Mais cela crée inévitablement des pressions internes et des polémiques constantes,indépendamment de l’abus de droit que l’on peut malheureusement constater dans l’usage et l’exercice de certaines prérogatives.
Resumo:
Les trois essais dans cette thèse étudient les implications des frictions financières, telles que les contraintes de collatérale ou de crédit, pour les décisions économiques des agents et leur impact sur les variables macro-économiques agrégées. Dans le premier chapitre "Financial Contracts and the Political Economy of Investor Protection" nous proposons une théorie du niveau de protection des investisseurs. Une faible protection des investisseurs implique un coût de financement externe plus élevé à cause des problèmes d'agence plus aigus entre les investisseurs et les entrepreneurs. À l'équilibre, ceci exclut les agents plus dépendants sur le financement externe de l'entrepreneuriat, ce qui augmente les profits des entrepreneurs qui restent actifs. Quand le niveau de la protection des investisseurs est choisi par un vote majoritaire, la théorie génère (i) une protection des investisseurs plus faible dans les économies avec plus grande inégalité dans les besoins de financement externe parmi les entrepreneurs, (ii) une dynamique non-monotone de l'output, (iii) améliorations (détériorations) de la protection des investisseurs suite à des ralentissements (accélérations) de l'output agrégé. L'évidence empirique donne un support à ces prédictions de la théorie. Dans le deuxième chapitre "Financial Frictions, Internal Capital Markets, and the Organization of Production", nous examinons comment la présence des frictions financières peut mener à la formation des conglomérats et des "business groups" diversifiées. Particulièrement, nous construisons un modèle d'équilibre général d'entrepreneuriat dans lequel les conglomérats émergent de façon endogène et substituent partiellement le marché du crédit imparfait. Nous montrons que ce modèle est capable d'expliquer quantitativement plusieurs faits stylisés concernant l'organisation de la production, les différences de productivité entre les firmes et les différences en présence des conglomérats entre les pays. Le troisième chapitre "Size and Productivity of Single-segment and Diversified Firms: Evidence from Canadian Manufacturing" étudie empiriquement la relation entre la taille, la productivité, et la structure organisationnelle d'une firme. Utilisant les micro-données sur les établissements manufacturiers canadiens, nous documentons plusieurs faits stylisés concernant la taille et la productivité totale des facteurs des établissements dans les conglomérats et dans les firmes non-diversifiées. Nous trouvons que les établissements dans les conglomérats sont en moyenne plus larges que leurs contreparties dans les firmes non-diversifiées, les petits établissements dans les conglomérats sont moins productifs que les établissements de taille similaire dans les firmes non-diversifiées, mais les larges établissements dans les conglomérats sont plus productifs que ceux de taille similaire dans les firmes non-diversifiées. Cette évidence est consistante avec réallocation interne efficiente des ressources au sein des conglomérats.
Resumo:
We study a general class of priority-based allocation problems with weak priority orders and identify conditions under which there exists a strategy-proof mechanism which always chooses an agent-optimal stable, or constrained efficient, matching. A priority structure for which these two requirements are compatible is called solvable. For the general class of priority-based allocation problems with weak priority orders,we introduce three simple necessary conditions on the priority structure. We show that these conditions completely characterize solvable environments within the class of indifferences at the bottom (IB) environments, where ties occur only at the bottom of the priority structure. This generalizes and unifies previously known results on solvable and unsolvable environments established in school choice, housing markets and house allocation with existing tenants. We show how the previously known solvable cases can be viewed as extreme cases of solvable environments. For sufficiency of our conditions we introduce a version of the agent-proposing deferred acceptance algorithm with exogenous and preference-based tie-breaking.
Resumo:
Le Ministère des Ressources Naturelles et de la Faune (MRNF) a mandaté la compagnie de géomatique SYNETIX inc. de Montréal et le laboratoire de télédétection de l’Université de Montréal dans le but de développer une application dédiée à la détection automatique et la mise à jour du réseau routier des cartes topographiques à l’échelle 1 : 20 000 à partir de l’imagerie optique à haute résolution spatiale. À cette fin, les mandataires ont entrepris l’adaptation du progiciel SIGMA0 qu’ils avaient conjointement développé pour la mise à jour cartographique à partir d’images satellitales de résolution d’environ 5 mètres. Le produit dérivé de SIGMA0 fut un module nommé SIGMA-ROUTES dont le principe de détection des routes repose sur le balayage d’un filtre le long des vecteurs routiers de la cartographie existante. Les réponses du filtre sur des images couleurs à très haute résolution d’une grande complexité radiométrique (photographies aériennes) conduisent à l’assignation d’étiquettes selon l’état intact, suspect, disparu ou nouveau aux segments routiers repérés. L’objectif général de ce projet est d’évaluer la justesse de l’assignation des statuts ou états en quantifiant le rendement sur la base des distances totales détectées en conformité avec la référence ainsi qu’en procédant à une analyse spatiale des incohérences. La séquence des essais cible d’abord l’effet de la résolution sur le taux de conformité et dans un second temps, les gains escomptés par une succession de traitements de rehaussement destinée à rendre ces images plus propices à l’extraction du réseau routier. La démarche globale implique d’abord la caractérisation d’un site d’essai dans la région de Sherbrooke comportant 40 km de routes de diverses catégories allant du sentier boisé au large collecteur sur une superficie de 2,8 km2. Une carte de vérité terrain des voies de communication nous a permis d’établir des données de référence issues d’une détection visuelle à laquelle sont confrontés les résultats de détection de SIGMA-ROUTES. Nos résultats confirment que la complexité radiométrique des images à haute résolution en milieu urbain bénéficie des prétraitements telles que la segmentation et la compensation d’histogramme uniformisant les surfaces routières. On constate aussi que les performances présentent une hypersensibilité aux variations de résolution alors que le passage entre nos trois résolutions (84, 168 et 210 cm) altère le taux de détection de pratiquement 15% sur les distances totales en concordance avec la référence et segmente spatialement de longs vecteurs intacts en plusieurs portions alternant entre les statuts intact, suspect et disparu. La détection des routes existantes en conformité avec la référence a atteint 78% avec notre plus efficace combinaison de résolution et de prétraitements d’images. Des problèmes chroniques de détection ont été repérés dont la présence de plusieurs segments sans assignation et ignorés du processus. Il y a aussi une surestimation de fausses détections assignées suspectes alors qu’elles devraient être identifiées intactes. Nous estimons, sur la base des mesures linéaires et des analyses spatiales des détections que l’assignation du statut intact devrait atteindre 90% de conformité avec la référence après divers ajustements à l’algorithme. La détection des nouvelles routes fut un échec sans égard à la résolution ou au rehaussement d’image. La recherche des nouveaux segments qui s’appuie sur le repérage de points potentiels de début de nouvelles routes en connexion avec les routes existantes génère un emballement de fausses détections navigant entre les entités non-routières. En lien avec ces incohérences, nous avons isolé de nombreuses fausses détections de nouvelles routes générées parallèlement aux routes préalablement assignées intactes. Finalement, nous suggérons une procédure mettant à profit certaines images rehaussées tout en intégrant l’intervention humaine à quelques phases charnières du processus.
Resumo:
La planification de la politique économique au Brésil a été proposée dans les années 1950 avec le but de promouvoir l'indépendance et le développement économique du pays. Cette planification serait réalisée grâce à l'intervention de l'État par le contrôle de l'économie et des marchés, et par la création des entreprises publiques et des secteurs prioritaires, y compris l'énergie. L'État a créé Petrobras dans le but d'encourager la croissance économique du pays, afin de faire croître le pays grâce au contrôle des cycles de production. C’est pourquoi le gouvernement commença à assumer la croissance et à financer les investissements nécessaires pour construire un environnement industriel pour le Brésil. La création de Petrobras se passa avant même la connaissance du sous-sol brésilien ainsi qu’au début de l'extraction pétrolière, croyant en la capacité productrice du Brésil. La planification développementaliste s’est prolongée dans tous les gouvernements, en l’adaptant afin d'évoluer, mais en devenant plus présent par le soutien du secteur privé. Grâce à la politique nationaliste et interventionniste dans l'économie, cela a été caractérisé par l'implication des parties de gauche et de droite, à savoir, le nationalisme n'a pas été dépendent de leur positionnement politique, mais plutôt de l'idéologie économique défendue. Ainsi, la création de Petrobras a été un acte de foi dans la vie politique, un élément de volonté et d’engagement de l’État en faveur du développement de l'énergie, devenant la base de l'économie du Brésil.
Resumo:
L’extraction aurifère est l’une des activités humaines qui a fortement accru l’émission de contaminants métalliques dans l’environnement. Le mercure (Hg), l’arsenic (As) et le sélénium (Se) sont 3 polluants métalliques de grande toxicité environnementale. En milieu aquatique, ils peuvent subir des transformations menant à des composés capables de bioaccumulation et de bioamplification. Il peut en résulter des concentrations 106 fois celle mesurée dans l’eau chez les poissons et les organismes situés en haut des chaînes alimentaires posant de ce fait de graves menaces pour la santé de ces organismes ainsi que leurs consommateurs y compris les humains. Cette étude a évalué les teneurs en Hg, As et Se dans les milieux aquatiques au Burkina Faso, une région d’Afrique sub-saharienne soumise à une exploitation minière intensive. Le risque potentiel pour les organismes aquatiques et les humains a été évalué en considérant les effets des interactions antagonistes Se/Hg et As/Se. La bioaccumulation et le transfert du Hg et du Se dans les réseaux trophiques sont également décrits. L’exposition au Hg de poissons par les humains a été également évalué au laboratoire par mesure de la bioaccessibilité comme équivalent de la biodisponibilité par simulation de la digestion humaine. En général, les milieux aquatiques étudiés étaient peu affectés par ces 3 métal(loïd)s bien que certaines espèces de poisson issus des réservoirs les plus profonds indiquent des teneurs de Hg au dessus de 500 ngHg/g (poids frais) recommandé par l’OMS. Ces niveaux sont susceptibles de présenter des risques toxicologiques pour les poissons et pour leurs consommateurs. En considérant l’antagonisme Se/Hg, 99 % des échantillons de poisson seraient moins exposés à la toxicité du Hg dû à la présence simultanée du sélénium dans le milieu et pourraient être consommés sans risque. Cependant, les effets potentiels de l’antagonisme As/Se pourraient réduire les effets bénéfiques du Se et ramener cette proportion à 83 %. L’application des mesures de signatures en isotopes stables d’azote (δ15N) et de carbone (δ13C) des organismes aquatiques a permis le traçage des voies de transfert du Hg et du Se dans les réseaux trophiques. On y observe des chaînes trophiques très courtes (3 - 4 niveaux trophiques) et des poissons majoritairement benthiques. L’approche isotopique n’a cependant pas permis de détecter les variations saisonnières des niveaux de contamination en Hg des poissons. L’exploration des contenus stomacaux des poissons a permis de mieux expliquer la baisse des concentrations en Hg et Se observées chez certains poissons au cours de la saison sèche en lien avec la variation de la composition des proies que l’analyse isotopique n’a pas cerné. L’étude suggère que l’analyse de contenus stomacaux ainsi que l’étude de la dynamique des communautés d’invertébrés couplées à celle des métaux pourraient améliorer la compréhension du fonctionnement des écosystèmes étudiés. Enfin, l’évaluation expérimentale de l’exposition au Hg indique que les modes de traitement avant consommation ainsi que l’usage de composés alimentaires tels le thé, le café lors de repas de poisson par certaines communautés humaines ont un impact sur la bioaccessibilité du Hg de poisson. Ces résultats, sous réserve de validation par des modèles animaux, suggèrent la prise en compte des habitudes alimentaires des communautés dans l’élaboration adéquat des avis de consommation de poisson.
Resumo:
"Dans la littérature des sciences sociales, les difficultés que connaît le marché du commerce électronique sont souvent attribuées à un manque de confiance; le manque de confiance serait un frein à l’échange. Qu’est au juste la confiance? La confiance permet de se dispenser de certaines précautions qu’on prendrait autrement dans le but d’éviter ou de réduire le risque de se faire avoir dans une opération. Le discours sur la confiance porte essentiellement sur la disponibilité d’informations touchant les différents aspects des opérations projetées dans le marché électronique et qui permettent aux acteurs d’évaluer à la baisse la probabilité de se faire avoir dans ces opérations, et donc la nécessité de précautions pour l’éviter. La disponibilité des informations est de nature à abaisser les coûts dits de transaction dans l’analyse économique du droit, et partant à faire augmenter le nombre d'opérations commerciales effectivement conclues. Cet article fait le point sur les sources de la confiance et sur leur rôle dans la réduction des coûts de transaction. Il recense les mécanismes de transmission d’informations dans les marchés traditionnels et s’en inspire pour ordonner et dégager les moyens correspondants pouvant favoriser les opérations dans les marchés électroniques, compte tenu des particularités propres de ces marchés."
Resumo:
L’augmentation des interactions entre humains et animaux sauvages en lisière des habitats naturels pourrait faciliter la transmission d’agents pathogènes entre les humains et les différentes espèces animales d’un écosystème et ainsi favoriser l’émergence de maladies. Nous avons effectué une étude transversale portant sur l’infection par Giardia et Cryptosporidium chez les humains, les animaux domestiques, les rongeurs et les lémuriens au sein de l’écosystème de Ranomafana, Madagascar. Des échantillons de fèces ont étés collectés de manière non invasive chez des personnes volontaires, des mammifères domestiques et des rongeurs introduits habitant trois villages situés en lisière du Parc National de Ranomafana (PNR) ainsi que quatre espèces de lémuriens (Propithecus edwardsii, Prolemur simus, Eulemur rubriventer et Microcebus rufus) du PNR. Des analyses coproscopiques par la technique d’immunofluorescence directe ont été réalisées afin de détecter la présence de Cryptosporidium et Giardia. Leur prévalence a été estimée et certaines variables reliées à l’infection par les parasites ont été identifiées. Cryptosporidium et Giardia ont été détectés avec une prévalence estimée à 22,9 % et 13,6 % respectivement chez les humains. La prévalence de ces deux parasites variait de 0 % à 60 % chez les animaux domestiques et les rongeurs au sein des villages. L’espèce hôte, l’âge ainsi que la co-infection par un autre protozoaire sont les seules variables associées à l’infection par Cryptosporidium et Giardia dans cet écosystème tandis qu’aucune association avec une coinfection par un ordre de nématode n’a été détecté. De plus, Cryptosporidium a été détecté chez 10,5 % des lémuriens du PNR. Cette étude documente pour la première fois la présence de Cryptosporidium chez deux espèces de lémuriens du PNR. Par contre, Giardia n’a pas été détecté dans les échantillons issus de lémuriens du PNR.