14 resultados para acceptance probability
em Université de Montréal, Canada
Resumo:
Les méthodes de Monte Carlo par chaînes de Markov (MCCM) sont des méthodes servant à échantillonner à partir de distributions de probabilité. Ces techniques se basent sur le parcours de chaînes de Markov ayant pour lois stationnaires les distributions à échantillonner. Étant donné leur facilité d’application, elles constituent une des approches les plus utilisées dans la communauté statistique, et tout particulièrement en analyse bayésienne. Ce sont des outils très populaires pour l’échantillonnage de lois de probabilité complexes et/ou en grandes dimensions. Depuis l’apparition de la première méthode MCCM en 1953 (la méthode de Metropolis, voir [10]), l’intérêt pour ces méthodes, ainsi que l’éventail d’algorithmes disponibles ne cessent de s’accroître d’une année à l’autre. Bien que l’algorithme Metropolis-Hastings (voir [8]) puisse être considéré comme l’un des algorithmes de Monte Carlo par chaînes de Markov les plus généraux, il est aussi l’un des plus simples à comprendre et à expliquer, ce qui en fait un algorithme idéal pour débuter. Il a été sujet de développement par plusieurs chercheurs. L’algorithme Metropolis à essais multiples (MTM), introduit dans la littérature statistique par [9], est considéré comme un développement intéressant dans ce domaine, mais malheureusement son implémentation est très coûteuse (en termes de temps). Récemment, un nouvel algorithme a été développé par [1]. Il s’agit de l’algorithme Metropolis à essais multiples revisité (MTM revisité), qui définit la méthode MTM standard mentionnée précédemment dans le cadre de l’algorithme Metropolis-Hastings sur un espace étendu. L’objectif de ce travail est, en premier lieu, de présenter les méthodes MCCM, et par la suite d’étudier et d’analyser les algorithmes Metropolis-Hastings ainsi que le MTM standard afin de permettre aux lecteurs une meilleure compréhension de l’implémentation de ces méthodes. Un deuxième objectif est d’étudier les perspectives ainsi que les inconvénients de l’algorithme MTM revisité afin de voir s’il répond aux attentes de la communauté statistique. Enfin, nous tentons de combattre le problème de sédentarité de l’algorithme MTM revisité, ce qui donne lieu à un tout nouvel algorithme. Ce nouvel algorithme performe bien lorsque le nombre de candidats générés à chaque itérations est petit, mais sa performance se dégrade à mesure que ce nombre de candidats croît.
Flippable Pairs and Subset Comparisons in Comparative Probability Orderings and Related Simple Games
Resumo:
We show that every additively representable comparative probability order on n atoms is determined by at least n - 1 binary subset comparisons. We show that there are many orders of this kind, not just the lexicographic order. These results provide answers to two questions of Fishburn et al (2002). We also study the flip relation on the class of all comparative probability orders introduced by Maclagan. We generalise an important theorem of Fishburn, Peke?c and Reeds, by showing that in any minimal set of comparisons that determine a comparative probability order, all comparisons are flippable. By calculating the characteristics of the flip relation for n = 6 we discover that the regions in the corresponding hyperplane arrangement can have no more than 13 faces and that there are 20 regions with 13 faces. All the neighbours of the 20 comparative probability orders which correspond to those regions are representable. Finally we define a class of simple games with complete desirability relation for which its strong desirability relation is acyclic, and show that the flip relation carries all the information about these games. We show that for n = 6 these games are weighted majority games.
Resumo:
L'imagerie intravasculaire ultrasonore (IVUS) est une technologie médicale par cathéter qui produit des images de coupe des vaisseaux sanguins. Elle permet de quantifier et d'étudier la morphologie de plaques d'athérosclérose en plus de visualiser la structure des vaisseaux sanguins (lumière, intima, plaque, média et adventice) en trois dimensions. Depuis quelques années, cette méthode d'imagerie est devenue un outil de choix en recherche aussi bien qu'en clinique pour l'étude de la maladie athérosclérotique. L'imagerie IVUS est par contre affectée par des artéfacts associés aux caractéristiques des capteurs ultrasonores, par la présence de cônes d'ombre causés par les calcifications ou des artères collatérales, par des plaques dont le rendu est hétérogène ou par le chatoiement ultrasonore (speckle) sanguin. L'analyse automatisée de séquences IVUS de grande taille représente donc un défi important. Une méthode de segmentation en trois dimensions (3D) basée sur l'algorithme du fast-marching à interfaces multiples est présentée. La segmentation utilise des attributs des régions et contours des images IVUS. En effet, une nouvelle fonction de vitesse de propagation des interfaces combinant les fonctions de densité de probabilité des tons de gris des composants de la paroi vasculaire et le gradient des intensités est proposée. La segmentation est grandement automatisée puisque la lumière du vaisseau est détectée de façon entièrement automatique. Dans une procédure d'initialisation originale, un minimum d'interactions est nécessaire lorsque les contours initiaux de la paroi externe du vaisseau calculés automatiquement sont proposés à l'utilisateur pour acceptation ou correction sur un nombre limité d'images de coupe longitudinale. La segmentation a été validée à l'aide de séquences IVUS in vivo provenant d'artères fémorales provenant de différents sous-groupes d'acquisitions, c'est-à-dire pré-angioplastie par ballon, post-intervention et à un examen de contrôle 1 an suivant l'intervention. Les résultats ont été comparés avec des contours étalons tracés manuellement par différents experts en analyse d'images IVUS. Les contours de la lumière et de la paroi externe du vaisseau détectés selon la méthode du fast-marching sont en accord avec les tracés manuels des experts puisque les mesures d'aire sont similaires et les différences point-à-point entre les contours sont faibles. De plus, la segmentation par fast-marching 3D s'est effectuée en un temps grandement réduit comparativement à l'analyse manuelle. Il s'agit de la première étude rapportée dans la littérature qui évalue la performance de la segmentation sur différents types d'acquisition IVUS. En conclusion, la segmentation par fast-marching combinant les informations des distributions de tons de gris et du gradient des intensités des images est précise et efficace pour l'analyse de séquences IVUS de grandes tailles. Un outil de segmentation robuste pourrait devenir largement répandu pour la tâche ardue et fastidieuse qu'est l'analyse de ce type d'images.
Resumo:
Pourquoi, comment et quand y a-t-il changement institutionnel et politique en Afrique ? En examinant les stratégies de développement économique de l’Afrique postcoloniale et en s’intéressant à l’évolution du rôle de l’État – État comme acteur central du développement, tentative du retrait de l’État, interventionnisme limité au social, retour de l’État dans la sphère économique –, la présente thèse se propose d’expliquer le changement sous l’angle original des innovations politiques et institutionnelles. En effet, derrière l’apparente continuité que la plupart des auteurs tant analytiques que normatifs fustigent, il se produit des innovations dont nous proposons de rendre compte par le biais des variables idéationnelles, stratégiques, temporelles et institutionnelles. Cette thèse propose ainsi une analyse comparative inédite du rôle des acteurs nationaux (élites, États, administrations publiques du Bénin, Burkina Faso, Cameroun, Côte d’Ivoire, Congo, Sénégal, Mali, Niger, Togo), des institutions internationales (FMI, Banque mondiale, ONU) et des organisations d’intégration régionale (Union africaine, NEPAD) dans l’émergence et les trajectoires des stratégies de développement en Afrique. Les contextes temporels favorables, les crises des modèles précédents, les configurations et héritages institutionnels structurants, les stratégies instrumentales des acteurs intéressés, l’apprentissage politique, les dimensions cognitives et normatives des idées permettent d’expliquer la diffusion, la sédimentation et la conversion institutionnelles comme processus privilégiés d’innovation en Afrique. La critique de ces concepts permet de développer des outils mieux adaptés pour expliquer certaines innovations, soit l’inclusion et l’intrusion institutionnelles. L’inclusion institutionnelle est un processus mi-stratégique et mi-idéationnel à travers lequel les acteurs nationaux ou régionaux incluent intentionnellement des stratégies (ou solutions) internationales déjà existantes dans une nouvelle institution ou politique dans le but d’accroître la probabilité d’acceptation (reconnaissance, convenance sociale, partage réel ou supposé des mêmes valeurs) ou de succès (pour faire valoir les intérêts) de cette dernière dans un environnement politique structuré. Les idées sont constitutives des intérêts dans ce processus. L’intrusion institutionnelle renvoie à un processus mi-stratégique et mi-structurel par lequel les acteurs nationaux se font relativement imposer de nouvelles institutions ou politiques qu’ils n’acceptent qu’en raison de l’asymétrie de pouvoir, de la contrainte structurelle (structure), ou des gains escomptés (stratégies) des acteurs internationaux, alors que des solutions de rechange pertinentes et non contraignantes sont quasi inexistantes. Ceci n’exclut pas l’existence d’une marge de manœuvre des acteurs nationaux. Inspirés de spécialistes comme Nicolas van de Walle, Kathleen Thelen, Robert Bates, Barry Weingast, Alexander Wendt, Peter Hall, Theda Skocpol et Paul Pierson, ces concepts d’intrusion et d’inclusion institutionnelles que nous proposons réconcilient des approches parfois jugées contradictoires en intégrant les dimensions stratégiques, institutionnelles, historiques et idéationnelles à l’analyse d’un même objet scientifique. Au niveau empirique, la présente thèse permet d’avoir une meilleure compréhension des processus d’émergence des stratégies de développement économique en Afrique, ainsi qu’une meilleure connaissance des relations entre les acteurs internationaux, régionaux et nationaux en ce qui concerne l’émergence et le développement des institutions et des politiques publiques relatives au développement. Une attention particulière est accordée à la dynamique entre différents acteurs et variables (idées, intérêts, institution, temps) pour expliquer les principales stratégies des trois dernières décennies : les stratégies nationales de développement du Bénin, Burkina Faso, Cameroun, Côte d’Ivoire, Congo, Sénégal, Mali, Niger, Togo, le Plan d’action de Lagos, les programmes d’ajustement structurel, le Nouveau Partenariat pour le Développement de l’Afrique, les Documents de stratégie pour la réduction de la pauvreté et certaines interventions du Fonds monétaire international, de Banque mondiale et de l’ONU. En s’intéressant à la question de l’innovation délaissée à tort par la plupart des analyses sérieuses, la présente thèse renouvelle la discussion sur le changement et l’innovation politiques et institutionnels en Afrique et en science politique.
Resumo:
In many economic environments - such as college admissions, student placements at public schools, and university housing allocation - indivisible objects with capacity constraints are assigned to a set of agents when each agent receives at most one object and monetary compensations are not allowed. In these important applications the agent-proposing deferred-acceptance algorithm with responsive priorities (called responsive DA-rule) performs well and economists have successfully implemented responsive DA-rules or slight variants thereof. First, for house allocation problems we characterize the class of responsive DA-rules by a set of basic and intuitive properties, namely, unavailable type invariance, individual rationality, weak non-wastefulness, resource-monotonicity, truncation invariance, and strategy-proofness. We extend this characterization to the full class of allocation problems with capacity constraints by replacing resource- monotonicity with two-agent consistent con ict resolution. An alternative characterization of responsive DA-rules is obtained using unassigned objects invariance, individual rationality, weak non-wastefulness, weak consistency, and strategy-proofness. Various characterizations of the class of "acyclic" responsive DA-rules are obtained by using the properties efficiency, group strategy-proofness, and consistency.
Resumo:
Depuis quelques années, la recherche dans le domaine des réseaux maillés sans fil ("Wireless Mesh Network (WMN)" en anglais) suscite un grand intérêt auprès de la communauté des chercheurs en télécommunications. Ceci est dû aux nombreux avantages que la technologie WMN offre, telles que l'installation facile et peu coûteuse, la connectivité fiable et l'interopérabilité flexible avec d'autres réseaux existants (réseaux Wi-Fi, réseaux WiMax, réseaux cellulaires, réseaux de capteurs, etc.). Cependant, plusieurs problèmes restent encore à résoudre comme le passage à l'échelle, la sécurité, la qualité de service (QdS), la gestion des ressources, etc. Ces problèmes persistent pour les WMNs, d'autant plus que le nombre des utilisateurs va en se multipliant. Il faut donc penser à améliorer les protocoles existants ou à en concevoir de nouveaux. L'objectif de notre recherche est de résoudre certaines des limitations rencontrées à l'heure actuelle dans les WMNs et d'améliorer la QdS des applications multimédia temps-réel (par exemple, la voix). Le travail de recherche de cette thèse sera divisé essentiellement en trois principaux volets: le contrôle d‟admission du trafic, la différentiation du trafic et la réaffectation adaptative des canaux lors de la présence du trafic en relève ("handoff" en anglais). Dans le premier volet, nous proposons un mécanisme distribué de contrôle d'admission se basant sur le concept des cliques (une clique correspond à un sous-ensemble de liens logiques qui interfèrent les uns avec les autres) dans un réseau à multiples-sauts, multiples-radios et multiples-canaux, appelé RCAC. Nous proposons en particulier un modèle analytique qui calcule le ratio approprié d'admission du trafic et qui garantit une probabilité de perte de paquets dans le réseau n'excédant pas un seuil prédéfini. Le mécanisme RCAC permet d‟assurer la QdS requise pour les flux entrants, sans dégrader la QdS des flux existants. Il permet aussi d‟assurer la QdS en termes de longueur du délai de bout en bout pour les divers flux. Le deuxième volet traite de la différentiation de services dans le protocole IEEE 802.11s afin de permettre une meilleure QdS, notamment pour les applications avec des contraintes temporelles (par exemple, voix, visioconférence). À cet égard, nous proposons un mécanisme d'ajustement de tranches de temps ("time-slots"), selon la classe de service, ED-MDA (Enhanced Differentiated-Mesh Deterministic Access), combiné à un algorithme efficace de contrôle d'admission EAC (Efficient Admission Control), afin de permettre une utilisation élevée et efficace des ressources. Le mécanisme EAC prend en compte le trafic en relève et lui attribue une priorité supérieure par rapport au nouveau trafic pour minimiser les interruptions de communications en cours. Dans le troisième volet, nous nous intéressons à minimiser le surcoût et le délai de re-routage des utilisateurs mobiles et/ou des applications multimédia en réaffectant les canaux dans les WMNs à Multiples-Radios (MR-WMNs). En premier lieu, nous proposons un modèle d'optimisation qui maximise le débit, améliore l'équité entre utilisateurs et minimise le surcoût dû à la relève des appels. Ce modèle a été résolu par le logiciel CPLEX pour un nombre limité de noeuds. En second lieu, nous élaborons des heuristiques/méta-heuristiques centralisées pour permettre de résoudre ce modèle pour des réseaux de taille réelle. Finalement, nous proposons un algorithme pour réaffecter en temps-réel et de façon prudente les canaux aux interfaces. Cet algorithme a pour objectif de minimiser le surcoût et le délai du re-routage spécialement du trafic dynamique généré par les appels en relève. Ensuite, ce mécanisme est amélioré en prenant en compte l‟équilibrage de la charge entre cliques.
Resumo:
Au cours d'une transaction portant sur une acceptation bancaire (ci-après «BA» tel que dénommée dans le jargon juridique) différents types de relations peuvent s'établir entre les parties impliquées, certaines plus directes que d'autres. Dans une transaction donnée, à part le client et la banque, on peut trouver une ou plusieurs banques participantes et un ou plusieurs investisseurs, qui deviennent détenteurs de BA. La situation peut devenir complexe et les relations légales risquent de devenir assez compliquées. Cependant, il est important d'identifier si la relation s'est établie à travers l'instrument de BA, si elle existe par le biais d'une relation contractuelle ordinaire ou encore, si elle existe par le fait de la loi. Une bonne analyse des circonstances entourant la transaction, des facteurs connexes à la transaction et des droits et obligations qui existent entre les parties, sera nécessaire pour déterminer laquelle de la loi provinciale ou fédérale s'appliquera, et dans quelle mesure. Une fois accordée, la BA est gouvernée par la Loi sur les lettres de change. Toutes solutions apportées à un problème qui implique des BA, doivent, en principe, respecter la nature inhérente de la BA en tant qu'effet de commerce, gouverné par la loi fédérale. En matière de BA, c'est, soit la Loi sur les lettres de change soit la Loi sur les lettres et billets de dépôt (Depository Bills and Note Act) qui s'appliqueront à l'acte. Comme il existe des lois fédérales applicables à la BA, l'objet de notre étude est de déterminer si, et dans quelle circonstance la loi de la province, tel que le Code civil du Québec, trouvera application et éclaircira dans certains cas la disposition contenue dans la Loi sur les lettres de change, notamment lorsque les dispositions de ladite loi sont silencieuses ou ambigües. La solution la plus simple serait d'appliquer la loi provinciale aux matières qui ne sont pas traitées dans la loi, étant donné que les lois provinciales apportent souvent un complément à la législation fédérale. Cependant, la Loi sur les lettres de change contient des dispositions spéciales, tel que l'article 9 qui stipule : « 9. Les règles de la common law d'Angleterre, y compris en droit commercial, s'appliquent aux lettres, billets et chèques dans la mesure de leur compatibilité avec les dispositions expresses de la présente loi. » Cette disposition a crée une certaine confusion relativement à l'application du droit civil du Québec en matière de Lettres de change. En effet, il existe un doute quant à savoir si l'application de l'article 9 est une incorporation par référence qui exclue totalement l'application du droit civil. Cette question continue de se poser inexorablement dans la doctrine et la jurisprudence. Elle a en effet donné lieu à une série de théories quand au degré d'application de la common law en matière de lettres de change. Une revue de la jurisprudence dominante nous permet de conclure que les tribunaux ont accepté l'application du droit provinciale dans certaines questions impliquant les lettres de change. La question essentielle traitée lors de notre analyse est la suivante: lorsqu'un litige prend naissance dans une transaction de BA, quelle est la règle qui devra s'appliquer? Quel sera le droit qui gouvernera les problèmes émergeant dans une BA, celui du Code Civil du Québec ou celui de la common law d'Angleterre? Étant donne le nombre de cas qui sont portés devant les cours de justice en rapport avec des transactions de BA, comprendre quelle sera la loi applicable est d'une importance fondamentale. Pour répondre à cette question, nous commencerons par un examen de l'historique, du développement et de l'évolution de la BA. Afin de mieux comprendre la BA, nous débuterons par un bref survol des origines de cet instrument juridique. Dans le deuxième chapitre, nous analyserons la nature et le caractère légal de la BA. Cela constituera le cadre aux travers duquel nous pourrons identifier les règles et les principes qui s'appliquent aux différents aspects de la transaction de BA. Le chapitre trois fera l'objet d'un examen détaillé des mécanismes de l'opération de BA tout en étudiant de près les exigences imposées par la législation applicable. Après avoir examine l'aspect légal de la BA, nous procéderons au chapitre quatre, à l'étude de l'applicabilité de la loi provinciale relativement à certains aspects de la transaction de BA. A cet effet, nous examinerons les différentes approches de compréhension de la Loi sur les lettres de change et plus particulièrement la problématique rencontrée à l'article 9. Nous étudierons aussi l'application et l'interprétation de cette loi par les tribunaux du Québec au cours du siècle dernier. Les juges et les juristes se sont penchés sur les sens qu'a voulu donner le législateur lorsqu'il a stipulé dans l'article 9 «Le règles de la common law d'Angleterre, y compris en droit commercial, s appliquent aux lettres, billets et chèques dans la mesure de leur compatibilité avec les dispositions expresses de la présente loi ». Cette section doit-elle être appliquée à la lettre, nous obligeant à appliquer la common law d'Angleterre a chaque problème qui peut se poser en relation avec les lettres et les billets? Le Parlement a-t-il l'intention que cette disposition s'applique également au Québec, dont le droit privé est basé sur le système du Code Civil? Notre étude portera sur les différentes approches d'interprétation qui offrent une diversité de solutions au problème posé par l'article 9. Finalement, compte tenu des nouveaux développements législatifs, au chapitre cinq, nous proposons une méthode en vue de déterminer la loi applicable aux différents aspects de la transaction de BA. Notre analyse nous a conduit à adopter la solution proposée par la majorité des juristes, à la différence que notre approche de l'article 9 est basée sur des raisons de politique. Nous avons donc adopté la stricte dichotomie (en tant qu'effet négociable d'une part, et d'une sorte de contrat et de propriété de l'autre) en prenant en compte les difficultés inhérentes à déterminer quand l'un finit et l'autre commence. En conclusion, selon notre opinion, il existe deux solutions. Premièrement, il y a la possibilité que l'article 9 puisse être écarté. Dans ce cas, toutes les matières qui ne sont pas expressément évoquées dans la loi tomberont dans la compétence de la loi provinciale, comme c'est le cas dans d'autres types de législations fédérales. Dans ces situations, le droit civil du Québec joue un rôle supplétif dans les applications d'une loi fédérale au Québec. Deuxièmement, modifier l'article 9 plutôt que d'en écarter son application offre une autre possibilité. Incorporer la large stricte dichotomie dans l'article 9 nous semble être une solution préférable. La disposition pourrait se lire comme suit: « Les règles de la common law d'Angleterre incluant le droit commercial dans la mesure ou elles ne sont pas incompatibles avec les dispositions expresses de la Loi, s’appliquent aux lettres, billets, et chèques au sens stricte. Pour plus de certitude, les lettres et les billets au sens strict, incluent la forme, la délivrance et I’émission des lettres, billets, et chèques.» Ce type de changement se révélera être un pas important dans le but de clarifier la loi et déterminer l'équilibre à trouver entre l'application des lois fédérales et provinciales en matière de BA.
Resumo:
Cette présentation examinera le degré de certitude qui peut être atteint dans le domaine scientifique. Le paradigme scientifique est composé de deux extrêmes; causalité et déterminisme d'un côté et probabilité et indéterminisme de l'autre. En faisant appel aux notions de Hume de la ressemblance et la contiguïté, on peut rejeter la causalité ou le hasard objectif comme étant sans fondement et non empirique. Le problème de l'induction et le sophisme du parieur proviennent d’une même source cognitif / heuristique. Hume décrit ces tendances mentales dans ses essais « Of Probability » et « Of the Idea of Necessary Connexion ». Une discussion sur la conception de la probabilité de Hume ainsi que d'autres interprétations de probabilité sera nécessaire. Même si la science glorifie et idéalise la causalité, la probabilité peut être comprise comme étant tout aussi cohérente. Une attitude probabiliste, même si elle est également non empirique, pourrait être plus avantageuse que le vieux paradigme de la causalité.
Resumo:
In college admissions and student placements at public schools, the admission decision can be thought of as assigning indivisible objects with capacity constraints to a set of students such that each student receives at most one object and monetary compensations are not allowed. In these important market design problems, the agent-proposing deferred-acceptance (DA-)mechanism with responsive strict priorities performs well and economists have successfully implemented DA-mechanisms or slight variants thereof. We show that almost all real-life mechanisms used in such environments - including the large classes of priority mechanisms and linear programming mechanisms - satisfy a set of simple and intuitive properties. Once we add strategy-proofness to these properties, DA-mechanisms are the only ones surviving. In market design problems that are based on weak priorities (like school choice), generally multiple tie-breaking (MTB)procedures are used and then a mechanism is implemented with the obtained strict priorities. By adding stability with respect to the weak priorities, we establish the first normative foundation for MTB-DA-mechanisms that are used in NYC.
Resumo:
We study the simple model of assigning indivisible and heterogenous objects (e.g., houses, jobs, offi ces, etc.) to agents. Each agent receives at most one object and monetary compensations are not possible. For this model, known as the house allocation model, we characterize the class of rules satisfying unavailable object invariance, individual rationality, weak non-wastefulness, resource-monotonicity, truncation invariance, and strategy-proofness: any rule with these properties must allocate objects based on (implicitly induced) objects' priorities over agents and the agent-proposing deferred-acceptance-algorithm.
Resumo:
Dans cette thèse l’ancienne question philosophique “tout événement a-t-il une cause ?” sera examinée à la lumière de la mécanique quantique et de la théorie des probabilités. Aussi bien en physique qu’en philosophie des sciences la position orthodoxe maintient que le monde physique est indéterministe. Au niveau fondamental de la réalité physique – au niveau quantique – les événements se passeraient sans causes, mais par chance, par hasard ‘irréductible’. Le théorème physique le plus précis qui mène à cette conclusion est le théorème de Bell. Ici les prémisses de ce théorème seront réexaminées. Il sera rappelé que d’autres solutions au théorème que l’indéterminisme sont envisageables, dont certaines sont connues mais négligées, comme le ‘superdéterminisme’. Mais il sera argué que d’autres solutions compatibles avec le déterminisme existent, notamment en étudiant des systèmes physiques modèles. Une des conclusions générales de cette thèse est que l’interprétation du théorème de Bell et de la mécanique quantique dépend crucialement des prémisses philosophiques desquelles on part. Par exemple, au sein de la vision d’un Spinoza, le monde quantique peut bien être compris comme étant déterministe. Mais il est argué qu’aussi un déterminisme nettement moins radical que celui de Spinoza n’est pas éliminé par les expériences physiques. Si cela est vrai, le débat ‘déterminisme – indéterminisme’ n’est pas décidé au laboratoire : il reste philosophique et ouvert – contrairement à ce que l’on pense souvent. Dans la deuxième partie de cette thèse un modèle pour l’interprétation de la probabilité sera proposé. Une étude conceptuelle de la notion de probabilité indique que l’hypothèse du déterminisme aide à mieux comprendre ce que c’est qu’un ‘système probabiliste’. Il semble que le déterminisme peut répondre à certaines questions pour lesquelles l’indéterminisme n’a pas de réponses. Pour cette raison nous conclurons que la conjecture de Laplace – à savoir que la théorie des probabilités présuppose une réalité déterministe sous-jacente – garde toute sa légitimité. Dans cette thèse aussi bien les méthodes de la philosophie que de la physique seront utilisées. Il apparaît que les deux domaines sont ici solidement reliés, et qu’ils offrent un vaste potentiel de fertilisation croisée – donc bidirectionnelle.
Resumo:
We study the problem of assigning indivisible and heterogenous objects (e.g., houses, jobs, offices, school or university admissions etc.) to agents. Each agent receives at most one object and monetary compensations are not possible. We consider mechanisms satisfying a set of basic properties (unavailable-type-invariance, individual-rationality, weak non-wastefulness, or truncation-invariance). In the house allocation problem, where at most one copy of each object is available, deferred-acceptance (DA)-mechanisms allocate objects based on exogenously fixed objects' priorities over agents and the agent-proposing deferred-acceptance-algorithm. For house allocation we show that DA-mechanisms are characterized by our basic properties and (i) strategy-proofness and population-monotonicity or (ii) strategy-proofness and resource-monotonicity. Once we allow for multiple identical copies of objects, on the one hand the first characterization breaks down and there are unstable mechanisms satisfying our basic properties and (i) strategy-proofness and population-monotonicity. On the other hand, our basic properties and (ii) strategy-proofness and resource-monotonicity characterize (the most general) class of DA-mechanisms based on objects' fixed choice functions that are acceptant, monotonic, substitutable, and consistent. These choice functions are used by objects to reject agents in the agent-proposing deferred-acceptance-algorithm. Therefore, in the general model resource-monotonicity is the «stronger» comparative statics requirement because it characterizes (together with our basic requirements and strategy-proofness) choice-based DA-mechanisms whereas population-monotonicity (together with our basic properties and strategy-proofness) does not.
Resumo:
An early decision market is governed by rules that allow each student to apply to (at most) one college and require the student to attend this college if admitted. This market is ubiquitous in college admissions in the United States. We model this market as an extensive-form game of perfect information and study a refinement of subgame perfect equilibrium (SPE) that induces undominated Nash equilibria in every subgame (SPUE). Our main result shows that this game can be used to define a decentralized matching mechanism that weakly Pareto dominates student-proposing deferred acceptance.