39 resultados para multiple-valued logic
em Université de Montréal, Canada
Resumo:
We study the problem of locating two public goods for a group of agents with single-peaked preferences over an interval. An alternative specifies a location for each public good. In Miyagawa (1998), each agent consumes only his most preferred public good without rivalry. We extend preferences lexicographically and characterize the class of single-peaked preference rules by Pareto-optimality and replacement-domination. This result is considerably different from the corresponding characterization by Miyagawa (2001a).
Resumo:
This Paper Intends to Develop a Coherent Methodological Framework Concerned with the Appraisal of Scientific Theories in Economics, and Which Is Based on a Postulated Aim of Science. We First Define the Scope of a Methodological Inquiry (Precise Definition of What Is Meant by the Logic of Appraisal of Scientific Theories) and Review the Work of Popper and Lakatos in the Philosophy of Science. We Then Use Their Results to Develop a Rational Structure of Scientific Activity. We Identify and Analyse Both a Micro and Macro Framework for the Process of Appraisal and Single Out the Importance of So-Called 'Fundamental Assumptions' in Creating Externalities in the Appraisal Process Which Forces Us to Adop a Multi-Level Analysis. Special Attention Is Given to the Role and Significance of the Abstraction Process and the Use of Assumptions in General. the Proposed Structure of Scientific Activity Is Illustrated with Examples From Economics.
Resumo:
In a recent paper, Bai and Perron (1998) considered theoretical issues related to the limiting distribution of estimators and test statistics in the linear model with multiple structural changes. In this companion paper, we consider practical issues for the empirical applications of the procedures. We first address the problem of estimation of the break dates and present an efficient algorithm to obtain global minimizers of the sum of squared residuals. This algorithm is based on the principle of dynamic programming and requires at most least-squares operations of order O(T 2) for any number of breaks. Our method can be applied to both pure and partial structural-change models. Secondly, we consider the problem of forming confidence intervals for the break dates under various hypotheses about the structure of the data and the errors across segments. Third, we address the issue of testing for structural changes under very general conditions on the data and the errors. Fourth, we address the issue of estimating the number of breaks. We present simulation results pertaining to the behavior of the estimators and tests in finite samples. Finally, a few empirical applications are presented to illustrate the usefulness of the procedures. All methods discussed are implemented in a GAUSS program available upon request for non-profit academic use.
Resumo:
Affiliation: Louise Lafortune: Faculté de médecine, Université de Montréal
Resumo:
We consider the problem of provisioon and cost-sharing of multiple public goods. the efficient equal factor equivalent allocation rule makes every agent indifferent between what he receives and the opportunity of choosing the bundle of public goods subject to the constraint of paying r times its cost, where r is set as low as possible.
Resumo:
In this paper we show that lobbying in conditions of “direct democracy” is virtually impossible, even in conditions of complete information about voters preferences, since it would require solving a very computationally hard problem. We use the apparatus of parametrized complexity for this purpose.
Resumo:
BACKGROUND: The role of ss-catenin signaling in mesodermal lineage formation and differentiation has been elusive. METHODOLOGY: To define the role of ss-catenin signaling in these processes, we used a Dermo1(Twist2)(Cre/+) line to target a floxed beta-catenin allele, throughout the embryonic mesenchyme. Strikingly, the Dermo1(Cre/+); beta-catenin(f/-) conditional Knock Out embryos largely phenocopy Pitx1(-/-)/Pitx2(-/-) double knockout embryos, suggesting that ss-catenin signaling in the mesenchyme depends mostly on the PITX family of transcription factors. We have dissected this relationship further in the developing lungs and find that mesenchymal deletion of beta-catenin differentially affects two major mesenchymal lineages. The amplification but not differentiation of Fgf10-expressing parabronchial smooth muscle progenitor cells is drastically reduced. In the angioblast-endothelial lineage, however, only differentiation into mature endothelial cells is impaired. CONCLUSION: Taken together these findings reveal a hierarchy of gene activity involving ss-catenin and PITX, as important regulators of mesenchymal cell proliferation and differentiation.
Resumo:
Uncertainties as to future supply costs of nonrenewable natural resources, such as oil and gas, raise the issue of the choice of supply sources. In a perfectly deterministic world, an efficient use of multiple sources of supply requires that any given market exhausts the supply it can draw from a low cost source before moving on to a higher cost one; supply sources should be exploited in strict sequence of increasing marginal cost, with a high cost source being left untouched as long as a less costly source is available. We find that this may not be the efficient thing to do in a stochastic world. We show that there exist conditions under which it can be efficient to use a risky supply source in order to conserve a cheaper non risky source. The benefit of doing this comes from the fact that it leaves open the possibility of using it instead of the risky source in the event the latter’s future cost conditions suddenly deteriorate. There are also conditions under which it will be efficient to use a more costly non risky source while a less costly risky source is still available. The reason is that this conserves the less costly risky source in order to use it in the event of a possible future drop in its cost.
Resumo:
A collective decision problem is described by a set of agents, a profile of single-peaked preferences over the real line and a number k of public facilities to be located. We consider public facilities that do not su¤er from congestion and are non-excludable. We provide a characterization of the class of rules satisfying Pareto-efficiency, object-population monotonicity and sovereignty. Each rule in the class is a priority rule that selects locations according to a predetermined priority ordering among interest groups. We characterize each of the subclasses of priority rules that respectively satisfy anonymity, hiding-proofness and strategy-proofness. In particular, we prove that a priority rule is strategy-proof if and only if it partitions the set of agents into a fixed hierarchy. Alternatively, any such rule can be viewed as a collection of fixed-populations generalized peak-selection median rules (Moulin, 1980), that are linked across populations, in a way that we describe.
Resumo:
"Thèse présentée à la Faculté des études supérieures en vue de l'obtention du grade de docteur en droit (LL.D.)". Cette thèse a été acceptée à l'unanimité et classée parmi les 10% des thèses de la discipline.
Resumo:
Cette thèse se propose d’étudier les façons dont la pensée et l’imaginaire grec de l’époque archaïque se représentaient quelques pans du réel qui ne se laissaient jamais voir ni atteindre: l’éther, l’air et l’abîme marin. Vu le caractère insondable de ces espaces, l’imagination et l’abstraction se sont ingéniées à les appréhender par un discours spécifique et à les intégrer dans le système de connaissances et de croyances propre à l’époque en leur assignant une place dans le système de l’univers, en les rattachant à une hiérarchie de l’ordre cosmologique, en leur donnant une forme, en classant leurs objets et en les rapportant aux modèles du monde connu, en les aménageant par les moyens les plus divers. Une étude des formes d’expression de la pensée grecque archaïque, autant littéraires qu’iconographiques, permet de cerner les diverses formes de représentation des domaines inaccessibles et les modèles d’organisation spatiale issus de ce type de pensée. Grâce à la dialectique particulière qui ressort du rapport entre espace et mouvement, cette thèse se propose également d’interroger le corpus des sources grecques archaïques sous des angles jusqu’ici peu explorés: comment maîtrise-t-on l’espace par les déplacements physiques en dehors des parcours terrestres? Comment les schémas du mouvement dans l’espace se sont-ils forgés? Comment les dichotomies issues de la logique spatiale archaïque (haut/bas, droite/gauche, est/ouest, en deça/au-delà, etc.) influent-elles sur la structuration spatiale? Quelles espèces d’espace révèlent les déplacements à travers les différents niveaux du monde, que ce soit ceux des dieux, ceux des mortels et d’autres entités, forces physiques et substances privilégiées dans le commerce avec le divin et le monde d’en haut? Ces analyses mettent en valeur les façons dont l’imagination et l’abstraction plutôt que l’expérience vécue ont contribué, à leur façon, à structurer l’espace et à forger l’image du monde comme κόσμος, monde mis en ordre et soumis autant aux lois physiques qu’aux lois divines.
Resumo:
Réalisée en milieux défavorisés, cette étude porte sur l’engagement scolaire des élèves de troisième cycle du primaire (5e et 6e années au Québec) dans un contexte d’utilisation pédagogique des technologies de l’information et de la communication (TIC). L’objectif de cette recherche est d’analyser l’engagement d’élèves utilisant les TIC. Elle vise à décrire les pratiques pédagogiques d’intégration des TIC de dix enseignants, de relater la qualité de l’engagement de leurs 230 élèves lors de tâches TIC et de mesurer l’évolution et la qualité de leur engagement scolaire selon le degré de défavorisation de leur école. Pour ce faire, cette recherche s’est inspirée d’un cadre de référence traitant l’engagement scolaire selon les dimensions affective, comportementale et cognitive. De plus, cette étude multicas essentiellement de nature interprétative et descriptive a utilisé une méthodologie mixte de collecte et d’analyse des données. Les résultats montrent notamment que les enseignants accordent une valeur pédagogique importante aux TIC tant dans la fréquence de leur utilisation, dans les usages valorisés que dans la façon de les intégrer en classe. Les enseignants privilégient largement le traitement de texte et la recherche sur Internet, mais très peu d’autres usages pertinents sont mis de l’avant de manière soutenue. La majorité des enseignants interrogés préférerait se servir de quatre ordinateurs en classe pour utiliser les TIC plus facilement que d’avoir uniquement accès au laboratoire de leur école. De plus, ils perçoivent de manière unanime que l’utilisation des TIC exerce une influence importante sur la dimension affective de leurs élèves lors d’activités préparées, assez bonne sur la dimension comportementale et plus discutable sur la dimension cognitive. Plus globalement, les élèves eux-mêmes affichent en général un engagement scolaire relativement élevé. En six mois, la qualité de l’engagement affectif des élèves est restée stable, leur engagement comportemental a progressé, mais leur engagement cognitif a baissé légèrement. Les résultats montrent aussi que la qualité de l’engagement des élèves de milieux défavorisés évolue différemment selon le degré de défavorisation de leur école. Dans cette recherche, l’importance de l’utilisation des TIC sur la qualité de l’engagement est marquante et s’avère parfois meilleure que dans d’autres types de tâches. Sans pouvoir généraliser, cette étude permet aussi de saisir davantage la qualité et l’évolution de l’engagement scolaire des élèves de la fin du primaire en milieux défavorisés. Des recommandations pour le milieu et des pistes de recherches futures sont présentées en tenant compte des limites et des forces de cette thèse inédite réalisée par articles.
Resumo:
Most panel unit root tests are designed to test the joint null hypothesis of a unit root for each individual series in a panel. After a rejection, it will often be of interest to identify which series can be deemed to be stationary and which series can be deemed nonstationary. Researchers will sometimes carry out this classification on the basis of n individual (univariate) unit root tests based on some ad hoc significance level. In this paper, we demonstrate how to use the false discovery rate (FDR) in evaluating I(1)=I(0) classifications based on individual unit root tests when the size of the cross section (n) and time series (T) dimensions are large. We report results from a simulation experiment and illustrate the methods on two data sets.