80 resultados para bounded rationality
Resumo:
Ce mémoire porte sur l’articulation de la morale en droit. Il soulève la question de l’objectivité de la morale dans la théorie du droit de Ronald Dworkin. Celui-ci doit pouvoir établir les critères de justification de la morale pour asseoir son autorité en droit. Il conteste la validité de la règle de reconnaissance de Hart qui exclue la morale comme source et comme justification inhérente au droit. Dans son dernier livre, Justice for Hedgehogs (2011), Dworkin présente sa thèse de l’unité de valeur entre le droit, la morale personnelle et la morale politique. Pour réussir à intégrer la morale au droit, il doit en défendre l’objectivité. Il développe une conception de la rationalité pratique et de la vérité propre à la morale. Sa conception de la rationalité pratique est rapprochée de celle d’Alasdair MacIntyre. Celui-ci rejette la prétention issue des Lumières d’une rationalité pratique universelle et neutre. Il développe une conception de la rationalité pratique fondée sur le concept de tradition d’investigation. Il fait l’histoire des principales traditions d’investigation depuis l’antiquité jusqu’à aujourd’hui. Il considère la tradition aristotélicienne supérieure, celle-ci réussissant mieux à donner objectivité et intelligibilité à la morale. Des points de convergence ou de divergence sont identifiés dans les conceptions de la morale de Dworkin et de MacIntyre. Ce rapprochement porte sur leurs positions respectives face aux principaux fondements théoriques en philosophie morale, leurs conceptions de la rationalité pratique et leurs définitions des notions de droit et de justice.
Resumo:
Le problème d'intersection d'automates consiste à vérifier si plusieurs automates finis déterministes acceptent un mot en commun. Celui-ci est connu PSPACE-complet (resp. NL-complet) lorsque le nombre d'automates n'est pas borné (resp. borné par une constante). Dans ce mémoire, nous étudions la complexité du problème d'intersection d'automates pour plusieurs types de langages et d'automates tels les langages unaires, les automates à groupe (abélien), les langages commutatifs et les langages finis. Nous considérons plus particulièrement le cas où chacun des automates possède au plus un ou deux états finaux. Ces restrictions permettent d'établir des liens avec certains problèmes algébriques et d'obtenir une classification intéressante de problèmes d'intersection d'automates à l'intérieur de la classe P. Nous terminons notre étude en considérant brièvement le cas où le nombre d'automates est fixé.
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
We study markets with indivisible goods where monetary compensations are not possible. Each individual is endowed with an object and a preference relation over all objects. When preferences are strict, Gale's top trading cycle algorithm finds the unique core allocation. When preferences are not necessarily strict, we use an exogenous profile of tie-breakers to resolve any ties in individuals' preferences and apply Gale's top trading cycle algorithm for the resulting profile of strict preferences. We provide a foundation of these simple extensions of Gale's top trading cycle algorithm from strict preferences to weak preferences. We show that Gale's top trading cycle algorithm with fixed tie-breaking is characterized by individual rationality, strategy-proofness, weak efficiency, non-bossiness, and consistency. Our result supports the common practice in applications to break ties in weak preferences using some fixed exogenous criteria and then to use a 'good and simple' rule for the resulting strict preferences. This reinforces the market-based approach even in the presence of indifferences because always competitive allocations are chosen.
Resumo:
Des recherches antérieures sur les émotions en contexte organisationnel, notamment autour des notions de travail émotionnel, de contrat psychologique et d'équité, ont souvent soulevé la question de la rationalité et du caractère approprié ou non des manifestations émotionnelles, ainsi que sur les mécanismes utilisés pour contrôler et modérer celles-ci. Cependant, peu de recherche empirique a été effectuée sur la façon dont les employés eux-mêmes font sens de leurs émotions au travail et le processus par lequel ils parviennent à rendre celle-ci compréhensibles et légitimes, à la fois pour eux-mêmes et pour autrui. Au cours des dernières années, un courant de recherche émergent tend toutefois à mettre de côté la perspective normative / rationaliste pour soulever ce type de questions. Ainsi, au lieu d'être considérées comme des expériences strictement subjectives, privées, voire inaccessibles, les émotions y sont envisagées à travers les discours et les mises en récits dont elles font l’objet. Les émotions apparaissent ainsi non seulement exprimées dans le langage et la communication, mais construites et négociées à travers eux. La recherche présente développe empiriquement cette perspective émergente, notamment en faisant appel aux théories du sensemaking et de la narration, à travers l’analyse détaillée des récits de quatre employés chargés du soutien à la vente pour un revendeur de produits informatiques. En demandant à mes sujets de parler de leurs expériences émotionnelles et en analysant leurs réponses selon une méthodologie d’analyse narrative, cette recherche explore ainsi la façon dont les employés parviennent à construire le sens et la légitimité de leurs expériences émotionnelles. Les résultats suggèrent entre autres que ces processus de construction de sens sont très étroitement liés aux enjeux d’identité et de rôle.
Resumo:
Cette thèse, intitulée Le pohète initié : Illumination et esthétique ésotérique dans l’œuvre de Gellu Naum, analyse trois œuvres importantes de Gellu Naum, le roman Zenobia, les proses La voie du serpent et Medium, ainsi que le rapport entre la poésie picturale de Gellu Naum et la peinture narrative de Victor Brauner. Les œuvres de Gellu Naum que nous analysons possèdent des points communs synthétisés dans la figure de l’illumination, qui signale l’existence d’un régime de connaissance refondé. L’illumination se base sur des théories ésotériques et surréalistes et s’ouvre également sur une nouvelle interprétation du sacré, dénouée de tout caractère religieux. L’illumination institue et entretient un climat mystique à travers les écrits de Gellu Naum et les productions plastiques de Victor Brauner et consolide en même temps leurs doctrines esthétiques. Pour Gellu Naum, l’illumination est le but suprême de l’existence. Elle a affaire avec la capacité de voir avec les yeux du dedans. Dans ce registre ésotérique, la possibilité d’arriver de l’autre côté, c’est-à-dire dans la part invisible de la réalité, stratifiée jusqu’à son niveau archaïque, est réelle et révélatrice. Selon Gellu Naum, l’artiste doit mettre son œil à l’état sauvage pour décrire l’état transcendantal dans lequel résident ses héros; ceci en essayant de contrecarrer un grave bouleversement historique, puisque le totalitarisme roumain a éclipsé à tout jamais l’espace de l’existence. L’écriture de Naum porte les traces noires de cette incidence néfaste. Pour Victor Brauner, l’illumination a une fonction initiatrice. Elle cristallise l’art du peintre et l’éclaire tout au long de sa quête identitaire. L’illumination entretient et provoque une catharsis aux connotations inattendues dans la production artistique, s’articulant avec une consécration de l’ésotérisme. Partant d’une perspective interdisciplinaire, la thèse se divise en trois parties, Le roman Zenobia et la question de la pensée illuminée, L’état transcendantal et ses variables ou De la logique occulte de l’écriture et Les expressions de la poésie picturale et de la peinture narrative à travers les œuvres de Gellu Naum et de Victor Brauner, chacune d’entre elles analysant la figure de l’illumination et établissant aussi les invariantes esthétiques des deux Surréalistes. Dans leur quête de nouvelles formes de représentations artistiques, Gellu Naum et Victor Brauner ont recours à un surréalisme essentiellement cognitif. Les deux font appel à la rationalité, à la lucidité accrue, ce que les Surréalistes rejetaient parfois avec véhémence.
Resumo:
Cette thèse présente une étude dans divers domaines de l'informatique théorique de modèles de calculs combinant automates finis et contraintes arithmétiques. Nous nous intéressons aux questions de décidabilité, d'expressivité et de clôture, tout en ouvrant l'étude à la complexité, la logique, l'algèbre et aux applications. Cette étude est présentée au travers de quatre articles de recherche. Le premier article, Affine Parikh Automata, poursuit l'étude de Klaedtke et Ruess des automates de Parikh et en définit des généralisations et restrictions. L'automate de Parikh est un point de départ de cette thèse; nous montrons que ce modèle de calcul est équivalent à l'automate contraint que nous définissons comme un automate qui n'accepte un mot que si le nombre de fois que chaque transition est empruntée répond à une contrainte arithmétique. Ce modèle est naturellement étendu à l'automate de Parikh affine qui effectue une opération affine sur un ensemble de registres lors du franchissement d'une transition. Nous étudions aussi l'automate de Parikh sur lettres: un automate qui n'accepte un mot que si le nombre de fois que chaque lettre y apparaît répond à une contrainte arithmétique. Le deuxième article, Bounded Parikh Automata, étudie les langages bornés des automates de Parikh. Un langage est borné s'il existe des mots w_1, w_2, ..., w_k tels que chaque mot du langage peut s'écrire w_1...w_1w_2...w_2...w_k...w_k. Ces langages sont importants dans des domaines applicatifs et présentent usuellement de bonnes propriétés théoriques. Nous montrons que dans le contexte des langages bornés, le déterminisme n'influence pas l'expressivité des automates de Parikh. Le troisième article, Unambiguous Constrained Automata, introduit les automates contraints non ambigus, c'est-à-dire pour lesquels il n'existe qu'un chemin acceptant par mot reconnu par l'automate. Nous montrons qu'il s'agit d'un modèle combinant une meilleure expressivité et de meilleures propriétés de clôture que l'automate contraint déterministe. Le problème de déterminer si le langage d'un automate contraint non ambigu est régulier est montré décidable. Le quatrième article, Algebra and Complexity Meet Contrained Automata, présente une étude des représentations algébriques qu'admettent les automates contraints et les automates de Parikh affines. Nous déduisons de ces caractérisations des résultats d'expressivité et de complexité. Nous montrons aussi que certaines hypothèses classiques en complexité computationelle sont reliées à des résultats de séparation et de non clôture dans les automates de Parikh affines. La thèse est conclue par une ouverture à un possible approfondissement, au travers d'un certain nombre de problèmes ouverts.
Resumo:
Le présent mémoire définira ce qu’on entend par modernité et postmodernité, tout en juxtaposant ces concepts philosophiques au cinéma pratiqué par le documentariste Pierre Perrault. Les modernistes influencés par les Lumières ont toujours considéré les progrès scientifiques comme des avancées nécessaires à l’atteinte d’une béatitude universelle. Pour eux, le salut des sociétés nécessite un passage du côté de la science, du rationalisme. Le problème avec une telle démarche est que tout discours qui se dissocie de la rationalité est immédiatement annihilé au profit d’une (sur)dominance du progrès. Il ne s’agit pas de dire que la modernité est à proscrire – loin de là! –, mais il serait temps d’envisager une remise en question de certaines de ses caractéristiques. La postmodernité, réflexion critique popularisée par Jean-François Lyotard, s’évertue à trouver des pistes de solution pour pallier à cette problématique. Elle est une critique de la domination exagérée des sciences dans la compréhension de notre monde. Il existe pourtant d’autres façons de l’appréhender, tels les mythes et les croyances. Ces récits irrationnels cachent souvent en eux des valeurs importantes (qu’elles soient d’ordre moral, écologique ou spirituel). Or, l’œuvre de Perrault regorge de ces petites histoires communautaires. Les deux films choisis pour notre travail – Le goût de la farine (1977) et Le pays de la terre sans arbre ou le Mouchouânipi (1980) – en sont l’exemple prégnant. Chacun d’eux présente des traditions autochtones (celles des Innus) opposées à la dictature du progrès. Et cette même opposition permet au réalisateur de forger un discours critique sur une modernité prête à tout pour effacer les coutumes uniques. Le cinéaste agit ainsi en postmoderniste, offrant une réflexion salutaire sur les pires excès véhiculés par les tenants du progrès.
Resumo:
Affirmer que les citoyens des démocraties occidentales sont l’objet d’une surveillance systématique efficace et à grande échelle a de quoi provoquer une réaction incrédule. Démagogie, diront certains. Pourtant, les progrès réalisés dans les technologies de collecte, de traitement et de stockage d’information forcent une réflexion sur cette hypothèse. Il a été souligné justement que les coûts élevés liés aux moyens rudimentaires employés par les polices secrètes d’antan endiguaient en quelque sorte la menace. Les filatures, les infiltrations, les rapts nocturnes de dissidents pêchaient par manque de subtilité. Au contraire, le génie des techniques modernes vient de ce qu’elles n’entravent pas le quotidien des gens. Mais au-delà du raffinement technique, le contrôle panoptique de la masse atteint un sommet d’efficience dès lors que celle-ci est amenée à y consentir. Comme le faisait remarquer le professeur Raab : « [TRADUCTION] La surveillance prospère naturellement dans les régimes autoritaires qui ne s’exposent pas au débat public ni à la critique. Lorsqu’elle est utilisée dans des régimes dits démocratiques, elle est légitimée et circonscrite par des arguments de nécessité ou de justifications spéciales, tout comme la censure »[1]. Or, le droit, en tant que discours de rationalité, accomplit savamment ce travail de légitimation. C’est dans cet esprit qu’une analyse radicale des règles de droit encadrant le droit à la vie privée apporte une lucidité nouvelle sur notre faux sentiment de sécurité.
Resumo:
Ce mémoire étudie l'algorithme d'amplification de l'amplitude et ses applications dans le domaine de test de propriété. On utilise l'amplification de l'amplitude pour proposer le plus efficace algorithme quantique à ce jour qui teste la linéarité de fonctions booléennes et on généralise notre nouvel algorithme pour tester si une fonction entre deux groupes abéliens finis est un homomorphisme. Le meilleur algorithme quantique connu qui teste la symétrie de fonctions booléennes est aussi amélioré et l'on utilise ce nouvel algorithme pour tester la quasi-symétrie de fonctions booléennes. Par la suite, on approfondit l'étude du nombre de requêtes à la boîte noire que fait l'algorithme d'amplification de l'amplitude pour amplitude initiale inconnue. Une description rigoureuse de la variable aléatoire représentant ce nombre est présentée, suivie du résultat précédemment connue de la borne supérieure sur l'espérance. Suivent de nouveaux résultats sur la variance de cette variable. Il est notamment montré que, dans le cas général, la variance est infinie, mais nous montrons aussi que, pour un choix approprié de paramètres, elle devient bornée supérieurement.
Resumo:
Cette thèse analyse les incidences des avancées d’une rationalité technoscientifique sur les définitions classiques de l’humain. Elle discerne, dans sa présentation de ce phénomène, le lien entre la technoscience, la cybernétique et le posthumanisme qui en découle. Elle souligne les mutations et projets de remodèlement de l’humain qui traversent cette rationalité technoscientifique et son paradigme informationnel cybernéticien. Cette rationalité technoscientifique, polémique aux ontologies dites conservatrices, soutenant une vision amorale de la RDTS (Recherche & Développement technoscientifique), accouche d’un posthumanisme – en rapport difficile avec le corps – qui bouscule les définitions classiques de l’humain judéo-chrétien, dont l’anthropologie théologique évangélique. Traitant, dans une première grande section de trois chapitres, de la rationalité technoscientifique et de ses visions de l’humain, la thèse permet la mise en exergue des enjeux principaux se dégageant des nouveaux questionnements des anthropologies classiques soumises aux pressions de la RDTS. Dans la deuxième partie, encore de trois chapitres, qui porte sur l’anthropologie évangélique, la thèse situe les Évangéliques historiquement et doctrinalement, pour mieux relever les éléments identitaires du mouvement et les grandes déterminations théologiques à l’intérieur desquels se déploie cette anthropologie. La présentation de cette dernière se décline à partir des différentes compréhensions du motif anthropologique évangélique par excellence, l’imago Dei et le concept de l’unicité de l’humain dont les fondements semblent de plus en plus fragiles à la lumière des conclusions des recherches en paléontologie et en cognition animale. Si plusieurs défis importants sont posés à l’anthropologie évangélique, la thèse, se limitant à une critique évangélique de la rationalité technoscientifique et des réponses évangéliques à cette dernière, analyse une question essentielle pour la pensée évangélique, celle de l’humain homo ii faber et l’anthropotechnie, versus le remodèlement de l’humain autour des interrogations posthumanistes sur le corps et la question du salut. Cette thèse apporte une contribution 1) sur le plan de la synthèse qu’elle présente de l’anthropologie évangélique, 2) de la compréhension de l’identité évangélique, sa singularité et sa diversité, et 3) des manières dont une théologie évangélique peut entrer en dialogue avec la raison technoscientifique. Elle lève le voile sur l’utilisation tous azimuts du concept de l’imago Dei et de son insuffisance, à lui seul, pour apprécier les véritables enjeux du débat avec la rationalité technoscientique. Elle insinue que ce motif doit être analysé en conjonction avec la christologie dans l’approfondissement du Logos incarné, pour en mieux apprécier l'étendue. Ce n'est que dans ce lien qu’ont pu être trouvés des éléments capables d'articuler ce qui est en germe dans l'imago Dei et suggérer une définition de l’humain capable de prendre en considération les défis d’une rationalité technoscientifique et de son posthumanisme.
Resumo:
Comment expliquer la spécificité de la participation politique des immigrants au Québec, alors qu’elle échappe aux explications usuelles ? Si une multitude de facteurs expliquent bien la participation politique dans un cadre général comme le produit d’une rationalité individuelle, rationalité vers laquelle nos politiques sont orienté, ces facteurs peinent empiriquement à saisir pourquoi les immigrants participent et pourquoi ils évitent certains espaces politiques. Plutôt que de reprendre une approche fondée sur une rationalité cognitive ce travail suggère de compléter les approches classiques par celles de la psychologie sociale, et de choisir un spectre original axé sur les facteurs de développement d’un sentiment d’appartenance au Québec socio-affectif. Deux intérêts majeurs accompagnent cette démarche. En premier lieu, elle permet d’inclure le rôle des émotions dans la compréhension de la participation politique et ouvre la voie à des explications complémentaires jusqu'alors négligées. En second lieu, elle permet de séparer la dimension identitaire de la dimension affective, encore fusionnées dans la plupart des approches. En cela elle offre au chercheur un nouveau cadre conceptuel qui permet la prise en compte du poids des affects dans l’étude de la participation politique, dans des cas atypiques tels que l’immigration ou les sociétés en mutation rapide. Enfin, la recherche effectuée dans ce mémoire permet d’éclaircir le comportement politique des immigrants du Québec en démontrant l’échec des politiques d’intégration à développer un sentiment d’appartenance chez ses arrivants.
Resumo:
We study the simple model of assigning indivisible and heterogenous objects (e.g., houses, jobs, offi ces, etc.) to agents. Each agent receives at most one object and monetary compensations are not possible. For this model, known as the house allocation model, we characterize the class of rules satisfying unavailable object invariance, individual rationality, weak non-wastefulness, resource-monotonicity, truncation invariance, and strategy-proofness: any rule with these properties must allocate objects based on (implicitly induced) objects' priorities over agents and the agent-proposing deferred-acceptance-algorithm.
Resumo:
Ce projet de recherche vise à explorer le rôle du design dans l’acte d’achat et l’évaluation des produits. L’hypothèse de recherche repose sur le fait que le design est un obstacle à la rationalité dans le choix d’un bien, car ce dernier est rattaché à des singularités qui lui sont propres, le rendant difficilement comparable aux autres biens d’un même marché. Les produits deviennent difficiles à évaluer et à classer parmi les autres biens similaires dans le marché. En soi, la finalité et les vertus du design permettent aux consommateurs d’avoir une plus grande liberté de choix, mais ce rôle dynamique et économique que peut prendre le design peut aussi confondre les consommateurs devenant brouillés par l’abondance de choix. En ce sens, le design serait la clé de la voûte d’une économie des singularités telle que proposée par Lucien Karpik dans L’économie des singularités. Avec une méthodologie ethnologique, cinq projets d’évaluation de produits au sein de deux organismes produisant des dispositifs d’aide à la consommation ont été observés sur une période de deux ans. À la conclusion de cette étude, il a été démontré que certaines améliorations pouvaient être apportées aux processus d’évaluation, plus particulièrement en ce qui concerne les facteurs qui ne sont pas pris en compte dans les dispositifs d’aide à la consommation actuels, comme l’évaluation de produits centrée sur l’usager à l’aide de scénarios d’usages, plutôt que l’évaluation de produits centrée sur l’objet, ainsi que la considération de l’expérience de l’usager dans l’évaluation des biens.