995 resultados para Multilevel theory
Resumo:
To be a coherent and genuinely alternative conception to the shareholder model, any moral stakeholder theory must meet the following conditions: (1) It must be an ethical theory; (2) It must identify a limited group as stakeholders; (3) The group must be identified on morally relevant grounds; (4) Stakeholder claims must be non-universal; (5) And not held against everyone. A principle for identifying the stakeholder is suggested as a person who has much to lose – financially, socially, or psychologically – by the failure of the firm. The emerging picture contrasts sharply with the conventional conception of the firm.
Resumo:
Roughly speaking, Enron has done for reflection on corporate governance what AIDS did for research on the immune system. So far, however, virtually all of this reflection on and subsequent reform of governance has come from those with a stake in the success of modern capitalism. This paper identifies a number of governance challenges for critics of capitalism, and in particular for those who urge corporations to voluntarily adopt missions of broader social responsibility and equal treatment for all stakeholder groups. I argue that by generally neglecting the governance relation between shareholders and senior managers, stakeholder theorists have underestimated the way in which shareholder-focused governance can be in the interests of all stakeholder groups. The enemy, if you will, is not capitalists (shareholders), but greedy, corrupt or incompetent managers. A second set of governance challenges for stakeholder theorists concerns their largely untested proposals for governance reforms that would require managers to act in the interests of all stakeholders and not just shareholders; in other words to treat shareholders as just another stakeholder group. I suggest that in such a governance regime it may be almost impossible to hold managers accountable to anyone – just as it was when state-owned enterprises were given “multi-stakeholder” mandates in the 1960s and 1970s.
Resumo:
Philippe van Parijs (2003) has argued that an egalitarian ethos cannot be part of a post- Political Liberalism Rawlsian view of justice, because the demands of political justice are confined to principles for institutions of the basic structure alone. This paper argues, by contrast, that certain principles for individual conduct—including a principle requiring relatively advantaged individuals to sometimes make their economic choices with the aim of maximising the prospects of the least advantaged—are an integral part of a Rawlsian political conception of justice. It concludes that incentive payments will have a clearly limited role in a Rawlsian theory of justice.
Resumo:
La théorie de l'information quantique étudie les limites fondamentales qu'imposent les lois de la physique sur les tâches de traitement de données comme la compression et la transmission de données sur un canal bruité. Cette thèse présente des techniques générales permettant de résoudre plusieurs problèmes fondamentaux de la théorie de l'information quantique dans un seul et même cadre. Le théorème central de cette thèse énonce l'existence d'un protocole permettant de transmettre des données quantiques que le receveur connaît déjà partiellement à l'aide d'une seule utilisation d'un canal quantique bruité. Ce théorème a de plus comme corollaires immédiats plusieurs théorèmes centraux de la théorie de l'information quantique. Les chapitres suivants utilisent ce théorème pour prouver l'existence de nouveaux protocoles pour deux autres types de canaux quantiques, soit les canaux de diffusion quantiques et les canaux quantiques avec information supplémentaire fournie au transmetteur. Ces protocoles traitent aussi de la transmission de données quantiques partiellement connues du receveur à l'aide d'une seule utilisation du canal, et ont comme corollaires des versions asymptotiques avec et sans intrication auxiliaire. Les versions asymptotiques avec intrication auxiliaire peuvent, dans les deux cas, être considérées comme des versions quantiques des meilleurs théorèmes de codage connus pour les versions classiques de ces problèmes. Le dernier chapitre traite d'un phénomène purement quantique appelé verrouillage: il est possible d'encoder un message classique dans un état quantique de sorte qu'en lui enlevant un sous-système de taille logarithmique par rapport à sa taille totale, on puisse s'assurer qu'aucune mesure ne puisse avoir de corrélation significative avec le message. Le message se trouve donc «verrouillé» par une clé de taille logarithmique. Cette thèse présente le premier protocole de verrouillage dont le critère de succès est que la distance trace entre la distribution jointe du message et du résultat de la mesure et le produit de leur marginales soit suffisamment petite.
Resumo:
The attached file is created with Scientific Workplace Latex
Resumo:
Les données manquantes sont fréquentes dans les enquêtes et peuvent entraîner d’importantes erreurs d’estimation de paramètres. Ce mémoire méthodologique en sociologie porte sur l’influence des données manquantes sur l’estimation de l’effet d’un programme de prévention. Les deux premières sections exposent les possibilités de biais engendrées par les données manquantes et présentent les approches théoriques permettant de les décrire. La troisième section porte sur les méthodes de traitement des données manquantes. Les méthodes classiques sont décrites ainsi que trois méthodes récentes. La quatrième section contient une présentation de l’Enquête longitudinale et expérimentale de Montréal (ELEM) et une description des données utilisées. La cinquième expose les analyses effectuées, elle contient : la méthode d’analyse de l’effet d’une intervention à partir de données longitudinales, une description approfondie des données manquantes de l’ELEM ainsi qu’un diagnostic des schémas et du mécanisme. La sixième section contient les résultats de l’estimation de l’effet du programme selon différents postulats concernant le mécanisme des données manquantes et selon quatre méthodes : l’analyse des cas complets, le maximum de vraisemblance, la pondération et l’imputation multiple. Ils indiquent (I) que le postulat sur le type de mécanisme MAR des données manquantes semble influencer l’estimation de l’effet du programme et que (II) les estimations obtenues par différentes méthodes d’estimation mènent à des conclusions similaires sur l’effet de l’intervention.
Approximation de la distribution a posteriori d'un modèle Gamma-Poisson hiérarchique à effets mixtes
Resumo:
La méthode que nous présentons pour modéliser des données dites de "comptage" ou données de Poisson est basée sur la procédure nommée Modélisation multi-niveau et interactive de la régression de Poisson (PRIMM) développée par Christiansen et Morris (1997). Dans la méthode PRIMM, la régression de Poisson ne comprend que des effets fixes tandis que notre modèle intègre en plus des effets aléatoires. De même que Christiansen et Morris (1997), le modèle étudié consiste à faire de l'inférence basée sur des approximations analytiques des distributions a posteriori des paramètres, évitant ainsi d'utiliser des méthodes computationnelles comme les méthodes de Monte Carlo par chaînes de Markov (MCMC). Les approximations sont basées sur la méthode de Laplace et la théorie asymptotique liée à l'approximation normale pour les lois a posteriori. L'estimation des paramètres de la régression de Poisson est faite par la maximisation de leur densité a posteriori via l'algorithme de Newton-Raphson. Cette étude détermine également les deux premiers moments a posteriori des paramètres de la loi de Poisson dont la distribution a posteriori de chacun d'eux est approximativement une loi gamma. Des applications sur deux exemples de données ont permis de vérifier que ce modèle peut être considéré dans une certaine mesure comme une généralisation de la méthode PRIMM. En effet, le modèle s'applique aussi bien aux données de Poisson non stratifiées qu'aux données stratifiées; et dans ce dernier cas, il comporte non seulement des effets fixes mais aussi des effets aléatoires liés aux strates. Enfin, le modèle est appliqué aux données relatives à plusieurs types d'effets indésirables observés chez les participants d'un essai clinique impliquant un vaccin quadrivalent contre la rougeole, les oreillons, la rub\'eole et la varicelle. La régression de Poisson comprend l'effet fixe correspondant à la variable traitement/contrôle, ainsi que des effets aléatoires liés aux systèmes biologiques du corps humain auxquels sont attribués les effets indésirables considérés.
Resumo:
La logique contemporaine a connu de nombreux développements au cours de la seconde moitié du siècle dernier. Le plus sensationnel est celui de la logique modale et de sa sémantique des mondes possibles (SMP) dû à Saul Kripke dans les années soixante. Ces dans ce cadre que David Lewis exposera sa sémantique des contrefactuels (SCF). Celle-ci constitue une véritable excroissance de l’architecture kripkéenne. Mais sur quoi finalement repose l’architecture kripkéenne elle-même ? Il semble bien que la réponse soit celle d’une ontologie raffinée ultimement basée sur la notion de mondes possible. Ce mémoire comporte quatre objectifs. Dans un premier temps, nous allons étudier ce qui distingue les contrefactuels des autres conditionnels et faire un survol historique de la littérature concernant les contrefactuels et leur application dans différent champs du savoir comme la philosophie des sciences et l’informatique. Dans un deuxième temps, nous ferons un exposé systématique de la théorie de Lewis telle qu’elle est exposée dans son ouvrage Counterfactuals. Finalement, nous allons explorer la fondation métaphysique des mondes possible de David Lewis dans son conception de Réalisme Modal.
Resumo:
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
L’approche des capabilités a été caractérisée par un développement fulgurant au cours des vingt-cinq dernières années. Bien que formulée à l’origine par Amartya Sen, détenteur du Prix Nobel en économie, Martha Nussbaum reprit cette approche dans le but de s’en servir comme fondation pour une théorie éthico-politique intégrale du bien. Cependant, la version de Nussbaum s’avéra particulièrement vulnérable à plusieurs critiques importantes, mettant sérieusement en doute son efficacité globale. À la lumière de ces faits, cette thèse vise à évaluer la pertinence théorique et pratique de l’approche des capabilités de Nussbaum, en examinant trois groupes de critiques particulièrement percutantes formulées à son encontre.
Resumo:
Extensive social choice theory is used to study the problem of measuring group fitness in a two-level biological hierarchy. Both fixed and variable group size are considered. Axioms are identified that imply that the group measure satisfies a form of consequentialism in which group fitness only depends on the viabilities and fecundities of the individuals at the lower level in the hierarchy. This kind of consequentialism can take account of the group fitness advantages of germ-soma specialization, which is not possible with an alternative social choice framework proposed by Okasha, but which is an essential feature of the index of group fitness for a multicellular organism introduced by Michod, Viossat, Solari, Hurand, and Nedelcu to analyze the unicellular-multicellular evolutionary transition. The new framework is also used to analyze the fitness decoupling between levels that takes place during an evolutionary transition.
Resumo:
Gowers, dans son article sur les matrices quasi-aléatoires, étudie la question, posée par Babai et Sos, de l'existence d'une constante $c>0$ telle que tout groupe fini possède un sous-ensemble sans produit de taille supérieure ou égale a $c|G|$. En prouvant que, pour tout nombre premier $p$ assez grand, le groupe $PSL_2(\mathbb{F}_p)$ (d'ordre noté $n$) ne posséde aucun sous-ensemble sans produit de taille $c n^{8/9}$, il y répond par la négative. Nous allons considérer le probléme dans le cas des groupes compacts finis, et plus particuliérement des groupes profinis $SL_k(\mathbb{Z}_p)$ et $Sp_{2k}(\mathbb{Z}_p)$. La premiére partie de cette thése est dédiée à l'obtention de bornes inférieures et supérieures exponentielles pour la mesure suprémale des ensembles sans produit. La preuve nécessite d'établir préalablement une borne inférieure sur la dimension des représentations non-triviales des groupes finis $SL_k(\mathbb{Z}/(p^n\mathbb{Z}))$ et $Sp_{2k}(\mathbb{Z}/(p^n\mathbb{Z}))$. Notre théoréme prolonge le travail de Landazuri et Seitz, qui considérent le degré minimal des représentations pour les groupes de Chevalley sur les corps finis, tout en offrant une preuve plus simple que la leur. La seconde partie de la thése à trait à la théorie algébrique des nombres. Un polynome monogéne $f$ est un polynome unitaire irréductible à coefficients entiers qui endengre un corps de nombres monogéne. Pour un nombre premier $q$ donné, nous allons montrer, en utilisant le théoréme de densité de Tchebotariov, que la densité des nombres premiers $p$ tels que $t^q -p$ soit monogéne est supérieure ou égale à $(q-1)/q$. Nous allons également démontrer que, quand $q=3$, la densité des nombres premiers $p$ tels que $\mathbb{Q}(\sqrt[3]{p})$ soit non monogéne est supérieure ou égale à $1/9$.
Resumo:
Cette thèse doctorale poursuit l’objectif de mieux comprendre le rôle joué par la profession réglementée en tant que déterminant de la détresse psychologique de la population en emploi au Québec et au Canada. Ceci, dans un contexte où plusieurs ordres professionnels représentant des professions réglementées, s’inquiètent de la santé mentale de leurs membres et de la pression considérable exercée sur eux dans une économie caractérisée par des pénuries de main-d’oeuvre importantes. Cette thèse fut également inspirée par les nombreuses limites constatées à la suite d’une revue de la littérature sur la santé mentale au travail, alors que les risques différenciés auxquels seraient soumis ces professionnels, comparativement à l’ensemble de la population en emploi, demeurent largement à documenter. La profession réglementée s’associe-t-elle directement à l’expérience de détresse psychologique? Quelles sont les conditions de travail susceptibles de conduire au développement ou à l’aggravation de la détresse psychologique pour ces professions? Dans le but de mieux comprendre le rôle joué par la profession réglementée en matière de détresse psychologique, nous avons eu recours à un modèle théorique multidimensionnel qui postule que les contraintes et les ressources découlent d’un ensemble de structures sociales incluant la profession, le travail, la famille, le réseau social hors-travail et les caractéristiques personnelles. Ce modèle découle des théories micro et macro en sociologie (Alexander et al., 1987; Ritzer, 1996), de l’approche agent-structure(Archer, 1995; Giddens, 1987) ainsi que de la théorie du stress social (Pearlin,1999). Trois hypothèses sont soumises à l’étude à travers ce modèle. La première hypothèse, est à l’effet que la profession réglementée, les conditions de travail, la famille ainsi que le réseau social hors-travail et les caractéristiques individuelles, contribuent directement et conjointement à l’explication du niveau de détresse psychologique. La seconde hypothèse induite par le modèle proposé, pose que le milieu de travail médiatise la relation entre la profession réglementée et le niveau de détresse psychologique. La troisième et dernière hypothèse de recherche, postule enfin que la relation entre le milieu de travail et le niveau de détresse psychologique est modérée par les caractéristiques individuelles ainsi que par la famille et le réseau social hors-travail. Ces hypothèses de recherche furent testées à partir des données longitudinales de l’Enquête nationale sur la santé de la population (ENSP) (cycles 1 à 7). Les résultats obtenus sont présentés sous forme de 3 articles, soumis pour publication, lesquels constituent les chapitres 5 à 7 de cette thèse. Dans l’ensemble, le modèle théorique proposé obtient un soutien empirique important et tend à démontrer que la profession réglementée influence directement les chances de vivre de la détresse psychologique au fil du temps, ainsi que le niveau de détresse psychologique lui-même. Les résultats indiquent que les professions réglementées sont soumises à des risques différenciés en termes de conditions de travail susceptibles de susciter de la détresse psychologique. Notons également que la contribution du milieu de travail et de la profession réglementée s’exerce indépendamment des autres dimensions du modèle (famille, réseau social hors-travail, caractéristiques personnelles). Les résultats corroborent l’importance de considérer plusieurs dimensions de la vie d’un individu dans l’étude de la détresse psychologique et mettent à l’ordre du jour l’importance de développer de nouveaux modèles théoriques, mieux adaptés aux contextes de travail au sein desquels oeuvrent les travailleurs du savoir. Cette thèse conclue sur les implications de ces résultats pour la recherche, et sur les retombées qui en découlent pour le marché du travail ainsi que pour le développement futur du système professionnel québécois et canadien.