21 resultados para Lipschitz trivial
em Université de Montréal, Canada
Resumo:
It is not uncommon that a society facing a choice problem has also to choose the choice rule itself. In such situation voters’ preferences on alternatives induce preferences over the voting rules. Such a setting immediately gives rise to a natural question concerning consistency between these two levels of choice. If a choice rule employed to resolve the society’s original choice problem does not choose itself when it is also used in choosing the choice rule, then this phenomenon can be regarded as inconsistency of this choice rule as it rejects itself according to its own rationale. Koray (2000) proved that the only neutral, unanimous universally self-selective social choice functions are the dictatorial ones. Here we in troduce to our society a constitution, which rules out inefficient social choice rules. When inefficient social choice rules become unavailable for comparison, the property of self-selectivity becomes weaker and we show that some non-trivial self-selective social choice functions do exist. Under certain assumptions on the constitution we describe all of them.
Resumo:
Cette étude traite du travail en équipe et de la coopération patronale-syndicale. Nous avons évalué l’influence de la coopération patronale-syndicale sur le fonctionnement et l’autonomie collective des équipes de travail. La méthodologie utilisée s’appuie sur une étude de cas contrastés du point de vue de la variable indépendante (l’intensité de la coopération patronale-syndicale), en neutralisant le plus grand nombre possible de variables de contrôle pouvant influencer la variable dépendante (fonctionnement et autonomie des équipes de travail). Des entrevues semi-structurées avec les représentants des deux usines sélectionnées ont confirmé que la coopération patronale-syndicale était élevée dans une usine et faible dans l’autre. L’analyse des données relatives à notre variable dépendante est basée principalement sur les résultats d’un questionnaire et les données obtenues indiquent que les répondants de l’usine d’Alma font des évaluations plus élevées des aspects liés aux dimensions de la variable dépendantes et celles-ci recouvrent des aspects axés sur la gestion des opérations alors que celles où les évaluations sont plus élevées à Kénogami concernent majoritairement des aspects plus secondaires. Notre hypothèse est essentiellement confirmée et démontre une relation positive entre un degré élevé de coopération patronale-syndicale et l’évaluation par les membres du fonctionnement et de l’autonomie collective de leur équipe. Cette relation positive est cependant mitigée, car elle ne se vérifie pas pour certaines dimensions qui renvoient à des aspects plus secondaires de l’autonomie collective des équipes de travail.
Resumo:
Cette étude de cas est issue d’un module final de formation pour les employés du service public d’une agence de l’eau. Nous explorons les résultats de plusieurs stratégies utilisées pour souligner le besoin de changement dans les comportements individuels et institutionnels en vue d’améliorer les services aux clients. En particulier, nous explorons certaines manières d’ouvrir la discussion sur les pratiques de corruption de manière non-triviale sans offenser les sensibilités ou provoquer l’indifférence. Comme point de départ, il est demandé aux participants de relever les problèmes institutionnels qu’ils caractérisent comme éthiques, même si d’autres problèmes appartiennent à d’autres catégories identifiées plus tard. Pour éviter une approche purement théorique des devoirs et obligations envers les clients, ils sont dérivés de la mission de l’agence telle que définit par la loi qui l’a créée.
Resumo:
Contexte et objectif. Afin de résorber le problème de la violence en milieu scolaire, de nombreux programmes et partenariats « police-école » ont vu le jour. Malgré la popularité de ces initiatives, les évaluations établissent toutefois que leurs effets sur la violence et la délinquance sont plutôt triviaux. Récemment, le programme de prévention « Unité sans violence » a été implanté dans plusieurs écoles de la région métropolitaine de Montréal et une évaluation préliminaire rapporte que son introduction fut suivie d’une baisse significative de la victimisation. À l’aide d’une approche mixte, l’objectif de ce mémoire est d’explorer la pertinence des concepts du rôle paradoxale et de l’intervention en contexte d’autorité afin de mieux comprendre les interactions entre les partenaires du programme et d’identifier de nouvelles pistes permettant de mieux comprendre les effets des programmes policiers en milieu scolaire. Méthodologie. La recherche repose sur des données qualitatives et quantitatives. D’une part, des entretiens semi-directifs ont été réalisés auprès des intervenants (policiers, enseignants et éducateurs spécialisés) afin de recueillir leur point de vue et expérience par rapport au programme. D’autre part, des questionnaires ont été administrés aux élèves de cinquième et sixième année de 20 écoles, ce qui a permis de documenter leur perception des policiers. Résultats. Les résultats aux entrevues suggèrent que les rôles d’aidant du policier et celui plus répressif s’inscrivent en continuité plutôt qu’en contradiction. Les rôles d’éducateur et de « grand frère » du policier seraient très bien reçus par les élèves. L’expérience des policiers, leur approche empathique et personnalisée ainsi que leur intérêt pour le travail communautaire apparaissent comme des éléments clés du bon déroulement du programme. Les résultats aux questionnaires montrent d’ailleurs que les élèves ont une perception très favorable des policiers. Conclusion. Les concepts de rôle et d’intervention en contexte d’autorité apparaissent comme des éléments clés qui devraient être intégrés à toute recherche évaluative visant à mieux comprendre l’effet des programmes policiers sur la délinquance. De plus, d’autres évaluations quantitatives du programme « Unité sans violence » sont nécessaires pour mieux comprendre l’influence de certaines de ses composantes, soit le renforcement positif, l’étalement du programme tout au long de l’année scolaire, le rôle des enseignants dans la transmission du message et l’exposition continue au programme entre la cinquième et sixième année.
Resumo:
L’augmentation du nombre d’usagers de l’Internet a entraîné une croissance exponentielle dans les tables de routage. Cette taille prévoit l’atteinte d’un million de préfixes dans les prochaines années. De même, les routeurs au cœur de l’Internet peuvent facilement atteindre plusieurs centaines de connexions BGP simultanées avec des routeurs voisins. Dans une architecture classique des routeurs, le protocole BGP s’exécute comme une entité unique au sein du routeur. Cette architecture comporte deux inconvénients majeurs : l’extensibilité (scalabilité) et la fiabilité. D’un côté, la scalabilité de BGP est mesurable en termes de nombre de connexions et aussi par la taille maximale de la table de routage que l’interface de contrôle puisse supporter. De l’autre côté, la fiabilité est un sujet critique dans les routeurs au cœur de l’Internet. Si l’instance BGP s’arrête, toutes les connexions seront perdues et le nouvel état de la table de routage sera propagé tout au long de l’Internet dans un délai de convergence non trivial. Malgré la haute fiabilité des routeurs au cœur de l’Internet, leur résilience aux pannes est augmentée considérablement et celle-ci est implantée dans la majorité des cas via une redondance passive qui peut limiter la scalabilité du routeur. Dans cette thèse, on traite les deux inconvénients en proposant une nouvelle approche distribuée de BGP pour augmenter sa scalabilité ainsi que sa fiabilité sans changer la sémantique du protocole. L’architecture distribuée de BGP proposée dans la première contribution est faite pour satisfaire les deux contraintes : scalabilité et fiabilité. Ceci est accompli en exploitant adéquatement le parallélisme et la distribution des modules de BGP sur plusieurs cartes de contrôle. Dans cette contribution, les fonctionnalités de BGP sont divisées selon le paradigme « maître-esclave » et le RIB (Routing Information Base) est dupliqué sur plusieurs cartes de contrôle. Dans la deuxième contribution, on traite la tolérance aux pannes dans l’architecture élaborée dans la première contribution en proposant un mécanisme qui augmente la fiabilité. De plus, nous prouvons analytiquement dans cette contribution qu’en adoptant une telle architecture distribuée, la disponibilité de BGP sera augmentée considérablement versus une architecture monolithique. Dans la troisième contribution, on propose une méthode de partitionnement de la table de routage que nous avons appelé DRTP pour diviser la table de BGP sur plusieurs cartes de contrôle. Cette contribution vise à augmenter la scalabilité de la table de routage et la parallélisation de l’algorithme de recherche (Best Match Prefix) en partitionnant la table de routage sur plusieurs nœuds physiquement distribués.
Resumo:
La politique militaire de la France en Afrique est en évolution. La véracité factuelle de ce constat est désormais difficilement contestable. Ce changement s’observe d’abord dans le discours où l’on parle de plus en plus d’anciennes pratiques dépassées et reconnaît que ce qui était politiquement possible et admis il y a vingt ans ne l’est plus aujourd’hui. Ce processus s’incarne ensuite dans la modification des instruments d’action ainsi que dans les modes et les niveaux d’utilisation de ces instruments. Partant de ces considérations, le présent travail se propose d’examiner les facteurs à l’origine de cette évolution. Il part des réponses jusqu’ici proposées pour apporter un éclairage nouveau au sujet des forces et dynamiques à la base des changements annoncés ou observés. Contrairement à la littérature existante qui a jusqu’ici privilégié les approches matérialistes et utilitaristes pour expliquer les transformations entreprises et celles promises dans la politique militaire africaine de la France, cette étude propose, à l’inverse, une perspective inspirée des approches cognitives et axée sur le processus d’apprentissage. Ainsi, plutôt que de voir dans les réformes ici analysées le résultat exclusif de changements structurels ou systémiques survenus dans l’environnement économique, social ou international des États, notre analyse fera davantage valoir que cette transformation a pour l’essentiel été une adaptation faite à la lumière des leçons tirées d’expériences antérieures. Cette analyse s’appuie sur l’Advocacy Coalition Framework. Développée par Paul A Sabatier et ses collègues, il postule que la prise de décision en matière de politique publique peut être mieux comprise comme une compétition entre coalitions de cause, chacune étant constituée d’acteurs provenant d’une multitudes d’institutions (leaders de groupes d’intérêt, agences administratives, chercheurs, journalistes) qui partagent un système de croyances lié à l’action publique et qui s’engagent dans un effort concerté afin de traduire des éléments de leur système de croyances en une politique publique.
Resumo:
Très peu d’études ont été consacrées à l’œuvre de la romancière française Lydie Salvayre, dont le premier roman a paru en 1990. Il me semble pertinent de me pencher plus sérieusement sur son travail, qui manifeste une véritable exigence d’écriture. Un trait de l’œuvre de Salvayre m’intéresse plus spécifiquement : son rapport à l’héritage. J’envisage ce rapport à la fois dans la thématique, dans l’écriture et dans la forme de deux de ses romans, soient La Puissance des mouches (1995) et La Méthode Mila (2005). Dans chacun de ces deux romans, le narrateur a un rapport trouble à la fois avec son héritage familial et avec son héritage culturel, plus spécialement celui de la philosophie et de la satire classiques. Tiraillé entre le monde du quotidien (trivial) et le monde des idées (sublime), le personnage cherche une issue : il cherche comment vivre. Dans La Puissance des mouches, le narrateur voue une haine à son père et avoue un amour pour Pascal. Dans La Méthode Mila, il est déchiré entre sa mère sénile dont il a la charge et Descartes dont il est obsédé. J’étudierai comment se vit cette déchirure et comment le texte la travaille. La façon dont l’auteure met l’héritage en éclats — elle pastiche, bouscule, malmène, détourne les classiques — n’a rien du respect servile. Cette manière d’hériter, de rompre avec l’évidence d’une continuité avec le passé, pose une question essentielle : comment hériter aujourd’hui, et pourquoi ?
Resumo:
Gowers, dans son article sur les matrices quasi-aléatoires, étudie la question, posée par Babai et Sos, de l'existence d'une constante $c>0$ telle que tout groupe fini possède un sous-ensemble sans produit de taille supérieure ou égale a $c|G|$. En prouvant que, pour tout nombre premier $p$ assez grand, le groupe $PSL_2(\mathbb{F}_p)$ (d'ordre noté $n$) ne posséde aucun sous-ensemble sans produit de taille $c n^{8/9}$, il y répond par la négative. Nous allons considérer le probléme dans le cas des groupes compacts finis, et plus particuliérement des groupes profinis $SL_k(\mathbb{Z}_p)$ et $Sp_{2k}(\mathbb{Z}_p)$. La premiére partie de cette thése est dédiée à l'obtention de bornes inférieures et supérieures exponentielles pour la mesure suprémale des ensembles sans produit. La preuve nécessite d'établir préalablement une borne inférieure sur la dimension des représentations non-triviales des groupes finis $SL_k(\mathbb{Z}/(p^n\mathbb{Z}))$ et $Sp_{2k}(\mathbb{Z}/(p^n\mathbb{Z}))$. Notre théoréme prolonge le travail de Landazuri et Seitz, qui considérent le degré minimal des représentations pour les groupes de Chevalley sur les corps finis, tout en offrant une preuve plus simple que la leur. La seconde partie de la thése à trait à la théorie algébrique des nombres. Un polynome monogéne $f$ est un polynome unitaire irréductible à coefficients entiers qui endengre un corps de nombres monogéne. Pour un nombre premier $q$ donné, nous allons montrer, en utilisant le théoréme de densité de Tchebotariov, que la densité des nombres premiers $p$ tels que $t^q -p$ soit monogéne est supérieure ou égale à $(q-1)/q$. Nous allons également démontrer que, quand $q=3$, la densité des nombres premiers $p$ tels que $\mathbb{Q}(\sqrt[3]{p})$ soit non monogéne est supérieure ou égale à $1/9$.
Resumo:
Cotutelle avec l'Université Panthéon Sorbonne - Paris I
Resumo:
Les données provenant de l'échantillonnage fin d'un processus continu (champ aléatoire) peuvent être représentées sous forme d'images. Un test statistique permettant de détecter une différence entre deux images peut être vu comme un ensemble de tests où chaque pixel est comparé au pixel correspondant de l'autre image. On utilise alors une méthode de contrôle de l'erreur de type I au niveau de l'ensemble de tests, comme la correction de Bonferroni ou le contrôle du taux de faux-positifs (FDR). Des méthodes d'analyse de données ont été développées en imagerie médicale, principalement par Keith Worsley, utilisant la géométrie des champs aléatoires afin de construire un test statistique global sur une image entière. Il s'agit d'utiliser l'espérance de la caractéristique d'Euler de l'ensemble d'excursion du champ aléatoire sous-jacent à l'échantillon au-delà d'un seuil donné, pour déterminer la probabilité que le champ aléatoire dépasse ce même seuil sous l'hypothèse nulle (inférence topologique). Nous exposons quelques notions portant sur les champs aléatoires, en particulier l'isotropie (la fonction de covariance entre deux points du champ dépend seulement de la distance qui les sépare). Nous discutons de deux méthodes pour l'analyse des champs anisotropes. La première consiste à déformer le champ puis à utiliser les volumes intrinsèques et les compacités de la caractéristique d'Euler. La seconde utilise plutôt les courbures de Lipschitz-Killing. Nous faisons ensuite une étude de niveau et de puissance de l'inférence topologique en comparaison avec la correction de Bonferroni. Finalement, nous utilisons l'inférence topologique pour décrire l'évolution du changement climatique sur le territoire du Québec entre 1991 et 2100, en utilisant des données de température simulées et publiées par l'Équipe Simulations climatiques d'Ouranos selon le modèle régional canadien du climat.
Resumo:
Cette thése relie trois articles sur l'économie politique. Ces articles analysent à la fois théoriquement et empiriquement si, et dans quelle mesure, trois phénomènes politiques différents (les partis politiques, les guerres civiles et les menaces externes), et leur interaction, influent sur les résultats économiques. Le premier chapitre étudie l'impact de la présence au pouvoir des politiciens de nouveaux partis politiques sur la taille du gouvernement. Le chapitre se concentre sur les municipalités colombiennes, où les nouveaux partis politiques ont été nombreux et fructueux au cours des dernières années. Les estimations par régressions sur discontinuité montrent que les dépenses publiques et les recettes fiscales sont significativement plus élevées dans les municipalités gouvernées par un maire d'un nouveau parti politique. En utilisant des informations sur la politique locale et des caractéristiques des nouveaux partis, je soutiens que ce résultat peut être expliqué par le fait qu'il y a moins d'information sur les politiciens de nouveaux partis que les politiciens des partis traditionnels. Le deuxième chapitre développe une nouvelle explication de l'impact des guerres civiles et des conflits interétatiques sur le state-building qui repose sur l'idée que les protagonistes de ces deux types de conflits peuvent avoir un lien (ethnique ou idéologique). Un premier résultat montre que la force de ce lien détermine si les conflits contre des adversaires internes (i.e. guerres civiles) ou des ennemis externes (i.e. conflits interétatiques) sont complémentaires ou se substituent, conduisant à plus ou moins d'investissement en capacité fiscale. La théorie prédit également un rôle non trivial de la stabilité politique dans la relation entre les deux types de conflits et la capacité fiscale: un deuxième résultat montre que, bien que la stabilité politique se traduit par moins de capacité fiscale, plus de stabilité n'implique pas plus de state-building. Leur équivalence dépend du niveau de cohésion des institutions. Un nouveau mécanisme par lequel plus de stabilité politique peut impliquer moins de state-building est proposé. En outre, il est démontré que des corrélations dans les données cross-country sont compatibles avec la théorie. Le troisième chapitre examine la relation entre la probabilité d'occurrence d'un conflit intérieur violent et le risque qu'un tel conflit "s'externalise" (c'est à dire se propage dans un autre pays en devenant un conflit interétatique). Je considère une situation dans laquelle un conflit interne entre un gouvernement et un groupe rebelle peut s'externaliser. Je montre que le risque d'externalisation augmente la probabilité d'un accord de paix, mais seulement si le gouvernement est suffisamment puissant par rapport aux rebelles, et si le risque d'externalisation est suffisamment élevé. Je montre comment ce modèle aide à comprendre les récents pourparlers de paix entre le gouvernement colombien et le groupe le plus puissant des rebelles dans le pays, les FARC.
Resumo:
Il y a des problemes qui semblent impossible a resoudre sans l'utilisation d'un tiers parti honnete. Comment est-ce que deux millionnaires peuvent savoir qui est le plus riche sans dire a l'autre la valeur de ses biens ? Que peut-on faire pour prevenir les collisions de satellites quand les trajectoires sont secretes ? Comment est-ce que les chercheurs peuvent apprendre les liens entre des medicaments et des maladies sans compromettre les droits prives du patient ? Comment est-ce qu'une organisation peut ecmpecher le gouvernement d'abuser de l'information dont il dispose en sachant que l'organisation doit n'avoir aucun acces a cette information ? Le Calcul multiparti, une branche de la cryptographie, etudie comment creer des protocoles pour realiser de telles taches sans l'utilisation d'un tiers parti honnete. Les protocoles doivent etre prives, corrects, efficaces et robustes. Un protocole est prive si un adversaire n'apprend rien de plus que ce que lui donnerait un tiers parti honnete. Un protocole est correct si un joueur honnete recoit ce que lui donnerait un tiers parti honnete. Un protocole devrait bien sur etre efficace. Etre robuste correspond au fait qu'un protocole marche meme si un petit ensemble des joueurs triche. On demontre que sous l'hypothese d'un canal de diusion simultane on peut echanger la robustesse pour la validite et le fait d'etre prive contre certains ensembles d'adversaires. Le calcul multiparti a quatre outils de base : le transfert inconscient, la mise en gage, le partage de secret et le brouillage de circuit. Les protocoles du calcul multiparti peuvent etre construits avec uniquements ces outils. On peut aussi construire les protocoles a partir d'hypoth eses calculatoires. Les protocoles construits a partir de ces outils sont souples et peuvent resister aux changements technologiques et a des ameliorations algorithmiques. Nous nous demandons si l'efficacite necessite des hypotheses de calcul. Nous demontrons que ce n'est pas le cas en construisant des protocoles efficaces a partir de ces outils de base. Cette these est constitue de quatre articles rediges en collaboration avec d'autres chercheurs. Ceci constitue la partie mature de ma recherche et sont mes contributions principales au cours de cette periode de temps. Dans le premier ouvrage presente dans cette these, nous etudions la capacite de mise en gage des canaux bruites. Nous demontrons tout d'abord une limite inferieure stricte qui implique que contrairement au transfert inconscient, il n'existe aucun protocole de taux constant pour les mises en gage de bit. Nous demontrons ensuite que, en limitant la facon dont les engagements peuvent etre ouverts, nous pouvons faire mieux et meme un taux constant dans certains cas. Ceci est fait en exploitant la notion de cover-free families . Dans le second article, nous demontrons que pour certains problemes, il existe un echange entre robustesse, la validite et le prive. Il s'effectue en utilisant le partage de secret veriable, une preuve a divulgation nulle, le concept de fantomes et une technique que nous appelons les balles et les bacs. Dans notre troisieme contribution, nous demontrons qu'un grand nombre de protocoles dans la litterature basee sur des hypotheses de calcul peuvent etre instancies a partir d'une primitive appelee Transfert Inconscient Veriable, via le concept de Transfert Inconscient Generalise. Le protocole utilise le partage de secret comme outils de base. Dans la derniere publication, nous counstruisons un protocole efficace avec un nombre constant de rondes pour le calcul a deux parties. L'efficacite du protocole derive du fait qu'on remplace le coeur d'un protocole standard par une primitive qui fonctionne plus ou moins bien mais qui est tres peu couteux. On protege le protocole contre les defauts en utilisant le concept de privacy amplication .
Resumo:
Dans cette thèse, on étudie les propriétés des sous-variétés lagrangiennes dans une variété symplectique en utilisant la relation de cobordisme lagrangien. Plus précisément, on s'intéresse à déterminer les conditions pour lesquelles les cobordismes lagrangiens élémentaires sont en fait triviaux. En utilisant des techniques de l'homologie de Floer et le théorème du s-cobordisme on démontre que, sous certaines hypothèses topologiques, un cobordisme lagrangien exact est une pseudo-isotopie lagrangienne. Ce resultat est une forme faible d'une conjecture due à Biran et Cornea qui stipule qu'un cobordisme lagrangien exact est hamiltonien isotope à une suspension lagrangianenne.
Resumo:
Dans cette thèse, nous étudions quelques problèmes fondamentaux en mathématiques financières et actuarielles, ainsi que leurs applications. Cette thèse est constituée de trois contributions portant principalement sur la théorie de la mesure de risques, le problème de l’allocation du capital et la théorie des fluctuations. Dans le chapitre 2, nous construisons de nouvelles mesures de risque cohérentes et étudions l’allocation de capital dans le cadre de la théorie des risques collectifs. Pour ce faire, nous introduisons la famille des "mesures de risque entropique cumulatifs" (Cumulative Entropic Risk Measures). Le chapitre 3 étudie le problème du portefeuille optimal pour le Entropic Value at Risk dans le cas où les rendements sont modélisés par un processus de diffusion à sauts (Jump-Diffusion). Dans le chapitre 4, nous généralisons la notion de "statistiques naturelles de risque" (natural risk statistics) au cadre multivarié. Cette extension non-triviale produit des mesures de risque multivariées construites à partir des données financiéres et de données d’assurance. Le chapitre 5 introduit les concepts de "drawdown" et de la "vitesse d’épuisement" (speed of depletion) dans la théorie de la ruine. Nous étudions ces concepts pour des modeles de risque décrits par une famille de processus de Lévy spectrallement négatifs.
Resumo:
À travers cette thèse, nous revisitons les différentes étapes qui ont conduit à la découverte des isolants topologiques, suite à quoi nous nous penchons sur la question à savoir si une phase topologiquement non-triviale peut coexister avec un état de symétrie brisée. Nous abordons les concepts les plus importants dans la description de ce nouvel état de la matière, et tentons de comprendre les conséquences fascinantes qui en découlent. Il s’agit d’un champ de recherche fortement alimenté par la théorie, ainsi, l’étude du cadre théorique est nécessaire pour atteindre une compréhension profonde du sujet. Le chapitre 1 comprend un retour sur l’effet de Hall quantique, afin de motiver les sections subséquentes. Le chapitre 2 présente la première réalisation d’un isolant topologique à deux dimensions dans un puits quantique de HgTe/CdTe, suite à quoi ces résultats sont généralisés à trois dimensions. Nous verrons ensuite comment incorporer des principes de topologie dans la caractérisation d’un système spécifique, à l’aide d’invariants topologiques. Le chapitre 3 introduit le premier dérivé de l’état isolant topologique, soit l’isolant topologique antiferromagnétique (ITAF). Après avoir motivé théoriquement le sujet et introduit un invariant propre à ce nouvel état ITAF, qui est couplé à l’ordre de Néel, nous explorons, dans les chapitres 4 et 5, deux candidats de choix pour la phase ITAF : GdBiPt et NdBiPt.