34 resultados para Basic Set
Resumo:
Ma thèse de doctorat, intitulée Inventing Interventions: Strategies of Reappropriation in Native and First Nations Literatures traite du sujet de la réappropriation de la langue anglaise et de la langue française dans les littératures autochtones du Canada et des États-Unis, en tant que stratégie d’intervention de re-narration et de récupération. De fait, mon projet fait abstraction, autant que possible, des frontières nationales et linguistiques, vu que celles-ci sont essentiellement des constructions culturelles et coloniales. Ainsi, l’acte de réappropriation de la langue coloniale implique non seulement la maîtrise de base de cette dernière à des fins de communication, cela devient un moyen envers une fin : au lieu d’être possédés par la langue, les auteurs sur lesquels je me penche ici possèdent à présent cette dernière, et n’y sont plus soumis. Les tensions qui résultent d’un tel processus sont le produit d’une transition violente imposée et expérimentale d’une réalité culturelle à une autre, qui, pour plusieurs, n’a pas réussie et s’est, au contraire, effritée sur elle-même. Je soutiens donc que les auteurs autochtones ont créé un moyen à travers l’expression artistique et politique de répondre (dans le sens de « write back ») à l’oppression et l’injustice. À travers l’analyse d’oeuvres contemporaines écrites en anglais ou en français, que ce soit de la fiction, de l’autobiographie, de la poésie, du théâtre, de l’histoire ou du politique, ma recherche se structure autour de quatre concepts spécifiques : la langue, la résistance, la mémoire, et le lieu. J’examine comment ces concepts sont mis en voix, et comment ils sont interdépendants et s’affectent à l’intérieur du discours particulier issu des littératures autochtones et des différentes stratégies d’intervention (telles la redéfinition ou l’invention) et du mélange de différentes formules littéraires.
Resumo:
Cette recherche porte sur l’amélioration de la motivation à l’apprentissage des mathématiques à l’Université Abdou Moumouni. Elle se situe dans une dynamique globale de mise au point d’actions pédagogiques pour remédier au problème préoccupant de la motivation à l’apprentissage des sciences. Plus spécifiquement, il s’agit de prospecter si les environnements virtuels d’apprentissage peuvent contribuer à l’amélioration de la transmission des savoirs dans un contexte universitaire au Niger. Ainsi, notre recherche vise à mieux comprendre l’impact de l’intégration des TIC sur la motivation chez des étudiants à apprendre les mathématiques au Niger. Les trois objectifs spécifiques de notre recherche sont : explorer les impacts sur le sentiment de compétence chez des étudiants à l’apprentissage des mathématiques dans un contexte d’intégration pédagogique des TIC; mieux comprendre le changement des types de motivations autodéterminées à l’apprentissage des mathématiques chez des étudiants exposés à une intégration pédagogique des TIC; comprendre les perceptions de l’usage d’un environnement virtuel à l’apprentissage des mathématiques chez des étudiants et l’évolution de leurs motivations autodéterminées. Se fondant sur une méthodologie de type mixte, cette recherche quasi-expérimentale a consisté en la collecte de données quantitatives au moyen de 2 questionnaires sur la motivation (sentiment de compétence et sentiment d’autodétermination) en pré-test et en post-test. Pour les données qualitatives, nous avons eu recours à des entrevues dirigées auprès de 9 participants. Au total 61 étudiants inscrits en science de la vie et de la terre, dont 51 hommes, ont participé à la recherche. La thèse respecte le mode de présentation par articles. Chacun des trois articles est en lien avec un des trois objectifs de la recherche, dans l’ordre cité plus haut. Les principaux résultats indiquent un impact positif sur la motivation à travers un recul du sentiment négatif de compétence chez les étudiants ayant bénéficié de l’apport des TIC comparativement aux étudiants ordinaires. En ce qui concerne le sentiment d’autodétermination, chez les étudiants ayant bénéficié de l’apport pédagogique des TIC, il est mis en évidence une stagnation ou une légère baisse des motivations peu ou pas autodéterminées et une légère hausse ou une stagnation des motivations autodéterminées chez les étudiants ayant bénéficié de l’apport des TIC. Finalement, la recherche a permis de mettre en relief l'existence de corrélations positives entre l’augmentation des motivations autodéterminées et la perception d’une qualité positive de l’expérience d'innovation pédagogique que représente l’environnement virtuel d’apprentissage des mathématiques. En définitive, cette recherche fait ressortir l’importance de l'intégration pédagogique des TIC pour améliorer les pratiques pédagogiques actuelles, et satisfaire deux besoins psychologiques fondamentaux, notamment le sentiment de compétence et le sentiment d’autodétermination, deux composantes essentielles de la motivation selon la théorie de l’autodétermination de Deci et Ryan. Les résultats obtenus dégagent des perspectives intéressantes en vue de renforcer les recours aux environnements virtuels d'apprentissage au profit de la motivation à l'apprentissage des mathématiques. Les forces et les limites de la recherche sont discutées et un ensemble de recommandations sont émises à l’intention des acteurs académiques, notamment les perspectives assez prometteuses de l’intégration pédagogique des TIC au service de l'apprentissage des sciences en Afrique, et au Niger en particulier.
Resumo:
De la capacité d’une société à repenser ses liens sociaux, dépend son développement à la fois politique, social et économique. L’État peut, pour contribuer de manière déterminante à la production de sens, développer des outils, entre autres des mécanismes de redistribution, susceptibles d’assurer la solidarité et la cohésion sociale. L’enjeu est d’importance pour certains pays comme la Namibie, dont l'histoire est marquée par le colonialisme et l'apartheid ─desquels il s'est libéré il y a à peine plus de vingt ans─ et qui sont construits sur une logique de séparation inégalitaire des droits et des ressources. À partir de l'exemple du Basic Income Grant (BIG), projet-pilote de revenu citoyen garanti mis en place dans un village de la Namibie entre 2007 et 2009, ce mémoire propose d'explorer l'apport du concept d'empowerment dans ce projet en tant qu'outil de déconstruction de ces structures inégalitaires. Après avoir exposé différentes conceptions des notions de pauvreté, de richesse et de développement, nous aborderons la question du revenu citoyen garanti et de la place qu'il peut prendre dans différents systèmes de protection sociale. Puis, nous tenterons de mieux cerner le concept d'empowerment pour finalement arriver à répondre à notre principal questionnement: le projet BIG permet-il effectivement l'émancipation ou au contraire, fait-il en sorte de renforcer le sentiment de dépendance et d'impuissance vécu par la communauté isolée, vivant dans des conditions d'extrême précarité? Des entrevues ont pour ce faire été conduites auprès de 15 participants, soit des membres du village d'Otjivero, des intervenants engagés dans le regroupement d'acteurs de la société civile namibienne étant à la source de l'initiative, et des représentants gouvernementaux. L’analyse de ces résultats est présentée en dernière partie de travail.
Resumo:
La connexine 43 (Cx43) est l’unité protéique de base dans la formation des canaux des jonctions gap (JG) responsables des échanges intercellulaires. Toutefois, elle forme aussi des canaux non-jonctionnels à large conductance, nommés hémicanaux (Hc), qui fournissent un accès entre l’intérieure des cellules et le milieu extracellulaire. Bien qu’ils soient beaucoup moins étudiés que les JG, on estime que les Hc restent normalement à l’état fermé, et ce, grâce à la phosphorylation des connexines qui les forment. Suite à un stress ischémique, les Cx43 se déphosphorylent et entraînent ainsi l’ouverture des Hc de Cx43 (HcCx43), un effet qui compromet la survie des cellules. La protéine kinase C (PKC) est l’enzyme de phosphorylation qui possède le plus grand nombre de sites de phosphorylation sur la Cx43 en comparaison avec les autres kinases. Ses fonctions dépendent de la mise en jeu d’un répertoire d’au moins 12 isoformes distinctes. Dans les cardiomyocytes, les isoformes de PKC participent au développement des réponses adaptées ou mésadaptées au stress ischémique. Malgré que la régulation des canaux de Cx43 par la PKC lors d’une ischémie soit bien documentée, il n’existe pas à l’heure actuelle de connaissances sur les effets fonctionnels spécifiques qu’exercent des différentes isoformes de PKC sur les HcCx43, ni sur la valeur thérapeutique de la modulation de ses derniers. Dans ce contexte, nous avons proposé que les HcCx43 sont régulés sélectivement et différentiellement par les différentes isoformes de PKC et que l’inhibition spécifique de ces hémicanaux peut protéger le coeur lors d’un événement ischémique. Le présent travail comporte trois études qui ont été entreprises spécialement dans le but de valider ces hypothèses. Dans la première étude, nous avons profité de l’expertise du laboratoire du Dr Baroudi dans la dissection des isoformes de PKC pour étudier le rôle fonctionnel de chacune d’elles dans la régulation des HcCx43 en utilisant une gamme unique de peptides synthétiques inhibiteurs et activateurs spécifiques des isoformes de PKC, en combinaison avec la technique du patch-clamp. Nous avons démontré, entre autre, que les HcCx43 sont particulièrement inhibés par l’isoforme PKC epsilon, connue pour son effet cardioprotecteur contre les dommages ischémiques lors d’un préconditionnement ischémique. Dans la deuxième étude, nous avons caractérisé l’effet d’un peptide synthétique mimétique structural de la Cx43 sur la fonction des HcCx43. En plus d’avoir élucidé ces effets sur les propriétés fonctionnelles du canal, nous avons démontré d’une manière directe et indéniable que le peptide Gap26 inhibe et spécifiquement les HcCx43 et que son administration in vitro (cardiomyocytes isolés) et ex vivo (coeur intact) confère à ces modèles expérimentaux une résistance importante contre le stress ischémique. Dans la troisième étude, nous avons investigué pour la première fois in vivo le potentiel de deux peptides uniques mimétiques structuraux de la Cx43, Gap26 et Gap27, dans la cardioprotection contre les lésions ischémiques lorsqu’ils sont administrés à basse dose sous forme d’un bolus intraveineux unique. Nous avons démontré que l’injection de ces peptides avant ou après la survenue de l’ischémie réduit significativement la taille de l’infarctus qui en résulte.En conclusion, l’ensemble de ces résultats révèlent le rôle bénéfique de l’inhibition des HcCx43 lors d’une ischémie et dévoilent un potentiel thérapeutique prometteux des mimétiques structuraux de Cx43 dans la prévention et le traitement de l’infarctus du myocarde.
Resumo:
Les troubles du spectre autistique (TSA) sont actuellement caractérisés par une triade d'altérations, incluant un dysfonctionnement social, des déficits de communication et des comportements répétitifs. L'intégration simultanée de multiples sens est cruciale dans la vie quotidienne puisqu'elle permet la création d'un percept unifié. De façon similaire, l'allocation d'attention à de multiples stimuli simultanés est critique pour le traitement de l'information environnementale dynamique. Dans l'interaction quotidienne avec l'environnement, le traitement sensoriel et les fonctions attentionnelles sont des composantes de base dans le développement typique (DT). Bien qu'ils ne fassent pas partie des critères diagnostiques actuels, les difficultés dans les fonctions attentionnelles et le traitement sensoriel sont très courants parmi les personnes autistes. Pour cela, la présente thèse évalue ces fonctions dans deux études séparées. La première étude est fondée sur la prémisse que des altérations dans le traitement sensoriel de base pourraient être à l'origine des comportements sensoriels atypiques chez les TSA, tel que proposé par des théories actuelles des TSA. Nous avons conçu une tâche de discrimination de taille intermodale, afin d'investiguer l'intégrité et la trajectoire développementale de l'information visuo-tactile chez les enfants avec un TSA (N = 21, âgés de 6 à18 ans), en comparaison à des enfants à DT, appariés sur l’âge et le QI de performance. Dans une tâche à choix forcé à deux alternatives simultanées, les participants devaient émettre un jugement sur la taille de deux stimuli, basé sur des inputs unisensoriels (visuels ou tactiles) ou multisensoriels (visuo-tactiles). Des seuils différentiels ont évalué la plus petite différence à laquelle les participants ont été capables de faire la discrimination de taille. Les enfants avec un TSA ont montré une performance diminuée et pas d'effet de maturation aussi bien dans les conditions unisensorielles que multisensorielles, comparativement aux participants à DT. Notre première étude étend donc des résultats précédents d'altérations dans le traitement multisensoriel chez les TSA au domaine visuo-tactile. Dans notre deuxième étude, nous avions évalué les capacités de poursuite multiple d’objets dans l’espace (3D-Multiple Object Tracking (3D-MOT)) chez des adultes autistes (N = 15, âgés de 18 à 33 ans), comparés à des participants contrôles appariés sur l'âge et le QI, qui devaient suivre une ou trois cibles en mouvement parmi des distracteurs dans un environnement de réalité virtuelle. Les performances ont été mesurées par des seuils de vitesse, qui évaluent la plus grande vitesse à laquelle des observateurs sont capables de suivre des objets en mouvement. Les individus autistes ont montré des seuils de vitesse réduits dans l'ensemble, peu importe le nombre d'objets à suivre. Ces résultats étendent des résultats antérieurs d'altérations au niveau des mécanismes d'attention en autisme quant à l'allocation simultanée de l'attention envers des endroits multiples. Pris ensemble, les résultats de nos deux études révèlent donc des altérations chez les TSA quant au traitement simultané d'événements multiples, que ce soit dans une modalité ou à travers des modalités, ce qui peut avoir des implications importantes au niveau de la présentation clinique de cette condition.
Resumo:
This paper deals with a prevailing assumption that basic goods are accessory to claims of justice. Against such an assumption, the paper advances the idea that basic goods (the core of what I wish to call the sufficiency threshold) are fundamental as a matter of justice. The paper then addresses the question as to what is the elemental justifiability of a social minimum and how that relates to theories of justice, particularly to emerging theories of global justice. The arguments against the aforementioned assumption call upon the strengths of a general theory of justice already in place, namely, John Rawls’s theory of justice and the enriching response and criticism thereof—particularly David Miller’s theory of justice.
Resumo:
La présente recherche est constituée de deux études. Dans l’étude 1, il s’agit d’améliorer la validité écologique des travaux sur la reconnaissance émotionnelle faciale (REF) en procédant à la validation de stimuli qui permettront d’étudier cette question en réalité virtuelle. L’étude 2 vise à documenter la relation entre le niveau de psychopathie et la performance à une tâche de REF au sein d’un échantillon de la population générale. Pour ce faire, nous avons créé des personnages virtuels animés de différentes origines ethniques exprimant les six émotions fondamentales à différents niveaux d’intensité. Les stimuli, sous forme statique et dynamique, ont été évalués par des étudiants universitaires. Les résultats de l’étude 1 indiquent que les stimuli virtuels, en plus de comporter plusieurs traits distinctifs, constituent un ensemble valide pour étudier la REF. L’étude 2 a permis de constater qu’un score plus élevé à l’échelle de psychopathie, spécifiquement à la facette de l’affect plat, est associé à une plus grande sensibilité aux expressions émotionnelles, particulièrement pour la tristesse. Inversement, un niveau élevé de tendances criminelles est, pour sa part, associé à une certaine insensibilité générale et à un déficit spécifique pour le dégoût. Ces résultats sont spécifiques aux participants masculins. Les données s’inscrivent dans une perspective évolutive de la psychopathie. L’étude met en évidence l’importance d’étudier l’influence respective des facettes de la personnalité psychopathique, ce même dans des populations non-cliniques. De plus, elle souligne la manifestation différentielle des tendances psychopathiques chez les hommes et chez les femmes.
Resumo:
Alors que l’Imagerie par résonance magnétique (IRM) permet d’obtenir un large éventail de données anatomiques et fonctionnelles, les scanneurs cliniques sont généralement restreints à l’utilisation du proton pour leurs images et leurs applications spectroscopiques. Le phosphore jouant un rôle prépondérant dans le métabolisme énergétique, l’utilisation de cet atome en spectroscopie RM présente un énorme avantage dans l’observation du corps humain. Cela représente un certain nombre de déEis techniques à relever dus à la faible concentration de phosphore et sa fréquence de résonance différente. L’objectif de ce projet a été de développer la capacité à réaliser des expériences de spectroscopie phosphore sur un scanneur IRM clinique de 3 Tesla. Nous présentons ici les différentes étapes nécessaires à la conception et la validation d’une antenne IRM syntonisée à la fréquence du phosphore. Nous présentons aussi l’information relative à réalisation de fantômes utilisés dans les tests de validation et la calibration. Finalement, nous présentons les résultats préliminaires d’acquisitions spectroscopiques sur un muscle humain permettant d’identiEier les différents métabolites phosphorylés à haute énergie. Ces résultats s’inscrivent dans un projet de plus grande envergure où les impacts des changements du métabolisme énergétique sont étudiés en relation avec l’âge et les pathologies.
Resumo:
Thesis written in co-mentorship with Robert Michaud.
Resumo:
Réalisé en cotutelle avec L'École des hautes études en sciences sociales de Paris
Resumo:
Thèse réalisée en cotutelle avec l'École des Hautes Études en Sciences Sociales (EHESS, Paris).
Resumo:
On révise les prérequis de géométrie différentielle nécessaires à une première approche de la théorie de la quantification géométrique, c'est-à-dire des notions de base en géométrie symplectique, des notions de groupes et d'algèbres de Lie, d'action d'un groupe de Lie, de G-fibré principal, de connexion, de fibré associé et de structure presque-complexe. Ceci mène à une étude plus approfondie des fibrés en droites hermitiens, dont une condition d'existence de fibré préquantique sur une variété symplectique. Avec ces outils en main, nous commençons ensuite l'étude de la quantification géométrique, étape par étape. Nous introduisons la théorie de la préquantification, i.e. la construction des opérateurs associés à des observables classiques et la construction d'un espace de Hilbert. Des problèmes majeurs font surface lors de l'application concrète de la préquantification : les opérateurs ne sont pas ceux attendus par la première quantification et l'espace de Hilbert formé est trop gros. Une première correction, la polarisation, élimine quelques problèmes, mais limite grandement l'ensemble des observables classiques que l'on peut quantifier. Ce mémoire n'est pas un survol complet de la quantification géométrique, et cela n'est pas son but. Il ne couvre ni la correction métaplectique, ni le noyau BKS. Il est un à-côté de lecture pour ceux qui s'introduisent à la quantification géométrique. D'une part, il introduit des concepts de géométrie différentielle pris pour acquis dans (Woodhouse [21]) et (Sniatycki [18]), i.e. G-fibrés principaux et fibrés associés. Enfin, il rajoute des détails à quelques preuves rapides données dans ces deux dernières références.
Resumo:
La gestion des ressources, équipements, équipes de travail, et autres, devrait être prise en compte lors de la conception de tout plan réalisable pour le problème de conception de réseaux de services. Cependant, les travaux de recherche portant sur la gestion des ressources et la conception de réseaux de services restent limités. La présente thèse a pour objectif de combler cette lacune en faisant l’examen de problèmes de conception de réseaux de services prenant en compte la gestion des ressources. Pour ce faire, cette thèse se décline en trois études portant sur la conception de réseaux. La première étude considère le problème de capacitated multi-commodity fixed cost network design with design-balance constraints(DBCMND). La structure multi-produits avec capacité sur les arcs du DBCMND, de même que ses contraintes design-balance, font qu’il apparaît comme sous-problème dans de nombreux problèmes reliés à la conception de réseaux de services, d’où l’intérêt d’étudier le DBCMND dans le contexte de cette thèse. Nous proposons une nouvelle approche pour résoudre ce problème combinant la recherche tabou, la recomposition de chemin, et une procédure d’intensification de la recherche dans une région particulière de l’espace de solutions. Dans un premier temps la recherche tabou identifie de bonnes solutions réalisables. Ensuite la recomposition de chemin est utilisée pour augmenter le nombre de solutions réalisables. Les solutions trouvées par ces deux méta-heuristiques permettent d’identifier un sous-ensemble d’arcs qui ont de bonnes chances d’avoir un statut ouvert ou fermé dans une solution optimale. Le statut de ces arcs est alors fixé selon la valeur qui prédomine dans les solutions trouvées préalablement. Enfin, nous utilisons la puissance d’un solveur de programmation mixte en nombres entiers pour intensifier la recherche sur le problème restreint par le statut fixé ouvert/fermé de certains arcs. Les tests montrent que cette approche est capable de trouver de bonnes solutions aux problèmes de grandes tailles dans des temps raisonnables. Cette recherche est publiée dans la revue scientifique Journal of heuristics. La deuxième étude introduit la gestion des ressources au niveau de la conception de réseaux de services en prenant en compte explicitement le nombre fini de véhicules utilisés à chaque terminal pour le transport de produits. Une approche de solution faisant appel au slope-scaling, la génération de colonnes et des heuristiques basées sur une formulation en cycles est ainsi proposée. La génération de colonnes résout une relaxation linéaire du problème de conception de réseaux, générant des colonnes qui sont ensuite utilisées par le slope-scaling. Le slope-scaling résout une approximation linéaire du problème de conception de réseaux, d’où l’utilisation d’une heuristique pour convertir les solutions obtenues par le slope-scaling en solutions réalisables pour le problème original. L’algorithme se termine avec une procédure de perturbation qui améliore les solutions réalisables. Les tests montrent que l’algorithme proposé est capable de trouver de bonnes solutions au problème de conception de réseaux de services avec un nombre fixe des ressources à chaque terminal. Les résultats de cette recherche seront publiés dans la revue scientifique Transportation Science. La troisième étude élargie nos considérations sur la gestion des ressources en prenant en compte l’achat ou la location de nouvelles ressources de même que le repositionnement de ressources existantes. Nous faisons les hypothèses suivantes: une unité de ressource est nécessaire pour faire fonctionner un service, chaque ressource doit retourner à son terminal d’origine, il existe un nombre fixe de ressources à chaque terminal, et la longueur du circuit des ressources est limitée. Nous considérons les alternatives suivantes dans la gestion des ressources: 1) repositionnement de ressources entre les terminaux pour tenir compte des changements de la demande, 2) achat et/ou location de nouvelles ressources et leur distribution à différents terminaux, 3) externalisation de certains services. Nous présentons une formulation intégrée combinant les décisions reliées à la gestion des ressources avec les décisions reliées à la conception des réseaux de services. Nous présentons également une méthode de résolution matheuristique combinant le slope-scaling et la génération de colonnes. Nous discutons des performances de cette méthode de résolution, et nous faisons une analyse de l’impact de différentes décisions de gestion des ressources dans le contexte de la conception de réseaux de services. Cette étude sera présentée au XII International Symposium On Locational Decision, en conjonction avec XXI Meeting of EURO Working Group on Locational Analysis, Naples/Capri (Italy), 2014. En résumé, trois études différentes sont considérées dans la présente thèse. La première porte sur une nouvelle méthode de solution pour le "capacitated multi-commodity fixed cost network design with design-balance constraints". Nous y proposons une matheuristique comprenant la recherche tabou, la recomposition de chemin, et l’optimisation exacte. Dans la deuxième étude, nous présentons un nouveau modèle de conception de réseaux de services prenant en compte un nombre fini de ressources à chaque terminal. Nous y proposons une matheuristique avancée basée sur la formulation en cycles comprenant le slope-scaling, la génération de colonnes, des heuristiques et l’optimisation exacte. Enfin, nous étudions l’allocation des ressources dans la conception de réseaux de services en introduisant des formulations qui modèlent le repositionnement, l’acquisition et la location de ressources, et l’externalisation de certains services. À cet égard, un cadre de solution slope-scaling développé à partir d’une formulation en cycles est proposé. Ce dernier comporte la génération de colonnes et une heuristique. Les méthodes proposées dans ces trois études ont montré leur capacité à trouver de bonnes solutions.
Resumo:
Il y a des problemes qui semblent impossible a resoudre sans l'utilisation d'un tiers parti honnete. Comment est-ce que deux millionnaires peuvent savoir qui est le plus riche sans dire a l'autre la valeur de ses biens ? Que peut-on faire pour prevenir les collisions de satellites quand les trajectoires sont secretes ? Comment est-ce que les chercheurs peuvent apprendre les liens entre des medicaments et des maladies sans compromettre les droits prives du patient ? Comment est-ce qu'une organisation peut ecmpecher le gouvernement d'abuser de l'information dont il dispose en sachant que l'organisation doit n'avoir aucun acces a cette information ? Le Calcul multiparti, une branche de la cryptographie, etudie comment creer des protocoles pour realiser de telles taches sans l'utilisation d'un tiers parti honnete. Les protocoles doivent etre prives, corrects, efficaces et robustes. Un protocole est prive si un adversaire n'apprend rien de plus que ce que lui donnerait un tiers parti honnete. Un protocole est correct si un joueur honnete recoit ce que lui donnerait un tiers parti honnete. Un protocole devrait bien sur etre efficace. Etre robuste correspond au fait qu'un protocole marche meme si un petit ensemble des joueurs triche. On demontre que sous l'hypothese d'un canal de diusion simultane on peut echanger la robustesse pour la validite et le fait d'etre prive contre certains ensembles d'adversaires. Le calcul multiparti a quatre outils de base : le transfert inconscient, la mise en gage, le partage de secret et le brouillage de circuit. Les protocoles du calcul multiparti peuvent etre construits avec uniquements ces outils. On peut aussi construire les protocoles a partir d'hypoth eses calculatoires. Les protocoles construits a partir de ces outils sont souples et peuvent resister aux changements technologiques et a des ameliorations algorithmiques. Nous nous demandons si l'efficacite necessite des hypotheses de calcul. Nous demontrons que ce n'est pas le cas en construisant des protocoles efficaces a partir de ces outils de base. Cette these est constitue de quatre articles rediges en collaboration avec d'autres chercheurs. Ceci constitue la partie mature de ma recherche et sont mes contributions principales au cours de cette periode de temps. Dans le premier ouvrage presente dans cette these, nous etudions la capacite de mise en gage des canaux bruites. Nous demontrons tout d'abord une limite inferieure stricte qui implique que contrairement au transfert inconscient, il n'existe aucun protocole de taux constant pour les mises en gage de bit. Nous demontrons ensuite que, en limitant la facon dont les engagements peuvent etre ouverts, nous pouvons faire mieux et meme un taux constant dans certains cas. Ceci est fait en exploitant la notion de cover-free families . Dans le second article, nous demontrons que pour certains problemes, il existe un echange entre robustesse, la validite et le prive. Il s'effectue en utilisant le partage de secret veriable, une preuve a divulgation nulle, le concept de fantomes et une technique que nous appelons les balles et les bacs. Dans notre troisieme contribution, nous demontrons qu'un grand nombre de protocoles dans la litterature basee sur des hypotheses de calcul peuvent etre instancies a partir d'une primitive appelee Transfert Inconscient Veriable, via le concept de Transfert Inconscient Generalise. Le protocole utilise le partage de secret comme outils de base. Dans la derniere publication, nous counstruisons un protocole efficace avec un nombre constant de rondes pour le calcul a deux parties. L'efficacite du protocole derive du fait qu'on remplace le coeur d'un protocole standard par une primitive qui fonctionne plus ou moins bien mais qui est tres peu couteux. On protege le protocole contre les defauts en utilisant le concept de privacy amplication .
Resumo:
We study the problem of assigning indivisible and heterogenous objects (e.g., houses, jobs, offices, school or university admissions etc.) to agents. Each agent receives at most one object and monetary compensations are not possible. We consider mechanisms satisfying a set of basic properties (unavailable-type-invariance, individual-rationality, weak non-wastefulness, or truncation-invariance). In the house allocation problem, where at most one copy of each object is available, deferred-acceptance (DA)-mechanisms allocate objects based on exogenously fixed objects' priorities over agents and the agent-proposing deferred-acceptance-algorithm. For house allocation we show that DA-mechanisms are characterized by our basic properties and (i) strategy-proofness and population-monotonicity or (ii) strategy-proofness and resource-monotonicity. Once we allow for multiple identical copies of objects, on the one hand the first characterization breaks down and there are unstable mechanisms satisfying our basic properties and (i) strategy-proofness and population-monotonicity. On the other hand, our basic properties and (ii) strategy-proofness and resource-monotonicity characterize (the most general) class of DA-mechanisms based on objects' fixed choice functions that are acceptant, monotonic, substitutable, and consistent. These choice functions are used by objects to reject agents in the agent-proposing deferred-acceptance-algorithm. Therefore, in the general model resource-monotonicity is the «stronger» comparative statics requirement because it characterizes (together with our basic requirements and strategy-proofness) choice-based DA-mechanisms whereas population-monotonicity (together with our basic properties and strategy-proofness) does not.