130 resultados para Omnipresent Adversary


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Partial information leakage in deterministic public-key cryptosystems refers to a problem that arises when information about either the plaintext or the key is leaked in subtle ways. Quite a common case is where there are a small number of possible messages that may be sent. An attacker may be able to crack the scheme simply by enumerating all the possible ciphertexts. Two methods are proposed for facing the partial information leakage problem in RSA that incorporate a random element into the encrypted message to increase the number of possible ciphertexts. The resulting scheme is, effectively, an RSA-like cryptosystem which exhibits probabilistic encryption. The first method involves encrypting several similar messages with RSA and then using the Quadratic Residuosity Problem (QRP) to mark the intended one. In this way, an adversary who has correctly guessed two or more of the ciphertexts is still in doubt about which message is the intended one. The cryptographic strength of the combined system is equal to the computational difficulty of factorising a large integer; ideally, this should be feasible. The second scheme uses error-correcting codes for accommodating the random component. The plaintext is processed with an error-correcting code and deliberately corrupted before encryption. The introduced corruption lies within the error-correcting ability of the code, so as to enable the recovery of the original message. The random corruption offers a vast number of possible ciphertexts corresponding to a given plaintext; hence an attacker cannot deduce any useful information from it. The proposed systems are compared to other cryptosystems sharing similar characteristics, in terms of execution time and ciphertext size, so as to determine their practical utility. Finally, parameters which determine the characteristics of the proposed schemes are also examined.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The omnipresent global economic crisis has had a particularly dramatic effect on the global automotive industry. It has increased the need for a 3rd revolution and the move towards mass-collaboration between all industrial players that may ultimately lead to a governance model based on partnership-focused collaborative relationships. The first two revolutions were led by the US and Japan respectively, but we propose that this time, the European automotive industry will lead the way in the 3rd revolution. This new book provides an operations and supply chain management perspective while focusing on the issue of sustainable supplier management. © 2010 by Nova Science Publishers, Inc. All Rights Reserved.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Metaphors have been increasingly associated with cognitive functions, which means that metaphors structure how we think and express ourselves. Metaphors are embodied in our basic physical experience, which is one reason why certain abstract concepts are expressed in more concrete terms, such as visible entities, journeys, and other types of movement, spaces etc. This communicative relevance also applies to specialised, institutionalised settings and genres, such as those produced in or related to higher education institutions, among which is spoken academic discourse. A significant research gap has been identified regarding spoken academic discourse and metaphors therein, but also given the fact that with increasing numbers of students in higher education and international research and cooperation e.g. in the form of invited lectures, spoken academic discourse can be seen as nearly omnipresent. In this context, research talks are a key research genre. A mixed methods study has been conducted, which investigates metaphors in a corpus of eight fully transcribed German and English L1 speaker conference talks and invited lectures, totalling to 440 minutes. A wide range of categories and functions were identified in the corpus. Abstract research concepts, such as results or theories are expressed in terms of concrete visual entities that can be seen or shown, but also in terms of journeys or other forms of movement. The functions of these metaphors are simplification, rhetorical emphasis, theory-construction, or pedagogic illustration. For both the speaker and the audience or discussants, anthropomorphism causes abstract and complex ideas to become concretely imaginable and at the same time more interesting because the contents of the talk appear to be livelier and hence closer to their own experience, which ensures the audience’s attention. These metaphor categories are present in both the English and the German sub corpus of this study with similar functions.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The paper has been presented at the International Conference Pioneers of Bulgarian Mathematics, Dedicated to Nikola Obreshkoff and Lubomir Tschakaloff , Sofia, July, 2006. The material in this paper was presented in part at the 11th Workshop on Selected Areas in Cryptography (SAC) 2004

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Proofs by induction are central to many computer science areas such as data structures, theory of computation, programming languages, program efficiency-time complexity, and program correctness. Proofs by induction can also improve students’ understanding and performance of computer science concepts such as programming languages, algorithm design, and recursion, as well as serve as a medium for teaching them. Even though students are exposed to proofs by induction in many courses of their curricula, they still have difficulties understanding and performing them. This impacts the whole course of their studies, since proofs by induction are omnipresent in computer science. Specifically, students do not gain conceptual understanding of induction early in the curriculum and as a result, they have difficulties applying it to more advanced areas later on in their studies. The goal of my dissertation is twofold: (1) identifying sources of computer science students’ difficulties with proofs by induction, and (2) developing a new approach to teaching proofs by induction by way of an interactive and multimodal electronic book (e-book). For the first goal, I undertook a study to identify possible sources of computer science students’ difficulties with proofs by induction. Its results suggest that there is a close correlation between students’ understanding of inductive definitions and their understanding and performance of proofs by induction. For designing and developing my e-book, I took into consideration the results of my study, as well as the drawbacks of the current methodologies of teaching proofs by induction for computer science. I designed my e-book to be used as a standalone and complete educational environment. I also conducted a study on the effectiveness of my e-book in the classroom. The results of my study suggest that, unlike the current methodologies of teaching proofs by induction for computer science, my e-book helped students overcome many of their difficulties and gain conceptual understanding of proofs induction.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Proofs by induction are central to many computer science areas such as data structures, theory of computation, programming languages, program efficiency-time complexity, and program correctness. Proofs by induction can also improve students’ understanding of and performance with computer science concepts such as programming languages, algorithm design, and recursion, as well as serve as a medium for teaching them. Even though students are exposed to proofs by induction in many courses of their curricula, they still have difficulties understanding and performing them. This impacts the whole course of their studies, since proofs by induction are omnipresent in computer science. Specifically, students do not gain conceptual understanding of induction early in the curriculum and as a result, they have difficulties applying it to more advanced areas later on in their studies. The goal of my dissertation is twofold: 1. identifying sources of computer science students’ difficulties with proofs by induction, and 2. developing a new approach to teaching proofs by induction by way of an interactive and multimodal electronic book (e-book). For the first goal, I undertook a study to identify possible sources of computer science students’ difficulties with proofs by induction. Its results suggest that there is a close correlation between students’ understanding of inductive definitions and their understanding and performance of proofs by induction. For designing and developing my e-book, I took into consideration the results of my study, as well as the drawbacks of the current methodologies of teaching proofs by induction for computer science. I designed my e-book to be used as a standalone and complete educational environment. I also conducted a study on the effectiveness of my e-book in the classroom. The results of my study suggest that, unlike the current methodologies of teaching proofs by induction for computer science, my e-book helped students overcome many of their difficulties and gain conceptual understanding of proofs induction.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les manifestations de crise, en Côte d'Ivoire, ont été extrêmement violentes. Au cours des quinze dernières années, plus de 400 personnes sont mortes, tuées dans des affrontements avec les forces de sécurités ou des contre-manifestants. Malgré la gravité du problème, peu d’études scientifiques y sont consacrées et les rares analyses et enquêtes existantes portent, de façon unilatérale, sur l’identité et la responsabilité pénale des auteurs et commanditaires putatifs de cette violence. La présente étude s’élève contre le moralisme inhérent à ces approches pour aborder la question sous l’angle de l’interaction : cette thèse a pour objectif de comprendre les processus et logiques qui sous-tendent l’usage de la violence au cours des manifestations. Le cadre théorique utilisé dans cette étude qualitative est l’interactionnisme symbolique. Le matériel d’analyse est composé d’entrevues et de divers documents. Trente-trois (33) entrevues semi-dirigées ont été réalisées avec des policiers et des manifestants, cooptés selon la technique de la boule de neige, entre le 3 janvier et le 15 mai 2013, à Abidjan. Les rapports d’enquête, de l’ONG Human Rights Watch, sur les manifestations de crise, les manuels de formation de la police et divers autres matériaux périphériques ont également été consultés. Les données ont été analysées suivant les principes et techniques de la théorisation ancrée (Paillée, 1994). Trois principaux résultats ont été obtenus. Premièrement, le système ivoirien de maintien de l'ordre est conçu selon le modèle d’une « police du prince ». Les forces de sécurité dans leur ensemble y occupent une fonction subalterne d’exécutant. Elles sont placées sous autorité politique avec pour mandat la défense inconditionnelle des institutions. Le style standard de gestion des foules, qui en découle, est légaliste et répressif, correspondant au style d’escalade de la force (McPhail, Schweingruber, & Carthy, 1998). Cette « police du prince » dispose toutefois de marges de manœuvre sur le terrain, qui lui permettent de moduler son style en fonction de la conception qu’elle se fait de l’attitude des manifestants : paternaliste avec les foules dites calmes, elle devient répressive ou déviante avec les foules qu’elle définit comme étant hostiles. Deuxièmement, à rebours d’une conception victimaire de la foule, la violence est une transaction situationnelle dynamique entre forces de sécurité et manifestants. La violence suit un processus ascendant dont les séquences et les règles d’enchainement sont décrites. Ainsi, le premier niveau auquel s’arrête la majorité des manifestations est celui d’une force non létale bilatérale dans lequel les deux acteurs, protestataires et policiers, ont recours à des armes non incapacitantes, où les cailloux des premiers répondent au gaz lacrymogène des seconds. Le deuxième niveau correspond à la létalité unilatérale : la police ouvre le feu lorsque les manifestants se rapprochent de trop près. Le troisième et dernier niveau est atteint lorsque les manifestants utilisent à leur tour des armes à feu, la létalité est alors bilatérale. Troisièmement, enfin, le concept de « l’indignité républicaine » rend compte de la logique de la violence dans les manifestations. La violence se déclenche et s’intensifie lorsqu’une des parties, manifestants ou policiers, interprète l’acte posé par l’adversaire comme étant en rupture avec le rôle attendu du statut qu’il revendique dans la manifestation. Cet acte jugé indigne a pour conséquence de le priver de la déférence rattachée à son statut et de justifier à son encontre l’usage de la force. Ces actes d’indignités, du point de vue des policiers, sont symbolisés par la figure du manifestant hostile. Pour les manifestants, l’indignité des forces de sécurité se reconnait par des actes qui les assimilent à une milice privée. Le degré d’indignité perçu de l’acte explique le niveau d’allocation de la violence.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

À la fin du 19e siècle, Dr. Ramón y Cajal, un pionnier scientifique, a découvert les éléments cellulaires individuels, appelés neurones, composant le système nerveux. Il a également remarqué la complexité de ce système et a mentionné l’impossibilité de ces nouveaux neurones à être intégrés dans le système nerveux adulte. Une de ses citations reconnues : “Dans les centres adultes, les chemins nerveux sont fixes, terminés, immuables. Tout doit mourir, rien ne peut être régénérer” est représentative du dogme de l’époque (Ramón y Cajal 1928). D’importantes études effectuées dans les années 1960-1970 suggèrent un point de vue différent. Il a été démontré que les nouveaux neurones peuvent être générés à l’âge adulte, mais cette découverte a créé un scepticisme omniprésent au sein de la communauté scientifique. Il a fallu 30 ans pour que le concept de neurogenèse adulte soit largement accepté. Cette découverte, en plus de nombreuses avancées techniques, a ouvert la porte à de nouvelles cibles thérapeutiques potentielles pour les maladies neurodégénératives. Les cellules souches neurales (CSNs) adultes résident principalement dans deux niches du cerveau : la zone sous-ventriculaire des ventricules latéraux et le gyrus dentelé de l’hippocampe. En condition physiologique, le niveau de neurogenèse est relativement élevé dans la zone sous-ventriculaire contrairement à l’hippocampe où certaines étapes sont limitantes. En revanche, la moelle épinière est plutôt définie comme un environnement en quiescence. Une des principales questions qui a été soulevée suite à ces découvertes est : comment peut-on activer les CSNs adultes afin d’augmenter les niveaux de neurogenèse ? Dans l’hippocampe, la capacité de l’environnement enrichi (incluant la stimulation cognitive, l’exercice et les interactions sociales) à promouvoir la neurogenèse hippocampale a déjà été démontrée. La plasticité de cette région est importante, car elle peut jouer un rôle clé dans la récupération de déficits au niveau de la mémoire et l’apprentissage. Dans la moelle épinière, des études effectuées in vitro ont démontré que les cellules épendymaires situées autour du canal central ont des capacités d’auto-renouvellement et de multipotence (neurones, astrocytes, oligodendrocytes). Il est intéressant de noter qu’in vivo, suite à une lésion de la moelle épinière, les cellules épendymaires sont activées, peuvent s’auto-renouveller, mais peuvent seulement ii donner naissance à des cellules de type gliale (astrocytes et oligodendrocytes). Cette nouvelle fonction post-lésion démontre que la plasticité est encore possible dans un environnement en quiescence et peut être exploité afin de développer des stratégies de réparation endogènes dans la moelle épinière. Les CSNs adultes jouent un rôle important dans le maintien des fonctions physiologiques du cerveau sain et dans la réparation neuronale suite à une lésion. Cependant, il y a peu de données sur les mécanismes qui permettent l'activation des CSNs en quiescence permettant de maintenir ces fonctions. L'objectif général est d'élucider les mécanismes sous-jacents à l'activation des CSNs dans le système nerveux central adulte. Pour répondre à cet objectif, nous avons mis en place deux approches complémentaires chez les souris adultes : 1) L'activation des CSNs hippocampales par l'environnement enrichi (EE) et 2) l'activation des CSNs de la moelle épinière par la neuroinflammation suite à une lésion. De plus, 3) afin d’obtenir plus d’information sur les mécanismes moléculaires de ces modèles, nous utiliserons des approches transcriptomiques afin d’ouvrir de nouvelles perspectives. Le premier projet consiste à établir de nouveaux mécanismes cellulaires et moléculaires à travers lesquels l’environnement enrichi module la plasticité du cerveau adulte. Nous avons tout d’abord évalué la contribution de chacune des composantes de l’environnement enrichi à la neurogenèse hippocampale (Chapitre II). L’exercice volontaire promeut la neurogenèse, tandis que le contexte social augmente l’activation neuronale. Par la suite, nous avons déterminé l’effet de ces composantes sur les performances comportementales et sur le transcriptome à l’aide d’un labyrinthe radial à huit bras afin d’évaluer la mémoire spatiale et un test de reconnaissante d’objets nouveaux ainsi qu’un RNA-Seq, respectivement (Chapitre III). Les coureurs ont démontré une mémoire spatiale de rappel à court-terme plus forte, tandis que les souris exposées aux interactions sociales ont eu une plus grande flexibilité cognitive à abandonner leurs anciens souvenirs. Étonnamment, l’analyse du RNA-Seq a permis d’identifier des différences claires dans l’expression des transcripts entre les coureurs de courte et longue distance, en plus des souris sociales (dans l’environnement complexe). iii Le second projet consiste à découvrir comment les cellules épendymaires acquièrent les propriétés des CSNs in vitro ou la multipotence suite aux lésions in vivo (Chapitre IV). Une analyse du RNA-Seq a révélé que le transforming growth factor-β1 (TGF-β1) agit comme un régulateur, en amont des changements significatifs suite à une lésion de la moelle épinière. Nous avons alors confirmé la présence de cette cytokine suite à la lésion et caractérisé son rôle sur la prolifération, différentiation, et survie des cellules initiatrices de neurosphères de la moelle épinière. Nos résultats suggèrent que TGF-β1 régule l’acquisition et l’expression des propriétés de cellules souches sur les cellules épendymaires provenant de la moelle épinière.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thesis (Ph.D.)--University of Washington, 2016-08

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse propose une lecture anthropologique de la consommation d’alcool. Elle met de l’avant une approche novatrice qui repose sur le concept de « métaphysique du quasi- arrêt ». Cette approche a été développée à la suite d’une recherche ethnographique réalisée dans la région de la Beauce, au Québec. Au lieu de considérer la consommation d’alcool comme un problème social ou de santé publique, j’ai cherché à comprendre comment et pourquoi l’on boit, en Beauce, en me laissant guider par les buveurs et les buveuses côtoyés sur place. En prenant part à de nombreuses soirées où la bière est omniprésente, que ce soit dans les garages, les bars ou l’aréna local, je me suis laissé affecter par les sensations ressenties et par les paroles prononcées lorsque les buveurs éprouvent ce qu’ils appellent le « feeling du moment ». En prenant du recul, j’ai constaté que les Beaucerons qui boivent ont développé des stratégies défensives pour échapper à la tentative de contrôle de la société québécoise sur leurs conduites alcooliques et, plus largement, sur l’alcoolisme. En effet, dans la perspective de la « métaphysique du quasi-arrêt », la quantité de verres consommés n’a d’importance qu’eu égard au « feeling du moment »; les normes culturelles ou médicales liées à la consommation d’alcool ne tiennent pas, et c’est pourquoi cette approche permet d’expliquer des discours et des pratiques liés à la consommation d’alcool qui, à première vue, semblent paradoxaux, voire complètement absurdes. Pour bien montrer en quoi l’approche mise de l’avant se distingue, mais surtout pour expliquer comment la consommation excessive d’alcool en est venue à représenter, en anthropologie comme dans d’autres disciplines, une pratique problématique qu’il faut comprendre pour la combattre, une première partie de la thèse consiste en une mise en perspective historique de l’alcoolisme en tant que concept scientifique et enjeu de société. Y sont passées en revue les approches et concepts développés, depuis la fin du XVIIe siècle, par des médecins, des psychologues, des économistes, des sociologues et des anthropologues euro-américains pour aborder ce genre de consommation. Je suggère que ces scientifiques mènent, depuis plus de deux siècles, une véritable croisade contre les « buveurs excessifs ». Collaborant avec l’État, les mouvements de tempérance et les entreprises privées, ils ont contribué à contenir les abus d’alcool en Occident. Dans la seconde partie de la thèse, l’ethnographie sert de support au déploiement de la perspective théorique développée à l’issue du travail de terrain. Il s’agit d’analyser comment les buveurs d’alcool vivent et font durer le « feeling du moment » au cours du boire social. Sur le terrain, j’ai découvert que les buveurs d’alcool ont inventé onze stratégies pour vivre et faire durer le « feeling du moment » en consommant de l’alcool avec les autres. Ces stratégies constituent une forme de résistance face à une société qui cherche à contrôler les conduites alcooliques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Reverse engineering is usually the stepping stone of a variety of at-tacks aiming at identifying sensitive information (keys, credentials, data, algo-rithms) or vulnerabilities and flaws for broader exploitation. Software applica-tions are usually deployed as identical binary code installed on millions of com-puters, enabling an adversary to develop a generic reverse-engineering strategy that, if working on one code instance, could be applied to crack all the other in-stances. A solution to mitigate this problem is represented by Software Diversity, which aims at creating several structurally different (but functionally equivalent) binary code versions out of the same source code, so that even if a successful attack can be elaborated for one version, it should not work on a diversified ver-sion. In this paper, we address the problem of maximizing software diversity from a search-based optimization point of view. The program to protect is subject to a catalogue of transformations to generate many candidate versions. The problem of selecting the subset of most diversified versions to be deployed is formulated as an optimisation problem, that we tackle with different search heuristics. We show the applicability of this approach on some popular Android apps.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Droughts surfaced in 1877 as a crucial problem for the birthing Brazilian nation. Engineers, who formed the country's technical and scientific elite, took it upon themselves to study, understand and fight the problem through planned actions of intervention on space. This work, based on proposals and discussions contained in engineering magazines and reports, aims to provide elements for the comprehension of how these systematized actions against droughts, in the Iate nineteenth and early twentieth century, contributed to spatial analysis and the formation of a (then-inexistent) regional and territorial planning discipline in Brazi!. Engineers, by taking up the position of masterminds in the country's modernization, guaranteed for themselves personal economic stability, social prestige and political power. By understanding nature, either as a resource to be exploited or an adversary to national progress, they contributed to the delimitation of the region now known as the Northeast. By seeking to understand the drought phenomenon, they created knowledge about the space they sought to intervene on; by constructing their projects amid political and economical difficulty, they changed the organizational structures of cities and country in the northeast. The proposals for açudes (Iarge water reservoirs) allowed the fixation of population and the resistance against droughts; the roads - railroads and automotive roadways - connected the sertão to the capitais and the coast, speeding up help to the affected populations during droughts and allowing the circulation of goods so as to strengthen the local economies in normal rimes. The adopted practices and techniques, adapted from foreign experience and developed through trial and improvement, were consolidated as an eminently spatial intervention course, even if a theoretical body of regional or territorial planning wasn't formed in Brazil. Regional Planning proper was first applied in the country in the Northeast itself, in the 1950s, based off an economical view of reality in order to achieve development. The engineer's work prior tothat date, however, cannot be dlsconsldered. It was proved that, despite facing financial and political hurdles, engineers had a profound commitment to the problem and intended to act systematically to transform the economical and social relations in the region, in order to be victorious in their struggle against droughts

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les jeux de policiers et voleurs sont étudiés depuis une trentaine d’années en informatique et en mathématiques. Comme dans les jeux de poursuite en général, des poursuivants (les policiers) cherchent à capturer des évadés (les voleurs), cependant ici les joueurs agissent tour à tour et sont contraints de se déplacer sur une structure discrète. On suppose toujours que les joueurs connaissent les positions exactes de leurs opposants, autrement dit le jeu se déroule à information parfaite. La première définition d’un jeu de policiers-voleurs remonte à celle de Nowakowski et Winkler [39] et, indépendamment, Quilliot [46]. Cette première définition présente un jeu opposant un seul policier et un seul voleur avec des contraintes sur leurs vitesses de déplacement. Des extensions furent graduellement proposées telles que l’ajout de policiers et l’augmentation des vitesses de mouvement. En 2014, Bonato et MacGillivray [6] proposèrent une généralisation des jeux de policiers-voleurs pour permettre l’étude de ceux-ci dans leur globalité. Cependant, leur modèle ne couvre aucunement les jeux possédant des composantes stochastiques tels que ceux dans lesquels les voleurs peuvent bouger de manière aléatoire. Dans ce mémoire est donc présenté un nouveau modèle incluant des aspects stochastiques. En second lieu, on présente dans ce mémoire une application concrète de l’utilisation de ces jeux sous la forme d’une méthode de résolution d’un problème provenant de la théorie de la recherche. Alors que les jeux de policiers et voleurs utilisent l’hypothèse de l’information parfaite, les problèmes de recherches ne peuvent faire cette supposition. Il appert cependant que le jeu de policiers et voleurs peut être analysé comme une relaxation de contraintes d’un problème de recherche. Ce nouvel angle de vue est exploité pour la conception d’une borne supérieure sur la fonction objectif d’un problème de recherche pouvant être mise à contribution dans une méthode dite de branch and bound.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

We propose three research problems to explore the relations between trust and security in the setting of distributed computation. In the first problem, we study trust-based adversary detection in distributed consensus computation. The adversaries we consider behave arbitrarily disobeying the consensus protocol. We propose a trust-based consensus algorithm with local and global trust evaluations. The algorithm can be abstracted using a two-layer structure with the top layer running a trust-based consensus algorithm and the bottom layer as a subroutine executing a global trust update scheme. We utilize a set of pre-trusted nodes, headers, to propagate local trust opinions throughout the network. This two-layer framework is flexible in that it can be easily extensible to contain more complicated decision rules, and global trust schemes. The first problem assumes that normal nodes are homogeneous, i.e. it is guaranteed that a normal node always behaves as it is programmed. In the second and third problems however, we assume that nodes are heterogeneous, i.e, given a task, the probability that a node generates a correct answer varies from node to node. The adversaries considered in these two problems are workers from the open crowd who are either investing little efforts in the tasks assigned to them or intentionally give wrong answers to questions. In the second part of the thesis, we consider a typical crowdsourcing task that aggregates input from multiple workers as a problem in information fusion. To cope with the issue of noisy and sometimes malicious input from workers, trust is used to model workers' expertise. In a multi-domain knowledge learning task, however, using scalar-valued trust to model a worker's performance is not sufficient to reflect the worker's trustworthiness in each of the domains. To address this issue, we propose a probabilistic model to jointly infer multi-dimensional trust of workers, multi-domain properties of questions, and true labels of questions. Our model is very flexible and extensible to incorporate metadata associated with questions. To show that, we further propose two extended models, one of which handles input tasks with real-valued features and the other handles tasks with text features by incorporating topic models. Our models can effectively recover trust vectors of workers, which can be very useful in task assignment adaptive to workers' trust in the future. These results can be applied for fusion of information from multiple data sources like sensors, human input, machine learning results, or a hybrid of them. In the second subproblem, we address crowdsourcing with adversaries under logical constraints. We observe that questions are often not independent in real life applications. Instead, there are logical relations between them. Similarly, workers that provide answers are not independent of each other either. Answers given by workers with similar attributes tend to be correlated. Therefore, we propose a novel unified graphical model consisting of two layers. The top layer encodes domain knowledge which allows users to express logical relations using first-order logic rules and the bottom layer encodes a traditional crowdsourcing graphical model. Our model can be seen as a generalized probabilistic soft logic framework that encodes both logical relations and probabilistic dependencies. To solve the collective inference problem efficiently, we have devised a scalable joint inference algorithm based on the alternating direction method of multipliers. The third part of the thesis considers the problem of optimal assignment under budget constraints when workers are unreliable and sometimes malicious. In a real crowdsourcing market, each answer obtained from a worker incurs cost. The cost is associated with both the level of trustworthiness of workers and the difficulty of tasks. Typically, access to expert-level (more trustworthy) workers is more expensive than to average crowd and completion of a challenging task is more costly than a click-away question. In this problem, we address the problem of optimal assignment of heterogeneous tasks to workers of varying trust levels with budget constraints. Specifically, we design a trust-aware task allocation algorithm that takes as inputs the estimated trust of workers and pre-set budget, and outputs the optimal assignment of tasks to workers. We derive the bound of total error probability that relates to budget, trustworthiness of crowds, and costs of obtaining labels from crowds naturally. Higher budget, more trustworthy crowds, and less costly jobs result in a lower theoretical bound. Our allocation scheme does not depend on the specific design of the trust evaluation component. Therefore, it can be combined with generic trust evaluation algorithms.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Microplastics are omnipresent in the marine environment and sediments are hypothesized to be major sinks of these plastics. Here, over 100 articles spanning the last 50 year are reviewed with following objectives: (i) to evaluate current microplastic extraction techniques, (ii) to discuss the occurrence and worldwide distribution of microplastics in sediments, and (iii) to make a comprehensive assessment of the possible adverse effects of this type of pollution to marine organisms. Based on this review we propose future research needs and conclude that there is a clear need for a standardized techniques, unified reporting units and more realistic effect assessments.