56 resultados para Cathedral chapters
Resumo:
D'une certaine manière, la rhétorique est un art cognitif. L'art de discourir en situation concrète dans l'espoir de faire adhérer l'auditoire à une thèse suppose une forte aptitude cognitive: celle de se représenter la façon dont l'auditoire lui-même se représente une situation rhétorique. Or, à partir du moment où agir sur les représentations d'autrui est facilité par des techniques rhétoriques ou sophistiques, la question de la tromperie verbale s'est immiscée dans des affaires de régulation sociale et, avec elle, des enjeux tant de crédibilité que de crédulité. Dans le cadre démocratique rendant encore plus aiguë une forme de dépendance à l'information d'autrui, la nécessité de croire tout comme la possibilité d'être leurré mettent à l'épreuve tant le fonctionnement social de la Cité que l'évaluation des informations et de leurs auteurs. Le but des contributions de cet ouvrage n'est pas de dénoncer les effets de certains schèmes argumentatifs que d'aucuns jugeraient fallacieux ni d'ajouter une couche nouvelle aux critiques des sophismes, mais d'étudier leur fonctionnement et leurs effets cognitifs hic et nunc. Quels sont les mécanismes langagiers et cognitifs qui expliquent la «performance» des arguments réputés fallacieux? Comment fonctionnent les stratégies rhétoriques à l'intersection entre cognition, sciences du langage et société? Cet ouvrage, issu du colloque Communication et Cognition: manipulation, persuasion et biais dans le langage, tenu à Neuchâtel du 26 au 28 janvier 2011, propose plusieurs propositions originales ou hypothèses stimulantes dans l'espoir qu'elles inspireront tant les chercheurs spécialisés en rhétorique et sciences du langage à aller voir du côté de la psychologie cognitive que les spécialistes de ce domaine à mettre en évidence la rhétoricité de leurs recherches. English version: In a way, rhetoric is a cognitive art. The art of speaking in concrete situations in the hope of gaining the audience's consent on a given issue requires the operation of a cognitive ability: that of being able to represent the way an audience represents itself a rhetorical situation. Nonetheless, once we consider that rhetorical or sophistic techniques influence people's representations, verbal deception becomes a matter of social regulation, together with issues of credibility and credulity. In a democratic context fostering a form of dependence towards other people's information, the necessity of believing everything and the possibility of being duped are challenges for both the social management of the City and the evaluation of information and of its sources. The contribution of the chapters of this volume is neither to be found in the condemnation of the fallacious effects of specific argument schemes nor in the addition of yet another layer to fallacy criticism, but in the study of how fallacies work, hic et nunc. What are the linguistic and cognitive mechanisms at play behind the "performance" of fallacious arguments? How do rhetorical strategies work at the interface of cognition, language science and society? This book gathers papers that were presented during the international conference Communication & Cognition: manipulation, persuasion and biases in language, held at the University of Neuchâtel in January 2011. A number of original proposals and stimulating hypotheses emerge from them: we hope that these will inspire researchers in the language sciences who specialise in rhetoric to take on board cognitive scientific insights but also researchers in cognitive science to engage with the rhetoricity of their own research.
Resumo:
Résumé Cette thèse est consacrée à l'analyse, la modélisation et la visualisation de données environnementales à référence spatiale à l'aide d'algorithmes d'apprentissage automatique (Machine Learning). L'apprentissage automatique peut être considéré au sens large comme une sous-catégorie de l'intelligence artificielle qui concerne particulièrement le développement de techniques et d'algorithmes permettant à une machine d'apprendre à partir de données. Dans cette thèse, les algorithmes d'apprentissage automatique sont adaptés pour être appliqués à des données environnementales et à la prédiction spatiale. Pourquoi l'apprentissage automatique ? Parce que la majorité des algorithmes d'apprentissage automatiques sont universels, adaptatifs, non-linéaires, robustes et efficaces pour la modélisation. Ils peuvent résoudre des problèmes de classification, de régression et de modélisation de densité de probabilités dans des espaces à haute dimension, composés de variables informatives spatialisées (« géo-features ») en plus des coordonnées géographiques. De plus, ils sont idéaux pour être implémentés en tant qu'outils d'aide à la décision pour des questions environnementales allant de la reconnaissance de pattern à la modélisation et la prédiction en passant par la cartographie automatique. Leur efficacité est comparable au modèles géostatistiques dans l'espace des coordonnées géographiques, mais ils sont indispensables pour des données à hautes dimensions incluant des géo-features. Les algorithmes d'apprentissage automatique les plus importants et les plus populaires sont présentés théoriquement et implémentés sous forme de logiciels pour les sciences environnementales. Les principaux algorithmes décrits sont le Perceptron multicouches (MultiLayer Perceptron, MLP) - l'algorithme le plus connu dans l'intelligence artificielle, le réseau de neurones de régression généralisée (General Regression Neural Networks, GRNN), le réseau de neurones probabiliste (Probabilistic Neural Networks, PNN), les cartes auto-organisées (SelfOrganized Maps, SOM), les modèles à mixture Gaussiennes (Gaussian Mixture Models, GMM), les réseaux à fonctions de base radiales (Radial Basis Functions Networks, RBF) et les réseaux à mixture de densité (Mixture Density Networks, MDN). Cette gamme d'algorithmes permet de couvrir des tâches variées telle que la classification, la régression ou l'estimation de densité de probabilité. L'analyse exploratoire des données (Exploratory Data Analysis, EDA) est le premier pas de toute analyse de données. Dans cette thèse les concepts d'analyse exploratoire de données spatiales (Exploratory Spatial Data Analysis, ESDA) sont traités selon l'approche traditionnelle de la géostatistique avec la variographie expérimentale et selon les principes de l'apprentissage automatique. La variographie expérimentale, qui étudie les relations entre pairs de points, est un outil de base pour l'analyse géostatistique de corrélations spatiales anisotropiques qui permet de détecter la présence de patterns spatiaux descriptible par une statistique. L'approche de l'apprentissage automatique pour l'ESDA est présentée à travers l'application de la méthode des k plus proches voisins qui est très simple et possède d'excellentes qualités d'interprétation et de visualisation. Une part importante de la thèse traite de sujets d'actualité comme la cartographie automatique de données spatiales. Le réseau de neurones de régression généralisée est proposé pour résoudre cette tâche efficacement. Les performances du GRNN sont démontrées par des données de Comparaison d'Interpolation Spatiale (SIC) de 2004 pour lesquelles le GRNN bat significativement toutes les autres méthodes, particulièrement lors de situations d'urgence. La thèse est composée de quatre chapitres : théorie, applications, outils logiciels et des exemples guidés. Une partie importante du travail consiste en une collection de logiciels : Machine Learning Office. Cette collection de logiciels a été développée durant les 15 dernières années et a été utilisée pour l'enseignement de nombreux cours, dont des workshops internationaux en Chine, France, Italie, Irlande et Suisse ainsi que dans des projets de recherche fondamentaux et appliqués. Les cas d'études considérés couvrent un vaste spectre de problèmes géoenvironnementaux réels à basse et haute dimensionnalité, tels que la pollution de l'air, du sol et de l'eau par des produits radioactifs et des métaux lourds, la classification de types de sols et d'unités hydrogéologiques, la cartographie des incertitudes pour l'aide à la décision et l'estimation de risques naturels (glissements de terrain, avalanches). Des outils complémentaires pour l'analyse exploratoire des données et la visualisation ont également été développés en prenant soin de créer une interface conviviale et facile à l'utilisation. Machine Learning for geospatial data: algorithms, software tools and case studies Abstract The thesis is devoted to the analysis, modeling and visualisation of spatial environmental data using machine learning algorithms. In a broad sense machine learning can be considered as a subfield of artificial intelligence. It mainly concerns with the development of techniques and algorithms that allow computers to learn from data. In this thesis machine learning algorithms are adapted to learn from spatial environmental data and to make spatial predictions. Why machine learning? In few words most of machine learning algorithms are universal, adaptive, nonlinear, robust and efficient modeling tools. They can find solutions for the classification, regression, and probability density modeling problems in high-dimensional geo-feature spaces, composed of geographical space and additional relevant spatially referenced features. They are well-suited to be implemented as predictive engines in decision support systems, for the purposes of environmental data mining including pattern recognition, modeling and predictions as well as automatic data mapping. They have competitive efficiency to the geostatistical models in low dimensional geographical spaces but are indispensable in high-dimensional geo-feature spaces. The most important and popular machine learning algorithms and models interesting for geo- and environmental sciences are presented in details: from theoretical description of the concepts to the software implementation. The main algorithms and models considered are the following: multi-layer perceptron (a workhorse of machine learning), general regression neural networks, probabilistic neural networks, self-organising (Kohonen) maps, Gaussian mixture models, radial basis functions networks, mixture density networks. This set of models covers machine learning tasks such as classification, regression, and density estimation. Exploratory data analysis (EDA) is initial and very important part of data analysis. In this thesis the concepts of exploratory spatial data analysis (ESDA) is considered using both traditional geostatistical approach such as_experimental variography and machine learning. Experimental variography is a basic tool for geostatistical analysis of anisotropic spatial correlations which helps to understand the presence of spatial patterns, at least described by two-point statistics. A machine learning approach for ESDA is presented by applying the k-nearest neighbors (k-NN) method which is simple and has very good interpretation and visualization properties. Important part of the thesis deals with a hot topic of nowadays, namely, an automatic mapping of geospatial data. General regression neural networks (GRNN) is proposed as efficient model to solve this task. Performance of the GRNN model is demonstrated on Spatial Interpolation Comparison (SIC) 2004 data where GRNN model significantly outperformed all other approaches, especially in case of emergency conditions. The thesis consists of four chapters and has the following structure: theory, applications, software tools, and how-to-do-it examples. An important part of the work is a collection of software tools - Machine Learning Office. Machine Learning Office tools were developed during last 15 years and was used both for many teaching courses, including international workshops in China, France, Italy, Ireland, Switzerland and for realizing fundamental and applied research projects. Case studies considered cover wide spectrum of the real-life low and high-dimensional geo- and environmental problems, such as air, soil and water pollution by radionuclides and heavy metals, soil types and hydro-geological units classification, decision-oriented mapping with uncertainties, natural hazards (landslides, avalanches) assessments and susceptibility mapping. Complementary tools useful for the exploratory data analysis and visualisation were developed as well. The software is user friendly and easy to use.
Resumo:
EXECUTIVE SUMMARY : Evaluating Information Security Posture within an organization is becoming a very complex task. Currently, the evaluation and assessment of Information Security are commonly performed using frameworks, methodologies and standards which often consider the various aspects of security independently. Unfortunately this is ineffective because it does not take into consideration the necessity of having a global and systemic multidimensional approach to Information Security evaluation. At the same time the overall security level is globally considered to be only as strong as its weakest link. This thesis proposes a model aiming to holistically assess all dimensions of security in order to minimize the likelihood that a given threat will exploit the weakest link. A formalized structure taking into account all security elements is presented; this is based on a methodological evaluation framework in which Information Security is evaluated from a global perspective. This dissertation is divided into three parts. Part One: Information Security Evaluation issues consists of four chapters. Chapter 1 is an introduction to the purpose of this research purpose and the Model that will be proposed. In this chapter we raise some questions with respect to "traditional evaluation methods" as well as identifying the principal elements to be addressed in this direction. Then we introduce the baseline attributes of our model and set out the expected result of evaluations according to our model. Chapter 2 is focused on the definition of Information Security to be used as a reference point for our evaluation model. The inherent concepts of the contents of a holistic and baseline Information Security Program are defined. Based on this, the most common roots-of-trust in Information Security are identified. Chapter 3 focuses on an analysis of the difference and the relationship between the concepts of Information Risk and Security Management. Comparing these two concepts allows us to identify the most relevant elements to be included within our evaluation model, while clearing situating these two notions within a defined framework is of the utmost importance for the results that will be obtained from the evaluation process. Chapter 4 sets out our evaluation model and the way it addresses issues relating to the evaluation of Information Security. Within this Chapter the underlying concepts of assurance and trust are discussed. Based on these two concepts, the structure of the model is developed in order to provide an assurance related platform as well as three evaluation attributes: "assurance structure", "quality issues", and "requirements achievement". Issues relating to each of these evaluation attributes are analysed with reference to sources such as methodologies, standards and published research papers. Then the operation of the model is discussed. Assurance levels, quality levels and maturity levels are defined in order to perform the evaluation according to the model. Part Two: Implementation of the Information Security Assurance Assessment Model (ISAAM) according to the Information Security Domains consists of four chapters. This is the section where our evaluation model is put into a welldefined context with respect to the four pre-defined Information Security dimensions: the Organizational dimension, Functional dimension, Human dimension, and Legal dimension. Each Information Security dimension is discussed in a separate chapter. For each dimension, the following two-phase evaluation path is followed. The first phase concerns the identification of the elements which will constitute the basis of the evaluation: ? Identification of the key elements within the dimension; ? Identification of the Focus Areas for each dimension, consisting of the security issues identified for each dimension; ? Identification of the Specific Factors for each dimension, consisting of the security measures or control addressing the security issues identified for each dimension. The second phase concerns the evaluation of each Information Security dimension by: ? The implementation of the evaluation model, based on the elements identified for each dimension within the first phase, by identifying the security tasks, processes, procedures, and actions that should have been performed by the organization to reach the desired level of protection; ? The maturity model for each dimension as a basis for reliance on security. For each dimension we propose a generic maturity model that could be used by every organization in order to define its own security requirements. Part three of this dissertation contains the Final Remarks, Supporting Resources and Annexes. With reference to the objectives of our thesis, the Final Remarks briefly analyse whether these objectives were achieved and suggest directions for future related research. Supporting resources comprise the bibliographic resources that were used to elaborate and justify our approach. Annexes include all the relevant topics identified within the literature to illustrate certain aspects of our approach. Our Information Security evaluation model is based on and integrates different Information Security best practices, standards, methodologies and research expertise which can be combined in order to define an reliable categorization of Information Security. After the definition of terms and requirements, an evaluation process should be performed in order to obtain evidence that the Information Security within the organization in question is adequately managed. We have specifically integrated into our model the most useful elements of these sources of information in order to provide a generic model able to be implemented in all kinds of organizations. The value added by our evaluation model is that it is easy to implement and operate and answers concrete needs in terms of reliance upon an efficient and dynamic evaluation tool through a coherent evaluation system. On that basis, our model could be implemented internally within organizations, allowing them to govern better their Information Security. RÉSUMÉ : Contexte général de la thèse L'évaluation de la sécurité en général, et plus particulièrement, celle de la sécurité de l'information, est devenue pour les organisations non seulement une mission cruciale à réaliser, mais aussi de plus en plus complexe. A l'heure actuelle, cette évaluation se base principalement sur des méthodologies, des bonnes pratiques, des normes ou des standards qui appréhendent séparément les différents aspects qui composent la sécurité de l'information. Nous pensons que cette manière d'évaluer la sécurité est inefficiente, car elle ne tient pas compte de l'interaction des différentes dimensions et composantes de la sécurité entre elles, bien qu'il soit admis depuis longtemps que le niveau de sécurité globale d'une organisation est toujours celui du maillon le plus faible de la chaîne sécuritaire. Nous avons identifié le besoin d'une approche globale, intégrée, systémique et multidimensionnelle de l'évaluation de la sécurité de l'information. En effet, et c'est le point de départ de notre thèse, nous démontrons que seule une prise en compte globale de la sécurité permettra de répondre aux exigences de sécurité optimale ainsi qu'aux besoins de protection spécifiques d'une organisation. Ainsi, notre thèse propose un nouveau paradigme d'évaluation de la sécurité afin de satisfaire aux besoins d'efficacité et d'efficience d'une organisation donnée. Nous proposons alors un modèle qui vise à évaluer d'une manière holistique toutes les dimensions de la sécurité, afin de minimiser la probabilité qu'une menace potentielle puisse exploiter des vulnérabilités et engendrer des dommages directs ou indirects. Ce modèle se base sur une structure formalisée qui prend en compte tous les éléments d'un système ou programme de sécurité. Ainsi, nous proposons un cadre méthodologique d'évaluation qui considère la sécurité de l'information à partir d'une perspective globale. Structure de la thèse et thèmes abordés Notre document est structuré en trois parties. La première intitulée : « La problématique de l'évaluation de la sécurité de l'information » est composée de quatre chapitres. Le chapitre 1 introduit l'objet de la recherche ainsi que les concepts de base du modèle d'évaluation proposé. La maniéré traditionnelle de l'évaluation de la sécurité fait l'objet d'une analyse critique pour identifier les éléments principaux et invariants à prendre en compte dans notre approche holistique. Les éléments de base de notre modèle d'évaluation ainsi que son fonctionnement attendu sont ensuite présentés pour pouvoir tracer les résultats attendus de ce modèle. Le chapitre 2 se focalise sur la définition de la notion de Sécurité de l'Information. Il ne s'agit pas d'une redéfinition de la notion de la sécurité, mais d'une mise en perspectives des dimensions, critères, indicateurs à utiliser comme base de référence, afin de déterminer l'objet de l'évaluation qui sera utilisé tout au long de notre travail. Les concepts inhérents de ce qui constitue le caractère holistique de la sécurité ainsi que les éléments constitutifs d'un niveau de référence de sécurité sont définis en conséquence. Ceci permet d'identifier ceux que nous avons dénommés « les racines de confiance ». Le chapitre 3 présente et analyse la différence et les relations qui existent entre les processus de la Gestion des Risques et de la Gestion de la Sécurité, afin d'identifier les éléments constitutifs du cadre de protection à inclure dans notre modèle d'évaluation. Le chapitre 4 est consacré à la présentation de notre modèle d'évaluation Information Security Assurance Assessment Model (ISAAM) et la manière dont il répond aux exigences de l'évaluation telle que nous les avons préalablement présentées. Dans ce chapitre les concepts sous-jacents relatifs aux notions d'assurance et de confiance sont analysés. En se basant sur ces deux concepts, la structure du modèle d'évaluation est développée pour obtenir une plateforme qui offre un certain niveau de garantie en s'appuyant sur trois attributs d'évaluation, à savoir : « la structure de confiance », « la qualité du processus », et « la réalisation des exigences et des objectifs ». Les problématiques liées à chacun de ces attributs d'évaluation sont analysées en se basant sur l'état de l'art de la recherche et de la littérature, sur les différentes méthodes existantes ainsi que sur les normes et les standards les plus courants dans le domaine de la sécurité. Sur cette base, trois différents niveaux d'évaluation sont construits, à savoir : le niveau d'assurance, le niveau de qualité et le niveau de maturité qui constituent la base de l'évaluation de l'état global de la sécurité d'une organisation. La deuxième partie: « L'application du Modèle d'évaluation de l'assurance de la sécurité de l'information par domaine de sécurité » est elle aussi composée de quatre chapitres. Le modèle d'évaluation déjà construit et analysé est, dans cette partie, mis dans un contexte spécifique selon les quatre dimensions prédéfinies de sécurité qui sont: la dimension Organisationnelle, la dimension Fonctionnelle, la dimension Humaine, et la dimension Légale. Chacune de ces dimensions et son évaluation spécifique fait l'objet d'un chapitre distinct. Pour chacune des dimensions, une évaluation en deux phases est construite comme suit. La première phase concerne l'identification des éléments qui constituent la base de l'évaluation: ? Identification des éléments clés de l'évaluation ; ? Identification des « Focus Area » pour chaque dimension qui représentent les problématiques se trouvant dans la dimension ; ? Identification des « Specific Factors » pour chaque Focus Area qui représentent les mesures de sécurité et de contrôle qui contribuent à résoudre ou à diminuer les impacts des risques. La deuxième phase concerne l'évaluation de chaque dimension précédemment présentées. Elle est constituée d'une part, de l'implémentation du modèle général d'évaluation à la dimension concernée en : ? Se basant sur les éléments spécifiés lors de la première phase ; ? Identifiant les taches sécuritaires spécifiques, les processus, les procédures qui auraient dû être effectués pour atteindre le niveau de protection souhaité. D'autre part, l'évaluation de chaque dimension est complétée par la proposition d'un modèle de maturité spécifique à chaque dimension, qui est à considérer comme une base de référence pour le niveau global de sécurité. Pour chaque dimension nous proposons un modèle de maturité générique qui peut être utilisé par chaque organisation, afin de spécifier ses propres exigences en matière de sécurité. Cela constitue une innovation dans le domaine de l'évaluation, que nous justifions pour chaque dimension et dont nous mettons systématiquement en avant la plus value apportée. La troisième partie de notre document est relative à la validation globale de notre proposition et contient en guise de conclusion, une mise en perspective critique de notre travail et des remarques finales. Cette dernière partie est complétée par une bibliographie et des annexes. Notre modèle d'évaluation de la sécurité intègre et se base sur de nombreuses sources d'expertise, telles que les bonnes pratiques, les normes, les standards, les méthodes et l'expertise de la recherche scientifique du domaine. Notre proposition constructive répond à un véritable problème non encore résolu, auquel doivent faire face toutes les organisations, indépendamment de la taille et du profil. Cela permettrait à ces dernières de spécifier leurs exigences particulières en matière du niveau de sécurité à satisfaire, d'instancier un processus d'évaluation spécifique à leurs besoins afin qu'elles puissent s'assurer que leur sécurité de l'information soit gérée d'une manière appropriée, offrant ainsi un certain niveau de confiance dans le degré de protection fourni. Nous avons intégré dans notre modèle le meilleur du savoir faire, de l'expérience et de l'expertise disponible actuellement au niveau international, dans le but de fournir un modèle d'évaluation simple, générique et applicable à un grand nombre d'organisations publiques ou privées. La valeur ajoutée de notre modèle d'évaluation réside précisément dans le fait qu'il est suffisamment générique et facile à implémenter tout en apportant des réponses sur les besoins concrets des organisations. Ainsi notre proposition constitue un outil d'évaluation fiable, efficient et dynamique découlant d'une approche d'évaluation cohérente. De ce fait, notre système d'évaluation peut être implémenté à l'interne par l'entreprise elle-même, sans recourir à des ressources supplémentaires et lui donne également ainsi la possibilité de mieux gouverner sa sécurité de l'information.
Resumo:
SUMMARY : Human-induced habitat fragmentation constitutes a major threat to biodiversity. Small and isolated populations suffer from increased stochasticity and from limited rescue effects. These two factors may be sufficient to cause local extinctions but fragmentation induces some genetic consequences that can also contribute significantly to extinction risks. Increased genetic drift reduces the effectiveness of selection against deleterious mutations, leading to their progressive accumulation. Drift also decreases both the standing genetic variation and the rate of fixation of beneficial mutations, limiting the evolutionary potential of isolated populations. Demography and genetics further interact and feed back on each other, progressively driving fragmented populations into "extinction vortices". The aim of the thesis was to better understand the processes occurring in fragmented populations. For this, I combined simulation studies and empirical data from three species that live in structured habitats. Chapter 1 and 2 investigate the demography of two shrew species in fragmented habitats. I showed that connectivity and habitat quality strongly affect the demography of the greater white-tooted shrew, although demographic stochasticity was extremely high. I also demonstrated that habitat fragmentation is one of the leading factors allowing the local coexistence of two competing shrew species. Chapter 3 and 4 focus on measuring connectivity in fragmented populations based on genetic data. In particular, I showed that genetic data can be used to detect the landscape elements impeding dispersal. In Chapter 5 that deals with the accumulation of deleterious mutations in fragmented populations, I demonstrated that mutation accumulation, as well a time to extinction, can be predicted from simple demographic and genetic measures. In the last two chapters, I monitored individual reproductive success in an isolated tree frogs population. These data allowed quantifying the effective population size, a measure closely linked to population evolutionary potential. To conclude, this thesis brings some new insights into the processes occurring in fragmented populations, and I hope it will contribute to the improvement of the management and conservation of fragmented populations.
Resumo:
General Introduction These three chapters, while fairly independent from each other, study economic situations in incomplete contract settings. They are the product of both the academic freedom my advisors granted me, and in this sense reflect my personal interests, and of their interested feedback. The content of each chapter can be summarized as follows: Chapter 1: Inefficient durable-goods monopolies In this chapter we study the efficiency of an infinite-horizon durable-goods monopoly model with a fmite number of buyers. We find that, while all pure-strategy Markov Perfect Equilibria (MPE) are efficient, there also exist previously unstudied inefficient MPE where high valuation buyers randomize their purchase decision while trying to benefit from low prices which are offered once a critical mass has purchased. Real time delay, an unusual monopoly distortion, is the result of this attrition behavior. We conclude that neither technological constraints nor concern for reputation are necessary to explain inefficiency in monopolized durable-goods markets. Chapter 2: Downstream mergers and producer's capacity choice: why bake a larger pie when getting a smaller slice? In this chapter we study the effect of downstream horizontal mergers on the upstream producer's capacity choice. Contrary to conventional wisdom, we find anon-monotonic relationship: horizontal mergers induce a higher upstream capacity if the cost of capacity is low, and a lower upstream capacity if this cost is high. We explain this result by decomposing the total effect into two competing effects: a change in hold-up and a change in bargaining erosion. Chapter 3: Contract bargaining with multiple agents In this chapter we study a bargaining game between a principal and N agents when the utility of each agent depends on all agents' trades with the principal. We show, using the Potential, that equilibria payoffs coincide with the Shapley value of the underlying coalitional game with an appropriately defined characteristic function, which under common assumptions coincides with the principal's equilibrium profit in the offer game. Since the problem accounts for differences in information and agents' conjectures, the outcome can be either efficient (e.g. public contracting) or inefficient (e.g. passive beliefs).
Resumo:
This thesis is composed of three main parts. The first consists of a state of the art of the different notions that are significant to understand the elements surrounding art authentication in general, and of signatures in particular, and that the author deemed them necessary to fully grasp the microcosm that makes up this particular market. Individuals with a solid knowledge of the art and expertise area, and that are particularly interested in the present study are advised to advance directly to the fourth Chapter. The expertise of the signature, it's reliability, and the factors impacting the expert's conclusions are brought forward. The final aim of the state of the art is to offer a general list of recommendations based on an exhaustive review of the current literature and given in light of all of the exposed issues. These guidelines are specifically formulated for the expertise of signatures on paintings, but can also be applied to wider themes in the area of signature examination. The second part of this thesis covers the experimental stages of the research. It consists of the method developed to authenticate painted signatures on works of art. This method is articulated around several main objectives: defining measurable features on painted signatures and defining their relevance in order to establish the separation capacities between groups of authentic and simulated signatures. For the first time, numerical analyses of painted signatures have been obtained and are used to attribute their authorship to given artists. An in-depth discussion of the developed method constitutes the third and final part of this study. It evaluates the opportunities and constraints when applied by signature and handwriting experts in forensic science. A brief summary covering each chapter allows a rapid overview of the study and summarizes the aims and main themes of each chapter. These outlines presented below summarize the aims and main themes addressed in each chapter. Part I - Theory Chapter 1 exposes legal aspects surrounding the authentication of works of art by art experts. The definition of what is legally authentic, the quality and types of the experts that can express an opinion concerning the authorship of a specific painting, and standard deontological rules are addressed. The practices applied in Switzerland will be specifically dealt with. Chapter 2 presents an overview of the different scientific analyses that can be carried out on paintings (from the canvas to the top coat). Scientific examinations of works of art have become more common, as more and more museums equip themselves with laboratories, thus an understanding of their role in the art authentication process is vital. The added value that a signature expertise can have in comparison to other scientific techniques is also addressed. Chapter 3 provides a historical overview of the signature on paintings throughout the ages, in order to offer the reader an understanding of the origin of the signature on works of art and its evolution through time. An explanation is given on the transitions that the signature went through from the 15th century on and how it progressively took on its widely known modern form. Both this chapter and chapter 2 are presented to show the reader the rich sources of information that can be provided to describe a painting, and how the signature is one of these sources. Chapter 4 focuses on the different hypotheses the FHE must keep in mind when examining a painted signature, since a number of scenarios can be encountered when dealing with signatures on works of art. The different forms of signatures, as well as the variables that may have an influence on the painted signatures, are also presented. Finally, the current state of knowledge of the examination procedure of signatures in forensic science in general, and in particular for painted signatures, is exposed. The state of the art of the assessment of the authorship of signatures on paintings is established and discussed in light of the theoretical facets mentioned previously. Chapter 5 considers key elements that can have an impact on the FHE during his or her2 examinations. This includes a discussion on elements such as the skill, confidence and competence of an expert, as well as the potential bias effects he might encounter. A better understanding of elements surrounding handwriting examinations, to, in turn, better communicate results and conclusions to an audience, is also undertaken. Chapter 6 reviews the judicial acceptance of signature analysis in Courts and closes the state of the art section of this thesis. This chapter brings forward the current issues pertaining to the appreciation of this expertise by the non- forensic community, and will discuss the increasing number of claims of the unscientific nature of signature authentication. The necessity to aim for more scientific, comprehensive and transparent authentication methods will be discussed. The theoretical part of this thesis is concluded by a series of general recommendations for forensic handwriting examiners in forensic science, specifically for the expertise of signatures on paintings. These recommendations stem from the exhaustive review of the literature and the issues exposed from this review and can also be applied to the traditional examination of signatures (on paper). Part II - Experimental part Chapter 7 describes and defines the sampling, extraction and analysis phases of the research. The sampling stage of artists' signatures and their respective simulations are presented, followed by the steps that were undertaken to extract and determine sets of characteristics, specific to each artist, that describe their signatures. The method is based on a study of five artists and a group of individuals acting as forgers for the sake of this study. Finally, the analysis procedure of these characteristics to assess of the strength of evidence, and based on a Bayesian reasoning process, is presented. Chapter 8 outlines the results concerning both the artist and simulation corpuses after their optical observation, followed by the results of the analysis phase of the research. The feature selection process and the likelihood ratio evaluation are the main themes that are addressed. The discrimination power between both corpuses is illustrated through multivariate analysis. Part III - Discussion Chapter 9 discusses the materials, the methods, and the obtained results of the research. The opportunities, but also constraints and limits, of the developed method are exposed. Future works that can be carried out subsequent to the results of the study are also presented. Chapter 10, the last chapter of this thesis, proposes a strategy to incorporate the model developed in the last chapters into the traditional signature expertise procedures. Thus, the strength of this expertise is discussed in conjunction with the traditional conclusions reached by forensic handwriting examiners in forensic science. Finally, this chapter summarizes and advocates a list of formal recommendations for good practices for handwriting examiners. In conclusion, the research highlights the interdisciplinary aspect of signature examination of signatures on paintings. The current state of knowledge of the judicial quality of art experts, along with the scientific and historical analysis of paintings and signatures, are overviewed to give the reader a feel of the different factors that have an impact on this particular subject. The temperamental acceptance of forensic signature analysis in court, also presented in the state of the art, explicitly demonstrates the necessity of a better recognition of signature expertise by courts of law. This general acceptance, however, can only be achieved by producing high quality results through a well-defined examination process. This research offers an original approach to attribute a painted signature to a certain artist: for the first time, a probabilistic model used to measure the discriminative potential between authentic and simulated painted signatures is studied. The opportunities and limits that lie within this method of scientifically establishing the authorship of signatures on works of art are thus presented. In addition, the second key contribution of this work proposes a procedure to combine the developed method into that used traditionally signature experts in forensic science. Such an implementation into the holistic traditional signature examination casework is a large step providing the forensic, judicial and art communities with a solid-based reasoning framework for the examination of signatures on paintings. The framework and preliminary results associated with this research have been published (Montani, 2009a) and presented at international forensic science conferences (Montani, 2009b; Montani, 2012).
Resumo:
The present PhD dissertation consists of three papers, organized in chapters, in the field of behavioral economics. This discipline studies economic behavior of individuals subject to limitations, such as bounded self-interest and bounded willpower. The behavior studied in the present thesis ranges from the complex decision to register as an organ donor, decision¬making in the presence of uncertainty and the decision to give money to a charitable organization. The first chapter aims at testing the effectiveness of an active-decision (AD) mechanism on the decision to become an organ donor in Switzerland, using field experiments. We found that stimulating participants' reflection on the topic of organ donation had a negative effect on the decision to become an organ donor. Moreover, a non-binding commitment nudge reduces putting off the decision, but does not lead to donation rates higher than in the control group. The results suggest that AD may be far more limited than previously thought and raise doubts about the efficacy of engaging potential donors to reflect on the topic of organ donation. Beyond carrying for others, behavioral economics also recognizes that individuals do not evaluate outcomes in absolute terms but rather by comparing them to some reference levels, called reference points. Above the reference points, economic outcomes are perceived as gains, while below these levels the same outcomes are felt as losses. The last two chapters analyze the importance of reference points in the evaluation of economic outcomes. Using a laboratory experiment where subjects played two consecutive lotteries, Chapter 2 studies the speed of adjustment of the reference point. We find that varying the probability of winning the first lottery has no effect on subjects' risk behavior regarding the second lottery. This result indicates a very fast adjustment of the reference point to the latest information. Chapter 3 investigates whether reference points are relevant for charitable preferences. Using actual donation decisions of participants in a laboratory experiment, the results suggest that reference points are not crucial for shaping charitable giving. -- Cette thèse de doctorat consiste en trois articles, organisés en chapitres, dans le domaine de l'économie comportementale. Cette discipline étudie le comportement d'agents économiques sujets à des limitations, telles qu'un égoïsme limité et une volonté limitée. Le comportement étudié dans cette thèse va de la décision complexe de devenir donneur d'organes, la prise de décision en présence d'incertitude à la décision de donner de l'argent à une oeuvre caritative. Le premier chapitre vise à tester l'efficacité d'un mécanisme de « décision active » (active decision, AD) sur la décision de devenir donneur d'organes en Suisse, et ce en recourant à deux expériences hors-laboratoire. Les résultats montrent que stimuler la réflexion des participants sur le don d'organes a un effet négatif sur la décision de devenir donneur. De plus, un mécanisme qui encourage les participants à prendre une décision sur le champ réduit la tendance à procrastiner, mais ne mène pas à un taux de donneurs plus élevé par rapport à un groupe de contrôle. Les résultats suggèrent que le mécanisme AD est bien plus limité que ce qui a été supposé jusqu'à maintenant. De plus, ils suscitent le doute quant à l'efficacité de stimuler la réflexion de potentiels donneurs sur le sujet du don d'organes. En plus de se soucier des autres, l'économie comportementale admet également que les individus n'évaluent pas les résultats de façon absolue, mais en comparant ceux-ci à des niveaux de références, souvent appelés points de référence. Au-dessus de ces points de référence, les résultats sont perçus en tant que gains, tandis qu'en-dessous ces mêmes résultats sont considérés comme des pertes. Les deux derniers chapitres analysent l'importance des points de référence dans diverses situations. A l'aide d'une expérience en laboratoire dans laquelle les participants participent à deux loteries consécutives, le chapitre 2 étudie la vitesse d'ajustement du point de référence. Le résultat montre que varier la probabilité de gagner la première loterie n'a aucun effet sur le comportement en matière de risques concernant la deuxième loterie. Cela indique un ajustement très rapide du point de référence. Le chapitre 3 vise à déterminer si les points de référence ont un rôle majeur concernant les préférences caritatives. Les données relatives aux décisions de don des participants d'une expérience en laboratoire montrent que les points de référence n'influencent pas significativement le don caritatif.
Resumo:
The thesis is made of three independent chapters interested in the impact of globalization on workers in industrialized countries. The dissertation is especially focused on identifying the causal impact of international trade on workers' mobility, wages, and employment with both a short- and medium-term perspective. The first paper explores the relation between intra-industry trade (IIT) expansion and associated worker flows, taking the latter as an indicator of labor-market adjustment costs. Being the first study to combine theoretical simulations and a novel identification strategy, we find that both theoretical and empirical analyses are consistent with the "smooth adjustment hypothesis", according to which IIT expansion is less disruptive than inter-industry trade expansion. The study therefore lends support to the use of IIT indices as first-pass proxies for the adjustment effects of trade expansion. The second chapter contrasts the impact of increased import competition coming from China and the European Union (EU) on workers in the United Kingdom over a 15-year period. The most salient findings show that increased imports from China had significantly negative effects on workers' earnings, wages and employment. In contrast, larger imports from the EU are associated with positive worker-level outcomes, which is largely explained by the fact that increased imports from the EU were mostly offset by increased same-industry exports to the EU. Besides, we find that increased imports from China exert additional pressure on workers through spillovers to employment and wages in downstream industries. Finally, the last chapter is focused on the impact of exposure to trade and real exchange rate shocks on wages for Swiss manufacturing workers. A particular attention is made to consistently estimate the causal effect in using a two-step gravity-type identification strategy. The study shows that the impact of trade and exchange rate movements is concentrated among high-skilled workers almost exclusively.
Resumo:
The research described in this thesis examines the characteristics, the benefits and the challenges associated with the implementation of management accounting systems in the field of Corporate Social Responsibility (CSR). Applied to the CSR context, management accounting relates to the identification, elaboration and communication of information about an organization's interactions with the society and the environment. Based on this information, firms are able to make decisions to achieve social and environmental objectives and provide evidence justifying the benefits and the costs of such actions. The study begins by focusing on green management and exploring the characteristics of Environmental Management Accounting (EMA) systems within firms. The first chapter informs the reader about the growing body of EMA research and reveals unexplored relevant aspects that need to be further investigated. The work also emphasizes the importance of developing new theoretical hypotheses and appropriate research designs to empirically tackle new aspects of EMA and gain understanding on the use of these practices. Subsequently, given the acknowledged importance of control systems in influencing the behaviour of individuals within organizations, the remaining two chapters of the dissertation focus on the functioning of CSR-linked incentives assigned to employees in the form of compensation plans. The second chapter examines the determinants influencing corporate provision of incentives for the attainment of environmental targets. Empirical analysis of a sample of international firms reveals that companies are likely to use green incentives as mechanisms to increase the efficacy in contracting with their employees as well as to respond to social influences. Finally, the third chapter investigates the effectiveness of contracting associated with the use of CSR-linked executive compensation. Empirical analysis of a sample of US-based companies shows that corporate choice to tie senior executives' pay to CSR targets promotes the firm's CSR performance. Cette thèse examine les caractéristiques, avantages et défis associés à l'utilisation des systèmes de contrôle de gestion dans le domaine de la Responsabilité Sociale des Entreprises (RSE). Dans le contexte de la RSE, les activités du contrôle de gestion impliquent l'identification, l'élaboration et la communication d'informations qui concernent les interactions des organisations avec la société et l'environnement. Avec ces informations les entreprises sont en mesure de prendre des décisions visant à atteindre les objectifs sociaux et environnementaux de l'organisation et de documenter les bénéfices et coûts de ces actions. Dès le début, la thèse se concentre sur les caractéristiques des systèmes de contrôle de gestion environnementale au sein des entreprises. Le premier chapitre passe en revue la littérature existante et révèle des aspects inexplorés. Pour ce faire, le travail suggère le développement de nouvelles théories ainsi que l'utilisation de méthodes appropriées. Ces dernières doivent permettre d'aborder empiriquement de nouveaux aspects des systèmes de contrôle environnemental et faciliter la compréhension sur l'utilisation de ces pratiques. Considérant l'importance des systèmes de contrôle pour influencer le comportement des individus au sein des organisations, la suite du travail se concentre sur le fonctionnement des contrats de rémunération des employées liées aux résultats de la RSE. Plus particulièrement, le deuxième chapitre examine les facteurs qui influencent la décision des entreprises d'assigner des objectifs environnementaux aux employées. L'analyse empirique d'un échantillon d'entreprises internationales montre que les entreprises sont susceptibles d'utiliser des mécanismes incitatifs écologiques pour augmenter l'efficacité des contrats ainsi que pour répondre aux influences sociales. Finalement, le troisième chapitre analyse l'efficacité des contrats de rémunération des dirigeants liés aux résultats de la RSE. L'analyse empirique d'un échantillon de sociétés américaines indique que le choix de l'entreprise de lier la rémunération des dirigeants à des objectifs de la RSE favorise la performance RSE de l'organisation.
Resumo:
Numerous links between genetic variants and phenotypes are known and genome-wide association studies dramatically increased the number of genetic variants associated with traits during the last decade. However, how changes in the DNA perturb the molecular mechanisms and impact on the phenotype of an organism remains elusive. Studies suggest that many traitassociated variants are in the non-coding region of the genome and probably act through regulation of gene expression. During my thesis I investigated how genetic variants affect gene expression through gene regulatory mechanisms. The first chapter was a collaborative project with a pharmaceutical company, where we investigated genome-wide copy number variation (CNVs) among Cynomolgus monkeys (Macaca fascicularis) used in pharmaceutical studies, and associated them to changes in gene expression. We found substantial copy number variation and identified CNVs linked to tissue-specific expression changes of proximal genes. The second and third chapters focus on genetic variation in humans and its effects on gene regulatory mechanisms and gene expression. The second chapter studies two human trios, where the allelic effects of genetic variation on genome-wide gene expression, protein-DNA binding and chromatin modifications were investigated. We found abundant allele specific activity across all measured molecular phenotypes and show extended coordinated behavior among them. In the third chapter, we investigated the impact of genetic variation on these phenotypes in 47 unrelated individuals. We found that chromatin phenotypes are organized into local variable modules, often linked to genetic variation and gene expression. Our results suggest that chromatin variation emerges as a result of perturbations of cis-regulatory elements by genetic variants, leading to gene expression changes. The work of this thesis provides novel insights into how genetic variation impacts gene expression by perturbing regulatory mechanisms. -- De nombreux liens entre variations génétiques et phénotypes sont connus. Les études d'association pangénomique ont considérablement permis d'augmenter le nombre de variations génétiques associées à des phénotypes au cours de la dernière décennie. Cependant, comprendre comment ces changements perturbent les mécanismes moléculaires et affectent le phénotype d'un organisme nous échappe encore. Des études suggèrent que de nombreuses variations, associées à des phénotypes, sont situées dans les régions non codantes du génome et sont susceptibles d'agir en modifiant la régulation d'expression des gènes. Au cours de ma thèse, j'ai étudié comment les variations génétiques affectent les niveaux d'expression des gènes en perturbant les mécanismes de régulation de leur expression. Le travail présenté dans le premier chapitre est un projet en collaboration avec une société pharmaceutique. Nous avons étudié les variations en nombre de copies (CNV) présentes chez le macaque crabier (Macaca fascicularis) qui est utilisé dans les études pharmaceutiques, et nous les avons associées avec des changements d'expression des gènes. Nous avons découvert qu'il existe une variabilité substantielle du nombre de copies et nous avons identifié des CNVs liées aux changements d'expression des gènes situés dans leur voisinage. Ces associations sont présentes ou absentes de manière spécifique dans certains tissus. Les deuxième et troisième chapitres se concentrent sur les variations génétiques dans les populations humaines et leurs effets sur les mécanismes de régulation des gènes et leur expression. Le premier se penche sur deux trios humains, père, mère, enfant, au sein duquel nous avons étudié les effets alléliques des variations génétiques sur l'expression des gènes, les liaisons protéine-ADN et les modifications de la chromatine. Nous avons découvert que l'activité spécifique des allèles est abondante abonde dans tous ces phénotypes moléculaires et nous avons démontré que ces derniers ont un comportement coordonné entre eux. Dans le second, nous avons examiné l'impact des variations génétiques de ces phénotypes moléculaires chez 47 individus, sans lien de parenté. Nous avons observé que les phénotypes de la chromatine sont organisés en modules locaux, qui sont liés aux variations génétiques et à l'expression des gènes. Nos résultats suggèrent que la variabilité de la chromatine est due à des variations génétiques qui perturbent des éléments cis-régulateurs, et peut conduire à des changements dans l'expression des gènes. Le travail présenté dans cette thèse fournit de nouvelles pistes pour comprendre l'impact des différentes variations génétiques sur l'expression des gènes à travers les mécanismes de régulation.