818 resultados para Gavarnie, Cirque de (Hautes-Pyrénées)
Les effets de la confiance sur les organisations autonomes de service public: une étude comparative.
Resumo:
Game theory describes and analyzes strategic interaction. It is usually distinguished between static games, which are strategic situations in which the players choose only once as well as simultaneously, and dynamic games, which are strategic situations involving sequential choices. In addition, dynamic games can be further classified according to perfect and imperfect information. Indeed, a dynamic game is said to exhibit perfect information, whenever at any point of the game every player has full informational access to all choices that have been conducted so far. However, in the case of imperfect information some players are not fully informed about some choices. Game-theoretic analysis proceeds in two steps. Firstly, games are modelled by so-called form structures which extract and formalize the significant parts of the underlying strategic interaction. The basic and most commonly used models of games are the normal form, which rather sparsely describes a game merely in terms of the players' strategy sets and utilities, and the extensive form, which models a game in a more detailed way as a tree. In fact, it is standard to formalize static games with the normal form and dynamic games with the extensive form. Secondly, solution concepts are developed to solve models of games in the sense of identifying the choices that should be taken by rational players. Indeed, the ultimate objective of the classical approach to game theory, which is of normative character, is the development of a solution concept that is capable of identifying a unique choice for every player in an arbitrary game. However, given the large variety of games, it is not at all certain whether it is possible to device a solution concept with such universal capability. Alternatively, interactive epistemology provides an epistemic approach to game theory of descriptive character. This rather recent discipline analyzes the relation between knowledge, belief and choice of game-playing agents in an epistemic framework. The description of the players' choices in a given game relative to various epistemic assumptions constitutes the fundamental problem addressed by an epistemic approach to game theory. In a general sense, the objective of interactive epistemology consists in characterizing existing game-theoretic solution concepts in terms of epistemic assumptions as well as in proposing novel solution concepts by studying the game-theoretic implications of refined or new epistemic hypotheses. Intuitively, an epistemic model of a game can be interpreted as representing the reasoning of the players. Indeed, before making a decision in a game, the players reason about the game and their respective opponents, given their knowledge and beliefs. Precisely these epistemic mental states on which players base their decisions are explicitly expressible in an epistemic framework. In this PhD thesis, we consider an epistemic approach to game theory from a foundational point of view. In Chapter 1, basic game-theoretic notions as well as Aumann's epistemic framework for games are expounded and illustrated. Also, Aumann's sufficient conditions for backward induction are presented and his conceptual views discussed. In Chapter 2, Aumann's interactive epistemology is conceptually analyzed. In Chapter 3, which is based on joint work with Conrad Heilmann, a three-stage account for dynamic games is introduced and a type-based epistemic model is extended with a notion of agent connectedness. Then, sufficient conditions for backward induction are derived. In Chapter 4, which is based on joint work with Jérémie Cabessa, a topological approach to interactive epistemology is initiated. In particular, the epistemic-topological operator limit knowledge is defined and some implications for games considered. In Chapter 5, which is based on joint work with Jérémie Cabessa and Andrés Perea, Aumann's impossibility theorem on agreeing to disagree is revisited and weakened in the sense that possible contexts are provided in which agents can indeed agree to disagree.
Resumo:
La mort est au centre de toutes les sociétés. Quelles que soient les procédures funéraires suivies - de la crémation du cadavre à l'embaumement le plus sophistiqué -, la mort fait l'objet de traitements obéissant aux conceptions que les sociétés se font de la mort elle-même, du devenir du défunt et des relations que les vivants entretiennent avec ce dernier. Si la mort donne lieu à des rites funéraires fort variés, ceux-ci partagent cependant des fonctions communes: prendre acte d'une rupture tout en la dissolvant dans le temps long d'une transition, créer un espace dans le temps ordinaire continu, recomposer du lien social là où la mort a imposé un vide.... Etudier les rites funéraires, c'est donc s'intéresser aux réponses culturelles développées par les êtres humains face à la mort biologique, s'interroger sur les pratiques mises en place pour accompagner les défunts, mais aussi aborder la question du deuil et de la séparation des vivants d'avec leurs morts. -- Trois dimensions Pour transmettre ces connaissances, une nouvelle forme de communication multimédia a été mise au point au sein d'une équipe interdisciplinaire sciences humaines-informatique : «les eTalks», un nouveau nom que nous nous permettons d'utiliser désormais en français. Cette nouvelle forme est décrite plus bas. Quant à leur contenu, les eTalks proposés sont issus de deux cycles de formation continue organisés par l'Université de Lausanne et la Haute école pédagogique du canton de Vaud en 2010 et 2012. Les conférences, données par des professeurs d'université, de Hautes Ecoles ou par des praticiens, s'adressaient à un public provenant d'horizons professionnels très variés (enseignants, agents funéraires, membres du corps médical, représentants des communautés religieuses, etc.). Il est donc à relever que les genres littéraires de ces e-talks varient, depuis la communication académique standard, jusqu'aux témoignages de professionnels engagés sur le terrain. -- Pour des raisons de clarté, nous avons regroupé les eTalks en trois sous-thèmes: -- 1. A la découverte des cultures funéraires Génératrice de culture depuis la préhistoire, la mort suscite des attitudes et des pratiques diversifiées selon les époque et les sociétés. Les eTalks regroupés ici visent à présenter et à expliquer des pratiques funéraires développées dans trois traditions religieuses distinctes - l'Egypte ancienne, le monde réformé (du XVIe - XIXe siècle) et l'islam - et invitent ainsi à comparer des usages provenant d'horizons culturels très différents. -- 2. Rites funéraires sur le terrain Dans nos sociétés très institutionnalisées, la mort et les demandes de rites funéraires qui en découlent ont aussi un impact au sein des établissements professionnels que l'on fréquente à différentes étapes de nos vies. Les eTalks regroupés ici s'intéressent aux rites funéraires et à la gestion du deuil dans des institutions telles que l'école, les établissements médico-sociaux, le monde du travail et les pompes funèbres. Ils joignent des recherches menées sur le terrain et rendent compte des expériences vécues par les acteurs institutionnels confrontés à la mort. -- 3. Rites funéraires contemporains Certains déplorent la déperdition des rites funéraires dans nos sociétés contemporaines. Mais en est-il vraiment ainsi ? N'assiste-t-on pas aujourd'hui à une revitalisation des formes rituelles que ce soit à travers la reélaboration de pratiques anciennes ou la création de nouveaux rites ? Les eTalks regroupés ici démontrent en tous les cas une grande vitalité rituelle que ce soit par le biais de la réinterprétation et de l'adaptation des traditions religieuses ou de la créativité dont témoignent des non-croyants. Ils indiquent qu'après un temps marqué par l'éloignement de la mort, nous sommes peut-être engagés dans des formes multiples de réappropriation de cette dernière.
Resumo:
(Résumé du numéro) Prophéties et visions du futur Notre époque se méfie des prophètes, mais fait confiance aux astrologues, devins et autres voyantes... Y compris dans les plus hautes sphères du pouvoir! Ce surgissement de l'irrationnel dans une société fière de sa "science" laisse perplexe. De telles croyances, dont le caractère païen est parfois souligné, entretiennent dans l'esprit du public une confusion fâcheuse entre prophétie et prédiction. Le prophétisme s'en trouve dévalorisé, alors qu'il a joué à certains moments un rôle décisif dans l'histoire de l'humanité. "L'avez-vous remarqué?", écrivait il y a quelques années Bruno Chenu, "À l'heure actuelle, le thème du prophétisme semble s'être évanoui du paysage, tant social qu'ecclésial. Il n'y a plus grand monde pour se risquer à une interpellation forte, à une mise en cause radicale, à une proposition dérangeante. [...] Nous sommes à l'âge des croyances molles. N'est-il pas grand temps de retrouver, collectivement et personnellement, l'inspiration prophétique?" (1). Le prophète est une figure centrale des religions monothéistes. Il porte la sagesse du message divin que les hommes ne savent pas discerner. Donc, il dérange. Et si sa parole est écoutée, voire sollicitée, dans les périodes d'incertitudes, il devient gênant dès lors que le pouvoir - religieux ou politique - pense avoir repris en main les destinées de la communauté. "L'avenir n'est à personne, sire, l'avenir est à Dieu" rappelle, trop tard!, Victor Hugo à Napoléon 1er. Il est vrai que la condamnation des prophètes est souvent consécutive à une catastrophe déclenchée par de "faux" prophètes. La difficulté à identifier la véritable prophétie a entraîné à plusieurs reprises l'annonce de l'extinction du prophétisme, par les sages juifs au deuxième siècle avant notre ère, ou lorsque le christianisme devient la religion officielle de l'Empire romain. À chaque fois, le prophétisme est réapparu, comme si la religion ne pouvait en faire l'économie. C'est l'une des leçons qui ressort le plus clairement du dossier que nous consacrons au couple tumultueux que constituent prophètes et visions du futur. Le prophète porte aussi les espoirs de l'humanité. Un monde sans prophètes serait-il un monde sans espérance?
Resumo:
AbstractBreast cancer is one of the most common cancers affecting one in eight women during their lives. Survival rates have increased steadily thanks to early diagnosis with mammography screening and more efficient treatment strategies. Post-operative radiation therapy is a standard of care in the management of breast cancer and has been shown to reduce efficiently both local recurrence rate and breast cancer mortality. Radiation therapy is however associated with some late effects for long-term survivors. Radiation-induced secondary cancer is a relatively rare but severe late effect of radiation therapy. Currently, radiotherapy plans are essentially optimized to maximize tumor control and minimize late deterministic effects (tissue reactions) that are mainly associated with high doses (» 1 Gy). With improved cure rates and new radiation therapy technologies, it is also important to evaluate and minimize secondary cancer risks for different treatment techniques. This is a particularly challenging task due to the large uncertainties in the dose-response relationship.In contrast with late deterministic effects, secondary cancers may be associated with much lower doses and therefore out-of-field doses (also called peripheral doses) that are typically inferior to 1 Gy need to be determined accurately. Out-of-field doses result from patient scatter and head scatter from the treatment unit. These doses are particularly challenging to compute and we characterized it by Monte Carlo (MC) calculation. A detailed MC model of the Siemens Primus linear accelerator has been thoroughly validated with measurements. We investigated the accuracy of such a model for retrospective dosimetry in epidemiological studies on secondary cancers. Considering that patients in such large studies could be treated on a variety of machines, we assessed the uncertainty in reconstructed peripheral dose due to the variability of peripheral dose among various linac geometries. For large open fields (> 10x10 cm2), the uncertainty would be less than 50%, but for small fields and wedged fields the uncertainty in reconstructed dose could rise up to a factor of 10. It was concluded that such a model could be used for conventional treatments using large open fields only.The MC model of the Siemens Primus linac was then used to compare out-of-field doses for different treatment techniques in a female whole-body CT-based phantom. Current techniques such as conformai wedged-based radiotherapy and hybrid IMRT were investigated and compared to older two-dimensional radiotherapy techniques. MC doses were also compared to those of a commercial Treatment Planning System (TPS). While the TPS is routinely used to determine the dose to the contralateral breast and the ipsilateral lung which are mostly out of the treatment fields, we have shown that these doses may be highly inaccurate depending on the treatment technique investigated. MC shows that hybrid IMRT is dosimetrically similar to three-dimensional wedge-based radiotherapy within the field, but offers substantially reduced doses to out-of-field healthy organs.Finally, many different approaches to risk estimations extracted from the literature were applied to the calculated MC dose distribution. Absolute risks varied substantially as did the ratio of risk between two treatment techniques, reflecting the large uncertainties involved with current risk models. Despite all these uncertainties, the hybrid IMRT investigated resulted in systematically lower cancer risks than any of the other treatment techniques. More epidemiological studies with accurate dosimetry are required in the future to construct robust risk models. In the meantime, any treatment strategy that reduces out-of-field doses to healthy organs should be investigated. Electron radiotherapy might offer interesting possibilities with this regard.RésuméLe cancer du sein affecte une femme sur huit au cours de sa vie. Grâce au dépistage précoce et à des thérapies de plus en plus efficaces, le taux de guérison a augmenté au cours du temps. La radiothérapie postopératoire joue un rôle important dans le traitement du cancer du sein en réduisant le taux de récidive et la mortalité. Malheureusement, la radiothérapie peut aussi induire des toxicités tardives chez les patients guéris. En particulier, les cancers secondaires radio-induits sont une complication rare mais sévère de la radiothérapie. En routine clinique, les plans de radiothérapie sont essentiellement optimisées pour un contrôle local le plus élevé possible tout en minimisant les réactions tissulaires tardives qui sont essentiellement associées avec des hautes doses (» 1 Gy). Toutefois, avec l'introduction de différentes nouvelles techniques et avec l'augmentation des taux de survie, il devient impératif d'évaluer et de minimiser les risques de cancer secondaire pour différentes techniques de traitement. Une telle évaluation du risque est une tâche ardue étant donné les nombreuses incertitudes liées à la relation dose-risque.Contrairement aux effets tissulaires, les cancers secondaires peuvent aussi être induits par des basses doses dans des organes qui se trouvent hors des champs d'irradiation. Ces organes reçoivent des doses périphériques typiquement inférieures à 1 Gy qui résultent du diffusé du patient et du diffusé de l'accélérateur. Ces doses sont difficiles à calculer précisément, mais les algorithmes Monte Carlo (MC) permettent de les estimer avec une bonne précision. Un modèle MC détaillé de l'accélérateur Primus de Siemens a été élaboré et validé avec des mesures. La précision de ce modèle a également été déterminée pour la reconstruction de dose en épidémiologie. Si on considère que les patients inclus dans de larges cohortes sont traités sur une variété de machines, l'incertitude dans la reconstruction de dose périphérique a été étudiée en fonction de la variabilité de la dose périphérique pour différents types d'accélérateurs. Pour de grands champs (> 10x10 cm ), l'incertitude est inférieure à 50%, mais pour de petits champs et des champs filtrés, l'incertitude de la dose peut monter jusqu'à un facteur 10. En conclusion, un tel modèle ne peut être utilisé que pour les traitements conventionnels utilisant des grands champs.Le modèle MC de l'accélérateur Primus a été utilisé ensuite pour déterminer la dose périphérique pour différentes techniques dans un fantôme corps entier basé sur des coupes CT d'une patiente. Les techniques actuelles utilisant des champs filtrés ou encore l'IMRT hybride ont été étudiées et comparées par rapport aux techniques plus anciennes. Les doses calculées par MC ont été comparées à celles obtenues d'un logiciel de planification commercial (TPS). Alors que le TPS est utilisé en routine pour déterminer la dose au sein contralatéral et au poumon ipsilatéral qui sont principalement hors des faisceaux, nous avons montré que ces doses peuvent être plus ou moins précises selon la technTque étudiée. Les calculs MC montrent que la technique IMRT est dosimétriquement équivalente à celle basée sur des champs filtrés à l'intérieur des champs de traitement, mais offre une réduction importante de la dose aux organes périphériques.Finalement différents modèles de risque ont été étudiés sur la base des distributions de dose calculées par MC. Les risques absolus et le rapport des risques entre deux techniques de traitement varient grandement, ce qui reflète les grandes incertitudes liées aux différents modèles de risque. Malgré ces incertitudes, on a pu montrer que la technique IMRT offrait une réduction du risque systématique par rapport aux autres techniques. En attendant des données épidémiologiques supplémentaires sur la relation dose-risque, toute technique offrant une réduction des doses périphériques aux organes sains mérite d'être étudiée. La radiothérapie avec des électrons offre à ce titre des possibilités intéressantes.
Resumo:
Introduction In my thesis I argue that economic policy is all about economics and politics. Consequently, analysing and understanding economic policy ideally has at least two parts. The economics part, which is centered around the expected impact of a specific policy on the real economy both in terms of efficiency and equity. The insights of this part point into which direction the fine-tuning of economic policies should go. However, fine-tuning of economic policies will be most likely subject to political constraints. That is why, in the politics part, a much better understanding can be gained by taking into account how the incentives of politicians and special interest groups as well as the role played by different institutional features affect the formation of economic policies. The first part and chapter of my thesis concentrates on the efficiency-related impact of economic policies: how does corporate income taxation in general, and corporate income tax progressivity in specific, affect the creation of new firms? Reduced progressivity and flat-rate taxes are in vogue. By 2009, 22 countries are operating flat-rate income tax systems, as do 7 US states and 14 Swiss cantons (for corporate income only). Tax reform proposals in the spirit of the "flat tax" model typically aim to reduce three parameters: the average tax burden, the progressivity of the tax schedule, and the complexity of the tax code. In joint work, Marius Brülhart and I explore the implications of changes in these three parameters on entrepreneurial activity, measured by counts of firm births in a panel of Swiss municipalities. Our results show that lower average tax rates and reduced complexity of the tax code promote firm births. Controlling for these effects, reduced progressivity inhibits firm births. Our reading of these results is that tax progressivity has an insurance effect that facilitates entrepreneurial risk taking. The positive effects of lower tax levels and reduced complexity are estimated to be significantly stronger than the negative effect of reduced progressivity. To the extent that firm births reflect desirable entrepreneurial dynamism, it is not the flattening of tax schedules that is key to successful tax reforms, but the lowering of average tax burdens and the simplification of tax codes. Flatness per se is of secondary importance and even appears to be detrimental to firm births. The second part of my thesis, which corresponds to the second and third chapter, concentrates on how economic policies are formed. By the nature of the analysis, these two chapters draw on a broader literature than the first chapter. Both economists and political scientists have done extensive research on how economic policies are formed. Thereby, researchers in both disciplines have recognised the importance of special interest groups trying to influence policy-making through various channels. In general, economists base their analysis on a formal and microeconomically founded approach, while abstracting from institutional details. In contrast, political scientists' frameworks are generally richer in terms of institutional features but lack the theoretical rigour of economists' approaches. I start from the economist's point of view. However, I try to borrow as much as possible from the findings of political science to gain a better understanding of how economic policies are formed in reality. In the second chapter, I take a theoretical approach and focus on the institutional policy framework to explore how interactions between different political institutions affect the outcome of trade policy in presence of special interest groups' lobbying. Standard political economy theory treats the government as a single institutional actor which sets tariffs by trading off social welfare against contributions from special interest groups seeking industry-specific protection from imports. However, these models lack important (institutional) features of reality. That is why, in my model, I split up the government into a legislative and executive branch which can both be lobbied by special interest groups. Furthermore, the legislative has the option to delegate its trade policy authority to the executive. I allow the executive to compensate the legislative in exchange for delegation. Despite ample anecdotal evidence, bargaining over delegation of trade policy authority has not yet been formally modelled in the literature. I show that delegation has an impact on policy formation in that it leads to lower equilibrium tariffs compared to a standard model without delegation. I also show that delegation will only take place if the lobby is not strong enough to prevent it. Furthermore, the option to delegate increases the bargaining power of the legislative at the expense of the lobbies. Therefore, the findings of this model can shed a light on why the U.S. Congress often practices delegation to the executive. In the final chapter of my thesis, my coauthor, Antonio Fidalgo, and I take a narrower approach and focus on the individual politician level of policy-making to explore how connections to private firms and networks within parliament affect individual politicians' decision-making. Theories in the spirit of the model of the second chapter show how campaign contributions from lobbies to politicians can influence economic policies. There exists an abundant empirical literature that analyses ties between firms and politicians based on campaign contributions. However, the evidence on the impact of campaign contributions is mixed, at best. In our paper, we analyse an alternative channel of influence in the shape of personal connections between politicians and firms through board membership. We identify a direct effect of board membership on individual politicians' voting behaviour and an indirect leverage effect when politicians with board connections influence non-connected peers. We assess the importance of these two effects using a vote in the Swiss parliament on a government bailout of the national airline, Swissair, in 2001, which serves as a natural experiment. We find that both the direct effect of connections to firms and the indirect leverage effect had a strong and positive impact on the probability that a politician supported the government bailout.
Resumo:
ABSTRACT Samuel Bendahan, John Antonakis, Christian Zehnder, and François Pralong The relationship between power and immoral decisions has been discussed extensively by scientists and philosophers alike. Although the exercise of power is ubiquitous in social hierarchies, direct evidence on the impact of power on decision making is scarce. We use laboratory experiments to study whether more power leads to corruption. We manipulate power in the context of leader decision-making authority involving monetary stakes. Prior to the experiment, we also gathered extensive data on psychological and endocrinological individual differences. We find that an increase of power caused leaders to be more likely to engage in destructive, selfish behaviour, although the same subjects did not behave in this manner before their level of power was increased. We also show how individual differences affect the initial level of destructive behaviour and the corruption process. WHAT'S RIGHT FOR THE LEFT MAY NOT BE RIGHT FOR THE RIGHT: VALUE CONGRUENCE AND CHARISMA IN POLITICAL LEADERSHIP Samuel Bendahan ABSTRACT Value congruence between leaders and followers is important not only for follower commitment but also as part of the attributions followers make of leaders. I theorized that transformational leadership, which often is referred to as being value driven and having strong moral foundations, has differential effects depending on the values of the follower and whether these values are congruent with what the leader espouses. I designed an experiment to analyze how the political values of followers and leaders can influence followers' attributions regarding leaders. Within the context of political leadership, I found that transformational leaders were seen as more prototypical. Value congruence predicted prototypicality, which was strongly related to follower intentions to vote for the leader. Furthermore, followers with left-wing political values were more influenced by prototypical leaders than were followers with right-wing political values, presumably because of moral overtones of both left-wing ideology and transformational leadership. JUDGING LEADERSHIP POTENTIAL IN AN INTERVIEW: MODERATING EFFECT OF INTERVIEWER INTELLIGENCE ON INTERVIEWER COGNITIVE BUSYNESS, CANDIDATE PERFORMANCE-CUES EFFECTS, AND CANDIDATE ETHNICITY Samuel Bendahan, Philippe Jacquart, and John Antonakis ABSTRACT A large body of literature suggests that interviewers do not accurately rate candidates when using unstructured interviews and evaluation procedures that affect pre-interview expectations; however, the process by which these biases are produced is not well understood. We theorized several reasons for the sub-par performance of the unstructured interview. These factors, which we manipulated in the context of a videotaped interview of a candidate applying for a leadership position, include evaluator cognitive load, pre-interview performance cues regarding the candidate, and the ethnicity of the candidate. We also controlled for the intelligence of the evaluator. We found a significant four-way interaction between the manipulated factors and evaluators' cognitive abilities. The effects of the manipulated factors were all significantly less for evaluators who were high on general intelligence.
Resumo:
Les monuments des jeux visibles dans toutes les provinces de l'Empire romain impressionnent touj us le visiteur. Sur la rive sud de la Méditerranée, honnis les sites de la Tunisie comme Carthage on Dougga facilement accessibles au public, les villes romaines d'Algérie on du Maroc sont souvent moïas bien connues.Dans le cadre de notre thèse de doctorat, nous avons étudié chaque édifice de spectacle (théâtre, amphithéâtre, cirque et stade) connu dans les Manrétanïes, ainsi que les spectacles et les cérémonies qui s'y déroulaient. L'implication des jeux dans l'adoption des moeurs romaines par la population était essentielle. Noos avons aussi recensé toutes les inscriptions et les objets (lampes à huile, statuettes, mosaïques) liés aux divertissements retrouvés dans ces provinces. La majeure partie de notre travail a consisté en une analyse des données publiées sur les monuments et les spectacles romains dans les Manrétanies. Nous les avons mises en regard de nos recherches sur le terrain et nous avons proposé de nouvelles interprétations lorsque cela était possible.Nous avons choisi de limiter notre travail aux Maurétanies romaines, car il n'existe aucune étude d'ensemble concernant les spectacles pour ces provinces. Elles formaient une entité particulière, comme royaume maurétanien avant la colonisation romaine, puis réunies à plusieurs reprises sous l'autorité d'un seul gouverneur sous l'Empire. Se concentrer sur un territoire permet de mieux saisir dans sa totalité le phénomène des spectacles et surtout les particularités architecturales. De plus, les Mauiétanies césarienne et tingitane posent souvent un problème d'intégration à l'Empire. L'implantation sur ces territoires s'est peu développée en profondeur, les légions protégeant une longue bande de terre située entre le limes et la Méditerranée qu'il n'était pas toujours simple de contrôler. Cependant les cités pré-romaines ont largement adopté les us et coutumes du nouveau pouvoir. Les raines, l'épigraphie et les fouilles archéologiques ne laissent aucun doute. Les éléments liés au divertissements et (dus particulièrement aux spectacles symbolisent le rayonnement culturel romain.À la fin de cette étude, nous avons accordé une place particulière aux monuments des jeux d'Afrique pour comparer et mieux comprendre les spécificités des édifices mauiétaniens à l'échelle de ce continent. La réflexion a été poursuivie à l'échelle de l'Empire romain, certaines caractéristiques mauritaniennes se retrouvant à des milliers de kilomètres. Nous avons essayé d'appréhender quelles relations les Maurétanies entretenaient avec le reste de l'Empire par le biais des spectacles et comment ces jeux ont fini par disparaître du territoire maurétanien.Cet ouvrage est divisé en deux parties : un volume de texte et un volume d'annexes. Dans le volume de texte, le premier chapitre est l'introduction générale. Nous détaillons les raisons de notre étude, les problématiques de cette recherche et les méthodes de travail utilisées. Le chapitre deux présente les cadres géographique, historique et sociologique. Le chapitre trois propose un lexique architectural savant à décrire chaque partie des monuments. Π retrace aussi l'origine et l'évolution des jeux romains et présente la répartition du public ainsi que le prix des bâtiments et des spectacles. Le répertoire des sites et des monuments des jeux maurétaniens constitue le chapitre quatre. 11 est subdivisé par provinces (Maurétanie césarienne, Maurétanie sit îenne et Maurétanie tîngitane), puisque la construction des monuments est liée à l'histoire provinciale. Les mosaïques et les objets reprenant les thèmes ludiques sont présentés selon loir lieu de découverte. Dans le chapitre dnq, nous étudions l'évolution historique et fonctionnelle des édifices de spectacle. Nous essayons de comprendre quels sont leurs sources ou leurs modèles architecturaux et comment ils ont influencé les populations locales. À la suite de la conclusion générale nous avons placé la liste des abréviations et la bibliographie.Au début du volume d'annexes se trouvent plusieurs catalogues : ceux des chapiteaux du théâtre et du cirque de Caesarea et ceux des lampes romaines à thèmes ludiques d'Algérie et du Maroc. Ensuite nous avons placé la restitution de plusieurs inscriptions, toutes les figures mentionnées dans le texte du premier volume, puis les listes des tableaux et des figures.
Resumo:
A gradual increase in Earth's surface temperatures marking the transition from the late Paleocene to early Eocene (55.8±0.2Ma), represents an extraordinary warming event known as Paleocene-Eocene Thermal Maximum (PETM). Both marine and continental sedimentary records during this period reveal evidences for the massive injection of isotopically light carbon. The carbon dioxide injection from multiple potential sources may have triggered the global warming. The importance of the PETM studies is due to the fact that the PETM bears some striking resemblances to the human-caused climate change unfolding today. Most notably, the culprit behind it was a massive injection of heat-trapping greenhouse gases into the atmosphere and oceans, comparable in volume to what our persistent burning of fossil fuels could deliver in coming centuries. The exact knowledge of what went on during the PETM could help us to foresee the future climate change. The response of the oceanic and continental environments to the PETM is different. Many factors might control the response of the environments to the PETM such as paleogeography, paleotopography, paleoenvironment, and paleodepth. To better understand the mechanisms triggering PETM events, two different environments were studied: 1) shallow marine to inner shelf environment (Wadi Nukhul, Sinai; and the Dababiya GSSP, Luxor, Egypt), and 2) terrestrial environments (northwestern India lignite mines) representing wetland, and fluvial environments (Esplugafreda, Spain) both highlighting the climatic changes observed in continental conditions. In the marine realm, the PETM is characterized by negative ö13Ccar and ô13Corg excursions and shifts in Ô15N to ~0%o values above the P/E boundary and persisting along the interval suggesting a bloom and high production of atmospheric N2-fixers. Decrease in carbonate contents could be due to dissolution and/or dilution by increasing detrital input. High Ti, K and Zr and decreased Si contents at the P/E boundary indicate high weathering index (CIA), which coincides with significant kaolinite input and suggests intense chemical weathering under humid conditions at the beginning of the PETM. Two anoxic intervals are observed along the PETM. The lower one may be linked to methane released from the continental shelf with no change in the redox proxies, where the upper anoxic to euxinic conditions are revealed by increasing U, Mo, V, Fe and the presence of small size pyrite framboids (2-5fim). Productivity sensitive elements (Cu, Ni, and Cd) show their maximum concentrated within the upper anoxic interval suggesting high productivity in surface water. The obtained data highlight that intense weathering and subsequent nutrient inputs are crucial parameters in the chain of the PETM events, triggering productivity during the recovery phase. In the terrestrial environments, the establishment of wetland conditions and consequence continental climatic shift towards more humid conditions led to migration of modern mammals northward following the extension of the tropical belts. Relative ages of this mammal event based on bio-chemo- and paleomagnetic stratigraphy support a migration path originating from Asia into Europe and North America, followed by later migration from Asia into India and suggests a barrier to migration that is likely linked to the timing of the India-Asia collision. In contrast, at Esplugafereda, northeastern Spain, the terrestrial environment reacted differently. Two significant S13C shifts with the lower one linked to the PETM and the upper corresponding to the Early Eocene Thermal Maximum (ETM2); 180/160 paleothermometry performed on two different soil carbonate nodule reveal a temperature increase of around 8°C during the PETM. The prominent increase in kaolinite content within the PETM is linked to increased runoff and/or weathering of adjacent and coeval soils. These results demonstrate that the PETM coincides globally with extreme climatic fluctuations and that terrestrial environments are very likely to record such climatic changes. - La transition Paléocène-Eocène (55,8±0,2 Ma) est marquée par un réchauffement extraordinaire communément appelé « Paleocene-Eocene Thermal Maximum » (PETM). Les données géochimiques caractérisant les sédiments marins et continentaux de cette période indiquent que ce réchauffement a été déclenché par une augmentation massive de CO2 lié à la déstabilisation des hydrates de méthane stockés le long des marges océaniques. L'étude des événements PETM constitue donc un bon analogue avec le réchauffement actuel. Le volume de CO2 émis durant le PETM est comparable avec le CO2 lié à l'activité actuelle humaine. La compréhension des causes du réchauffement du PETM peut être cruciale pour prévoir et évaluer les conséquences du réchauffement anthropogénique, en particulier les répercussions d'un tel réchauffement sur les domaines continentaux et océaniques. De nombreux facteurs entrent en ligne de compte dans le cas du PETM, tels que la paléogéographie, la paléotopographie et les paléoenvironnement. Pour mieux comprendre les réponses environnementales aux événements du PETM, 2 types d'environnements ont été choisis : (1) le domaine marin ouvert mais relativement peu profond (Wadi Nukhul. Sinai, Dababiya, Luxor, Egypte), (2) le milieu continental marécageux humide (mines de lignite, Inde) et fluviatile, semi-aride (Esplugafreda, Pyrénées espagnoles). Dans le domaine marin, le PETM est caractérisé par des excursions négatives du ô13Ccar et ô13Corg et un shift persistant des valeurs de 815N à ~ 0 %o indiquant une forte activité des organismes (bactéries) fixant l'azote. La diminution des carbonates observée durant le PETM peut-être due à des phénomènes de dissolution ou une augmentation des apports terrigènes. Des taux élevés en Ti, K et Zr et une diminution des montants de Si, reflétés par des valeurs des indices d'altération (CIA) qui coïncident avec une augmentation significative des apports de kaolinite impliquent une altération chimique accrue, du fait de conditions plus humides au début du PETM. Deux événements anoxiques globaux ont été mis en évidence durant le PETM. Le premier, situé dans la partie inférieur du PETM, serait lié à la libération des hydrates de méthane stockés le long des talus continentaux et ne correspond pas à des variations significatives des éléments sensibles aux changements de conditions redox. Le second est caractérisé par une augmentation des éléments U, Mo, V et Fe et la présence de petit framboids de pyrite dont la taille varie entre 2 et 5pm. Le second épisode anoxique est caractérisé par une forte augmentation des éléments sensibles aux changements de la productivité (Cu, Ni et Co), indiquant une augmentation de la productivité dans les eaux de surface. Les données obtenues mettent en évidence le rôle crucial joué par l'altération et les apports en nutriments qui en découlent. Ces paramètres sont cruciaux pour la succession des événements qui ont conduit au PETM, et plus particulièrement l'augmentation de la productivité dans la phase de récupération. Durant le PETM, le milieu continental est caractérisé par l'établissement de conditions humides qui ont facilité voir provoqué la migration des mammifères modernes qui ont suivi le déplacement de ces ceintures climatiques. L'âge de cette migration est basé sur des arguments chimiostratigraphiques (isotopes stables), biostratigraphiques et paléomagnétiques. Les données bibliographiques ainsi que celles que nous avons récoltées en Inde, montrent que les mammifères modernes ont d'abord migré depuis l'Asie vers l'Europe, puis dans le continent Nord américain. Ces derniers ne sont arrivés en Inde que plus tardivement, suggérant que le temps de leur migration est lié à la collision Inde-Asie. Dans le Nord-Est de l'Espagne (Esplugafreda), la réponse du milieu continental aux événements PETM est assez différente. Comme en Inde, deux excursions signicatives en ô13C ont été observées. La première correspond au PETM et la seconde est corrélée avec l'optimum thermique de l'Eocène précoce (ETM2). Les isotopes stables de l'oxygène mesurés 2 différents types de nodules calcaires provenant de paléosols suggère une augmentation de 10°C pendant le PETM. Une augmentation simultanée des taux de kaolinite indique une intensification de l'altération chimique et/ou de l'érosion de sols adjacents. Ces résultats démontrent que le PETM coïncide globalement avec des variations climatiques extrêmes qui sont très aisément reconnaissables dans les dépôts continentaux.
Resumo:
This doctoral dissertation aims at describing the representation of holy harlots (Mary Magdalene, Mary of Egypt, Pelagia, Thai's, Afra of Augsburg) in medieval English hagiography. These saints are unique representatives that combine both extremes of the feminine in the medieval imaginaire: she is both, as a saint, the Virgin Mary, the pure and virtuous woman, and, in her past as a prostitute, Eve, the evil female tempter who led all mankind to destruction. The initial question of this thesis is how did hagiographers negotiate the representation of a formerly sinful, sexually active, long- living woman as an authoritative saint? This thesis aims at finding elements of answer to this question, investigating the intersections between gender and authority in the saints' lives of repentant prostitutes in all the vernaculars of medieval England: Old English, Anglo-Norman, and Middle English. It posits that the portrayal of holy harlots' authority and gender is dependent upon social, religious and literary shifts during the medieval period. My contention is that the harlot's gender portrayal changes over the course of the eleventh and twelfth centuries, due notably to the rise of affective piety and the important influence of the romance genre over hagiography. In Anglo-Saxon England, the harlot's gender changes with the saint's conversion: a woman beforehand, her gender is portrayed after her repentance as ambiguous in order for her to become a saint. Her authority derives from her own sanctity in this case. From the twelfth century onward, however, the harlot, now often turned into a beautiful and landed romance lady, is more and more represented as a woman throughout her life, and becomes after her conversion a Bride of Christ. In this way, the dangerously free woman who roamed the streets and prostituted her body becomes less threatening after her conversion, being (re-)inscribed within the male dominated institution of marriage. She now draws her authoritative stance from her gendered intimacy with Christ: although she submits to Christ as his bride, she also gains greater authority than before by way of her privileged relationship with the Savior.
Resumo:
Résumé Le μ-calcul est une extension de la logique modale par des opérateurs de point fixe. Dans ce travail nous étudions la complexité de certains fragments de cette logique selon deux points de vue, différents mais étroitement liés: l'un syntaxique (ou combinatoire) et l'autre topologique. Du point de vue syn¬taxique, les propriétés définissables dans ce formalisme sont classifiées selon la complexité combinatoire des formules de cette logique, c'est-à-dire selon le nombre d'alternances des opérateurs de point fixe. Comparer deux ensembles de modèles revient ainsi à comparer la complexité syntaxique des formules as¬sociées. Du point de vue topologique, les propriétés définissables dans cette logique sont comparées à l'aide de réductions continues ou selon leurs positions dans la hiérarchie de Borel ou dans celle projective. Dans la première partie de ce travail nous adoptons le point de vue syntax¬ique afin d'étudier le comportement du μ-calcul sur des classes restreintes de modèles. En particulier nous montrons que: (1) sur la classe des modèles symétriques et transitifs le μ-calcul est aussi expressif que la logique modale; (2) sur la classe des modèles transitifs, toute propriété définissable par une formule du μ-calcul est définissable par une formule sans alternance de points fixes, (3) sur la classe des modèles réflexifs, il y a pour tout η une propriété qui ne peut être définie que par une formule du μ-calcul ayant au moins η alternances de points fixes, (4) sur la classe des modèles bien fondés et transitifs le μ-calcul est aussi expressif que la logique modale. Le fait que le μ-calcul soit aussi expressif que la logique modale sur la classe des modèles bien fondés et transitifs est bien connu. Ce résultat est en ef¬fet la conséquence d'un théorème de point fixe prouvé indépendamment par De Jongh et Sambin au milieu des années 70. La preuve que nous donnons de l'effondrement de l'expressivité du μ-calcul sur cette classe de modèles est néanmoins indépendante de ce résultat. Par la suite, nous étendons le langage du μ-calcul en permettant aux opérateurs de point fixe de lier des occurrences négatives de variables libres. En montrant alors que ce formalisme est aussi ex¬pressif que le fragment modal, nous sommes en mesure de fournir une nouvelle preuve du théorème d'unicité des point fixes de Bernardi, De Jongh et Sambin et une preuve constructive du théorème d'existence de De Jongh et Sambin. RÉSUMÉ Pour ce qui concerne les modèles transitifs, du point de vue topologique cette fois, nous prouvons que la logique modale correspond au fragment borélien du μ-calcul sur cette classe des systèmes de transition. Autrement dit, nous vérifions que toute propriété définissable des modèles transitifs qui, du point de vue topologique, est une propriété borélienne, est nécessairement une propriété modale, et inversement. Cette caractérisation du fragment modal découle du fait que nous sommes en mesure de montrer que, modulo EF-bisimulation, un ensemble d'arbres est définissable dans la logique temporelle Ε F si et seulement il est borélien. Puisqu'il est possible de montrer que ces deux propriétés coïncident avec une caractérisation effective de la définissabilité dans la logique Ε F dans le cas des arbres à branchement fini donnée par Bojanczyk et Idziaszek [24], nous obtenons comme corollaire leur décidabilité. Dans une deuxième partie, nous étudions la complexité topologique d'un sous-fragment du fragment sans alternance de points fixes du μ-calcul. Nous montrons qu'un ensemble d'arbres est définissable par une formule de ce frag¬ment ayant au moins η alternances si et seulement si cette propriété se trouve au moins au n-ième niveau de la hiérarchie de Borel. Autrement dit, nous vérifions que pour ce fragment du μ-calcul, les points de vue topologique et combina- toire coïncident. De plus, nous décrivons une procédure effective capable de calculer pour toute propriété définissable dans ce langage sa position dans la hiérarchie de Borel, et donc le nombre d'alternances de points fixes nécessaires à la définir. Nous nous intéressons ensuite à la classification des ensembles d'arbres par réduction continue, et donnons une description effective de l'ordre de Wadge de la classe des ensembles d'arbres définissables dans le formalisme considéré. En particulier, la hiérarchie que nous obtenons a une hauteur (ωω)ω. Nous complétons ces résultats en décrivant un algorithme permettant de calculer la position dans cette hiérarchie de toute propriété définissable.