169 resultados para calculs théoriques
Resumo:
Avant même d'entamer ma recherche de sujet pour le travail de maîtrise, j'avais déjà une certitude: je souhaitais choisir un thème qui m'intéressait, certes, mais surtout qui arriverait à me passionner, de façon à pouvoir y mettre toute mon énergie. Le choix initial de m'orienter vers ma future spécialité, la psychiatrie, s'est vite confirmé, et un rayon de l'IUMG en particulier a très rapidement attiré ma curiosité: celui de l'ethnopsychiatrie. Pour le choix du thème de ce travail, mon expérience de vie, suite à un mariage mixte, et mon inté- rêt pour les migrants, ont compté, ainsi que les nombreux stages effectués en milieux multicultu- rels et ma probable future orientation en psychiatrie systémique. Face à l'augmentation de la migration et des déplacements des populations et des individus ainsi qu'aux mélanges interculturels qui en résultent, les recherches transculturelles connaissent, depuis quelques années, un développement important: ceci est valable en psychiatrie, en psychopathologie comme en psychothérapie. Pendant mes stages, j'ai remarqué que l'accueil et la prise en charge des personnes étrangères sont une possibilité, pour les professionnels issus de tous les domaines, que ce soit d'un milieu médico- psychologique, social ou éducatif, de remettre en cause les méthodes théoriques et techniques habi- tuelles. En effet, dès que l'on est amené à s'occuper de personnes d'une culture différente de la nô- tre, une partie de nos théories, de notre manière d'intervention clinique et de nos principes de for- mation se trouve forcément remise en question. Le choix de mieux connaître et proposer cette nouvelle discipline par un travail de master s'est basé également en fonction de l'ampleur du parcours historique que l'ethnopsychiatrie nous permettait d'explorer. Par mon travail, j'ai donc essayé de retracer le parcours socio-historique de l'ethnopsychiatrie de- puis ses origines. Cela n'a pas été facile car, même si théoriquement cette discipline s'est dévelop- pée aux alentours du début du XXe siècle, entre l'Europe et les lieux où l'Occident élargissait son domaine, il n y a pas unanimité sur un fondateur précis. Cependant, à plusieurs reprises, Emil Kraepelin est cité comme le fondateur de cette discipline, et c'est pour cette raison que j'ai décidé de focaliser mon attention sur ce grand psychiatre, pour es- sayer de comprendre pourquoi plusieurs auteurs le considèrent comme le père de l'ethnopsychia- trie. Pour ce faire, dans une première partie, ma recherche a donc consisté en une revue de la littérature médicale spécialisée. 4 Je me suis basée tout d'abord sur des sources primaires, en cherchant des articles écrits par Kraepe- lin lui-même, consultant principalement les revues germanophones et anglo-saxonnes susceptibles d'avoir publié ses articles. J'ai également consulté un choix de traités de psychiatrie qu'il a publié. Dans la deuxième partie de mes recherches, j'ai passé en revue la littérature secondaire, en me ba- sant sur des articles qui ont été écrits sur lui par différents auteurs, psychiatres et historiens. La thè- se du Dr. Christoph Bendick a été utilisée en particulier: «Emil Kraepelin's Forschungsreise nach Java», a été un outil précieux pour retrouver aussi bien des récits primaires inédits du psychiatre que maintes sources de littérature secondaire. En analysant cette littérature, j'ai essayé de dégager les principaux thèmes d'évolution entre le XIXe et le XXe siècle, en cherchant en parallèle d'éventuelles répercussions des travaux de psy- chiatrie comparée du médecin allemand sur la postérité, ainsi que sur la psychiatrie moderne. En progressant dans mon travail, je me suis pertinemment posé la question suivante: Kraepelin était-il vraiment le premier qui se fut intéressé à une psychiatrie « exotique » ou, au contraire, l'ambition de comparer la folie occidentale à des peuples et civilisations étrangers avait-elle déjà commencé bien avant lui ? Aurait-il apporté quelque chose de différent dans sa recherche, qui nous permettrait aujourd'hui de lui attribuer le statut de fondateur de l'ethnopsychiatrie ? Afin d'essayer de répondre à cette réflexion, ma méthodologie a consisté en un dépouillement d'une célèbre revue de psychiatrie française, Les annales médico-psychologiques, depuis le premier numéro paru en 1843 jusqu'à l'aube de la deuxième guerre mondiale, à la recherche d'articles trai- tant de la folie exotique. Pour accomplir cette tâche, un article de R. Collignon, psychologue-anthropologue travaillant sur l'histoire de la psychiatrie en Afrique, m'a été d'une aide très précieuse. Ce texte, paru dans la re- vue Psychopathologie Africaine, qui répertorie tous les articles traitants de la psychiatrie coloniale, m'a évité de devoir analyser personnellement toute la collection des A.M.P., ce qui a permis un gain de temps considérable. Une analyse approfondie de cette littérature m'a permis de me forger une idée sur la question et de dégager en même temps, dans la troisième partie du travail, les principaux thèmes d'évolution en ethnopsychiatrie entre le XIXe et le XXe siècle. Finalement, en disséquant les théories d'un autre auteur qui s'est passionné pour l'ethnopsychiatrie, le psychanalyste Georges Devereux, considéré également comme le fondateur de cette discipline, j'ai essayé de comprendre les changements qui se sont opérés dans ce domaine pendant la période qui les sépare. Un regard particulier a été porté sur les possibles répercussions de l'ancienne eth- nopsychiatrie, de connotation coloniale, sur une ethnopsychiatrie plus «moderne», laquelle, suite aux travaux de Devereux, a évolué depuis quelques années surtout dans les domaines des études de la migration et de l'intégration. 5 Cette ethnopsychiatrie contemporaine inclut aujourd'hui des phénomènes uniques attribués à une origine culturelle qui, depuis 1995, sont regroupés dans le DSM IV sous le nom de Culture-Bound Syndromes. Ce travail de master esquisse donc un double mouvement: Europe-Occident, Occident-Europe. Sur ce chemin, aux alentours de 1900, sont posés les premières grandes lignes et récits d'une ethnopsy- chiatrie, née en un premier temps entre l'Europe et ses colonies et ensuite entre l'Europe et le reste du monde.
Resumo:
Résumé I. Introduction La présente étude analyse les conflits entre les autorités nationales de concurrence dans le cas de figure où plusieurs autorités examinent en même temps la convergence d'une opération de concentration avec leur droit de concentration respectif. Tandis que le débat concernant le contrôle parallèle des opérations de concentration internationales est aujourd'hui extrêmement vif, la recherche fondamentale sur ce sujet n'a pas encore beaucoup avancé. Cependant il y a un besoin de réforme évident, un besoin au centre duquel se situe une réflexion sur l'organisation du droit de concurrence international. Le but de cette étude est donc de fournir une vue d'ensemble des conflits possibles entre les autorités nationales de concurrence en matière politique, économique et juridique (matérielle et procédurale) causés par une opération de concentration internationale. L'objectif n'est pas de fournir une évaluation des différents systèmes de contrôle de concentration, mais plutôt de chercher la source des conflits. Par ailleurs, l'analyse qui suit insistera sur la nécessité d'une solution internationale de ces conflits. II. Arrière-plan Depuis plusieurs décennies, les relations économiques internationales entre les Etats et les entreprises ont été profondément marquées par un processus dynamique de globalisation et de libéralisation. La libéralisation a engendré une croissance énorme du commerce mondial. En conséquence, les entreprises ont développé des stratégies globales pour arriver à une croissance durable. Ainsi, le nombre et la taille des entreprises internationales a constamment augmenté. À cause de cette présence globale des entreprises, les anciens marchés nationaux ou régionaux sont devenus des marchés globaux. Dans le cadre de la libéralisation économique, beaucoup d'Etats ainsi que l'Union Européenne ont reconnu que la concurrence est le moyen approprié pour faire progresser l'innovation et la croissance économique. Il faut donc maintenir et développer les structures de concurrence. Pour cela, il faut surveiller dans le cadre du droit de contrôle international toutes les pratiques concertées dont l'objet ou l'effet serait de restreindre la concurrence, ainsi que les abus d'une position dominante ou les opérations de concentration d'entreprises. Jusqu'à présent, sur environ 200 Etats souverains existants au monde, une bonne centaine ainsi que l'Union Européenne (l'UE) ont développé un droit de concurrence. Et parmi ces Etats, 75 environ ont créé un droit de contrôle de concentration. Mais ces règles nationales ne sont pas toujours appropriées au regard de l'économie mondiale. On constate plutôt que ,,l'internationalisation croissante des marchés [...] n'a pas été suivie d'une internationalisation parallèle de la politique de concurrence". Par ailleurs, un grand nombre d'Etats appliquent leur droit de concurrence également en dehors de leur propre territoire afin de contrôler les abus à l'étranger. Même si on peut comprendre ce besoin de contrôle, cette évolution risque de provoquer des conflits avec les législations des autres Etats concernés. D'autres difficultés naissent des différences théoriques ou pratiques des systèmes du droit de la concurrence ou de régulations divergentes du point de vue matériel et procédural. Même sur la base de règles comparables, des divergences apparaissent à cause de différentes méthodes d'interprétation ou d'application. La communauté internationale s'emploie à combattre toutes les barrières au commerce transnational -notamment dans le cadre de l'Organisation Mondiale du Commerce (OMC). Mais si elle néglige de lutter en même temps contre les barrières commerciales établies par les entreprises elles-mêmes, elle risque de perdre les gains d'efficacité et de bien public déjà acquis par la suppression des barrières commerciales publiques. Car certaines actions des entreprises privées, comme l'exclusion ou la répartition mutuelle du marché, peuvent aussi bien conduire à des restrictions de la concurrence que les barrières commerciales publiques, tarifaires ou non-tarifaires, et peuvent même s'y substituer. III. Plan de l'étude Après l'Introduction, la partie B traite de la coopération de l'Union Européenne avec les Etats-Unis en matière du droit de la concurrence. En effet, les accords bilatéraux entre l'UE et les Etats-Unis montrent les possibilités et les limites d'une telle coopération. Les conflits entre les autorités de concurrence résultent de la mondialisation croissante et de l'intensification de la concurrence qui en découle. Aussi, ces conflits ne sont pas seulement d'ordre théorique mais également d'une grande importance pratique comme le montre l'analyse des deux cas dans la partie C. Les autorités de concurrence des Etats-Unis et de l'Union Européenne ont chacun de leur côté examiné la fusion des entreprises Boeing Corporation et McDonnell Douglas Corporation (MDD), ainsi que le projet de fusion entre Honeywell International Inc. (Honeywell) et General Electric Co. (GE). Or, ces deux procédures sont paradigmatiques en ce qui concerne la sensibilité politique des autorités de concurrence et les limites de la coopération bilatérale. Après ces analyse de cas, la partie D qui compare le droit de contrôle de concentration aux Etats-Unis et en Europe et examine les conflits éventuels entre les deux systèmes constitue la partie principale de l'étude. Les sources de ces conflits peuvent être aussi bien trouvées dans le droit matériel que dans le droit procédural, tout comme dans les différences d'orientation politique générale des deux systèmes. La partie E montre les différentes solutions qui ont été proposées dans ce cadre. Ensuite, ces propositions sont comparées avec celles concernant l'harmonisation des politiques de concurrence et de contrôle de concentrations. Sur la base de ces résultats, une proposition de solution montrant les premiers pas nécessaires pour résoudre les conflits existants entre les autorités de concurrence est présentée. IV. Résumé des conflits L'étude aboutit à la constatation que presque tous les aspects du contrôle des concentrations constituent un important potentiel de conflits. Celui-ci est d'ailleurs bien plus important que l'on ne pourrait penser au w des lois applicables. La complexité du droit de la concurrence provoque nécessairement des conflits. Mais il faut également tenir compte des différences fondamentales concernant les objectifs politiques des Etats, les formes d'institutionnalisation des autorités de concurrence et la prise en considération des pays en développement ou des pays émergents. Les différences purement juridiques accroissent le potentiel de conflits entre les Etats et empêchent une intensification de la coopération. Cela est notamment vrai pour la définition de la concentration, l'application extraterritoriale du droit national, la notification obligatoire et ses seuils fixés. Concernant le droit matériel, les conflits se situent dans les domaines de la délimitation du marché, le critère d'incompabilité, l'analyse économique, la prise en compte des gains d'efficacité, l'importance de la concentration de sauvetage ainsi que de l'application du principe de ,,comity of nations". Du point de we du droit procédural, les différences d'inscription obligatoire et d'interdiction partielle de l'accomplissement consécutif donnent autant également lieu à des conflits potentiels que les différences de méthode d'investigation et d'exécution des décisions publiques. Il en va de même pour les différents remèdes ou les sanctions prévues pour le mépris des décisions des autorités ou des tribunaux et la position des parties tierces dans la procédure est également un facteur de conflit. Enfin, il faut mentionner le manque de transparence qui nuit à la sécurité juridique. L'application arbitraire du droit, le protectionnisme, le mercantilisme ainsi que le manque de sécurité juridique augmentent le danger de conflits interétatiques. La coopération entre les Etats-Unis et l'Union Européenne sur la base de l'accord de 1991 n'a pas vraiment réduit ce potentiel de conflits. Cela s'est notamment avéré au moment des projets de fusion entre GE et Honeywell et de la reprise de MDD par Boeing. V. Les possibilités d'harmonisation Aussi bien la nécessité que la faisabilité d'une harmonisation globale du droit de la concurrence et d'une politique de la concurrence sont encore très discutés. La plupart des débats tournent plutôt autour de l'arrangement concret d'un tel droit harmonisé que de l'objectif général d'une harmonisation. Quelques Etats comme les Etats-Unis redoutent une trop grande perte de souveraineté et veulent par conséquent maintenir leur méthode unilatérale et extraterritoriale. Cependant, la plupart des experts des organisations internationales comme ceux des autorités de concurrence et du public intéressé approuvent l'idée d'un droit de concurrence international. Etant donné la gravité de certains conflits, de nombreux Etats et un grand nombre de juristes perçoivent la nécessité de développer la conscience d'une indispensable harmonisation, et un accord sur ce plan semble parfaitement possible. Parmi ceux qui soutiennent cet accord l'on trouve presque tous les Etats membres de l'Organisation de coopération et de développement économiques (l'OCDE), de nombreux Etats membres de l'OMC, de l'Organisations des nations unies (l'ONU) et de l'Accord de libre-échange nord-américain (l'ALENA), particulièrement les Etats de l'UE, l'Australie, le Japon, le Canada, le Mexique, la Nouvelle Zélande et quelques représentants des autorités de concurrence des Etats-Unis. La méthode la plus efficace et raisonnable pour lutter contre les obstacles privés à la concurrence est la coopération et la coordination globale des mécanismes de contrôle. Les forums et les structures nécessaires pour la préparation d'une telle tâche existent déjà. Ainsi, le cadre institutionnel éprouvé de l'OMC pourra faire progresser le processus d`harmonisation. Il faudrait simplement élargir les compétences de l'OMC pour garantir un contrôle international efficace. L'harmonisation sur le plan international serait plus efficace qu'une harmonisation unilatérale ou bilatérale. La flexibilité d'un accord international pourrait être garanti par 1"insertion de cet accord dans le Mémorandum d'accords commerciaux plurilatéraux (Annexe 4) de l'OMC. Ainsi, cet accord ne serait obligatoire que pour les Etats membres qui l'auraient déjà approuvé séparément. Les autres Etats auraient la possibilité de le signer plus tard. En cas de conflits dans le cadre de l'application de cet accord, on pourrait se servir du mécanisme d'arbitrage de l'OMC. Il faudrait également créer une autorité internationale de concurrence et un comité spécial international de concurrence. Un tel accord de l'OMC ne constitue qu'un premier pas. Les exigences minimales de l'accord doivent être renforcées et régulièrement ajustées à l'évolution et aux nouvelles données de l'économie mondiale. Ainsi, le processus d'harmonisation internationale sera l'objet d'une dynamique permanente. VI. Résultats et conclusions L'étude a montré que l'application parallèle des droits nationaux de concurrence est une importante source de conflits. Elle a surtout mis l'accent sur les relations entre les Etats-Unis et l'Union Européenne. Il est d'ailleurs très probable que ce genre de conflits augmente encore dans le futur. En 2000, l'activité mondiale des fusions et acquisitions a eu un volume de 3 billions de dollars Anglo-américains. Cela équivaut à une multiplication par onze du volume de 1991. En 2001, par contre, le volume a de nouveau baissé à 1,6 billions de dollars Anglo-américains. Mais selon les pronostics, le nombre des concentrations va à nouveau augmenter considérablement dans les prochaines années. Cette vague de concentrations internationales est la conséquence de l'intensification mondiale des relations économiques transnationales. Cette évolution va se poursuivre pour autant que les barrières commerciales publiques continuent à être démantelées, que le renforcement de la dérégularisation ouvre de nouveaux marchés à la compétition, que de plus en plus de standards techniques soient harmonisés et que les transports et la communication internationale soient améliorés et moins couteux. Enfin, la consolidation de certains secteurs économiques à la suite de fusions déjà réalisées encourage de plus en plus les entreprises à fusionner sur le plan international et dans des dimensions de plus en plus grandes. Outre les conflits engendrés par les différentes législations nationales, il faut également mentionner les oppositions qui résultent d'une façon indirecte de la compétition entre les différentes autorités de contrôle. Ainsi, par exemple, les conséquences économiques et financières d'un retard dans la procédure de contrôle ou les sanctions importantes imposées aux entreprises concernées sont souvent le sujet de discussions et de conflits politiques. Dans ce cadre, il faut souligner qu'en réalité le droit de concurrence ainsi que le droit de contrôle de concentrations ne vise pas seulement une politique de concurrence mais également la politique industrielle et générale. La diversité de ces différentes visées politiques provoque nécessairement des conflits politiques. La solution présentée à la fin de ce travail voudrait proposer une application efficace du droit de contrôle de concentration sur le plan international. A la base de cette efficacité il y a aurait notamment: L'encouragement d'une politique de concurrence au sein des Etats qui n'ont pas encore développé un droit de concurrence ou qui ne l'exécutent pas d'une manière suffisante. L'encouragement de la concurrence et des concentrations positives améliorant la situation compétitive. La simplification de la coopération des autorités de concurrence. L'accélération des procédures et des décisions. La garantie de la sécurité juridique. La diminution des conflits politiques. L'encouragement d'une amélioration globale du bien public qui est à la base de toute politique commerciale. Ces objectifs ne peuvent être atteints que si le protectionnisme national est battu en brêche et si des systèmes de contrôle international sont installés. Les intérêts des Etats doivent refléter les nouvelles dimensions de l'économie globale qui ne s'arrête pas aux frontières nationales. Pour cela il leur faut accepter certaines pertes de souveraineté et tolérer certaines infractions aux règles internationales de la non-ingérence. Les intérêts nationaux doivent s'ajuster à l'économie mondiale et aux intérêts des autres Etats. Bien entendu, tant que la divergence actuelle entre les marchés internationaux et les systèmes de contrôle nationaux persiste, une amélioration de la situation est peu probable. Pour que cela soit possible, il faudrait une législation qui reflète les nouvelles dimensions de l'économie et ses effets transnationaux et qui, en même temps, augmente et assure une concurrence efficace. Une telle stratégie aiderait non seulement les autorités de concurrence et les Etats mais également tout particulièrement les consommateurs et les entreprises. Car une telle concurrence efficace engendre des entreprises plus efficaces, des produits améliorés, un choix plus grand et des prix plus bas. En fin de compte, un tel effet de bien public diminuerait aussi le risque de conflits interétatiques. Dans le cadre de la consolidation et de l'amélioration des structures juridiques du système de l'OMC, il serait essentiel que les institutions et la méthode d'arbitrage de l'OMC inspirent suffisamment confiance à la communauté internationale des Etats. Car c'est seulement sur la base d'une telle confiance et avec la volonté des Etats de faire un pas décisif en faveur d'un commerce mondial plus libre et plus loyal qu'un projet aussi ambitieux est réalisable. Il est donc essentiel que les responsables réalisent enfin les projets d'harmonisation et de coopération renforcées qu'ils ont si souvent annoncés. En tous cas, une forte ,,dynamique du processus d'harmonisation" sera nécessaire pour progresser sur le terrain de l'harmonisation internationale de la politique de la concurrence. Berlin, 17/08/2006 Florens Girardet
Resumo:
Les catastrophes sont souvent perçues comme des événements rapides et aléatoires. Si les déclencheurs peuvent être soudains, les catastrophes, elles, sont le résultat d'une accumulation des conséquences d'actions et de décisions inappropriées ainsi que du changement global. Pour modifier cette perception du risque, des outils de sensibilisation sont nécessaires. Des méthodes quantitatives ont été développées et ont permis d'identifier la distribution et les facteurs sous- jacents du risque.¦Le risque de catastrophes résulte de l'intersection entre aléas, exposition et vulnérabilité. La fréquence et l'intensité des aléas peuvent être influencées par le changement climatique ou le déclin des écosystèmes, la croissance démographique augmente l'exposition, alors que l'évolution du niveau de développement affecte la vulnérabilité. Chacune de ses composantes pouvant changer, le risque est dynamique et doit être réévalué périodiquement par les gouvernements, les assurances ou les agences de développement. Au niveau global, ces analyses sont souvent effectuées à l'aide de base de données sur les pertes enregistrées. Nos résultats montrent que celles-ci sont susceptibles d'être biaisées notamment par l'amélioration de l'accès à l'information. Elles ne sont pas exhaustives et ne donnent pas d'information sur l'exposition, l'intensité ou la vulnérabilité. Une nouvelle approche, indépendante des pertes reportées, est donc nécessaire.¦Les recherches présentées ici ont été mandatées par les Nations Unies et par des agences oeuvrant dans le développement et l'environnement (PNUD, l'UNISDR, la GTZ, le PNUE ou l'UICN). Ces organismes avaient besoin d'une évaluation quantitative sur les facteurs sous-jacents du risque, afin de sensibiliser les décideurs et pour la priorisation des projets de réduction des risques de désastres.¦La méthode est basée sur les systèmes d'information géographique, la télédétection, les bases de données et l'analyse statistique. Une importante quantité de données (1,7 Tb) et plusieurs milliers d'heures de calculs ont été nécessaires. Un modèle de risque global a été élaboré pour révéler la distribution des aléas, de l'exposition et des risques, ainsi que pour l'identification des facteurs de risque sous- jacent de plusieurs aléas (inondations, cyclones tropicaux, séismes et glissements de terrain). Deux indexes de risque multiples ont été générés pour comparer les pays. Les résultats incluent une évaluation du rôle de l'intensité de l'aléa, de l'exposition, de la pauvreté, de la gouvernance dans la configuration et les tendances du risque. Il apparaît que les facteurs de vulnérabilité changent en fonction du type d'aléa, et contrairement à l'exposition, leur poids décroît quand l'intensité augmente.¦Au niveau local, la méthode a été testée pour mettre en évidence l'influence du changement climatique et du déclin des écosystèmes sur l'aléa. Dans le nord du Pakistan, la déforestation induit une augmentation de la susceptibilité des glissements de terrain. Les recherches menées au Pérou (à base d'imagerie satellitaire et de collecte de données au sol) révèlent un retrait glaciaire rapide et donnent une évaluation du volume de glace restante ainsi que des scénarios sur l'évolution possible.¦Ces résultats ont été présentés à des publics différents, notamment en face de 160 gouvernements. Les résultats et les données générées sont accessibles en ligne (http://preview.grid.unep.ch). La méthode est flexible et facilement transposable à des échelles et problématiques différentes, offrant de bonnes perspectives pour l'adaptation à d'autres domaines de recherche.¦La caractérisation du risque au niveau global et l'identification du rôle des écosystèmes dans le risque de catastrophe est en plein développement. Ces recherches ont révélés de nombreux défis, certains ont été résolus, d'autres sont restés des limitations. Cependant, il apparaît clairement que le niveau de développement configure line grande partie des risques de catastrophes. La dynamique du risque est gouvernée principalement par le changement global.¦Disasters are often perceived as fast and random events. If the triggers may be sudden, disasters are the result of an accumulation of actions, consequences from inappropriate decisions and from global change. To modify this perception of risk, advocacy tools are needed. Quantitative methods have been developed to identify the distribution and the underlying factors of risk.¦Disaster risk is resulting from the intersection of hazards, exposure and vulnerability. The frequency and intensity of hazards can be influenced by climate change or by the decline of ecosystems. Population growth increases the exposure, while changes in the level of development affect the vulnerability. Given that each of its components may change, the risk is dynamic and should be reviewed periodically by governments, insurance companies or development agencies. At the global level, these analyses are often performed using databases on reported losses. Our results show that these are likely to be biased in particular by improvements in access to information. International losses databases are not exhaustive and do not give information on exposure, the intensity or vulnerability. A new approach, independent of reported losses, is necessary.¦The researches presented here have been mandated by the United Nations and agencies working in the development and the environment (UNDP, UNISDR, GTZ, UNEP and IUCN). These organizations needed a quantitative assessment of the underlying factors of risk, to raise awareness amongst policymakers and to prioritize disaster risk reduction projects.¦The method is based on geographic information systems, remote sensing, databases and statistical analysis. It required a large amount of data (1.7 Tb of data on both the physical environment and socio-economic parameters) and several thousand hours of processing were necessary. A comprehensive risk model was developed to reveal the distribution of hazards, exposure and risk, and to identify underlying risk factors. These were performed for several hazards (e.g. floods, tropical cyclones, earthquakes and landslides). Two different multiple risk indexes were generated to compare countries. The results include an evaluation of the role of the intensity of the hazard, exposure, poverty, governance in the pattern and trends of risk. It appears that the vulnerability factors change depending on the type of hazard, and contrary to the exposure, their weight decreases as the intensity increases.¦Locally, the method was tested to highlight the influence of climate change and the ecosystems decline on the hazard. In northern Pakistan, deforestation exacerbates the susceptibility of landslides. Researches in Peru (based on satellite imagery and ground data collection) revealed a rapid glacier retreat and give an assessment of the remaining ice volume as well as scenarios of possible evolution.¦These results were presented to different audiences, including in front of 160 governments. The results and data generated are made available online through an open source SDI (http://preview.grid.unep.ch). The method is flexible and easily transferable to different scales and issues, with good prospects for adaptation to other research areas. The risk characterization at a global level and identifying the role of ecosystems in disaster risk is booming. These researches have revealed many challenges, some were resolved, while others remained limitations. However, it is clear that the level of development, and more over, unsustainable development, configures a large part of disaster risk and that the dynamics of risk is primarily governed by global change.
Resumo:
Sur le plan économique, le système de genre est une pierre angulaire du discours publicitaire. Il intervient dans la segmentation des marchés, dans la sélection des médias et des supports, dans l'apparence extérieure des produits, dans le ton des campagnes, dans le choix des arguments de vente et, bien sûr, dans les scripts des annonces qui mettent en scène, en grand nombre, des êtres humains. En contrepartie, sur le plan symbolique, le discours publicitaire est un dépositaire privilégié des imaginaires de genre qui circulent dans son contexte de production et de diffusion. En cette qualité, confronté aux lois d'un marché toujours plus concurrentiel, à une segmentation plus fine des cibles, à la multiplication des supports, à l'instabilité croissante des consommateurs ainsi qu'à une critique médiatique, académique et publique toujours prompte à relever sa tendance au stéréotypage, le discours publicitaire est amené à proposer des représentations des hommes et des femmes de plus en plus variées et complexes. La présente étude, qui relève de l'analyse linguistique des discours, a pour objectif d'entrer dans la complexité de ces variations publicitaires contemporaines sur le féminin et le masculin et de déchiffrer les imaginaires de genre qu'elles contribuent à construire. Après un état des lieux des travaux consacrés à la représentation publicitaire des sexes ainsi qu'une présentation détaillée des jalons théoriques et méthodologiques de l'approche adoptée, une analyse de contenu, réalisée sur la base d'un corpus de plus 1200 annonces, met en évidence les configurations récurrentes du masculin et du féminin dans la production publicitaire contemporaine de presse magazine. Une analyse textuelle et critique interroge ensuite le rôle de la langue dans le processus de schématisation des imaginaires publicitaires de genre. Dans un premier temps, grâce à une prise en compte des déterminations prédiscursive et discursive des représentations publicitaires du féminin et du masculin, cette analyse montre comment le discours publicitaire, en plus de différencier radicalement le féminin et le masculin, tend à essentialiser cette différenciation au travers de deux procédés discursifs d'idéologisation, la catégorisation et la généralisation. Dans un second temps, un inventaire thématique des variations publicitaires contemporaines sur le genre permet d'évaluer la perméabilité du discours publicitaire à la reconfiguration du système de genre qui est en marche dans notre société depuis la seconde moitié du vingtième siècle. La présente recherche, qui entend globalement déconstruire ce qui prend trop souvent l'apparence d'évidences et soumettre à débat des interprétations, thématise par ailleurs la question de la dimension politique des recherches académiques.
Resumo:
Le maintien d'une concentration sanguine constante de calcium est d'une importance cruciale et trois organes participent à la balance calcique normale : les reins, les intestins et les os. La concentration plasmatique de calcium est strictement régulée par l'hormone parathyroïdienne (PTH) et par la vitamine D. Des variations circadiennes de la PTH, de la vitamine D ainsi que du calcium plasmatique ont été décrites précédemment chez l'humain ainsi que chez le rat. Ces rythmes de PTH dans le sérum sont importants pour la régulation du remodelage de l'os. En effet, il a été montré chez les souris C57BL/6J que des injections de PTH une fois par jour mènent à une augmentation de la densité minérale de l'os alors que l'infusion en continu de PTH est associée à une diminution de cette densité. La vitamine D joue également un rôle fondamental dans la physiologie osseuse, car un déficit en vitamine D peut conduire à une ostéomalacie. Cependant la fonction des oscillations de vitamine D au niveau de l'homéostasie osseuse reste inconnue. L'horloge circadienne est un système interne de contrôle biologique du temps générant des rythmes de 24 heures dans l'expression des gènes, ainsi que dans la physiologie et le comportement. Ce contrôle s'opère par des boucles rétroactives positives et négatives de l'expression de gènes circadiens tels que CLOCK, BMAL1, CRY1 et 2 ou PERI et 2. Dans ce travail, nous avons émis l'hypothèse que l'homéostasie calcique est sous le contrôle de l'horloge circadienne. Dans un premier temps, nous avons montré chez les souris C57BL/6J des variations journalières des concentrations de calcium, de PTH et de vitamine D dans le sang, ainsi que de calcium dans les urines. Nous avons également démontré des changements au niveau de l'expression rénale des gènes importants dans l'homéostasie du calcium, tant au niveau de l'ARN messager que des protéines. Ensuite, pour analyser le rôle du système de l'horloge circadienne dans l'homéostasie du calcium, nous avons étudié des souris dans lesquelles a été supprimé le gène CLOCK crucial pour la fonction de l'horloge et nous avons comparé ces souris à des souris de type sauvage de même portée. Les souris CLOCK-I- étaient hypercalciuriques à chaque moment de la journée. Cependant le rythme circadien de l'excrétion de calcium était préservé. Le taux de calcium plasmatique ne différait pas entre les génotypes, mais les souris CLOCK -/- ne montraient pas de variations journalières de ce paramètre. Une perte du rythme journalier était également observée pour les niveaux de vitamine D, perte qui pourrait être une cause de l'altération de la micro-architecture osseuse révélée chez les souris CLOCK-/-. En effet, ces souris montrent une diminution du nombre de trabécules, de leur volume ainsi que de leur surface, ce qui suggère la présence d'ostéoporose. Nous avons également trouvé que le rythme de l'expression de l'ARN messager de CYP27B1 était aboli dans les reins des souris CLOCK -/-, ce qui peut expliquer l'altération du rythme de la vitamine D. Les taux sanguins de PTH étaient comparables entre les souris CLOCK -/- et de type sauvage. Dans les reins, une augmentation de l'expression de l'ARN messager de TRPV5 et NCX1 a été constatée, ce qui suggérerait une augmentation de la réabsorption de calcium dans le tubule convoluté distal et dans le tubule connecteur. Dans les intestins, la réabsorption calcique était diminuée, chez les souris CLOCK-I-, fait confirmé par une diminution des niveaux d'ARN messager de TRPV6 et PMCAL. En résumé, la suppression du gène CLOCK chez les souris a conduit à une hypercalciurie, une altération du rythme des taux plasmatiques de calcium et de vitamine D et à une détérioration de l'architecture osseuse. Pour conclure, ces résultats montrent que l'horloge circadienne est essentielle à l'homéostasie calcique ainsi qu'à la physiologie des os. - L'ostéoporose affecte environ 22 millions de femmes et 5.5 millions d'hommes en Europe, réduisant significativement leur qualité de vie et a causé 3.5 millions de nouvelles fractures en 2010. Les dépenses totales liées à ces fractures ont atteint 37 milliards d'euro et ce coût devrait augmenter de 25% d'ici à 2025. Le nombre de nouvelles fractures dues à l'ostéoporose à travers le monde est estimé à environ 1000 par heure. Parmi les causes de l'ostéoporose, le déficit én calcium et/ou en vitamine D joue un rôle important, mais il existe également des causes génétiques ou liées à des facteurs comme les hormones sexuelles (estrogènes, testostérone), l'âge, le tabac, le poids corporel, certains médicaments,... La vie est rythmique : ceci est dû à l'alternance naturelle du jour et de la nuit et de ses effets sur le corps. La prise alimentaire, par exemple, est un processus qui a lieu pendant la phase active, qui est prévisible (il se produit toujours au même moment) et qui peut être anticipé par le corps. Pour cela, une horloge interne est présente dans chaque cellule du corps et est synchronisée par la lumière du jour, entre autres stimuli. Cette horloge indique la phase du jour et régule l'expression de gènes impliqués dans les différents processus qui nécessitent une anticipation. Pendant mon travail de thèse, je me suis demandé si des îythmes circadiens (c'est-à-dire d'une durée d'environ 24 heures et indépendants des stimuli externes) étaient observables'pour les gènes régulant les flux de calcium dans le corps et si l'interruption de ces rythmes pouvait mener à des altérations de la qualité de l'os. J'ai d'abord travaillé avec des souris normales et j'ai pu montrer la présence de rythmes au niveau du calcium sanguin et urinaire, mais également au niveau des hormones et gènes qui contrôlent le métabolisme du calcium dans le corps, comme la vitamine D et l'hormone parathyroidienne. De manière intéressante, j'ai observé que la plupart de ces gènes ont un rythme synchronisé. J'ai ensuite utilisé un modèle de souris dans lequel l'horloge interne a été génétiquement invalidée et j'ai montré que ces souris présentent une augmentation de leur excrétion urinaire de calcium et un rythme circadien altéré de la vitamine D dans le sang. Ces souris absorbent aussi moins bien le calcium intestinal et présentent une ostéoporose marquée. Ce travail montre donc que l'horloge interne est nécessaire pour établir un rythme circadiens de certains facteurs influant les flux de calcium dans l'organisme, comme la vitamine D, et que la perturbation de ces rythmes mène à une dérégulation du métabolisme osseux. Ainsi, la perturbation de l'horloge interne peut causer une ostéoporose et une hypercalciurie qui pourraient aboutir à la formation de fractures et de calculs rénaux. L'extrapolation de ces observations chez l'homme ou à des changements plus subtiles des rythmes circadiens, comme le décalage horaire, restent à montrer. Cette recherche a démontré que les rythmes circadiens des mécanismes de régulation des flux de calcium dans l'organisme sont essentiels au maintien d'un squelette normal et suggère que les perturbations des rythmes circadiens pourraient être une nouvelle cause de l'ostéoporose. - Maintaining constant calcium concentration in the plasma is of a crucial importance and three organs participate in normal calcium balance - kidney, gut and bone. Plasma calcium concentration is strictly regulated by parathyroid hormone (PTH) and vitamin D. Circadian variations of PTH, vitamin D and plasma calcium were previously described in humans, as well as in rats. Rhythms in serum PTH are important for balanced bone remodelling. Indeed in C57BL/6J mice, PTH injection once per day leads to an increase in bone mineral density (BMD), whilst continuous infusion is associated with decreased BMD. Vitamin D also plays a crucial role in bone physiology, since the deficiency in vitamin D can lead to rickets/osteomalacia. However, the role of vitamin D rhythms in bone homeostasis remains unknown. The circadian clock is an. internal time-keeping system generating rhythms in gene expression with 24h periodicity, in physiology and in behaviour. It is operated by positive- and negative-feedback loops of circadian genes, such as CLOCK, BMAL1, CRY1 and 2 or PERI and 2. In this work, we hypothesized, that calcium homeostasis is under the control of the circadian clock. First, we showed daily variations in urinary calcium and serum calcium, PTH and l,25(OH)2 vitamin D, together with renal mRNA and protein levels of genes involved in calcium homeostasis in C57BL/6J mice. Second, and to investigate the role of the circadian clock system in calcium handling, we studied mice lacking the gene CLOCK crucial for fonction of the clock system and compared them to the WT littermates. CLOCK-/- mice were hypercalciuric at all timepoints of the day. However, the circadian rhythm of calcium excretion was preserved. Serum calcium levels did not differ between the genotypes, but CLOCK-/- mice did not exhibit daily variation for this parameter. Loss of rhythm was observed also for serum l,25(OH)2 vitamin D levels, which may be one of the causes of altered bone microarchitecture that was revealed in CLOCK-/- mice. They displayed increased trabecular separation and decreased trabecular number, trabecular bone volume and trabecular bone surface, suggestive of osteoporosis. We found that the rhythm of the mRNA expression of CYP27B1 was abolished in the kidney of CLOCK-/- mice, which could induce the altered rhythm of l,25(OH)2 vitamin. Serum PTH levels were comparable between CLOCK-/- and WT mice. In the kidney, increased mRNA expression of TRPV5 and NCX1 suggests increased calcium reabsorption in the distal convoluted and connecting tubule. In the gut, intestinal calcium absorption was decreased in CLOCK¬/- mice, confirmed by decreased mRNA levels of TRPV6 and PMCA1. In summary, deletion of the CLOCK gene in mice conducts to hypercalciuria, alteration of the rhythm in serum calcium and l,25(OH)2D levels, and impainnent of their bone microarchitecture. In conclusion, these data show that the circadian clock system is essential in calcium homeostasis and bone physiology.
Resumo:
Abstract: To understand the processes of evolution, biologists are interested in the ability of a population to respond to natural or artificial selection. The amount of genetic variation is often viewed as the main factor allowing a species to answer to selection. Many theories have thus focused on the maintenance of genetic variability. Ecologists and population geneticists have long-suspected that the structure of the environment is connected to the maintenance of diversity. Theorists have shown that diversity can be permanently and stably maintained in temporal and spatial varying environment in certain conditions. Moreover, varying environments have been also theoretically demonstrated to cause the evolution of divergent life history strategies in the different niches constituting the environment. Although there is a huge number of theoretical studies selection and on life history evolution in heterogeneous environments, there is a clear lack of empirical studies. The purpose of this thesis was to. empirically study the evolutionary consequences of a heterogeneous environment in a freshwater snail Galba truncatula. Indeed, G. truncatula lives in two habitat types according the water availability. First, it can be found in streams or ponds which never completely dry out: a permanent habitat. Second, G. truncatula can be found in pools that freeze during winter and dry during summer: a temporary habitat. Using a common garden approach, we empirically demonstrated local adaptation of G. truncatula to temporary and permanent habitats. We used at first a comparison of molecular (FST) vs. quantitative (QST) genetic differentiation between temporary and permanent habitats. To confirm the pattern QST> FST between habitats suggesting local adaptation, we then tested the desiccation resistance of individuals from temporary and permanent habitats. This study confirmed that drought resistance seemed to be the main factor selected between habitats, and life history traits linked to the desiccation resistance were thus found divergent between habitats. However, despite this evidence of selection acting on mean values of traits between habitats, drift was suggested to be the main factor responsible of variation in variances-covariances between populations. At last, we found life history traits variation of individuals in a heterogeneous environment varying in parasite prevalence. This thesis empirically demonstrated the importance of heterogeneous environments in local adaptation and life history evolution and suggested that more experimental studies are needed to investigate this topic. Résumé: Les biologistes se sont depuis toujours intéressés en l'aptitude d'une population à répondre à la sélection naturelle. Cette réponse dépend de la quantité de variabilité génétique présente dans cette population. Plus particulièrement, les théoriciens se sont penchés sur la question du maintient de la variabilité génétique au sein d'environnements hétérogènes. Ils ont alors démontré que, sous certaines conditions, la diversité génétique peut se maintenir de manière stable et permanente dans des environnements variant au niveau spatial et temporel. De plus, ces environments variables ont été démontrés comme responsable de divergence de traits d'histoire de vie au sein des différentes niches constituant l'environnement. Cependant, malgré ce nombre important d'études théoriques portant sur la sélection et l'évolution des traits d'histoire de vie en environnement hétérogène, les études empiriques sont plus rares. Le but de cette thèse était donc d'étudier les conséquences évolutives d'un environnement hétérogène chez un esgarcot d'eau douce Galba truncatula. En effet, G. truncatula est trouvé dans deux types d'habitats qui diffèrent par leur niveau d'eau. Le premier, l'habitat temporaire, est constitué de flaques d'eau qui peuvent s'assécher pendant l'été et geler pendant l'hiver. Le second, l'habitat permanent, correspond à des marres ou à des ruisseaux qui ont un niveau d'eau constant durant toute l'année. Utilisant une approche expérimentale de type "jardin commun", nous avons démontré l'adaptation locale des individus à leur type d'habitat, permanent ou temporaire. Nous avons utilisé l'approche Fsr/QsT qui compare la différentiation génétique moléculaire avec la différentiation génétique quantitative entre les 2 habitats. Le phénomène d'adapation locale démontré par QsT > FsT, a été testé experimentalement en mesurant la résistance à la dessiccation d'individus d'habitat temporaire et permanent. Cette étude confirma que la résistance à la sécheresse a été sélectionné entre habitats et que les traits responsables de cette resistance sont différents entre habitats. Cependant si la sélection agit sur la valeur moyenne des traits entre habitats, la dérive génétique semble être le responsable majeur de la différence de variances-covariances entre populations. Pour finir, une variation de traits d'histoire de vie a été trouvée au sein d'un environnement hétérogène constitué de populations variants au niveau de leur taux de parasitisme. Pour conclure, cette thèse a donc démontré l'importance d'un environnement hétérogène sur l'adaptation locale et l'évolution des traits d'histoire de vie et suggère que plus d'études empiriques sur le sujet sont nécessaires.
Resumo:
Depuis le début des années quatre-vingt-dix, le modèle classique de l'université est fortement remis en question: pénétration accrue des acteurs privés, attentes de la société civile, contractualisation et «horizontalisation» des relations, etc. L'université bouge et doit s'adapter à un environnement en mutation. En Suisse, les projets de coopération inter universités semblent être une des réponses privilégiées par les acteurs dominants du système pour faire face à ces changements. Toutefois, la mise en place de nouveaux arrangements institutionnels notamment sous la forme de réseaux d'enseignement et de recherche ne va pas sans soulever de nombreuses interrogations. Premièrement, et notamment du fait de bases légales peu développées, les collaborations institutionnalisées n'ont pas toutes la même configuration. Nous devons donc nous questionner sur les formes concrètes prises par ces réseaux d'enseignement et de recherche et sur les raisons qui ont conduit à l'adoption d'un type particulier de structure de coopération. Ensuite, comme ces structures ne viennent pas remplacer, mais plutôt se superposer à celles préexistantes, il convient de comprendre la redistribution du pouvoir au sein de formes institutionnelles complexes. Plus précisément, l'analyse de la nouvelle répartition des compétences entre les institutions hiérarchiques (les universités) et les coopérations (réseaux) en particulier sous l'angle de l'autonomie dont ces dernières disposent, se révèle être un angle d'approche fructueux. Finalement, la question de l'évaluation de ces nouvelles formes de gouvernance va se poser. Outre les formes prises par ces structures, une discussion doit être menée autour des limites démocratiques de cette nouvelle forme du secteur public. Ce working paper présente dans un premier temps quelques facteurs qui ont contraints les universités à une remise en cause de leurs structures de gouvernance. Il introduit ensuite quelques éléments théoriques faisant référence aux théories portant sur les réseaux et plus particulièrement à l'approche institutionnelle de ceux-ci. La troisième partie de ce papier présente brièvement les structures de gouvernance du système universitaire helvétique ainsi que les récentes pressions au changement ayant favorisé la mise en place de ces réseaux. Finalement, la quatrième partie étudie, au travers de six cas de coopérations inter-universitaires suisses, la forme prise par ces réseaux, essentiellement sous l'angle de leur degré d'autonomie.
Resumo:
Résumé : La radiothérapie par modulation d'intensité (IMRT) est une technique de traitement qui utilise des faisceaux dont la fluence de rayonnement est modulée. L'IMRT, largement utilisée dans les pays industrialisés, permet d'atteindre une meilleure homogénéité de la dose à l'intérieur du volume cible et de réduire la dose aux organes à risque. Une méthode usuelle pour réaliser pratiquement la modulation des faisceaux est de sommer de petits faisceaux (segments) qui ont la même incidence. Cette technique est appelée IMRT step-and-shoot. Dans le contexte clinique, il est nécessaire de vérifier les plans de traitement des patients avant la première irradiation. Cette question n'est toujours pas résolue de manière satisfaisante. En effet, un calcul indépendant des unités moniteur (représentatif de la pondération des chaque segment) ne peut pas être réalisé pour les traitements IMRT step-and-shoot, car les poids des segments ne sont pas connus à priori, mais calculés au moment de la planification inverse. Par ailleurs, la vérification des plans de traitement par comparaison avec des mesures prend du temps et ne restitue pas la géométrie exacte du traitement. Dans ce travail, une méthode indépendante de calcul des plans de traitement IMRT step-and-shoot est décrite. Cette méthode est basée sur le code Monte Carlo EGSnrc/BEAMnrc, dont la modélisation de la tête de l'accélérateur linéaire a été validée dans une large gamme de situations. Les segments d'un plan de traitement IMRT sont simulés individuellement dans la géométrie exacte du traitement. Ensuite, les distributions de dose sont converties en dose absorbée dans l'eau par unité moniteur. La dose totale du traitement dans chaque élément de volume du patient (voxel) peut être exprimée comme une équation matricielle linéaire des unités moniteur et de la dose par unité moniteur de chacun des faisceaux. La résolution de cette équation est effectuée par l'inversion d'une matrice à l'aide de l'algorithme dit Non-Negative Least Square fit (NNLS). L'ensemble des voxels contenus dans le volume patient ne pouvant être utilisés dans le calcul pour des raisons de limitations informatiques, plusieurs possibilités de sélection ont été testées. Le meilleur choix consiste à utiliser les voxels contenus dans le Volume Cible de Planification (PTV). La méthode proposée dans ce travail a été testée avec huit cas cliniques représentatifs des traitements habituels de radiothérapie. Les unités moniteur obtenues conduisent à des distributions de dose globale cliniquement équivalentes à celles issues du logiciel de planification des traitements. Ainsi, cette méthode indépendante de calcul des unités moniteur pour l'IMRT step-andshootest validée pour une utilisation clinique. Par analogie, il serait possible d'envisager d'appliquer une méthode similaire pour d'autres modalités de traitement comme par exemple la tomothérapie. Abstract : Intensity Modulated RadioTherapy (IMRT) is a treatment technique that uses modulated beam fluence. IMRT is now widespread in more advanced countries, due to its improvement of dose conformation around target volume, and its ability to lower doses to organs at risk in complex clinical cases. One way to carry out beam modulation is to sum smaller beams (beamlets) with the same incidence. This technique is called step-and-shoot IMRT. In a clinical context, it is necessary to verify treatment plans before the first irradiation. IMRT Plan verification is still an issue for this technique. Independent monitor unit calculation (representative of the weight of each beamlet) can indeed not be performed for IMRT step-and-shoot, because beamlet weights are not known a priori, but calculated by inverse planning. Besides, treatment plan verification by comparison with measured data is time consuming and performed in a simple geometry, usually in a cubic water phantom with all machine angles set to zero. In this work, an independent method for monitor unit calculation for step-and-shoot IMRT is described. This method is based on the Monte Carlo code EGSnrc/BEAMnrc. The Monte Carlo model of the head of the linear accelerator is validated by comparison of simulated and measured dose distributions in a large range of situations. The beamlets of an IMRT treatment plan are calculated individually by Monte Carlo, in the exact geometry of the treatment. Then, the dose distributions of the beamlets are converted in absorbed dose to water per monitor unit. The dose of the whole treatment in each volume element (voxel) can be expressed through a linear matrix equation of the monitor units and dose per monitor unit of every beamlets. This equation is solved by a Non-Negative Least Sqvare fif algorithm (NNLS). However, not every voxels inside the patient volume can be used in order to solve this equation, because of computer limitations. Several ways of voxel selection have been tested and the best choice consists in using voxels inside the Planning Target Volume (PTV). The method presented in this work was tested with eight clinical cases, which were representative of usual radiotherapy treatments. The monitor units obtained lead to clinically equivalent global dose distributions. Thus, this independent monitor unit calculation method for step-and-shoot IMRT is validated and can therefore be used in a clinical routine. It would be possible to consider applying a similar method for other treatment modalities, such as for instance tomotherapy or volumetric modulated arc therapy.
Resumo:
Résumé: Le complexe du Mont Collon (nappe de la Dent Blanche, Austroalpin) est l'un des exemples les mieux préservés du magmatisme mafique permien des Alpes occidentales. Il est composé d'affleurements discontinus et d'une stratification magmatique en son centre (Dents de Bertol) et est composé à 95% de roches mafiques cumulatives (gabbros à olivine et/ou cpx, anorthositiques, troctolites, wehrlites et wehrlites à plagioclase) et localement de quelques gabbros pegmatitiques. Ces faciès sont recoupés par de nombreux filons acides (aphtes, pegmatites quartziques, microgranodiorites et filons anorthositiques) et mafiques tardifs (dikes mélanocrates riches en Fe et Ti). Les calculs thermométriques (équilibre olivine-augite) montrent des températures de 1070-1120 ± 6°C, tandis que le thermomètre amphibole-plagioclase indique une température de 740 ± 40°C à 0.5 GPa pour les amphiboles magmatiques tardives. La geobarométrie sur pyroxène donne des pressions moyennes de 0.3-0.6 GPa, indiquant un emplacement dans la croûte moyenne. De plus, les températures obtenues sur des amphiboles coronitiques indiquent des températures de l'ordre de 700 ± 40°C confirmant que les réactions coronitiques apparaissent dans des conditions subsolidus. Les âges concordants U/Pb sur zircons de 284.2 ± 0.6 et 282.9 ± 0.6 Ma obtenus sur un gabbro pegmatitique et une pegmatitique quartzique, sont interprétés comme des âges de cristallisation. Les datations 40Ar/39Ar sur amphiboles des filons mélanocrates donnent un âge plateau de 260.2 ± 0.7 Ma, qui est probablement très proche de l'âge de cristallisation. Ainsi, cet age 40Ar/39Ar indique un second évènement magmatique au sein du complexe. Les compositions des roches totales en éléments majeurs et traces montrent peu de variations, ainsi que le Mg# (75-80). Les éléments traces enregistrent le caractère cumulatif des roches (anomalie positive en Eu) et révèlent des anomalies négatives systématiques en Nb, Ta, Zr, Hf et Ti dans les faciès basiques. Le manque de corrélation entre éléments majeurs et traces est caractéristique d'un processus de cristallisation in situ impliquant une quantité variable de liquide interstitiel (L) entre les phases cumulus. Les distributions des éléments traces dans les minéraux sont homogènes, indiquant une rééquilibration .subsolidus entre cristaux et liquide interstitiel. Un modèle quantitatif basé sur les équations de cristallisation in situ de Langmuir reproduisent correctement les concentrations en terres rares légères des minéraux cumulatifs montrant la présence de 0 à 35% de liquide interstitiel L pour des degrés de différenciation F de 0 à 45%, par rapport au faciès les moins évolués du complexe. En outre, les valeurs de L sont bien corrélées avec les proportions modales d'amphibole interstitielle et les concentrations en éléments incompatibles des roches (Zr, Nb). Le liquide parental calculé des cumulats du Mont Collon est caractérisé par un enrichissement relatif en terres rares légères et Th, un appauvrissement en terres rares lourdes typique d'une affinité transitionnelle (T-MORB) et une forte anomalie négative en Nb-Ta. Les roches cumulatives montrent des compositions isotopiques en Nd-Sr proches de la terre globale silicatée (BSE), soit 0.6<εNdi<+3.2, 0.7045<87Sr/86Sri<0.7056. Les rapports initiaux en Pb indiquent une source dans le manteau enrichi subcontinental lithosphérique, préalablement contaminé par des sédiments océaniques. Les dikes mélanocrates Fe-Ti sont représentatifs de liquides et ont des spectres de terres rares enrichis, une anomalie positive en Nb-Ta et des εNdi de +7, des 87Sr/86Sri de 0.703 et des rapports initiaux en Pb, similaires à ceux des basaltes d'île océanique, indiquant une source asthénosphérique modérément appauvrie. Ainsi, la fusion partielle du manteau lithosphérique subcontinental est induite par l'amincissement post-orogénique et la remontée de l'asthénosphère. Les filons mélanocrates proviennent, après délamination du manteau lithosphérique, de la fusion de l'asthénosphère. Abstract The early Permian Mont Collon mafic complex (Dent Blanche nappe, Austroalpine nappe system) is one of the best preserved examples of the Permian mafic magmatism in the Western Alps. It is composed of discontinuous exposures and a well-preserved magmatic layering (the Dents de Bertol cliff) crops out in the center part of the complex. It mainly consists of cumulative mafic rocks, which represent 95 vol-% of the mafic complex (ol- and cpx-bearing gabbros and rare anorthositic layers, troctolites, wehrlites and plagioclase-wehrlites) and locally pegmatitic gabbros. All these facies are crosscut by widespread acidic (aplites, quartz-rich pegmatites, microgranodiorites) and late mafic Fe-Ti melanocratic dikes. Olivine-augite thermometric calculations yield a range of 1070-1120 ± 6°C, while amphibole-plagioclase thermometer yields a temperature of 740 ± 40°C at 0.5 GPa. Pyroxene geobarometry points to a pressure of 0.3-0.6 GPa, indicating a middle crustal level of emplacement. Moreover, temperature calculations on the Mont Conon coronitic amphiboles indicate temperatures of 700 ± 40°C, close to those calculated for magmatic amphiboles. These temperatures confirm that coronitic reactions occurred at subsolidus conditions. ID-TIMS U/Pb zircon ages of 284.2 ± 0.6 and 282.9 ± 0.6 Ma obtained on a pegmatitic gabbro and a quartz-pegmatitic dike, respectively, were interpreted as the crystallization ages of these rocks. 40Ar/39Ar dating on amphiboles from Fe-Ti melanocratic dikes yields a plateau age of 260.2 ± 0.7 Ma, which is probably very close to the crystallization age. Consequently, this 40Ar/P39Ar age indicates a second magmatic event. Whole-rock major- and trace-element compositions show little variation across the whole intrusion and Mg-number stays within a narrow range (75-80). Trace-element concentrations record the cumulative nature of the rocks (e.g. positive Eu anomaly) and reveal systematic Nb, Ta, Zr, Hf and Ti negative anomalies for all basic facies. The lack of correlation between major and trace elements is characteristic of an in situ crystallization process involving variable amounts of interstitial liquid (L) trapped between the cumulus mineral phases. LA-ICPMS measurements show that trace-element distributions in minerals are homogeneous, pointing to subsolidus re-equilibration between crystals and interstitial melts. A quantitative modeling based on Langmuir's in situ crystallization equation successfully reproduced the Rare Earth Element (REE) concentrations in cumulitic minerals. The calculated amounts of interstitial liquid L vary between 0 and 35% for degrees of differentiation F of 0 to 45%, relative to the least evolved facies of the intrusion. Furthermore, L values are well correlated with the modal proportions of interstitial amphibole and whole-rock incompatible trace-element concentrations (e.g. Zr, Nb) of the tested samples. The calculated parental melt of the Mont Collon cumulates is characterized by a relative enrichment in Light REE and Th, a depletion in Heavy REE, typical of a transitional affinity (T-MORB), and strong negative Nb-Ta anomaly. Cumulative rocks display Nd-Sr isotopic compositions close to the BSE (-0.6 < εNdi < +3.2, 0.7045 < 87Sr/86Sri < 0.7056). Initial Pb ratios point to an origin from the melting of an enriched subcontinental lithospheric mantle source, previously contaminated at the source by oceanic sediments. The contrasted alkaline Fe-Ti melanocratic dikes are representative of liquids. They display enriched fractionated REE patterns, a positive Nb-Ta anomaly and εNdi of +7, 87Sr/86Sri of 0.703 and initial Pb ratios, all reminiscent of Ocean Island Basalt-type rocks, pointing to a moderately
Resumo:
Malgré son importance dans notre vie de tous les jours, certaines propriétés de l?eau restent inexpliquées. L'étude des interactions entre l'eau et les particules organiques occupe des groupes de recherche dans le monde entier et est loin d'être finie. Dans mon travail j'ai essayé de comprendre, au niveau moléculaire, ces interactions importantes pour la vie. J'ai utilisé pour cela un modèle simple de l'eau pour décrire des solutions aqueuses de différentes particules. Récemment, l?eau liquide a été décrite comme une structure formée d?un réseau aléatoire de liaisons hydrogènes. En introduisant une particule hydrophobe dans cette structure à basse température, certaines liaisons hydrogènes sont détruites ce qui est énergétiquement défavorable. Les molécules d?eau s?arrangent alors autour de cette particule en formant une cage qui permet de récupérer des liaisons hydrogènes (entre molécules d?eau) encore plus fortes : les particules sont alors solubles dans l?eau. A des températures plus élevées, l?agitation thermique des molécules devient importante et brise les liaisons hydrogènes. Maintenant, la dissolution des particules devient énergétiquement défavorable, et les particules se séparent de l?eau en formant des agrégats qui minimisent leur surface exposée à l?eau. Pourtant, à très haute température, les effets entropiques deviennent tellement forts que les particules se mélangent de nouveau avec les molécules d?eau. En utilisant un modèle basé sur ces changements de structure formée par des liaisons hydrogènes j?ai pu reproduire les phénomènes principaux liés à l?hydrophobicité. J?ai trouvé une région de coexistence de deux phases entre les températures critiques inférieure et supérieure de solubilité, dans laquelle les particules hydrophobes s?agrègent. En dehors de cette région, les particules sont dissoutes dans l?eau. J?ai démontré que l?interaction hydrophobe est décrite par un modèle qui prend uniquement en compte les changements de structure de l?eau liquide en présence d?une particule hydrophobe, plutôt que les interactions directes entre les particules. Encouragée par ces résultats prometteurs, j?ai étudié des solutions aqueuses de particules hydrophobes en présence de co-solvants cosmotropiques et chaotropiques. Ce sont des substances qui stabilisent ou déstabilisent les agrégats de particules hydrophobes. La présence de ces substances peut être incluse dans le modèle en décrivant leur effet sur la structure de l?eau. J?ai pu reproduire la concentration élevée de co-solvants chaotropiques dans le voisinage immédiat de la particule, et l?effet inverse dans le cas de co-solvants cosmotropiques. Ce changement de concentration du co-solvant à proximité de particules hydrophobes est la cause principale de son effet sur la solubilité des particules hydrophobes. J?ai démontré que le modèle adapté prédit correctement les effets implicites des co-solvants sur les interactions de plusieurs corps entre les particules hydrophobes. En outre, j?ai étendu le modèle à la description de particules amphiphiles comme des lipides. J?ai trouvé la formation de différents types de micelles en fonction de la distribution des regions hydrophobes à la surface des particules. L?hydrophobicité reste également un sujet controversé en science des protéines. J?ai défini une nouvelle échelle d?hydrophobicité pour les acides aminés qui forment des protéines, basée sur leurs surfaces exposées à l?eau dans des protéines natives. Cette échelle permet une comparaison meilleure entre les expériences et les résultats théoriques. Ainsi, le modèle développé dans mon travail contribue à mieux comprendre les solutions aqueuses de particules hydrophobes. Je pense que les résultats analytiques et numériques obtenus éclaircissent en partie les processus physiques qui sont à la base de l?interaction hydrophobe.<br/><br/>Despite the importance of water in our daily lives, some of its properties remain unexplained. Indeed, the interactions of water with organic particles are investigated in research groups all over the world, but controversy still surrounds many aspects of their description. In my work I have tried to understand these interactions on a molecular level using both analytical and numerical methods. Recent investigations describe liquid water as random network formed by hydrogen bonds. The insertion of a hydrophobic particle at low temperature breaks some of the hydrogen bonds, which is energetically unfavorable. The water molecules, however, rearrange in a cage-like structure around the solute particle. Even stronger hydrogen bonds are formed between water molecules, and thus the solute particles are soluble. At higher temperatures, this strict ordering is disrupted by thermal movements, and the solution of particles becomes unfavorable. They minimize their exposed surface to water by aggregating. At even higher temperatures, entropy effects become dominant and water and solute particles mix again. Using a model based on these changes in water structure I have reproduced the essential phenomena connected to hydrophobicity. These include an upper and a lower critical solution temperature, which define temperature and density ranges in which aggregation occurs. Outside of this region the solute particles are soluble in water. Because I was able to demonstrate that the simple mixture model contains implicitly many-body interactions between the solute molecules, I feel that the study contributes to an important advance in the qualitative understanding of the hydrophobic effect. I have also studied the aggregation of hydrophobic particles in aqueous solutions in the presence of cosolvents. Here I have demonstrated that the important features of the destabilizing effect of chaotropic cosolvents on hydrophobic aggregates may be described within the same two-state model, with adaptations to focus on the ability of such substances to alter the structure of water. The relevant phenomena include a significant enhancement of the solubility of non-polar solute particles and preferential binding of chaotropic substances to solute molecules. In a similar fashion, I have analyzed the stabilizing effect of kosmotropic cosolvents in these solutions. Including the ability of kosmotropic substances to enhance the structure of liquid water, leads to reduced solubility, larger aggregation regime and the preferential exclusion of the cosolvent from the hydration shell of hydrophobic solute particles. I have further adapted the MLG model to include the solvation of amphiphilic solute particles in water, by allowing different distributions of hydrophobic regions at the molecular surface, I have found aggregation of the amphiphiles, and formation of various types of micelle as a function of the hydrophobicity pattern. I have demonstrated that certain features of micelle formation may be reproduced by the adapted model to describe alterations of water structure near different surface regions of the dissolved amphiphiles. Hydrophobicity remains a controversial quantity also in protein science. Based on the surface exposure of the 20 amino-acids in native proteins I have defined the a new hydrophobicity scale, which may lead to an improvement in the comparison of experimental data with the results from theoretical HP models. Overall, I have shown that the primary features of the hydrophobic interaction in aqueous solutions may be captured within a model which focuses on alterations in water structure around non-polar solute particles. The results obtained within this model may illuminate the processes underlying the hydrophobic interaction.<br/><br/>La vie sur notre planète a commencé dans l'eau et ne pourrait pas exister en son absence : les cellules des animaux et des plantes contiennent jusqu'à 95% d'eau. Malgré son importance dans notre vie de tous les jours, certaines propriétés de l?eau restent inexpliquées. En particulier, l'étude des interactions entre l'eau et les particules organiques occupe des groupes de recherche dans le monde entier et est loin d'être finie. Dans mon travail j'ai essayé de comprendre, au niveau moléculaire, ces interactions importantes pour la vie. J'ai utilisé pour cela un modèle simple de l'eau pour décrire des solutions aqueuses de différentes particules. Bien que l?eau soit généralement un bon solvant, un grand groupe de molécules, appelées molécules hydrophobes (du grecque "hydro"="eau" et "phobia"="peur"), n'est pas facilement soluble dans l'eau. Ces particules hydrophobes essayent d'éviter le contact avec l'eau, et forment donc un agrégat pour minimiser leur surface exposée à l'eau. Cette force entre les particules est appelée interaction hydrophobe, et les mécanismes physiques qui conduisent à ces interactions ne sont pas bien compris à l'heure actuelle. Dans mon étude j'ai décrit l'effet des particules hydrophobes sur l'eau liquide. L'objectif était d'éclaircir le mécanisme de l'interaction hydrophobe qui est fondamentale pour la formation des membranes et le fonctionnement des processus biologiques dans notre corps. Récemment, l'eau liquide a été décrite comme un réseau aléatoire formé par des liaisons hydrogènes. En introduisant une particule hydrophobe dans cette structure, certaines liaisons hydrogènes sont détruites tandis que les molécules d'eau s'arrangent autour de cette particule en formant une cage qui permet de récupérer des liaisons hydrogènes (entre molécules d?eau) encore plus fortes : les particules sont alors solubles dans l'eau. A des températures plus élevées, l?agitation thermique des molécules devient importante et brise la structure de cage autour des particules hydrophobes. Maintenant, la dissolution des particules devient défavorable, et les particules se séparent de l'eau en formant deux phases. A très haute température, les mouvements thermiques dans le système deviennent tellement forts que les particules se mélangent de nouveau avec les molécules d'eau. A l'aide d'un modèle qui décrit le système en termes de restructuration dans l'eau liquide, j'ai réussi à reproduire les phénomènes physiques liés à l?hydrophobicité. J'ai démontré que les interactions hydrophobes entre plusieurs particules peuvent être exprimées dans un modèle qui prend uniquement en compte les liaisons hydrogènes entre les molécules d'eau. Encouragée par ces résultats prometteurs, j'ai inclus dans mon modèle des substances fréquemment utilisées pour stabiliser ou déstabiliser des solutions aqueuses de particules hydrophobes. J'ai réussi à reproduire les effets dûs à la présence de ces substances. De plus, j'ai pu décrire la formation de micelles par des particules amphiphiles comme des lipides dont la surface est partiellement hydrophobe et partiellement hydrophile ("hydro-phile"="aime l'eau"), ainsi que le repliement des protéines dû à l'hydrophobicité, qui garantit le fonctionnement correct des processus biologiques de notre corps. Dans mes études futures je poursuivrai l'étude des solutions aqueuses de différentes particules en utilisant les techniques acquises pendant mon travail de thèse, et en essayant de comprendre les propriétés physiques du liquide le plus important pour notre vie : l'eau.
Resumo:
Depuis le séminaire H. Cartan de 1954-55, il est bien connu que l'on peut trouver des éléments de torsion arbitrairement grande dans l'homologie entière des espaces d'Eilenberg-MacLane K(G,n) où G est un groupe abélien non trivial et n>1. L'objectif majeur de ce travail est d'étendre ce résultat à des H-espaces possédant plus d'un groupe d'homotopie non trivial. Dans le but de contrôler précisément le résultat de H. Cartan, on commence par étudier la dualité entre l'homologie et la cohomologie des espaces d'Eilenberg-MacLane 2-locaux de type fini. On parvient ainsi à raffiner quelques résultats qui découlent des calculs de H. Cartan. Le résultat principal de ce travail peut être formulé comme suit. Soit X un H-espace ne possédant que deux groupes d'homotopie non triviaux, tous deux finis et de 2-torsion. Alors X n'admet pas d'exposant pour son groupe gradué d'homologie entière réduite. On construit une large classe d'espaces pour laquelle ce résultat n'est qu'une conséquence d'une caractéristique topologique, à savoir l'existence d'un rétract faible X K(G,n) pour un certain groupe abélien G et n>1. On généralise également notre résultat principal à des espaces plus compliqués en utilisant la suite spectrale d'Eilenberg-Moore ainsi que des méthodes analytiques faisant apparaître les nombres de Betti et leur comportement asymptotique. Finalement, on conjecture que les espaces qui ne possédent qu'un nombre fini de groupes d'homotopie non triviaux n'admettent pas d'exposant homologique. Ce travail contient par ailleurs la présentation de la « machine d'Eilenberg-MacLane », un programme C++ conçu pour calculer explicitement les groupes d'homologie entière des espaces d'Eilenberg-MacLane. <br/><br/>By the work of H. Cartan, it is well known that one can find elements of arbitrarilly high torsion in the integral (co)homology groups of an Eilenberg-MacLane space K(G,n), where G is a non-trivial abelian group and n>1. The main goal of this work is to extend this result to H-spaces having more than one non-trivial homotopy groups. In order to have an accurate hold on H. Cartan's result, we start by studying the duality between homology and cohomology of 2-local Eilenberg-MacLane spaces of finite type. This leads us to some improvements of H. Cartan's methods in this particular case. Our main result can be stated as follows. Let X be an H-space with two non-vanishing finite 2-torsion homotopy groups. Then X does not admit any exponent for its reduced integral graded (co)homology group. We construct a wide class of examples for which this result is a simple consequence of a topological feature, namely the existence of a weak retract X K(G,n) for some abelian group G and n>1. We also generalize our main result to more complicated stable two stage Postnikov systems, using the Eilenberg-Moore spectral sequence and analytic methods involving Betti numbers and their asymptotic behaviour. Finally, we investigate some guesses on the non-existence of homology exponents for finite Postnikov towers. We conjecture that Postnikov pieces do not admit any (co)homology exponent. This work also includes the presentation of the "Eilenberg-MacLane machine", a C++ program designed to compute explicitely all integral homology groups of Eilenberg-MacLane spaces. <br/><br/>Il est toujours difficile pour un mathématicien de parler de son travail. La difficulté réside dans le fait que les objets qu'il étudie sont abstraits. On rencontre assez rarement un espace vectoriel, une catégorie abélienne ou une transformée de Laplace au coin de la rue ! Cependant, même si les objets mathématiques sont difficiles à cerner pour un non-mathématicien, les méthodes pour les étudier sont essentiellement les mêmes que celles utilisées dans les autres disciplines scientifiques. On décortique les objets complexes en composantes plus simples à étudier. On dresse la liste des propriétés des objets mathématiques, puis on les classe en formant des familles d'objets partageant un caractère commun. On cherche des façons différentes, mais équivalentes, de formuler un problème. Etc. Mon travail concerne le domaine mathématique de la topologie algébrique. Le but ultime de cette discipline est de parvenir à classifier tous les espaces topologiques en faisant usage de l'algèbre. Cette activité est comparable à celle d'un ornithologue (topologue) qui étudierait les oiseaux (les espaces topologiques) par exemple à l'aide de jumelles (l'algèbre). S'il voit un oiseau de petite taille, arboricole, chanteur et bâtisseur de nids, pourvu de pattes à quatre doigts, dont trois en avant et un, muni d'une forte griffe, en arrière, alors il en déduira à coup sûr que c'est un passereau. Il lui restera encore à déterminer si c'est un moineau, un merle ou un rossignol. Considérons ci-dessous quelques exemples d'espaces topologiques: a) un cube creux, b) une sphère et c) un tore creux (c.-à-d. une chambre à air). a) b) c) Si toute personne normalement constituée perçoit ici trois figures différentes, le topologue, lui, n'en voit que deux ! De son point de vue, le cube et la sphère ne sont pas différents puisque ils sont homéomorphes: on peut transformer l'un en l'autre de façon continue (il suffirait de souffler dans le cube pour obtenir la sphère). Par contre, la sphère et le tore ne sont pas homéomorphes: triturez la sphère de toutes les façons (sans la déchirer), jamais vous n'obtiendrez le tore. Il existe un infinité d'espaces topologiques et, contrairement à ce que l'on serait naïvement tenté de croire, déterminer si deux d'entre eux sont homéomorphes est très difficile en général. Pour essayer de résoudre ce problème, les topologues ont eu l'idée de faire intervenir l'algèbre dans leurs raisonnements. Ce fut la naissance de la théorie de l'homotopie. Il s'agit, suivant une recette bien particulière, d'associer à tout espace topologique une infinité de ce que les algébristes appellent des groupes. Les groupes ainsi obtenus sont appelés groupes d'homotopie de l'espace topologique. Les mathématiciens ont commencé par montrer que deux espaces topologiques qui sont homéomorphes (par exemple le cube et la sphère) ont les même groupes d'homotopie. On parle alors d'invariants (les groupes d'homotopie sont bien invariants relativement à des espaces topologiques qui sont homéomorphes). Par conséquent, deux espaces topologiques qui n'ont pas les mêmes groupes d'homotopie ne peuvent en aucun cas être homéomorphes. C'est là un excellent moyen de classer les espaces topologiques (pensez à l'ornithologue qui observe les pattes des oiseaux pour déterminer s'il a affaire à un passereau ou non). Mon travail porte sur les espaces topologiques qui n'ont qu'un nombre fini de groupes d'homotopie non nuls. De tels espaces sont appelés des tours de Postnikov finies. On y étudie leurs groupes de cohomologie entière, une autre famille d'invariants, à l'instar des groupes d'homotopie. On mesure d'une certaine manière la taille d'un groupe de cohomologie à l'aide de la notion d'exposant; ainsi, un groupe de cohomologie possédant un exposant est relativement petit. L'un des résultats principaux de ce travail porte sur une étude de la taille des groupes de cohomologie des tours de Postnikov finies. Il s'agit du théorème suivant: un H-espace topologique 1-connexe 2-local et de type fini qui ne possède qu'un ou deux groupes d'homotopie non nuls n'a pas d'exposant pour son groupe gradué de cohomologie entière réduite. S'il fallait interpréter qualitativement ce résultat, on pourrait dire que plus un espace est petit du point de vue de la cohomologie (c.-à-d. s'il possède un exposant cohomologique), plus il est intéressant du point de vue de l'homotopie (c.-à-d. il aura plus de deux groupes d'homotopie non nuls). Il ressort de mon travail que de tels espaces sont très intéressants dans le sens où ils peuvent avoir une infinité de groupes d'homotopie non nuls. Jean-Pierre Serre, médaillé Fields en 1954, a montré que toutes les sphères de dimension >1 ont une infinité de groupes d'homotopie non nuls. Des espaces avec un exposant cohomologique aux sphères, il n'y a qu'un pas à franchir...
Resumo:
L'expérience Belle, située dans le centre de recherche du KEK, au Japon, est consacrée principalement à l'étude de la violation de CP dans le système des mésons B. Elle est placée sur le collisionneur KEKB, qui produit des paires Banti-B. KEKB, l'une des deux « usines à B » actuellement en fonction, détient le record du nombre d'événements produits avec plus de 150 millions de paires. Cet échantillon permet des mesures d'une grande précision dans le domaine de la physique du méson B. C'est dans le cadre de ces mesures de précision que s'inscrit cette analyse. L'un des phénomènes remarquables de la physique des hautes énergies est la faculté qu'a l'interaction faible de coupler un méson neutre avec son anti-méson. Dans le présent travail, nous nous intéressons au méson B neutre couplé à l'anti-méson B neutre, avec une fréquence d'oscillation _md mesurable précisément. Outre la beauté de ce phénomène lui-même, une telle mesure trouve sa place dans la quête de l'origine de la violation de CP. Cette dernière n'est incluse que d'une façon peu satisfaisante dans le modèle standard des interactions électro-faibles. C'est donc la recherche de phénomènes physiques encore inexpliqués qui motive en premier lieu la collaboration Belle. Il existe déjà de nombreuses mesures de _md antérieures. Celle que nous présentons ici est cependant d'une précision encore jamais atteinte grâce, d'une part, à l'excellente performance de KEKB et, d'autre part, à une approche originale qui permet de réduire considérablement la contamination de la mesure par des événements indésirés. Cette approche fut déjà mise à profit par d'autres expériences, dans des conditions quelque peu différentes de celles de Belle. La méthode utilisée consiste à reconstruire partiellement l'un des mésons dans le canal ___D*(D0_)l_l, en n'utilisant que les informations relatives au lepton l et au pion _. L'information concernant l'autre méson de la paire Banti-B initiale n'est tirée que d'un seul lepton de haute énergie. Ainsi, l'échantillon à disposition ne souffre pas de grandes réductions dues à une reconstruction complète, tandis que la contamination due aux mésons B chargés, produits par KEKB en quantité égale aux B0, est fortement diminuée en comparaison d'une analyse inclusive. Nous obtenons finalement le résultat suivant : _md = 0.513±0.006±0.008 ps^-1, la première erreur étant l'erreur statistique et la deuxième, l'erreur systématique.<br/><br/>The Belle experiment is located in the KEK research centre (Japan) and is primarily devoted to the study of CP violation in the B meson sector. Belle is placed on the KEKB collider, one of the two currently running "B-meson factories", which produce Banti-B pairs. KEKB has created more than 150 million pairs in total, a world record for this kind of colliders. This large sample allows very precise measurements in the physics of beauty mesons. The present analysis falls within the framework of these precise measurements. One of the most remarkable phenomena in high-energy physics is the ability of weak interactions to couple a neutral meson to its anti-meson. In this work, we study the coupling of neutral B with neutral anti-B meson, which induces an oscillation of frequency _md we can measure accurately. Besides the interest of this phenomenon itself, this measurement plays an important role in the quest for the origin of CP violation. The standard model of electro-weak interactions does not include CP violation in a fully satisfactory way. The search for yet unexplained physical phenomena is, therefore, the main motivation of the Belle collaboration. Many measurements of _md have previously been performed. The present work, however, leads to a precision on _md that was never reached before. This is the result of the excellent performance of KEKB, and of an original approach that allows to considerably reduce background contamination of pertinent events. This approach was already successfully used by other collaborations, in slightly different conditions as here. The method we employed consists in the partial reconstruction of one of the B mesons through the decay channel ___D*(D0_)l_l, where only the information on the lepton l and the pion _ are used. The information on the other B meson of the initial Banti-B pair is extracted from a single high-energy lepton. The available sample of Banti-B pairs thus does not suffer from large reductions due to complete reconstruction, nor does it suffer of high charged B meson background, as in inclusive analyses. We finally obtain the following result: _md = 0.513±0.006±0.008 ps^-1, where the first error is statistical, and the second, systematical.<br/><br/>De quoi la matière est-elle constituée ? Comment tient-elle ensemble ? Ce sont là les questions auxquelles la recherche en physique des hautes énergies tente de répondre. Cette recherche est conduite à deux niveaux en constante interaction. D?une part, des modèles théoriques sont élaborés pour tenter de comprendre et de décrire les observations. Ces dernières, d?autre part, sont réalisées au moyen de collisions à haute énergie de particules élémentaires. C?est ainsi que l?on a pu mettre en évidence l?existence de quatre forces fondamentales et de 24 constituants élémentaires, classés en « quarks » et « leptons ». Il s?agit là de l?une des plus belles réussites du modèle en usage aujourd?hui, appelé « Modèle Standard ». Il est une observation fondamentale que le Modèle Standard peine cependant à expliquer, c?est la disparition quasi complète de l?anti-matière (le « négatif » de la matière). Au niveau fondamental, cela doit correspondre à une asymétrie entre particules (constituants de la matière) et antiparticules (constituants de l?anti-matière). On l?appelle l?asymétrie (ou violation) CP. Bien qu?incluse dans le Modèle Standard, cette asymétrie n?est que partiellement prise en compte, semble-t-il. En outre, son origine est inconnue. D?intenses recherches sont donc aujourd?hui entreprises pour mettre en lumière cette asymétrie. L?expérience Belle, au Japon, en est une des pionnières. Belle étudie en effet les phénomènes physiques liés à une famille de particules appelées les « mésons B », dont on sait qu?elles sont liées de près à l?asymétrie CP. C?est dans le cadre de cette recherche que se place cette thèse. Nous avons étudié une propriété remarquable du méson B neutre : l?oscillation de ce méson avec son anti-méson. Cette particule est de se désintégrer pour donner l?antiparticule associée. Il est clair que cette oscillation est rattachée à l?asymétrie CP. Nous avons ici déterminé avec une précision encore inégalée la fréquence de cette oscillation. La méthode utilisée consiste à caractériser une paire de mésons B à l?aide de leur désintégration comprenant un lepton chacun. Une plus grande précision est obtenue en recherchant également une particule appelée le pion, et qui provient de la désintégration d?un des mésons. Outre l?intérêt de ce phénomène oscillatoire en lui-même, cette mesure permet d?affiner, directement ou indirectement, le Modèle Standard. Elle pourra aussi, à terme, aider à élucider le mystère de l?asymétrie entre matière et anti-matière.
Resumo:
Les administrations publiques et les autorités politiques sont méconnues sur le plan suisse, notamment au niveau cantonal. Les thèmes traités dans cette étude couvrent les structures administratives, le personnel de la fonction publique ainsi que les autorités politiques cantonales (gouvernements et parlements). L'étude dresse le portrait des acteurs du secteur public en tenant compte de l'âge, du sexe, de l'expérience et du statut d'emploi. Elle présente également la force des partis dans les parlements et les gouvernements sous forme de graphiques, de cartes et de tableaux. L'étude s'inscrit dans le cadre des travaux d'analyses de la BADAC (Base de données des cantons et des villes suisses). Elle présente les résultats de la dernière enquête sur les administrations cantonales (ESAC04), complétés par des données de l'Office fédéral de la statistique. Les résultats sont ventilés par canton mais aussi selon la langue majoritaire dans le canton. La plupart des données peuvent être téléchargées depuis le site de la BADAC (www.badac.ch ). Les indicateurs retenus possèdent des codes d'identification avec un système de renvoi aux sources et aux méthodes de calculs.
Resumo:
La présente thèse s'intitule "Développent et Application des Méthodologies Computationnelles pour la Modélisation Qualitative". Elle comprend tous les différents projets que j'ai entrepris en tant que doctorante. Plutôt qu'une mise en oeuvre systématique d'un cadre défini a priori, cette thèse devrait être considérée comme une exploration des méthodes qui peuvent nous aider à déduire le plan de processus regulatoires et de signalisation. Cette exploration a été mue par des questions biologiques concrètes, plutôt que par des investigations théoriques. Bien que tous les projets aient inclus des systèmes divergents (réseaux régulateurs de gènes du cycle cellulaire, réseaux de signalisation de cellules pulmonaires) ainsi que des organismes (levure à fission, levure bourgeonnante, rat, humain), nos objectifs étaient complémentaires et cohérents. Le projet principal de la thèse est la modélisation du réseau de l'initiation de septation (SIN) du S.pombe. La cytokinèse dans la levure à fission est contrôlée par le SIN, un réseau signalant de protéines kinases qui utilise le corps à pôle-fuseau comme échafaudage. Afin de décrire le comportement qualitatif du système et prédire des comportements mutants inconnus, nous avons décidé d'adopter l'approche de la modélisation booléenne. Dans cette thèse, nous présentons la construction d'un modèle booléen étendu du SIN, comprenant la plupart des composantes et des régulateurs du SIN en tant que noeuds individuels et testable expérimentalement. Ce modèle utilise des niveaux d'activité du CDK comme noeuds de contrôle pour la simulation d'évènements du SIN à différents stades du cycle cellulaire. Ce modèle a été optimisé en utilisant des expériences d'un seul "knock-out" avec des effets phénotypiques connus comme set d'entraînement. Il a permis de prédire correctement un set d'évaluation de "knock-out" doubles. De plus, le modèle a fait des prédictions in silico qui ont été validées in vivo, permettant d'obtenir de nouvelles idées de la régulation et l'organisation hiérarchique du SIN. Un autre projet concernant le cycle cellulaire qui fait partie de cette thèse a été la construction d'un modèle qualitatif et minimal de la réciprocité des cyclines dans la S.cerevisiae. Les protéines Clb dans la levure bourgeonnante présentent une activation et une dégradation caractéristique et séquentielle durant le cycle cellulaire, qu'on appelle communément les vagues des Clbs. Cet évènement est coordonné avec la courbe d'activation inverse du Sic1, qui a un rôle inhibitoire dans le système. Pour l'identification des modèles qualitatifs minimaux qui peuvent expliquer ce phénomène, nous avons sélectionné des expériences bien définies et construit tous les modèles minimaux possibles qui, une fois simulés, reproduisent les résultats attendus. Les modèles ont été filtrés en utilisant des simulations ODE qualitatives et standardisées; seules celles qui reproduisaient le phénotype des vagues ont été gardées. L'ensemble des modèles minimaux peut être utilisé pour suggérer des relations regulatoires entre les molécules participant qui peuvent ensuite être testées expérimentalement. Enfin, durant mon doctorat, j'ai participé au SBV Improver Challenge. Le but était de déduire des réseaux spécifiques à des espèces (humain et rat) en utilisant des données de phosphoprotéines, d'expressions des gènes et des cytokines, ainsi qu'un réseau de référence, qui était mis à disposition comme donnée préalable. Notre solution pour ce concours a pris la troisième place. L'approche utilisée est expliquée en détail dans le dernier chapitre de la thèse. -- The present dissertation is entitled "Development and Application of Computational Methodologies in Qualitative Modeling". It encompasses the diverse projects that were undertaken during my time as a PhD student. Instead of a systematic implementation of a framework defined a priori, this thesis should be considered as an exploration of the methods that can help us infer the blueprint of regulatory and signaling processes. This exploration was driven by concrete biological questions, rather than theoretical investigation. Even though the projects involved divergent systems (gene regulatory networks of cell cycle, signaling networks in lung cells), as well as organisms (fission yeast, budding yeast, rat, human), our goals were complementary and coherent. The main project of the thesis is the modeling of the Septation Initiation Network (SIN) in S.pombe. Cytokinesis in fission yeast is controlled by the SIN, a protein kinase signaling network that uses the spindle pole body as scaffold. In order to describe the qualitative behavior of the system and predict unknown mutant behaviors we decided to adopt a Boolean modeling approach. In this thesis, we report the construction of an extended, Boolean model of the SIN, comprising most SIN components and regulators as individual, experimentally testable nodes. The model uses CDK activity levels as control nodes for the simulation of SIN related events in different stages of the cell cycle. The model was optimized using single knock-out experiments of known phenotypic effect as a training set, and was able to correctly predict a double knock-out test set. Moreover, the model has made in silico predictions that have been validated in vivo, providing new insights into the regulation and hierarchical organization of the SIN. Another cell cycle related project that is part of this thesis was to create a qualitative, minimal model of cyclin interplay in S.cerevisiae. CLB proteins in budding yeast present a characteristic, sequential activation and decay during the cell cycle, commonly referred to as Clb waves. This event is coordinated with the inverse activation curve of Sic1, which has an inhibitory role in the system. To generate minimal qualitative models that can explain this phenomenon, we selected well-defined experiments and constructed all possible minimal models that, when simulated, reproduce the expected results. The models were filtered using standardized qualitative ODE simulations; only the ones reproducing the wave-like phenotype were kept. The set of minimal models can be used to suggest regulatory relations among the participating molecules, which will subsequently be tested experimentally. Finally, during my PhD I participated in the SBV Improver Challenge. The goal was to infer species-specific (human and rat) networks, using phosphoprotein, gene expression and cytokine data and a reference network provided as prior knowledge. Our solution to the challenge was selected as in the final chapter of the thesis.
Resumo:
La promotion de la santé au travail, le transfert de connaissances et l'échange d'expériences font partie, entre autres, des missions de l'Institut universitaire romand de Santé au Travail (IST). La collaboration entre un pays industrialisé et un pays en voie de développement peut fortement contribuer à la prise de conscience d'un concept important comme celui de la santé au travail. Au Bénin, une formation spécialisée en santé au travail a été mise en place depuis une dizaine d'années. Pour soutenir ses activités de coopération, l'IST a développé, avec le soutien de l'Organisation mondiale de la Santé (OMS) et avec le concours du Service de toxicologie industrielle et des pollutions intérieures de l'Etat de Genève (STIPI), le livre « Introduction à l'hygiène du travail ». Ce document représente un support de cours utile pour former des spécialistes et des intervenants en santé et sécurité au travail qui ne sont pas hygiénistes du travail. Il a été imprimé en 2007 à grande échelle dans la série « Protecting workers' health » de l'OMS et est accessible électroniquement sur le site de l'OMS. Le but de ce travail de diplôme est de mettre en pratique et d'évaluer ce support de cours dans le cadre d'une formation spécialisée en Santé au Travail à la Faculté des Sciences de la Santé de l'Université d'Abomey Calavi à Cotonou, Bénin. Le module d'hygiène du travail a été donné sur une semaine de cours. La semaine était composée de cours théoriques, de visites d'entreprises ainsi que d'un examen d'évaluation en fin de semaine. Globalement, malgré la densité du cours, les messages importants du module ont été acquis. Le support du cours est un outil permettant de transmettre les bases d'une discipline importante dans le domaine de la santé au travail, notamment dans un pays où la législation est encore balbutiante.