306 resultados para Dynamique temporelle


Relevância:

10.00% 10.00%

Publicador:

Resumo:

A la veille de l'introduction de la réforme pénale et civile fédérale dans le canton de Vaud en 2011, la Revue historique vaudoise s'est intéressée à l'histoire de la justice et de la criminalité. Le présent numéro réunit des contributions d'historiens, historiens du droit et historiens de l'art, jeunes ou confirmés, qui livrent ici les résultats de leurs recherches en cours ou récentes, ainsi que des témoignages de magistrats sur l'exercice de la justice et sur les conséquences des changements à venir. Pour cette thématique qui est un champ dynamique de la recherche historiques en Suisse et en Europe depuis la fin des années 1970, deux axes principaux ont été privilégies pour interroger l'exercice de la justice et les interactions entre l'Etat et les justiciables. Le premier traite de la figure du criminel et de la représentation du crime par un examen des pratiques et des discours judiciaires. Le second se concentre sur les acteurs de la justice et sur leurs modes d'actions et leurs motivations. En privilégiant un traitement sur la longue durée, du Moyen Âge à nos jours, ainsi que des études de cas, ce dossier thématique propose des éclairages successifs sur la justice et la criminalité en terres vaudoises. Ils mettent en évidence des transitions, des ruptures et des innovations révélatrices des institutions, de leur fonctionnement et du rôle social de leurs agents

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Abstract: The expansion of a recovering population - whether re-introduced or spontaneously returning - is shaped by (i) biological (intrinsic) factors such as the land tenure system or dispersal, (ii) the distribution and availability of resources (e.g. prey), (iii) habitat and landscape features, and (iv) human attitudes and activities. In order to develop efficient conservation and recovery strategies, we need to understand all these factors and to predict the potential distribution and explore ways to reach it. An increased number of lynx in the north-western Swiss Alps in the nineties lead to a new controversy about the return of this cat. When the large carnivores were given legal protection in many European countries, most organizations and individuals promoting their protection did not foresee the consequences. Management plans describing how to handle conflicts with large predators are needed to find a balance between "overabundance" and extinction. Wildlife and conservation biologists need to evaluate the various threats confronting populations so that adequate management decisions can be taken. I developed a GIS probability model for the lynx, based on habitat information and radio-telemetry data from the Swiss Jura Mountains, in order to predict the potential distribution of the lynx in this mountain range, which is presently only partly occupied by lynx. Three of the 18 variables tested for each square kilometre describing land use, vegetation, and topography, qualified to predict the probability of lynx presence. The resulting map was evaluated with data from dispersing subadult lynx. Young lynx that were not able to establish home ranges in what was identified as good lynx habitat did not survive their first year of independence, whereas the only one that died in good lynx habitat was illegally killed. Radio-telemetry fixes are often used as input data to calibrate habitat models. Radio-telemetry is the only way to gather accurate and unbiased data on habitat use of elusive larger terrestrial mammals. However, it is time consuming and expensive, and can therefore only be applied in limited areas. Habitat models extrapolated over large areas can in turn be problematic, as habitat characteristics and availability may change from one area to the other. I analysed the predictive power of Ecological Niche Factor Analysis (ENFA) in Switzerland with the lynx as focal species. According to my results, the optimal sampling strategy to predict species distribution in an Alpine area lacking available data would be to pool presence cells from contrasted regions (Jura Mountains, Alps), whereas in regions with a low ecological variance (Jura Mountains), only local presence cells should be used for the calibration of the model. Dispersal influences the dynamics and persistence of populations, the distribution and abundance of species, and gives the communities and ecosystems their characteristic texture in space and time. Between 1988 and 2001, the spatio-temporal behaviour of subadult Eurasian lynx in two re-introduced populations in Switzerland was studied, based on 39 juvenile lynx of which 24 were radio-tagged to understand the factors influencing dispersal. Subadults become independent from their mothers at the age of 8-11 months. No sex bias neither in the dispersal rate nor in the distance moved was detected. Lynx are conservative dispersers, compared to bear and wolf, and settled within or close to known lynx occurrences. Dispersal distances reached in the high lynx density population - shorter than those reported in other Eurasian lynx studies - are limited by habitat restriction hindering connections with neighbouring metapopulations. I postulated that high lynx density would lead to an expansion of the population and validated my predictions with data from the north-western Swiss Alps where about 1995 a strong increase in lynx abundance took place. The general hypothesis that high population density will foster the expansion of the population was not confirmed. This has consequences for the re-introduction and recovery of carnivores in a fragmented landscape. To establish a strong source population in one place might not be an optimal strategy. Rather, population nuclei should be founded in several neighbouring patches. Exchange between established neighbouring subpopulations will later on take place, as adult lynx show a higher propensity to cross barriers than subadults. To estimate the potential population size of the lynx in the Jura Mountains and to assess possible corridors between this population and adjacent areas, I adapted a habitat probability model for lynx distribution in the Jura Mountains with new environmental data and extrapolated it over the entire mountain range. The model predicts a breeding population ranging from 74-101 individuals and from 51-79 individuals when continuous habitat patches < 50 km2 are disregarded. The Jura Mountains could once be part of a metapopulation, as potential corridors exist to the adjoining areas (Alps, Vosges Mountains, and Black Forest). Monitoring of the population size, spatial expansion, and the genetic surveillance in the Jura Mountains must be continued, as the status of the population is still critical. ENFA was used to predict the potential distribution of lynx in the Alps. The resulting model divided the Alps into 37 suitable habitat patches ranging from 50 to 18,711 km2, covering a total area of about 93,600 km2. When using the range of lynx densities found in field studies in Switzerland, the Alps could host a population of 961 to 1,827 residents. The results of the cost-distance analysis revealed that all patches were within the reach of dispersing lynx, as the connection costs were in the range of dispersal cost of radio-tagged subadult lynx moving through unfavorable habitat. Thus, the whole Alps could once be considered as a metapopulation. But experience suggests that only few disperser will cross unsuitable areas and barriers. This low migration rate may seldom allow the spontaneous foundation of new populations in unsettled areas. As an alternative to natural dispersal, artificial transfer of individuals across the barriers should be considered. Wildlife biologists can play a crucial role in developing adaptive management experiments to help managers learning by trial. The case of the lynx in Switzerland is a good example of a fruitful cooperation between wildlife biologists, managers, decision makers and politician in an adaptive management process. This cooperation resulted in a Lynx Management Plan which was implemented in 2000 and updated in 2004 to give the cantons directives on how to handle lynx-related problems. This plan was put into practice e.g. in regard to translocation of lynx into unsettled areas. Résumé: L'expansion d'une population en phase de recolonisation, qu'elle soit issue de réintroductions ou d'un retour naturel dépend 1) de facteurs biologiques tels que le système social et le mode de dispersion, 2) de la distribution et la disponibilité des ressources (proies), 3) de l'habitat et des éléments du paysage, 4) de l'acceptation de l'espèce par la population locale et des activités humaines. Afin de pouvoir développer des stratégies efficaces de conservation et de favoriser la recolonisation, chacun de ces facteurs doit être pris en compte. En plus, la distribution potentielle de l'espèce doit pouvoir être déterminée et enfin, toutes les possibilités pour atteindre les objectifs, examinées. La phase de haute densité que la population de lynx a connue dans les années nonante dans le nord-ouest des Alpes suisses a donné lieu à une controverse assez vive. La protection du lynx dans de nombreux pays européens, promue par différentes organisations, a entraîné des conséquences inattendues; ces dernières montrent que tout plan de gestion doit impérativement indiquer des pistes quant à la manière de gérer les conflits, tout en trouvant un équilibre entre l'extinction et la surabondance de l'espèce. Les biologistes de la conservation et de la faune sauvage doivent pour cela évaluer les différents risques encourus par les populations de lynx, afin de pouvoir rapidement prendre les meilleuresmdécisions de gestion. Un modèle d'habitat pour le lynx, basé sur des caractéristiques de l'habitat et des données radio télémétriques collectées dans la chaîne du Jura, a été élaboré afin de prédire la distribution potentielle dans cette région, qui n'est que partiellement occupée par l'espèce. Trois des 18 variables testées, décrivant pour chaque kilomètre carré l'utilisation du sol, la végétation ainsi que la topographie, ont été retenues pour déterminer la probabilité de présence du lynx. La carte qui en résulte a été comparée aux données télémétriques de lynx subadultes en phase de dispersion. Les jeunes qui n'ont pas pu établir leur domaine vital dans l'habitat favorable prédit par le modèle n'ont pas survécu leur première année d'indépendance alors que le seul individu qui est mort dans l'habitat favorable a été braconné. Les données radio-télémétriques sont souvent utilisées pour l'étalonnage de modèles d'habitat. C'est un des seuls moyens à disposition qui permette de récolter des données non biaisées et précises sur l'occupation de l'habitat par des mammifères terrestres aux moeurs discrètes. Mais ces méthodes de- mandent un important investissement en moyens financiers et en temps et peuvent, de ce fait, n'être appliquées qu'à des zones limitées. Les modèles d'habitat sont ainsi souvent extrapolés à de grandes surfaces malgré le risque d'imprécision, qui résulte des variations des caractéristiques et de la disponibilité de l'habitat d'une zone à l'autre. Le pouvoir de prédiction de l'Analyse Ecologique de la Niche (AEN) dans les zones où les données de présence n'ont pas été prises en compte dans le calibrage du modèle a été analysée dans le cas du lynx en Suisse. D'après les résultats obtenus, la meilleure mé- thode pour prédire la distribution du lynx dans une zone alpine dépourvue d'indices de présence est de combiner des données provenant de régions contrastées (Alpes, Jura). Par contre, seules les données sur la présence locale de l'espèce doivent être utilisées pour les zones présentant une faible variance écologique tel que le Jura. La dispersion influence la dynamique et la stabilité des populations, la distribution et l'abondance des espèces et détermine les caractéristiques spatiales et temporelles des communautés vivantes et des écosystèmes. Entre 1988 et 2001, le comportement spatio-temporel de lynx eurasiens subadultes de deux populations réintroduites en Suisse a été étudié, basé sur le suivi de 39 individus juvéniles dont 24 étaient munis d'un collier émetteur, afin de déterminer les facteurs qui influencent la dispersion. Les subadultes se sont séparés de leur mère à l'âge de 8 à 11 mois. Le sexe n'a pas eu d'influence sur le nombre d'individus ayant dispersés et la distance parcourue au cours de la dispersion. Comparé à l'ours et au loup, le lynx reste très modéré dans ses mouvements de dispersion. Tous les individus ayant dispersés se sont établis à proximité ou dans des zones déjà occupées par des lynx. Les distances parcourues lors de la dispersion ont été plus courtes pour la population en phase de haute densité que celles relevées par les autres études de dispersion du lynx eurasien. Les zones d'habitat peu favorables et les barrières qui interrompent la connectivité entre les populations sont les principales entraves aux déplacements, lors de la dispersion. Dans un premier temps, nous avons fait l'hypothèse que les phases de haute densité favorisaient l'expansion des populations. Mais cette hypothèse a été infirmée par les résultats issus du suivi des lynx réalisé dans le nord-ouest des Alpes, où la population connaissait une phase de haute densité depuis 1995. Ce constat est important pour la conservation d'une population de carnivores dans un habitat fragmenté. Ainsi, instaurer une forte population source à un seul endroit n'est pas forcément la stratégie la plus judicieuse. Il est préférable d'établir des noyaux de populations dans des régions voisines où l'habitat est favorable. Des échanges entre des populations avoisinantes pourront avoir lieu par la suite car les lynx adultes sont plus enclins à franchir les barrières qui entravent leurs déplacements que les individus subadultes. Afin d'estimer la taille de la population de lynx dans le Jura et de déterminer les corridors potentiels entre cette région et les zones avoisinantes, un modèle d'habitat a été utilisé, basé sur un nouveau jeu de variables environnementales et extrapolé à l'ensemble du Jura. Le modèle prédit une population reproductrice de 74 à 101 individus et de 51 à 79 individus lorsque les surfaces d'habitat d'un seul tenant de moins de 50 km2 sont soustraites. Comme des corridors potentiels existent effectivement entre le Jura et les régions avoisinantes (Alpes, Vosges, et Forêt Noire), le Jura pourrait faire partie à l'avenir d'une métapopulation, lorsque les zones avoisinantes seront colonisées par l'espèce. La surveillance de la taille de la population, de son expansion spatiale et de sa structure génétique doit être maintenue car le statut de cette population est encore critique. L'AEN a également été utilisée pour prédire l'habitat favorable du lynx dans les Alpes. Le modèle qui en résulte divise les Alpes en 37 sous-unités d'habitat favorable dont la surface varie de 50 à 18'711 km2, pour une superficie totale de 93'600 km2. En utilisant le spectre des densités observées dans les études radio-télémétriques effectuées en Suisse, les Alpes pourraient accueillir une population de lynx résidents variant de 961 à 1'827 individus. Les résultats des analyses de connectivité montrent que les sous-unités d'habitat favorable se situent à des distances telles que le coût de la dispersion pour l'espèce est admissible. L'ensemble des Alpes pourrait donc un jour former une métapopulation. Mais l'expérience montre que très peu d'individus traverseront des habitats peu favorables et des barrières au cours de leur dispersion. Ce faible taux de migration rendra difficile toute nouvelle implantation de populations dans des zones inoccupées. Une solution alternative existe cependant : transférer artificiellement des individus d'une zone à l'autre. Les biologistes spécialistes de la faune sauvage peuvent jouer un rôle important et complémentaire pour les gestionnaires de la faune, en les aidant à mener des expériences de gestion par essai. Le cas du lynx en Suisse est un bel exemple d'une collaboration fructueuse entre biologistes de la faune sauvage, gestionnaires, organes décisionnaires et politiciens. Cette coopération a permis l'élaboration du Concept Lynx Suisse qui est entré en vigueur en 2000 et remis à jour en 2004. Ce plan donne des directives aux cantons pour appréhender la problématique du lynx. Il y a déjà eu des applications concrètes sur le terrain, notamment par des translocations d'individus dans des zones encore inoccupées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Risk theory has been a very active research area over the last decades. The main objectives of the theory are to find adequate stochastic processes which can model the surplus of a (non-life) insurance company and to analyze the risk related quantities such as ruin time, ruin probability, expected discounted penalty function and expected discounted dividend/tax payments. The study of these ruin related quantities provides crucial information for actuaries and decision makers. This thesis consists of the study of four different insurance risk models which are essentially related. The ruin and related quantities are investigated by using different techniques, resulting in explicit or asymptotic expressions for the ruin time, the ruin probability, the expected discounted penalty function and the expected discounted tax payments. - La recherche en théorie du risque a été très dynamique au cours des dernières décennies. D'un point de vue théorique, les principaux objectifs sont de trouver des processus stochastiques adéquats permettant de modéliser le surplus d'une compagnie d'assurance non vie et d'analyser les mesures de risque, notamment le temps de ruine, la probabilité de ruine, l'espérance de la valeur actuelle de la fonction de pénalité et l'espérance de la valeur actuelle des dividendes et taxes. L'étude de ces mesures associées à la ruine fournit des informations cruciales pour les actuaires et les décideurs. Cette thèse consiste en l'étude des quatre différents modèles de risque d'assurance qui sont essentiellement liés. La ruine et les mesures qui y sont associées sont examinées à l'aide de différentes techniques, ce qui permet d'induire des expressions explicites ou asymptotiques du temps de ruine, de la probabilité de ruine, de l'espérance de la valeur actuelle de la fonction de pénalité et l'espérance de la valeur actuelle des dividendes et taxes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

EXECUTIVE SUMMARY : Evaluating Information Security Posture within an organization is becoming a very complex task. Currently, the evaluation and assessment of Information Security are commonly performed using frameworks, methodologies and standards which often consider the various aspects of security independently. Unfortunately this is ineffective because it does not take into consideration the necessity of having a global and systemic multidimensional approach to Information Security evaluation. At the same time the overall security level is globally considered to be only as strong as its weakest link. This thesis proposes a model aiming to holistically assess all dimensions of security in order to minimize the likelihood that a given threat will exploit the weakest link. A formalized structure taking into account all security elements is presented; this is based on a methodological evaluation framework in which Information Security is evaluated from a global perspective. This dissertation is divided into three parts. Part One: Information Security Evaluation issues consists of four chapters. Chapter 1 is an introduction to the purpose of this research purpose and the Model that will be proposed. In this chapter we raise some questions with respect to "traditional evaluation methods" as well as identifying the principal elements to be addressed in this direction. Then we introduce the baseline attributes of our model and set out the expected result of evaluations according to our model. Chapter 2 is focused on the definition of Information Security to be used as a reference point for our evaluation model. The inherent concepts of the contents of a holistic and baseline Information Security Program are defined. Based on this, the most common roots-of-trust in Information Security are identified. Chapter 3 focuses on an analysis of the difference and the relationship between the concepts of Information Risk and Security Management. Comparing these two concepts allows us to identify the most relevant elements to be included within our evaluation model, while clearing situating these two notions within a defined framework is of the utmost importance for the results that will be obtained from the evaluation process. Chapter 4 sets out our evaluation model and the way it addresses issues relating to the evaluation of Information Security. Within this Chapter the underlying concepts of assurance and trust are discussed. Based on these two concepts, the structure of the model is developed in order to provide an assurance related platform as well as three evaluation attributes: "assurance structure", "quality issues", and "requirements achievement". Issues relating to each of these evaluation attributes are analysed with reference to sources such as methodologies, standards and published research papers. Then the operation of the model is discussed. Assurance levels, quality levels and maturity levels are defined in order to perform the evaluation according to the model. Part Two: Implementation of the Information Security Assurance Assessment Model (ISAAM) according to the Information Security Domains consists of four chapters. This is the section where our evaluation model is put into a welldefined context with respect to the four pre-defined Information Security dimensions: the Organizational dimension, Functional dimension, Human dimension, and Legal dimension. Each Information Security dimension is discussed in a separate chapter. For each dimension, the following two-phase evaluation path is followed. The first phase concerns the identification of the elements which will constitute the basis of the evaluation: ? Identification of the key elements within the dimension; ? Identification of the Focus Areas for each dimension, consisting of the security issues identified for each dimension; ? Identification of the Specific Factors for each dimension, consisting of the security measures or control addressing the security issues identified for each dimension. The second phase concerns the evaluation of each Information Security dimension by: ? The implementation of the evaluation model, based on the elements identified for each dimension within the first phase, by identifying the security tasks, processes, procedures, and actions that should have been performed by the organization to reach the desired level of protection; ? The maturity model for each dimension as a basis for reliance on security. For each dimension we propose a generic maturity model that could be used by every organization in order to define its own security requirements. Part three of this dissertation contains the Final Remarks, Supporting Resources and Annexes. With reference to the objectives of our thesis, the Final Remarks briefly analyse whether these objectives were achieved and suggest directions for future related research. Supporting resources comprise the bibliographic resources that were used to elaborate and justify our approach. Annexes include all the relevant topics identified within the literature to illustrate certain aspects of our approach. Our Information Security evaluation model is based on and integrates different Information Security best practices, standards, methodologies and research expertise which can be combined in order to define an reliable categorization of Information Security. After the definition of terms and requirements, an evaluation process should be performed in order to obtain evidence that the Information Security within the organization in question is adequately managed. We have specifically integrated into our model the most useful elements of these sources of information in order to provide a generic model able to be implemented in all kinds of organizations. The value added by our evaluation model is that it is easy to implement and operate and answers concrete needs in terms of reliance upon an efficient and dynamic evaluation tool through a coherent evaluation system. On that basis, our model could be implemented internally within organizations, allowing them to govern better their Information Security. RÉSUMÉ : Contexte général de la thèse L'évaluation de la sécurité en général, et plus particulièrement, celle de la sécurité de l'information, est devenue pour les organisations non seulement une mission cruciale à réaliser, mais aussi de plus en plus complexe. A l'heure actuelle, cette évaluation se base principalement sur des méthodologies, des bonnes pratiques, des normes ou des standards qui appréhendent séparément les différents aspects qui composent la sécurité de l'information. Nous pensons que cette manière d'évaluer la sécurité est inefficiente, car elle ne tient pas compte de l'interaction des différentes dimensions et composantes de la sécurité entre elles, bien qu'il soit admis depuis longtemps que le niveau de sécurité globale d'une organisation est toujours celui du maillon le plus faible de la chaîne sécuritaire. Nous avons identifié le besoin d'une approche globale, intégrée, systémique et multidimensionnelle de l'évaluation de la sécurité de l'information. En effet, et c'est le point de départ de notre thèse, nous démontrons que seule une prise en compte globale de la sécurité permettra de répondre aux exigences de sécurité optimale ainsi qu'aux besoins de protection spécifiques d'une organisation. Ainsi, notre thèse propose un nouveau paradigme d'évaluation de la sécurité afin de satisfaire aux besoins d'efficacité et d'efficience d'une organisation donnée. Nous proposons alors un modèle qui vise à évaluer d'une manière holistique toutes les dimensions de la sécurité, afin de minimiser la probabilité qu'une menace potentielle puisse exploiter des vulnérabilités et engendrer des dommages directs ou indirects. Ce modèle se base sur une structure formalisée qui prend en compte tous les éléments d'un système ou programme de sécurité. Ainsi, nous proposons un cadre méthodologique d'évaluation qui considère la sécurité de l'information à partir d'une perspective globale. Structure de la thèse et thèmes abordés Notre document est structuré en trois parties. La première intitulée : « La problématique de l'évaluation de la sécurité de l'information » est composée de quatre chapitres. Le chapitre 1 introduit l'objet de la recherche ainsi que les concepts de base du modèle d'évaluation proposé. La maniéré traditionnelle de l'évaluation de la sécurité fait l'objet d'une analyse critique pour identifier les éléments principaux et invariants à prendre en compte dans notre approche holistique. Les éléments de base de notre modèle d'évaluation ainsi que son fonctionnement attendu sont ensuite présentés pour pouvoir tracer les résultats attendus de ce modèle. Le chapitre 2 se focalise sur la définition de la notion de Sécurité de l'Information. Il ne s'agit pas d'une redéfinition de la notion de la sécurité, mais d'une mise en perspectives des dimensions, critères, indicateurs à utiliser comme base de référence, afin de déterminer l'objet de l'évaluation qui sera utilisé tout au long de notre travail. Les concepts inhérents de ce qui constitue le caractère holistique de la sécurité ainsi que les éléments constitutifs d'un niveau de référence de sécurité sont définis en conséquence. Ceci permet d'identifier ceux que nous avons dénommés « les racines de confiance ». Le chapitre 3 présente et analyse la différence et les relations qui existent entre les processus de la Gestion des Risques et de la Gestion de la Sécurité, afin d'identifier les éléments constitutifs du cadre de protection à inclure dans notre modèle d'évaluation. Le chapitre 4 est consacré à la présentation de notre modèle d'évaluation Information Security Assurance Assessment Model (ISAAM) et la manière dont il répond aux exigences de l'évaluation telle que nous les avons préalablement présentées. Dans ce chapitre les concepts sous-jacents relatifs aux notions d'assurance et de confiance sont analysés. En se basant sur ces deux concepts, la structure du modèle d'évaluation est développée pour obtenir une plateforme qui offre un certain niveau de garantie en s'appuyant sur trois attributs d'évaluation, à savoir : « la structure de confiance », « la qualité du processus », et « la réalisation des exigences et des objectifs ». Les problématiques liées à chacun de ces attributs d'évaluation sont analysées en se basant sur l'état de l'art de la recherche et de la littérature, sur les différentes méthodes existantes ainsi que sur les normes et les standards les plus courants dans le domaine de la sécurité. Sur cette base, trois différents niveaux d'évaluation sont construits, à savoir : le niveau d'assurance, le niveau de qualité et le niveau de maturité qui constituent la base de l'évaluation de l'état global de la sécurité d'une organisation. La deuxième partie: « L'application du Modèle d'évaluation de l'assurance de la sécurité de l'information par domaine de sécurité » est elle aussi composée de quatre chapitres. Le modèle d'évaluation déjà construit et analysé est, dans cette partie, mis dans un contexte spécifique selon les quatre dimensions prédéfinies de sécurité qui sont: la dimension Organisationnelle, la dimension Fonctionnelle, la dimension Humaine, et la dimension Légale. Chacune de ces dimensions et son évaluation spécifique fait l'objet d'un chapitre distinct. Pour chacune des dimensions, une évaluation en deux phases est construite comme suit. La première phase concerne l'identification des éléments qui constituent la base de l'évaluation: ? Identification des éléments clés de l'évaluation ; ? Identification des « Focus Area » pour chaque dimension qui représentent les problématiques se trouvant dans la dimension ; ? Identification des « Specific Factors » pour chaque Focus Area qui représentent les mesures de sécurité et de contrôle qui contribuent à résoudre ou à diminuer les impacts des risques. La deuxième phase concerne l'évaluation de chaque dimension précédemment présentées. Elle est constituée d'une part, de l'implémentation du modèle général d'évaluation à la dimension concernée en : ? Se basant sur les éléments spécifiés lors de la première phase ; ? Identifiant les taches sécuritaires spécifiques, les processus, les procédures qui auraient dû être effectués pour atteindre le niveau de protection souhaité. D'autre part, l'évaluation de chaque dimension est complétée par la proposition d'un modèle de maturité spécifique à chaque dimension, qui est à considérer comme une base de référence pour le niveau global de sécurité. Pour chaque dimension nous proposons un modèle de maturité générique qui peut être utilisé par chaque organisation, afin de spécifier ses propres exigences en matière de sécurité. Cela constitue une innovation dans le domaine de l'évaluation, que nous justifions pour chaque dimension et dont nous mettons systématiquement en avant la plus value apportée. La troisième partie de notre document est relative à la validation globale de notre proposition et contient en guise de conclusion, une mise en perspective critique de notre travail et des remarques finales. Cette dernière partie est complétée par une bibliographie et des annexes. Notre modèle d'évaluation de la sécurité intègre et se base sur de nombreuses sources d'expertise, telles que les bonnes pratiques, les normes, les standards, les méthodes et l'expertise de la recherche scientifique du domaine. Notre proposition constructive répond à un véritable problème non encore résolu, auquel doivent faire face toutes les organisations, indépendamment de la taille et du profil. Cela permettrait à ces dernières de spécifier leurs exigences particulières en matière du niveau de sécurité à satisfaire, d'instancier un processus d'évaluation spécifique à leurs besoins afin qu'elles puissent s'assurer que leur sécurité de l'information soit gérée d'une manière appropriée, offrant ainsi un certain niveau de confiance dans le degré de protection fourni. Nous avons intégré dans notre modèle le meilleur du savoir faire, de l'expérience et de l'expertise disponible actuellement au niveau international, dans le but de fournir un modèle d'évaluation simple, générique et applicable à un grand nombre d'organisations publiques ou privées. La valeur ajoutée de notre modèle d'évaluation réside précisément dans le fait qu'il est suffisamment générique et facile à implémenter tout en apportant des réponses sur les besoins concrets des organisations. Ainsi notre proposition constitue un outil d'évaluation fiable, efficient et dynamique découlant d'une approche d'évaluation cohérente. De ce fait, notre système d'évaluation peut être implémenté à l'interne par l'entreprise elle-même, sans recourir à des ressources supplémentaires et lui donne également ainsi la possibilité de mieux gouverner sa sécurité de l'information.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Chemosensory receptor gene families encode divergent proteins capable of detecting a huge diversity of environmental stimuli that are constantly changing over evolutionary time as organisms adapt to distinct ecological niches. While olfaction is dedicated to the detection of volatile compounds, taste is key to assess food quality for nutritional value and presence of toxic substances. The sense of taste also provides initial signals to mediate endocrine regulation of appetite and food metabolism and plays a role in kin recognition. The fruit fly Drosophila melanogaster is a very good model for studying smell and taste because these senses are very important in insects and because a broad variety of genetic tools are available in Drosophila. Recently, a family of 66 chemosensory receptors, the Ionotropic Receptors (IRs) was described in fruit flies. IRs are distantly related to ionotropic glutamate receptors (iGluRs), but their evolutionary origin from these synaptic receptors is unclear. While 16 IRs are expressed in the olfactory system, nothing is known about the other members of this repertoire. In this thesis, I describe bioinformatic, expression and functional analyses of the IRs aimed at understanding how these receptors have evolved, and at characterising the role of the non-olfactory IRs. I show that these have emerged at the basis of the protostome lineage and probably have acquired their sensory function very early. Moreover, although several IRs are conserved across insects, there are rapid and dramatic changes in the size and divergence of IR repertoires across species. I then performed a comprehensive analysis of IR expression in the larva of Drosophila melanogaster, which is a good model to study taste and feeding mechanisms as it spends most of its time eating or foraging. I found that most of the divergent members of the IR repertoire are expressed in both peripheral and internal gustatory neurons, suggesting that these are involved in taste perception. Finally, through the establishment of a new neurophysiological assay in larvae, I identified for the first time subsets of IR neurons that preferentially detect sugars and amino acids, indicating that IRs might be involved in sensing these compounds. Together, my results indicate that IRs are an evolutionarily dynamic and functionally versatile family of receptors. In contrast to the olfactory IRs that are well-conserved, gustatory IRs are rapidly evolving species-specific receptors that are likely to be involved in detecting a wide variety of tastants. - La plupart des animaux possèdent de grandes familles de récepteurs chimiosensoriels dont la fonction est de détecter l'immense diversité de composés chimiques présents dans l'environnement. Ces récepteurs évoluent en même temps que les organismes s'adaptent à leur écosystème. Il existe deux manières de percevoir ces signaux chimiques : l'olfaction et le goût. Alors que le système olfactif perçoit les composés volatiles, le sens du goût permet d'évaluer, par contact, la qualité de la nourriture, de détecter des substances toxiques et de réguler l'appétit et le métabolisme. L'un des organismes modèles les plus pertinents pour étudier le sens du goût est le stade larvaire de la mouche du vinaigre Drosophila melanogaster. En effet, la principale fonction du stade larvaire est de trouver de la nourriture et de manger. De plus, il est possible d'utiliser tous les outils génétiques développés chez la drosophile. Récemment, une nouvelle famille de 66 récepteurs chimiosensoriels appelés Récepteurs Ionotropiques (IRs) a été découverte chez la drosophile. Bien que leur orogine soit peu claire, ces récepteurs sont similaires aux récepteurs ionotropiques glutamatergiques impliqués dans la transmission synaptique. 16 IRs sont exprimés dans le système olfactif de la mouche adulte, mais pour l'instant on ne connaît rien des autres membres de cette famille. Durant ma thèse, j'ai effectué des recherches sur l'évolution de ces récepteurs ainsi que sur l'expression et la fonction des IRs non olfactifs. Je démontre que les IRs sont apparus chez l'ancêtre commun des protostomiens et ont probablement acquis leur fonction sensorielle très rapidement. De plus, bien qu'un certain nombre d'IRs olfactifs soient conservés chez les insectes, d'importantes variations dans la taille et la divergence des répertoires d'IRs entre les espèces ont été constatées. J'ai également découvert qu'un grand nombre d'IRs non olfactifs sont exprimés dans différents organes gustatifs, ce qui leur confère probablement une fonction dans la perception des goûts. Finalement, pour la première fois, des neurones exprimant des IRs ont été identifiés pour leur fonction dans la perception de sucres et d'acides aminés chez la larve. Mes résultats présentent les IRs comme une famille très dynamique, aux fonctions très variées, qui joue un rôle tant dans l'odorat que dans le goût, et dont la fonction est restée importante tout au long de l'évolution. De plus, l'identification de neurones spécialisés dans la perception de certains composés permettra l'étude des circuits neuronaux impliqués dans le traitement de ces informations.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé sous forme de thèses 1. La présente thèse de doctorat traite de la problématique des licences obligatoires en droit communautaire de la concurrence. Plus précisément, il s'agit d'examiner si et sous quelles conditions le refus de licencier un droit de propriété intellectuelle par une entreprise peut constituer un abus d'une position dominante selon l'article 82 du Traité CE. L'étude fait notamment référence aux marchés de haute technologie et ici à la décision Microsoft, qui a été publiée par la Commission européenne en mars 2004 et qui porte, dans sa deuxième partie, sur la possibilité de rendre interopérables différents composants, via des informations appelées interfaces. 2. La question d'une licence obligatoire ne se pose que si l'information recherchée est protégée par un droit de propriété intellectuelle et si cette information ne peut être obtenue par d'autres moyens. C'est pourquoi la première partie de l'étude examine deux sujets importants concernant l'interopérabilité: d'une part la méthode de décompilation permet-elle d'obtenir des interfaces de logiciel, d'autre part, les interfaces sont-elles protégées par le droit d'auteur. 3. En ce qui concerne la décompilation des programmes d'ordinateur, l'étude démontre que cette méthode ne permet pas de rendre interopérables différents programmes d'ordinateur de manière efficace. Le droit européen a légalisé cette méthode, après des débats publics très vifs, par l'article 6 de la directive concernant la protection juridique des programmes d'ordinateur (91/250/CEE). Il semble néanmoins que la lutte pour un tel droit de décompilation a été vaine :Tout d'abord, l'article 6 est rédigé d'une façon très complexe et autorise une décompilation seulement selon des conditions très restrictives. En plus, la décompilation en elle-même est un travail très complexe qui peut durer des années et qui ne garantit pas de trouver les informations recherchées. 4. En outre, une réglementation de décompilation n'existe jusqu'à présent que dans le domaine du droit d'auteur, tandis qu'une règlementation pour la protection juridique des brevets fait défaut. La question concernant la protection juridique des brevets pour les inventions mises en rouvre par ordinateur restera aussi dans le futur sans réponse, étant donné que le Parlement européen a rejeté une telle proposition de directive en juillet 2005. Ceci est regrettable, parce que la proposition de directive prévoyait explicitement un droit de décompilation. La Commission européenne projette, cependant, de réexaminer les dispositions de décompilation relatives au droit d'auteur. Dans ce contexte, il devrait notamment être examiné si les dispositions de décompilation de l'article 6 de la directive des programmes d'ordinateur sont satisfaisantes afin de garantir une (certaine) interopérabilité. 5. Un réexamen de la directive concernant la protection juridique des programmes d'ordinateur pourrait aussi servir à clarifier l'existence et l'étendue de la protection d'interfaces. L'article 1, paragraphe 2, 2ième phrase se réfère dans ce contexte uniquement à un principe reconnu en droit international du droit d'auteur, dénommé «dichotomie d'idée/d'expression» : seul l'expression individuelle est protégée, mais pas l'idée en tant que telle. La rédaction de l'article devrait ainsi préciser qu'une spécification d'une interface constitue toujours une idée, qui ne peut pas être protégée, alors que l'implémentation de l'interface dans un programme d'ordinateur représente son expression et devrait ainsi bénéficier d'une protection selon le droit d'auteur. Or, dans la plupart des cas, la spécification d'une interface est suffisante pour rendre interopérables différents programmes d'ordinateur. 6. La Commission dans sa décision Microsoft a pourtant supposé que les interfaces recherchées par les concurrents de Microsoft pouvaient être protégées par des droits de propriété intellectuelle. En effet, le seul moyen à disposition pour ceux qui veulent rendre interopérables leur programme d'ordinateur et avec celui d'une entreprise dominante est le recours à l'article 82 CE. Ici, la question qui se pose est celle de savoir si le refus de fournir des interfaces constitue un abus d'une position dominante et donc mène à l'octroi d'une licence obligatoire. 7. Dans le contexte des licences obligatoires selon l'article 82 CE, il est courant d'invoquer la relation de conflit entre la propriété intellectuelle et le droit de la concurrence. Or, l'étude démontre que ces deux institutions de droit poursuivent le même but, à savoir l'encouragement au bien-être des consommateurs en stimulant l'innovation. Les objectifs convergent notamment si on définit la concurrence plutôt en tant que concept dynamique. Par conséquent, des restrictions temporaires à la concurrence peuvent être acceptées, si ceci mène à la création de la concurrence à long terme. Pourtant, des conflits potentiels persistent, étant donné qu'on ne peut pas argumenter que chaque restriction à la concurrence effectuée par le titulaire d'un droit de propriété intellectuelle mène à l'incitation de l'innovation à long terme. 8. En réfutant ce dernier argument, l'étude démontre que les droits de propriété intellectuelle ne peuvent pas être généralement exemptés de l'application du droit de la concurrence. Notamment, selon l'état actuel de la jurisprudence, il ne peut être soutenu qu'il existe un noyau dur spécifique du droit de la propriété intellectuelle, qui ne devrait pas être affecté par le droit de la concurrence. L'ordonnance d'une licence obligatoire peut être justifiée sur la base de l'article 82 CE, dans la mesure où la balance d'intérêts démontre un effet positif au bien-être des consommateurs résultant d'une telle licence. En même temps, les droits individuels du propriétaire d'un droit de propriété intellectuelle sont à respecter, surtout la liberté contractuelle et la protection de la propriété. 9. Le droit de la liberté contractuelle et le droit de la propriété sont atteints, si le propriétaire d'un droit, de nature matérielle ou immatérielle, n'a exercé son droit de propriété que pour lui-même, exclusivement, sans jamais avoir démontré la volonté de s'acquitter de ses droits. C'est donc surtout pour protéger ces deux principes de droit que la présente étude fait une distinction majeure entre le refus de contracter et la rupture d'une relation contractuelle. 10. Le premier cas est traité de manière détaillée sous le chapitre de la doctrine des facilités essentielles (EFD). Selon la position prise ici, cette constellation est caractérisée par l'obligation du propriétaire de contracter et ainsi d'établir des relations d'affaires avec ses concurrents. Or, un principe selon lequel les entreprises en position dominante sont obligées d'encourager la concurrence, n'existe pas en droit communautaire. Il est toutefois nécessaire de pouvoir imposer une telle obligation, notamment dans les cas où la concurrence sur un marché ne peut être mise en oeuvre à long terme par un autre moyen et où cette ouverture du marché n'entraîne pas d'obstacles à l'innovation. 11. La constellation particulière des facilités essentielles exige néanmoins un contrôle plus prudent que dans les cas constituant une rupture de relation d'affaires. Cette exigence a été respectée sur base des conditions que l'arrêt Bronner a établit concernant l'essentialité d'une facilité. Même si l'établissement en question remplit toutes les conditions afin d'être qualifié d'essentiel, l'ordonnance d'un accès obligé doit encore passer l'examen d'une balance d'intérêts. Celle-ci mène encore plus rarement à l'octroi d'une licence dans les cas où la facilité est protégée par un droit de propriété intellectuelle. Des exceptions à cette règle existent si le droit de la propriété intellectuelle n'a pas été obtenu par des moyens basés sur le mérite ou si la fonction d'incitation à l'innovation est en doute. 12. L'affaire IMS Health présente un tel cas exceptionnel. La structure recherchée par les concurrents de IMS remplissait, au moment de l'examen de l'affaire par la Commission européenne, tous les critères d'un standard de facto. En outre, au moment du développement de la structure, celle-ci ne bénéficiait pas d'une protection de droit immatérielle. Une telle protection ne lui a été accordée que depuis la transposition de la directive concernant la protection juridique des bases de données en droit d'auteur allemand. Par conséquent, IMS ne pouvait avoir entrepris des investissements dans la construction de la structure, afin de profiter ultérieurement de la protection du droit d'auteur. Ceci affaiblit la présomption selon laquelle l'utilisation exclusive du droit aurait dû être préservée afin de ne pas faire obstacle à l'innovation. 13. Le cas européen de Microsoft se distingue de cette constellation. Les conditions qui ont mené à la décision de la Commission européenne quant à l'attribution d'interopérabilité et ainsi à une licence obligatoire d'interfaces, ont été présenté de manière détaillée dans cette étude. Elles fournissent les meilleures preuves que les «circonstances exceptionnelles », qui ont été déterminantes dans l'affaire Magill de la Cour de justice, à savoir «l'empêchement de la création d'un nouveau produit », le «manque de justification objective » et «l'empêchement de toute concurrence sur un marché en aval distinct », ne peuvent constituer une énumération exhaustive pour l'ordonnance d'une licence obligatoire. 14. En effet, dans l'affaire Microsoft, l'intersection progressive d'interopérabilité entre les systèmes d'exploitation étrangers à Microsoft et des systèmes d'exploitation de Microsoft n'a pas empêché la création de nouveaux produits. Le marché en question, celui des systèmes d'exploitation pour serveur de groupe de travail, avait été créé par l'entreprise Novell. Par conséquent, quand Microsoft a accédé à ce marché, d'autres entreprises en situation d'offre s'y trouvaient déjà avec leurs produits. Il s'en suit que, en 'exigeant de Microsoft des interfaces correspondantes, il s'agissait d'assurer l'interopérabilité avec les produits de Microsoft, et surtout avec l'omniprésent système d'exploitation pour ordinateur PC, afin de maintenir des produits déjà existants sur le marché, et notamment des produits «pionniers »qui avaient pris le risque d'exploiter le marché des systèmes d'exploitation pour serveur de groupe de travail. 15. Une autre circonstance exceptionnelle que celle d'un nouveau produit empêché donne l'impulsion à la thèse qu'une intersection progressive aux interfaces de Microsoft constitue un abus d'une position dominante selon l'article 82 CE : celle du transfert du pouvoir de marché. L'intégration verticale d'une entreprise en position dominante sur un marché qui n'a jusqu'à ce jour été que fourni par celle-ci, et qui rompt des relations contractuelles avec des entreprises agissant sur ce marché, afin d'évincer de la concurrence, constitue un cas de type connu de l'abus, reconnue pour la première fois dans l'arrêt Commercial Solvents de la CJCE: L'entreprise en position dominante utilise son pouvoir sur un marché initial et stratégiquement important et se sert ainsi des avantages, qui ne peuvent être conciliés avec le concept de concurrence par le mérite. 16. Il doit être de même si le bien en question bénéficie d'un droit immatériel, et qu'il s'agit ainsi d'un arrêt d'une licence. En effet, les fonctions, en principe supposées, d'incitation et de mérite, perdent de leur importance si le bien en question a déjà fait objet d'une licence: Il ne peut pas alors être argumenté que le propriétaire d'un droit immatériel doit l'utiliser exclusivement lui-même, afin de profiter des fruits de son mérite. Cet argument particulier de la prise en compte de l'effet d'incitation et de mérite perd d'autant plus de sa pertinence, si l'entreprise en cause ne fournit pas sur le marché dérivé une innovation, mais ne sert juste qu'à vendre un produit déjà préexistant. 17. Dans le domaine de licence de propriété intellectuelle obligatoire selon l'article 82 CE, les juridictions européennes n'ont jusqu'à présent uniquement eu à décider sur des constellations de cas, dans lesquelles le droit n'avait pas été l'objet d'une licence antérieure. Avec le cas Microsoft, le Tribunal de Première Instance a maintenant la possibilité de décider d'une distinction importante à faire en droit de la concurrence entre, d'une part, les cas dans lesquels un droit de propriété intellectuelle n'a pas encore été l'objet d'une licence et de l'autre, ceux dans lesquels il s'agit d'une rupture de licence.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé I. Introduction La présente étude analyse les conflits entre les autorités nationales de concurrence dans le cas de figure où plusieurs autorités examinent en même temps la convergence d'une opération de concentration avec leur droit de concentration respectif. Tandis que le débat concernant le contrôle parallèle des opérations de concentration internationales est aujourd'hui extrêmement vif, la recherche fondamentale sur ce sujet n'a pas encore beaucoup avancé. Cependant il y a un besoin de réforme évident, un besoin au centre duquel se situe une réflexion sur l'organisation du droit de concurrence international. Le but de cette étude est donc de fournir une vue d'ensemble des conflits possibles entre les autorités nationales de concurrence en matière politique, économique et juridique (matérielle et procédurale) causés par une opération de concentration internationale. L'objectif n'est pas de fournir une évaluation des différents systèmes de contrôle de concentration, mais plutôt de chercher la source des conflits. Par ailleurs, l'analyse qui suit insistera sur la nécessité d'une solution internationale de ces conflits. II. Arrière-plan Depuis plusieurs décennies, les relations économiques internationales entre les Etats et les entreprises ont été profondément marquées par un processus dynamique de globalisation et de libéralisation. La libéralisation a engendré une croissance énorme du commerce mondial. En conséquence, les entreprises ont développé des stratégies globales pour arriver à une croissance durable. Ainsi, le nombre et la taille des entreprises internationales a constamment augmenté. À cause de cette présence globale des entreprises, les anciens marchés nationaux ou régionaux sont devenus des marchés globaux. Dans le cadre de la libéralisation économique, beaucoup d'Etats ainsi que l'Union Européenne ont reconnu que la concurrence est le moyen approprié pour faire progresser l'innovation et la croissance économique. Il faut donc maintenir et développer les structures de concurrence. Pour cela, il faut surveiller dans le cadre du droit de contrôle international toutes les pratiques concertées dont l'objet ou l'effet serait de restreindre la concurrence, ainsi que les abus d'une position dominante ou les opérations de concentration d'entreprises. Jusqu'à présent, sur environ 200 Etats souverains existants au monde, une bonne centaine ainsi que l'Union Européenne (l'UE) ont développé un droit de concurrence. Et parmi ces Etats, 75 environ ont créé un droit de contrôle de concentration. Mais ces règles nationales ne sont pas toujours appropriées au regard de l'économie mondiale. On constate plutôt que ,,l'internationalisation croissante des marchés [...] n'a pas été suivie d'une internationalisation parallèle de la politique de concurrence". Par ailleurs, un grand nombre d'Etats appliquent leur droit de concurrence également en dehors de leur propre territoire afin de contrôler les abus à l'étranger. Même si on peut comprendre ce besoin de contrôle, cette évolution risque de provoquer des conflits avec les législations des autres Etats concernés. D'autres difficultés naissent des différences théoriques ou pratiques des systèmes du droit de la concurrence ou de régulations divergentes du point de vue matériel et procédural. Même sur la base de règles comparables, des divergences apparaissent à cause de différentes méthodes d'interprétation ou d'application. La communauté internationale s'emploie à combattre toutes les barrières au commerce transnational -notamment dans le cadre de l'Organisation Mondiale du Commerce (OMC). Mais si elle néglige de lutter en même temps contre les barrières commerciales établies par les entreprises elles-mêmes, elle risque de perdre les gains d'efficacité et de bien public déjà acquis par la suppression des barrières commerciales publiques. Car certaines actions des entreprises privées, comme l'exclusion ou la répartition mutuelle du marché, peuvent aussi bien conduire à des restrictions de la concurrence que les barrières commerciales publiques, tarifaires ou non-tarifaires, et peuvent même s'y substituer. III. Plan de l'étude Après l'Introduction, la partie B traite de la coopération de l'Union Européenne avec les Etats-Unis en matière du droit de la concurrence. En effet, les accords bilatéraux entre l'UE et les Etats-Unis montrent les possibilités et les limites d'une telle coopération. Les conflits entre les autorités de concurrence résultent de la mondialisation croissante et de l'intensification de la concurrence qui en découle. Aussi, ces conflits ne sont pas seulement d'ordre théorique mais également d'une grande importance pratique comme le montre l'analyse des deux cas dans la partie C. Les autorités de concurrence des Etats-Unis et de l'Union Européenne ont chacun de leur côté examiné la fusion des entreprises Boeing Corporation et McDonnell Douglas Corporation (MDD), ainsi que le projet de fusion entre Honeywell International Inc. (Honeywell) et General Electric Co. (GE). Or, ces deux procédures sont paradigmatiques en ce qui concerne la sensibilité politique des autorités de concurrence et les limites de la coopération bilatérale. Après ces analyse de cas, la partie D qui compare le droit de contrôle de concentration aux Etats-Unis et en Europe et examine les conflits éventuels entre les deux systèmes constitue la partie principale de l'étude. Les sources de ces conflits peuvent être aussi bien trouvées dans le droit matériel que dans le droit procédural, tout comme dans les différences d'orientation politique générale des deux systèmes. La partie E montre les différentes solutions qui ont été proposées dans ce cadre. Ensuite, ces propositions sont comparées avec celles concernant l'harmonisation des politiques de concurrence et de contrôle de concentrations. Sur la base de ces résultats, une proposition de solution montrant les premiers pas nécessaires pour résoudre les conflits existants entre les autorités de concurrence est présentée. IV. Résumé des conflits L'étude aboutit à la constatation que presque tous les aspects du contrôle des concentrations constituent un important potentiel de conflits. Celui-ci est d'ailleurs bien plus important que l'on ne pourrait penser au w des lois applicables. La complexité du droit de la concurrence provoque nécessairement des conflits. Mais il faut également tenir compte des différences fondamentales concernant les objectifs politiques des Etats, les formes d'institutionnalisation des autorités de concurrence et la prise en considération des pays en développement ou des pays émergents. Les différences purement juridiques accroissent le potentiel de conflits entre les Etats et empêchent une intensification de la coopération. Cela est notamment vrai pour la définition de la concentration, l'application extraterritoriale du droit national, la notification obligatoire et ses seuils fixés. Concernant le droit matériel, les conflits se situent dans les domaines de la délimitation du marché, le critère d'incompabilité, l'analyse économique, la prise en compte des gains d'efficacité, l'importance de la concentration de sauvetage ainsi que de l'application du principe de ,,comity of nations". Du point de we du droit procédural, les différences d'inscription obligatoire et d'interdiction partielle de l'accomplissement consécutif donnent autant également lieu à des conflits potentiels que les différences de méthode d'investigation et d'exécution des décisions publiques. Il en va de même pour les différents remèdes ou les sanctions prévues pour le mépris des décisions des autorités ou des tribunaux et la position des parties tierces dans la procédure est également un facteur de conflit. Enfin, il faut mentionner le manque de transparence qui nuit à la sécurité juridique. L'application arbitraire du droit, le protectionnisme, le mercantilisme ainsi que le manque de sécurité juridique augmentent le danger de conflits interétatiques. La coopération entre les Etats-Unis et l'Union Européenne sur la base de l'accord de 1991 n'a pas vraiment réduit ce potentiel de conflits. Cela s'est notamment avéré au moment des projets de fusion entre GE et Honeywell et de la reprise de MDD par Boeing. V. Les possibilités d'harmonisation Aussi bien la nécessité que la faisabilité d'une harmonisation globale du droit de la concurrence et d'une politique de la concurrence sont encore très discutés. La plupart des débats tournent plutôt autour de l'arrangement concret d'un tel droit harmonisé que de l'objectif général d'une harmonisation. Quelques Etats comme les Etats-Unis redoutent une trop grande perte de souveraineté et veulent par conséquent maintenir leur méthode unilatérale et extraterritoriale. Cependant, la plupart des experts des organisations internationales comme ceux des autorités de concurrence et du public intéressé approuvent l'idée d'un droit de concurrence international. Etant donné la gravité de certains conflits, de nombreux Etats et un grand nombre de juristes perçoivent la nécessité de développer la conscience d'une indispensable harmonisation, et un accord sur ce plan semble parfaitement possible. Parmi ceux qui soutiennent cet accord l'on trouve presque tous les Etats membres de l'Organisation de coopération et de développement économiques (l'OCDE), de nombreux Etats membres de l'OMC, de l'Organisations des nations unies (l'ONU) et de l'Accord de libre-échange nord-américain (l'ALENA), particulièrement les Etats de l'UE, l'Australie, le Japon, le Canada, le Mexique, la Nouvelle Zélande et quelques représentants des autorités de concurrence des Etats-Unis. La méthode la plus efficace et raisonnable pour lutter contre les obstacles privés à la concurrence est la coopération et la coordination globale des mécanismes de contrôle. Les forums et les structures nécessaires pour la préparation d'une telle tâche existent déjà. Ainsi, le cadre institutionnel éprouvé de l'OMC pourra faire progresser le processus d`harmonisation. Il faudrait simplement élargir les compétences de l'OMC pour garantir un contrôle international efficace. L'harmonisation sur le plan international serait plus efficace qu'une harmonisation unilatérale ou bilatérale. La flexibilité d'un accord international pourrait être garanti par 1"insertion de cet accord dans le Mémorandum d'accords commerciaux plurilatéraux (Annexe 4) de l'OMC. Ainsi, cet accord ne serait obligatoire que pour les Etats membres qui l'auraient déjà approuvé séparément. Les autres Etats auraient la possibilité de le signer plus tard. En cas de conflits dans le cadre de l'application de cet accord, on pourrait se servir du mécanisme d'arbitrage de l'OMC. Il faudrait également créer une autorité internationale de concurrence et un comité spécial international de concurrence. Un tel accord de l'OMC ne constitue qu'un premier pas. Les exigences minimales de l'accord doivent être renforcées et régulièrement ajustées à l'évolution et aux nouvelles données de l'économie mondiale. Ainsi, le processus d'harmonisation internationale sera l'objet d'une dynamique permanente. VI. Résultats et conclusions L'étude a montré que l'application parallèle des droits nationaux de concurrence est une importante source de conflits. Elle a surtout mis l'accent sur les relations entre les Etats-Unis et l'Union Européenne. Il est d'ailleurs très probable que ce genre de conflits augmente encore dans le futur. En 2000, l'activité mondiale des fusions et acquisitions a eu un volume de 3 billions de dollars Anglo-américains. Cela équivaut à une multiplication par onze du volume de 1991. En 2001, par contre, le volume a de nouveau baissé à 1,6 billions de dollars Anglo-américains. Mais selon les pronostics, le nombre des concentrations va à nouveau augmenter considérablement dans les prochaines années. Cette vague de concentrations internationales est la conséquence de l'intensification mondiale des relations économiques transnationales. Cette évolution va se poursuivre pour autant que les barrières commerciales publiques continuent à être démantelées, que le renforcement de la dérégularisation ouvre de nouveaux marchés à la compétition, que de plus en plus de standards techniques soient harmonisés et que les transports et la communication internationale soient améliorés et moins couteux. Enfin, la consolidation de certains secteurs économiques à la suite de fusions déjà réalisées encourage de plus en plus les entreprises à fusionner sur le plan international et dans des dimensions de plus en plus grandes. Outre les conflits engendrés par les différentes législations nationales, il faut également mentionner les oppositions qui résultent d'une façon indirecte de la compétition entre les différentes autorités de contrôle. Ainsi, par exemple, les conséquences économiques et financières d'un retard dans la procédure de contrôle ou les sanctions importantes imposées aux entreprises concernées sont souvent le sujet de discussions et de conflits politiques. Dans ce cadre, il faut souligner qu'en réalité le droit de concurrence ainsi que le droit de contrôle de concentrations ne vise pas seulement une politique de concurrence mais également la politique industrielle et générale. La diversité de ces différentes visées politiques provoque nécessairement des conflits politiques. La solution présentée à la fin de ce travail voudrait proposer une application efficace du droit de contrôle de concentration sur le plan international. A la base de cette efficacité il y a aurait notamment: L'encouragement d'une politique de concurrence au sein des Etats qui n'ont pas encore développé un droit de concurrence ou qui ne l'exécutent pas d'une manière suffisante. L'encouragement de la concurrence et des concentrations positives améliorant la situation compétitive. La simplification de la coopération des autorités de concurrence. L'accélération des procédures et des décisions. La garantie de la sécurité juridique. La diminution des conflits politiques. L'encouragement d'une amélioration globale du bien public qui est à la base de toute politique commerciale. Ces objectifs ne peuvent être atteints que si le protectionnisme national est battu en brêche et si des systèmes de contrôle international sont installés. Les intérêts des Etats doivent refléter les nouvelles dimensions de l'économie globale qui ne s'arrête pas aux frontières nationales. Pour cela il leur faut accepter certaines pertes de souveraineté et tolérer certaines infractions aux règles internationales de la non-ingérence. Les intérêts nationaux doivent s'ajuster à l'économie mondiale et aux intérêts des autres Etats. Bien entendu, tant que la divergence actuelle entre les marchés internationaux et les systèmes de contrôle nationaux persiste, une amélioration de la situation est peu probable. Pour que cela soit possible, il faudrait une législation qui reflète les nouvelles dimensions de l'économie et ses effets transnationaux et qui, en même temps, augmente et assure une concurrence efficace. Une telle stratégie aiderait non seulement les autorités de concurrence et les Etats mais également tout particulièrement les consommateurs et les entreprises. Car une telle concurrence efficace engendre des entreprises plus efficaces, des produits améliorés, un choix plus grand et des prix plus bas. En fin de compte, un tel effet de bien public diminuerait aussi le risque de conflits interétatiques. Dans le cadre de la consolidation et de l'amélioration des structures juridiques du système de l'OMC, il serait essentiel que les institutions et la méthode d'arbitrage de l'OMC inspirent suffisamment confiance à la communauté internationale des Etats. Car c'est seulement sur la base d'une telle confiance et avec la volonté des Etats de faire un pas décisif en faveur d'un commerce mondial plus libre et plus loyal qu'un projet aussi ambitieux est réalisable. Il est donc essentiel que les responsables réalisent enfin les projets d'harmonisation et de coopération renforcées qu'ils ont si souvent annoncés. En tous cas, une forte ,,dynamique du processus d'harmonisation" sera nécessaire pour progresser sur le terrain de l'harmonisation internationale de la politique de la concurrence. Berlin, 17/08/2006 Florens Girardet

Relevância:

10.00% 10.00%

Publicador:

Resumo:

SUMMARY : The evolution of animal societies, where some individuals forego their own reproductive opportunities to help others to reproduce, poses an evolutionary paradox that can be traced back to Darwin. Altruism may evolve through kin selection when the donor and recipient of altruistic acts are related to each other. In social insects, workers are generally highly related to the brood they rear when colonies are headed by a single queen. Yet some ants have an extraordinary social organization, called unicoloniality, whereby individuals from separate nests mix freely to form large supercolonies, which in some cases extend over hundreds of km. These supercolonies are characterised by a high number of queens (polygyny) and an absence of clear colony boundaries. This type of social organization represents an evolutionary paradox because relatedness between nestmates is effectively zero. In such conditions, kin selection cannot account for the evolution of reproductive altruism. Moreover, unicoloniality is thought to be unstable over time, because workers that can no longer aid close relatives may evolve more selfish strategies. The Argentine ant (Linepithema humile) is a highly invasive species listed among the hundred world's worst invaders by the UICN. Native from South America, L. humile has been accidentally introduced throughout the world. Native populations have been described as noninvasive with a family-based organization. In contrast, within its introduction range, they form unicolonial supercolonies that contain numerous nests without intraspecific aggression. The development of such unicolonial populations has been explained as a direct consequence of the ant's introduction into a new habitat, favouring a transition from family-based to open colonies. To determine if the social structure of the Argentine ant is fundamentally different between the native and the introduced range, we studied genetically and behaviourally native and introduced populations of L. humile over different geographic scales. Our results clearly indicated that there are no fundamental differences in the social organisation of the Argentine ant between the two ranges. Our investigations revealed that, contrary to previous claims, native populations have a unicolonial social organisation very similar to that observed in the introduced range. Consequently, the unicolonial social structure of the Argentine ant does not stem from a shift in social organization associated with introduction into new habitats but evolved in the native range and is likely a stable, evolutionarily ancient adaptation to the local environment. Our study on native populations of L. humile also gave important insight in the comprehension of the evolution of unicoloniality in the Argentine ant. Native supercolonies are relatively small compared to introduced ones and may co-habit in a same population. These supercolonies are genetically highly differentiated leading to a significant relatedness among nestmate workers when the different supercolonies of a population are taken as a reference population. This provides the necessary conditions for loin selection to operate. Furthermore, we examined a native population over time, which revealed a high supercolony extinction rate. If more competitive supercolonies are more likely to survive or replace other supercolonies, a subtle dynamical process between the spread of selfish traits within supercolony and the selective elimination of supercolonies with such traits may allow a stable equilibrium and the persistence of unicoloniality over time. Finally, a worldwide study of the Argentine ant showed that the introduced supercolonies originate from numerous independent introduction events. In conclusion, the success of the Argentine ant does not stem from a shift in social organization associated with its introduction into new habitats, but is most probably explained by the intrinsic characteristics developed in its native range. RESUME : L'altruisme de reproduction où certains individus renoncent à leur propre reproduction pour aider d'autres individus à se reproduire constitue l'un des plus grand paradoxe de l'évolution. En effet, comment expliquer l'évolution de comportements qui tendent à augmenter les chances de survie et le succès reproductif d'autres individus, alors que ces actes diminuent l'aptitude de leurs auteurs ? La théorie de la sélection de parentèle permet de résoudre ce problème. Cette théorie stipule qu'en aidant de proches parents à se reproduire, les individus peuvent promouvoir indirectement la transmission de copies de leurs propres gènes à la génération suivante. Chez les insectes sociaux, l'altruisme des ouvrières s'explique par la théorie de sélection de parentèle lorsque les colonies sont monogynes (constituées d'une seule reine) puisque les ouvrières sont fortement apparentées aux couvains dont elles s'occupent. Par contre, les espèces dites unicoloniales, dont les colonies forment des réseaux de nids appelés supercolonies, représentent toujours un paradoxe pour les théories de l'évolution puisque l'apparentement entre les différents individus d'un nid est nulle. De plus, l'unicolonialité ne devrait pas être stable sur le long terme parce que les ouvrières qui ne s'occupent plus de leur apparentés devraient développer des stratégies plus égoïstes au cours du temps. La fourmi d'Argentine (Linepithema humile) est une espèce invasive ayant un impact considérable sur son environnement. Originaire d'Amérique du Sud, elle a été introduite dans pratiquement toutes les régions du monde dont le climat est de type méditerranéen. Son incroyable succès invasif s'explique par sa structure sociale unicoloniale observée dans chacun des pays où elle a été introduite. Par contre, les rares études effectuées en Argentine ont suggéré que la fourmi d'Argentine n'était pas unicoloniale dans son aire native. L'unicolonialité chez la fourmi d'Argentine était donc considéré comme une conséquence de son introduction dans de nouveaux environnements. Durant cette thèse, nous avons vérifié si la structure sociale de cette espèce différait fondamentalement entre l'aire native et introduite. Pour cela, nous avons étudié, à différentes échelles géographiques, des populations introduites et argentines avec une approche génétique et comportementale. L'ensemble de nos résultats montrent que les différences entre les deux structure sociales ne sont pas aussi importantes que ce que l'on imaginait. Les populations natives sont aussi constituées de réseaux de nids coopérants. La taille de ses supercolonies est toutefois bien moins importante en Argentine et il n'est pas rare de trouver plusieurs supercolonies cohabitantes dans une même population. Nous avons démontré que ces réseaux de nids étaient constitués d'individus qui sont plus apparentés entre eux qu'ils ne le sont avec les individus d'autres supercolonies, ainsi l'unicolonialité dans son aire d'origine ne représente pas un réel paradoxe pour les théories de l'évolution. Finalement nous avons étudié la même population en Argentine à six ans d'intervalle et avons constaté que les supercolonies avaient un taux de survie très faible ce qui pourrait expliquer la stabilité de l'unicolonialité au cours du temps. Si les supercolonies les plus compétitives survivent mieux que les supercolonies dans lesquelles apparaissent des traits égoïstes, on devrait alors observer une dynamique entre l'apparition de traits égoïstes et l'élimination des supercolonies dans lesquelles ces traits égoïstes évolueraient. Finalement, une étude mondiale nous a montré que les supercolonies étaient originaires de nombreux événements d'introductions indépendants. En conclusion, le succès invasif de la fourmi d'Argentine n'est donc pas dû à un changement de comportement associé à son introduction mais est lié aux caractéristiques qu'elle a développées en Argentine.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cet article analyse, à partir d'un modèle intégratif et dynamique, la souffrance au travail et les manifestations de celle-ci, chez les agents pénitentiaires en milieu carcéral dans un espace particulier qui est celui du « parloir pénitentiaire ». Si les questions des facteurs de risques, notamment du stress ou du burnout ont été abondamment traitées dans la littérature, selon des approches factorielles, rares sont les modèles multidimensionnels existants qui permettent de comprendre la complexité et la spécificité des processus en jeu en milieu carcéral. La méthode de recherche relève d'une analyse comparative des espaces professionnels. Soixante douze entretiens semi-directifs de recherche ont été conduits auprès des surveillants occupant chacun des espaces, dans trois établissements pénitentiaires français. À partir de différents indicateurs, le modèle permet de saisir les processus et étapes qui conduisent à la manifestation de souffrances au travail. Il offre à la fois des perspectives d'intervention et de prévention pour les cadres et psychologues chargés du soutien aux personnels.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Né en 1394, Charles d'Orléans, prince à la fleur de lys, est fait prisonnier à la bataille d'Azincourt (1415). C'est avant tout l'image du poète vêtu de noir, exilé pendant vingt-cinq ans en Angleterre, qui s'est imposée auprès du public. Les ballades, rondeaux, chansons et complaintes écrites après son retour en France témoignent pourtant d'une conception du lyrisme bien moins marquée au sceau de la mélancolie que ne le voudrait notre vision romantique. S'il a été malheureux en politique, Charles d'Orléans a su faire de son château de Blois un centre culturel vivant où se rencontraient amis et écrivains de passage : leurs poésies côtoient celles du prince dans le célèbre manuscrit 25458, en partie autographe, du fonds français de la Bibliothèque Nationale de France. La présente édition/traduction réunit les textes de cette « coterie », avec l'espoir de permettre au lecteur de saisir le fonctionnement spécifique de l'album personnel de Charles d'Orléans, entre 1440 et 1465. Il s'agit d'un véritable Livre d'Amis non pas dominé par un seul je, mais fondé sur le désordre de l'écriture collaborative et de voix multiples qui se répondent à travers un réseau d'images et de thèmes qui donnent au recueil son unité. L'ordre des pièces, tel qu'il se présente dans le manuscrit, a été respecté afin de rendre au mieux l'aspect social et ludique d'une poésie qui naît de la dynamique culturelle et littéraire du cercle de Blois, réuni autour d'un prince et poète qui sait jouer de l'ironie et pratique volontiers le clin d'oeil allusif, réservé à ceux qui savent en goûter la finesse.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les catastrophes sont souvent perçues comme des événements rapides et aléatoires. Si les déclencheurs peuvent être soudains, les catastrophes, elles, sont le résultat d'une accumulation des conséquences d'actions et de décisions inappropriées ainsi que du changement global. Pour modifier cette perception du risque, des outils de sensibilisation sont nécessaires. Des méthodes quantitatives ont été développées et ont permis d'identifier la distribution et les facteurs sous- jacents du risque.¦Le risque de catastrophes résulte de l'intersection entre aléas, exposition et vulnérabilité. La fréquence et l'intensité des aléas peuvent être influencées par le changement climatique ou le déclin des écosystèmes, la croissance démographique augmente l'exposition, alors que l'évolution du niveau de développement affecte la vulnérabilité. Chacune de ses composantes pouvant changer, le risque est dynamique et doit être réévalué périodiquement par les gouvernements, les assurances ou les agences de développement. Au niveau global, ces analyses sont souvent effectuées à l'aide de base de données sur les pertes enregistrées. Nos résultats montrent que celles-ci sont susceptibles d'être biaisées notamment par l'amélioration de l'accès à l'information. Elles ne sont pas exhaustives et ne donnent pas d'information sur l'exposition, l'intensité ou la vulnérabilité. Une nouvelle approche, indépendante des pertes reportées, est donc nécessaire.¦Les recherches présentées ici ont été mandatées par les Nations Unies et par des agences oeuvrant dans le développement et l'environnement (PNUD, l'UNISDR, la GTZ, le PNUE ou l'UICN). Ces organismes avaient besoin d'une évaluation quantitative sur les facteurs sous-jacents du risque, afin de sensibiliser les décideurs et pour la priorisation des projets de réduction des risques de désastres.¦La méthode est basée sur les systèmes d'information géographique, la télédétection, les bases de données et l'analyse statistique. Une importante quantité de données (1,7 Tb) et plusieurs milliers d'heures de calculs ont été nécessaires. Un modèle de risque global a été élaboré pour révéler la distribution des aléas, de l'exposition et des risques, ainsi que pour l'identification des facteurs de risque sous- jacent de plusieurs aléas (inondations, cyclones tropicaux, séismes et glissements de terrain). Deux indexes de risque multiples ont été générés pour comparer les pays. Les résultats incluent une évaluation du rôle de l'intensité de l'aléa, de l'exposition, de la pauvreté, de la gouvernance dans la configuration et les tendances du risque. Il apparaît que les facteurs de vulnérabilité changent en fonction du type d'aléa, et contrairement à l'exposition, leur poids décroît quand l'intensité augmente.¦Au niveau local, la méthode a été testée pour mettre en évidence l'influence du changement climatique et du déclin des écosystèmes sur l'aléa. Dans le nord du Pakistan, la déforestation induit une augmentation de la susceptibilité des glissements de terrain. Les recherches menées au Pérou (à base d'imagerie satellitaire et de collecte de données au sol) révèlent un retrait glaciaire rapide et donnent une évaluation du volume de glace restante ainsi que des scénarios sur l'évolution possible.¦Ces résultats ont été présentés à des publics différents, notamment en face de 160 gouvernements. Les résultats et les données générées sont accessibles en ligne (http://preview.grid.unep.ch). La méthode est flexible et facilement transposable à des échelles et problématiques différentes, offrant de bonnes perspectives pour l'adaptation à d'autres domaines de recherche.¦La caractérisation du risque au niveau global et l'identification du rôle des écosystèmes dans le risque de catastrophe est en plein développement. Ces recherches ont révélés de nombreux défis, certains ont été résolus, d'autres sont restés des limitations. Cependant, il apparaît clairement que le niveau de développement configure line grande partie des risques de catastrophes. La dynamique du risque est gouvernée principalement par le changement global.¦Disasters are often perceived as fast and random events. If the triggers may be sudden, disasters are the result of an accumulation of actions, consequences from inappropriate decisions and from global change. To modify this perception of risk, advocacy tools are needed. Quantitative methods have been developed to identify the distribution and the underlying factors of risk.¦Disaster risk is resulting from the intersection of hazards, exposure and vulnerability. The frequency and intensity of hazards can be influenced by climate change or by the decline of ecosystems. Population growth increases the exposure, while changes in the level of development affect the vulnerability. Given that each of its components may change, the risk is dynamic and should be reviewed periodically by governments, insurance companies or development agencies. At the global level, these analyses are often performed using databases on reported losses. Our results show that these are likely to be biased in particular by improvements in access to information. International losses databases are not exhaustive and do not give information on exposure, the intensity or vulnerability. A new approach, independent of reported losses, is necessary.¦The researches presented here have been mandated by the United Nations and agencies working in the development and the environment (UNDP, UNISDR, GTZ, UNEP and IUCN). These organizations needed a quantitative assessment of the underlying factors of risk, to raise awareness amongst policymakers and to prioritize disaster risk reduction projects.¦The method is based on geographic information systems, remote sensing, databases and statistical analysis. It required a large amount of data (1.7 Tb of data on both the physical environment and socio-economic parameters) and several thousand hours of processing were necessary. A comprehensive risk model was developed to reveal the distribution of hazards, exposure and risk, and to identify underlying risk factors. These were performed for several hazards (e.g. floods, tropical cyclones, earthquakes and landslides). Two different multiple risk indexes were generated to compare countries. The results include an evaluation of the role of the intensity of the hazard, exposure, poverty, governance in the pattern and trends of risk. It appears that the vulnerability factors change depending on the type of hazard, and contrary to the exposure, their weight decreases as the intensity increases.¦Locally, the method was tested to highlight the influence of climate change and the ecosystems decline on the hazard. In northern Pakistan, deforestation exacerbates the susceptibility of landslides. Researches in Peru (based on satellite imagery and ground data collection) revealed a rapid glacier retreat and give an assessment of the remaining ice volume as well as scenarios of possible evolution.¦These results were presented to different audiences, including in front of 160 governments. The results and data generated are made available online through an open source SDI (http://preview.grid.unep.ch). The method is flexible and easily transferable to different scales and issues, with good prospects for adaptation to other research areas. The risk characterization at a global level and identifying the role of ecosystems in disaster risk is booming. These researches have revealed many challenges, some were resolved, while others remained limitations. However, it is clear that the level of development, and more over, unsustainable development, configures a large part of disaster risk and that the dynamics of risk is primarily governed by global change.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ecological speciation and its hallmark, adaptive radiation is a process from which most of the current biodiversity derives. As ecological opportunity allows species to colonise unoccupied niches, natural selection drives adaptive phenotypical change. In this thesis, I begin by describing how this evolutionary process acted on the evolution of the clownfishes. During its infancy, this iconic group of coral reef fishes developed a mutualism with sea anemone species. I show how this event triggered the evolutionary radiation of the group, generating species that now inhabit diverse habitats of the coral reefs. Following the appearance of the mutualism, the diversification of the clownfish was catalysed by hybridisation events which shuffled genes, allowing hybrids to reach new fitness optima. While the clownfishes appeared in the region of the coral triangle, a lineage colonised the eastern shores of Africa. I reconstructed the geographic history of the group and showed that this event lead to the rapid appearance of new species, replicating the evolutionary patterns of the original radiation. To better grasp the mechanisms of ecological speciation, I conducted analyses at the population level and identified similar evolutionary patterns than found at the clade level. I discuss how such result suggests a continuity bridging micro- and macroevolution, which so far only been theorised. In parallel to this study case, I question whether biotic and abiotic interactions can promote or restrain ecological speciation. Indeed, I show how the ecological setting of species can drastically impact on their diversification dynamics. Moreover, tradeoffs can occur between specialisation made on different ecological axes allowing species cohabitation. Overall, I show in this work that regardless of the few simple rules that explain the mechanism of ecological speciation, the unavoidable interactions with the ever changing ecological context lead diversification events to give always a different outcome. It is thus primordial to account for the ecological settings of species when discussing their evolutionary dynamics. LA SPÉCIATION ÉCOLOGIQUE RACONTÉE AU TRAVERS DE L'ÉTUDE DE L'ÉVOLUTION DES POISSONS-CLOWNS ET DE QUELQUES AUTRES Le phénomène de spéciation écologique est à l'origine de la majeure partie de la biodiversité que l'on rencontre aujourd'hui. Au fil des opportunités qu'elles rencontrent, les espèces colonisent l'espace écologique laissant la sélection naturelle forger leur phénotype moyen. Malgré l'omniprésence de ce phénomène dans la nature, beaucoup de questions qui lui sont relatives restent à élucider. C'est afin de mieux comprendre ce mécanisme que j'étudie les poissons-clowns, célèbres habitants des récifs coralliens. Dans ce travail, je démontré que le développement du comportement mutualiste liant les poissons-clowns aux anémones de mer fut l'événement qui déclencha leur diversification. Suite à ce premier événement, j'illustre comment l'hybridation entre lignées primordiales a remodelé la diversité génétique du groupe et catalysé leur radiation évolutive. Je poursuis en reconstruisant l'expansion géographique des poissons-clowns au cours du temps depuis le triangle de corail, leur lieu d'origine, jusqu'aux côtes d'Afrique de l'Ouest. Afin d'affiner ces analyses générales sur le groupe, je continue en étudiant plus finement des populations d'une seule espèce de poisson-clown. Cette fine résolution me permet de comprendre plus précisément quels sont les facteurs écologiques qui permettent aux poissons-clowns de se différencier. Les résultats de ces analyses suggèrent qu'il est important de comprendre les liens entre le contexte écologique et la diversification des espèces. J'étudie cette question dans la seconde partie de ce travail en montrant que l'hétérogénéité du paysage ou les liens entretenus avec un partenaire mutualiste influencent fortement la dynamique évolutive des espèces. Finalement, j'illustre les compromis que chaque espèce réalise en se spécialisant ou non dans ses interactions avec l'environnent. Plus généralement, je souligne dans ce travail l'influence du contexte écologique sur le résultat de la spéciation écologique. Ce sont ces interactions entre les organismes et leur environnent qui sont à l'origine de l'incroyable diversité de la vie. Il est donc primordial de les prendre en compte lors de l'étude de l'évolution des espèces.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé La masse de cellules β sécrétrices d'insuline est un tissu dynamique qui s'adapte aux variations de la demande métabolique pour assurer une normoglycémie. Cette adaptation se fait par un changement de sécrétion d'insuline et de la masse totale des cellules β. Une perte complète ou partielle des cellules β conduit respectivement à un diabète de type 1 et de type 2. Les mécanismes qui régulent la masse de cellules β et maintiennent leur phénotype differencié sont encore peu connus. Leur identification est nécessaire pour comprendre le développement du diabète et développer des stratégies de traitement. La greffe d'îlots est une approche thérapeutique prometteuse pour le diabète de type 1, mais est limitée par une perte précoce des cellules β due à une apoptose induite par des cytokines. Afin d'améliorer la survie des cellules β lors de la greffe d'îlots, le premier but était de trouver des peptides pouvant bloquer l'apoptose induite par FasL et TNF-α. Pour ce faire, deux librairies de phages ont été criblées pour sélectionner des peptides se liant au Fas DD ou au TNFRl DD. Nous avons identifié six peptides différents. Cependant, aucun d'entre eux n'était capable de protéger les cellules de l'apoptose induite par FasL ou TNF-α. Deuxièmement, le GLP-1 est une hormone qui stimule la sécrétion d'insuline, et est impliquée dans la prolifération des cellules β, la différentiation, et inhibe l'apoptose. Nous avons fait l'hypothèse que le GLP-1 joue un rôle crucial dans le contrôle de la masse et de la fonction des cellules β. Afin de l'évaluer, une analyse par puce à ADN a été réalisée en comparant des cellules βTC-Tet traitées avec du GLP-1 à des cellules non-traitées. 376 gènes régulés ont été identifiés, dont RGS2, CREM, ICERI et DUSP14, augmentés significativement par le GLP-1. Nous avons confirmé que le GLP-1 augmente l'expression de ces gènes, aussi bien au niveau des transcripts que des protéines. De plus, nous avons montré que le GLP-1 induit leur expression par activation de la voie cAMP/PKA, et nécessite l'entrée de calcium extracellulaire. D'après leur fonction biologique, nous avons ensuite supposé que ces gènes pourraient agir comme régulateurs négatifs de la signalisation du GLP-l, et donc freiner son effet proliférateur. Pour vérifier notre hypothèse, des siRNAs contre ces gènes ont été développés, et leurs effets sur la prolifération des cellules β seront évalués ultérieurement. Abstract The pancreatic β-cell mass is a dynamic tissue which adapts to variations in metabolic demand in order to ensure normoglycemia. This adaptation occurs through a change in both insulin secretion and the total mass of ,β-cells. An absolute or relative loss of β-cells leads to type 1 and type 2 diabetes, respectively. The mechanisms that regulate the pancreatic β-cell mass and maintain the fully differentiated phenotype of the insulin-secreting β-cells are only poorly defined. Their identification is required to understand the progression of diabetes, but also to design strategies for the treatment of diabetes. Islet transplantation is a promising therapeutic approach for type 1 diabetes, but it is still limited by an early graft loss due to cytokine-induced apoptosis. In order to improve β-cell survival during islet transplantation, our first goal was to find novel blockers of FasL- and TNF-α-mediated cell death in the form of peptides. To that end, we screened two phage display libraries to select Fas DD- or TNFR1 DD-binding peptides. We identified six different small peptides. However, none of these peptides was able to prevent cells from FasL- or TNF-α-mediated apoptosis. Secondly, GLP-1 is a hormone that has been shown to stimulate insulin secretion and to be involved in β-cell proliferation, differentiation and inhibition of apoptosis. We hypothesized that GLP-1 plays a crucial role to control mass and function of β-cells. To evaluate this hypothesis, we performed a cDNA microarray analysis with GLP-1-treated βTC-Tet cells compared to untreated cells. We found 376 regulated genes, among these, RGS2, CREM, ICERI and DUSP14, which were significantly upregulated by GLP-1. We confirmed that both their mRNA and protein levels were strongly and rapidly increased after GLP-1 treatment. Moreover, we found that GLP-1 activates their expression mainly through the activation of the cAMP/PKA signaling pathway, and requires extracellular calcium entry. According to their biological function, we then hypothesized that these genes might act as negative regulators of the GLP-1 signaling. In particular, they might brake the effects of GLP-1 on β-cell proliferation. To verify this hypothesis, siRNAs against these genes were developed. The effect of these siRNAs on GLP-1-induced β-cell proliferation will be evaluated later.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The initiation of chromosomal replication must be tightly regulated so that the genome is replicated only once per cell cycle. In most bacteria, DnaA binds to the origin of replication and initiates chromosomal replication. DnaA is a dual-function protein that also acts as an important transcription factor that regulates the expression of many genes in bacteria. Thus, understanding how this protein is regulated during the bacterial cell cycle is of major importance. The α-proteobacterium Caulobacter crescentus is an excellent model to study the bacterial cell cycle, mainly because it is possible to isolate synchronized cell cultures and because it initiates the replication of its chromosome once per cell cycle and at a specific time of the cell cycle. This latest feature is of special interest for the major aim of my thesis work, which focused on the temporal and spatial regulation of the activity of the essential DnaA protein in C. crescentus. In Escherichia coli, the Hda protein converts ATP-DnaA into ADP- DnaA by stimulating the ATPase activity of DnaA, to prevent over-initiation of chromosome replication. We propose that there exists a similar mechanism in C. crescentus, which is not only involved in the temporal control of chromosome replication, but also in the control of gene expression. First, we provided evidences indicating that the hydrolysis of the ATP bound to DnaA is essential for the viability of C. crescentus. Our results suggest that ATP-DnaA promotes the initiation of chromosome replication, since we found that cells over-expressing a DnaA protein with a mutated ATPase domain, DnaA(R357A), over-initiated chromosome replication, unlike cells expressing the wild-type DnaA protein at similar levels. By contrast, the DnaA(R357A) protein was less active than DnaA in promoting the transcription of three essential genes, suggesting that these may be more efficiently activated by ADP-DnaA than ATP-DnaA. We propose that the ATP-DnaA to ADP-DnaA switch down-regulates the initiation of DNA replication while activating the transcription of several essential genes involved in subsequent cell cycle events. Second, we studied the role of the HdaA protein, homologous to Hda, in promoting the ATP- DnaA to ADP-DnaA switch in C. crescentus. HdaA is essential for viability and its depletion in the cell leads to an over-replication of the chromosome, indicating that HdaA is a negative regulator of DNA replication. HdaA dynamically co-localizes with the replisome. In this work, we identified DnaN, the β-clamp of the DNA polymerase, as the replisome component that interacts directly with HdaA and that recruits HdaA to the replisome in live C. crescentus cells. We also showed that a mutant HdaA protein that cannot interact or co-localize with DnaN is not functional, indicating that HdaA is probably activated by DnaN. However, we found that another non-functional HdaA protein, mutated in the conserved Arginine finger of its AAA+ domain, was able to localize at the replisome, suggesting that the AAA+ domain of HdaA exerts its essential function after the recruitment of HdaA to the replisome. We propose that HdaA stimulates the ATPase activity of DnaA once DNA replication is ongoing, via its interaction with DnaN and the activity of the two conserved R fingers of DnaA and HdaA. Finally, we created different strains in which HdaA, DnaN or DnaA were over-produced. We observed that the over-production of HdaA seems to lead to a delay in chromosome replication, while the over-production of DnaN had an opposite effect. Our results also indicate that the over-production of DnaA may intensify the over-initiation phenotype of cells depleted for HdaA. We conclude that the dynamic interplay of HdaA and DnaN in the cell contributes to regulating the ATP-DnaA/ADP-DnaA ratio in the cell, to ensure once per cell cycle initiation of chromosomal replication in C. crescentus. Altogether, our work provided important information on the regulation of the activity of DnaA in C. crescentus. Since DnaA, HdaA and DnaN are well-conserved proteins, most of our findings are useful to understand how chromosome replication and gene expression are controlled by DnaA in many other bacterial species. - L'initiation de la réplication des chromosomes doit être précisément régulée de telle sorte que le génome ne soit répliqué qu'une seule fois par cycle cellulaire. Chez la plupart des bactéries, DnaA se lie à l'origine de réplication du chromosome et en initie sa réplication. DnaA est aussi un facteur de transcription qui régule l'expression de nombreux gènes bactériens. De ce fait, il est très important de comprendre comment DnaA est régulée au cours du cycle cellulaire bactérien. L'a-protéobactérie Caulobacter crescentus est un excellent modèle pour étudier le cycle cellulaire bactérien, essentiellement parce qu'il est aisé d'isoler des populations de cellules synchronisées à la même étape du cycle cellulaire et parce que cette bactérie n'initie la réplication de son chromosome qu'une seule fois et à un moment précis de son cycle. Cette dernière caractéristique est particulièrement pertinente pour l'objectif de mon travail doctoral, qui consistait à comprendre comment l'activité de la protéine essentielle DnaA est régulée dans l'espace et dans le temps chez C. crescentus. Chez Escherichia coli, la protéine Hda convertie DnaA-ATP en DnaA-ADP en stimulant l'activité ATPasique de DnaA, ce qui empêche la sur-initiation de la réplication du chromosome. Nous proposons qu'un mécanisme similaire existe chez C. crescentus. Il serait non seulement nécessaire au contrôle de la réplication du chromosome, mais aussi au contrôle de l'expression de certains gènes. Dans un premier temps, nous avons mis en évidence le fait que l'hydrolyse de l'ATP lié à DnaA est un processus essentiel à la viabilité de C. crescentus. Nos résultats suggèrent que DnaA-ATP initie la réplication du chromosome, comme nous avons observé que des cellules qui sur-expriment une protéine DnaA(R357A) mutée sans domaine ATPasique fonctionnel, sur-initie la réplication de leur chromosome, contrairement aux cellules qui sur-expriment la protéine DnaA sauvage à des niveaux équivalents. Au contraire, la protéine DnaA(R357A) était moins active que la protéine DnaA sauvage pour promouvoir la transcription de trois gènes essentiels, ce qui suggère que ces derniers sont peut-être plus efficacement activés par DnaA-ADP que DnaA-ATP. Nous proposons que la conversion de DnaA-ATP en DnaA-ADP réprime l'initiation de la réplication, tandis qu'elle active la transcription de plusieurs gènes impliqués dans des étapes plus tardives du cycle cellulaire. Dans un deuxième temps, nous avons étudié le rôle de la protéine HdaA, homologue à Hda, dans la conversion de DnaA-ATP en DnaA-ADP chez C. crescentus. Cette protéine est essentielle à la viabilité de C. crescentus et sa déplétion donne des cellules qui sur-initient la réplication de leur chromosome, suggérant que HdaA est un répresseur de la réplication du chromosome. HdaA co-localise de manière dynamique avec le réplisome. Lors de mon travail doctoral, nous avons démontré que DnaN, le β-clamp de l'ADN polymérase, est l'élément qui recrute HdaA au réplisome in vivo. Nous avons aussi montré qu'une protéine HdaA mutante qui ne peut pas interagir ou co-localiser avec DnaN, n'est pas fonctionnelle, ce qui suggère que HdaA est activée par DnaN. Nous avons néanmoins aussi isolé une autre protéine HdaA non fonctionnelle, dont une arginine conservée de son domaine AAA+ était mutée, mais qui pouvait toujours co-localiser avec le réplisome, ce qui suggère que le domaine AAA+ de HdaA est nécessaire après le recrutement de HdaA au réplisome. Nous proposons que HdaA stimule l'activité ATPasique de DnaA qu'une fois que la réplication a commencé, grâce à son interaction avec DnaN et aux deux arginines conservées des protéines HdaA et DnaA. Finalement, nous avons construit différentes souches sur-exprimant HdaA, DnaN ou DnaA. Nous avons observé que la sur-production de HdaA retarde la réplication du chromosome, tandis que la sur-production de DnaN a un effet opposé. Nos observations suggèrent aussi que la sur-expression de DnaA dans des cellules déplétées pour HdaA aggrave leur phénotype de sur-initiation. Nous en concluons que HdaA et DnaN collaborent étroitement et de manière dynamique pour réguler le rapport DnaA-ATP/DnaA-ADP dans la cellule, pour s'assurer que la réplication du chromosome ne soit initiée qu'une seule fois par cycle cellulaire chez C. crescentus. Globalement, notre travail a mis en évidence des informations importantes sur la régulation de l'activité de DnaA chez C. crescentus. Comme DnaA, HdaA et DnaN sont des protéines très conservées, la plupart de nos découvertes sont utiles pour mieux comprendre comment la réplication du chromosome bactérien et l'expression des gènes sont contrôlées par DnaA chez de nombreuses autres espèces bactériennes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Summary Acquisition of lineage-specific cell cycle duration is an important feature of metazoan development. In Caenorhabditis a/egans, differences in cell cycle duration are already apparent in two-cell stage embryos, when the larger anterior blastomere AB divides before the smaller posterior blastomere P1. This time difference is under the control of anterior-posterior (A-P) polarity cues set by the PAR proteins. The mechanism by which these cues regulate the cell cycle machinery differentially in AB and P1 are incompletely understood. Previous work established that retardation of P1 cell division is due in part to preferential activation of an ATL1/CHK-1 dependent checkpoint in P1 but how the remaining time difference is controlled was not known at the onset of my work. The principal line of work in this thesis established that differential timing relies also on a mechanism that promotes mitosis onset preferentially in AB. The polo-like kinase PLK-1, a positive regulator of mitotic entry, is distributed in an asymmetric manner in two-cell stage embryos, with more protein present in AB than in P1. We find that PLK-1 asymmetry is regulated by anterior-posterior (A-P) polarity cues through preferential protein retention in the embryo anterior. Importantly, mild inactivation of plk-1 by RNAi delays entry into mitosis in P1 but not in AB, in a manner that is independent of ATL-1/CHK-1. Together, these findings favor a model in which differential timing of mitotic entry in C. elegans embryos relies on two complementary mechanisms: ATL-1/CHK-1 dependent preferential retardation in P1 and PLK-1 dependent preferential promotion in AB, which together couple polarity cues and cell cycle progression during early development. Besides analyzing PLK-1 asymmetry and its role in differential timing of two-cells stage embryos, we also characterized t2190, a mutant that exhibits reduced differential timing between AB and P1. We found this mutant to be a new allele of par-1. Additionally, we analyzed the role of NMY-2 in regulating the asynchrony of two-cell stage embryos, which may be uncoupled from its role in A-P polarity establishment and carried out a preliminary analysis of the mechanism underlying CDC-25 asymmetry between AB and P,. Overall, our works bring new insights into the mechanism controlling cell cycle progression in early C. elegans embryos. As most of the players important in C. elegans are conserved in other organisms, analogous mechanisms may be utilized in polarized cells of other species. Résumé Au cours du développement, les processus de division cellulaire sont régulés dans l'espace et le temps afin d'aboutir à la formation d'un organisme fonctionnel. Chez les Métazoaires, l'un des mécanismes de contrôle s'effectue au niveau de la durée du cycle cellulaire, celle-ci étant specifiée selon la lignée cellulaire. L'embryon du nématode Caenorhabditis elegans apparaît comme un excellent modèle d'étude de la régulation temporelle du cycle cellulaire. En effet, suite à la première division du zygote, l'embryon est alors composé de deux cellules de taille et d'identité différentes, appelées blastomères AB et P1. Ces deux cellules vont ensuite se diviser de manière asynchrone, le grand blastomère antérieur AB se divisant plus rapidement que le petit blastomère postérieur P1. Cette asynchronie de division est sous le contrôle des protéines PAR qui sont impliquées dans l'établissement de l'axe antéro-postérieur de l'embryon. A ce jour, les mécanismes moléculaires gouvernant ce processus d'asynchronie ne sont que partiellement compris. Des études menées précédemment ont établit que le retard de division observé dans le petit blastomère postérieur P1 était dû, en partie, à l'activation préférentielle dans cette cellule de ATL-1/CHK-1, protéines contrôlant la réponse à des erreurs dans le processus de réplication de l'ADN. L'analyse des autres mécanismes responsables de la différence temporelle d'entrée en mitose des deux cellules a été entreprise au cours de cette thèse. Nous avons considéré la possibilité que l'asynchronie de division était du à l'entrée préférentielle en mitose du grand blastomère AB. Nous avons établi que la protéine kinase PLK-1 (polo-like kinase 1), impliquée dans la régulation positive de la mitose, était distribuée de manière asymétrique dans l'embryon deux cellules. PLK-1 est en effet enrichi dans le blastomère AB. Cette localisation asymétrique de PLK-1 est sous le contrôle des protéines PAR et semble établie via une rétention de PLK-1 dans la cellule AB. Par ailleurs, nous avons démontré que l'inactivation partielle de plk-7 par interférence à ARN (RNAi) conduit à un délai de l'entrée en mitose de la cellule P1 spécifiquement, indépendamment des protéines régulatrices ATL-1/CHK-1. En conclusion, nous proposons un modèle de régulation temporelle de l'entrée en mitose dans l'embryon deux cellules de C. elegans basé sur deux mécanismes complémentaires. Le premier implique l'activation préférentielle des protéines ATL-1/CHK-1, et conduit à un retard d'entrée en mitose spécifiquement dans la cellule P1. Le second est basé sur la localisation asymétrique de la protéine kinase PLK-1 dans la cellule AB et induit une entrée précoce en mitose de cette cellule. Par ailleurs, nous avons étudié un mutant appelé t2190 qui réduit la différence temporelle d'entrée en mitose entre les cellules AB et P1. Nous avons démontré que ce mutant correspondait à un nouvel allèle du Bene par-1. De plus, nous avons analysé le rôle de NMY-2, une protéine myosine qui agit comme moteur moléculaire sur les filaments d'active; dans la régulation de l'asynchronie de division des blastomères AB et P1, indépendamment de sa fonction dans l'établissement de l'axe antéro-postérieur. Par ailleurs, nous avons commencé l'étude du mécanisme moléculaire régulant la localisation asymétrique entre les cellules AB et P1 de la protéine phosphatase CDC25, qui est également un important régulateur de l'entrée en mitose. En conclusion, ce travail de thèse a permis une meilleure compréhension des mécanismes gouvernant la progression du cycle cellulaire dans l'embryon précoce de C. elegans. Etant donné que la plupart des protéines impliquées dans ces processus sont conservées chez d'autres organismes multicellulaires, il apparaît probable que les mécanismes moléculaires révélés dans cette étude soit aussi utilisés chez ceux-ci.