499 resultados para Coopération contractuelle
Resumo:
RÉSUMÉ Cette thèse porte sur le développement de méthodes algorithmiques pour découvrir automatiquement la structure morphologique des mots d'un corpus. On considère en particulier le cas des langues s'approchant du type introflexionnel, comme l'arabe ou l'hébreu. La tradition linguistique décrit la morphologie de ces langues en termes d'unités discontinues : les racines consonantiques et les schèmes vocaliques. Ce genre de structure constitue un défi pour les systèmes actuels d'apprentissage automatique, qui opèrent généralement avec des unités continues. La stratégie adoptée ici consiste à traiter le problème comme une séquence de deux sous-problèmes. Le premier est d'ordre phonologique : il s'agit de diviser les symboles (phonèmes, lettres) du corpus en deux groupes correspondant autant que possible aux consonnes et voyelles phonétiques. Le second est de nature morphologique et repose sur les résultats du premier : il s'agit d'établir l'inventaire des racines et schèmes du corpus et de déterminer leurs règles de combinaison. On examine la portée et les limites d'une approche basée sur deux hypothèses : (i) la distinction entre consonnes et voyelles peut être inférée sur la base de leur tendance à alterner dans la chaîne parlée; (ii) les racines et les schèmes peuvent être identifiés respectivement aux séquences de consonnes et voyelles découvertes précédemment. L'algorithme proposé utilise une méthode purement distributionnelle pour partitionner les symboles du corpus. Puis il applique des principes analogiques pour identifier un ensemble de candidats sérieux au titre de racine ou de schème, et pour élargir progressivement cet ensemble. Cette extension est soumise à une procédure d'évaluation basée sur le principe de la longueur de description minimale, dans- l'esprit de LINGUISTICA (Goldsmith, 2001). L'algorithme est implémenté sous la forme d'un programme informatique nommé ARABICA, et évalué sur un corpus de noms arabes, du point de vue de sa capacité à décrire le système du pluriel. Cette étude montre que des structures linguistiques complexes peuvent être découvertes en ne faisant qu'un minimum d'hypothèses a priori sur les phénomènes considérés. Elle illustre la synergie possible entre des mécanismes d'apprentissage portant sur des niveaux de description linguistique distincts, et cherche à déterminer quand et pourquoi cette coopération échoue. Elle conclut que la tension entre l'universalité de la distinction consonnes-voyelles et la spécificité de la structuration racine-schème est cruciale pour expliquer les forces et les faiblesses d'une telle approche. ABSTRACT This dissertation is concerned with the development of algorithmic methods for the unsupervised learning of natural language morphology, using a symbolically transcribed wordlist. It focuses on the case of languages approaching the introflectional type, such as Arabic or Hebrew. The morphology of such languages is traditionally described in terms of discontinuous units: consonantal roots and vocalic patterns. Inferring this kind of structure is a challenging task for current unsupervised learning systems, which generally operate with continuous units. In this study, the problem of learning root-and-pattern morphology is divided into a phonological and a morphological subproblem. The phonological component of the analysis seeks to partition the symbols of a corpus (phonemes, letters) into two subsets that correspond well with the phonetic definition of consonants and vowels; building around this result, the morphological component attempts to establish the list of roots and patterns in the corpus, and to infer the rules that govern their combinations. We assess the extent to which this can be done on the basis of two hypotheses: (i) the distinction between consonants and vowels can be learned by observing their tendency to alternate in speech; (ii) roots and patterns can be identified as sequences of the previously discovered consonants and vowels respectively. The proposed algorithm uses a purely distributional method for partitioning symbols. Then it applies analogical principles to identify a preliminary set of reliable roots and patterns, and gradually enlarge it. This extension process is guided by an evaluation procedure based on the minimum description length principle, in line with the approach to morphological learning embodied in LINGUISTICA (Goldsmith, 2001). The algorithm is implemented as a computer program named ARABICA; it is evaluated with regard to its ability to account for the system of plural formation in a corpus of Arabic nouns. This thesis shows that complex linguistic structures can be discovered without recourse to a rich set of a priori hypotheses about the phenomena under consideration. It illustrates the possible synergy between learning mechanisms operating at distinct levels of linguistic description, and attempts to determine where and why such a cooperation fails. It concludes that the tension between the universality of the consonant-vowel distinction and the specificity of root-and-pattern structure is crucial for understanding the advantages and weaknesses of this approach.
Resumo:
Le monde de l'action humanitaire a connu des développements importants durant les dernières décennies. Sur les terrains d'interventions, les crises et les conflits se sont fortement complexifiés, nécessitant la participation de spécialistes de nombreux domaines. Par ailleurs, les volumes financiers générés par les campagnes de dons et mis à disposition par les bailleurs de fonds ont considérablement augmenté. En corollaire de cette croissance financière, les exigences de contrôle et de traçabilité des fonds se sont renforcées. En lien avec ces éléments, le nombre de salariés dans les grandes organisations non gouvernementales a augmenté de manière exponentielle. Une littérature spécifique sur les modalités d'évaluation des performances, le management et le « leadership » des organisations dites du « tiers secteur » a d'ailleurs vu le jour, comme l'illustre la naissance, en 1990, de la revue « Nonprofit Management and Leadership ». Les pays bénéficiaires de l'aide ont également développé des exigences spécifiques envers les projets mis en oeuvre par les ONG. Par des phénomènes de « socialisation des standards occidentaux », ces derniers attendent des acteurs internationaux un certain niveau de qualité des programmes.Pour s'adapter à ces évolutions et répondre aux exigences d'efficacité auxquelles elles sont soumises, les organisations d'aide ont dû se transformer. Les grandes organisations ont ainsi connu durant les dernières décennies un mouvement de professionnalisation de leur structure, les conduisant à se rapprocher d'un modèle de fonctionnement que nous nommerons ici « institutionnel », à savoir formalisé et organisé. Nous employons ici le terme de professionnalisation dans l'appréciation qu'en font les acteurs du milieu humanitaire, à savoir en ce qu'il désigne « les restructurations internes auxquelles leurs organisations font face depuis la fin des années 1980 ». Différents indicateurs de cette professionnalisation au sein des ONG peuvent être identifiés, notamment une plus forte division du travail, le développement de statuts spécifiques, la salarisation croissante des métiers de l'humanitaire ou encore le recours aux fonds publics.Une conséquence également de cette évolution est l'entrée de nouveaux métiers sur la scène humanitaire. À côté des professions traditionnellement à l'origine des ONG (médecins, ingénieurs, juristes, etc.), la complexification et la diversification des tâches a rendu nécessaire de faire appel à des compétences professionnelles spécifiques dans des domaines tels que la communication, l'informatique ou la finance, pour ne citer que quelques exemples. Des connaissances et des pratiques spécifiques en matière de management des ONG se sont développées depuis la fin des années 1990. Le métier de logisticien est apparu, lequel est enseigné dans des structures spécialisées (par exemple par l'association Bioforce en France). Des formations académiques spécialisées dans le domaine de l'humanitaire et de la coopération ont également vu le jour, avec le but affiché de former des professionnels spécialistes de l'humanitaire. On peut par exemple citer le PIAH en Suisse (Programme interdisciniplinaire en action humanitaire, 2011), ou encore les formations dispensées par le CIHC aux États-Unis. [auteur]
Resumo:
Lorsque les problèmes fonctionnels dépassent l'espace institutionnel sur lequel le politique est compétent, la capacité des politiques publiques à répondre aux problèmes collectifs est affaiblie. Face à ce constat, des approches régionales se dessinent tant au niveau interne qu'au niveau transfrontalier. Par l'analyse de l'évolution de la politique genevoise de l'aménagement du territoire - d'une politique introvertie à une politique tournée vers le régional transfrontalier - notre étude fournit une grille de lecture pour aborder les aspects politico-administratifs de la coopération régionale transfrontalière. Notre modèle d'analyse repose sur une définition originale du concept de coopération régionale transfrontalière ainsi que sur une construction théorique solide applicable à d'autres cas. Aujourd'hui, la coopération régionale transfrontalière est une réalité vécue quotidiennement par les citoyens. La rigidité des cadres politiques appelle donc à un rattrapage évident. Dès lors, la pleine compréhension de la complexité politico-administrative de ce processus s'avère nécessaire.
Resumo:
The Wnt -Wingless (Wg) in Drosophila- signaling is an evolutionary conserved, fundamental signal transduction pathway in animals, having a crucial role in early developmental processes. In the adult animal the Wnt cascade is mainly shut off; aberrant activation leads to cancer. One physiological exception in the adult animal is the activation of Wnt signaling in the nervous system. In the present work, we investigated Wg signaling in the Drosophila neuromuscular junctions (NMJs). The fly NMJs closely resemble the glutamatergic synapses in the mammalian central nervous system and serves as a model system to investigate the mechanism of synapse formation and stability. We demonstrate that the trimeric G-protein Go has a fundamental role in the presynaptic cell in the NMJ. It is implicated in the presynaptic Wg pathway, acting downstream of the ligand Wg and its receptor Frizzled2 (Fz2). Furthermore, we prove that the presynaptic Wg-Fz2-Gαo pathway is essential for correct NMJ formation. The neuronal protein Ankyrin2 (Ank2) localizes to the NMJ and has so far been considered to be a static player in NMJ formation, linking the plasma membrane to the cytoskeleton. We identify Ank2 as a direct target of Gαo. The physical and genetic interaction of Gαo with Ank2 represents a novel branch of the presynaptic Wg pathway, regulating the microtubule cytoskeleton in NMJ formation, jointly with the previously established Futsch-dependent branch, which controls microtubule stability downstream of the kinase Sgg (the homolog of GSK3ß). We moreover demonstrate that the Gαo-Ankyrin interaction to regulate the cytoskeleton is conserved in mammalian neuronal cells. Our findings therefore provide a novel, universally valid regulation of the cytoskeleton in the nervous system. Aberrant inactivation of the neuronal Wnt pathway is believed to be involved in the pathogenesis of the Aß peptide in Alzheimer's disease (AD). We modeled AD in Drosophila by expressing Aß42 in the nervous system and in the eye. Neuronal expression drastically shortens the life span of the flies. We prove that this effect depends on the expression specifically in glutamatergic neurons. However, Aß42 does not induce any morphological changes in the NMJ; therefore this synapse is not suitable to study the mechanism of Aß42 induced neurotoxicity. We furthermore demonstrate that genetic activation of the Wnt pathway does not rescue the Aß42 induced phenotypes - in opposition to the dominating view in the field. These results advice caution when interpreting data on the potential interaction of Wnt signaling and AD in other models. -- La voie de signalisation Wnt (Wingless (Wg) chez la drosophile) est conservée dans l'évolution et fondamentale pour le développement des animaux. Cette signalisation est normalement inactive chez l'animal adulte; une activation anormale peut provoquer le cancer. Or, ceci n'est pas le cas dans le système nerveux des adultes. La présente thèse avait pour but d'analyser le rôle de la voie de signalisation Wingless dans la plaque motrice de Drosophila melanogaster. En effet, cette plaque ressemble fortement aux synapses glutaminergiques du système nerveux central des mammifères et procure ainsi un bon modèle pour l'étude des mécanismes impliqués dans la formation et la stabilisation des synapses. Nos résultats montrent que la protéine trimérique Go joue un rôle fondamental dans la fonction de la cellule présynaptique de la plaque motrice. Go est en effet impliqué dans la voie de signalisation Wg, opérant en aval du ligand Wg et de son récepteur Frizzled2. Nous avons pu démontrer que cette voie de signalisation Wg-Fz2-Gαo est essentielle pour le bon développement et le fonctionnement de la plaque motrice. Fait intéressant, nous avons montré que la protéine neuronale Ankyrin2 (Ank2), qui est connue pour jouer un rôle statique en liant la membrane plasmique au cytosquelette dans la plaque motrice, est une cible directe de Gαo. L'interaction physique et génétique entre Gαo et Ank2 constitue ainsi une bifurcation de la voie de signalisation présynaptique Wg. Cette voie régule le cytosquelette des microtubules en coopération avec la branche liée à la protéine Futsch. Cette protéine est l'homologue de la protéine liant les microtubules MAP1B des mammifères et contrôle la stabilité des microtubules opérant en aval de la kinase Sgg (l'homologue de GSK3ß). De plus, la régulation du cytosquelette par l'interaction entre Gαo et Ankyrin est conservée chez les mammifères. Dans leur ensemble, nos résultats ont permis d'identifier un nouveau mode de régulation du cytosquelette dans le système nerveux, probablement valable de manière universelle. La voie de signalisation Wnt est soupçonnée d'être impliquée dans la toxicité provoquée par le peptide Aß dans le cadre de la maladie d'Alzheimer. Nous avons tenté de modéliser la maladie chez la drosophile en exprimant Aß42 spécifiquement dans le cerveau. Cette expérience a montré que l'expression neuronale d'Aß42 réduit la durée de vie des mouches de manière significative par un mécanisme impliquant les cellules glutamatergiques. Par contre, aucune modification morphologique n'est provoquée par Aß42 dans les plaques motrices glutamatergiques. Ces résultats montrent que ce modèle de Drosophile n'est pas adéquat pour l'étude de la maladie d'Alzheimer. De plus, l'activation génétique de la voie de signalisation Wg n'a pas réussi à restaurer les phénotypes de survie ou ceux des yeux causés par Aß42. Ces résultats indiquent que l'implication de la voie de signalisation Wg dans la maladie d'Alzheimer doit être considérée avec prudence.
Resumo:
Cette thèse voudrait expliquer l'émergence et l'autonomisation d'un groupe professionnel récent en France, celui des céramistes d'art, « inventé » au milieu du XXe siècle, et qui s'est largement développé après 1968. Il s'agit d'analyser l'apparition d'un groupe social dans la division du travail, puis sa capacité à assurer les moyens de sa reproduction et de sa pérennisation, tant par l'étude de ses dynamiques internes que par ses rapports à l'hors-groupe. Au-delà de l'aspect monographique, cette recherche interroge la professionnalisation de cet espace du travail artistique peu légitime culturellement, et les obstacles à celle-ci (définition des frontières, contrôle des pratiques). Les normes professionnelles - émergentes, codifiées, transmises, défendues ou contestées - constituant le point d'entrée de cette recherche : liant du groupe, elles sont aussi révélatrices de ses transformations, clivages internes et modes d'institutionnalisation. Dans cette optique, la recherche restitue la diversité des dimensions du métier en tenant ensemble travail et hors- travail : sociogenèse du métier, rapport des céramistes d'art au travail artistique et à la culture légitime, engagement dans les organisations professionnelles (associatives et syndicales), récèption des politiques publiques qui concernent le secteur. Cette recherche réaffirme ainsi la centralité du travail comme espace au carrefour de plusieurs espaces sociaux et de plusieurs types d'investissements, c'est-à-dire comme un rapport social général et non comme enclave sociale que l'on pourrait appréhender par elle-même. La thèse montre aussi que l'hybridité constitutive du métier, entre art et artisanat, constitue l'une des bases de sa professionnalisation : la contestation des principes et des critères de légitimité culturelle en sont les manifestations majeures. Enfin, l'étude de la politisation chez les différentes unités-générationnelles qui composent le métier met en évidence la portée instituante de l'auto-organisation associative et les modes de constitution d'une identité collective. Elle révèle également la présence de l'Etat en filigrane, par opposition ou par coopération. Tels sont les multiples fondements de cette professionnalisation multi-située et constamment évolutive évolutive. Cette recherche repose essentiellement sur des observations - directes et participantes - dans les lieux de vie, de travail et de socialisation des céramistes d'art, et sur 62 entretiens semi-directifs. En plus de l'enquête ethnographique, la thèse s'appuie sur les résultats d'une enquête par questionnaire (218 répondants) et de la documentation professionnelle (archives syndicales, compte-rendu associatifs, supports de communication, etc.).
Resumo:
Seit den 1990er Jahren werden zunehmend nachhaltige Quartiere realisiert. Dabei besteht häufig eine beachtliche Diskrepanz zwischen den Zielen, die von den beteiligten Akteuren angestrebt werden, deren Umsetzung (Realisierungsphase) und deren Erhalt auf Dauer (Nutzungsphase). Es stellt sich folglich die Frage, auf welche Weise die Projektqualität im Sinne einer nachhaltigen Quartiersentwicklung verbessert werden kann. Diese Projekte sind jedoch enorm komplex aufgrund der großen Interdisziplinarität und Interdependenz ihrer Ziele sowie der vielschichtigen Akteursstrukturen. Sie stellen daher be-sonders hohe Anforderungen an die Projektsteuerung. Das konkrete Ziel dieser Arbeit besteht darin, die Bedeutung einer Prozesssteuerung im Sinne von Urban Governance zur Realisierung und zum Erhalt nachhaltiger Quartiere zu untersuchen. Damit soll einen Beitrag zur Förderung einer nachhalti-gen Stadtentwicklung geleistet werden. Die Arbeit stützt sich auf ein umfassendes theoretisches Fundament zum Thema Governance, wobei die relevanten Elemente für den Kontext nachhaltiger Quartiere herausgearbeitet werden. Die Hypothesen prüfen die Bedeutung der Schlüsselcharakteristika von Urban Governance (Kooperation, Partizipation, Verhandlungen) für die Projektqualität während der Realisierungs- und Nutzungsphase. Eine erste empirische Untersuchung wurde an zwanzig europäischen nachhaltigen Modellquartieren vorgenommen. Stärken und Schwächen aus der Perspektive der Nachhaltigkeit werden analysiert, deren Ursachen identifiziert und Handlungsoptio-nen aufgezeigt. Die Erkenntnisse zeigen die Notwendigkeit einer Verbesserung der Projektsteuerung während der Realisierungs- und der Nutzungsphase. Auf der Grundlage dieser Erkenntnisse wird ein umfassender Ansatz zur empirischen Untersuchung von Urban Governance im Kontext nachhaltiger Quartiere entwickelt. Dieser beruht auf dem akteurzentrierten Institutionalismus und den Merkmalen der Urban Governance. Anhand dieses Ansatzes wird mithilfe von Experteninterviews der Realisierungsprozess des nach-haltigen Quartiers Kronsberg (Hannover) analysiert. Betrachtet werden dabei die beteiligten Akteure und ihre Handlungso-rientierungen, die verwendeten Schlüsselinstrumente sowie aufgetretene Divergenzen zwischen Akteuren und deren Auswirkungen auf die Projekt- und Prozessqualität. Eine Vertiefung relevanter Themenfelder wird anhand der Fallstudie Neu-Oerlikon (Zürich) vorgenommen. Diese empirische Arbeit zeigt, dass eine Prozesssteuerung im Sinne von Urban Governance im Vergleich zu einer klassis-chen hierarchischen Steuerung eine notwendige aber nicht hinreichende Bedingung zur Verbesserung der Projektqualität nachhaltiger Quartiere darstellt. An konkreten Beispielen wird herausgearbeitet, dass der Mehrwert einer solchen Steuerung nur unter bestimmten Voraussetzungen erzielt werden kann: In manchen Situationen ist die Steuerungsform Kooperation und die Interaktionsform Verhandlung in ihrer Wirksamkeit zur Sicherung der Projektqualität begrenzt und hierarchische Interventionen sind notwendig. Nicht ein bestimmtes Steuerungsmodell per se ist geeignet, sondern es kommt auf den Ein-zelfall an: auf die Akteursstruktur, die individuellen und institutionellen Handlungsorientierungen der Akteure und deren Ver-haltensweisen, die Rahmenbedingungen und die Ausgestaltung des Urban Governance-Prozesses. Wenn die Spielregeln dieses Prozesses von den Akteuren nicht wirklich angenommen und gelebt werden, dominieren individuelle und institutio-nelle Akteursinteressen zu Lasten der Projektqualität. Ferner zeigen die Untersuchungen, dass die Partizipation der zukünftigen Quartiersnutzer in der Praxis häufig unzureichend ist. Dies führt zu Einbußen in der Projektqualität. Entscheidend ist auf jeden Fall, dass mindestens ein Akteur, in der Regel die öffentliche Hand, präsent ist, der die Definition anspruchsvoller Nachhaltigkeitsstandards, deren Umsetzung und deren Erhalt sichert sowie die notwendigen Rahmenbedingungen dafür schafft. Diese Arbeit belegt darüber hinaus, dass der Erhalt der Projektqualität während der Nutzungsphase (Faktor Zeit) bisher un-zureichend beachtet und in die Projektplanung einbezogen wird. Gerade dieser Aspekt bestimmt aber, ob das Quartier auch auf Dauer dem Nachhaltigkeitsanspruch gerecht werden kann! Tatsächlich handelt es sich um einen fortlaufenden Prozess, der nicht mit der Einweihung des Quartiers abgeschlossen ist. Vor diesem Hintergrund werden relevante Handlungsfelder beschrieben und die Notwendigkeit der langfristigen Fortsetzung einer Steuerung im Sinne von Urban Governance bzw. der Herausbildung einer Urban Governance-Kultur aufgezeigt. Aus den empirischen Erhebungen werden Erfolgs- und Risikofaktoren für Urban Governance-Prozesse während der Realisierungs- und der Nutzungsphase abgeleitet. Ferner werden bisher vernachlässigte Handlungsfelder (langfristiges Umwelt-management, ökologische Finanzierungsformen, urbane Landwirtschaft, Umweltkommunikation, etc.) eruiert. Die Berücksichtigung dieser Erkenntnisse ist unerlässlich für eine Verbesserung der Projektqualität nachhaltiger Quartiere. ---------------------------------------------- Gouvernance urbaine et quartiers durables: Entre intensions et mise en oeuvre --- Résumé --- Depuis les années 90, la thématique des quartiers durables a gagné en importance, même si leur développement s'est avéré difficile. Le décalage entre les objectifs, leur mise en oeuvre et le projet tel qu'il est vécu par ses habitants est souvent important et nécessite d'être réduit. Un quartier durable est par nature un projet complexe, aux objectifs ambitieux situé à la croisée de multiples champs disciplinaires, mobilisant de nombreux acteurs aux intérêts divergents. De plus, chaque projet, du fait des ses spécificités, requiert un pilotage adapté. L'objectif principal de la recherche vise à analyser la nature du pilotage du processus de conception, de réalisation et d'exploitation des quartiers durables. Ses résultats ont pour ambition de contribuer à optimiser et promouvoir le développement urbain durable. Le fondement théorique de la recherche se base sur le concept de gouvernance urbaine, adapté au contexte particulier de la gouvernance des quartiers durables. La gouvernance urbaine, au sens où nous l'entendons, est un mode de pilotage basé sur la coopération entre les acteurs publics et privés. Les hypothèses centrales du travail testent la portée et les limites des caractéristiques-clefs de la gouvernance urbaine (coopération, participation, négociation), ainsi que l'importance de la notion de pérennité pour la qualité du projet. Dans un premier temps, nous avons analysé vingt quartiers durables modèles européens et identifié leurs atouts et leurs faiblesses en termes de durabilité, ainsi que leurs divers modes de pilotage. Les enseignements tirés de ces exemples révèlent la nécessité d'améliorer le pilotage des projets. Dans un deuxième temps, nous avons élaboré une grille d'analyse fine fondée sur l'approche institutionnelle des acteurs et les caractéristiques-clefs de la gouvernance urbaine. En nous appuyant sur cette grille, nous avons analysé le processus de conception et de réalisation du quartier durable de « Kronsberg » (Hanovre) à l'aide des éléments suivants : les acteurs (avec leurs intérêts et objectifs propres), les instruments d'aménagement du territoire, les modes de pilotage, les zones de divergence et de convergence entre les acteurs, ainsi que leurs impacts sur le processus et le projet. Dans un troisième temps, les hypothèses centrales ont été testées sur le quartier de « Neu-Oerlikon » (Zurich) afin d'approfondir et d'élargir les enseignements tirés de celui de « Kronsberg ». Les résultats des analyses mettent en évidence le fait qu'un pilotage de projet selon le modèle de la gouvernance urbaine est certes une condition nécessaire mais non suffisante pour améliorer la qualité du projet. De plus, la valeur ajoutée de la gouvernance urbaine n'est valable qu'à certaines conditions. En effet, la coopération et la négociation peuvent même, dans certaines situations, réduire la qualité du projet ! Le principal enseignement de la recherche révèle qu'il n'y a pas de mode de pilotage idéal, mais que la qualité d'un projet dépend d'une multitude de facteurs, tels que les constellations d'acteurs, leurs intérêts personnels et institutionnels, les conditions cadres et les « règles du jeu » de la gouvernance urbaine. Si les « règles du jeu » en particulier ne sont pas réellement appropriées par l'ensemble des acteurs, les intérêts et les comportements personnels ou institutionnels prédominent au détriment de la qualité du projet. De même, si la participation des futurs usagers à l'élaboration du projet de quartier durable n'est pas assurée, tant la qualité du projet que sa pérennité en pâtissent. Nous avons également constaté que la présence d'un acteur (en règle générale les autorités publiques) qui veille à la définition d'objectifs ambitieux en matière de développement durable et à leur application constitue un apport essentiel à la qualité du projet. En outre, la recherche met en évidence les carences dans le suivi et le maintien à long terme des qualités de durabilité de la phase d'exploitation des projets de quartiers durables analysés. Dans la phase d'exploitation, le degré de coopération diminue généralement et les modes de fonctionnement et de pilotage sectoriels se mettent en place au détriment de la qualité du projet. Cela confirme la nécessité de poursuivre le processus de pilotage selon le modèle de la gouvernance urbaine au-delà de la phase de réalisation des projets. La recherche précise les enjeux des champs d'action de la phase d'exploitation (domaine encore peu étudié) et démontre la pertinence du mode de pilotage préconisé. Enfin, les analyses permettent d'identifier des facteurs de réussite et de risque susceptibles d'influencer les systèmes de gouvernance urbaine, ainsi que les enjeux des domaines de la durabilité encore négligés (agriculture urbaine, gestion environnementale dans la durée, comportement des usagers, financement équitable, etc.). La prise en compte de ces enseignements est essentielle à l'amélioration de la gestion de futurs projets de quartiers durables. ---------------------------------------------- Urban Governance and Sustainable Neighbourhoods: A Contribution to a Lasting Sustainable Development --- Abstract --- Since the 1990s, sustainable neighbourhoods have become an increasingly important topic. However, their development has proven to be difficult. There is an often considerable gap, which must be reduced, between the initial goals, the way they are implemented and how the project is finally inhabited. A sustainable neighbourhood is inherently a complex project, with ambitious goals that lie at the intersection of multiple disciplines, involving numerous stakeholders with diverging interests. Moreover, each project, due to its specific characteristics, requires an adapted steering. The main goal of this research is to analyse the nature of the steering process during the planning, realisation and use of sustainable neighbourhoods. The results aim to contribute to the promotion of sustainable urban development. The theoretical foundation of this research is based on the concept of urban governance, adapted to the particular context of sustainable neighbourhoods. Urban governance is understood in this work, as a mode of project steering based on the cooperation between public and private stakeholders. The central hypotheses of this work test the importance and the limits of the key characteristics of urban governance (cooperation, participation, negotiation) as well as the importance of continuity for the project quality. To begin with, we surveyed and analysed twenty exemplary European sustainable neighbourhoods and identified their strengths and weaknesses in terms of sustainability, as well as their diverse steering modes. The lessons learned from these examples reveal the need to improve the projects' steering. Secondly we elaborated a detailed framework for analysis founded on stakeholder-centred institutionalism and the key characteristics of urban governance. By systematically applying this framework, we analysed the planning and implementation process of the sustainable neighbourhood "Kronsberg" (Hannover). Our focus was on the following dimensions: the stakeholders (with their particular interests and goals), the instruments of spatial planning, the steering modes, the points of divergence and convergence amongst the stakeholders, as well as their impacts on the process and on the project. The final step was to test the core hypotheses on the neighbourhood "Neu-Oerlikon" (Zürich) in order to broaden the lessons learned from "Kronsberg". The results of the analysis highlight the fact that an urban governance type project steering is certainly a necessary but insufficient condition to improve the project quality. Moreover, the added value of urban governance is only valid under certain conditions. In fact, cooperation and negotiation can even in certain situations reduce the project's quality! The main lesson of this research is that there is not an ideal steering mode, but rather that the quality of the project depends on numerous factors, such as the stakeholder constellation, their individual and institutional interests, the general conditions and the "rules of the game" of urban governance. If these "rules of the game" are not really appropriated by all stakeholders, individual and institutional interests and behaviours predominate at the expense of the project's quality. Likewise, if the future users' participation in the project development is insufficient, both the project's quality and its continuity suffer. We have also observed that the presence of a stakeholder (in general the public authorities) who ensures the definition of ambitious goals in terms of sustainable development and their implementation is crucial for the project's quality. Furthermore, this research highlights the deficiencies in the follow-up and long-term preservation of the sustainability qualities in the neighbourhood projects which we have analysed. In the use phase, the degree of cooperation generally diminishes. Attitudes and project management become more sectorial at the expense of the project's quality. This confirms the need to continue the steering process according to the principles of urban governance beyond the project's implementation phase. This research specifies the challenges that affect the use phase (a still neglected area) and shows the relevance of the recommended steering mode. Finally, the analyses also identify the success and risk factors that may influence urban-governance systems, as well as the challenges of still neglected fields of sustainability (urban agriculture, long-term environmental management, user behaviour, fair funding, etc.). Taking into account these outcomes is essential to improve the management of future sustainable-neighbourhood projects.
Resumo:
L'objectif principal de cette thèse consiste à mettre en évidence la persistance du capitalisme familial en Suisse au cours du 20e siècle, et sa résistance aux capitalismes managérial et financier qui sont censés lui avoir succédé. Pour ce faire, nous avons retenu vingt-deux grandes entreprises du secteur des machines, de l'électrotechnique et de la métallurgie - principale branche de l'industrie suisse pour la période considérée -, pour lesquelles ont été recensés les membres des conseils d'administration et les principaux dirigeants exécutifs pour cinq dates- repère couvrant le siècle (1910, 1937, 1957, 1980 et 2000). Cette thèse s'inscrit dans une démarche pluridisciplinaire qui relève à la fois de l'histoire d'entreprise et de la sociologie des dirigeants, et fait appel à différentes méthodes telles que l'analyse de réseau et l'analyse prosopographique. Elle s'articule autour de trois axes de recherche principaux : le premier vise à mettre en évidence l'évolution des modes de gouvernance dans notre groupe d'entreprises, le second investit la question de la coordination patronale et le troisième a pour but de dresser un portrait collectif des élites à la tête de nos vingt-deux firmes. Nos résultats montrent que durant la majeure partie du siècle, la plupart de nos entreprises sont contrôlées par des familles et fonctionnent sur un mode de coordination hors marché qui repose notamment sur un réseau dense de liens interfirmes, le profil des dirigeants restant dans l'ensemble stable. Si la fin du siècle est marquée par plusieurs changements qui confirment l'avènement d'un capitalisme dit financier ou actionnarial et la mise en place de pratiques plus concurrentielles parmi les firmes et les élites industrielles, le maintien du contrôle familial dans plusieurs entreprises et la persistance de certains anciens mécanismes de coopération nous incitent cependant à nuancer ce constat. - The main objective of this research is to highlight the persistence of family capitalism in Switzerland during the 20th century and its resistance to managerial and financial capitalisms that succeeded. For this purpose, we focus on twenty- two big companies of the machine, electrotechnical and metallurgy sector - the main branch of the Swiss industry for the considered period - whose boards of directors and executive managers have been identified for five benchmarks across the century (1910, 1937, 1957, 1980 and 2000). This thesis relates to business history and elites sociology, and uses different methods such as network analysis and prosopography. It is articulated around three main parts. The aim of the first one is to identify the evolution of corporate governance in our twenty-two enterprises, the second part concentrates on interfirms coordination and the objective of the last one is to highlight the profile of the corporate elite leading our firms. Our results show that during the main part of the century, most of the companies were controlled by families and were characterized by non-market mechanisms of coordination such as interlocking directorates ; moreover, the profile of the corporate elite remained very stable. Although some major changes that took place by the end of the century confirmed a transition towards financial capitalism and more competitive interaction among firms and the corporate elite, the persistence of family control in several companies and the maintaining of some former mechanisms of coordination allow us to put this evolution into perspective.
Resumo:
Summary The mechanisms regulating the protective immune T-cell responses generated against the persistent Epstein-Barr virus (EBV) and Cytomegaloviru_s (CNIV) remain poorly understood. We analyzed the dynamics of cellular differentiation and T-cell receptor (TCR) clonotype selection of EBV- and CMV-specific T-cells in healthy adults and melanoma patients. While these responses could be subdivided into four T lymphocyte populations, théir proportions varied between EBV and CMV specific responses. Phenotypic and TCR clonotypic analyses supported a linear model of differentiation from the early-differentiated (EM/CD28pos) subset to the late-differentiatdc (EMRA/CD28neg) subset. In-depth clonal composition analyses revealed TCR repertoires, which were highly restricted for CMV- and relatively diverse for EBV-specific cells. Virtually all virus-specific clonotypes identified in the EMRA/CD28neg subset were also found within the pool of less differentiated "memory" cells. However, striking differences in the patterns of dominance were observed among these subsets, as some clonotypes were selected with differentiation, while others were not. Latedifferentiated CMV-specific clonotypes were mostly characterized by TCRs with lower dependency on CD8 co-receptor interaction. Yet all clonotypes displayed similar functional avidities, suggesting a compensatory role of CD8 in the clonotypes of lower TCR avidity. Importantly, clonotype selection and composition of each virus-specific subset upon differentiation was highly preserved over time, with the presence of the same dominant clonotypes at specific differentiation stages within a period of four years. This work was extended to the study of EBV-specific CD8 T-cell responses in melanoma patients undergoing transient lymphodepletion, followed by adoptive cell transfer (ACT) and immune reconstitution for thè treatment of their tumors. Following treatment regimen, we first observed an increase in the proportion of virus-specific T-cells in 3 out of 5 patients, accompanied by a more differentiated phenotype (EMRA/CD28neg), compared to specific cells of healthy individuals. Yet, similarly to healthy donors, clonotype selection and composition of virus-specific T-cells varied along the pathway of cellular differentiation, with some clonotypes being selected with differentiation, while others were not. Intriguingly, no novel clonotypes emerged following transient immuno-suppression and homeostatic proliferation, finding which was subsequently explained by the absence of EBV reactivation. The distribution of each clonotype within early- and late-differentiated T-cell subsets in 4 out 5 patients was highly stable over time, with those clonotypes initially found before the start of treatment that were again present at specific differentiation stages after transient lymphodepletion and ACT. These findings uncover novel features of the highly sophisticated control of steady state protective T-cell immune responses against persistent herpesviruses in healthy adults. Furthermore they reveal the striking stability of these responses in terms of clonotype selection and composition with T-cell differentiation even in situations where the immune system has been. challenged. Résumé : Les mécanismes qui régulent les réponses immunitaires de type protectrices, générées contre les virus chroniquement persistants tels que l'Epstein-Barr (EBV) ou le Cytomegalo (CMV) restent largement inconnus. Nous avons analysé la différenciation des lymphocytes T spécifiques pour ces virus, ainsi que la composition des clonotypes T (par leur récepteur T) chez les donneurs sains. Les réponses immunes peuvent être classifiées en quatre souspopulations majeures de lymphocytes T, cependant, leur proportion varie entre les réponses spécifiques contre EBV ou CMV. Ces analyses soutiennent le modèle linéaire de différenciation, à partir de la population non différenciée (EM/CD28pos) vers la population plus différenciée (ENIIZA/CD28neg). De plus, nos données sur la composition clonale de ces cellules T spécifiques ont révélé des répertoires TCR restreints, pour la réponse anti-CMV, et relativement diversifiés contre EBV. Tous les clonotypes spécifiques de ces virus identifiés dans la sous-population différenciée EMRA/CD28neg, ont également été retrouvés dans la population de cellules "mémoires". Toutefois, de fortes différences ont été observées dans les schémas de domination de ces sous-populations, en effet, certains clonotypes étaient sélectionnés avec la différenciation, alors que d'autres ne l'étaient pas. Nous avons également démontré que ces clonotypes différenciés et spécifiques pour le CMV sont caractérisés par des TCRs à faible dépendance en regard de la coopération du corécepteur CD8. Néanmoins, tous les clonotypes affichent une avidité fonctionnelle similaire, suggérant un rôle compensatoire du CD8, dans le cas des clonotypes avec une faible avidité du TCR En définitive, la composition et la sélection des clonotypes spécifiques pour chaque virus et pour chaque sous-population suit un schéma de différenciation hautement conservé au cours du temps, avec la présence de ces mêmes clonotypes au même stade de différenciation sur une période de quatre ans. Ce travail a été étendu à l'étude des réponses T CD8+ spécifiques pour le virus EBV chez les patients atteints de mélanome et recevant dans le cadre du traitement de leurs tumeurs une lymphodéplétion transitoire, suivie d'un transfert adoptif de cellules et d'une reconstitution immunitaire. Au cours de cette thérapie, nous avons en premier lieu observé pour 3 des 5 patients une augmentation de la proportion de cellules T spécifiques pour le virus, accompagné d'un phénotype plus différencié (EMRA/CD28neg), et ceci comparativement à des cellules spécifiques d'individus sains. Pourtant, comme nous l'avons observé chez les donneurs sains, la sélection et la composition des clonotypes T spécifiques varient tout au long de la différenciation cellulaire, avec certains clonotypes sélectionnés et d'autres qui ne le sont pas. Étonnamment, aucun nouveau clonotype n'a émergé après l'immuno-suppression transitoire et la prolifération homéostatique. Cette observation trouve son explication par une absence de réactivation du virus EBV chez ces patients, et ce malgré leur traitement. De plus, la distribution de chaque clonotype parmi ces sous-populations non-différenciées et différenciées reste stable au cours du traitement. Ainsi, les mêmes clonotypes initialement identifiés avant le début du traitement sont présents aux mêmes stades de différenciation après la lymphodéplétion et la prolifération homéostatique. Ces résultats ont permis d'identifier de nouveaux mécanismes impliqués dans la régulation hautement «sophistiquée » des réponses immunitaires T contre les virus persistants EBV et CMV chez les donneurs sains. En particulier, ils révèlent la grande stabilité de ces réponses en termes de sélection et de composition des clonotypes avec la différenciation cellulaire, et ce dans les situations chroniques, ainsi que dans les situations dans lesquelles le système immunitaire a été profondément perturbé.
Resumo:
Cooperation is ubiquitous in nature: genes cooperate in genomes, cells in muti- cellular organims, and individuals in societies. In humans, division of labor and trade are key elements of most known societies, where social life is regulated by- moral systems specifying rights and duties often enforced by third party punish¬ment. Over the last decades, several primary mechanisms, such as kin selection, direct and indirect reciprocity, have been advanced to explain the evolution of cooperation from a naturalistic approach. In this thesis, I focus on the study of three secondary mechanisms which, although insufficient to allow for the evo¬lution of cooperation, have been hypothesized to further promote it when they are linked to proper primary mechanisms: conformity (the tendency to imitate common behaviors), upstream reciprocity (the tendency to help somebody once help has been received from somebody else) and social diversity (heterogeneous social contexts). I make use of mathematical and computational models in the formal framework of evolutionary game theory in order to investigate the theoret¬ical conditions under which conformity, upstream reciprocity and social diversity are able to raise the levels of cooperation attained in evolving populations. - La coopération est ubiquitaire dans la nature: les gènes coopèrent dans les génomes, les cellules dans les organismes muticellulaires, et les organismes dans les sociétés. Chez les humains, la division du travail et le commerce sont des éléments centraux de la plupart des sociétés connues, où la vie sociale est régie par des systèmes moraux établissant des droits et des devoirs, souvent renforcés par la punition. Au cours des dernières décennies, plusieurs mécanismes pri¬maires, tels que la sélection de parentèle et les réciprocités directe et indirecte, ont été avancés pour expliquer l'évolution de la coopération d'un point de vue nat¬uraliste. Dans cette thèse, nous nous concentrons sur l'étude de trois mécanismes secondaires qui, bien qu'insuffisants pour permettre l'évolution de la coopération, sont capables de la promouvoir davantage s'ils sont liés aux mécanismes primaires appropriés: la conformité (tendance à imiter des comportements en commun), la 'réciprocité en amont' (tendance à aider quelqu'un après avoir reçu l'aide de quelqu'un d'autre) et la diversité sociale (contextes sociaux hétérogènes). Nous faisons usage de modèles mathématiques et informatiques dans le cadre formel de la théorie des jeux évolutionnaires afin d'examiner les conditions théoriques dans lesquelles la conformité, la 'réciprocité en amont' et la diversité sociale sont capables d'élever le niveau de coopération des populations en évolution.
Resumo:
Résumé large public: Une altération localisée du métabolisme du glucose, le substrat énergétique préférentiellement utilisé dans le cerveau, est un trait caractéristique précoce de la maladie d'Alzheimer (MA). Il est maintenant largement admis que le beta-amyloïde, la neuroinflammation et le stress oxydatif participent au développement de la MA. Cependant les mécanismes cellulaires de la pathogenèse restent à identifier. Le métabolisme cérébral a ceci de remarquable qu'il repose sur la coopération entre deux types cellulaires, ainsi les astrocytes et les neurones constituent une unité métabolique. Les astrocytes sont notamment responsables de fournir aux neurones des substrats énergétiques, ainsi que des précurseurs du glutathion pour la défense contre le stress oxydatif. Ces fonctions astrocytaires sont essentielles au bon fonctionnement et à la survie neuronale; par conséquent, une altération de ces fonctions astrocytaires pourrait participer au développement de certaines maladies cérébrales. Le but de ce travail est, dans un premier temps, d'explorer les effets de médiateurs de la neuroinflammation (les cytokines pro-inflammatoires) et du peptide beta-amyloïde sur le métabolisme des astrocytes corticaux, en se focalisant sur les éléments en lien avec le métabolisme énergétique et le stress oxydatif. Puis, dans un second temps, de caractériser les conséquences pour les neurones des modifications du métabolisme astrocytaire induites par ces substances. Les résultats obtenus ici montrent que les cytokines pro-inflammatoires et le beta-amyloïde induisent une profonde altération du métabolisme astrocytaire, selon deux profils distincts. Les cytokines pro-inflammatoires, particulièrement en combinaison, agissent comme « découpleurs » du métabolisme énergétique du glucose, en diminuant l'apport potentiel de substrats énergétiques aux neurones. En plus de son effet propre, le peptide beta-amyloïde potentialise les effets des cytokines pro-inflammatoires. Or, dans le cerveau de patients atteints de la MA, les astrocytes sont exposés simultanément à ces deux types de substances. Les deux types de substances ont un effet ambivalent en termes de stress oxydatif. Ils induisent à la fois une augmentation de la libération de glutathion (potentiellement protecteur pour les neurones voisins) et la production d'espèces réactives de l'oxygène (potentiellement toxiques). Etant donné l'importance de la coopération entre astrocytes et neurones, ces modulations du métabolisme astrocytaire pourraient donc avoir un retentissement majeur sur les cellules environnantes, et en particulier sur la fonction et la survie neuronale. Résumé Les astrocytes et les neurones constituent une unité métabolique. Les astrocytes sont notamment responsables de fournir aux neurones des substrats énergétiques, tels que le lactate, ainsi que des précurseurs du glutathion pour la défense contre le stress oxydatif. Une altération localisée du métabolisme du glucose, le substrat énergétique préférentiellement utilisé dans le cerveau, est un trait caractéristique, précoce, de la maladie d'Alzheimer (MA). Il est maintenant largement admis que le beta-amyloïde, la neuroinflammation et le stress oxydatif participent au développement de la MA. Cependant, les mécanismes cellulaires de la pathogenèse restent à identifier. Le but de ce travail est d'explorer les effets des cytokines pro-inflammatoires (Il-1 ß et TNFα) et du beta-amyloïde (Aß) sur le métabolisme du glucose des astrocytes corticaux en culture primaire ainsi que de caractériser les conséquences, pour la viabilité des neurones voisins, des modifications du métabolisme astrocytaire induites par ces substances. Les résultats obtenus montrent que les cytokines pro-inflammatoires et le beta-amyloïde induisent une profonde altération du métabolisme astrocytaire, selon deux profils distincts. Les cytokines pro-inflammatoires, particulièrement en combinaison, agissent comme « découpleurs » du métabolisme glycolytique astrocytaire. Après 48 heures, le traitement avec TNFα et Il-lß cause une augmentation de la capture de glucose et de son métabolisme dans la voie des pentoses phosphates et dans le cycle de Krebs. A l'inverse, il cause une diminution de la libération de lactate et des stocks cellulaires de glycogène. En combinaison avec les cytokines tel qu'in vivo dans les cerveaux de patients atteints de MA, le peptide betaamyloïde potentialise les effets décrits ci-dessus. Isolément, le Aß cause une augmentation coordonnée de la capture de glucose et de toutes les voies de son métabolisme (libération de lactate, glycogenèse, voie des pentoses phosphate et cycle de Krebs). Les traitements altèrent peu les taux de glutathion intracellulaires, par contre ils augmentent massivement la libération de glutathion dans le milieu extracellulaire. A l'inverse, les deux types de traitements augmentent la production intracellulaire d'espèces réactives de l'oxygène (ROS). De plus, les cytokines pro-inflammatoires en combinaison augmentent massivement la production des ROS dans l'espace extracellulaire. Afin de caractériser l'impact de ces altérations métaboliques sur la viabilité des neurones environnants, un modèle de co-culture et des milieux conditionnés astrocytaires ont été utilisés. Les résultats montrent qu'en l'absence d'une source exogène d'antioxydants, la présence d'astrocytes favorise la viabilité neuronale ainsi que leur défense contre le stress oxydatif. Cette propriété n'est cependant pas modulée par les différents traitements. D'autre part, la présence d'astrocytes, et non de milieu conditionné, protège les neurones contre l'excitotoxicité due au glutamate. Les astrocytes prétraités (aussi bien avec le beta-amyloïde qu'avec les cytokines pro-inflammatoires) perdent cette propriété. Cet élément suggère que la perturbation du métabolisme astrocytaire causé par les cytokines pro-inflammatoires ou le beta-amyloïde pourrait participer à l'atteinte de la viabilité neuronale associée à certaines pathologies neurodégénératives.
Resumo:
AbstractEstablishment of a functional nervous system occurs through an orchestrated multistep process during embryogenesis. As dendrites are the primary sites of synaptic connections, development of dendritic arborization is essential for the formation of functional neural circuits. Maturation of dendritic arbor occurs through dynamic processes that are regulated by intrinsic genetic factors and external signals, such as environmental stimuli, neuronal activity and growth factors. Among the latter, the neurotrophic factor BDNF is a key regulator of dendritic growth. However, the mechanisms by which BDNF controls dendritic development remain elusive.In this study, we first showed that activation of the MAPK signaling pathway and phosphorylation of the transcription factor CREB are required to mediate the effects of BDNF on dendritic development of cortical neurons. However, phosphorylation of CREB alone is not sufficient to induce dendritic growth in response to BDNF. Thus, by using a mutant form of CREB unable to bind its coactivator CRTC1, we demonstrated that BDNF-induced dendritic elaboration requires the functional interaction between CREB and CRTC1. Consistent with these observations, inhibition of CRTC1 expression by shRNA-mediated knockdown was found to suppress the effects of BDNF on dendritic length and branching of cortical neurons.The nuclear translocation of CRTC1, a step necessary for the interaction between CREB and CRTC1, was shown to result from the activation of NMD A receptors by glutamate, leading to the dephosphorylation of CRTC1 by the protein phosphatase calcineurin. In line with these findings, prevention of CRTC1 nuclear translocation in the absence of glutamate, or by inhibiting NMDA receptors or calcineurin suppressed the promotion of dendritic growth by BDNF.Increasing evidence supports a role for the growth factor HGF in the regulation of dendritic morphology during brain development. Despite these observations, little is known about the cellular mechanisms underlying the effects of HGF on dendritic elaboration of cortical neurons. The second part of this study was aimed at elucidating the cellular processes that mediate the effects of HGF on dendritic differentiation. We found that HGF increases cortical dendritic growth through mechanisms that involve MAPK-dependent phosphorylation of CREB, and interaction of CREB with its coactivator CRTC1. These data indicate that the mechanisms underlying the promotion of dendritic growth by HGF are similar to those that mediate the effects of BDNF, suggesting that the role of CREB and CRTC1 in the regulation of dendritic development may not be limited to HGF and BDNF, but may extend to other neurotrophic factors that control dendritic differentiation.Together, these results identify a previously unrecognized mechanism by which CREB and its coactivator CRTC1 mediate the effects of BDNF and HGF on dendritic growth of cortical neurons. Moreover, these data highlight the important role of the cooperation between BDNF/HGF and glutamate that converges on CREB to stimulate the expression of genes that contribute to the development of dendritic arborization.RésuméL'établissement d'un système nerveux fonctionnel s'accomplit grâce à des mécanismes précis, orchestrés en plusieurs étapes au cours de l'embryogenèse. Les dendrites étant les principaux sites de connexions synaptiques, le développement de l'arborisation dendritique est essentiel à la formation de circuits neuronaux fonctionnels. La maturation de l'arbre dendritique s'effectue grâce à des processus dynamiques qui sont régulés par des facteurs génétiques intrinsèques ainsi que par des facteurs externes tels que les stimuli environnementaux, l'activité neuronale ou les facteurs de croissance. Parmi ces derniers, le facteur neurotrophique BDNF est - connu pour être un régulateur clé de la croissance dendritique. Cependant, les mécanismes par lesquels BDNF contrôle le développement dendritique demeurent mal connus.Au cours de cette étude, nous avons montré dans un premier temps que l'activation de la voie de signalisation de la MAPK et la phosphorylation du facteur de transcription CREB sont nécessaires aux effets du BDNF sur le développement dendritique des neurones corticaux. Toutefois, la phosphorylation de CREB en tant que telle n'est pas sûffisante pour permettre la pousse des dendrites en réponse au BDNF. Ainsi, en utilisant une forme mutée de CREB incapable de se lier à son coactivateur CRTC1, nous avons démontré que l'élaboration des dendrites induite par le BDNF nécessite également une interaction fonctionnelle entre CREB et CRTC1. Ces résultats ont été confirmés par d'autres expériences qui ont montré que l'inhibition de l'expression de CRTC1 par l'intermédiaire de shRNA supprime les effets du BDNF sur la longueur et le branchement dendritique des neurones corticaux.Les résultats obtenus au cours de ce travail montrent également que la translocation nucléaire de CRTC1, qui est une étape nécessaire à l'interaction entre CREB et CRTC1, résulte de l'activation des récepteurs NMDA par le glutamate, entraînant la déphosphorylation de CRTC1 par la protéine phosphatase calcineurine. De plus, le blocage de la translocation nucléaire de CRTC1 en absence de glutamate, ou suite à l'inhibition des récepteurs NMDA ou de la calcineurine, supprime complètement la pousse des dendrites induite par le BDNF.De nombreuses d'évidences indiquent que le facteur de croissance HGF joue également un rôle important dans la régulation de la morphologie dendritique au cours du développement cérébral. Malgré ces observations, peu d'éléments sont connus quant aux mécanismes cellulaires qui sous-tendent les effets du HGF sur la croissance dendritique des neurones corticaux. Le but de la seconde partie de cette étude a eu pour but d'élucider les processus cellulaires responsables des effets du HGF sur la différenciation dendritique des neurones corticaux. Au cours de ces expériences, nous avons pu mettre en évidence que le HGF induit la pousse dendritique par des mécanismes qui impliquent la phosphorylation de CREB par la MAPK, et l'interaction de CREB avec son coactivateur CRTC1. Ces données indiquent que les mécanismes impliqués dans la stimulation de la croissance dendritique par le HGF sont similaires à ceux régulant les effets du BDNF, ce qui suggère que le rôle de CREB et de CRTC1 dans la régulation du développement dendritique n'est vraisemblablement pas limité aux effets du HGF ou du BDNF, mais pourrait s'étendre à d'autres facteurs neurotrophiques qui contrôlent la différenciation dendritique.En conclusion, ces résultats ont permis l'identification d'un nouveau mécanisme par lequel CREB et son coactivateur CRTC1 transmettent les effets du BDNF et du HGF sur la croissance dendritique de neurones corticaux. Ces observations mettent également en évidence le rôle important joué par la coopération entre BDNF/HGF et le glutamate, dans l'activation de CREB ainsi que dans l'expression de gènes qui participent au développement de l'arborisation dendritique des neurones corticaux.
Resumo:
Abstract: The expansion of a recovering population - whether re-introduced or spontaneously returning - is shaped by (i) biological (intrinsic) factors such as the land tenure system or dispersal, (ii) the distribution and availability of resources (e.g. prey), (iii) habitat and landscape features, and (iv) human attitudes and activities. In order to develop efficient conservation and recovery strategies, we need to understand all these factors and to predict the potential distribution and explore ways to reach it. An increased number of lynx in the north-western Swiss Alps in the nineties lead to a new controversy about the return of this cat. When the large carnivores were given legal protection in many European countries, most organizations and individuals promoting their protection did not foresee the consequences. Management plans describing how to handle conflicts with large predators are needed to find a balance between "overabundance" and extinction. Wildlife and conservation biologists need to evaluate the various threats confronting populations so that adequate management decisions can be taken. I developed a GIS probability model for the lynx, based on habitat information and radio-telemetry data from the Swiss Jura Mountains, in order to predict the potential distribution of the lynx in this mountain range, which is presently only partly occupied by lynx. Three of the 18 variables tested for each square kilometre describing land use, vegetation, and topography, qualified to predict the probability of lynx presence. The resulting map was evaluated with data from dispersing subadult lynx. Young lynx that were not able to establish home ranges in what was identified as good lynx habitat did not survive their first year of independence, whereas the only one that died in good lynx habitat was illegally killed. Radio-telemetry fixes are often used as input data to calibrate habitat models. Radio-telemetry is the only way to gather accurate and unbiased data on habitat use of elusive larger terrestrial mammals. However, it is time consuming and expensive, and can therefore only be applied in limited areas. Habitat models extrapolated over large areas can in turn be problematic, as habitat characteristics and availability may change from one area to the other. I analysed the predictive power of Ecological Niche Factor Analysis (ENFA) in Switzerland with the lynx as focal species. According to my results, the optimal sampling strategy to predict species distribution in an Alpine area lacking available data would be to pool presence cells from contrasted regions (Jura Mountains, Alps), whereas in regions with a low ecological variance (Jura Mountains), only local presence cells should be used for the calibration of the model. Dispersal influences the dynamics and persistence of populations, the distribution and abundance of species, and gives the communities and ecosystems their characteristic texture in space and time. Between 1988 and 2001, the spatio-temporal behaviour of subadult Eurasian lynx in two re-introduced populations in Switzerland was studied, based on 39 juvenile lynx of which 24 were radio-tagged to understand the factors influencing dispersal. Subadults become independent from their mothers at the age of 8-11 months. No sex bias neither in the dispersal rate nor in the distance moved was detected. Lynx are conservative dispersers, compared to bear and wolf, and settled within or close to known lynx occurrences. Dispersal distances reached in the high lynx density population - shorter than those reported in other Eurasian lynx studies - are limited by habitat restriction hindering connections with neighbouring metapopulations. I postulated that high lynx density would lead to an expansion of the population and validated my predictions with data from the north-western Swiss Alps where about 1995 a strong increase in lynx abundance took place. The general hypothesis that high population density will foster the expansion of the population was not confirmed. This has consequences for the re-introduction and recovery of carnivores in a fragmented landscape. To establish a strong source population in one place might not be an optimal strategy. Rather, population nuclei should be founded in several neighbouring patches. Exchange between established neighbouring subpopulations will later on take place, as adult lynx show a higher propensity to cross barriers than subadults. To estimate the potential population size of the lynx in the Jura Mountains and to assess possible corridors between this population and adjacent areas, I adapted a habitat probability model for lynx distribution in the Jura Mountains with new environmental data and extrapolated it over the entire mountain range. The model predicts a breeding population ranging from 74-101 individuals and from 51-79 individuals when continuous habitat patches < 50 km2 are disregarded. The Jura Mountains could once be part of a metapopulation, as potential corridors exist to the adjoining areas (Alps, Vosges Mountains, and Black Forest). Monitoring of the population size, spatial expansion, and the genetic surveillance in the Jura Mountains must be continued, as the status of the population is still critical. ENFA was used to predict the potential distribution of lynx in the Alps. The resulting model divided the Alps into 37 suitable habitat patches ranging from 50 to 18,711 km2, covering a total area of about 93,600 km2. When using the range of lynx densities found in field studies in Switzerland, the Alps could host a population of 961 to 1,827 residents. The results of the cost-distance analysis revealed that all patches were within the reach of dispersing lynx, as the connection costs were in the range of dispersal cost of radio-tagged subadult lynx moving through unfavorable habitat. Thus, the whole Alps could once be considered as a metapopulation. But experience suggests that only few disperser will cross unsuitable areas and barriers. This low migration rate may seldom allow the spontaneous foundation of new populations in unsettled areas. As an alternative to natural dispersal, artificial transfer of individuals across the barriers should be considered. Wildlife biologists can play a crucial role in developing adaptive management experiments to help managers learning by trial. The case of the lynx in Switzerland is a good example of a fruitful cooperation between wildlife biologists, managers, decision makers and politician in an adaptive management process. This cooperation resulted in a Lynx Management Plan which was implemented in 2000 and updated in 2004 to give the cantons directives on how to handle lynx-related problems. This plan was put into practice e.g. in regard to translocation of lynx into unsettled areas. Résumé: L'expansion d'une population en phase de recolonisation, qu'elle soit issue de réintroductions ou d'un retour naturel dépend 1) de facteurs biologiques tels que le système social et le mode de dispersion, 2) de la distribution et la disponibilité des ressources (proies), 3) de l'habitat et des éléments du paysage, 4) de l'acceptation de l'espèce par la population locale et des activités humaines. Afin de pouvoir développer des stratégies efficaces de conservation et de favoriser la recolonisation, chacun de ces facteurs doit être pris en compte. En plus, la distribution potentielle de l'espèce doit pouvoir être déterminée et enfin, toutes les possibilités pour atteindre les objectifs, examinées. La phase de haute densité que la population de lynx a connue dans les années nonante dans le nord-ouest des Alpes suisses a donné lieu à une controverse assez vive. La protection du lynx dans de nombreux pays européens, promue par différentes organisations, a entraîné des conséquences inattendues; ces dernières montrent que tout plan de gestion doit impérativement indiquer des pistes quant à la manière de gérer les conflits, tout en trouvant un équilibre entre l'extinction et la surabondance de l'espèce. Les biologistes de la conservation et de la faune sauvage doivent pour cela évaluer les différents risques encourus par les populations de lynx, afin de pouvoir rapidement prendre les meilleuresmdécisions de gestion. Un modèle d'habitat pour le lynx, basé sur des caractéristiques de l'habitat et des données radio télémétriques collectées dans la chaîne du Jura, a été élaboré afin de prédire la distribution potentielle dans cette région, qui n'est que partiellement occupée par l'espèce. Trois des 18 variables testées, décrivant pour chaque kilomètre carré l'utilisation du sol, la végétation ainsi que la topographie, ont été retenues pour déterminer la probabilité de présence du lynx. La carte qui en résulte a été comparée aux données télémétriques de lynx subadultes en phase de dispersion. Les jeunes qui n'ont pas pu établir leur domaine vital dans l'habitat favorable prédit par le modèle n'ont pas survécu leur première année d'indépendance alors que le seul individu qui est mort dans l'habitat favorable a été braconné. Les données radio-télémétriques sont souvent utilisées pour l'étalonnage de modèles d'habitat. C'est un des seuls moyens à disposition qui permette de récolter des données non biaisées et précises sur l'occupation de l'habitat par des mammifères terrestres aux moeurs discrètes. Mais ces méthodes de- mandent un important investissement en moyens financiers et en temps et peuvent, de ce fait, n'être appliquées qu'à des zones limitées. Les modèles d'habitat sont ainsi souvent extrapolés à de grandes surfaces malgré le risque d'imprécision, qui résulte des variations des caractéristiques et de la disponibilité de l'habitat d'une zone à l'autre. Le pouvoir de prédiction de l'Analyse Ecologique de la Niche (AEN) dans les zones où les données de présence n'ont pas été prises en compte dans le calibrage du modèle a été analysée dans le cas du lynx en Suisse. D'après les résultats obtenus, la meilleure mé- thode pour prédire la distribution du lynx dans une zone alpine dépourvue d'indices de présence est de combiner des données provenant de régions contrastées (Alpes, Jura). Par contre, seules les données sur la présence locale de l'espèce doivent être utilisées pour les zones présentant une faible variance écologique tel que le Jura. La dispersion influence la dynamique et la stabilité des populations, la distribution et l'abondance des espèces et détermine les caractéristiques spatiales et temporelles des communautés vivantes et des écosystèmes. Entre 1988 et 2001, le comportement spatio-temporel de lynx eurasiens subadultes de deux populations réintroduites en Suisse a été étudié, basé sur le suivi de 39 individus juvéniles dont 24 étaient munis d'un collier émetteur, afin de déterminer les facteurs qui influencent la dispersion. Les subadultes se sont séparés de leur mère à l'âge de 8 à 11 mois. Le sexe n'a pas eu d'influence sur le nombre d'individus ayant dispersés et la distance parcourue au cours de la dispersion. Comparé à l'ours et au loup, le lynx reste très modéré dans ses mouvements de dispersion. Tous les individus ayant dispersés se sont établis à proximité ou dans des zones déjà occupées par des lynx. Les distances parcourues lors de la dispersion ont été plus courtes pour la population en phase de haute densité que celles relevées par les autres études de dispersion du lynx eurasien. Les zones d'habitat peu favorables et les barrières qui interrompent la connectivité entre les populations sont les principales entraves aux déplacements, lors de la dispersion. Dans un premier temps, nous avons fait l'hypothèse que les phases de haute densité favorisaient l'expansion des populations. Mais cette hypothèse a été infirmée par les résultats issus du suivi des lynx réalisé dans le nord-ouest des Alpes, où la population connaissait une phase de haute densité depuis 1995. Ce constat est important pour la conservation d'une population de carnivores dans un habitat fragmenté. Ainsi, instaurer une forte population source à un seul endroit n'est pas forcément la stratégie la plus judicieuse. Il est préférable d'établir des noyaux de populations dans des régions voisines où l'habitat est favorable. Des échanges entre des populations avoisinantes pourront avoir lieu par la suite car les lynx adultes sont plus enclins à franchir les barrières qui entravent leurs déplacements que les individus subadultes. Afin d'estimer la taille de la population de lynx dans le Jura et de déterminer les corridors potentiels entre cette région et les zones avoisinantes, un modèle d'habitat a été utilisé, basé sur un nouveau jeu de variables environnementales et extrapolé à l'ensemble du Jura. Le modèle prédit une population reproductrice de 74 à 101 individus et de 51 à 79 individus lorsque les surfaces d'habitat d'un seul tenant de moins de 50 km2 sont soustraites. Comme des corridors potentiels existent effectivement entre le Jura et les régions avoisinantes (Alpes, Vosges, et Forêt Noire), le Jura pourrait faire partie à l'avenir d'une métapopulation, lorsque les zones avoisinantes seront colonisées par l'espèce. La surveillance de la taille de la population, de son expansion spatiale et de sa structure génétique doit être maintenue car le statut de cette population est encore critique. L'AEN a également été utilisée pour prédire l'habitat favorable du lynx dans les Alpes. Le modèle qui en résulte divise les Alpes en 37 sous-unités d'habitat favorable dont la surface varie de 50 à 18'711 km2, pour une superficie totale de 93'600 km2. En utilisant le spectre des densités observées dans les études radio-télémétriques effectuées en Suisse, les Alpes pourraient accueillir une population de lynx résidents variant de 961 à 1'827 individus. Les résultats des analyses de connectivité montrent que les sous-unités d'habitat favorable se situent à des distances telles que le coût de la dispersion pour l'espèce est admissible. L'ensemble des Alpes pourrait donc un jour former une métapopulation. Mais l'expérience montre que très peu d'individus traverseront des habitats peu favorables et des barrières au cours de leur dispersion. Ce faible taux de migration rendra difficile toute nouvelle implantation de populations dans des zones inoccupées. Une solution alternative existe cependant : transférer artificiellement des individus d'une zone à l'autre. Les biologistes spécialistes de la faune sauvage peuvent jouer un rôle important et complémentaire pour les gestionnaires de la faune, en les aidant à mener des expériences de gestion par essai. Le cas du lynx en Suisse est un bel exemple d'une collaboration fructueuse entre biologistes de la faune sauvage, gestionnaires, organes décisionnaires et politiciens. Cette coopération a permis l'élaboration du Concept Lynx Suisse qui est entré en vigueur en 2000 et remis à jour en 2004. Ce plan donne des directives aux cantons pour appréhender la problématique du lynx. Il y a déjà eu des applications concrètes sur le terrain, notamment par des translocations d'individus dans des zones encore inoccupées.
Resumo:
Résumé sous forme de thèses 1. La présente thèse de doctorat traite de la problématique des licences obligatoires en droit communautaire de la concurrence. Plus précisément, il s'agit d'examiner si et sous quelles conditions le refus de licencier un droit de propriété intellectuelle par une entreprise peut constituer un abus d'une position dominante selon l'article 82 du Traité CE. L'étude fait notamment référence aux marchés de haute technologie et ici à la décision Microsoft, qui a été publiée par la Commission européenne en mars 2004 et qui porte, dans sa deuxième partie, sur la possibilité de rendre interopérables différents composants, via des informations appelées interfaces. 2. La question d'une licence obligatoire ne se pose que si l'information recherchée est protégée par un droit de propriété intellectuelle et si cette information ne peut être obtenue par d'autres moyens. C'est pourquoi la première partie de l'étude examine deux sujets importants concernant l'interopérabilité: d'une part la méthode de décompilation permet-elle d'obtenir des interfaces de logiciel, d'autre part, les interfaces sont-elles protégées par le droit d'auteur. 3. En ce qui concerne la décompilation des programmes d'ordinateur, l'étude démontre que cette méthode ne permet pas de rendre interopérables différents programmes d'ordinateur de manière efficace. Le droit européen a légalisé cette méthode, après des débats publics très vifs, par l'article 6 de la directive concernant la protection juridique des programmes d'ordinateur (91/250/CEE). Il semble néanmoins que la lutte pour un tel droit de décompilation a été vaine :Tout d'abord, l'article 6 est rédigé d'une façon très complexe et autorise une décompilation seulement selon des conditions très restrictives. En plus, la décompilation en elle-même est un travail très complexe qui peut durer des années et qui ne garantit pas de trouver les informations recherchées. 4. En outre, une réglementation de décompilation n'existe jusqu'à présent que dans le domaine du droit d'auteur, tandis qu'une règlementation pour la protection juridique des brevets fait défaut. La question concernant la protection juridique des brevets pour les inventions mises en rouvre par ordinateur restera aussi dans le futur sans réponse, étant donné que le Parlement européen a rejeté une telle proposition de directive en juillet 2005. Ceci est regrettable, parce que la proposition de directive prévoyait explicitement un droit de décompilation. La Commission européenne projette, cependant, de réexaminer les dispositions de décompilation relatives au droit d'auteur. Dans ce contexte, il devrait notamment être examiné si les dispositions de décompilation de l'article 6 de la directive des programmes d'ordinateur sont satisfaisantes afin de garantir une (certaine) interopérabilité. 5. Un réexamen de la directive concernant la protection juridique des programmes d'ordinateur pourrait aussi servir à clarifier l'existence et l'étendue de la protection d'interfaces. L'article 1, paragraphe 2, 2ième phrase se réfère dans ce contexte uniquement à un principe reconnu en droit international du droit d'auteur, dénommé «dichotomie d'idée/d'expression» : seul l'expression individuelle est protégée, mais pas l'idée en tant que telle. La rédaction de l'article devrait ainsi préciser qu'une spécification d'une interface constitue toujours une idée, qui ne peut pas être protégée, alors que l'implémentation de l'interface dans un programme d'ordinateur représente son expression et devrait ainsi bénéficier d'une protection selon le droit d'auteur. Or, dans la plupart des cas, la spécification d'une interface est suffisante pour rendre interopérables différents programmes d'ordinateur. 6. La Commission dans sa décision Microsoft a pourtant supposé que les interfaces recherchées par les concurrents de Microsoft pouvaient être protégées par des droits de propriété intellectuelle. En effet, le seul moyen à disposition pour ceux qui veulent rendre interopérables leur programme d'ordinateur et avec celui d'une entreprise dominante est le recours à l'article 82 CE. Ici, la question qui se pose est celle de savoir si le refus de fournir des interfaces constitue un abus d'une position dominante et donc mène à l'octroi d'une licence obligatoire. 7. Dans le contexte des licences obligatoires selon l'article 82 CE, il est courant d'invoquer la relation de conflit entre la propriété intellectuelle et le droit de la concurrence. Or, l'étude démontre que ces deux institutions de droit poursuivent le même but, à savoir l'encouragement au bien-être des consommateurs en stimulant l'innovation. Les objectifs convergent notamment si on définit la concurrence plutôt en tant que concept dynamique. Par conséquent, des restrictions temporaires à la concurrence peuvent être acceptées, si ceci mène à la création de la concurrence à long terme. Pourtant, des conflits potentiels persistent, étant donné qu'on ne peut pas argumenter que chaque restriction à la concurrence effectuée par le titulaire d'un droit de propriété intellectuelle mène à l'incitation de l'innovation à long terme. 8. En réfutant ce dernier argument, l'étude démontre que les droits de propriété intellectuelle ne peuvent pas être généralement exemptés de l'application du droit de la concurrence. Notamment, selon l'état actuel de la jurisprudence, il ne peut être soutenu qu'il existe un noyau dur spécifique du droit de la propriété intellectuelle, qui ne devrait pas être affecté par le droit de la concurrence. L'ordonnance d'une licence obligatoire peut être justifiée sur la base de l'article 82 CE, dans la mesure où la balance d'intérêts démontre un effet positif au bien-être des consommateurs résultant d'une telle licence. En même temps, les droits individuels du propriétaire d'un droit de propriété intellectuelle sont à respecter, surtout la liberté contractuelle et la protection de la propriété. 9. Le droit de la liberté contractuelle et le droit de la propriété sont atteints, si le propriétaire d'un droit, de nature matérielle ou immatérielle, n'a exercé son droit de propriété que pour lui-même, exclusivement, sans jamais avoir démontré la volonté de s'acquitter de ses droits. C'est donc surtout pour protéger ces deux principes de droit que la présente étude fait une distinction majeure entre le refus de contracter et la rupture d'une relation contractuelle. 10. Le premier cas est traité de manière détaillée sous le chapitre de la doctrine des facilités essentielles (EFD). Selon la position prise ici, cette constellation est caractérisée par l'obligation du propriétaire de contracter et ainsi d'établir des relations d'affaires avec ses concurrents. Or, un principe selon lequel les entreprises en position dominante sont obligées d'encourager la concurrence, n'existe pas en droit communautaire. Il est toutefois nécessaire de pouvoir imposer une telle obligation, notamment dans les cas où la concurrence sur un marché ne peut être mise en oeuvre à long terme par un autre moyen et où cette ouverture du marché n'entraîne pas d'obstacles à l'innovation. 11. La constellation particulière des facilités essentielles exige néanmoins un contrôle plus prudent que dans les cas constituant une rupture de relation d'affaires. Cette exigence a été respectée sur base des conditions que l'arrêt Bronner a établit concernant l'essentialité d'une facilité. Même si l'établissement en question remplit toutes les conditions afin d'être qualifié d'essentiel, l'ordonnance d'un accès obligé doit encore passer l'examen d'une balance d'intérêts. Celle-ci mène encore plus rarement à l'octroi d'une licence dans les cas où la facilité est protégée par un droit de propriété intellectuelle. Des exceptions à cette règle existent si le droit de la propriété intellectuelle n'a pas été obtenu par des moyens basés sur le mérite ou si la fonction d'incitation à l'innovation est en doute. 12. L'affaire IMS Health présente un tel cas exceptionnel. La structure recherchée par les concurrents de IMS remplissait, au moment de l'examen de l'affaire par la Commission européenne, tous les critères d'un standard de facto. En outre, au moment du développement de la structure, celle-ci ne bénéficiait pas d'une protection de droit immatérielle. Une telle protection ne lui a été accordée que depuis la transposition de la directive concernant la protection juridique des bases de données en droit d'auteur allemand. Par conséquent, IMS ne pouvait avoir entrepris des investissements dans la construction de la structure, afin de profiter ultérieurement de la protection du droit d'auteur. Ceci affaiblit la présomption selon laquelle l'utilisation exclusive du droit aurait dû être préservée afin de ne pas faire obstacle à l'innovation. 13. Le cas européen de Microsoft se distingue de cette constellation. Les conditions qui ont mené à la décision de la Commission européenne quant à l'attribution d'interopérabilité et ainsi à une licence obligatoire d'interfaces, ont été présenté de manière détaillée dans cette étude. Elles fournissent les meilleures preuves que les «circonstances exceptionnelles », qui ont été déterminantes dans l'affaire Magill de la Cour de justice, à savoir «l'empêchement de la création d'un nouveau produit », le «manque de justification objective » et «l'empêchement de toute concurrence sur un marché en aval distinct », ne peuvent constituer une énumération exhaustive pour l'ordonnance d'une licence obligatoire. 14. En effet, dans l'affaire Microsoft, l'intersection progressive d'interopérabilité entre les systèmes d'exploitation étrangers à Microsoft et des systèmes d'exploitation de Microsoft n'a pas empêché la création de nouveaux produits. Le marché en question, celui des systèmes d'exploitation pour serveur de groupe de travail, avait été créé par l'entreprise Novell. Par conséquent, quand Microsoft a accédé à ce marché, d'autres entreprises en situation d'offre s'y trouvaient déjà avec leurs produits. Il s'en suit que, en 'exigeant de Microsoft des interfaces correspondantes, il s'agissait d'assurer l'interopérabilité avec les produits de Microsoft, et surtout avec l'omniprésent système d'exploitation pour ordinateur PC, afin de maintenir des produits déjà existants sur le marché, et notamment des produits «pionniers »qui avaient pris le risque d'exploiter le marché des systèmes d'exploitation pour serveur de groupe de travail. 15. Une autre circonstance exceptionnelle que celle d'un nouveau produit empêché donne l'impulsion à la thèse qu'une intersection progressive aux interfaces de Microsoft constitue un abus d'une position dominante selon l'article 82 CE : celle du transfert du pouvoir de marché. L'intégration verticale d'une entreprise en position dominante sur un marché qui n'a jusqu'à ce jour été que fourni par celle-ci, et qui rompt des relations contractuelles avec des entreprises agissant sur ce marché, afin d'évincer de la concurrence, constitue un cas de type connu de l'abus, reconnue pour la première fois dans l'arrêt Commercial Solvents de la CJCE: L'entreprise en position dominante utilise son pouvoir sur un marché initial et stratégiquement important et se sert ainsi des avantages, qui ne peuvent être conciliés avec le concept de concurrence par le mérite. 16. Il doit être de même si le bien en question bénéficie d'un droit immatériel, et qu'il s'agit ainsi d'un arrêt d'une licence. En effet, les fonctions, en principe supposées, d'incitation et de mérite, perdent de leur importance si le bien en question a déjà fait objet d'une licence: Il ne peut pas alors être argumenté que le propriétaire d'un droit immatériel doit l'utiliser exclusivement lui-même, afin de profiter des fruits de son mérite. Cet argument particulier de la prise en compte de l'effet d'incitation et de mérite perd d'autant plus de sa pertinence, si l'entreprise en cause ne fournit pas sur le marché dérivé une innovation, mais ne sert juste qu'à vendre un produit déjà préexistant. 17. Dans le domaine de licence de propriété intellectuelle obligatoire selon l'article 82 CE, les juridictions européennes n'ont jusqu'à présent uniquement eu à décider sur des constellations de cas, dans lesquelles le droit n'avait pas été l'objet d'une licence antérieure. Avec le cas Microsoft, le Tribunal de Première Instance a maintenant la possibilité de décider d'une distinction importante à faire en droit de la concurrence entre, d'une part, les cas dans lesquels un droit de propriété intellectuelle n'a pas encore été l'objet d'une licence et de l'autre, ceux dans lesquels il s'agit d'une rupture de licence.