238 resultados para potentiels statistiques
Resumo:
Introduction Actuellement, les projets européens concernant l'harmonisation des méthodes de profilage se concentrent principalement sur les drogues de type synthétique telles que les ecstasy et les dérivés de la phényléthylamine [Aalberg L. et al. 2005, Aalberg L. et al. 2005, SMT Project 2001, CHAMP Project 2003]. Néanmoins, d'après le rapport annuel 2005 de l'Agence Européenne des Drogues (EMCDDA), la cocaïne est devenue un élément majeur du paysage européen des stupéfiants. De même, les dernières statistiques de l'Office Fédéral de la Police Suisse montrent que les saisies de cocaïne ont quasiment doublé entre 2003 et 2004 pour atteindre des quantités jamais vues auparavant. Le 7ème programme cadre européen, pour la recherche et le développement technologique, propose d'ailleurs un sujet concernant «la détermination et le pistage des composés utilisés lors de la production de certaines substances ». La cocaïne est donc devenue un thème prioritaire en Europe et l'utilisation des méthodes de profilage est un moyen puissant pour établir des liens entre des saisies. Les méthodes de profilage de la cocaïne sont utilisées par quelques laboratoires mais il y a peu ou quasiment pas d'échange d'informations aussi bien concernant les données obtenues que les méthodes utilisées afin d'améliorer la lutte contre le trafic de stupéfiants. Aucune recherche relative à l'harmonisation des méthodes entre deux laboratoires n'a été réalisée à ce jour. Le projet Interreg IIIA avait pour objectif de fournir du renseignement forensique en matière de stupéfiants, plus précisément dans ce cas à la frontière franco-suisse. Le processus de profilage repose sur deux phases interconnectées. La première est consacrée au développement de la méthode analytique permettant l'extraction d'une signature chimique (alcaloïdes et autres composés d'origine, solvants, produits de coupage) ou physique (conditionnement) du produit illicite. La seconde se focalise sur l'intégration des résultats dans un but d'utilisation par les forces de police. Cette recherche s'est tout d'abord focalisée sur le profilage des alcaloïdes en optimisant et en validant la méthode analytique élaborée à l'IPS sur un même GC-FID [Guéniat O. 2004 et Esseiva P. 2004]. Ensuite, la méthode a été étendue à une comparaison de spécimens analysés sur deux appareils différents. Finalement, afin de tester les résultats obtenus par l'analyse des alcaloïdes, une méthode indépendante, la Statique Headspace couplée à un GC-FID, a été, utilisée pour le profilage des solvants. En effet, de nombreux solvants sont utilisés lors de la production de la cocaïne et il doit donc aussi, a priori, être possible d'établir des liens sur la base de cette analyse. Les informations fournies par ces deux méthodes ainsi que leur complémentarité ont été investiguées.
Resumo:
Etude des modèles de Whittle markoviens probabilisés Résumé Le modèle de Whittle markovien probabilisé est un modèle de champ spatial autorégressif simultané d'ordre 1 qui exprime simultanément chaque variable du champ comme une moyenne pondérée aléatoire des variables adjacentes du champ, amortie d'un coefficient multiplicatif ρ, et additionnée d'un terme d'erreur (qui est une variable gaussienne homoscédastique spatialement indépendante, non mesurable directement). Dans notre cas, la moyenne pondérée est une moyenne arithmétique qui est aléatoire du fait de deux conditions : (a) deux variables sont adjacentes (au sens d'un graphe) avec une probabilité 1 − p si la distance qui les sépare est inférieure à un certain seuil, (b) il n'y a pas d'adjacence pour des distances au-dessus de ce seuil. Ces conditions déterminent un modèle d'adjacence (ou modèle de connexité) du champ spatial. Un modèle de Whittle markovien probabilisé aux conditions où p = 0 donne un modèle de Whittle classique qui est plus familier en géographie, économétrie spatiale, écologie, sociologie, etc. et dont ρ est le coefficient d'autorégression. Notre modèle est donc une forme probabilisée au niveau de la connexité du champ de la forme des modèles de Whittle classiques, amenant une description innovante de l'autocorrélation spatiale. Nous commençons par décrire notre modèle spatial en montrant les effets de la complexité introduite par le modèle de connexité sur le pattern de variances et la corrélation spatiale du champ. Nous étudions ensuite la problématique de l'estimation du coefficent d'autorégression ρ pour lequel au préalable nous effectuons une analyse approfondie de son information au sens de Fisher et de Kullback-Leibler. Nous montrons qu'un estimateur non biaisé efficace de ρ possède une efficacité qui varie en fonction du paramètre p, généralement de manière non monotone, et de la structure du réseau d'adjacences. Dans le cas où la connexité du champ est non observée, nous montrons qu'une mauvaise spécification de l'estimateur de maximum de vraisemblance de ρ peut biaiser celui-ci en fonction de p. Nous proposons dans ce contexte d'autres voies pour estimer ρ. Pour finir, nous étudions la puissance des tests de significativité de ρ pour lesquels les statistiques de test sont des variantes classiques du I de Moran (test de Cliff-Ord) et du I de Moran maximal (en s'inspirant de la méthode de Kooijman). Nous observons la variation de puissance en fonction du paramètre p et du coefficient ρ, montrant par cette voie la dualité de l'autocorrélation spatiale entre intensité et connectivité dans le contexte des modèles autorégressifs
Resumo:
Pour les sociologues, l'explication de l'action ne peut reposer sur la nature première de l'esprit (les mécanismes universels de détection et de traitement de l'information dont les sciences cognitives prétendent rendre compte) mais sur sa nature seconde (les raisons d'agir plus ou moins collectives qui le meublent). Même les paradigmes sociologiques les plus opposés s'accordent pour traiter le social et le culturel comme le résultat d'un patient travail de dénaturalisation qui creuse un fossé incompressible entre l'ordre réducteur des causes naturelles et l'ordre respectable, de facture mentale ou sociale, des raisons, entre les instincts de base de l'organisme et la logique de haut-niveau des significations partagées et des normes culturelles. Or, l'objectif du naturalisme est précisément le dépassement de la rupture interne entre l'humain et l'animal, entre l'histoire culturelle et l'histoire biologique. Il vise à harmoniser, dans le sens de "rendre compatible", les hypothèses et les résultats des sciences sociales avec ceux des sciences naturelles, entreprise qui incite la sociologie à expliciter et à réviser les modèles cognitifs et anthropologiques auxquels elle fait implicitement appel. Un des apports potentiels des sciences cognitives et, plus généralement, du naturalisme est donc d'améliorer, de remplacer ou de falsifier, au sens poppérien du terme, les modèles cognitifs et les conceptions anthropologiques sur lesquels se basent les sciences de la société.
Resumo:
Résumé La diminution de la biodiversité, à toutes les échelles spatiales et sur l'ensemble de la planète, compte parmi les problèmes les plus préoccupants de notre époque. En terme de conservation, il est aujourd'hui primordial de mieux comprendre les mécanismes qui créent et maintiennent la biodiversité dans les écosystèmes naturels ou anthropiques. La présente étude a pour principal objectif d'améliorer notre compréhension des patrons de biodiversité végétale et des mécanismes sous jacents, dans un écosystème complexe, riche en espèces et à forte valeur patrimoniale, les pâturages boisés jurassiens. Structure et échelle spatiales sont progressivement reconnues comme des dimensions incontournables dans l'étude des patrons de biodiversité. De plus, ces deux éléments jouent un rôle central dans plusieurs théories écologiques. Toutefois, peu d'hypothèses issues de simulations ou d'études théoriques concernant le lien entre structure spatiale du paysage et biodiversité ont été testées de façon empirique. De même, l'influence des différentes composantes de l'échelle spatiale sur les patrons de biodiversité est méconnue. Cette étude vise donc à tester quelques-unes de ces hypothèses et à explorer les patrons spatiaux de biodiversité dans un contexte multi-échelle, pour différentes mesures de biodiversité (richesse et composition en espèces) à l'aide de données de terrain. Ces données ont été collectées selon un plan d'échantillonnage hiérarchique. Dans un premier temps, nous avons testé l'hypothèse élémentaire selon laquelle la richesse spécifique (le nombre d'espèces sur une surface donnée) est liée à l'hétérogénéité environnementale quelque soit l'échelle. Nous avons décomposé l'hétérogénéité environnementale en deux parties, la variabilité des conditions environnementales et sa configuration spatiale. Nous avons montré que, en général, la richesse spécifique augmentait avec l'hétérogénéité de l'environnement : elle augmentait avec le nombre de types d'habitats et diminuait avec l'agrégation spatiale de ces habitats. Ces effets ont été observés à toutes les échelles mais leur nature variait en fonction de l'échelle, suggérant une modification des mécanismes. Dans un deuxième temps, la structure spatiale de la composition en espèces a été décomposée en relation avec 20 variables environnementales et 11 traits d'espèces. Nous avons utilisé la technique de partition de la variation et un descripteur spatial, récemment développé, donnant accès à une large gamme d'échelles spatiales. Nos résultats ont montré que la structure spatiale de la composition en espèces végétales était principalement liée à la topographie, aux échelles les plus grossières, et à la disponibilité en lumière, aux échelles les plus fines. La fraction non-environnementale de la variation spatiale de la composition spécifique avait une relation complexe avec plusieurs traits d'espèces suggérant un lien avec des processus biologiques tels que la dispersion, dépendant de l'échelle spatiale. Dans un dernier temps, nous avons testé, à plusieurs échelles spatiales, les relations entre trois composantes de la biodiversité : la richesse spécifique totale d'un échantillon (diversité gamma), la richesse spécifique moyenne (diversité alpha), mesurée sur des sous-échantillons, et les différences de composition spécifique entre les sous-échantillons (diversité beta). Les relations deux à deux entre les diversités alpha, beta et gamma ne suivaient pas les relations attendues, tout du moins à certaines échelles spatiales. Plusieurs de ces relations étaient fortement dépendantes de l'échelle. Nos résultats ont mis en évidence l'importance du rapport d'échelle (rapport entre la taille de l'échantillon et du sous-échantillon) lors de l'étude des patrons spatiaux de biodiversité. Ainsi, cette étude offre un nouvel aperçu des patrons spatiaux de biodiversité végétale et des mécanismes potentiels permettant la coexistence des espèces. Nos résultats suggèrent que les patrons de biodiversité ne peuvent être expliqués par une seule théorie, mais plutôt par une combinaison de théories. Ils ont également mis en évidence le rôle essentiel joué par la structure spatiale dans la détermination de la biodiversité, quelque soit le composant de la biodiversité considéré. Enfin, cette étude souligne l'importance de prendre en compte plusieurs échelles spatiales et différents constituants de l'échelle spatiale pour toute étude relative à la diversité spécifique. Abstract The world-wide loss of biodiversity at all scales has become a matter of urgent concern, and improving our understanding of local drivers of biodiversity in natural and anthropogenic ecosystems is now crucial for conservation. The main objective of this study was to further our comprehension of the driving forces controlling biodiversity patterns in a complex and diverse ecosystem of high conservation value, wooded pastures. Spatial pattern and scale are central to several ecological theories, and it is increasingly recognized that they must be taken -into consideration when studying biodiversity patterns. However, few hypotheses developed from simulations or theoretical studies have been tested using field data, and the evolution of biodiversity patterns with different scale components remains largely unknown. We test several such hypotheses and explore spatial patterns of biodiversity in a multi-scale context and using different measures of biodiversity (species richness and composition), with field data. Data were collected using a hierarchical sampling design. We first tested the simple hypothesis that species richness, the number of species in a given area, is related to environmental heterogeneity at all scales. We decomposed environmental heterogeneity into two parts: the variability of environmental conditions and its spatial configuration. We showed that species richness generally increased with environmental heterogeneity: species richness increased with increasing number of habitat types and with decreasing spatial aggregation of those habitats. Effects occurred at all scales but the nature of the effect changed with scale, suggesting a change in underlying mechanisms. We then decomposed the spatial structure of species composition in relation to environmental variables and species traits using variation partitioning and a recently developed spatial descriptor, allowing us to capture a wide range of spatial scales. We showed that the spatial structure of plant species composition was related to topography at the coarsest scales and insolation at finer scales. The non-environmental fraction of the spatial variation in species composition had a complex relationship with several species traits, suggesting a scale-dependent link to biological processes, particularly dispersal. Finally, we tested, at different spatial scales, the relationships between different components of biodiversity: total sample species richness (gamma diversity), mean species .richness (alpha diversity), measured in nested subsamples, and differences in species composition between subsamples (beta diversity). The pairwise relationships between alpha, beta and gamma diversity did not follow the expected patterns, at least at certain scales. Our result indicated a strong scale-dependency of several relationships, and highlighted the importance of the scale ratio when studying biodiversity patterns. Thus, our results bring new insights on the spatial patterns of biodiversity and the possible mechanisms allowing species coexistence. They suggest that biodiversity patterns cannot be explained by any single theory proposed in the literature, but a combination of theories is sufficient. Spatial structure plays a crucial role for all components of biodiversity. Results emphasize the importance of considering multiple spatial scales and multiple scale components when studying species diversity.
Resumo:
Problématique¦L'évaluation fonctionnelle du tubule proximal du rein est intéressante pour la compréhension de la physiopathologie des anomalies du transport du sodium à ce niveau du néphron. Ces anomalies participent au développement de l'hypertension artérielle (HTA) et de la sensibilité au sel. Environ 60% à 80% du sodium est réabsorbé proximalement dans le néphron. Chez l'animal, la fonction du tube proximal peut être estimée directement par microponction. Une telle approche directe n'étant pas possible chez l'homme, seul des approches indirectes permettent de recueillir des informations sur la physiologie de ce segment du néphron, comme par exemple par la mesure de la clairance du lithium (endogène ou exogène) ou de l'acide urique. La fraction d'excrétion du lithium (FELi) et la fraction d'excrétion de l'acide urique (FEAU) permettent d'estimer la réabsorption proximale de sodium chez l'homme. Plusieurs études expérimentales et cliniques ont montré l'existence d'une relation linéaire entre la FELi et la fraction excrétée du sodium (FENa) chez l'animal et l'homme.¦Objectif¦Décrire la distribution de la FELi et de la FEAU et analyser les associations de ces deux variables avec l'âge, le sexe, la consommation d'alcool, le tabagisme, la pression artérielle et l'IMC dans l'étude de population Hercules.¦Méthodes¦Sélection au hasard d'un sous-groupe de participants de l'étude CoLaus (N=6188). Nombre de participants à l'étude Hercules: 437, dont 229 femmes et 208 hommes. Les participants ont effectué une récolte d'urine sur 24 heures afin de déterminer la fonction rénale et les FELi et FEAU. Le TFG a été mesuré à l'aide de la clairance de la créatinine. Le test des rangs signés de Wilcoxon pour données appariées ( Wilcoxon matched-pairs signed rank test) et le test de comparaison des médianes ont été utilisés pour la comparaison entre groupes. Le coefficient de corrélation de Spearman a été utilisé pour évaluer la relation entre les variables continues. Les box-plots ont été utilisés pour la description de la distribution du lithium et de l'acide urique selon l'âge, le sexe et la période de la journée. Le logiciel Stata 11.0 a été utilisé pour les analyses statistiques.¦Résultats¦La prévalence de l'HTA dans la population de l'étude Hercules était 33%, la prévalence du diabète était 8%, la prévalence de l'obésité était 15.3%, la prévalence du tabagisme était 23%. La FELi reste stable avec l'âge et est similaire dans les deux sexes. Chez les hommes, la FELi est plus grande la nuit que le jour, c'est-à-dire qu'ils résorbent plus de sodium proximalement le jour que la nuit. Un IMC plus grand est associé à une FELi plus basse dans les deux sexes. Il y a une corrélation négative entre la FEAU et l'IMC (significative) et la consommation d'alcool.¦Conclusion¦Les résultats obtenus avec les données de l'étude Hercules sont similaires à ceux qu'on retrouve dans la littérature sur la FELi et la FEAU , ce qui rassure sur la qualité des données. La FELi varie peu avec l'âge et le sexe, contrairement à la FEAU, qui varie fortement avec l'âge et le sexe. L'HTA, le diabète, l'obésité, le tabagisme et la consommation d'alcool sont associées à une FELi et FEAU plus basses. Les sujets qui présentent ces caractéristiques réabsorbent donc plus de sodium au niveau proximal.
Resumo:
Abstract: Myotonic dystrophy (DM1), also known as Steinert disease, is an inherited autosomal dominant disease. It is characterized by myotonia, muscular weakness and atrophy, but DM1 may have manifestations in other organs such as eyes, heart, gonads, gastrointestinal and respiratory tracts, as well as brain. In 1992, it was demonstrated that this complex disease results from the expansion of CTG repeats in the 3' untranslated region of the DM protein kinase (DMPK) gene on chromosome 19. The size of the inherited expansion is critically linked to the severity of the disease and the age of onset. Although several electrophysiological and histological studies have been carried out to verify the possible involvement of peripheral nerve abnormality with DM1, the results have not been univocal. Therefore, at present the possible association between peripheral neuropatliy and DM1 remains debated. Recently, transgenic mice have been generated, that carry the human genomic DM1 region with 300 CTG repeats, and display the human DMl phenotype. The generation of these DM1 transgenic mice provides a useful tool to investigate the type and incidence of structural abnormalities in the peripheral nervous system associated with DM1 disease. By using the DM1 transgenic mice, we investigated the presence/absence of the three major peripheral neuropathies: axonal degeneration, axonal demyelination and neuronopathy. The morphological and morphometric analysis of sciatic, sural and phrenic nerves demonstrated the absence of axonal degeneration or demyelination. The morphometric analysis also ruled out any loss in the numbers of sensory or motor neurons in lumbar dorsal root ganglia and lumbar spinal cord enlargement respectively. Moreover, the éxamination of serial hind limb muscle sections from DMl mice showed a normal intramuscular axonal arborization as well as the absence of changes in the number and structure of endplates. Finally, the electrophysiological tests performed in DM1 transgenic mice showed that the compound muscle axon potentials (CMAPs) elicited in the hind limb digits in response to a stimulation of the sciatic nerve with anear-nerve electrode were similar to thosé obtained in wild type mice. On the basis of all our results, we hypothesized that 300 CTG repeats are not sufficient to induce disorder in the peripheral nervous system of this DM1 transgenic mouse model. Résumé La dystrophie myotonique (DM1), connue aussi sous le nom de maladie de Steinert, est une maladie héréditaire autosornale dominante. Elle est caractérisée par une myotonie, une faiblesse et une atrophie musculaires, mais peut aussi se manifester dans d'autres organes tels que les yeux, les voies digestive et respiratoire, ou le cerveau. En 1992, il a été montré que cette maladie complexe résultait de l'expansion d'une répétition de CTG dans une partie non traduite en 3' du gène codant pour la protéine kinase DM (DMPK), sur le chromosome 19. La taille de l'expansion héritée est étroitement liée à la sévérité et l'âge d'apparition de DM1. Bien que plusieurs études électrophysiologiques et histologiques aient été menées, pour juger d'une implication possible d'anomalies au niveau du système nerveux périphérique dans la DM1, les résultats n'ont jusqu'ici pas été univoques. Aujourd'hui, la question d'une neuropathie associée avec la DM1 reste donc controversée. Des souris transgéniques ont été élaborées, qui portent la séquence DM1 du génome humain avec 300 répétitions CTG et expriment le phénotype des patients DM1: Ces souris transgéniques DMl procurent un outil précieux pour l'étude du type et de l'incidence d'éventuelles anomalies du système nerveux périphérique dans la DM1. En utilisant ces souris transgéniques DM1, nous avons étudié la présence ou l'absence des trois principaux types de neuropathies périphériques: la dégénération axonale, la démyélinisation axonale et la neuronopathie. Les études morphologiques et morphométrique des nerfs sciatiques, suraux et phréniques ont montré l'absence de dégénération axonale ou de démyélinisation. L'analyse du nombre de cellules neuronales n'a pas dévoilé de diminution des nombres de neurones sensitifs dans les ganglions des racines dorsales lombaires ou de neurones moteurs dans la moëlle épinière lombaire des souris transgéniques DMl. De plus, l'examen de coupes sériées de muscle des membres postérieurs de souris DM1 a montré une arborisation axonale intramusculaire normale, de même que l'absence d'irrégularité dans le nombre ou la structure des plaques motrices. Enfin, les tests électrophysiologiques effectués sur les souris DMl ont montré que les potentiels d'action de la composante musculaire (CMAPs) évoqués dans les doigts des membres postérieurs, en réponse à une stimulation du nerf sciatique à l'aide d'une électrode paranerveuse, étaient identiques à ceux observées chez les souris sauvages. Sur la base de l'ensemble de ces résultats, nous avons émis l'hypothèse que 300 répétitions CTG ne sont pas suffisantes pour induire d'altérations dans le système nerveux périphérique du modèle de souris transgéniques DM 1.
Resumo:
Mycobacterium tuberculosis (Mtb) infection is known to have two main outcomes: latent infection (LTBI) where the pathogen is in a dormant form or active tuberculosis disease (TB), which is, most of the time, highly transmissible. Over one-third of the world's population asymptomatically harbours a latent form of Mtb with a 10% risk of disease reactivation. Efficient vaccine strategies remain unknown and the existing BCG vaccine is believed to protect against only some forms of TB (extra-pulmonary TB in children). Moreover, timely identification of TB remains complex with the actual diagnosis based on clinical observations associated to low efficient tests. Furthermore, current therapies are expensive, heavy and long for patients, and present lesser and lesser efficiency against new drug-resistant strains of Mtb. It is thus important to develop our knowledge on host -Mtb relationship to propose new vaccines, diagnosis tools and medications for the future. This thesis aims at improving our understanding of human immunology in the field of TB. All along this work, the same algorithm has been used and points towards the discovery of new correlates of protection through the comparison of T-cell immune responses in patients with LTBI or TB. We performed a comprehensive analysis of T-cell immune responses to Mtb using polychromatic flow cytometiy to study the functional profile of Μ/ό-specific CD4 Τ cells. We observed a polyfunctional profile in LTBI where CD4 Τ cells mainly co-produced IFN-γ, TNF-α and IL-2. In contrast, in TB, Mtó-specific CD4 Τ cells were mostly single TNF-a positive. Thus, analysis of the cytokine profiles was a strong immunological measure discriminating TB and LTBI. We next analyzed Thl7 cells. Mtò-specific Thl7 cells lacked immediate {i.e. ex vivo) IL-17A effector function in both LTBI and TB individuals. Moreover, they were also absent in bronchoalveolar lavages (BALs). Interestingly, we noticed that Mtb- specific Thl7 cells from LTBI but not from TB subjects acquired the ability to produce IL- 17A following Mtb-specific T-cell expansion. We finally performed a comprehensive characterization of Mfè-specific CD8 Τ cells that were detected in most (60%) TB patients and few (15%) LTBI subjects. We observed differences in the phenotype, the cytotoxicity and the proliferative capacities but not in the cytokine profile of Mtò-specific CD8 Τ cells between LTBI and TB. We concluded that the activity of Mtb infection (i.e. latent versus active) and the clinical presentation were associated to distinct profiles of Mtó-specific CD8 T-cell responses. To conclude, a multiparametric analysis including both CD4 and CD8 T-cell responses to Mtb lead to the development of a significantly improved diagnostic test discriminating between LTBI and TB. All together, these results provide new insights into the interaction between Mtb and the host immune response and expand upon our prior knowledge of tuberculosis. - L'infection par Mycobacterium tuberculosis peut résulter en une infection tuberculeuse latente et asymptomatique ou encore en une forme active et la plupart du temps contagieuse, la tuberculose. Un tiers de la population mondiale serait infectée de manière chronique avec 10 % de risques de développer la maladie durant la vie. Il n'existe actuellement aucun vaccin efficace, le BCG ne conférant qu'une protection partielle contre certaines formes extrapulmonaires de la maladie chez l'enfant. D'autre part, il n'existe pas de méthode diagnostique fiable et rapide, celle-ci se basant dans un premier temps sur l'analyse de la situation clinique des patients. Enfin, les thérapies actuelles sont couteuses et contraignantes pour les patients et tendent à ne plus être efficaces contre les souches émergentes de mycobactérie multi-résistantes. Aussi, il est important de bien comprendre la relation hôte-pathogène de manière à pouvoir proposer de nouveaux outils vaccinaux, diagnostiques et thérapeutiques. Ce manuscrit s'inscrit dans cette direction et vise à améliorer nos connaissances de la réponse immunitaire humaine dans le cadre de la tuberculose. Nous avons suivi un algorithme similaire tout au long des études proposées en comparant les réponses immunes des patients latents à celles des patients actifs, et ce, dans le but de mettre en évidence de potentiels corrélats de protection. Nous avons réalisé par cytométrie en flux une analyse du profil fonctionnel des cellules lymphocytaires CD4 dans la réponse au pathogène. Dans le cas de la tuberculose active, les cellules CD4 sécrètent majoritairement du TNF-α quand, au contraire, elles sécrètent à la fois du TNF-α, de l'IFN-γ et de l'IL-2 (poly-fonctionnalité) dans l'infection latente. Cette observation nous a permis de proposer un nouveau test diagnostique de la maladie active. Nous avons aussi étudié les cellules CD4 Thl7, impliquées dans la réponse immunitaire cellulaire contre les pathogènes extracellulaires et les champignons. Nous avons souligné une variation dans la production d'IL-17 entre infection latente et tuberculose active qui pourrait être impliquée dans la protection de l'individu contre le pathogène. D'autre part, ce manuscrit propose une caractérisation des cellules Τ CD8 dites cytotoxiques dans la tuberculose. Des divergences dans la fréquence des réponses observées, le phénotype mais aussi les capacités prolifératives et cytotoxiques ont pu être mises en évidence entre latence et tuberculose active. Ces observations soulignent le rôle important de ce groupe cellulaire dans l'évolution de la maladie et permettent de proposer une amélioration de l'outil diagnostic précédemment proposé et se basant à la fois sur le profil fonctionnel des cellules Τ CD4 ainsi que sur la présence potentielle d'une réponse CD8 spécifique au pathogène. Ces diverses études réalisées sur les cellules Τ humaines répondant spécifiquement à Mtb nous permettent de faire un pas supplémentaire dans la compréhension de notre réponse immunitaire face à ce pathogène particulièrement dangereux qui continue à l'heure actuelle à tuer chaque année des millions de personnes. - La tuberculose (TB) résulte d'une infection bactérienne par Mycobacterium tuberculosis (Mtb) et existe sous deux formes majeures: une forme latente, lorsque la bactérie est en phase de dormance ainsi qu'une forme active durant laquelle la bactérie se divise activement, entraînant les symptômes de la maladie. La personne infectée devient alors contagieuse dans la plupart des cas. Aujourd'hui des études épidémiologiques assument que plus d'un tiers de la population mondiale serait infectée par la forme latente de la bactérie et que 10% des cas réactiveront donnant lieu à diverses présentations de la maladie. Il n'existe actuellement aucun vaccin réellement efficace chez l'adulte. D'autre part, les traitements antibiotiques utilisés sont très lourds pour les patients et les cliniciens doivent faire face à l'émergence de nouvelles souches bactériennes multi-résistantes non affectées par les thérapies existantes. Les autorités sanitaires sont, d'autre part, confrontées à l'absence d'un outil diagnostique rapide, fiable et efficace. En effet, la méthode de référence reste la culture microbiologique du pathogène qui prend généralement plusieurs semaines, pendant lesquelles le patient pourra contaminer d'autres personnes. En résumé, la lutte contre la tuberculose doit passer par l'élaboration d'un vaccin efficace, de nouvelles thérapies, mais aussi par la mise en place de nouveaux tests diagnostics plus rapides afin d'éviter la dissémination de la maladie. Aussi, la relation hôte-bactérie qui n'est actuellement que peu comprise doit être investiguée. Ce travail de thèse a pour but d'étudier la réponse immunitaire chez l'homme infecté par Mtb et vise plus particulièrement l'étude d'une population clé de cellules immunitaires: les lymphocytes T. L'étude des cellules Τ CD4 nous a permis dans un premier temps de proposer un nouveau test diagnostic de la maladie active. Nous avons aussi analysé plus en détail une population spécifique des cellules Τ CD4 (les cellules Thl7), nous permettant d'associer leur fonction avec un possible état physiologique de protection contre le pathogène. En second lieu nous avons réalisé une caractérisation des cellules Τ CD8, à la fois chez les personnes avec des infections latentes et chez les personnes malades. Nous avons mis en évidence des différences fonctionnelles chez les deux groupes de patients, nous permettant ainsi une meilleure compréhension de l'immunité contre Mtb. Enfin, nous avons combiné les différents profils immunologiques obtenus pour développer un test diagnostic plus performant et sensible que celui proposé antérieurement. Ces diverses études réalisées sur les cellules Τ humaines nous permettent de faire un pas supplémentaire dans la compréhension de la réponse immunitaire face à ce pathogène particulièrement dangereux qui continue à tuer chaque année des millions de personnes.
Resumo:
Depuis quelque temps, de plus en plus de spécialistes de la politique sociale préconisent une stratégie d'investissement social dans laquelle les crèches joueraient un rôle majeur. Cette stratégie vise à prévenir les exclusions sociales par la promotion de l'égalité des chances et de l'accès à l'emploi en vue d'un allègement des dépenses de protection sociale passive. Outre qu'elles permettent aux familles d'avoir deux revenus, les crèches ont en effet l'avantage de réduire les écarts au niveau des compétences cognitives et linguistiques entre les enfants venant de différents milieux sociaux. Mais le succès d'une telle stratégie présuppose que certains publics cibles recourent effectivement aux crèches, à savoir les ménages disposant d'un faible revenu ou/et de niveau de formation, ainsi que les familles issues de l'immigration. Or, des analyses statistiques sur la base de l'Enquête suisse sur la population active (ESPA) de 2008 montrent que, pour les familles en Suisse, les chances d'utiliser une crèche augmentent avec le niveau de formation des parents. Concernant plus particulièrement le niveau de formation des mères, ce phénomène n'est d'ailleurs que partiellement conditionné par le taux d'activité supérieur de celles ayant accompli une formation de degré tertiaire. En outre, certaines populations d'immigrés dont l'intégration dans la société suisse est réputée difficile sont peu disposées à recourir aux crèches. Les immigrés de première génération de quasiment toutes les origines fortement représentées en Suisse ont en revanche plus de chances que les parents d'origine suisse de faire appel au service d'une crèche à raison d'au moins 4 jours/semaine, ce qui peut influer négativement sur le comportement de l'enfant. Ce dernier résultat semble paradoxal mais montre qu'une migration rend plus difficile l'organisation d'une garde informelle comme solution complémentaire à la crèche. En synthèse, la présente étude attire l'attention sur le fait que les atouts pédagogiques et socialisants des crèches reviennent avant tout aux enfants de parents d'origine suisse ou venant de pays culturellement proches et ayant un niveau de formation supérieur. Telle que conçue actuellement, l'offre de crèches en Suisse ne semble guère opérer comme un instrument efficace de l'investissement social. Immer mehr Experten der Sozialpolitik empfehlen eine ,,Strategie der sozialen Investitionen", die den Kindertagesstätten (bzw. Kinderkrippen) eine wichtige Rolle zuschreibt. Ziel dieser Strategie ist es, durch Förderung von Chancengleichheit und Arbeitsmarktpartizipation sozialen Ausgrenzungen vorzubeugen, um Einsparungen im Bereich der passiven Sozialleistungen zu ermöglichen. Krippen haben einerseits den Vorteil, dass sie es den Familien ermöglichen, zwei Einkommen zu erzielen. Andererseits tragen sie zur Minderung von kognitiven und sprachlichen Fähigkeitsunterschieden zwischen Vorschulkindern aus verschiedenen sozialen Milieus bei. Der Erfolg dieser Strategie setzt jedoch voraus, dass gewisse Zielgruppen tatsächlich Krippen nutzen, nämlich bezüglich Einkommen und/oder Bildung benachteiligte Haushalte sowie Familien mit Migrationshintergrund. Die vorliegenden statistischen Analysen aufgrund der SAKE-Daten von 2008 (Schweizerische Arbeitskräfteerhebung) ergeben jedoch für die Schweiz, dass die Wahrscheinlichkeit, eine Krippe zu nutzen, mit dem Bildungsniveau der Eltern steigt. Was das Bildungsniveau der Mütter im Besonderen anbelangt, ist dieses Phänomen nur teilweise bedingt durch den tendenziell höheren Beschäftigungsgrad der besser Ausgebildeten. Zudem haben einige Migrantengruppen, deren Integration in die Schweizer Gesellschaft als besonders schwierig betrachtet wird, eine bedeutend tiefere Benützungswahrscheinlichkeit als Eltern Schweizer Herkunft. Für fast alle in der Schweiz stark vertretenen Migranten erster Generation ist dennoch das statistische Risiko grösser, die Krippe während mindestens 4 Tagen/Woche zu nutzen, was einen negativen Einfluss auf das Verhalten des Kindes haben kann. Dieses scheinbar paradoxe Ergebnis ist darauf zurückzuführen, dass ein Migrationshintergrund das Organisieren von krippenergänzenden Betreuungslösungen informeller Art meist erschwert. Gesamthaft zeigt die vorliegende Studie auf, dass die positiven pädagogischen und sozialisierenden Effekte der Krippen in erster Linie Kindern zugutekommen, deren Eltern eine höhere Ausbildung haben, Schweizer Herkunft sind oder aus einem kulturell nahestehenden Land kommen. So wie es gegenwärtig eingerichtet ist, scheint das Krippenangebot in der Schweiz kaum als effizientes Instrument sozialer Investitionen zu wirken.
Resumo:
Enjeux et contexte La recherche de cette dernière décennie sur les acides gras n-3 PUFA contenus dans l'huile de poisson a montré que ceux-ci, et particulièrement l'ΕΡΑ et le DHA, avaient des propriétés anti¬inflammatoires et anti arythmiques puissantes, potentiellement utiles chez les septiques et « cardiaques ». Les mécanismes sous-jacents sont nombreux, incluant l'incorporation des acides gras dans les membranes de phopholipides, la réduction de la production de médiateurs pro-inflammatoires (prostaglandines, leukotrienes, thromboxane), l'augmentation de la production de résolvines et protectines dérivées du DHA, et la régulation de voies de signalisation cellulaire. Cependant, les doses de n-3 PUFA utilisées dans les études cliniques et chez le sujet sain avant le travail de Yann-Karim Pittet étaient nettement supérieures aux doses nutritionnelles de l'ordre de 5-8 g/j par voie orale ou 1 g/kg par voie intraveineuse. De plus, la voie entérale avait la réputation de nécessiter plusieurs jours à semaines de traitement avant d'aboutir à une incorporation d'acides gras membranaire suffisante pour avoir un impact clinique; quant au temps minimal requis pour obtenir cet effet par voie IV, il était inconnu. Depuis, le développement d'émulsions lipidiques intraveineuses destinées à la nutrition parentérale a permis d'imaginer l'administration de prétraitements IV rapides. Pour les étudier, notre laboratoire a développé un modèle d'endotoxine (LPS d'E.Coli) qui mime les réponses physiologique, endocrinienne et biologique du sepsis chez le sujet sain, utilisant des doses de 2 ng/kg IV. Les réponses sont totalement réversibles en 8 heures. Dans le but de réduire à la fois la dose de lipides et le temps de perfusion, ce travail a étudié l'influence de 3 doses dégressives de n-3 PUFA sur les réponses à l'endotoxine, et sur l'incorporation membranaire de ces acides gras. Méthodes Etude prospective chez 3 groupes consécutifs de sujets sains soumis à un challenge d'endotoxine. Intervention : perfusions d'huile de poisson (0.5 et 0.2 g/kg de n-3 PUFA, Omegaven® 10%) ou placebo, administrées en 3 heures ou en 1 heure, soit le jour avant ou le jour-même du test d'endotoxine. Mesures : variables physiologiques (T°, fc, tension artérielle, calorimétrie indirecte) Laboratoire - prises de sang à T0, 60, 120 et 360 min après l'injection de LPS: TNF-α, hs-CRP, hormones de stress, composition en acides gras des membranes plaquettaires. Statistiques Les résultats ont été rapportés en moyennes et écarts types. Des aires sous la courbe (AUC) ont été calculées avec la méthode des parallélépipèdes pour toutes les variables déterminées de manière répétée. L'effet du temps a été exploré par des two-way ANOVA pour mesures répétées. Les comparaisons post-hoc ont été réalisées avec des tests de Dunnett's ou de Scheffe. Les modifications de composition membranaires ainsi que les AUC ont été analysées par des tests non-paramétriques (Kruskal-Wallis). Résultats Après LPS, la température, les concentrations d'ACTH et TNF-α ont augmenté dans les 3 groupes. Ces réponse ont été significativement atténuées (p<0.0001) par l'huile de poisson comparé à ce que nous avions observé dans le groupe contrôle de Pluess et al (ICM 2007). Les concentrations les plus faibles d'ACTH, de TNF-α, et les AUC les plus basses des températures, ont été observées après une dose unique de 0.2 g/kg de n-3 PUFA administrée 1 heure avant le LPS. Par contre, l'incorporation membranaire d'EPA est dose-dépendante. Conclusions Sachant que la réponse à l'endotoxine est reproductible, cette étude montre que 3 doses différentes d'huile de poisson atténuent de manière différente cette réponse. La perfusion de 0.2 g/kg administrée juste avant l'endotoxine s'est avérée la plus efficace à atténuer la réponse fébrile, les cytokines et les hormones de stress, suggérant une capture de l'endotoxine par l'émulsion lipidique qui se surajoute aux effets systémiques et membranaires.
Resumo:
Introduction: la biopsie du ganglion sentinelle (GS) est une procédure reconnue et fiable pour établir le stade ganglionnaire du mélanome cutané. Le GS est le facteur pronostique le plus puissant pour la survie des patients atteints d'un mélanome à risque intermédiaire, cliniquement localisé. Celui-ci est métastatique dans environ 15-30% des cas. Lorsque le GS est positif, un curage de l'aire ganglionnaire concernée est généralement entrepris. Néanmoins, seuls 20-25% de ces patients présentent des ganglions non-sentinelles (GNS) métastatiques. Ces données suggèrent que le curage, et les risques opératoires qui y sont associés, n'est peut-être pas nécessaire chez le trois-quarts de ces patients. Un autre aspect est que l'impact sur la survie des curages basé sur le résultat du GS n'est pas clairement démontré. La nécessité de ce curage d'emblé est actuellement en cours d'évaluation par un protocole international (Multicenter Selective Lymphadenectomy Trial II : MSLT II). Plusieurs auteurs ont essayé de classifier la charge tumorale du GS afin d'évaluer s'il était possible d'épargner le curage à certains patients et de mieux affiner ce facteur pronostic sans succès. En 2009, le Groupe Mélanome de l'EORTC (European Organisation for Research and Treatment of Cancer) a recommandé un protocole d'évaluation anatomopathologique du GS-positif en trois items: (1) la localisation micro-anatomique des métastases à l'intérieur du ganglion selon Dewar (A = sous-capsulaire, B = combinée sous-capsulaire and parenchymateuse, C = parenchymateuse, D = multifocale, and'E = extensive) ; (2) la mesure de la taille tumorale dans le ganglion selon les critères de Rotterdam pour le diamètre maximal. Le diamètre de la plus grande métastase est exprimé en nombre absolu et (3) la taille tumorale stratifiée par catégories : <0.1mm, 0.1-1.0mm et >1.0 mm. Le but de cette étude rétrospective d'une cohorte de patients, était d'investiguer les résultats des GS-positifs et d'analyser les facteurs pronostiques de la survie à la lumière des recommandations de l'EORTC. Ainsi que de comparer les sous-groupes du GS-positif avec une invasion minimale (taille tumorale <0.1mm et/ou atteinte sous-capsulaire) avec le GS-négatif. Les facteurs pouvant prédire la présence de GNS- positif ont également été analysés. Matériel et méthode : une étude des dossiers a été réalisée pour les 499 patients consécutifs entre 1997 et 2008 qui ont eu une biopsie du GS dans notre institution. Le dégrée d'envahissement du GS-positif a été entièrement revue par l'équipe référente de l'Institut de Pathologie (Dresse E. Saiji et Dresse H. Bouzourène) selon les recommandations de l'EORTC. Des analyses univariées et multivariées des potentiels facteuis pronostics ont été réalisées. Des analyses de survie ont également été effectuées avec des courbes d'estimation de Kaplan-Meier combinées à une régression de Cox. Le protocole a été accepté par la Commission d'Ethique. Résultats: un GS-positif a été trouvé chez 123 (25%) patients panni les 499 qui ont bénéficié d'une biopsie. Avec un suivi médian de 52 mois, la survie à 5 ans sans récidive (SSR), spécifique à la maladie (SS) et globale (SG) étaient de 88%, 94%, et 90% respectivement pour les patients avec GS-négatif. Concernant les GS avec invasion minimale, 21 patients étaient dans le sous-groupe <0.1 mm selon les critères de Rotterdam et 52 patients dans le sous-groupe sous-capsulaire selon Dewar. La survie dans ces deux sous-groupes était de 80% et 57% pour la SSR, 87% et 70% pour la SS, 87% et 68% pour la SG, respectivement. L'analyse multivariée des GS-positifs a montré que les facteuis suivants influençaient significativement la survie (SSR, SS et SG): l'épaisseur selon Breslow de la tumeur primaire (p=0.002, 0.006, 0.004), la taille tumorale du GS-positif >0.1 mm (p= 0.01, 0.04, 0.03), le genre masculin (p=0.06, 0.005, 0.002) et l'ulcération de la tumeur primaire (p=0.05, 0.03, 0.007). L'analyse des sous-groupes avec invasion minimale n'a pas permis d'établir de facteur pour prédire la négativité des GNSs. Conclusion: La classification du GS-positif par la taille tumorale selon les critères de Rotterdam est un facteur pronostique simple et utile pour évaluer la survie des patients atteints de mélanome. Nous avons observé une tendance (non statistiquement significative) d'une survie diminuée pour le sous-groupe des patients avec GS-positif et une taille de la métastase <0.1 mm comparée à celle des patients avec GS-négatif. Ceci nous incite à conclure que ce sous-groupe de patients ne devrait pas être assimilé et traité comme ceux qui ont un GS-négatif. D'autre part nos résultats montrent que la localisation micro-anatomique selon Dewar n'est pas un outil pronostique utile pour évaluer la survie, ni pour prédire le status des GNSs.
Resumo:
Résumé A Madagascar, comme dans plusieurs pays en développement, une grande partie de la population utilise les plantes pour se soigner. Plusieurs espèces des plantes sont ainsi utilisées en médecine traditionnelle malgache. Par ailleurs, la plupart de ces plantes ne font l'objet que de très peu d'étude scientifique. En effet, dans le cadre de l'investigation phytochimique de plantes utilisées en médecine traditionnelle malgache et dans la recherche des nouvelles substances biologiquement actives, Hypoestes serpens (Vahl) R. Br. (Acanthaceae) a été étudiée. Elle se présente sous deux variétés (glabre et poilue) qui sont tous utilisées dans la région sud-centre de Madagascar pour traiter la blennorragie. De l'extrait dichlorométhanique des feuilles de H. serpens (Vahl) R. Br. variété glabre, 12 diterpénoides dont 8 nouveaux ont été isolés. Ils ont tous montré une activité antifongique contre un champignon pathogène des plantes, Cladosporium cucumerinum, dans la bioautographie directe sur CCM. Quelques-uns ont également présenté une activité contre une levure saprophyte chez l'homme, Candida albicans et une activité inhibitrice de l'enzyme acétylcholinesterase. Les diterpènoïdes sont déjà considérés comme les principaux métabolites secondaires du genre Hypoestes. Le fractionnement de l'extrait méthanolique a conduit à l'isolement de 5 glycosides des flavonoïdes dont 4 sous formes C-g,lycosides qui n'ont jamais été identifiés dans la famille Acanthaceae. Ces flavonoïdes ont présenté une activité antiradicalaire contre le DPPH. Le fractionnement et la purification des extraits ont été effectués à l'aide des différentes techniques chromatographiques telles que la chromatographie sur colonne ouverte, la filtration sur gel, la chromatographie liquide à haute pression, la chromatographie liquide à moyenne pression et la chromatographie liquide à basse pression. Par ailleurs, les structures des composés isolés ont été élucidées par des techniques spectroscopiques (UV, MS, RMN) et de méthode chimique (hydrolyse acide). En plus de ces techniques, certaines méthodes physiques (cristallographie par rayons-X, mesure de rotation optique) ont été réalisées pour confirmer certaines structures. Comme l'espèce Hypoestes serpens (Vahl) R. Br. se présente en deux variétés, une étude comparative a été effectuée. Cette étude avait montré que ces deux variétés ont une activité biologique similaire. Finalement, une technique analytique couplée, HPLC-UV-APC1-MS a permis de montrer la présence de toutes les substances isolées de la variété glabre dans la variété poilue. Second résumé Depuis des milliers d'almées, l'homme utilise les plantes pour se soigner. De nos jours, même avec le développement de la médecine moderne, la phytothérapie reste toujours la forme des soins de santé abordable et accessible pour la majorité des populations rurales des pays en développement. En outre, les plantes médicinales constituent une source potentielle de molécules biologiquement actives pour les industries pharmaceutiques et actuellement, on estime que 25% des médicaments commercialisés dans le monde sont à base de plantes Dans le cadre de la recherche des nouvelles molécules à intérêt thérapeutique qui pourraient devenir un médicament ou un modèle de structure ("lead compound") pour le développement de nouveaux médicaments, nous avons fait une étude sur l'espèce, Hypoestes serpens (Vahl) R. Br, plante utilisée en médecine traditionnelle malgache. Cette espèce existe en deux variétés, une glabre et une autre poilue qui sont tous utilisées dans la région sud-centre de Madagascar pour traiter la blennorragie. Par ailleurs, les tradipraticiens utilisent de préférence la variété poilue. Dans la première partie de ce présent travail, une investigation phytochimique de H serpens, variété glabre (variété moins utilisée) a d'abord été effectuée afm d'isoler et d'identifier le maximum des molécules biologiquement actives qu'elle contient. De ce fait, 17 composés dont 8 nouveaux ont été isolés. Les potentiels d'activités thérapeutiques des substances isolées ont ensuite été dépistés sur les différents cibles suivants.: deux souches de champignons (Cladosporium cucumerinum et Candida albicans), l'enzyme acétylcholinesterase et le radical DPPH. La deuxième partie de ce travail a été consacrée sur l'étude comparative des deux variétés (glabre et poilue) de H. serpens à la fois sur le plan biologique et sur le plan phytochimique. A l'issue de cette comparaison, nous avons constaté que l'utilisation de ces deux variétés en médecine traditionnelle malgache n'est pas un hasard ; les deux variétés avaient présenté une activité biologique très remarquable et contiennent les mêmes substances actives. Ces résultats démontrent les potentiels thérapeutiques de H serpens en médecine traditionnelle malgache et pourraient également encourager les tradipraticiens à utiliser la variété glabre tout en protégeant la variété poilue qui est en voie de disparition actuellement. En bref, l'investigation phytochimique de H. serpens justifiée par l'isolement et l'identification de certains de ses principes actifs ouvre la voie aux recherches des médicaments d'origine naturelle. Abstract In Madagascar, as in many developing countries, most people use plants to cure. A large number of plant species are employed in Malagasy traditional medicine. Moreover, most of these plants have been subject only very little scientific study. As part of a phytochemical investigation of plants used in Malagasy traditional medicine and in the search for new biologically active substances, Hypoestes serpens (Vah1) R.Br. (Acanthaceae) was investigated. This species exists in two varieties (glabrous and hairy) which are used in the south-center part of Madagascar to treat gonorrhoea. From the dichloromethane extract of the leaves of H. serpens (Vah1) R. Br. glabrous variety, 12 diterpenoids 8 of which were new, were isolated. They showed antifungal activity against the plant pathogen Cladosporium cucumerinum, in the direct TLC bioautography. Some of them also had activity against the yeast Candida athicans and inhibited acetylcholinesterase. The diterpenes are considered as the principal secondary metabolites of the genus Hypoestes. Fractionation of the methanol extract led to the isolation of 5 flavonoid glycosides, 4 of which were C-glycosides, never before identified in the Acanthaceae family. These flavonoids showed radical scavenging activity against DPPH. The fractionation and the purification of the extracts were achieved by different chromatographic techniques such as open-column chromatography, gel filtration, high- pressure liquid chromatography, medium-pressure liquid chromatography and low-pressure liquid chromatography. Moreover, the structures of the isolated compounds were elucidated by spectroscopic techniques (UV, MS, NMR) and chemical technique (acid hydrolysis). In addition, some physical methods (X-ray crystallography, measurement of optical rotation) were performed to confirm some structures. As the species Hypoestes serpens (Vah1) R. Br. is present in two varieties, a comparative study was carried out. This study showed that these two varieties had similar biological activity. Finally, a coupled analytical technique HPLC-UV-APCI-MS showed the presence of the same compounds in both the glabrous and hairy varieties.
Resumo:
Abstract: The expansion of a recovering population - whether re-introduced or spontaneously returning - is shaped by (i) biological (intrinsic) factors such as the land tenure system or dispersal, (ii) the distribution and availability of resources (e.g. prey), (iii) habitat and landscape features, and (iv) human attitudes and activities. In order to develop efficient conservation and recovery strategies, we need to understand all these factors and to predict the potential distribution and explore ways to reach it. An increased number of lynx in the north-western Swiss Alps in the nineties lead to a new controversy about the return of this cat. When the large carnivores were given legal protection in many European countries, most organizations and individuals promoting their protection did not foresee the consequences. Management plans describing how to handle conflicts with large predators are needed to find a balance between "overabundance" and extinction. Wildlife and conservation biologists need to evaluate the various threats confronting populations so that adequate management decisions can be taken. I developed a GIS probability model for the lynx, based on habitat information and radio-telemetry data from the Swiss Jura Mountains, in order to predict the potential distribution of the lynx in this mountain range, which is presently only partly occupied by lynx. Three of the 18 variables tested for each square kilometre describing land use, vegetation, and topography, qualified to predict the probability of lynx presence. The resulting map was evaluated with data from dispersing subadult lynx. Young lynx that were not able to establish home ranges in what was identified as good lynx habitat did not survive their first year of independence, whereas the only one that died in good lynx habitat was illegally killed. Radio-telemetry fixes are often used as input data to calibrate habitat models. Radio-telemetry is the only way to gather accurate and unbiased data on habitat use of elusive larger terrestrial mammals. However, it is time consuming and expensive, and can therefore only be applied in limited areas. Habitat models extrapolated over large areas can in turn be problematic, as habitat characteristics and availability may change from one area to the other. I analysed the predictive power of Ecological Niche Factor Analysis (ENFA) in Switzerland with the lynx as focal species. According to my results, the optimal sampling strategy to predict species distribution in an Alpine area lacking available data would be to pool presence cells from contrasted regions (Jura Mountains, Alps), whereas in regions with a low ecological variance (Jura Mountains), only local presence cells should be used for the calibration of the model. Dispersal influences the dynamics and persistence of populations, the distribution and abundance of species, and gives the communities and ecosystems their characteristic texture in space and time. Between 1988 and 2001, the spatio-temporal behaviour of subadult Eurasian lynx in two re-introduced populations in Switzerland was studied, based on 39 juvenile lynx of which 24 were radio-tagged to understand the factors influencing dispersal. Subadults become independent from their mothers at the age of 8-11 months. No sex bias neither in the dispersal rate nor in the distance moved was detected. Lynx are conservative dispersers, compared to bear and wolf, and settled within or close to known lynx occurrences. Dispersal distances reached in the high lynx density population - shorter than those reported in other Eurasian lynx studies - are limited by habitat restriction hindering connections with neighbouring metapopulations. I postulated that high lynx density would lead to an expansion of the population and validated my predictions with data from the north-western Swiss Alps where about 1995 a strong increase in lynx abundance took place. The general hypothesis that high population density will foster the expansion of the population was not confirmed. This has consequences for the re-introduction and recovery of carnivores in a fragmented landscape. To establish a strong source population in one place might not be an optimal strategy. Rather, population nuclei should be founded in several neighbouring patches. Exchange between established neighbouring subpopulations will later on take place, as adult lynx show a higher propensity to cross barriers than subadults. To estimate the potential population size of the lynx in the Jura Mountains and to assess possible corridors between this population and adjacent areas, I adapted a habitat probability model for lynx distribution in the Jura Mountains with new environmental data and extrapolated it over the entire mountain range. The model predicts a breeding population ranging from 74-101 individuals and from 51-79 individuals when continuous habitat patches < 50 km2 are disregarded. The Jura Mountains could once be part of a metapopulation, as potential corridors exist to the adjoining areas (Alps, Vosges Mountains, and Black Forest). Monitoring of the population size, spatial expansion, and the genetic surveillance in the Jura Mountains must be continued, as the status of the population is still critical. ENFA was used to predict the potential distribution of lynx in the Alps. The resulting model divided the Alps into 37 suitable habitat patches ranging from 50 to 18,711 km2, covering a total area of about 93,600 km2. When using the range of lynx densities found in field studies in Switzerland, the Alps could host a population of 961 to 1,827 residents. The results of the cost-distance analysis revealed that all patches were within the reach of dispersing lynx, as the connection costs were in the range of dispersal cost of radio-tagged subadult lynx moving through unfavorable habitat. Thus, the whole Alps could once be considered as a metapopulation. But experience suggests that only few disperser will cross unsuitable areas and barriers. This low migration rate may seldom allow the spontaneous foundation of new populations in unsettled areas. As an alternative to natural dispersal, artificial transfer of individuals across the barriers should be considered. Wildlife biologists can play a crucial role in developing adaptive management experiments to help managers learning by trial. The case of the lynx in Switzerland is a good example of a fruitful cooperation between wildlife biologists, managers, decision makers and politician in an adaptive management process. This cooperation resulted in a Lynx Management Plan which was implemented in 2000 and updated in 2004 to give the cantons directives on how to handle lynx-related problems. This plan was put into practice e.g. in regard to translocation of lynx into unsettled areas. Résumé: L'expansion d'une population en phase de recolonisation, qu'elle soit issue de réintroductions ou d'un retour naturel dépend 1) de facteurs biologiques tels que le système social et le mode de dispersion, 2) de la distribution et la disponibilité des ressources (proies), 3) de l'habitat et des éléments du paysage, 4) de l'acceptation de l'espèce par la population locale et des activités humaines. Afin de pouvoir développer des stratégies efficaces de conservation et de favoriser la recolonisation, chacun de ces facteurs doit être pris en compte. En plus, la distribution potentielle de l'espèce doit pouvoir être déterminée et enfin, toutes les possibilités pour atteindre les objectifs, examinées. La phase de haute densité que la population de lynx a connue dans les années nonante dans le nord-ouest des Alpes suisses a donné lieu à une controverse assez vive. La protection du lynx dans de nombreux pays européens, promue par différentes organisations, a entraîné des conséquences inattendues; ces dernières montrent que tout plan de gestion doit impérativement indiquer des pistes quant à la manière de gérer les conflits, tout en trouvant un équilibre entre l'extinction et la surabondance de l'espèce. Les biologistes de la conservation et de la faune sauvage doivent pour cela évaluer les différents risques encourus par les populations de lynx, afin de pouvoir rapidement prendre les meilleuresmdécisions de gestion. Un modèle d'habitat pour le lynx, basé sur des caractéristiques de l'habitat et des données radio télémétriques collectées dans la chaîne du Jura, a été élaboré afin de prédire la distribution potentielle dans cette région, qui n'est que partiellement occupée par l'espèce. Trois des 18 variables testées, décrivant pour chaque kilomètre carré l'utilisation du sol, la végétation ainsi que la topographie, ont été retenues pour déterminer la probabilité de présence du lynx. La carte qui en résulte a été comparée aux données télémétriques de lynx subadultes en phase de dispersion. Les jeunes qui n'ont pas pu établir leur domaine vital dans l'habitat favorable prédit par le modèle n'ont pas survécu leur première année d'indépendance alors que le seul individu qui est mort dans l'habitat favorable a été braconné. Les données radio-télémétriques sont souvent utilisées pour l'étalonnage de modèles d'habitat. C'est un des seuls moyens à disposition qui permette de récolter des données non biaisées et précises sur l'occupation de l'habitat par des mammifères terrestres aux moeurs discrètes. Mais ces méthodes de- mandent un important investissement en moyens financiers et en temps et peuvent, de ce fait, n'être appliquées qu'à des zones limitées. Les modèles d'habitat sont ainsi souvent extrapolés à de grandes surfaces malgré le risque d'imprécision, qui résulte des variations des caractéristiques et de la disponibilité de l'habitat d'une zone à l'autre. Le pouvoir de prédiction de l'Analyse Ecologique de la Niche (AEN) dans les zones où les données de présence n'ont pas été prises en compte dans le calibrage du modèle a été analysée dans le cas du lynx en Suisse. D'après les résultats obtenus, la meilleure mé- thode pour prédire la distribution du lynx dans une zone alpine dépourvue d'indices de présence est de combiner des données provenant de régions contrastées (Alpes, Jura). Par contre, seules les données sur la présence locale de l'espèce doivent être utilisées pour les zones présentant une faible variance écologique tel que le Jura. La dispersion influence la dynamique et la stabilité des populations, la distribution et l'abondance des espèces et détermine les caractéristiques spatiales et temporelles des communautés vivantes et des écosystèmes. Entre 1988 et 2001, le comportement spatio-temporel de lynx eurasiens subadultes de deux populations réintroduites en Suisse a été étudié, basé sur le suivi de 39 individus juvéniles dont 24 étaient munis d'un collier émetteur, afin de déterminer les facteurs qui influencent la dispersion. Les subadultes se sont séparés de leur mère à l'âge de 8 à 11 mois. Le sexe n'a pas eu d'influence sur le nombre d'individus ayant dispersés et la distance parcourue au cours de la dispersion. Comparé à l'ours et au loup, le lynx reste très modéré dans ses mouvements de dispersion. Tous les individus ayant dispersés se sont établis à proximité ou dans des zones déjà occupées par des lynx. Les distances parcourues lors de la dispersion ont été plus courtes pour la population en phase de haute densité que celles relevées par les autres études de dispersion du lynx eurasien. Les zones d'habitat peu favorables et les barrières qui interrompent la connectivité entre les populations sont les principales entraves aux déplacements, lors de la dispersion. Dans un premier temps, nous avons fait l'hypothèse que les phases de haute densité favorisaient l'expansion des populations. Mais cette hypothèse a été infirmée par les résultats issus du suivi des lynx réalisé dans le nord-ouest des Alpes, où la population connaissait une phase de haute densité depuis 1995. Ce constat est important pour la conservation d'une population de carnivores dans un habitat fragmenté. Ainsi, instaurer une forte population source à un seul endroit n'est pas forcément la stratégie la plus judicieuse. Il est préférable d'établir des noyaux de populations dans des régions voisines où l'habitat est favorable. Des échanges entre des populations avoisinantes pourront avoir lieu par la suite car les lynx adultes sont plus enclins à franchir les barrières qui entravent leurs déplacements que les individus subadultes. Afin d'estimer la taille de la population de lynx dans le Jura et de déterminer les corridors potentiels entre cette région et les zones avoisinantes, un modèle d'habitat a été utilisé, basé sur un nouveau jeu de variables environnementales et extrapolé à l'ensemble du Jura. Le modèle prédit une population reproductrice de 74 à 101 individus et de 51 à 79 individus lorsque les surfaces d'habitat d'un seul tenant de moins de 50 km2 sont soustraites. Comme des corridors potentiels existent effectivement entre le Jura et les régions avoisinantes (Alpes, Vosges, et Forêt Noire), le Jura pourrait faire partie à l'avenir d'une métapopulation, lorsque les zones avoisinantes seront colonisées par l'espèce. La surveillance de la taille de la population, de son expansion spatiale et de sa structure génétique doit être maintenue car le statut de cette population est encore critique. L'AEN a également été utilisée pour prédire l'habitat favorable du lynx dans les Alpes. Le modèle qui en résulte divise les Alpes en 37 sous-unités d'habitat favorable dont la surface varie de 50 à 18'711 km2, pour une superficie totale de 93'600 km2. En utilisant le spectre des densités observées dans les études radio-télémétriques effectuées en Suisse, les Alpes pourraient accueillir une population de lynx résidents variant de 961 à 1'827 individus. Les résultats des analyses de connectivité montrent que les sous-unités d'habitat favorable se situent à des distances telles que le coût de la dispersion pour l'espèce est admissible. L'ensemble des Alpes pourrait donc un jour former une métapopulation. Mais l'expérience montre que très peu d'individus traverseront des habitats peu favorables et des barrières au cours de leur dispersion. Ce faible taux de migration rendra difficile toute nouvelle implantation de populations dans des zones inoccupées. Une solution alternative existe cependant : transférer artificiellement des individus d'une zone à l'autre. Les biologistes spécialistes de la faune sauvage peuvent jouer un rôle important et complémentaire pour les gestionnaires de la faune, en les aidant à mener des expériences de gestion par essai. Le cas du lynx en Suisse est un bel exemple d'une collaboration fructueuse entre biologistes de la faune sauvage, gestionnaires, organes décisionnaires et politiciens. Cette coopération a permis l'élaboration du Concept Lynx Suisse qui est entré en vigueur en 2000 et remis à jour en 2004. Ce plan donne des directives aux cantons pour appréhender la problématique du lynx. Il y a déjà eu des applications concrètes sur le terrain, notamment par des translocations d'individus dans des zones encore inoccupées.
Resumo:
Résumé Les canaux ioniques ASICs (acid-sensing ion channels) appartiennent à la famille des canaux ENaC/Degenerin. Pour l'instant, quatre gènes (1 à 4) ont été clonés dont certains présentent des variants d'épissage. Leur activation par une acidification rapide du milieu extracellulaire génère un courant entrant transitoire essentiellement sodique accompagné pour certains types d'ASICs d'une phase soutenue. Les ASICs sont exprimés dans le système nerveux, central (SNC) et périphérique (SNP). On leur attribue un rôle dans l'apprentissage, la mémoire et l'ischémie cérébrale au niveau central ainsi que dans la nociception (douleur aiguë et inflammatoire) et la méchanotransduction au niveau périphérique. Toutefois, les données sont parfois contradictoires. Certaines études suggèrent qu'ils sont des senseurs primordiaux impliqués dans la détection de l'acidification et la douleur. D'autres études suggèrent plutôt qu'ils ont un rôle modulateur inhibiteur dans la douleur. De plus, le fait que leur activation génère majoritairement un courant transitoire alors que les fibres nerveuses impliquées dans la douleur répondent à un stimulus nocif avec une adaptation lente suggère que leurs propriétés doivent être modulés par des molécules endogènes. Dans une première partie de ma thèse, nous avons abordé la question de l'expression fonctionnelle des ASICs dans les neurones sensoriels primaires afférents du rat adulte pour clarifier le rôle des ASICs dans les neurones sensoriels. Nous avons caractérisé leurs propriétés biophysiques et pharmacologiques par la technique du patch-clamp en configuration « whole-cell ». Nous avons pu démontrer que près de 60% des neurones sensoriels de petit diamètre expriment des courants ASICs. Nous avons mis en évidence trois types de courant ASIC dans ces neurones. Les types 1 et 3 ont des propriétés compatibles avec un rôle de senseur du pH alors que le type 2 est majoritairement activé par des pH inférieurs à pH6. Le type 1 est médié par des homomers de la sous-unité ASIC1 a qui sont perméables aux Ca2+. Nous avons étudié leur co-expression avec des marqueurs des nocicepteurs ainsi que la possibilité d'induire une activité neuronale suite à une acidification qui soit dépendante des ASICs. Le but était d'associer un type de courant ASIC avec une fonction potentielle dans les neurones sensoriels. Une majorité des neurones exprimant les courants ASIC co-expriment des marqueurs des nocicepteurs. Toutefois, une plus grande proportion des neurones exprimant le type 1 n'est pas associée à la nociception par rapport aux types 2 et 3. Nous avons montré qu'il est possible d'induire des potentiels d'actions suite à une acidification. La probabilité d'induction est proportionnelle à la densité des courants ASIC et à l'acidité de la stimulation. Puis, nous avons utilisé cette classification comme un outil pour appréhender les potentielles modulations fonctionnelles des ASICs dans un model de neuropathie (spared nerve injury). Cette approche fut complétée par des expériences de «quantitative RT-PCR ». En situation de neuropathie, les courants ASIC sont dramatiquement changés au niveau de leur expression fonctionnelle et transcriptionnelle dans les neurones lésés ainsi que non-lésés. Dans une deuxième partie de ma thèse, suite au test de différentes substances sécrétées lors de l'inflammation et l'ischémie sur les propriétés des ASICs, nous avons caractérisé en détail la modulation des propriétés des courants ASICs notamment ASIC1 par les sérines protéases dans des systèmes d'expression recombinants ainsi que dans des neurones d'hippocampe. Nous avons montré que l'exposition aux sérine-protéases décale la dépendance au pH de l'activation ainsi que la « steady-state inactivation »des ASICs -1a et -1b vers des valeurs plus acidiques. Ainsi, l'exposition aux serine protéases conduit à une diminution du courant quand l'acidification a lieu à partir d'un pH7.4 et conduit à une augmentation du courant quand l'acidification alleu à partir d'un pH7. Nous avons aussi montré que cette régulation a lieu des les neurones d'hippocampe. Nos résultats dans les neurones sensoriels suggèrent que certains courants ASICs sont impliqués dans la transduction de l'acidification et de la douleur ainsi que dans une des phases du processus conduisant à la neuropathie. Une partie des courants de type 1 perméables au Ca 2+ peuvent être impliqués dans la neurosécrétion. La modulation par les sérines protéases pourrait expliquer qu'en situation d'acidose les canaux ASICs soient toujours activables. Résumé grand publique Les neurones sont les principales cellules du système nerveux. Le système nerveux est formé par le système nerveux central - principalement le cerveau, le cervelet et la moelle épinière - et le système nerveux périphérique -principalement les nerfs et les neurones sensoriels. Grâce à leur nombreux "bras" (les neurites), les neurones sont connectés entre eux, formant un véritable réseau de communication qui s'étend dans tout le corps. L'information se propage sous forme d'un phénomène électrique, l'influx nerveux (ou potentiels d'actions). A la base des phénomènes électriques dans les neurones il y a ce que l'on appelle les canaux ioniques. Un canal ionique est une sorte de tunnel qui traverse l'enveloppe qui entoure les cellules (la membrane) et par lequel passent les ions. La plupart de ces canaux sont normalement fermés et nécessitent d'être activés pour s'ouvrire et générer un influx nerveux. Les canaux ASICs sont activés par l'acidification et sont exprimés dans tout le système nerveux. Cette acidification a lieu notamment lors d'une attaque cérébrale (ischémie cérébrale) ou lors de l'inflammation. Les expériences sur les animaux ont montré que les canaux ASICs avaient entre autre un rôle dans la mort des neurones lors d'une attaque cérébrale et dans la douleur inflammatoire. Lors de ma thèse je me suis intéressé au rôle des ASICs dans la douleur et à l'influence des substances produites pendant l'inflammation sur leur activation par l'acidification. J'ai ainsi pu montrer chez le rat que la majorité des neurones sensoriels impliqués dans la douleur ont des canaux ASICs et que l'activation de ces canaux induit des potentiels d'action. Nous avons opéré des rats pour qu'ils présentent les symptômes d'une maladie chronique appelée neuropathie. La neuropathie se caractérise par une plus grande sensibilité à la douleur. Les rats neuropathiques présentent des changements de leurs canaux ASICs suggérant que ces canaux ont une peut-être un rôle dans la genèse ou les symptômes de cette maladie. J'ai aussi montré in vitro qu'un type d'enryme produit lors de l'inflammation et l'ischémie change les propriétés des ASICs. Ces résultats confirment un rôle des ASICs dans la douleur suggérant notamment un rôle jusque là encore non étudié dans la douleur neuropathique. De plus, ces résultats mettent en évidence une régulation des ASICs qui pourrait être importante si elle se confirmait in vivo de part les différents rôles des ASICs. Abstract Acid-sensing ion channels (ASICs) are members of the ENaC/Degenerin superfamily of ion channels. Their activation by a rapid extracellular acidification generates a transient and for some ASIC types also a sustained current mainly mediated by Na+. ASICs are expressed in the central (CNS) and in the peripheral (PNS) nervous system. In the CNS, ASICs have a putative role in learning, memory and in neuronal death after cerebral ischemia. In the PNS, ASICs have a putative role in nociception (acute and inflammatory pain) and in mechanotransduction. However, studies on ASIC function are somewhat controversial. Some studies suggest a crucial role of ASICs in transduction of acidification and in pain whereas other studies suggest rather a modulatory inhibitory role of ASICs in pain. Moreover, the basic property of ASICs, that they are activated only transiently is irreconcilable with the well-known property of nociception that the firing of nociceptive fibers demonstrated very little adaptation. Endogenous molecules may exist that can modulate ASIC properties. In a first part of my thesis, we addressed the question of the functional expression of ASICs in adult rat dorsal root ganglion (DRG) neurons. Our goal was to elucidate ASIC roles in DRG neurons. We characterized biophysical and pharmacological properties of ASIC currents using the patch-clamp technique in the whole-cell configuration. We observed that around 60% of small-diameter sensory neurons express ASICs currents. We described in these neurons three ASIC current types. Types 1 and 3 have properties compatible with a role of pH-sensor whereas type 2 is mainly activated by pH lower than pH6. Type 1 is mediated by ASIC1a homomultimers which are permeable to Ca 2+. We studied ASIC co-expression with nociceptor markers. The goal was to associate an ASIC current type with a potential function in sensory neurons. Most neurons expressing ASIC currents co-expressed nociceptor markers. However, a higher proportion of the neurons expressing type 1 was not associated with nociception compared to type 2 and -3. We completed this approach with current-clamp measurements of acidification-induced action potentials (APs). We showed that activation of ASICs in small-diameter neurons can induce APs. The probability of AP induction is positively correlated with the ASIC current density and the acidity of stimulation. Then, we used this classification as a tool to characterize the potential functional modulation of ASICs in the spared nerve injury model of neuropathy. This approach was completed by quantitative RT-PCR experiments. ASICs current expression was dramatically changed at the functional and transcriptional level in injured and non-injured small-diameter DRG neurons. In a second part of my thesis, following an initial screening of the effect of various substances secreted during inflammation and ischemia on ASIC current properties, we characterized in detail the modulation of ASICs, in particular of ASIC1 by serine proteases in a recombinant expression system as well as in hippocampal neurons. We showed that protease exposure shifts the pH dependence of ASIC1 activation and steady-state inactivation to more acidic pH. As a consequence, protease exposure leads to a decrease in the current response if ASIC1 is activated by a pH drop from pH 7.4. If, however, acidification occurs from a basal pH of 7, protease-exposed ASIC1a shows higher activity than untreated ASIC1a. We provided evidence that this bi-directional regulation of ASIC1a function also occurs in hippocampal neurons. Our results in DRG neurons suggest that some ASIC currents are involved in the transduction of peripheral acidification and pain. Furthermore, ASICs may participate to the processes leading to neuropathy. Some Ca 2+-permeable type 1 currents may be involved in neurosecretion. ASIC modulation by serine proteases may be physiologically relevant, allowing ASIC activation under sustained slightly acidic conditions.
Resumo:
Résumé sous forme de thèses 1. La présente thèse de doctorat traite de la problématique des licences obligatoires en droit communautaire de la concurrence. Plus précisément, il s'agit d'examiner si et sous quelles conditions le refus de licencier un droit de propriété intellectuelle par une entreprise peut constituer un abus d'une position dominante selon l'article 82 du Traité CE. L'étude fait notamment référence aux marchés de haute technologie et ici à la décision Microsoft, qui a été publiée par la Commission européenne en mars 2004 et qui porte, dans sa deuxième partie, sur la possibilité de rendre interopérables différents composants, via des informations appelées interfaces. 2. La question d'une licence obligatoire ne se pose que si l'information recherchée est protégée par un droit de propriété intellectuelle et si cette information ne peut être obtenue par d'autres moyens. C'est pourquoi la première partie de l'étude examine deux sujets importants concernant l'interopérabilité: d'une part la méthode de décompilation permet-elle d'obtenir des interfaces de logiciel, d'autre part, les interfaces sont-elles protégées par le droit d'auteur. 3. En ce qui concerne la décompilation des programmes d'ordinateur, l'étude démontre que cette méthode ne permet pas de rendre interopérables différents programmes d'ordinateur de manière efficace. Le droit européen a légalisé cette méthode, après des débats publics très vifs, par l'article 6 de la directive concernant la protection juridique des programmes d'ordinateur (91/250/CEE). Il semble néanmoins que la lutte pour un tel droit de décompilation a été vaine :Tout d'abord, l'article 6 est rédigé d'une façon très complexe et autorise une décompilation seulement selon des conditions très restrictives. En plus, la décompilation en elle-même est un travail très complexe qui peut durer des années et qui ne garantit pas de trouver les informations recherchées. 4. En outre, une réglementation de décompilation n'existe jusqu'à présent que dans le domaine du droit d'auteur, tandis qu'une règlementation pour la protection juridique des brevets fait défaut. La question concernant la protection juridique des brevets pour les inventions mises en rouvre par ordinateur restera aussi dans le futur sans réponse, étant donné que le Parlement européen a rejeté une telle proposition de directive en juillet 2005. Ceci est regrettable, parce que la proposition de directive prévoyait explicitement un droit de décompilation. La Commission européenne projette, cependant, de réexaminer les dispositions de décompilation relatives au droit d'auteur. Dans ce contexte, il devrait notamment être examiné si les dispositions de décompilation de l'article 6 de la directive des programmes d'ordinateur sont satisfaisantes afin de garantir une (certaine) interopérabilité. 5. Un réexamen de la directive concernant la protection juridique des programmes d'ordinateur pourrait aussi servir à clarifier l'existence et l'étendue de la protection d'interfaces. L'article 1, paragraphe 2, 2ième phrase se réfère dans ce contexte uniquement à un principe reconnu en droit international du droit d'auteur, dénommé «dichotomie d'idée/d'expression» : seul l'expression individuelle est protégée, mais pas l'idée en tant que telle. La rédaction de l'article devrait ainsi préciser qu'une spécification d'une interface constitue toujours une idée, qui ne peut pas être protégée, alors que l'implémentation de l'interface dans un programme d'ordinateur représente son expression et devrait ainsi bénéficier d'une protection selon le droit d'auteur. Or, dans la plupart des cas, la spécification d'une interface est suffisante pour rendre interopérables différents programmes d'ordinateur. 6. La Commission dans sa décision Microsoft a pourtant supposé que les interfaces recherchées par les concurrents de Microsoft pouvaient être protégées par des droits de propriété intellectuelle. En effet, le seul moyen à disposition pour ceux qui veulent rendre interopérables leur programme d'ordinateur et avec celui d'une entreprise dominante est le recours à l'article 82 CE. Ici, la question qui se pose est celle de savoir si le refus de fournir des interfaces constitue un abus d'une position dominante et donc mène à l'octroi d'une licence obligatoire. 7. Dans le contexte des licences obligatoires selon l'article 82 CE, il est courant d'invoquer la relation de conflit entre la propriété intellectuelle et le droit de la concurrence. Or, l'étude démontre que ces deux institutions de droit poursuivent le même but, à savoir l'encouragement au bien-être des consommateurs en stimulant l'innovation. Les objectifs convergent notamment si on définit la concurrence plutôt en tant que concept dynamique. Par conséquent, des restrictions temporaires à la concurrence peuvent être acceptées, si ceci mène à la création de la concurrence à long terme. Pourtant, des conflits potentiels persistent, étant donné qu'on ne peut pas argumenter que chaque restriction à la concurrence effectuée par le titulaire d'un droit de propriété intellectuelle mène à l'incitation de l'innovation à long terme. 8. En réfutant ce dernier argument, l'étude démontre que les droits de propriété intellectuelle ne peuvent pas être généralement exemptés de l'application du droit de la concurrence. Notamment, selon l'état actuel de la jurisprudence, il ne peut être soutenu qu'il existe un noyau dur spécifique du droit de la propriété intellectuelle, qui ne devrait pas être affecté par le droit de la concurrence. L'ordonnance d'une licence obligatoire peut être justifiée sur la base de l'article 82 CE, dans la mesure où la balance d'intérêts démontre un effet positif au bien-être des consommateurs résultant d'une telle licence. En même temps, les droits individuels du propriétaire d'un droit de propriété intellectuelle sont à respecter, surtout la liberté contractuelle et la protection de la propriété. 9. Le droit de la liberté contractuelle et le droit de la propriété sont atteints, si le propriétaire d'un droit, de nature matérielle ou immatérielle, n'a exercé son droit de propriété que pour lui-même, exclusivement, sans jamais avoir démontré la volonté de s'acquitter de ses droits. C'est donc surtout pour protéger ces deux principes de droit que la présente étude fait une distinction majeure entre le refus de contracter et la rupture d'une relation contractuelle. 10. Le premier cas est traité de manière détaillée sous le chapitre de la doctrine des facilités essentielles (EFD). Selon la position prise ici, cette constellation est caractérisée par l'obligation du propriétaire de contracter et ainsi d'établir des relations d'affaires avec ses concurrents. Or, un principe selon lequel les entreprises en position dominante sont obligées d'encourager la concurrence, n'existe pas en droit communautaire. Il est toutefois nécessaire de pouvoir imposer une telle obligation, notamment dans les cas où la concurrence sur un marché ne peut être mise en oeuvre à long terme par un autre moyen et où cette ouverture du marché n'entraîne pas d'obstacles à l'innovation. 11. La constellation particulière des facilités essentielles exige néanmoins un contrôle plus prudent que dans les cas constituant une rupture de relation d'affaires. Cette exigence a été respectée sur base des conditions que l'arrêt Bronner a établit concernant l'essentialité d'une facilité. Même si l'établissement en question remplit toutes les conditions afin d'être qualifié d'essentiel, l'ordonnance d'un accès obligé doit encore passer l'examen d'une balance d'intérêts. Celle-ci mène encore plus rarement à l'octroi d'une licence dans les cas où la facilité est protégée par un droit de propriété intellectuelle. Des exceptions à cette règle existent si le droit de la propriété intellectuelle n'a pas été obtenu par des moyens basés sur le mérite ou si la fonction d'incitation à l'innovation est en doute. 12. L'affaire IMS Health présente un tel cas exceptionnel. La structure recherchée par les concurrents de IMS remplissait, au moment de l'examen de l'affaire par la Commission européenne, tous les critères d'un standard de facto. En outre, au moment du développement de la structure, celle-ci ne bénéficiait pas d'une protection de droit immatérielle. Une telle protection ne lui a été accordée que depuis la transposition de la directive concernant la protection juridique des bases de données en droit d'auteur allemand. Par conséquent, IMS ne pouvait avoir entrepris des investissements dans la construction de la structure, afin de profiter ultérieurement de la protection du droit d'auteur. Ceci affaiblit la présomption selon laquelle l'utilisation exclusive du droit aurait dû être préservée afin de ne pas faire obstacle à l'innovation. 13. Le cas européen de Microsoft se distingue de cette constellation. Les conditions qui ont mené à la décision de la Commission européenne quant à l'attribution d'interopérabilité et ainsi à une licence obligatoire d'interfaces, ont été présenté de manière détaillée dans cette étude. Elles fournissent les meilleures preuves que les «circonstances exceptionnelles », qui ont été déterminantes dans l'affaire Magill de la Cour de justice, à savoir «l'empêchement de la création d'un nouveau produit », le «manque de justification objective » et «l'empêchement de toute concurrence sur un marché en aval distinct », ne peuvent constituer une énumération exhaustive pour l'ordonnance d'une licence obligatoire. 14. En effet, dans l'affaire Microsoft, l'intersection progressive d'interopérabilité entre les systèmes d'exploitation étrangers à Microsoft et des systèmes d'exploitation de Microsoft n'a pas empêché la création de nouveaux produits. Le marché en question, celui des systèmes d'exploitation pour serveur de groupe de travail, avait été créé par l'entreprise Novell. Par conséquent, quand Microsoft a accédé à ce marché, d'autres entreprises en situation d'offre s'y trouvaient déjà avec leurs produits. Il s'en suit que, en 'exigeant de Microsoft des interfaces correspondantes, il s'agissait d'assurer l'interopérabilité avec les produits de Microsoft, et surtout avec l'omniprésent système d'exploitation pour ordinateur PC, afin de maintenir des produits déjà existants sur le marché, et notamment des produits «pionniers »qui avaient pris le risque d'exploiter le marché des systèmes d'exploitation pour serveur de groupe de travail. 15. Une autre circonstance exceptionnelle que celle d'un nouveau produit empêché donne l'impulsion à la thèse qu'une intersection progressive aux interfaces de Microsoft constitue un abus d'une position dominante selon l'article 82 CE : celle du transfert du pouvoir de marché. L'intégration verticale d'une entreprise en position dominante sur un marché qui n'a jusqu'à ce jour été que fourni par celle-ci, et qui rompt des relations contractuelles avec des entreprises agissant sur ce marché, afin d'évincer de la concurrence, constitue un cas de type connu de l'abus, reconnue pour la première fois dans l'arrêt Commercial Solvents de la CJCE: L'entreprise en position dominante utilise son pouvoir sur un marché initial et stratégiquement important et se sert ainsi des avantages, qui ne peuvent être conciliés avec le concept de concurrence par le mérite. 16. Il doit être de même si le bien en question bénéficie d'un droit immatériel, et qu'il s'agit ainsi d'un arrêt d'une licence. En effet, les fonctions, en principe supposées, d'incitation et de mérite, perdent de leur importance si le bien en question a déjà fait objet d'une licence: Il ne peut pas alors être argumenté que le propriétaire d'un droit immatériel doit l'utiliser exclusivement lui-même, afin de profiter des fruits de son mérite. Cet argument particulier de la prise en compte de l'effet d'incitation et de mérite perd d'autant plus de sa pertinence, si l'entreprise en cause ne fournit pas sur le marché dérivé une innovation, mais ne sert juste qu'à vendre un produit déjà préexistant. 17. Dans le domaine de licence de propriété intellectuelle obligatoire selon l'article 82 CE, les juridictions européennes n'ont jusqu'à présent uniquement eu à décider sur des constellations de cas, dans lesquelles le droit n'avait pas été l'objet d'une licence antérieure. Avec le cas Microsoft, le Tribunal de Première Instance a maintenant la possibilité de décider d'une distinction importante à faire en droit de la concurrence entre, d'une part, les cas dans lesquels un droit de propriété intellectuelle n'a pas encore été l'objet d'une licence et de l'autre, ceux dans lesquels il s'agit d'une rupture de licence.
Resumo:
Résumé I. Introduction La présente étude analyse les conflits entre les autorités nationales de concurrence dans le cas de figure où plusieurs autorités examinent en même temps la convergence d'une opération de concentration avec leur droit de concentration respectif. Tandis que le débat concernant le contrôle parallèle des opérations de concentration internationales est aujourd'hui extrêmement vif, la recherche fondamentale sur ce sujet n'a pas encore beaucoup avancé. Cependant il y a un besoin de réforme évident, un besoin au centre duquel se situe une réflexion sur l'organisation du droit de concurrence international. Le but de cette étude est donc de fournir une vue d'ensemble des conflits possibles entre les autorités nationales de concurrence en matière politique, économique et juridique (matérielle et procédurale) causés par une opération de concentration internationale. L'objectif n'est pas de fournir une évaluation des différents systèmes de contrôle de concentration, mais plutôt de chercher la source des conflits. Par ailleurs, l'analyse qui suit insistera sur la nécessité d'une solution internationale de ces conflits. II. Arrière-plan Depuis plusieurs décennies, les relations économiques internationales entre les Etats et les entreprises ont été profondément marquées par un processus dynamique de globalisation et de libéralisation. La libéralisation a engendré une croissance énorme du commerce mondial. En conséquence, les entreprises ont développé des stratégies globales pour arriver à une croissance durable. Ainsi, le nombre et la taille des entreprises internationales a constamment augmenté. À cause de cette présence globale des entreprises, les anciens marchés nationaux ou régionaux sont devenus des marchés globaux. Dans le cadre de la libéralisation économique, beaucoup d'Etats ainsi que l'Union Européenne ont reconnu que la concurrence est le moyen approprié pour faire progresser l'innovation et la croissance économique. Il faut donc maintenir et développer les structures de concurrence. Pour cela, il faut surveiller dans le cadre du droit de contrôle international toutes les pratiques concertées dont l'objet ou l'effet serait de restreindre la concurrence, ainsi que les abus d'une position dominante ou les opérations de concentration d'entreprises. Jusqu'à présent, sur environ 200 Etats souverains existants au monde, une bonne centaine ainsi que l'Union Européenne (l'UE) ont développé un droit de concurrence. Et parmi ces Etats, 75 environ ont créé un droit de contrôle de concentration. Mais ces règles nationales ne sont pas toujours appropriées au regard de l'économie mondiale. On constate plutôt que ,,l'internationalisation croissante des marchés [...] n'a pas été suivie d'une internationalisation parallèle de la politique de concurrence". Par ailleurs, un grand nombre d'Etats appliquent leur droit de concurrence également en dehors de leur propre territoire afin de contrôler les abus à l'étranger. Même si on peut comprendre ce besoin de contrôle, cette évolution risque de provoquer des conflits avec les législations des autres Etats concernés. D'autres difficultés naissent des différences théoriques ou pratiques des systèmes du droit de la concurrence ou de régulations divergentes du point de vue matériel et procédural. Même sur la base de règles comparables, des divergences apparaissent à cause de différentes méthodes d'interprétation ou d'application. La communauté internationale s'emploie à combattre toutes les barrières au commerce transnational -notamment dans le cadre de l'Organisation Mondiale du Commerce (OMC). Mais si elle néglige de lutter en même temps contre les barrières commerciales établies par les entreprises elles-mêmes, elle risque de perdre les gains d'efficacité et de bien public déjà acquis par la suppression des barrières commerciales publiques. Car certaines actions des entreprises privées, comme l'exclusion ou la répartition mutuelle du marché, peuvent aussi bien conduire à des restrictions de la concurrence que les barrières commerciales publiques, tarifaires ou non-tarifaires, et peuvent même s'y substituer. III. Plan de l'étude Après l'Introduction, la partie B traite de la coopération de l'Union Européenne avec les Etats-Unis en matière du droit de la concurrence. En effet, les accords bilatéraux entre l'UE et les Etats-Unis montrent les possibilités et les limites d'une telle coopération. Les conflits entre les autorités de concurrence résultent de la mondialisation croissante et de l'intensification de la concurrence qui en découle. Aussi, ces conflits ne sont pas seulement d'ordre théorique mais également d'une grande importance pratique comme le montre l'analyse des deux cas dans la partie C. Les autorités de concurrence des Etats-Unis et de l'Union Européenne ont chacun de leur côté examiné la fusion des entreprises Boeing Corporation et McDonnell Douglas Corporation (MDD), ainsi que le projet de fusion entre Honeywell International Inc. (Honeywell) et General Electric Co. (GE). Or, ces deux procédures sont paradigmatiques en ce qui concerne la sensibilité politique des autorités de concurrence et les limites de la coopération bilatérale. Après ces analyse de cas, la partie D qui compare le droit de contrôle de concentration aux Etats-Unis et en Europe et examine les conflits éventuels entre les deux systèmes constitue la partie principale de l'étude. Les sources de ces conflits peuvent être aussi bien trouvées dans le droit matériel que dans le droit procédural, tout comme dans les différences d'orientation politique générale des deux systèmes. La partie E montre les différentes solutions qui ont été proposées dans ce cadre. Ensuite, ces propositions sont comparées avec celles concernant l'harmonisation des politiques de concurrence et de contrôle de concentrations. Sur la base de ces résultats, une proposition de solution montrant les premiers pas nécessaires pour résoudre les conflits existants entre les autorités de concurrence est présentée. IV. Résumé des conflits L'étude aboutit à la constatation que presque tous les aspects du contrôle des concentrations constituent un important potentiel de conflits. Celui-ci est d'ailleurs bien plus important que l'on ne pourrait penser au w des lois applicables. La complexité du droit de la concurrence provoque nécessairement des conflits. Mais il faut également tenir compte des différences fondamentales concernant les objectifs politiques des Etats, les formes d'institutionnalisation des autorités de concurrence et la prise en considération des pays en développement ou des pays émergents. Les différences purement juridiques accroissent le potentiel de conflits entre les Etats et empêchent une intensification de la coopération. Cela est notamment vrai pour la définition de la concentration, l'application extraterritoriale du droit national, la notification obligatoire et ses seuils fixés. Concernant le droit matériel, les conflits se situent dans les domaines de la délimitation du marché, le critère d'incompabilité, l'analyse économique, la prise en compte des gains d'efficacité, l'importance de la concentration de sauvetage ainsi que de l'application du principe de ,,comity of nations". Du point de we du droit procédural, les différences d'inscription obligatoire et d'interdiction partielle de l'accomplissement consécutif donnent autant également lieu à des conflits potentiels que les différences de méthode d'investigation et d'exécution des décisions publiques. Il en va de même pour les différents remèdes ou les sanctions prévues pour le mépris des décisions des autorités ou des tribunaux et la position des parties tierces dans la procédure est également un facteur de conflit. Enfin, il faut mentionner le manque de transparence qui nuit à la sécurité juridique. L'application arbitraire du droit, le protectionnisme, le mercantilisme ainsi que le manque de sécurité juridique augmentent le danger de conflits interétatiques. La coopération entre les Etats-Unis et l'Union Européenne sur la base de l'accord de 1991 n'a pas vraiment réduit ce potentiel de conflits. Cela s'est notamment avéré au moment des projets de fusion entre GE et Honeywell et de la reprise de MDD par Boeing. V. Les possibilités d'harmonisation Aussi bien la nécessité que la faisabilité d'une harmonisation globale du droit de la concurrence et d'une politique de la concurrence sont encore très discutés. La plupart des débats tournent plutôt autour de l'arrangement concret d'un tel droit harmonisé que de l'objectif général d'une harmonisation. Quelques Etats comme les Etats-Unis redoutent une trop grande perte de souveraineté et veulent par conséquent maintenir leur méthode unilatérale et extraterritoriale. Cependant, la plupart des experts des organisations internationales comme ceux des autorités de concurrence et du public intéressé approuvent l'idée d'un droit de concurrence international. Etant donné la gravité de certains conflits, de nombreux Etats et un grand nombre de juristes perçoivent la nécessité de développer la conscience d'une indispensable harmonisation, et un accord sur ce plan semble parfaitement possible. Parmi ceux qui soutiennent cet accord l'on trouve presque tous les Etats membres de l'Organisation de coopération et de développement économiques (l'OCDE), de nombreux Etats membres de l'OMC, de l'Organisations des nations unies (l'ONU) et de l'Accord de libre-échange nord-américain (l'ALENA), particulièrement les Etats de l'UE, l'Australie, le Japon, le Canada, le Mexique, la Nouvelle Zélande et quelques représentants des autorités de concurrence des Etats-Unis. La méthode la plus efficace et raisonnable pour lutter contre les obstacles privés à la concurrence est la coopération et la coordination globale des mécanismes de contrôle. Les forums et les structures nécessaires pour la préparation d'une telle tâche existent déjà. Ainsi, le cadre institutionnel éprouvé de l'OMC pourra faire progresser le processus d`harmonisation. Il faudrait simplement élargir les compétences de l'OMC pour garantir un contrôle international efficace. L'harmonisation sur le plan international serait plus efficace qu'une harmonisation unilatérale ou bilatérale. La flexibilité d'un accord international pourrait être garanti par 1"insertion de cet accord dans le Mémorandum d'accords commerciaux plurilatéraux (Annexe 4) de l'OMC. Ainsi, cet accord ne serait obligatoire que pour les Etats membres qui l'auraient déjà approuvé séparément. Les autres Etats auraient la possibilité de le signer plus tard. En cas de conflits dans le cadre de l'application de cet accord, on pourrait se servir du mécanisme d'arbitrage de l'OMC. Il faudrait également créer une autorité internationale de concurrence et un comité spécial international de concurrence. Un tel accord de l'OMC ne constitue qu'un premier pas. Les exigences minimales de l'accord doivent être renforcées et régulièrement ajustées à l'évolution et aux nouvelles données de l'économie mondiale. Ainsi, le processus d'harmonisation internationale sera l'objet d'une dynamique permanente. VI. Résultats et conclusions L'étude a montré que l'application parallèle des droits nationaux de concurrence est une importante source de conflits. Elle a surtout mis l'accent sur les relations entre les Etats-Unis et l'Union Européenne. Il est d'ailleurs très probable que ce genre de conflits augmente encore dans le futur. En 2000, l'activité mondiale des fusions et acquisitions a eu un volume de 3 billions de dollars Anglo-américains. Cela équivaut à une multiplication par onze du volume de 1991. En 2001, par contre, le volume a de nouveau baissé à 1,6 billions de dollars Anglo-américains. Mais selon les pronostics, le nombre des concentrations va à nouveau augmenter considérablement dans les prochaines années. Cette vague de concentrations internationales est la conséquence de l'intensification mondiale des relations économiques transnationales. Cette évolution va se poursuivre pour autant que les barrières commerciales publiques continuent à être démantelées, que le renforcement de la dérégularisation ouvre de nouveaux marchés à la compétition, que de plus en plus de standards techniques soient harmonisés et que les transports et la communication internationale soient améliorés et moins couteux. Enfin, la consolidation de certains secteurs économiques à la suite de fusions déjà réalisées encourage de plus en plus les entreprises à fusionner sur le plan international et dans des dimensions de plus en plus grandes. Outre les conflits engendrés par les différentes législations nationales, il faut également mentionner les oppositions qui résultent d'une façon indirecte de la compétition entre les différentes autorités de contrôle. Ainsi, par exemple, les conséquences économiques et financières d'un retard dans la procédure de contrôle ou les sanctions importantes imposées aux entreprises concernées sont souvent le sujet de discussions et de conflits politiques. Dans ce cadre, il faut souligner qu'en réalité le droit de concurrence ainsi que le droit de contrôle de concentrations ne vise pas seulement une politique de concurrence mais également la politique industrielle et générale. La diversité de ces différentes visées politiques provoque nécessairement des conflits politiques. La solution présentée à la fin de ce travail voudrait proposer une application efficace du droit de contrôle de concentration sur le plan international. A la base de cette efficacité il y a aurait notamment: L'encouragement d'une politique de concurrence au sein des Etats qui n'ont pas encore développé un droit de concurrence ou qui ne l'exécutent pas d'une manière suffisante. L'encouragement de la concurrence et des concentrations positives améliorant la situation compétitive. La simplification de la coopération des autorités de concurrence. L'accélération des procédures et des décisions. La garantie de la sécurité juridique. La diminution des conflits politiques. L'encouragement d'une amélioration globale du bien public qui est à la base de toute politique commerciale. Ces objectifs ne peuvent être atteints que si le protectionnisme national est battu en brêche et si des systèmes de contrôle international sont installés. Les intérêts des Etats doivent refléter les nouvelles dimensions de l'économie globale qui ne s'arrête pas aux frontières nationales. Pour cela il leur faut accepter certaines pertes de souveraineté et tolérer certaines infractions aux règles internationales de la non-ingérence. Les intérêts nationaux doivent s'ajuster à l'économie mondiale et aux intérêts des autres Etats. Bien entendu, tant que la divergence actuelle entre les marchés internationaux et les systèmes de contrôle nationaux persiste, une amélioration de la situation est peu probable. Pour que cela soit possible, il faudrait une législation qui reflète les nouvelles dimensions de l'économie et ses effets transnationaux et qui, en même temps, augmente et assure une concurrence efficace. Une telle stratégie aiderait non seulement les autorités de concurrence et les Etats mais également tout particulièrement les consommateurs et les entreprises. Car une telle concurrence efficace engendre des entreprises plus efficaces, des produits améliorés, un choix plus grand et des prix plus bas. En fin de compte, un tel effet de bien public diminuerait aussi le risque de conflits interétatiques. Dans le cadre de la consolidation et de l'amélioration des structures juridiques du système de l'OMC, il serait essentiel que les institutions et la méthode d'arbitrage de l'OMC inspirent suffisamment confiance à la communauté internationale des Etats. Car c'est seulement sur la base d'une telle confiance et avec la volonté des Etats de faire un pas décisif en faveur d'un commerce mondial plus libre et plus loyal qu'un projet aussi ambitieux est réalisable. Il est donc essentiel que les responsables réalisent enfin les projets d'harmonisation et de coopération renforcées qu'ils ont si souvent annoncés. En tous cas, une forte ,,dynamique du processus d'harmonisation" sera nécessaire pour progresser sur le terrain de l'harmonisation internationale de la politique de la concurrence. Berlin, 17/08/2006 Florens Girardet