1000 resultados para Systèmes tutoriels intelligents
Resumo:
Our work is focused on alleviating the workload for designers of adaptive courses on the complexity task of authoring adaptive learning designs adjusted to specific user characteristics and the user context. We propose an adaptation platform that consists in a set of intelligent agents where each agent carries out an independent adaptation task. The agents apply machine learning techniques to support the user modelling for the adaptation process
Resumo:
Summary Due to their conic shape and the reduction of area with increasing elevation, mountain ecosystems were early identified as potentially very sensitive to global warming. Moreover, mountain systems may experience unprecedented rates of warming during the next century, two or three times higher than that records of the 20th century. In this context, species distribution models (SDM) have become important tools for rapid assessment of the impact of accelerated land use and climate change on the distribution plant species. In my study, I developed and tested new predictor variables for species distribution models (SDM), specific to current and future geographic projections of plant species in a mountain system, using the Western Swiss Alps as model region. Since meso- and micro-topography are relevant to explain geographic patterns of plant species in mountain environments, I assessed the effect of scale on predictor variables and geographic projections of SDM. I also developed a methodological framework of space-for-time evaluation to test the robustness of SDM when projected in a future changing climate. Finally, I used a cellular automaton to run dynamic simulations of plant migration under climate change in a mountain landscape, including realistic distance of seed dispersal. Results of future projections for the 21st century were also discussed in perspective of vegetation changes monitored during the 20th century. Overall, I showed in this study that, based on the most severe A1 climate change scenario and realistic dispersal simulations of plant dispersal, species extinctions in the Western Swiss Alps could affect nearly one third (28.5%) of the 284 species modeled by 2100. With the less severe 61 scenario, only 4.6% of species are predicted to become extinct. However, even with B1, 54% (153 species) may still loose more than 80% of their initial surface. Results of monitoring of past vegetation changes suggested that plant species can react quickly to the warmer conditions as far as competition is low However, in subalpine grasslands, competition of already present species is probably important and limit establishment of newly arrived species. Results from future simulations also showed that heavy extinctions of alpine plants may start already in 2040, but the latest in 2080. My study also highlighted the importance of fine scale and regional. assessments of climate change impact on mountain vegetation, using more direct predictor variables. Indeed, predictions at the continental scale may fail to predict local refugees or local extinctions, as well as loss of connectivity between local populations. On the other hand, migrations of low-elevation species to higher altitude may be difficult to predict at the local scale. Résumé La forme conique des montagnes ainsi que la diminution de surface dans les hautes altitudes sont reconnues pour exposer plus sensiblement les écosystèmes de montagne au réchauffement global. En outre, les systèmes de montagne seront sans doute soumis durant le 21ème siècle à un réchauffement deux à trois fois plus rapide que celui mesuré durant le 20ème siècle. Dans ce contexte, les modèles prédictifs de distribution géographique de la végétation se sont imposés comme des outils puissants pour de rapides évaluations de l'impact des changements climatiques et de la transformation du paysage par l'homme sur la végétation. Dans mon étude, j'ai développé de nouvelles variables prédictives pour les modèles de distribution, spécifiques à la projection géographique présente et future des plantes dans un système de montagne, en utilisant les Préalpes vaudoises comme zone d'échantillonnage. La méso- et la microtopographie étant particulièrement adaptées pour expliquer les patrons de distribution géographique des plantes dans un environnement montagneux, j'ai testé les effets d'échelle sur les variables prédictives et sur les projections des modèles de distribution. J'ai aussi développé un cadre méthodologique pour tester la robustesse potentielle des modèles lors de projections pour le futur. Finalement, j'ai utilisé un automate cellulaire pour simuler de manière dynamique la migration future des plantes dans le paysage et dans quatre scénarios de changement climatique pour le 21ème siècle. J'ai intégré dans ces simulations des mécanismes et des distances plus réalistes de dispersion de graines. J'ai pu montrer, avec les simulations les plus réalistes, que près du tiers des 284 espèces considérées (28.5%) pourraient être menacées d'extinction en 2100 dans le cas du plus sévère scénario de changement climatique A1. Pour le moins sévère des scénarios B1, seulement 4.6% des espèces sont menacées d'extinctions, mais 54% (153 espèces) risquent de perdre plus 80% de leur habitat initial. Les résultats de monitoring des changements de végétation dans le passé montrent que les plantes peuvent réagir rapidement au réchauffement climatique si la compétition est faible. Dans les prairies subalpines, les espèces déjà présentes limitent certainement l'arrivée de nouvelles espèces par effet de compétition. Les résultats de simulation pour le futur prédisent le début d'extinctions massives dans les Préalpes à partir de 2040, au plus tard en 2080. Mon travail démontre aussi l'importance d'études régionales à échelle fine pour évaluer l'impact des changements climatiques sur la végétation, en intégrant des variables plus directes. En effet, les études à échelle continentale ne tiennent pas compte des micro-refuges, des extinctions locales ni des pertes de connectivité entre populations locales. Malgré cela, la migration des plantes de basses altitudes reste difficile à prédire à l'échelle locale sans modélisation plus globale.
Resumo:
Résumé La thématique de cette thèse peut être résumée par le célèbre paradoxe de biologie évolutive sur le maintien du polymorphisme face à la sélection et par l'équation du changement de fréquence gamétique au cours du temps dû, à la sélection. La fréquence d'un gamète xi à la génération (t + 1) est: !!!Equation tronquée!!! Cette équation est utilisée pour générer des données utlisée tout au long de ce travail pour 2, 3 et 4 locus dialléliques. Le potentiel de l'avantage de l'hétérozygote pour le maintien du polymorphisme est le sujet de la première partie. La définition commune de l'avantage de l'hétérozygote n'etant applicable qu'a un locus ayant 2 allèles, cet avantage est redéfini pour un système multilocus sur les bases de précédentes études. En utilisant 5 définitions différentes de l'avantage de l'hétérozygote, je montre que cet avantage ne peut être un mécanisme général dans le maintien du polymorphisme sous sélection. L'étude de l'influence de locus non-détectés sur les processus évolutifs, seconde partie de cette thèse, est motivée par les travaux moléculaires ayant pour but de découvrir le nombre de locus codant pour un trait. La plupart de ces études sous-estiment le nombre de locus. Je montre que des locus non-détectés augmentent la probabilité d'observer du polymorphisme sous sélection. De plus, les conclusions sur les facteurs de maintien du polymorphisme peuvent être trompeuses si tous les locus ne sont pas détectés. Dans la troisième partie, je m'intéresse à la valeur attendue de variance additive après un goulot d'étranglement pour des traits sélectionés. Une études précédente montre que le niveau de variance additive après goulot d'étranglement augmente avec le nombre de loci. Je montre que le niveau de variance additive après un goulot d'étranglement augmente (comparé à des traits neutres), mais indépendamment du nombre de loci. Par contre, le taux de recombinaison a une forte influence, entre autre en regénérant les gamètes disparus suite au goulot d'étranglement. La dernière partie de ce travail de thèse décrit un programme pour le logiciel de statistique R. Ce programme permet d'itérer l'équation ci-dessus en variant les paramètres de sélection, recombinaison et de taille de populations pour 2, 3 et 4 locus dialléliques. Cette thèse montre qu'utiliser un système multilocus permet d'obtenir des résultats non-conformes à ceux issus de systèmes rnonolocus (la référence en génétique des populations). Ce programme ouvre donc d'intéressantes perspectives en génétique des populations. Abstract The subject of this PhD thesis can be summarized by one famous paradox of evolu-tionary biology: the maintenance of polymorphism in the face of selection, and one classical equation of theoretical population genetics: the changes in gametic frequencies due to selection and recombination. The frequency of gamete xi at generation (t + 1) is given by: !!! Truncated equation!!! This equation is used to generate data on selection at two, three, and four diallelic loci for the different parts of this work. The first part focuses on the potential of heterozygote advantage to maintain genetic polymorphism. Results of previous studies are used to (re)define heterozygote advantage for multilocus systems, since the classical definition is for one diallelic locus. I use 5 different definitions of heterozygote advantage. And for these five definitions, I show that heterozygote advantage is not a general mechanism for the maintenance of polymorphism. The study of the influence of undetected loci on evolutionary processes (second part of this work) is motivated by molecular works which aim at discovering the loci coding for a trait. For most of these works, some coding loci remains undetected. I show that undetected loci increases the probability of maintaining polymorphism under selection. In addition, conclusions about the factor that maintain polymorphism can be misleading if not all loci are considered. This is, therefore, only when all loci are detected that exact conclusions on the level of maintained polymorphism or on the factor(s) that maintain(s) polymorphism could be drawn. In the third part, the focus is on the expected release of additive genetic variance after bottleneck for selected traits. A previous study shows that the expected release of additive variance increases with an increase in the number of loci. I show that the expected release of additive variance after bottleneck increases for selected traits (compared with neutral), but this increase is not a function of the number of loci, but function of the recombination rate. Finally, the last part of this PhD thesis is a description of a package for the statistical software R that implements the Equation given above. It allows to generate data for different scenario regarding selection, recombination, and population size. This package opens perspectives for the theoretical population genetics that mainly focuses on one locus, while this work shows that increasing the number of loci leads not necessarily to straightforward results.
Resumo:
Disseny i implementació d'una aplicació per a la plataforma Android per a l'estalvi de bateria en aquests telèfons intel·ligents.
Resumo:
Les problèmes d'écoulements multiphasiques en média poreux sont d'un grand intérêt pour de nombreuses applications scientifiques et techniques ; comme la séquestration de C02, l'extraction de pétrole et la dépollution des aquifères. La complexité intrinsèque des systèmes multiphasiques et l'hétérogénéité des formations géologiques sur des échelles multiples représentent un challenge majeur pour comprendre et modéliser les déplacements immiscibles dans les milieux poreux. Les descriptions à l'échelle supérieure basées sur la généralisation de l'équation de Darcy sont largement utilisées, mais ces méthodes sont sujettes à limitations pour les écoulements présentant de l'hystérèse. Les avancées récentes en terme de performances computationnelles et le développement de méthodes précises pour caractériser l'espace interstitiel ainsi que la distribution des phases ont favorisé l'utilisation de modèles qui permettent une résolution fine à l'échelle du pore. Ces modèles offrent un aperçu des caractéristiques de l'écoulement qui ne peuvent pas être facilement observées en laboratoire et peuvent être utilisé pour expliquer la différence entre les processus physiques et les modèles à l'échelle macroscopique existants. L'objet premier de la thèse se porte sur la simulation numérique directe : les équations de Navier-Stokes sont résolues dans l'espace interstitiel et la méthode du volume de fluide (VOF) est employée pour suivre l'évolution de l'interface. Dans VOF, la distribution des phases est décrite par une fonction fluide pour l'ensemble du domaine et des conditions aux bords particulières permettent la prise en compte des propriétés de mouillage du milieu poreux. Dans la première partie de la thèse, nous simulons le drainage dans une cellule Hele-Shaw 2D avec des obstacles cylindriques. Nous montrons que l'approche proposée est applicable même pour des ratios de densité et de viscosité très importants et permet de modéliser la transition entre déplacement stable et digitation visqueuse. Nous intéressons ensuite à l'interprétation de la pression capillaire à l'échelle macroscopique. Nous montrons que les techniques basées sur la moyenne spatiale de la pression présentent plusieurs limitations et sont imprécises en présence d'effets visqueux et de piégeage. Au contraire, une définition basée sur l'énergie permet de séparer les contributions capillaires des effets visqueux. La seconde partie de la thèse est consacrée à l'investigation des effets d'inertie associés aux reconfigurations irréversibles du ménisque causé par l'interface des instabilités. Comme prototype pour ces phénomènes, nous étudions d'abord la dynamique d'un ménisque dans un pore angulaire. Nous montrons que, dans un réseau de pores cubiques, les sauts et reconfigurations sont si fréquents que les effets d'inertie mènent à différentes configurations des fluides. A cause de la non-linéarité du problème, la distribution des fluides influence le travail des forces de pression, qui, à son tour, provoque une chute de pression dans la loi de Darcy. Cela suggère que ces phénomènes devraient être pris en compte lorsque que l'on décrit l'écoulement multiphasique en média poreux à l'échelle macroscopique. La dernière partie de la thèse s'attache à démontrer la validité de notre approche par une comparaison avec des expériences en laboratoire : un drainage instable dans un milieu poreux quasi 2D (une cellule Hele-Shaw avec des obstacles cylindriques). Plusieurs simulations sont tournées sous différentes conditions aux bords et en utilisant différents modèles (modèle intégré 2D et modèle 3D) afin de comparer certaines quantités macroscopiques avec les observations au laboratoire correspondantes. Malgré le challenge de modéliser des déplacements instables, où, par définition, de petites perturbations peuvent grandir sans fin, notre approche numérique apporte de résultats satisfaisants pour tous les cas étudiés. - Problems involving multiphase flow in porous media are of great interest in many scientific and engineering applications including Carbon Capture and Storage, oil recovery and groundwater remediation. The intrinsic complexity of multiphase systems and the multi scale heterogeneity of geological formations represent the major challenges to understand and model immiscible displacement in porous media. Upscaled descriptions based on generalization of Darcy's law are widely used, but they are subject to several limitations for flow that exhibit hysteric and history- dependent behaviors. Recent advances in high performance computing and the development of accurate methods to characterize pore space and phase distribution have fostered the use of models that allow sub-pore resolution. These models provide an insight on flow characteristics that cannot be easily achieved by laboratory experiments and can be used to explain the gap between physical processes and existing macro-scale models. We focus on direct numerical simulations: we solve the Navier-Stokes equations for mass and momentum conservation in the pore space and employ the Volume Of Fluid (VOF) method to track the evolution of the interface. In the VOF the distribution of the phases is described by a fluid function (whole-domain formulation) and special boundary conditions account for the wetting properties of the porous medium. In the first part of this thesis we simulate drainage in a 2-D Hele-Shaw cell filled with cylindrical obstacles. We show that the proposed approach can handle very large density and viscosity ratios and it is able to model the transition from stable displacement to viscous fingering. We then focus on the interpretation of the macroscopic capillary pressure showing that pressure average techniques are subject to several limitations and they are not accurate in presence of viscous effects and trapping. On the contrary an energy-based definition allows separating viscous and capillary contributions. In the second part of the thesis we investigate inertia effects associated with abrupt and irreversible reconfigurations of the menisci caused by interface instabilities. As a prototype of these phenomena we first consider the dynamics of a meniscus in an angular pore. We show that in a network of cubic pores, jumps and reconfigurations are so frequent that inertia effects lead to different fluid configurations. Due to the non-linearity of the problem, the distribution of the fluids influences the work done by pressure forces, which is in turn related to the pressure drop in Darcy's law. This suggests that these phenomena should be taken into account when upscaling multiphase flow in porous media. The last part of the thesis is devoted to proving the accuracy of the numerical approach by validation with experiments of unstable primary drainage in a quasi-2D porous medium (i.e., Hele-Shaw cell filled with cylindrical obstacles). We perform simulations under different boundary conditions and using different models (2-D integrated and full 3-D) and we compare several macroscopic quantities with the corresponding experiment. Despite the intrinsic challenges of modeling unstable displacement, where by definition small perturbations can grow without bounds, the numerical method gives satisfactory results for all the cases studied.
Resumo:
A table showing a comparison and classification of tools (intelligent tutoring systems) for e-learning of Logic at a college level.
Resumo:
Résumé Les canaux ioniques ASICs (acid-sensing ion channels) appartiennent à la famille des canaux ENaC/Degenerin. Pour l'instant, quatre gènes (1 à 4) ont été clonés dont certains présentent des variants d'épissage. Leur activation par une acidification rapide du milieu extracellulaire génère un courant entrant transitoire essentiellement sodique accompagné pour certains types d'ASICs d'une phase soutenue. Les ASICs sont exprimés dans le système nerveux, central (SNC) et périphérique (SNP). On leur attribue un rôle dans l'apprentissage, la mémoire et l'ischémie cérébrale au niveau central ainsi que dans la nociception (douleur aiguë et inflammatoire) et la méchanotransduction au niveau périphérique. Toutefois, les données sont parfois contradictoires. Certaines études suggèrent qu'ils sont des senseurs primordiaux impliqués dans la détection de l'acidification et la douleur. D'autres études suggèrent plutôt qu'ils ont un rôle modulateur inhibiteur dans la douleur. De plus, le fait que leur activation génère majoritairement un courant transitoire alors que les fibres nerveuses impliquées dans la douleur répondent à un stimulus nocif avec une adaptation lente suggère que leurs propriétés doivent être modulés par des molécules endogènes. Dans une première partie de ma thèse, nous avons abordé la question de l'expression fonctionnelle des ASICs dans les neurones sensoriels primaires afférents du rat adulte pour clarifier le rôle des ASICs dans les neurones sensoriels. Nous avons caractérisé leurs propriétés biophysiques et pharmacologiques par la technique du patch-clamp en configuration « whole-cell ». Nous avons pu démontrer que près de 60% des neurones sensoriels de petit diamètre expriment des courants ASICs. Nous avons mis en évidence trois types de courant ASIC dans ces neurones. Les types 1 et 3 ont des propriétés compatibles avec un rôle de senseur du pH alors que le type 2 est majoritairement activé par des pH inférieurs à pH6. Le type 1 est médié par des homomers de la sous-unité ASIC1 a qui sont perméables aux Ca2+. Nous avons étudié leur co-expression avec des marqueurs des nocicepteurs ainsi que la possibilité d'induire une activité neuronale suite à une acidification qui soit dépendante des ASICs. Le but était d'associer un type de courant ASIC avec une fonction potentielle dans les neurones sensoriels. Une majorité des neurones exprimant les courants ASIC co-expriment des marqueurs des nocicepteurs. Toutefois, une plus grande proportion des neurones exprimant le type 1 n'est pas associée à la nociception par rapport aux types 2 et 3. Nous avons montré qu'il est possible d'induire des potentiels d'actions suite à une acidification. La probabilité d'induction est proportionnelle à la densité des courants ASIC et à l'acidité de la stimulation. Puis, nous avons utilisé cette classification comme un outil pour appréhender les potentielles modulations fonctionnelles des ASICs dans un model de neuropathie (spared nerve injury). Cette approche fut complétée par des expériences de «quantitative RT-PCR ». En situation de neuropathie, les courants ASIC sont dramatiquement changés au niveau de leur expression fonctionnelle et transcriptionnelle dans les neurones lésés ainsi que non-lésés. Dans une deuxième partie de ma thèse, suite au test de différentes substances sécrétées lors de l'inflammation et l'ischémie sur les propriétés des ASICs, nous avons caractérisé en détail la modulation des propriétés des courants ASICs notamment ASIC1 par les sérines protéases dans des systèmes d'expression recombinants ainsi que dans des neurones d'hippocampe. Nous avons montré que l'exposition aux sérine-protéases décale la dépendance au pH de l'activation ainsi que la « steady-state inactivation »des ASICs -1a et -1b vers des valeurs plus acidiques. Ainsi, l'exposition aux serine protéases conduit à une diminution du courant quand l'acidification a lieu à partir d'un pH7.4 et conduit à une augmentation du courant quand l'acidification alleu à partir d'un pH7. Nous avons aussi montré que cette régulation a lieu des les neurones d'hippocampe. Nos résultats dans les neurones sensoriels suggèrent que certains courants ASICs sont impliqués dans la transduction de l'acidification et de la douleur ainsi que dans une des phases du processus conduisant à la neuropathie. Une partie des courants de type 1 perméables au Ca 2+ peuvent être impliqués dans la neurosécrétion. La modulation par les sérines protéases pourrait expliquer qu'en situation d'acidose les canaux ASICs soient toujours activables. Résumé grand publique Les neurones sont les principales cellules du système nerveux. Le système nerveux est formé par le système nerveux central - principalement le cerveau, le cervelet et la moelle épinière - et le système nerveux périphérique -principalement les nerfs et les neurones sensoriels. Grâce à leur nombreux "bras" (les neurites), les neurones sont connectés entre eux, formant un véritable réseau de communication qui s'étend dans tout le corps. L'information se propage sous forme d'un phénomène électrique, l'influx nerveux (ou potentiels d'actions). A la base des phénomènes électriques dans les neurones il y a ce que l'on appelle les canaux ioniques. Un canal ionique est une sorte de tunnel qui traverse l'enveloppe qui entoure les cellules (la membrane) et par lequel passent les ions. La plupart de ces canaux sont normalement fermés et nécessitent d'être activés pour s'ouvrire et générer un influx nerveux. Les canaux ASICs sont activés par l'acidification et sont exprimés dans tout le système nerveux. Cette acidification a lieu notamment lors d'une attaque cérébrale (ischémie cérébrale) ou lors de l'inflammation. Les expériences sur les animaux ont montré que les canaux ASICs avaient entre autre un rôle dans la mort des neurones lors d'une attaque cérébrale et dans la douleur inflammatoire. Lors de ma thèse je me suis intéressé au rôle des ASICs dans la douleur et à l'influence des substances produites pendant l'inflammation sur leur activation par l'acidification. J'ai ainsi pu montrer chez le rat que la majorité des neurones sensoriels impliqués dans la douleur ont des canaux ASICs et que l'activation de ces canaux induit des potentiels d'action. Nous avons opéré des rats pour qu'ils présentent les symptômes d'une maladie chronique appelée neuropathie. La neuropathie se caractérise par une plus grande sensibilité à la douleur. Les rats neuropathiques présentent des changements de leurs canaux ASICs suggérant que ces canaux ont une peut-être un rôle dans la genèse ou les symptômes de cette maladie. J'ai aussi montré in vitro qu'un type d'enryme produit lors de l'inflammation et l'ischémie change les propriétés des ASICs. Ces résultats confirment un rôle des ASICs dans la douleur suggérant notamment un rôle jusque là encore non étudié dans la douleur neuropathique. De plus, ces résultats mettent en évidence une régulation des ASICs qui pourrait être importante si elle se confirmait in vivo de part les différents rôles des ASICs. Abstract Acid-sensing ion channels (ASICs) are members of the ENaC/Degenerin superfamily of ion channels. Their activation by a rapid extracellular acidification generates a transient and for some ASIC types also a sustained current mainly mediated by Na+. ASICs are expressed in the central (CNS) and in the peripheral (PNS) nervous system. In the CNS, ASICs have a putative role in learning, memory and in neuronal death after cerebral ischemia. In the PNS, ASICs have a putative role in nociception (acute and inflammatory pain) and in mechanotransduction. However, studies on ASIC function are somewhat controversial. Some studies suggest a crucial role of ASICs in transduction of acidification and in pain whereas other studies suggest rather a modulatory inhibitory role of ASICs in pain. Moreover, the basic property of ASICs, that they are activated only transiently is irreconcilable with the well-known property of nociception that the firing of nociceptive fibers demonstrated very little adaptation. Endogenous molecules may exist that can modulate ASIC properties. In a first part of my thesis, we addressed the question of the functional expression of ASICs in adult rat dorsal root ganglion (DRG) neurons. Our goal was to elucidate ASIC roles in DRG neurons. We characterized biophysical and pharmacological properties of ASIC currents using the patch-clamp technique in the whole-cell configuration. We observed that around 60% of small-diameter sensory neurons express ASICs currents. We described in these neurons three ASIC current types. Types 1 and 3 have properties compatible with a role of pH-sensor whereas type 2 is mainly activated by pH lower than pH6. Type 1 is mediated by ASIC1a homomultimers which are permeable to Ca 2+. We studied ASIC co-expression with nociceptor markers. The goal was to associate an ASIC current type with a potential function in sensory neurons. Most neurons expressing ASIC currents co-expressed nociceptor markers. However, a higher proportion of the neurons expressing type 1 was not associated with nociception compared to type 2 and -3. We completed this approach with current-clamp measurements of acidification-induced action potentials (APs). We showed that activation of ASICs in small-diameter neurons can induce APs. The probability of AP induction is positively correlated with the ASIC current density and the acidity of stimulation. Then, we used this classification as a tool to characterize the potential functional modulation of ASICs in the spared nerve injury model of neuropathy. This approach was completed by quantitative RT-PCR experiments. ASICs current expression was dramatically changed at the functional and transcriptional level in injured and non-injured small-diameter DRG neurons. In a second part of my thesis, following an initial screening of the effect of various substances secreted during inflammation and ischemia on ASIC current properties, we characterized in detail the modulation of ASICs, in particular of ASIC1 by serine proteases in a recombinant expression system as well as in hippocampal neurons. We showed that protease exposure shifts the pH dependence of ASIC1 activation and steady-state inactivation to more acidic pH. As a consequence, protease exposure leads to a decrease in the current response if ASIC1 is activated by a pH drop from pH 7.4. If, however, acidification occurs from a basal pH of 7, protease-exposed ASIC1a shows higher activity than untreated ASIC1a. We provided evidence that this bi-directional regulation of ASIC1a function also occurs in hippocampal neurons. Our results in DRG neurons suggest that some ASIC currents are involved in the transduction of peripheral acidification and pain. Furthermore, ASICs may participate to the processes leading to neuropathy. Some Ca 2+-permeable type 1 currents may be involved in neurosecretion. ASIC modulation by serine proteases may be physiologically relevant, allowing ASIC activation under sustained slightly acidic conditions.
Resumo:
Résumé sous forme de thèses 1. La présente thèse de doctorat traite de la problématique des licences obligatoires en droit communautaire de la concurrence. Plus précisément, il s'agit d'examiner si et sous quelles conditions le refus de licencier un droit de propriété intellectuelle par une entreprise peut constituer un abus d'une position dominante selon l'article 82 du Traité CE. L'étude fait notamment référence aux marchés de haute technologie et ici à la décision Microsoft, qui a été publiée par la Commission européenne en mars 2004 et qui porte, dans sa deuxième partie, sur la possibilité de rendre interopérables différents composants, via des informations appelées interfaces. 2. La question d'une licence obligatoire ne se pose que si l'information recherchée est protégée par un droit de propriété intellectuelle et si cette information ne peut être obtenue par d'autres moyens. C'est pourquoi la première partie de l'étude examine deux sujets importants concernant l'interopérabilité: d'une part la méthode de décompilation permet-elle d'obtenir des interfaces de logiciel, d'autre part, les interfaces sont-elles protégées par le droit d'auteur. 3. En ce qui concerne la décompilation des programmes d'ordinateur, l'étude démontre que cette méthode ne permet pas de rendre interopérables différents programmes d'ordinateur de manière efficace. Le droit européen a légalisé cette méthode, après des débats publics très vifs, par l'article 6 de la directive concernant la protection juridique des programmes d'ordinateur (91/250/CEE). Il semble néanmoins que la lutte pour un tel droit de décompilation a été vaine :Tout d'abord, l'article 6 est rédigé d'une façon très complexe et autorise une décompilation seulement selon des conditions très restrictives. En plus, la décompilation en elle-même est un travail très complexe qui peut durer des années et qui ne garantit pas de trouver les informations recherchées. 4. En outre, une réglementation de décompilation n'existe jusqu'à présent que dans le domaine du droit d'auteur, tandis qu'une règlementation pour la protection juridique des brevets fait défaut. La question concernant la protection juridique des brevets pour les inventions mises en rouvre par ordinateur restera aussi dans le futur sans réponse, étant donné que le Parlement européen a rejeté une telle proposition de directive en juillet 2005. Ceci est regrettable, parce que la proposition de directive prévoyait explicitement un droit de décompilation. La Commission européenne projette, cependant, de réexaminer les dispositions de décompilation relatives au droit d'auteur. Dans ce contexte, il devrait notamment être examiné si les dispositions de décompilation de l'article 6 de la directive des programmes d'ordinateur sont satisfaisantes afin de garantir une (certaine) interopérabilité. 5. Un réexamen de la directive concernant la protection juridique des programmes d'ordinateur pourrait aussi servir à clarifier l'existence et l'étendue de la protection d'interfaces. L'article 1, paragraphe 2, 2ième phrase se réfère dans ce contexte uniquement à un principe reconnu en droit international du droit d'auteur, dénommé «dichotomie d'idée/d'expression» : seul l'expression individuelle est protégée, mais pas l'idée en tant que telle. La rédaction de l'article devrait ainsi préciser qu'une spécification d'une interface constitue toujours une idée, qui ne peut pas être protégée, alors que l'implémentation de l'interface dans un programme d'ordinateur représente son expression et devrait ainsi bénéficier d'une protection selon le droit d'auteur. Or, dans la plupart des cas, la spécification d'une interface est suffisante pour rendre interopérables différents programmes d'ordinateur. 6. La Commission dans sa décision Microsoft a pourtant supposé que les interfaces recherchées par les concurrents de Microsoft pouvaient être protégées par des droits de propriété intellectuelle. En effet, le seul moyen à disposition pour ceux qui veulent rendre interopérables leur programme d'ordinateur et avec celui d'une entreprise dominante est le recours à l'article 82 CE. Ici, la question qui se pose est celle de savoir si le refus de fournir des interfaces constitue un abus d'une position dominante et donc mène à l'octroi d'une licence obligatoire. 7. Dans le contexte des licences obligatoires selon l'article 82 CE, il est courant d'invoquer la relation de conflit entre la propriété intellectuelle et le droit de la concurrence. Or, l'étude démontre que ces deux institutions de droit poursuivent le même but, à savoir l'encouragement au bien-être des consommateurs en stimulant l'innovation. Les objectifs convergent notamment si on définit la concurrence plutôt en tant que concept dynamique. Par conséquent, des restrictions temporaires à la concurrence peuvent être acceptées, si ceci mène à la création de la concurrence à long terme. Pourtant, des conflits potentiels persistent, étant donné qu'on ne peut pas argumenter que chaque restriction à la concurrence effectuée par le titulaire d'un droit de propriété intellectuelle mène à l'incitation de l'innovation à long terme. 8. En réfutant ce dernier argument, l'étude démontre que les droits de propriété intellectuelle ne peuvent pas être généralement exemptés de l'application du droit de la concurrence. Notamment, selon l'état actuel de la jurisprudence, il ne peut être soutenu qu'il existe un noyau dur spécifique du droit de la propriété intellectuelle, qui ne devrait pas être affecté par le droit de la concurrence. L'ordonnance d'une licence obligatoire peut être justifiée sur la base de l'article 82 CE, dans la mesure où la balance d'intérêts démontre un effet positif au bien-être des consommateurs résultant d'une telle licence. En même temps, les droits individuels du propriétaire d'un droit de propriété intellectuelle sont à respecter, surtout la liberté contractuelle et la protection de la propriété. 9. Le droit de la liberté contractuelle et le droit de la propriété sont atteints, si le propriétaire d'un droit, de nature matérielle ou immatérielle, n'a exercé son droit de propriété que pour lui-même, exclusivement, sans jamais avoir démontré la volonté de s'acquitter de ses droits. C'est donc surtout pour protéger ces deux principes de droit que la présente étude fait une distinction majeure entre le refus de contracter et la rupture d'une relation contractuelle. 10. Le premier cas est traité de manière détaillée sous le chapitre de la doctrine des facilités essentielles (EFD). Selon la position prise ici, cette constellation est caractérisée par l'obligation du propriétaire de contracter et ainsi d'établir des relations d'affaires avec ses concurrents. Or, un principe selon lequel les entreprises en position dominante sont obligées d'encourager la concurrence, n'existe pas en droit communautaire. Il est toutefois nécessaire de pouvoir imposer une telle obligation, notamment dans les cas où la concurrence sur un marché ne peut être mise en oeuvre à long terme par un autre moyen et où cette ouverture du marché n'entraîne pas d'obstacles à l'innovation. 11. La constellation particulière des facilités essentielles exige néanmoins un contrôle plus prudent que dans les cas constituant une rupture de relation d'affaires. Cette exigence a été respectée sur base des conditions que l'arrêt Bronner a établit concernant l'essentialité d'une facilité. Même si l'établissement en question remplit toutes les conditions afin d'être qualifié d'essentiel, l'ordonnance d'un accès obligé doit encore passer l'examen d'une balance d'intérêts. Celle-ci mène encore plus rarement à l'octroi d'une licence dans les cas où la facilité est protégée par un droit de propriété intellectuelle. Des exceptions à cette règle existent si le droit de la propriété intellectuelle n'a pas été obtenu par des moyens basés sur le mérite ou si la fonction d'incitation à l'innovation est en doute. 12. L'affaire IMS Health présente un tel cas exceptionnel. La structure recherchée par les concurrents de IMS remplissait, au moment de l'examen de l'affaire par la Commission européenne, tous les critères d'un standard de facto. En outre, au moment du développement de la structure, celle-ci ne bénéficiait pas d'une protection de droit immatérielle. Une telle protection ne lui a été accordée que depuis la transposition de la directive concernant la protection juridique des bases de données en droit d'auteur allemand. Par conséquent, IMS ne pouvait avoir entrepris des investissements dans la construction de la structure, afin de profiter ultérieurement de la protection du droit d'auteur. Ceci affaiblit la présomption selon laquelle l'utilisation exclusive du droit aurait dû être préservée afin de ne pas faire obstacle à l'innovation. 13. Le cas européen de Microsoft se distingue de cette constellation. Les conditions qui ont mené à la décision de la Commission européenne quant à l'attribution d'interopérabilité et ainsi à une licence obligatoire d'interfaces, ont été présenté de manière détaillée dans cette étude. Elles fournissent les meilleures preuves que les «circonstances exceptionnelles », qui ont été déterminantes dans l'affaire Magill de la Cour de justice, à savoir «l'empêchement de la création d'un nouveau produit », le «manque de justification objective » et «l'empêchement de toute concurrence sur un marché en aval distinct », ne peuvent constituer une énumération exhaustive pour l'ordonnance d'une licence obligatoire. 14. En effet, dans l'affaire Microsoft, l'intersection progressive d'interopérabilité entre les systèmes d'exploitation étrangers à Microsoft et des systèmes d'exploitation de Microsoft n'a pas empêché la création de nouveaux produits. Le marché en question, celui des systèmes d'exploitation pour serveur de groupe de travail, avait été créé par l'entreprise Novell. Par conséquent, quand Microsoft a accédé à ce marché, d'autres entreprises en situation d'offre s'y trouvaient déjà avec leurs produits. Il s'en suit que, en 'exigeant de Microsoft des interfaces correspondantes, il s'agissait d'assurer l'interopérabilité avec les produits de Microsoft, et surtout avec l'omniprésent système d'exploitation pour ordinateur PC, afin de maintenir des produits déjà existants sur le marché, et notamment des produits «pionniers »qui avaient pris le risque d'exploiter le marché des systèmes d'exploitation pour serveur de groupe de travail. 15. Une autre circonstance exceptionnelle que celle d'un nouveau produit empêché donne l'impulsion à la thèse qu'une intersection progressive aux interfaces de Microsoft constitue un abus d'une position dominante selon l'article 82 CE : celle du transfert du pouvoir de marché. L'intégration verticale d'une entreprise en position dominante sur un marché qui n'a jusqu'à ce jour été que fourni par celle-ci, et qui rompt des relations contractuelles avec des entreprises agissant sur ce marché, afin d'évincer de la concurrence, constitue un cas de type connu de l'abus, reconnue pour la première fois dans l'arrêt Commercial Solvents de la CJCE: L'entreprise en position dominante utilise son pouvoir sur un marché initial et stratégiquement important et se sert ainsi des avantages, qui ne peuvent être conciliés avec le concept de concurrence par le mérite. 16. Il doit être de même si le bien en question bénéficie d'un droit immatériel, et qu'il s'agit ainsi d'un arrêt d'une licence. En effet, les fonctions, en principe supposées, d'incitation et de mérite, perdent de leur importance si le bien en question a déjà fait objet d'une licence: Il ne peut pas alors être argumenté que le propriétaire d'un droit immatériel doit l'utiliser exclusivement lui-même, afin de profiter des fruits de son mérite. Cet argument particulier de la prise en compte de l'effet d'incitation et de mérite perd d'autant plus de sa pertinence, si l'entreprise en cause ne fournit pas sur le marché dérivé une innovation, mais ne sert juste qu'à vendre un produit déjà préexistant. 17. Dans le domaine de licence de propriété intellectuelle obligatoire selon l'article 82 CE, les juridictions européennes n'ont jusqu'à présent uniquement eu à décider sur des constellations de cas, dans lesquelles le droit n'avait pas été l'objet d'une licence antérieure. Avec le cas Microsoft, le Tribunal de Première Instance a maintenant la possibilité de décider d'une distinction importante à faire en droit de la concurrence entre, d'une part, les cas dans lesquels un droit de propriété intellectuelle n'a pas encore été l'objet d'une licence et de l'autre, ceux dans lesquels il s'agit d'une rupture de licence.
Resumo:
Résumé I. Introduction La présente étude analyse les conflits entre les autorités nationales de concurrence dans le cas de figure où plusieurs autorités examinent en même temps la convergence d'une opération de concentration avec leur droit de concentration respectif. Tandis que le débat concernant le contrôle parallèle des opérations de concentration internationales est aujourd'hui extrêmement vif, la recherche fondamentale sur ce sujet n'a pas encore beaucoup avancé. Cependant il y a un besoin de réforme évident, un besoin au centre duquel se situe une réflexion sur l'organisation du droit de concurrence international. Le but de cette étude est donc de fournir une vue d'ensemble des conflits possibles entre les autorités nationales de concurrence en matière politique, économique et juridique (matérielle et procédurale) causés par une opération de concentration internationale. L'objectif n'est pas de fournir une évaluation des différents systèmes de contrôle de concentration, mais plutôt de chercher la source des conflits. Par ailleurs, l'analyse qui suit insistera sur la nécessité d'une solution internationale de ces conflits. II. Arrière-plan Depuis plusieurs décennies, les relations économiques internationales entre les Etats et les entreprises ont été profondément marquées par un processus dynamique de globalisation et de libéralisation. La libéralisation a engendré une croissance énorme du commerce mondial. En conséquence, les entreprises ont développé des stratégies globales pour arriver à une croissance durable. Ainsi, le nombre et la taille des entreprises internationales a constamment augmenté. À cause de cette présence globale des entreprises, les anciens marchés nationaux ou régionaux sont devenus des marchés globaux. Dans le cadre de la libéralisation économique, beaucoup d'Etats ainsi que l'Union Européenne ont reconnu que la concurrence est le moyen approprié pour faire progresser l'innovation et la croissance économique. Il faut donc maintenir et développer les structures de concurrence. Pour cela, il faut surveiller dans le cadre du droit de contrôle international toutes les pratiques concertées dont l'objet ou l'effet serait de restreindre la concurrence, ainsi que les abus d'une position dominante ou les opérations de concentration d'entreprises. Jusqu'à présent, sur environ 200 Etats souverains existants au monde, une bonne centaine ainsi que l'Union Européenne (l'UE) ont développé un droit de concurrence. Et parmi ces Etats, 75 environ ont créé un droit de contrôle de concentration. Mais ces règles nationales ne sont pas toujours appropriées au regard de l'économie mondiale. On constate plutôt que ,,l'internationalisation croissante des marchés [...] n'a pas été suivie d'une internationalisation parallèle de la politique de concurrence". Par ailleurs, un grand nombre d'Etats appliquent leur droit de concurrence également en dehors de leur propre territoire afin de contrôler les abus à l'étranger. Même si on peut comprendre ce besoin de contrôle, cette évolution risque de provoquer des conflits avec les législations des autres Etats concernés. D'autres difficultés naissent des différences théoriques ou pratiques des systèmes du droit de la concurrence ou de régulations divergentes du point de vue matériel et procédural. Même sur la base de règles comparables, des divergences apparaissent à cause de différentes méthodes d'interprétation ou d'application. La communauté internationale s'emploie à combattre toutes les barrières au commerce transnational -notamment dans le cadre de l'Organisation Mondiale du Commerce (OMC). Mais si elle néglige de lutter en même temps contre les barrières commerciales établies par les entreprises elles-mêmes, elle risque de perdre les gains d'efficacité et de bien public déjà acquis par la suppression des barrières commerciales publiques. Car certaines actions des entreprises privées, comme l'exclusion ou la répartition mutuelle du marché, peuvent aussi bien conduire à des restrictions de la concurrence que les barrières commerciales publiques, tarifaires ou non-tarifaires, et peuvent même s'y substituer. III. Plan de l'étude Après l'Introduction, la partie B traite de la coopération de l'Union Européenne avec les Etats-Unis en matière du droit de la concurrence. En effet, les accords bilatéraux entre l'UE et les Etats-Unis montrent les possibilités et les limites d'une telle coopération. Les conflits entre les autorités de concurrence résultent de la mondialisation croissante et de l'intensification de la concurrence qui en découle. Aussi, ces conflits ne sont pas seulement d'ordre théorique mais également d'une grande importance pratique comme le montre l'analyse des deux cas dans la partie C. Les autorités de concurrence des Etats-Unis et de l'Union Européenne ont chacun de leur côté examiné la fusion des entreprises Boeing Corporation et McDonnell Douglas Corporation (MDD), ainsi que le projet de fusion entre Honeywell International Inc. (Honeywell) et General Electric Co. (GE). Or, ces deux procédures sont paradigmatiques en ce qui concerne la sensibilité politique des autorités de concurrence et les limites de la coopération bilatérale. Après ces analyse de cas, la partie D qui compare le droit de contrôle de concentration aux Etats-Unis et en Europe et examine les conflits éventuels entre les deux systèmes constitue la partie principale de l'étude. Les sources de ces conflits peuvent être aussi bien trouvées dans le droit matériel que dans le droit procédural, tout comme dans les différences d'orientation politique générale des deux systèmes. La partie E montre les différentes solutions qui ont été proposées dans ce cadre. Ensuite, ces propositions sont comparées avec celles concernant l'harmonisation des politiques de concurrence et de contrôle de concentrations. Sur la base de ces résultats, une proposition de solution montrant les premiers pas nécessaires pour résoudre les conflits existants entre les autorités de concurrence est présentée. IV. Résumé des conflits L'étude aboutit à la constatation que presque tous les aspects du contrôle des concentrations constituent un important potentiel de conflits. Celui-ci est d'ailleurs bien plus important que l'on ne pourrait penser au w des lois applicables. La complexité du droit de la concurrence provoque nécessairement des conflits. Mais il faut également tenir compte des différences fondamentales concernant les objectifs politiques des Etats, les formes d'institutionnalisation des autorités de concurrence et la prise en considération des pays en développement ou des pays émergents. Les différences purement juridiques accroissent le potentiel de conflits entre les Etats et empêchent une intensification de la coopération. Cela est notamment vrai pour la définition de la concentration, l'application extraterritoriale du droit national, la notification obligatoire et ses seuils fixés. Concernant le droit matériel, les conflits se situent dans les domaines de la délimitation du marché, le critère d'incompabilité, l'analyse économique, la prise en compte des gains d'efficacité, l'importance de la concentration de sauvetage ainsi que de l'application du principe de ,,comity of nations". Du point de we du droit procédural, les différences d'inscription obligatoire et d'interdiction partielle de l'accomplissement consécutif donnent autant également lieu à des conflits potentiels que les différences de méthode d'investigation et d'exécution des décisions publiques. Il en va de même pour les différents remèdes ou les sanctions prévues pour le mépris des décisions des autorités ou des tribunaux et la position des parties tierces dans la procédure est également un facteur de conflit. Enfin, il faut mentionner le manque de transparence qui nuit à la sécurité juridique. L'application arbitraire du droit, le protectionnisme, le mercantilisme ainsi que le manque de sécurité juridique augmentent le danger de conflits interétatiques. La coopération entre les Etats-Unis et l'Union Européenne sur la base de l'accord de 1991 n'a pas vraiment réduit ce potentiel de conflits. Cela s'est notamment avéré au moment des projets de fusion entre GE et Honeywell et de la reprise de MDD par Boeing. V. Les possibilités d'harmonisation Aussi bien la nécessité que la faisabilité d'une harmonisation globale du droit de la concurrence et d'une politique de la concurrence sont encore très discutés. La plupart des débats tournent plutôt autour de l'arrangement concret d'un tel droit harmonisé que de l'objectif général d'une harmonisation. Quelques Etats comme les Etats-Unis redoutent une trop grande perte de souveraineté et veulent par conséquent maintenir leur méthode unilatérale et extraterritoriale. Cependant, la plupart des experts des organisations internationales comme ceux des autorités de concurrence et du public intéressé approuvent l'idée d'un droit de concurrence international. Etant donné la gravité de certains conflits, de nombreux Etats et un grand nombre de juristes perçoivent la nécessité de développer la conscience d'une indispensable harmonisation, et un accord sur ce plan semble parfaitement possible. Parmi ceux qui soutiennent cet accord l'on trouve presque tous les Etats membres de l'Organisation de coopération et de développement économiques (l'OCDE), de nombreux Etats membres de l'OMC, de l'Organisations des nations unies (l'ONU) et de l'Accord de libre-échange nord-américain (l'ALENA), particulièrement les Etats de l'UE, l'Australie, le Japon, le Canada, le Mexique, la Nouvelle Zélande et quelques représentants des autorités de concurrence des Etats-Unis. La méthode la plus efficace et raisonnable pour lutter contre les obstacles privés à la concurrence est la coopération et la coordination globale des mécanismes de contrôle. Les forums et les structures nécessaires pour la préparation d'une telle tâche existent déjà. Ainsi, le cadre institutionnel éprouvé de l'OMC pourra faire progresser le processus d`harmonisation. Il faudrait simplement élargir les compétences de l'OMC pour garantir un contrôle international efficace. L'harmonisation sur le plan international serait plus efficace qu'une harmonisation unilatérale ou bilatérale. La flexibilité d'un accord international pourrait être garanti par 1"insertion de cet accord dans le Mémorandum d'accords commerciaux plurilatéraux (Annexe 4) de l'OMC. Ainsi, cet accord ne serait obligatoire que pour les Etats membres qui l'auraient déjà approuvé séparément. Les autres Etats auraient la possibilité de le signer plus tard. En cas de conflits dans le cadre de l'application de cet accord, on pourrait se servir du mécanisme d'arbitrage de l'OMC. Il faudrait également créer une autorité internationale de concurrence et un comité spécial international de concurrence. Un tel accord de l'OMC ne constitue qu'un premier pas. Les exigences minimales de l'accord doivent être renforcées et régulièrement ajustées à l'évolution et aux nouvelles données de l'économie mondiale. Ainsi, le processus d'harmonisation internationale sera l'objet d'une dynamique permanente. VI. Résultats et conclusions L'étude a montré que l'application parallèle des droits nationaux de concurrence est une importante source de conflits. Elle a surtout mis l'accent sur les relations entre les Etats-Unis et l'Union Européenne. Il est d'ailleurs très probable que ce genre de conflits augmente encore dans le futur. En 2000, l'activité mondiale des fusions et acquisitions a eu un volume de 3 billions de dollars Anglo-américains. Cela équivaut à une multiplication par onze du volume de 1991. En 2001, par contre, le volume a de nouveau baissé à 1,6 billions de dollars Anglo-américains. Mais selon les pronostics, le nombre des concentrations va à nouveau augmenter considérablement dans les prochaines années. Cette vague de concentrations internationales est la conséquence de l'intensification mondiale des relations économiques transnationales. Cette évolution va se poursuivre pour autant que les barrières commerciales publiques continuent à être démantelées, que le renforcement de la dérégularisation ouvre de nouveaux marchés à la compétition, que de plus en plus de standards techniques soient harmonisés et que les transports et la communication internationale soient améliorés et moins couteux. Enfin, la consolidation de certains secteurs économiques à la suite de fusions déjà réalisées encourage de plus en plus les entreprises à fusionner sur le plan international et dans des dimensions de plus en plus grandes. Outre les conflits engendrés par les différentes législations nationales, il faut également mentionner les oppositions qui résultent d'une façon indirecte de la compétition entre les différentes autorités de contrôle. Ainsi, par exemple, les conséquences économiques et financières d'un retard dans la procédure de contrôle ou les sanctions importantes imposées aux entreprises concernées sont souvent le sujet de discussions et de conflits politiques. Dans ce cadre, il faut souligner qu'en réalité le droit de concurrence ainsi que le droit de contrôle de concentrations ne vise pas seulement une politique de concurrence mais également la politique industrielle et générale. La diversité de ces différentes visées politiques provoque nécessairement des conflits politiques. La solution présentée à la fin de ce travail voudrait proposer une application efficace du droit de contrôle de concentration sur le plan international. A la base de cette efficacité il y a aurait notamment: L'encouragement d'une politique de concurrence au sein des Etats qui n'ont pas encore développé un droit de concurrence ou qui ne l'exécutent pas d'une manière suffisante. L'encouragement de la concurrence et des concentrations positives améliorant la situation compétitive. La simplification de la coopération des autorités de concurrence. L'accélération des procédures et des décisions. La garantie de la sécurité juridique. La diminution des conflits politiques. L'encouragement d'une amélioration globale du bien public qui est à la base de toute politique commerciale. Ces objectifs ne peuvent être atteints que si le protectionnisme national est battu en brêche et si des systèmes de contrôle international sont installés. Les intérêts des Etats doivent refléter les nouvelles dimensions de l'économie globale qui ne s'arrête pas aux frontières nationales. Pour cela il leur faut accepter certaines pertes de souveraineté et tolérer certaines infractions aux règles internationales de la non-ingérence. Les intérêts nationaux doivent s'ajuster à l'économie mondiale et aux intérêts des autres Etats. Bien entendu, tant que la divergence actuelle entre les marchés internationaux et les systèmes de contrôle nationaux persiste, une amélioration de la situation est peu probable. Pour que cela soit possible, il faudrait une législation qui reflète les nouvelles dimensions de l'économie et ses effets transnationaux et qui, en même temps, augmente et assure une concurrence efficace. Une telle stratégie aiderait non seulement les autorités de concurrence et les Etats mais également tout particulièrement les consommateurs et les entreprises. Car une telle concurrence efficace engendre des entreprises plus efficaces, des produits améliorés, un choix plus grand et des prix plus bas. En fin de compte, un tel effet de bien public diminuerait aussi le risque de conflits interétatiques. Dans le cadre de la consolidation et de l'amélioration des structures juridiques du système de l'OMC, il serait essentiel que les institutions et la méthode d'arbitrage de l'OMC inspirent suffisamment confiance à la communauté internationale des Etats. Car c'est seulement sur la base d'une telle confiance et avec la volonté des Etats de faire un pas décisif en faveur d'un commerce mondial plus libre et plus loyal qu'un projet aussi ambitieux est réalisable. Il est donc essentiel que les responsables réalisent enfin les projets d'harmonisation et de coopération renforcées qu'ils ont si souvent annoncés. En tous cas, une forte ,,dynamique du processus d'harmonisation" sera nécessaire pour progresser sur le terrain de l'harmonisation internationale de la politique de la concurrence. Berlin, 17/08/2006 Florens Girardet
Resumo:
Les catastrophes sont souvent perçues comme des événements rapides et aléatoires. Si les déclencheurs peuvent être soudains, les catastrophes, elles, sont le résultat d'une accumulation des conséquences d'actions et de décisions inappropriées ainsi que du changement global. Pour modifier cette perception du risque, des outils de sensibilisation sont nécessaires. Des méthodes quantitatives ont été développées et ont permis d'identifier la distribution et les facteurs sous- jacents du risque.¦Le risque de catastrophes résulte de l'intersection entre aléas, exposition et vulnérabilité. La fréquence et l'intensité des aléas peuvent être influencées par le changement climatique ou le déclin des écosystèmes, la croissance démographique augmente l'exposition, alors que l'évolution du niveau de développement affecte la vulnérabilité. Chacune de ses composantes pouvant changer, le risque est dynamique et doit être réévalué périodiquement par les gouvernements, les assurances ou les agences de développement. Au niveau global, ces analyses sont souvent effectuées à l'aide de base de données sur les pertes enregistrées. Nos résultats montrent que celles-ci sont susceptibles d'être biaisées notamment par l'amélioration de l'accès à l'information. Elles ne sont pas exhaustives et ne donnent pas d'information sur l'exposition, l'intensité ou la vulnérabilité. Une nouvelle approche, indépendante des pertes reportées, est donc nécessaire.¦Les recherches présentées ici ont été mandatées par les Nations Unies et par des agences oeuvrant dans le développement et l'environnement (PNUD, l'UNISDR, la GTZ, le PNUE ou l'UICN). Ces organismes avaient besoin d'une évaluation quantitative sur les facteurs sous-jacents du risque, afin de sensibiliser les décideurs et pour la priorisation des projets de réduction des risques de désastres.¦La méthode est basée sur les systèmes d'information géographique, la télédétection, les bases de données et l'analyse statistique. Une importante quantité de données (1,7 Tb) et plusieurs milliers d'heures de calculs ont été nécessaires. Un modèle de risque global a été élaboré pour révéler la distribution des aléas, de l'exposition et des risques, ainsi que pour l'identification des facteurs de risque sous- jacent de plusieurs aléas (inondations, cyclones tropicaux, séismes et glissements de terrain). Deux indexes de risque multiples ont été générés pour comparer les pays. Les résultats incluent une évaluation du rôle de l'intensité de l'aléa, de l'exposition, de la pauvreté, de la gouvernance dans la configuration et les tendances du risque. Il apparaît que les facteurs de vulnérabilité changent en fonction du type d'aléa, et contrairement à l'exposition, leur poids décroît quand l'intensité augmente.¦Au niveau local, la méthode a été testée pour mettre en évidence l'influence du changement climatique et du déclin des écosystèmes sur l'aléa. Dans le nord du Pakistan, la déforestation induit une augmentation de la susceptibilité des glissements de terrain. Les recherches menées au Pérou (à base d'imagerie satellitaire et de collecte de données au sol) révèlent un retrait glaciaire rapide et donnent une évaluation du volume de glace restante ainsi que des scénarios sur l'évolution possible.¦Ces résultats ont été présentés à des publics différents, notamment en face de 160 gouvernements. Les résultats et les données générées sont accessibles en ligne (http://preview.grid.unep.ch). La méthode est flexible et facilement transposable à des échelles et problématiques différentes, offrant de bonnes perspectives pour l'adaptation à d'autres domaines de recherche.¦La caractérisation du risque au niveau global et l'identification du rôle des écosystèmes dans le risque de catastrophe est en plein développement. Ces recherches ont révélés de nombreux défis, certains ont été résolus, d'autres sont restés des limitations. Cependant, il apparaît clairement que le niveau de développement configure line grande partie des risques de catastrophes. La dynamique du risque est gouvernée principalement par le changement global.¦Disasters are often perceived as fast and random events. If the triggers may be sudden, disasters are the result of an accumulation of actions, consequences from inappropriate decisions and from global change. To modify this perception of risk, advocacy tools are needed. Quantitative methods have been developed to identify the distribution and the underlying factors of risk.¦Disaster risk is resulting from the intersection of hazards, exposure and vulnerability. The frequency and intensity of hazards can be influenced by climate change or by the decline of ecosystems. Population growth increases the exposure, while changes in the level of development affect the vulnerability. Given that each of its components may change, the risk is dynamic and should be reviewed periodically by governments, insurance companies or development agencies. At the global level, these analyses are often performed using databases on reported losses. Our results show that these are likely to be biased in particular by improvements in access to information. International losses databases are not exhaustive and do not give information on exposure, the intensity or vulnerability. A new approach, independent of reported losses, is necessary.¦The researches presented here have been mandated by the United Nations and agencies working in the development and the environment (UNDP, UNISDR, GTZ, UNEP and IUCN). These organizations needed a quantitative assessment of the underlying factors of risk, to raise awareness amongst policymakers and to prioritize disaster risk reduction projects.¦The method is based on geographic information systems, remote sensing, databases and statistical analysis. It required a large amount of data (1.7 Tb of data on both the physical environment and socio-economic parameters) and several thousand hours of processing were necessary. A comprehensive risk model was developed to reveal the distribution of hazards, exposure and risk, and to identify underlying risk factors. These were performed for several hazards (e.g. floods, tropical cyclones, earthquakes and landslides). Two different multiple risk indexes were generated to compare countries. The results include an evaluation of the role of the intensity of the hazard, exposure, poverty, governance in the pattern and trends of risk. It appears that the vulnerability factors change depending on the type of hazard, and contrary to the exposure, their weight decreases as the intensity increases.¦Locally, the method was tested to highlight the influence of climate change and the ecosystems decline on the hazard. In northern Pakistan, deforestation exacerbates the susceptibility of landslides. Researches in Peru (based on satellite imagery and ground data collection) revealed a rapid glacier retreat and give an assessment of the remaining ice volume as well as scenarios of possible evolution.¦These results were presented to different audiences, including in front of 160 governments. The results and data generated are made available online through an open source SDI (http://preview.grid.unep.ch). The method is flexible and easily transferable to different scales and issues, with good prospects for adaptation to other research areas. The risk characterization at a global level and identifying the role of ecosystems in disaster risk is booming. These researches have revealed many challenges, some were resolved, while others remained limitations. However, it is clear that the level of development, and more over, unsustainable development, configures a large part of disaster risk and that the dynamics of risk is primarily governed by global change.
Resumo:
Crystallisation of hydrous mafic magmas at high pressure is a subject of numerous petrologic and experimental studies since the last century and is mainly related to the process of continental crust formation and the possible link between mantle derived melts and low pressure granitoids. Albeit the sequence of crystallization is well constrained by experimental studies, the origin of exposed lower crustal rocks exposed on the earth surface is controversial. Ones line of argument is favouring high pressure crystallization of dry or wet mafic magmas, whereas others invoke partial melting of pre-existing crust. Therefore studies involving field, textural and chemical observations of exposed lower crust such as in Kohistan (Pakistan) or Talkeetna (Alaska) are crucial to understand the continental crust formation processes via arc magmatism. Epidote-bearing gabbros are very sparse and always associated with the deep part of continental crust (>30 km) as in the Kohistan Arc Complex (Pakistan) or in the Chelan Complex (western U.S.). Magmatic epidote is restricted to a small temperature interval above the water-saturated solidus of MORB and represent the last crystallizing liquids in lower crustal regions. However, epidote and melt stability at lower crustal pressures are not clearly established.¦The Chelan complex (western U.S.) at the base of the Cascadian Arc is composed mainly by peraluminous tonalité associated with gabbroic and ultramafic rocks and was traditionally interpreted as a migmatitic terrain. However field, chemical and mineralogical observations rather suggest a magmatic origin and point to a protracted crystallization at intermediate to high pressure ~ 1.0 GPa dominated by amphibole fractionation and followed by isobaric cooling down to 650°C. Crystal fractionation modelling using whole rock composition and field constraints is able to generate peraluminous tonalité. The modelled crystallisation sequence and the volume proportions are in agreement with experimental studies performed at these pressures. The Chelan complex was thus not formed during a partial melting event, but represent the sequence of crystallisation occurring at the base of the crust. Massive fractionation of hornblende is able to generate peraluminous tonalité without significant assimilation of crustal rock.¦Similarly to the Chelan complex, the base of the Kohistan arc is composed of cumulates derived by high pressure crystallization of hydrous magma. In garnet gabbros, epidote occurs as magmatic phase, crystallising from hydrous interstitial melt trapped between grain boundaries at lower crustal pressures (Ρ ~ 1.2 GPa) for temperature of (650-700 °C). Trace and REE signature in epidote indicate that epidote was formed through peritectic reaction involving garnet, clinopyroxene and plagioclase. At the beginning of the crystallisation epidote signature is dominated by REE content in the melt, whereas at the end the signature is dominated by reacting phases. Melt in equilibrium with epidote inferred from the partition coefficients available is similar to intrusive tonalité up the section indicating that hydrous melt was extracted from the garnet gabbros. In some gabbros epidote shows single homogeneous compositions, while in others coexisting epidote have different compositions indicating the presence of solvi along the Al-Fe3+ join. The overgowths are only observed in presence of paragonite in the assemblage, suggesting high water content. At high water content, the hydrous solidus is shift to lower temperature and probably intersects the solvi observed along the Al-Fe3+ join. Therefore, several compositions of epidote is stable at high water content.¦-¦La composition chimique de la croûte continentale est considérée comme similaire à celle du magmatisme calco-alcalin de marge continentale active (enrichissement en éléments mobiles dans les fluides, anomalies négatives en Nb, Ta et éléments à haut potentiel électronique, etc...). Cependant la nature andésitique de la croûte continentale (Si02 > 60 wt%), résultant des nombreuses intrusions de granitoïdes dans la croûte supérieure, est sujette à polémique et le lien entre les magmas dérivés du manteau et les roches évoluées de faible profondeur n'est pas clairement établi (fusion partielle de croûte basaltique, cristallisation fractionnée à haute pression, etc...).¦Les affleurements de croûte profonde sont rares mais précieux, car ils permettent d'observer les phénomènes se passant à grande profondeur. Le complexe de Chelan (Washington Cascades) en est un exemple. Formé à environ 30 km de profondeur, il est composé de roches gabbroïques et ultramafiques, ainsi que de tonalités, qui furent souvent interprétés comme le produit de la fusion partielle de la croûte. Cependant, les relations de terrain, la chimie des éléments majeurs et des éléments traces sont cohérentes avec l'évolution d'un complexe magmatique mafique dans la croûte profonde ou moyenne ( 1.0 GPa), dominée par le fractionnement de l'amphibole. Après son emplacement, le complexe a subi un refroidissement isobare jusqu'à des températures de l'ordre de 650 °C, déduit de la composition chimique des minéraux. Un bilan de masse contraint pax les observations de terrain permet de calculer la séquence et les volumes de fractionnement. Les faciès évolués légèrement hyperalumineux observés sur le terrain peuvent être générés par la cristallisation de 3 % de websterite à olivine, 12 % d'hornblendite à pyroxène 33 % d'hornblendite, 19 % de gabbros, 15 % de diorite et 2 % de tonalité. Nous montrons ainsi qu'une série de fractionnement contrôlée par l'amphibole permet de générer des tonalités sans assimilation de matériel crustal et l'exemple de Chelan illustre la viabilité de ce processus dans la formation de croûte continentale.¦Les réactions proches du solidus saturé en H20 dans les systèmes basaltiques à des pressions élevées restent énigmatiques. Diverses expériences tendent à montrer que l'épidote est stable dans ces conditions, mais rarement observée (décrite ?) comme phase primaire dans les systèmes naturels. Les épidotes trouvées dans les gabbros de Jijal (nord-Pakistan) montrent des textures de type .magmatique telles qu'observées dans les roches évoluées. Le contenu en terres rares de ces épidotes est très variable allant de signatures enrichies en terres rares légères impliquant la présence de liquide interstitiel à des signatures complètement déprimées en ces mêmes éléments, évoquant une cristallisation en coexistence avec du grenat. Ces diverses signatures reflètent un chemin de cristallisation en présence de liquide interstitiel et enregistrent des réactions péritectiques impliquant grenat, clinopyroxene et plagioclase à des pressions de ~ 1.2 GPa pour des températures de 650-700 °C. Cependant dans quelques échantillons deux ou trois compositions d'épidotes coexistent démontrant la présence de lacunes d'immiscibilité le long de la solution solide épidote-clinozoïsite. La forte teneur en H20 du liquide magmatique est certainement à l'origine de la coexistence de deux compositions distinctes.
Resumo:
La luxation d'une prothèse totale de la hanche est une complication majeure en termes de morbidité pour le patient et des coûts pour le système de santé. Cette complication est retrouvée entre 2 à 3% selon les séries (1-3) pour des prothèses primaires, et beaucoup plus élevée suite à des révisions. Pour remédier à ce problème, des systèmes de prothèses contraintes sont une option, cependant associés à des descellements fréquents entre 10 à 26 % selon les séries (4-6). Ces échecs étant en partie expliqués par une usure rapide des surfaces de frottements due aux fortes contraintes, mais également par les contraintes cupule-os occasionnant des descellements mécaniques (7). Par conséquent, pour augmenter la stabilité, tout en évitant les contraintes sur le couple de frottement, Bousquet développe, en 1976, une prothèse totale de hanche « à double mobilité ». Ce système consiste à combiner deux articulations apparentes, premièrement une tête métallique dans un insert de polyéthylène, articulé lui- même dans la concavité d'une cupule métallique fixée au bassin. En tant que tel, ce système biomécanique réduirait en théorie le risque de luxation. Dès lors, on aperçoit depuis environ 15 ans une augmentation progressive de l'utilisation de ce type d'implants que ce soit comme implant primaire ou secondaire, chez des patients jeunes ou âgés. Cependant, des études in vitro, ont montré que des grandes surfaces de friction sont associées à une augmentation de l'usure du polyéthylène (8). En revanche, les données sur la cinématique et l'usure, in vivo, de ce type d'implant étaient jusqu'alors limitées. Depuis quelques années, un certain nombre d'études cliniques avec un follow up significatif ont été publiées. CONCLUSIONS ET PERSPECTIVES FUTURES La prothèse totale de hanche à double mobilité, développée par Bousquet dans les années 1970, est un concept novateur dans l'arthroplastie totale de hanche. Depuis sa première conception, de nombreuses améliorations ont été adoptées. Cependant, ses effets à long terme sur la survie de l'implant doivent encore être effectué. Certes, des études ont montré un net effet sur la réduction du taux de luxation des prothèses primaires, lors de révision ou après résection tumorale. Toutefois, compte tenu des données limitées à long terme sur le taux d'usure et le descellement aseptique, il convient d'utiliser ce type d'implant avec prudence, en particulier lors d'arthroplastie primaire chez des patients jeunes.
Resumo:
L’objectiu d’aquest projecte és desenvolupar una aplicació per a mòbils Android que permeti visualitzar missatges curts en un monitor d’ordinador o TV. Els missatges es gestionaran a partir d’una aplicació de mòbil que inclourà la generació, gestió i transmissió dels missatges al monitor
Resumo:
(Résumé de l'ouvrage) Qu'est-ce qui justifie l'emploi de rituels dans de nombreuses civilisations, anciennes ou contemporaines ? Sur quoi repose l'efficacité des rites ? Pour répondre à ces questions, ce livre propose une approche transdisciplinaire novatrice, qui rompt avec le cloisonnement en champs scientifiques étanches prévalant trop souvent dans l'exploration des pratiques rituelles. La réflexion autour des frontières et interactions entre les sphères socioculturelle, psychique et physiologique fait ressortir le caractère plastique et dynamique de celles-ci. Il s'agit notamment de souligner l'importance, dans de nombreuses cultures et à des épo-ques différentes, de techniques ou « orthopratiques » corporelles, psychologiques et sociales utilisées en vue de résultats pratiques spécifiques. Par ailleurs, les discours et les « représentations » propres aux systèmes institutionnels (science, médecine, philosophie, théologie) sur lesquels repose notre culture moderne se révèlent à même d'effectuer la « construction-réalisation » des objets mêmes qu'ils prétendent décrire. Ainsi, tant les « orthopratiques » appliquées, traitées dans la première partie du volume, que les pratiques émanant de nos systèmes institutionnels, traitées dans la seconde partie, tendent vers des objectifs transformationnels et opératoires. Alors que les unes opèrent dans un cadre magico-religieux, thérapeutique ou pédagogique, les autres se situent dans le contexte de la modernité. Mais elles se rejoignent en une dynamique dont les contribu-tions réunies ici viennent éclairer la nature et l'homme aux niveaux organique, psychique et historico-social. Ce qui revient, du même coup, à relancer l'interrogation philosophique qui porte sur la notion même de « réalité ».