514 resultados para Méthode de recherche Parse


Relevância:

20.00% 20.00%

Publicador:

Resumo:

RAPPORT DE SYNTHÈSE : Contexte Les programmes de prévention cardiovasculaire secondaire après un événement coronarien aigu ont pu démontrer leur efficacité dans le contexte des soins ambulatoires. L'hospitalisation pour une maladie aiguë peut être considérée comme un «instant charnière», particulièrement adapté à un changement de comportement de santé et où des interventions de prévention secondaire, telle l'éducation du patient, pourraient être particulièrement efficaces. De plus, la prescription de médicaments de prévention cardiovasculaire durant l'hospitalisation semble augmenter la proportion des patients traités selon les recommandations sur le long terme. Récemment, plusieurs études ont évalué l'efficacité de programmes de prévention ayant pour but l'éducation des patients et/ou une augmentation du taux de prescription de médicaments prouvés efficaces par les médecins en charge. L'article faisant l'objet du travail de thèse synthétise la littérature existante concernant l'efficacité en termes de mortalité des interventions multidimensionnelles de prévention cardiovasculaire après un syndrome coronarien aigu, débutées à l'hôpital, centrées sur le patient et ciblant plusieurs facteurs de risque cardiovasculaire. MÉTHODE ET RÉSULTATS : En utilisant une stratégie de recherche définie à l'avance, nous avons inclus des essais cliniques avec groupe contrôle et des études avant-après, débutées à l'hôpital et qui incluaient des résultats cliniques de suivi en terme de mortalité, de taux de réadmission et/ou de récidive de syndrome coronarien aigu. Nous avons catégorisé les études selon qu'elles ciblaient les patients (par exemple une intervention d'éducation aux patients par des infirmières), les soignants (par exemple des cours destinés aux médecins-assistants pour leur enseigner comment prodiguer des interventions éducatives) ou le système de soins (par exemple la mise en place d'itinéraires cliniques au niveau de l'institution). Globalement, les interventions rapportées dans les 14 études répondant aux critères montraient une réduction du risque relatif (RR) de mortalité après un an (RR= 0.79; 95% intervalle de confiance (IC), 0.69-0.92; n=37'585). Cependant, le bénéfice semblait dépendre du type d'étude et du niveau d'intervention. Les études avant-après suggéraient une réduction du risque de mortalité (RR, 0.77; 95% IC, 0.66-0.90; n=3680 décès), tandis que le RR était de 0.96 (95% IC, 0.64-1.44; n=99 décès) pour les études cliniques contrôlées. Seules les études avant-après et les études ciblant les soignants et le système, en plus de cibler les patients, semblaient montrer un bénéfice en termes de mortalité à une année. CONCLUSIONS ET PERSPECTIVES : Les preuves d'efficacité des interventions de prévention secondaires débutées à l'hôpital, ciblant le patient, sont prometteuses, mais pas définitives. En effet, seules les études avant-après montrent un bénéfice en termes de mortalité. Les recherches futures dans ce domaine devraient tester formellement quels éléments des interventions amènent le plus de bénéfices pour les patients.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Avant même d'entamer ma recherche de sujet pour le travail de maîtrise, j'avais déjà une certitude: je souhaitais choisir un thème qui m'intéressait, certes, mais surtout qui arriverait à me passionner, de façon à pouvoir y mettre toute mon énergie. Le choix initial de m'orienter vers ma future spécialité, la psychiatrie, s'est vite confirmé, et un rayon de l'IUMG en particulier a très rapidement attiré ma curiosité: celui de l'ethnopsychiatrie. Pour le choix du thème de ce travail, mon expérience de vie, suite à un mariage mixte, et mon inté- rêt pour les migrants, ont compté, ainsi que les nombreux stages effectués en milieux multicultu- rels et ma probable future orientation en psychiatrie systémique. Face à l'augmentation de la migration et des déplacements des populations et des individus ainsi qu'aux mélanges interculturels qui en résultent, les recherches transculturelles connaissent, depuis quelques années, un développement important: ceci est valable en psychiatrie, en psychopathologie comme en psychothérapie. Pendant mes stages, j'ai remarqué que l'accueil et la prise en charge des personnes étrangères sont une possibilité, pour les professionnels issus de tous les domaines, que ce soit d'un milieu médico- psychologique, social ou éducatif, de remettre en cause les méthodes théoriques et techniques habi- tuelles. En effet, dès que l'on est amené à s'occuper de personnes d'une culture différente de la nô- tre, une partie de nos théories, de notre manière d'intervention clinique et de nos principes de for- mation se trouve forcément remise en question. Le choix de mieux connaître et proposer cette nouvelle discipline par un travail de master s'est basé également en fonction de l'ampleur du parcours historique que l'ethnopsychiatrie nous permettait d'explorer. Par mon travail, j'ai donc essayé de retracer le parcours socio-historique de l'ethnopsychiatrie de- puis ses origines. Cela n'a pas été facile car, même si théoriquement cette discipline s'est dévelop- pée aux alentours du début du XXe siècle, entre l'Europe et les lieux où l'Occident élargissait son domaine, il n y a pas unanimité sur un fondateur précis. Cependant, à plusieurs reprises, Emil Kraepelin est cité comme le fondateur de cette discipline, et c'est pour cette raison que j'ai décidé de focaliser mon attention sur ce grand psychiatre, pour es- sayer de comprendre pourquoi plusieurs auteurs le considèrent comme le père de l'ethnopsychia- trie. Pour ce faire, dans une première partie, ma recherche a donc consisté en une revue de la littérature médicale spécialisée. 4 Je me suis basée tout d'abord sur des sources primaires, en cherchant des articles écrits par Kraepe- lin lui-même, consultant principalement les revues germanophones et anglo-saxonnes susceptibles d'avoir publié ses articles. J'ai également consulté un choix de traités de psychiatrie qu'il a publié. Dans la deuxième partie de mes recherches, j'ai passé en revue la littérature secondaire, en me ba- sant sur des articles qui ont été écrits sur lui par différents auteurs, psychiatres et historiens. La thè- se du Dr. Christoph Bendick a été utilisée en particulier: «Emil Kraepelin's Forschungsreise nach Java», a été un outil précieux pour retrouver aussi bien des récits primaires inédits du psychiatre que maintes sources de littérature secondaire. En analysant cette littérature, j'ai essayé de dégager les principaux thèmes d'évolution entre le XIXe et le XXe siècle, en cherchant en parallèle d'éventuelles répercussions des travaux de psy- chiatrie comparée du médecin allemand sur la postérité, ainsi que sur la psychiatrie moderne. En progressant dans mon travail, je me suis pertinemment posé la question suivante: Kraepelin était-il vraiment le premier qui se fut intéressé à une psychiatrie « exotique » ou, au contraire, l'ambition de comparer la folie occidentale à des peuples et civilisations étrangers avait-elle déjà commencé bien avant lui ? Aurait-il apporté quelque chose de différent dans sa recherche, qui nous permettrait aujourd'hui de lui attribuer le statut de fondateur de l'ethnopsychiatrie ? Afin d'essayer de répondre à cette réflexion, ma méthodologie a consisté en un dépouillement d'une célèbre revue de psychiatrie française, Les annales médico-psychologiques, depuis le premier numéro paru en 1843 jusqu'à l'aube de la deuxième guerre mondiale, à la recherche d'articles trai- tant de la folie exotique. Pour accomplir cette tâche, un article de R. Collignon, psychologue-anthropologue travaillant sur l'histoire de la psychiatrie en Afrique, m'a été d'une aide très précieuse. Ce texte, paru dans la re- vue Psychopathologie Africaine, qui répertorie tous les articles traitants de la psychiatrie coloniale, m'a évité de devoir analyser personnellement toute la collection des A.M.P., ce qui a permis un gain de temps considérable. Une analyse approfondie de cette littérature m'a permis de me forger une idée sur la question et de dégager en même temps, dans la troisième partie du travail, les principaux thèmes d'évolution en ethnopsychiatrie entre le XIXe et le XXe siècle. Finalement, en disséquant les théories d'un autre auteur qui s'est passionné pour l'ethnopsychiatrie, le psychanalyste Georges Devereux, considéré également comme le fondateur de cette discipline, j'ai essayé de comprendre les changements qui se sont opérés dans ce domaine pendant la période qui les sépare. Un regard particulier a été porté sur les possibles répercussions de l'ancienne eth- nopsychiatrie, de connotation coloniale, sur une ethnopsychiatrie plus «moderne», laquelle, suite aux travaux de Devereux, a évolué depuis quelques années surtout dans les domaines des études de la migration et de l'intégration. 5 Cette ethnopsychiatrie contemporaine inclut aujourd'hui des phénomènes uniques attribués à une origine culturelle qui, depuis 1995, sont regroupés dans le DSM IV sous le nom de Culture-Bound Syndromes. Ce travail de master esquisse donc un double mouvement: Europe-Occident, Occident-Europe. Sur ce chemin, aux alentours de 1900, sont posés les premières grandes lignes et récits d'une ethnopsy- chiatrie, née en un premier temps entre l'Europe et ses colonies et ensuite entre l'Europe et le reste du monde.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Résumé :Introduction : La mitoxantrone est un anthracénédione cytostatique aux ef¬fets immunosuppresseurs et -modulateurs qui est administré entre autre dans les évolutions graves de la sclérose en plaques (SEP). Peu d'études concernant l'efficacité et la tolérance de la mitoxantrone ont été publiées. Un travail de re¬cherche statistique s'imposait en raison du nombre de patients souffrant de SEP traités par ce médicament dans le service de neurologie de l'hôpital cantonal d'Aarau.Méthode : Au total, 66 patients souffrant de SEP ont été traités par la mi¬toxantrone dans la période 07/2000-06/2007. 48 d'entre eux avaient reçu préa¬lablement une autre substance modifiant l'évolution de la maladie (« prétrai¬tement » : interféron bêta-la/b, glatirameracétate, azathioprine). Dans cette étude rétrospective, nous avons comparé l'effet de la mitoxantrone par rapport au prétraitement mentionné ci-dessus. Les paramètres appliqués concernaient l'évolution de l'expanded disability status scale (EDSS) et le nombre annuel de poussées pendant la durée du traitement. Une influence du type de SEP, de l'âge au début du traitement par la mitoxantrone, du sexe, de la durée de la théra¬pie et de la maladie ainsi que de la dose cumulative de la mitoxantrone a été recherchée. Nous avons également discuté des éventuels effets indésirables surve¬nus. Nous n'avons pas différencié les substances du prétraitement, étant donné qu'elles avaient été appliquées dans des combinaisons multiples. L'évaluation sta¬tistique a été effectuée en respectant les indications du test de Mann-Whitney ainsi que du Wilcoxon signed-rank test.Résultats : En moyenne, l'EDSS s'est stabilisée (-0,05/année chez tous les 66 patients) tandis que la maladie avait progressé de 0,32/année sous le pré¬traitement (la différence est significative avec p=0,0004 au Wilcoxon signed- rank test bilatéral). Sous le prétraitement, les patients avaient subi en moyenne 1,72 poussées par année, sous la mitoxantrone 0,26 (différence significative avec p<0,0001). La thérapie a dû être arrêtée à cause d'effets indésirables chez quatre patients sous la mitoxantrone (deux avec une granulocytopénie, deux avec une diminution de la fraction d'éjection cardiaque).Discussion : La mitoxantrone s'est avéré une substance particulièrement ef¬ficace même dans les situations dans lesquelles le décours de la maladie n'a pas pu être influencé par d'autres médicaments. Ses effets indésirables doivent être pondérés par rapport à la progression de la maladie et aux effets indési¬rables des autres substances. Les schémas d'application varient beaucoup dans la littérature et doivent être mieux définis.Zusammenfassung :Einleitung: Mitoxantron ist ein zytostatisches Anthracenedion mit immunsup- pressiven und -modulatorischen Eigenschaften, das unter anderem bei schwe¬ren Verläufen der Multiplen Sklerose eingesetzt wird. Bisher befassten sich nur wenige randomisierte und plazebokontrollierte Studien mit Wirksamkeit und Tolerabilität des Medikamentes.Methoden: 66 MS-Patienten der neurologischen Klinik des Kantonsspitals Aar- au wurden zwischen Juli 2000 und Juni 2007 mit Mitoxantron behandelt. 48 davon erhielten zuvor eine MS-spezifische Behandlung mit Interferon ß-1 a oder b, Glatirameracetat oder Azathioprin. Anhand der Veränderung der Expanded Disability Status Scale (EDSS) und der jährlichen Schubrate und mit Hilfe von MRI-Aufnahmen zeichneten wir retrospektiv die Wirksamkeit der Behandlung nach und stellten sie in Beziehung zu einer eventuell erfolgten Vorbehandlung. Des weiteren wurde die Effektivität in Verhältnis zu den Faktoren Verlaufsform, Alter bei Behandlungsbeginn, Behandlungszeit sowie weiteren Parametern ge¬bracht. Wir verglichen die Wirkung von Mitoxantron bei den noch laufenden Behandlungen mit der bei den bereits abgeschlossenen und wir diskutierten die Veränderung von MRI-Aufnahmen des ZNS unter der Therapie mit Mitoxan¬tron. Nebenwirkungen wurden erwähnt.Resultate: Im Durchschnitt wurde der EDSS-Wert stabilisiert (-0, 05/Jahr bei allen 66 Patienten), während die Krankheit unter der verlaufsmodifizierenden Vorbehandlung um durchschnittlich 0,32/Jahr fortschritt (Unterschied signifi¬kant mit p=0,0004 im zweiseitigen Wilcoxon signed-rank test). Die Schubrate betrug 0,26 unter Mitoxantron gegenüber 1,72/Jahr unter Vorbehandlung (Un¬terschied signifikant mit p<0,0001). Bei vier Patienten musste die Therapie auf¬grund von Nebenwirkungen abgebrochen werden (zweimal Granulozytopenie, zweimal verminderte kardiale Auswurffraktion).Diskussion: Mitoxantron ist offensichtlich selbst dann eine äusserst effektive verlaufsmodifizierende Substanz, wenn die Krankheit durch andere Medikamen¬te nicht zu beeinflussen ist. Die Risiken des Medikamentes müssen gegen das Krankheitsfortschreiten und die Nachteile anderer verlaufsmodifizierender Sub¬stanzen abgewogen werden. Die Anwendungsalgorithmen für Mitoxantron vari¬ieren in der Literatur sehr und müssen besser definiert werden.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Résumé sous forme de thèses 1. La présente thèse de doctorat traite de la problématique des licences obligatoires en droit communautaire de la concurrence. Plus précisément, il s'agit d'examiner si et sous quelles conditions le refus de licencier un droit de propriété intellectuelle par une entreprise peut constituer un abus d'une position dominante selon l'article 82 du Traité CE. L'étude fait notamment référence aux marchés de haute technologie et ici à la décision Microsoft, qui a été publiée par la Commission européenne en mars 2004 et qui porte, dans sa deuxième partie, sur la possibilité de rendre interopérables différents composants, via des informations appelées interfaces. 2. La question d'une licence obligatoire ne se pose que si l'information recherchée est protégée par un droit de propriété intellectuelle et si cette information ne peut être obtenue par d'autres moyens. C'est pourquoi la première partie de l'étude examine deux sujets importants concernant l'interopérabilité: d'une part la méthode de décompilation permet-elle d'obtenir des interfaces de logiciel, d'autre part, les interfaces sont-elles protégées par le droit d'auteur. 3. En ce qui concerne la décompilation des programmes d'ordinateur, l'étude démontre que cette méthode ne permet pas de rendre interopérables différents programmes d'ordinateur de manière efficace. Le droit européen a légalisé cette méthode, après des débats publics très vifs, par l'article 6 de la directive concernant la protection juridique des programmes d'ordinateur (91/250/CEE). Il semble néanmoins que la lutte pour un tel droit de décompilation a été vaine :Tout d'abord, l'article 6 est rédigé d'une façon très complexe et autorise une décompilation seulement selon des conditions très restrictives. En plus, la décompilation en elle-même est un travail très complexe qui peut durer des années et qui ne garantit pas de trouver les informations recherchées. 4. En outre, une réglementation de décompilation n'existe jusqu'à présent que dans le domaine du droit d'auteur, tandis qu'une règlementation pour la protection juridique des brevets fait défaut. La question concernant la protection juridique des brevets pour les inventions mises en rouvre par ordinateur restera aussi dans le futur sans réponse, étant donné que le Parlement européen a rejeté une telle proposition de directive en juillet 2005. Ceci est regrettable, parce que la proposition de directive prévoyait explicitement un droit de décompilation. La Commission européenne projette, cependant, de réexaminer les dispositions de décompilation relatives au droit d'auteur. Dans ce contexte, il devrait notamment être examiné si les dispositions de décompilation de l'article 6 de la directive des programmes d'ordinateur sont satisfaisantes afin de garantir une (certaine) interopérabilité. 5. Un réexamen de la directive concernant la protection juridique des programmes d'ordinateur pourrait aussi servir à clarifier l'existence et l'étendue de la protection d'interfaces. L'article 1, paragraphe 2, 2ième phrase se réfère dans ce contexte uniquement à un principe reconnu en droit international du droit d'auteur, dénommé «dichotomie d'idée/d'expression» : seul l'expression individuelle est protégée, mais pas l'idée en tant que telle. La rédaction de l'article devrait ainsi préciser qu'une spécification d'une interface constitue toujours une idée, qui ne peut pas être protégée, alors que l'implémentation de l'interface dans un programme d'ordinateur représente son expression et devrait ainsi bénéficier d'une protection selon le droit d'auteur. Or, dans la plupart des cas, la spécification d'une interface est suffisante pour rendre interopérables différents programmes d'ordinateur. 6. La Commission dans sa décision Microsoft a pourtant supposé que les interfaces recherchées par les concurrents de Microsoft pouvaient être protégées par des droits de propriété intellectuelle. En effet, le seul moyen à disposition pour ceux qui veulent rendre interopérables leur programme d'ordinateur et avec celui d'une entreprise dominante est le recours à l'article 82 CE. Ici, la question qui se pose est celle de savoir si le refus de fournir des interfaces constitue un abus d'une position dominante et donc mène à l'octroi d'une licence obligatoire. 7. Dans le contexte des licences obligatoires selon l'article 82 CE, il est courant d'invoquer la relation de conflit entre la propriété intellectuelle et le droit de la concurrence. Or, l'étude démontre que ces deux institutions de droit poursuivent le même but, à savoir l'encouragement au bien-être des consommateurs en stimulant l'innovation. Les objectifs convergent notamment si on définit la concurrence plutôt en tant que concept dynamique. Par conséquent, des restrictions temporaires à la concurrence peuvent être acceptées, si ceci mène à la création de la concurrence à long terme. Pourtant, des conflits potentiels persistent, étant donné qu'on ne peut pas argumenter que chaque restriction à la concurrence effectuée par le titulaire d'un droit de propriété intellectuelle mène à l'incitation de l'innovation à long terme. 8. En réfutant ce dernier argument, l'étude démontre que les droits de propriété intellectuelle ne peuvent pas être généralement exemptés de l'application du droit de la concurrence. Notamment, selon l'état actuel de la jurisprudence, il ne peut être soutenu qu'il existe un noyau dur spécifique du droit de la propriété intellectuelle, qui ne devrait pas être affecté par le droit de la concurrence. L'ordonnance d'une licence obligatoire peut être justifiée sur la base de l'article 82 CE, dans la mesure où la balance d'intérêts démontre un effet positif au bien-être des consommateurs résultant d'une telle licence. En même temps, les droits individuels du propriétaire d'un droit de propriété intellectuelle sont à respecter, surtout la liberté contractuelle et la protection de la propriété. 9. Le droit de la liberté contractuelle et le droit de la propriété sont atteints, si le propriétaire d'un droit, de nature matérielle ou immatérielle, n'a exercé son droit de propriété que pour lui-même, exclusivement, sans jamais avoir démontré la volonté de s'acquitter de ses droits. C'est donc surtout pour protéger ces deux principes de droit que la présente étude fait une distinction majeure entre le refus de contracter et la rupture d'une relation contractuelle. 10. Le premier cas est traité de manière détaillée sous le chapitre de la doctrine des facilités essentielles (EFD). Selon la position prise ici, cette constellation est caractérisée par l'obligation du propriétaire de contracter et ainsi d'établir des relations d'affaires avec ses concurrents. Or, un principe selon lequel les entreprises en position dominante sont obligées d'encourager la concurrence, n'existe pas en droit communautaire. Il est toutefois nécessaire de pouvoir imposer une telle obligation, notamment dans les cas où la concurrence sur un marché ne peut être mise en oeuvre à long terme par un autre moyen et où cette ouverture du marché n'entraîne pas d'obstacles à l'innovation. 11. La constellation particulière des facilités essentielles exige néanmoins un contrôle plus prudent que dans les cas constituant une rupture de relation d'affaires. Cette exigence a été respectée sur base des conditions que l'arrêt Bronner a établit concernant l'essentialité d'une facilité. Même si l'établissement en question remplit toutes les conditions afin d'être qualifié d'essentiel, l'ordonnance d'un accès obligé doit encore passer l'examen d'une balance d'intérêts. Celle-ci mène encore plus rarement à l'octroi d'une licence dans les cas où la facilité est protégée par un droit de propriété intellectuelle. Des exceptions à cette règle existent si le droit de la propriété intellectuelle n'a pas été obtenu par des moyens basés sur le mérite ou si la fonction d'incitation à l'innovation est en doute. 12. L'affaire IMS Health présente un tel cas exceptionnel. La structure recherchée par les concurrents de IMS remplissait, au moment de l'examen de l'affaire par la Commission européenne, tous les critères d'un standard de facto. En outre, au moment du développement de la structure, celle-ci ne bénéficiait pas d'une protection de droit immatérielle. Une telle protection ne lui a été accordée que depuis la transposition de la directive concernant la protection juridique des bases de données en droit d'auteur allemand. Par conséquent, IMS ne pouvait avoir entrepris des investissements dans la construction de la structure, afin de profiter ultérieurement de la protection du droit d'auteur. Ceci affaiblit la présomption selon laquelle l'utilisation exclusive du droit aurait dû être préservée afin de ne pas faire obstacle à l'innovation. 13. Le cas européen de Microsoft se distingue de cette constellation. Les conditions qui ont mené à la décision de la Commission européenne quant à l'attribution d'interopérabilité et ainsi à une licence obligatoire d'interfaces, ont été présenté de manière détaillée dans cette étude. Elles fournissent les meilleures preuves que les «circonstances exceptionnelles », qui ont été déterminantes dans l'affaire Magill de la Cour de justice, à savoir «l'empêchement de la création d'un nouveau produit », le «manque de justification objective » et «l'empêchement de toute concurrence sur un marché en aval distinct », ne peuvent constituer une énumération exhaustive pour l'ordonnance d'une licence obligatoire. 14. En effet, dans l'affaire Microsoft, l'intersection progressive d'interopérabilité entre les systèmes d'exploitation étrangers à Microsoft et des systèmes d'exploitation de Microsoft n'a pas empêché la création de nouveaux produits. Le marché en question, celui des systèmes d'exploitation pour serveur de groupe de travail, avait été créé par l'entreprise Novell. Par conséquent, quand Microsoft a accédé à ce marché, d'autres entreprises en situation d'offre s'y trouvaient déjà avec leurs produits. Il s'en suit que, en 'exigeant de Microsoft des interfaces correspondantes, il s'agissait d'assurer l'interopérabilité avec les produits de Microsoft, et surtout avec l'omniprésent système d'exploitation pour ordinateur PC, afin de maintenir des produits déjà existants sur le marché, et notamment des produits «pionniers »qui avaient pris le risque d'exploiter le marché des systèmes d'exploitation pour serveur de groupe de travail. 15. Une autre circonstance exceptionnelle que celle d'un nouveau produit empêché donne l'impulsion à la thèse qu'une intersection progressive aux interfaces de Microsoft constitue un abus d'une position dominante selon l'article 82 CE : celle du transfert du pouvoir de marché. L'intégration verticale d'une entreprise en position dominante sur un marché qui n'a jusqu'à ce jour été que fourni par celle-ci, et qui rompt des relations contractuelles avec des entreprises agissant sur ce marché, afin d'évincer de la concurrence, constitue un cas de type connu de l'abus, reconnue pour la première fois dans l'arrêt Commercial Solvents de la CJCE: L'entreprise en position dominante utilise son pouvoir sur un marché initial et stratégiquement important et se sert ainsi des avantages, qui ne peuvent être conciliés avec le concept de concurrence par le mérite. 16. Il doit être de même si le bien en question bénéficie d'un droit immatériel, et qu'il s'agit ainsi d'un arrêt d'une licence. En effet, les fonctions, en principe supposées, d'incitation et de mérite, perdent de leur importance si le bien en question a déjà fait objet d'une licence: Il ne peut pas alors être argumenté que le propriétaire d'un droit immatériel doit l'utiliser exclusivement lui-même, afin de profiter des fruits de son mérite. Cet argument particulier de la prise en compte de l'effet d'incitation et de mérite perd d'autant plus de sa pertinence, si l'entreprise en cause ne fournit pas sur le marché dérivé une innovation, mais ne sert juste qu'à vendre un produit déjà préexistant. 17. Dans le domaine de licence de propriété intellectuelle obligatoire selon l'article 82 CE, les juridictions européennes n'ont jusqu'à présent uniquement eu à décider sur des constellations de cas, dans lesquelles le droit n'avait pas été l'objet d'une licence antérieure. Avec le cas Microsoft, le Tribunal de Première Instance a maintenant la possibilité de décider d'une distinction importante à faire en droit de la concurrence entre, d'une part, les cas dans lesquels un droit de propriété intellectuelle n'a pas encore été l'objet d'une licence et de l'autre, ceux dans lesquels il s'agit d'une rupture de licence.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Résumé I. Introduction La présente étude analyse les conflits entre les autorités nationales de concurrence dans le cas de figure où plusieurs autorités examinent en même temps la convergence d'une opération de concentration avec leur droit de concentration respectif. Tandis que le débat concernant le contrôle parallèle des opérations de concentration internationales est aujourd'hui extrêmement vif, la recherche fondamentale sur ce sujet n'a pas encore beaucoup avancé. Cependant il y a un besoin de réforme évident, un besoin au centre duquel se situe une réflexion sur l'organisation du droit de concurrence international. Le but de cette étude est donc de fournir une vue d'ensemble des conflits possibles entre les autorités nationales de concurrence en matière politique, économique et juridique (matérielle et procédurale) causés par une opération de concentration internationale. L'objectif n'est pas de fournir une évaluation des différents systèmes de contrôle de concentration, mais plutôt de chercher la source des conflits. Par ailleurs, l'analyse qui suit insistera sur la nécessité d'une solution internationale de ces conflits. II. Arrière-plan Depuis plusieurs décennies, les relations économiques internationales entre les Etats et les entreprises ont été profondément marquées par un processus dynamique de globalisation et de libéralisation. La libéralisation a engendré une croissance énorme du commerce mondial. En conséquence, les entreprises ont développé des stratégies globales pour arriver à une croissance durable. Ainsi, le nombre et la taille des entreprises internationales a constamment augmenté. À cause de cette présence globale des entreprises, les anciens marchés nationaux ou régionaux sont devenus des marchés globaux. Dans le cadre de la libéralisation économique, beaucoup d'Etats ainsi que l'Union Européenne ont reconnu que la concurrence est le moyen approprié pour faire progresser l'innovation et la croissance économique. Il faut donc maintenir et développer les structures de concurrence. Pour cela, il faut surveiller dans le cadre du droit de contrôle international toutes les pratiques concertées dont l'objet ou l'effet serait de restreindre la concurrence, ainsi que les abus d'une position dominante ou les opérations de concentration d'entreprises. Jusqu'à présent, sur environ 200 Etats souverains existants au monde, une bonne centaine ainsi que l'Union Européenne (l'UE) ont développé un droit de concurrence. Et parmi ces Etats, 75 environ ont créé un droit de contrôle de concentration. Mais ces règles nationales ne sont pas toujours appropriées au regard de l'économie mondiale. On constate plutôt que ,,l'internationalisation croissante des marchés [...] n'a pas été suivie d'une internationalisation parallèle de la politique de concurrence". Par ailleurs, un grand nombre d'Etats appliquent leur droit de concurrence également en dehors de leur propre territoire afin de contrôler les abus à l'étranger. Même si on peut comprendre ce besoin de contrôle, cette évolution risque de provoquer des conflits avec les législations des autres Etats concernés. D'autres difficultés naissent des différences théoriques ou pratiques des systèmes du droit de la concurrence ou de régulations divergentes du point de vue matériel et procédural. Même sur la base de règles comparables, des divergences apparaissent à cause de différentes méthodes d'interprétation ou d'application. La communauté internationale s'emploie à combattre toutes les barrières au commerce transnational -notamment dans le cadre de l'Organisation Mondiale du Commerce (OMC). Mais si elle néglige de lutter en même temps contre les barrières commerciales établies par les entreprises elles-mêmes, elle risque de perdre les gains d'efficacité et de bien public déjà acquis par la suppression des barrières commerciales publiques. Car certaines actions des entreprises privées, comme l'exclusion ou la répartition mutuelle du marché, peuvent aussi bien conduire à des restrictions de la concurrence que les barrières commerciales publiques, tarifaires ou non-tarifaires, et peuvent même s'y substituer. III. Plan de l'étude Après l'Introduction, la partie B traite de la coopération de l'Union Européenne avec les Etats-Unis en matière du droit de la concurrence. En effet, les accords bilatéraux entre l'UE et les Etats-Unis montrent les possibilités et les limites d'une telle coopération. Les conflits entre les autorités de concurrence résultent de la mondialisation croissante et de l'intensification de la concurrence qui en découle. Aussi, ces conflits ne sont pas seulement d'ordre théorique mais également d'une grande importance pratique comme le montre l'analyse des deux cas dans la partie C. Les autorités de concurrence des Etats-Unis et de l'Union Européenne ont chacun de leur côté examiné la fusion des entreprises Boeing Corporation et McDonnell Douglas Corporation (MDD), ainsi que le projet de fusion entre Honeywell International Inc. (Honeywell) et General Electric Co. (GE). Or, ces deux procédures sont paradigmatiques en ce qui concerne la sensibilité politique des autorités de concurrence et les limites de la coopération bilatérale. Après ces analyse de cas, la partie D qui compare le droit de contrôle de concentration aux Etats-Unis et en Europe et examine les conflits éventuels entre les deux systèmes constitue la partie principale de l'étude. Les sources de ces conflits peuvent être aussi bien trouvées dans le droit matériel que dans le droit procédural, tout comme dans les différences d'orientation politique générale des deux systèmes. La partie E montre les différentes solutions qui ont été proposées dans ce cadre. Ensuite, ces propositions sont comparées avec celles concernant l'harmonisation des politiques de concurrence et de contrôle de concentrations. Sur la base de ces résultats, une proposition de solution montrant les premiers pas nécessaires pour résoudre les conflits existants entre les autorités de concurrence est présentée. IV. Résumé des conflits L'étude aboutit à la constatation que presque tous les aspects du contrôle des concentrations constituent un important potentiel de conflits. Celui-ci est d'ailleurs bien plus important que l'on ne pourrait penser au w des lois applicables. La complexité du droit de la concurrence provoque nécessairement des conflits. Mais il faut également tenir compte des différences fondamentales concernant les objectifs politiques des Etats, les formes d'institutionnalisation des autorités de concurrence et la prise en considération des pays en développement ou des pays émergents. Les différences purement juridiques accroissent le potentiel de conflits entre les Etats et empêchent une intensification de la coopération. Cela est notamment vrai pour la définition de la concentration, l'application extraterritoriale du droit national, la notification obligatoire et ses seuils fixés. Concernant le droit matériel, les conflits se situent dans les domaines de la délimitation du marché, le critère d'incompabilité, l'analyse économique, la prise en compte des gains d'efficacité, l'importance de la concentration de sauvetage ainsi que de l'application du principe de ,,comity of nations". Du point de we du droit procédural, les différences d'inscription obligatoire et d'interdiction partielle de l'accomplissement consécutif donnent autant également lieu à des conflits potentiels que les différences de méthode d'investigation et d'exécution des décisions publiques. Il en va de même pour les différents remèdes ou les sanctions prévues pour le mépris des décisions des autorités ou des tribunaux et la position des parties tierces dans la procédure est également un facteur de conflit. Enfin, il faut mentionner le manque de transparence qui nuit à la sécurité juridique. L'application arbitraire du droit, le protectionnisme, le mercantilisme ainsi que le manque de sécurité juridique augmentent le danger de conflits interétatiques. La coopération entre les Etats-Unis et l'Union Européenne sur la base de l'accord de 1991 n'a pas vraiment réduit ce potentiel de conflits. Cela s'est notamment avéré au moment des projets de fusion entre GE et Honeywell et de la reprise de MDD par Boeing. V. Les possibilités d'harmonisation Aussi bien la nécessité que la faisabilité d'une harmonisation globale du droit de la concurrence et d'une politique de la concurrence sont encore très discutés. La plupart des débats tournent plutôt autour de l'arrangement concret d'un tel droit harmonisé que de l'objectif général d'une harmonisation. Quelques Etats comme les Etats-Unis redoutent une trop grande perte de souveraineté et veulent par conséquent maintenir leur méthode unilatérale et extraterritoriale. Cependant, la plupart des experts des organisations internationales comme ceux des autorités de concurrence et du public intéressé approuvent l'idée d'un droit de concurrence international. Etant donné la gravité de certains conflits, de nombreux Etats et un grand nombre de juristes perçoivent la nécessité de développer la conscience d'une indispensable harmonisation, et un accord sur ce plan semble parfaitement possible. Parmi ceux qui soutiennent cet accord l'on trouve presque tous les Etats membres de l'Organisation de coopération et de développement économiques (l'OCDE), de nombreux Etats membres de l'OMC, de l'Organisations des nations unies (l'ONU) et de l'Accord de libre-échange nord-américain (l'ALENA), particulièrement les Etats de l'UE, l'Australie, le Japon, le Canada, le Mexique, la Nouvelle Zélande et quelques représentants des autorités de concurrence des Etats-Unis. La méthode la plus efficace et raisonnable pour lutter contre les obstacles privés à la concurrence est la coopération et la coordination globale des mécanismes de contrôle. Les forums et les structures nécessaires pour la préparation d'une telle tâche existent déjà. Ainsi, le cadre institutionnel éprouvé de l'OMC pourra faire progresser le processus d`harmonisation. Il faudrait simplement élargir les compétences de l'OMC pour garantir un contrôle international efficace. L'harmonisation sur le plan international serait plus efficace qu'une harmonisation unilatérale ou bilatérale. La flexibilité d'un accord international pourrait être garanti par 1"insertion de cet accord dans le Mémorandum d'accords commerciaux plurilatéraux (Annexe 4) de l'OMC. Ainsi, cet accord ne serait obligatoire que pour les Etats membres qui l'auraient déjà approuvé séparément. Les autres Etats auraient la possibilité de le signer plus tard. En cas de conflits dans le cadre de l'application de cet accord, on pourrait se servir du mécanisme d'arbitrage de l'OMC. Il faudrait également créer une autorité internationale de concurrence et un comité spécial international de concurrence. Un tel accord de l'OMC ne constitue qu'un premier pas. Les exigences minimales de l'accord doivent être renforcées et régulièrement ajustées à l'évolution et aux nouvelles données de l'économie mondiale. Ainsi, le processus d'harmonisation internationale sera l'objet d'une dynamique permanente. VI. Résultats et conclusions L'étude a montré que l'application parallèle des droits nationaux de concurrence est une importante source de conflits. Elle a surtout mis l'accent sur les relations entre les Etats-Unis et l'Union Européenne. Il est d'ailleurs très probable que ce genre de conflits augmente encore dans le futur. En 2000, l'activité mondiale des fusions et acquisitions a eu un volume de 3 billions de dollars Anglo-américains. Cela équivaut à une multiplication par onze du volume de 1991. En 2001, par contre, le volume a de nouveau baissé à 1,6 billions de dollars Anglo-américains. Mais selon les pronostics, le nombre des concentrations va à nouveau augmenter considérablement dans les prochaines années. Cette vague de concentrations internationales est la conséquence de l'intensification mondiale des relations économiques transnationales. Cette évolution va se poursuivre pour autant que les barrières commerciales publiques continuent à être démantelées, que le renforcement de la dérégularisation ouvre de nouveaux marchés à la compétition, que de plus en plus de standards techniques soient harmonisés et que les transports et la communication internationale soient améliorés et moins couteux. Enfin, la consolidation de certains secteurs économiques à la suite de fusions déjà réalisées encourage de plus en plus les entreprises à fusionner sur le plan international et dans des dimensions de plus en plus grandes. Outre les conflits engendrés par les différentes législations nationales, il faut également mentionner les oppositions qui résultent d'une façon indirecte de la compétition entre les différentes autorités de contrôle. Ainsi, par exemple, les conséquences économiques et financières d'un retard dans la procédure de contrôle ou les sanctions importantes imposées aux entreprises concernées sont souvent le sujet de discussions et de conflits politiques. Dans ce cadre, il faut souligner qu'en réalité le droit de concurrence ainsi que le droit de contrôle de concentrations ne vise pas seulement une politique de concurrence mais également la politique industrielle et générale. La diversité de ces différentes visées politiques provoque nécessairement des conflits politiques. La solution présentée à la fin de ce travail voudrait proposer une application efficace du droit de contrôle de concentration sur le plan international. A la base de cette efficacité il y a aurait notamment: L'encouragement d'une politique de concurrence au sein des Etats qui n'ont pas encore développé un droit de concurrence ou qui ne l'exécutent pas d'une manière suffisante. L'encouragement de la concurrence et des concentrations positives améliorant la situation compétitive. La simplification de la coopération des autorités de concurrence. L'accélération des procédures et des décisions. La garantie de la sécurité juridique. La diminution des conflits politiques. L'encouragement d'une amélioration globale du bien public qui est à la base de toute politique commerciale. Ces objectifs ne peuvent être atteints que si le protectionnisme national est battu en brêche et si des systèmes de contrôle international sont installés. Les intérêts des Etats doivent refléter les nouvelles dimensions de l'économie globale qui ne s'arrête pas aux frontières nationales. Pour cela il leur faut accepter certaines pertes de souveraineté et tolérer certaines infractions aux règles internationales de la non-ingérence. Les intérêts nationaux doivent s'ajuster à l'économie mondiale et aux intérêts des autres Etats. Bien entendu, tant que la divergence actuelle entre les marchés internationaux et les systèmes de contrôle nationaux persiste, une amélioration de la situation est peu probable. Pour que cela soit possible, il faudrait une législation qui reflète les nouvelles dimensions de l'économie et ses effets transnationaux et qui, en même temps, augmente et assure une concurrence efficace. Une telle stratégie aiderait non seulement les autorités de concurrence et les Etats mais également tout particulièrement les consommateurs et les entreprises. Car une telle concurrence efficace engendre des entreprises plus efficaces, des produits améliorés, un choix plus grand et des prix plus bas. En fin de compte, un tel effet de bien public diminuerait aussi le risque de conflits interétatiques. Dans le cadre de la consolidation et de l'amélioration des structures juridiques du système de l'OMC, il serait essentiel que les institutions et la méthode d'arbitrage de l'OMC inspirent suffisamment confiance à la communauté internationale des Etats. Car c'est seulement sur la base d'une telle confiance et avec la volonté des Etats de faire un pas décisif en faveur d'un commerce mondial plus libre et plus loyal qu'un projet aussi ambitieux est réalisable. Il est donc essentiel que les responsables réalisent enfin les projets d'harmonisation et de coopération renforcées qu'ils ont si souvent annoncés. En tous cas, une forte ,,dynamique du processus d'harmonisation" sera nécessaire pour progresser sur le terrain de l'harmonisation internationale de la politique de la concurrence. Berlin, 17/08/2006 Florens Girardet

Relevância:

20.00% 20.00%

Publicador:

Resumo:

RESUME Les nombreuses mines de plomb et d'argent du Valais témoignent d'une activité minière importante par le passé, sans toutefois dévoiler ni l'importance des minéralisations, ni l'ancienneté de l'exploitation. La présente recherche a pour but de comprendre pourquoi les grandes mines sont concentrées dans une région, et de déterminer la chronologie de leur exploitation. L'originalité de ce travail réside dans son interdisciplinarité, plus précisément dans l'application des méthodes minéralogiques pour résoudre une problématique historique. Afin d'évaluer les ressources minières en plomb et en argent du Valais, 57 mines et indices ont été repérés et échantillonnés. Les signatures isotopiques du Pb (74 analyses) et les compositions chimiques élémentaires (45 analyses) ont été déterminées. Les plus grandes exploitations se situent dans la nappe de Siviez-Mischabel, au Sud d'une ligne Vallée du Rhône / Val de Bagnes ainsi que dans le Lötschental. Elles sont liées, d'après leur signature isotopique de plomb, à des minéralisations d'âge calédonien (408 à 387 Ma) ou tardi-hercynien (333 à 286 Ma). À ces périodes, l'ancien continent est très lourd et subit une subsidence thermique. Des premières fractures d'extrême importance se forment. Comme il s'agit d'accidents tectoniques majeurs, des gisements de grande extension peuvent se former dans ce contexte. D'autres minéralisations se situent dans les domaines helvétiques (Massif des Aiguilles Rouges, Massif du Mont Blanc et couverture sédimentaire), couvrant une région au Nord de la Vallée du Rhône et du Val d'Entremont. D'âge post-hercynien à tardi-alpin (notons qu'il n'y a pas de minéralisations d'âge tertiaire), elles sont pour la plupart liées à des intrusions granitiques, sources de plomb juvénile. Les mines situées dans ces unités tectoniques sont nettement moins étendues que celles de la nappe de Siviez-Mischabel, ce qui permet de penser que les minéralisations correspondantes le sont également. Les périodes d'exploitation des mines peuvent être déterminées par quatre approches différentes l'archéologie minière, la lecture des textes historiques, l'étude des déchets métallurgiques et la comparaison de la signature isotopique du plomb, que l'on mesure dans un objet archéologique bien daté (monnaie, bijoux etc.), avec celles des minerais. Cette dernière méthode a été appliquée et développée dans le cadre de la présente recherche. Pour ce faire, 221 échantillons d'objet en plomb ou en argent datés entre l'Âge du Fer et le Moyen Age ont été analysés par la méthode des isotopes de plomb et comparés à environ 1800 signatures isotopiques de minerais des gisements les plus importants en Suisse et en Europe. Avant l'époque romaine et jusqu'au 1 er siècle de cette époque, le plomb provient principalement des mines de la péninsule ibérique alors en pleine activité. Un apport des mines d'Europe tempérée, notamment des Vosges, reste à confirmer. A partir du 1" siècle de notre ère, le plomb a principalement été importé en Suisse occidentale de grands centres de productions situées en Allemagne du Nord (région d'Eifel). Les mines de plomb valaisannes, notamment celles de Siviez, débutent leur exploitation en même temps, principalement pour couvrir les besoins locaux, mais également pour l'exportation jusque dans l'arc lémanique et, dans une moindre importance, au-delà. À partir du 4ème siècle, le besoin en plomb a été couvert par un apport des mines locales et par la refonte d'objets anciens. Ce changement d'approvisionnement est probablement lié aux tensions créées par les invasions germaniques durant la seconde moitié du 3' siècle ; le marché suisse n'est dès lors plus approvisionné par le nord, c'est-à-dire par la vallée du Rhin. Quant à l'argent, l'exploitation de ce métal est attestée à partir de la fin du La Tène, peu après l'apparition de ce métal dans la région valaisanne. L'échantillonnage ne couvrant pas l'époque romaine, rien n'est connu pour cette période. A partir du 5" siècle, une exploitation d'argent est de nouveau attestée. Cependant, l'exploitation d'argent des mines locales ne gagne en importance qu'à partir du Moyen Âge avec les frappes monétaires, notamment les frappes carolingiennes et épiscopales valaisannes. Les sources d'argent sont différentes selon leur utilisation : à part quelques exceptions notamment vers la fin du La Tène et au tardo-antique, les bijoux et objets de cultes ont été souvent créés à partir d'argent refondu, contrairement aux monnaies pour lesquelles l'argent provient des mines locales. On note un approvisionnement différent de ce métal pour les objets, notamment les monnaies, selon leur lieu de fabrication : on peut clairement distinguer les objets valaisans de ceux du Plateau Suisse. SUMMARY The many lead and silver mines of the Valais testify of an important mining activity in the past, without however revealing neither the importance of the mineralizations, nor the era of the exploitation. The purpose of this research is to understand why the large mines are concentrated in one region, and to determine the history of their exploitation. The uniqueness of this work lies in its interdisciplinarity, more precisely in the application of mineralogical methods to solve historical problems. In order to evaluate the lead and silver mining resources of the Valais region, 57 mines and ore deposits were located and sampled. The isotope signatures of Pb (74 analyses) and the compositions of the chemical elements (45 analyses) were determined. The largest activities are in the Siviez-Mischabel area, located in the South of the boundary formed by the Rhone, Bagnes and Lotschental valleys. According to their lead isotope signatures, they are linked to mineralizations of the Caledonian (408 to 387 my) or tardi-Hercynian (333 to 286 my) orogenies. In those times, the old continent was very heavy and underwent a thermal subsidence. First fractures of great significance were formed. Through these major tectonic events, large extended ore deposits can be formed. Other mineralizations are found in the helvetic regions situated north of the Rhone and the Entremont valley (the Aiguilles Rouges basement, Mount Blanc basement and the covering sediment). Because they are from post-hercynien to tardi-alpine age (there are no mineralizations of tertiary age), they are mainly linked to granite intrusions, the sources of juvenile lead. The mines found in these tectonic units are significantly less extensive than those of the Siviez-Mischabel area, leading to the assumption that the respective mineralizations extend accordingly. The history of exploitation of the mines can be determined by four different sources: mining archaeology, historical texts, metallurgical waste, and the comparison of the isotope signature of the lead from accurately dated archaeological objects (currency, jewels etc), with those of the ores. This last approach was applied and developed within the framework of this research. The lead isotope signatures of 221 lead or silver objects from the Iron Age to the Middle Age were compared with approximately 1800 samples of ore of the most important ore deposits in Switzerland and Europe. Before the Roman time up to the 1st century, lead comes mainly from the mines of the Iberian Peninsula then in full activity. A contribution of the mines of Central Europe, in particular of the Vosges, remains to be confirmed. From the 1st century on, lead was mainly imported into Western Switzerland from Northern Germany (Eiffel region). The lead mines in the Valais region, in particular those of Siviez, begin their exploitation at the same time, mainly to meet the local needs, but also for export to the lemanic basin and of lesser importance, beyond. As from the 4th century, the need of lead was met by the production from local mines and the recycling of old objects. This change of supply is probably related to the tensions created by the Germanic invasions during second half of the 3rd century; as a consequence, the Swiss market is not supplied any more by the north, i.e. the Rhine valley. Silver production is confirmed starting from the end of La Tene, shortly after the appearance of this metal in the Valais region. Since no objects of Roman origin were analyzed, nothing is known for this period. From the 5th century on, silver production is again confirmed. However, significant silver production from local mines starts only in the Middle Age with the coinage, in particular Carolingian and Episcopal minting from the Valais region. The sources of silver differ according to their use: besides some exceptions in particular towards the end of La Tene and the tardi-Roman, the jewels and objects of worships were often created from recycled silver, contrary to the coins the silver for which comes from the local mines. A different source of silver is observed according to the location of coin manufacture: Objects originating from the Valais region are clearly distinguished from those from the Plateau Suisse. ZUSAMMENFASSUNG Die grosse Zahl von Blei- und Silberminen im Wallis ist Zeugnis einer bedeutenden Bergbautätigkeit, es fehlen aber Hinweise über ihren Umfang und den Zeitraum ihrer Ausbeutung. Die vorliegende Arbeit sucht zu ergründen, warum grosse Minen sich in einer eng begrenzten Region häufen und in welchem Zeitraum sie genutzt wurden. Die Besonderheit der Studie liegt in ihrer Interdisziplinarität, genauer in der Anwendung von mineralogischen Methoden zur Beantwortung historischer Fragestellungen. Zur Beurteilung der Lagerstätten wurden von 57 Minen und Aufschlüssen Proben entnommen oder Nachweise erbracht und mittels 74 Isotopen-Analysen von Blei und 45 chemischen Gesamtanalysen ausgewertet. Die wichtigsten Vorkommen liegen in der Siviez- Mischabel- Decke südlich der Linie Rhonetal- Val de Bagnes, sowie im Lötschental. Die Bleiisotopen- Alter weisen ihre Entstehung der kaledonischen (408 - 387 Mio. J.) oder der spät- herzynischen (333 - 286 Mio. J.) Gebirgsbildungsphase zu. In dieser Periode ist die kompakte Landmasse sehr schwer und erfairt eine thermische Absenkung. Es bilden sich tektonische Brüche von kontinentaler Ausdehnung. Die grossen tektonischen Bewegungen ermöglichen die Bildung von ausgedehnten Lagerstätten. Andere Vorkommen finden sich im Bereich der Helvetischen Alpen (Aiguilles Rouges Massiv, Mont-Blanc-Massiv und Sediment-Decken) im Gebiet nördlich des Rhonetales bis zum Val d'Entremont. Altersmässig sind sie der nach-hercynischen bis zur spät-alpidischen Orogenese zuzuweisen (auffällig ist das Fehlen von Vorkommen im Tertiär) und haben sich meist in der Folge von Granit- Intrusion, dem Ursprung von primärem Blei ausgebildet. Die Bergwerke in diesem Bereich sind deutlich weniger ausgedehnt als jene in der Siviez-Mischabel-Decke und entsprechen wahrscheinlich dem geringen Umfang der zugehörigen Vorkommen. Die Nutzungsperioden der Minen können mit vier verschiedenen Methoden bestimmt werden: Minenarchäologie, Historische Quellen, Auswertung von metallischen Abfällen (Schlacken) und Vergleich der Bleiisotopen-Zusammensetzung von Erzen mit jener von zeitlich gut datierbaren archäologischen Gegenständen (Münzen, Schmuckstücke). Die letztere Methode wurde im Rahmen der vorliegenden Forschungsarbeit entwickelt und angewendet. Zu diesem Zweck wurden an 221 Proben von Blei- oder Silberobjekten, die in die Periode zwischen Eisenzeit und Mittelalter eingestuft werden können, Bleiisotopen- Analysen durchgeführt und mit ca. 1800 Proben aus den wichtigsten Lagerstätten der Schweiz und Europas verglichen. Vor der Römerzeit und bis ins 1. Jahrh. stammt das Blei vornehmlich aus den in jener Zeit in voller Ausbeutung begriffenen Minen der Iberischen Halbinsel. Der Beitrag von Mitteleuropa, besonders der Vogesen, muss noch bestätigt werden. Ab dem 1. Jahrh. nach Chr. wurde die Westschweiz hauptschlich mit Blei aus den grossen Produktionszentren Norddeutschlands, vorwiegend der Eifel, versorgt. In dieser Periode setzt die Ausbeutung der Bleiminen des Wallis, besonders von Siviez, ein. Sie dienen der Deckung des örtlichen Bedarfs aber auch der Ausfuhr in das Gebiet des Genfersees und in einem bescheidenen Rahmen sogar darüber hinaus. Ab dem 4. Jahrhundert wurden vermehrt alte Objekte eingeschmolzen. Dieser Wechsel der Versorgungsquellen war vermutlich eine Folge der Wölkerwanderung in der zweiten Hälfte des 3. Jahrhunderts. Ab diesem Zeitpunkt war Helvetien der Zugang zu den Versorgungsquellen des Nordens, besonders des Rheinlandes, verwehrt. Der Abbau von Silber ist ab dem Ende des La Tène nachgewiesen, nur wenig nach dem Auftreten dieses Metalls im Wallis. Über die Römerzeit können wegen dem Fehlen entsprechender Proben keine Aussagen gemacht werden. Eine erneute Abbauperiode ist ab dem 5. Jahrhundert nachgewiesen. Die Produktion der örtlichen Minen erreicht aber erst im Mittelalter eine gewisse Bedeutung mit der Prägung von Mnzen durch die Karolinger und die Walliser Bischöfe. Die Herkunft des Silbers ist abhängig von dessen Verwendung. Mit wenigen Ausnahmen in der Zeit des La Tène und der späteren Römerzeit wurde für Kunst- und Kult- Gegenstände rezykliertes Silber verwendet, für Münzprägungen neues Silber aus den örtlichen Minen. Von Einfluss auf die Herkunft war auch der Produktionsstandort: Die Objekte aus dem Wallis unterscheiden sich deutlich von jenen des Mittellandes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les catastrophes sont souvent perçues comme des événements rapides et aléatoires. Si les déclencheurs peuvent être soudains, les catastrophes, elles, sont le résultat d'une accumulation des conséquences d'actions et de décisions inappropriées ainsi que du changement global. Pour modifier cette perception du risque, des outils de sensibilisation sont nécessaires. Des méthodes quantitatives ont été développées et ont permis d'identifier la distribution et les facteurs sous- jacents du risque.¦Le risque de catastrophes résulte de l'intersection entre aléas, exposition et vulnérabilité. La fréquence et l'intensité des aléas peuvent être influencées par le changement climatique ou le déclin des écosystèmes, la croissance démographique augmente l'exposition, alors que l'évolution du niveau de développement affecte la vulnérabilité. Chacune de ses composantes pouvant changer, le risque est dynamique et doit être réévalué périodiquement par les gouvernements, les assurances ou les agences de développement. Au niveau global, ces analyses sont souvent effectuées à l'aide de base de données sur les pertes enregistrées. Nos résultats montrent que celles-ci sont susceptibles d'être biaisées notamment par l'amélioration de l'accès à l'information. Elles ne sont pas exhaustives et ne donnent pas d'information sur l'exposition, l'intensité ou la vulnérabilité. Une nouvelle approche, indépendante des pertes reportées, est donc nécessaire.¦Les recherches présentées ici ont été mandatées par les Nations Unies et par des agences oeuvrant dans le développement et l'environnement (PNUD, l'UNISDR, la GTZ, le PNUE ou l'UICN). Ces organismes avaient besoin d'une évaluation quantitative sur les facteurs sous-jacents du risque, afin de sensibiliser les décideurs et pour la priorisation des projets de réduction des risques de désastres.¦La méthode est basée sur les systèmes d'information géographique, la télédétection, les bases de données et l'analyse statistique. Une importante quantité de données (1,7 Tb) et plusieurs milliers d'heures de calculs ont été nécessaires. Un modèle de risque global a été élaboré pour révéler la distribution des aléas, de l'exposition et des risques, ainsi que pour l'identification des facteurs de risque sous- jacent de plusieurs aléas (inondations, cyclones tropicaux, séismes et glissements de terrain). Deux indexes de risque multiples ont été générés pour comparer les pays. Les résultats incluent une évaluation du rôle de l'intensité de l'aléa, de l'exposition, de la pauvreté, de la gouvernance dans la configuration et les tendances du risque. Il apparaît que les facteurs de vulnérabilité changent en fonction du type d'aléa, et contrairement à l'exposition, leur poids décroît quand l'intensité augmente.¦Au niveau local, la méthode a été testée pour mettre en évidence l'influence du changement climatique et du déclin des écosystèmes sur l'aléa. Dans le nord du Pakistan, la déforestation induit une augmentation de la susceptibilité des glissements de terrain. Les recherches menées au Pérou (à base d'imagerie satellitaire et de collecte de données au sol) révèlent un retrait glaciaire rapide et donnent une évaluation du volume de glace restante ainsi que des scénarios sur l'évolution possible.¦Ces résultats ont été présentés à des publics différents, notamment en face de 160 gouvernements. Les résultats et les données générées sont accessibles en ligne (http://preview.grid.unep.ch). La méthode est flexible et facilement transposable à des échelles et problématiques différentes, offrant de bonnes perspectives pour l'adaptation à d'autres domaines de recherche.¦La caractérisation du risque au niveau global et l'identification du rôle des écosystèmes dans le risque de catastrophe est en plein développement. Ces recherches ont révélés de nombreux défis, certains ont été résolus, d'autres sont restés des limitations. Cependant, il apparaît clairement que le niveau de développement configure line grande partie des risques de catastrophes. La dynamique du risque est gouvernée principalement par le changement global.¦Disasters are often perceived as fast and random events. If the triggers may be sudden, disasters are the result of an accumulation of actions, consequences from inappropriate decisions and from global change. To modify this perception of risk, advocacy tools are needed. Quantitative methods have been developed to identify the distribution and the underlying factors of risk.¦Disaster risk is resulting from the intersection of hazards, exposure and vulnerability. The frequency and intensity of hazards can be influenced by climate change or by the decline of ecosystems. Population growth increases the exposure, while changes in the level of development affect the vulnerability. Given that each of its components may change, the risk is dynamic and should be reviewed periodically by governments, insurance companies or development agencies. At the global level, these analyses are often performed using databases on reported losses. Our results show that these are likely to be biased in particular by improvements in access to information. International losses databases are not exhaustive and do not give information on exposure, the intensity or vulnerability. A new approach, independent of reported losses, is necessary.¦The researches presented here have been mandated by the United Nations and agencies working in the development and the environment (UNDP, UNISDR, GTZ, UNEP and IUCN). These organizations needed a quantitative assessment of the underlying factors of risk, to raise awareness amongst policymakers and to prioritize disaster risk reduction projects.¦The method is based on geographic information systems, remote sensing, databases and statistical analysis. It required a large amount of data (1.7 Tb of data on both the physical environment and socio-economic parameters) and several thousand hours of processing were necessary. A comprehensive risk model was developed to reveal the distribution of hazards, exposure and risk, and to identify underlying risk factors. These were performed for several hazards (e.g. floods, tropical cyclones, earthquakes and landslides). Two different multiple risk indexes were generated to compare countries. The results include an evaluation of the role of the intensity of the hazard, exposure, poverty, governance in the pattern and trends of risk. It appears that the vulnerability factors change depending on the type of hazard, and contrary to the exposure, their weight decreases as the intensity increases.¦Locally, the method was tested to highlight the influence of climate change and the ecosystems decline on the hazard. In northern Pakistan, deforestation exacerbates the susceptibility of landslides. Researches in Peru (based on satellite imagery and ground data collection) revealed a rapid glacier retreat and give an assessment of the remaining ice volume as well as scenarios of possible evolution.¦These results were presented to different audiences, including in front of 160 governments. The results and data generated are made available online through an open source SDI (http://preview.grid.unep.ch). The method is flexible and easily transferable to different scales and issues, with good prospects for adaptation to other research areas. The risk characterization at a global level and identifying the role of ecosystems in disaster risk is booming. These researches have revealed many challenges, some were resolved, while others remained limitations. However, it is clear that the level of development, and more over, unsustainable development, configures a large part of disaster risk and that the dynamics of risk is primarily governed by global change.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cette contribution s'intéresse à la convergence qui devrait exister entre la demande populaire en matière de prestations publiques et les décisions budgétaires des autorités afin que le secteur public soit efficace du point de vue allocatif. Elle cherche à appliquer la méthode de l'allocation contingente dans une volonté d'impliquer la population dans la répartition des ressources budgétaires. Schématiquement, il s'agit d'interroger les administré-e-s dans le cadre d'une enquête et de leur demander d'allouer un budget donné entre les différentes catégories de prestations publiques que l'administration doit offrir. Cette méthode est appliquée ici de façon expérimentale en utilisant comme périmètre d'analyse les budgets des collectivités locales suisses. Les tests effectués sur les résultats montrent que les préférences révélées ne le sont pas sur une base aléatoire. Si des différences apparaissent entre les allocations contingentes et la manière dont les ressources sont effectivement réparties entre les prestations communales, ces différences semblent découler d'une divergence de vues réelle et non d'un biais lié à la méthode.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les plantes sont essentielles pour les sociétés humaines. Notre alimentation quotidienne, les matériaux de constructions et les sources énergétiques dérivent de la biomasse végétale. En revanche, la compréhension des multiples aspects développementaux des plantes est encore peu exploitée et représente un sujet de recherche majeur pour la science. L'émergence des technologies à haut débit pour le séquençage de génome à grande échelle ou l'imagerie de haute résolution permet à présent de produire des quantités énormes d'information. L'analyse informatique est une façon d'intégrer ces données et de réduire la complexité apparente vers une échelle d'abstraction appropriée, dont la finalité est de fournir des perspectives de recherches ciblées. Ceci représente la raison première de cette thèse. En d'autres termes, nous appliquons des méthodes descriptives et prédictives combinées à des simulations numériques afin d'apporter des solutions originales à des problèmes relatifs à la morphogénèse à l'échelle de la cellule et de l'organe. Nous nous sommes fixés parmi les objectifs principaux de cette thèse d'élucider de quelle manière l'interaction croisée des phytohormones auxine et brassinosteroïdes (BRs) détermine la croissance de la cellule dans la racine du méristème apical d'Arabidopsis thaliana, l'organisme modèle de référence pour les études moléculaires en plantes. Pour reconstruire le réseau de signalement cellulaire, nous avons extrait de la littérature les informations pertinentes concernant les relations entre les protéines impliquées dans la transduction des signaux hormonaux. Le réseau a ensuite été modélisé en utilisant un formalisme logique et qualitatif pour pallier l'absence de données quantitatives. Tout d'abord, Les résultats ont permis de confirmer que l'auxine et les BRs agissent en synergie pour contrôler la croissance de la cellule, puis, d'expliquer des observations phénotypiques paradoxales et au final, de mettre à jour une interaction clef entre deux protéines dans la maintenance du méristème de la racine. Une étude ultérieure chez la plante modèle Brachypodium dystachion (Brachypo- dium) a révélé l'ajustement du réseau d'interaction croisée entre auxine et éthylène par rapport à Arabidopsis. Chez ce dernier, interférer avec la biosynthèse de l'auxine mène à la formation d'une racine courte. Néanmoins, nous avons isolé chez Brachypodium un mutant hypomorphique dans la biosynthèse de l'auxine qui affiche une racine plus longue. Nous avons alors conduit une analyse morphométrique qui a confirmé que des cellules plus anisotropique (plus fines et longues) sont à l'origine de ce phénotype racinaire. Des analyses plus approfondies ont démontré que la différence phénotypique entre Brachypodium et Arabidopsis s'explique par une inversion de la fonction régulatrice dans la relation entre le réseau de signalisation par l'éthylène et la biosynthèse de l'auxine. L'analyse morphométrique utilisée dans l'étude précédente exploite le pipeline de traitement d'image de notre méthode d'histologie quantitative. Pendant la croissance secondaire, la symétrie bilatérale de l'hypocotyle est remplacée par une symétrie radiale et une organisation concentrique des tissus constitutifs. Ces tissus sont initialement composés d'une douzaine de cellules mais peuvent aisément atteindre des dizaines de milliers dans les derniers stades du développement. Cette échelle dépasse largement le seuil d'investigation par les moyens dits 'traditionnels' comme l'imagerie directe de tissus en profondeur. L'étude de ce système pendant cette phase de développement ne peut se faire qu'en réalisant des coupes fines de l'organe, ce qui empêche une compréhension des phénomènes cellulaires dynamiques sous-jacents. Nous y avons remédié en proposant une stratégie originale nommée, histologie quantitative. De fait, nous avons extrait l'information contenue dans des images de très haute résolution de sections transverses d'hypocotyles en utilisant un pipeline d'analyse et de segmentation d'image à grande échelle. Nous l'avons ensuite combiné avec un algorithme de reconnaissance automatique des cellules. Cet outil nous a permis de réaliser une description quantitative de la progression de la croissance secondaire révélant des schémas développementales non-apparents avec une inspection visuelle classique. La formation de pôle de phloèmes en structure répétée et espacée entre eux d'une longueur constante illustre les bénéfices de notre approche. Par ailleurs, l'exploitation approfondie de ces résultats a montré un changement de croissance anisotropique des cellules du cambium et du phloème qui semble en phase avec l'expansion du xylème. Combinant des outils génétiques et de la modélisation biomécanique, nous avons démontré que seule la croissance plus rapide des tissus internes peut produire une réorientation de l'axe de croissance anisotropique des tissus périphériques. Cette prédiction a été confirmée par le calcul du ratio des taux de croissance du xylème et du phloème au cours de développement secondaire ; des ratios élevés sont effectivement observés et concomitant à l'établissement progressif et tangentiel du cambium. Ces résultats suggèrent un mécanisme d'auto-organisation établi par un gradient de division méristématique qui génèrent une distribution de contraintes mécaniques. Ceci réoriente la croissance anisotropique des tissus périphériques pour supporter la croissance secondaire. - Plants are essential for human society, because our daily food, construction materials and sustainable energy are derived from plant biomass. Yet, despite this importance, the multiple developmental aspects of plants are still poorly understood and represent a major challenge for science. With the emergence of high throughput devices for genome sequencing and high-resolution imaging, data has never been so easy to collect, generating huge amounts of information. Computational analysis is one way to integrate those data and to decrease the apparent complexity towards an appropriate scale of abstraction with the aim to eventually provide new answers and direct further research perspectives. This is the motivation behind this thesis work, i.e. the application of descriptive and predictive analytics combined with computational modeling to answer problems that revolve around morphogenesis at the subcellular and organ scale. One of the goals of this thesis is to elucidate how the auxin-brassinosteroid phytohormone interaction determines the cell growth in the root apical meristem of Arabidopsis thaliana (Arabidopsis), the plant model of reference for molecular studies. The pertinent information about signaling protein relationships was obtained through the literature to reconstruct the entire hormonal crosstalk. Due to a lack of quantitative information, we employed a qualitative modeling formalism. This work permitted to confirm the synergistic effect of the hormonal crosstalk on cell elongation, to explain some of our paradoxical mutant phenotypes and to predict a novel interaction between the BREVIS RADIX (BRX) protein and the transcription factor MONOPTEROS (MP),which turned out to be critical for the maintenance of the root meristem. On the same subcellular scale, another study in the monocot model Brachypodium dystachion (Brachypodium) revealed an alternative wiring of auxin-ethylene crosstalk as compared to Arabidopsis. In the latter, increasing interference with auxin biosynthesis results in progressively shorter roots. By contrast, a hypomorphic Brachypodium mutant isolated in this study in an enzyme of the auxin biosynthesis pathway displayed a dramatically longer seminal root. Our morphometric analysis confirmed that more anisotropic cells (thinner and longer) are principally responsible for the mutant root phenotype. Further characterization pointed towards an inverted regulatory logic in the relation between ethylene signaling and auxin biosynthesis in Brachypodium as compared to Arabidopsis, which explains the phenotypic discrepancy. Finally, the morphometric analysis of hypocotyl secondary growth that we applied in this study was performed with the image-processing pipeline of our quantitative histology method. During its secondary growth, the hypocotyl reorganizes its primary bilateral symmetry to a radial symmetry of highly specialized tissues comprising several thousand cells, starting with a few dozens. However, such a scale only permits observations in thin cross-sections, severely hampering a comprehensive analysis of the morphodynamics involved. Our quantitative histology strategy overcomes this limitation. We acquired hypocotyl cross-sections from tiled high-resolution images and extracted their information content using custom high-throughput image processing and segmentation. Coupled with an automated cell type recognition algorithm, it allows precise quantitative characterization of vascular development and reveals developmental patterns that were not evident from visual inspection, for example the steady interspace distance of the phloem poles. Further analyses indicated a change in growth anisotropy of cambial and phloem cells, which appeared in phase with the expansion of xylem. Combining genetic tools and computational modeling, we showed that the reorientation of growth anisotropy axis of peripheral tissue layers only occurs when the growth rate of central tissue is higher than the peripheral one. This was confirmed by the calculation of the ratio of the growth rate xylem to phloem throughout secondary growth. High ratios are indeed observed and concomitant with the homogenization of cambium anisotropy. These results suggest a self-organization mechanism, promoted by a gradient of division in the cambium that generates a pattern of mechanical constraints. This, in turn, reorients the growth anisotropy of peripheral tissues to sustain the secondary growth.