999 resultados para Contrôle de la position-seuil


Relevância:

100.00% 100.00%

Publicador:

Resumo:

INTRODUCTION Le pays s'étendant entre le Strymon et le Nestos, c'est-à-dire la Thrace du sud-ouest, est une région montagneuse riche en mines d'or, d'argent, de fer, de cuivre et de plomb, qui dispose en outre de plusieurs vastes plaines fertiles. Un grand nombre de peuples indigènes habitaient dans ce pays et tiraient profit de ses richesses durant les époques archaïque et classique. Ces richesses sont également à l`origine de l'intérêt que portèrent plusieurs colons grecs à cette région. Le but de cet ouvrage n'est pas d'analyser de manière exhaustive l'histoire de la Thrace du sud-ouest. Ce sujet fait d'ailleurs l'objet de nombreuses investigations savantes internationales. En revanche, nous souhaitons approfondir certains aspects des relations que les peuples indigènes de cette région entretinrent avec les pouvoirs limitrophes, notamment avec l'île de Thasos et les autres cités grecques de la région, avec le royaume de Macédoine et, en dernier lieu, avec Athènes. Pour ce faire, nous étudierons dans un premier temps la topographie et les ressources naturelles de la région. Nous examinerons des problèmes portant sur l'identification des montagnes, des lacs et des rivières ainsi que sur la localisation de toponymes et de villes. Cet exposé, accompagné d'une carte, vise non seulement à rapprocher les toponymes actuels des toponymes transmis par les auteurs anciens mais aussi à enrichir nos connaissances relatives aux ressources naturelles de ces territoires. Où se trouvaient les zones minières principales et à quelles peuplades étaient-elles associées ? A quelle époque remontait leur exploitation ? On suppose souvent que ces mines cessèrent de fonctionner avant l'époque impériale. Cette hypothèse est-elle correcte ? Le but principal du premier chapitre de cette étude est de rassembler les données de nature archéologique et géologique relatives à l'exploitation des mines de la région concernée en les associant aux nombreux témoignages fournis par les auteurs antiques. Le deuxième chapitre concerne le peuplement du pays étudié. Nous nous efforcerons d'apporter des précisions sur l'origine des populations indigènes et sur la date approximative de leur installation dans la région. En se fondant sur les nombreuses informations que nous avons réunies, nous nous pencherons en particulier sur les questions relatives à la situation géographique de ces populations. Les richesses et la position stratégique de la Thrace du sud-ouest attirèrent de nombreux prétendants d`origines différentes. La vision que l`on a de la Thrace du sud-ouest aux époques archaïque et classique est le plus souvent celle d'un pays habité par des populations thraces hostiles envers les Grecs, et plus particulièrement envers les Athéniens. Est-ce qu'est cette image exacte ? En s'appuyant sur les sources littéraires et archéologiques, le troisième chapitre propose une discussion sur les premiers contacts que les divers peuples établis dans cette région établirent avec les Grecs venant de Thasos, d'Andros et d'Asie Mineure durant les VIIe et VIe siècles. Nous nous pencherons ensuite sur le rôle que jouèrent Macédoniens et Athéniens dans l'évolution du peuplement de cette région au cours du VIe siècle et au début du Ve siècle. Cette question, qui constitue le sujet du quatrième chapitre, a rendu nécessaire le réexamen du processus de l'expansion macédonienne vers l'est jusqu'au pays du Strymon. A quelle époque remonte cette expansion et quelles furent ses conséquences pour les peuples concernés? Nous allons aussi examiner le contexte historique du séjour de Pisistrate dans la région du Pangée et des rapports qu'entretint Miltiade Il avec les peuples indigènes et la Macédoine. Pour ce faire, nous nous fonderons sur l'apport des sources littéraires, épigraphiques et archéologiques. Les réponses à ces questions nous permettront ensuite, dans le cinquième chapitre, de nous interroger sur la nature des relations politiques et économiques des peuples indigènes avec Thasos, Athènes et la Macédoine dans le cadre de l'occupation perse en Thrace. Le sixième chapitre, quant à lui, se propose d`étudier l'équilibre politique et économique entre Athènes, Thasos et la Macédoine dans le territoire édonien et bisalte durant le Ve siècle. Nous nous proposons d`examiner les données témoignant de l'influence et du contrôle exercés par chacun de ces pouvoirs dans la région. Cette discussion soulève un certain nombre de questions historiques importantes. Quel rôle jouèrent les rois macédoniens dans le pays du Strymon ? Est-ce que l'entrée des cités grecques de Bisaltie dans la Ligue de Délos témoigne de l'affaiblissement du pouvoir du royaume de Macédoine, comme on le pense d'habitude ? Dans quelles zones furent actifs les Athéniens ? De quels appuis disposaient les Thasiens sur le continent avant et après la perte de leurs mines et emporia au profit des Athéniens (465-463) ? Cette discussion nous permettra aussi de faire une distinction claire entre les peuples indigènes annexés au royaume macédonien et ceux qui demeurèrent autonomes à partir de la fin du VIe siècle avant J.-C. En quoi consistait l'autonomie de ces Thraces et comment l'expliquer? L'histoire et l'organisation des ethnè thraces de la région suite à leur annexion au royaume macédonien durant le IVe siècle constituent le sujet du septième chapitre. La question de la présence athénienne dans cette région a provoqué de nombreux débats. Les savants modernes affirment souvent que les sources ne se réfèrent pas à l'existence d'une ville athénienne dans la région. Dans le huitième chapitre, nous réexaminerons les éléments de ce débat, qui touche directement au problème de la localisation de la cité prospère de Datos et des conditions historiques de la fondation de Philippes (357 avant J -C.). Enfin, nous traiterons la question du statut juridique des Athéniens présents dans la région. Bien que notre documentation sur ces sujets soit riche, elle demeure très fragmentaire. En effet, de nombreux ouvrages antiques qui traitaient de ce pays ne nous sont pas parvenus. Hormis les poèmes d"Eschyle Lycourgeia, d'[Euripide] Rhèsos et les histoires invraisemblables d'Asclepiades de Tragilos intitulées Tragodoumena, nous avons perdu des dizaines de livres historiques et géographiques rédigées par Hécatée, Hellanicos, Ephore, Eudoxe, Théopompe, Marsyas le Philippien, Armenidas, Hégisippos de Mekybema, Balakros, ainsi que Strabon, qui nous auraient certainement donné une image plus précise de l'histoire de la Thrace du sud-ouest au VIe siècle et à l'époque classique. La documentation relative à l'histoire politique, économique, sociale et géographique de la région nous fait défaut. Une autre difficulté majeure de notre travail consiste dans la nature complexe de l'histoire de la région elle-même. Enfin, une foule de questions de géographie historique et de topographie ne sont pas encore résolues. Toutes ces difficultés sont accentuées malheureusement par le manque de données archéologiques. Seul un petit nombre de sites, repérés grâce à des prospections de surface, ont fait l'objet de fouilles systématiques et de publications complètes. Il ne fait aucun doute que des recherches archéologiques nous fourniraient des indices permettant de répondre aux nombreuses questions historiques et géographiques encore en suspens. Pour tenter de pallier ces lacunes, nous avons réexaminé toutes les sources, repris l"inte1-prétation des passages litigieux et mis en valeur les résultats des nouvelles recherches.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Résumé Des développements antérieurs, au sein de l'Institut de Géophysique de Lausanne, ont permis de développer des techniques d'acquisition sismique et de réaliser l'interprétation des données sismique 2D et 3D pour étudier la géologie de la région et notamment les différentes séquences sédimentaires du Lac Léman. Pour permettre un interprétation quantitative de la sismique en déterminant des paramètres physiques des sédiments la méthode AVO (Amplitude Versus Offset) a été appliquée. Deux campagnes sismiques lacustres, 2D et 3D, ont été acquises afin de tester la méthode AVO dans le Grand Lac sur les deltas des rivières. La géométrie d'acquisition a été repensée afin de pouvoir enregistrer les données à grands déports. Les flûtes sismiques, mises bout à bout, ont permis d'atteindre des angles d'incidence d'environ 40˚ . Des récepteurs GPS spécialement développés à cet effet, et disposés le long de la flûte, ont permis, après post-traitement des données, de déterminer la position de la flûte avec précision (± 0.5 m). L'étalonnage de nos hydrophones, réalisé dans une chambre anéchoïque, a permis de connaître leur réponse en amplitude en fonction de la fréquence. Une variation maximale de 10 dB a été mis en évidence entre les capteurs des flûtes et le signal de référence. Un traitement sismique dont l'amplitude a été conservée a été appliqué sur les données du lac. L'utilisation de l'algorithme en surface en consistante a permis de corriger les variations d'amplitude des tirs du canon à air. Les sections interceptes et gradients obtenues sur les deltas de l'Aubonne et de la Dranse ont permis de produire des cross-plots. Cette représentation permet de classer les anomalies d'amplitude en fonction du type de sédiments et de leur contenu potentiel en gaz. L'un des attributs qui peut être extrait des données 3D, est l'amplitude de la réflectivité d'une interface sismique. Ceci ajoute une composante quantitative à l'interprétation géologique d'une interface. Le fond d'eau sur le delta de l'Aubonne présente des anomalies en amplitude qui caractérisent les chenaux. L'inversion de l'équation de Zoeppritz par l'algorithme de Levenberg-Marquardt a été programmée afin d'extraire les paramètres physiques des sédiments sur ce delta. Une étude statistique des résultats de l'inversion permet de simuler la variation de l'amplitude en fonction du déport. On a obtenu un modèle dont la première couche est l'eau et dont la seconde est une couche pour laquelle V P = 1461 m∕s, ρ = 1182 kg∕m3 et V S = 383 m∕s. Abstract A system to record very high resolution (VHR) seismic data on lakes in 2D and 3D was developed at the Institute of Geophysics, University of Lausanne. Several seismic surveys carried out on Lake Geneva helped us to better understand the geology of the area and to identify sedimentary sequences. However, more sophisticated analysis of the data such as the AVO (Amplitude Versus Offset) method provides means of deciphering the detailed structure of the complex Quaternary sedimentary fill of the Lake Geneva trough. To study the physical parameters we applied the AVO method at some selected places of sediments. These areas are the Aubonne and Dranse River deltas where the configurations of the strata are relatively smooth and the discontinuities between them easy to pick. A specific layout was developed to acquire large incidence angle. 2D and 3D seismic data were acquired with streamers, deployed end to end, providing incidence angle up to 40˚ . One or more GPS antennas attached to the streamer enabled us to calculate individual hydrophone positions with an accuracy of 50 cm after post-processing of the navigation data. To ensure that our system provides correct amplitude information, our streamer sensors were calibrated in an anechoic chamber using a loudspeaker as a source. Amplitude variations between the each hydrophone were of the order of 10 dB. An amplitude correction for each hydrophone was computed and applied before processing. Amplitude preserving processing was then carried out. Intercept vs. gradient cross-plots enable us to determine that both geological discontinuities (lacustrine sediments/moraine and moraine/molasse) have well defined trends. A 3D volume collected on the Aubonne river delta was processed in order ro obtain AVO attributes. Quantitative interpretation using amplitude maps were produced and amplitude maps revealed high reflectivity in channels. Inversion of the water bottom of the Zoeppritz equation using the Levenberg-Marquadt algorithm was carried out to estimate V P , V S and ρ of sediments immediately under the lake bottom. Real-data inversion gave, under the water layer, a mud layer with V P = 1461 m∕s, ρ = 1182 kg∕m3 et V S = 383 m∕s.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Résumé sous forme de thèses 1. La présente thèse de doctorat traite de la problématique des licences obligatoires en droit communautaire de la concurrence. Plus précisément, il s'agit d'examiner si et sous quelles conditions le refus de licencier un droit de propriété intellectuelle par une entreprise peut constituer un abus d'une position dominante selon l'article 82 du Traité CE. L'étude fait notamment référence aux marchés de haute technologie et ici à la décision Microsoft, qui a été publiée par la Commission européenne en mars 2004 et qui porte, dans sa deuxième partie, sur la possibilité de rendre interopérables différents composants, via des informations appelées interfaces. 2. La question d'une licence obligatoire ne se pose que si l'information recherchée est protégée par un droit de propriété intellectuelle et si cette information ne peut être obtenue par d'autres moyens. C'est pourquoi la première partie de l'étude examine deux sujets importants concernant l'interopérabilité: d'une part la méthode de décompilation permet-elle d'obtenir des interfaces de logiciel, d'autre part, les interfaces sont-elles protégées par le droit d'auteur. 3. En ce qui concerne la décompilation des programmes d'ordinateur, l'étude démontre que cette méthode ne permet pas de rendre interopérables différents programmes d'ordinateur de manière efficace. Le droit européen a légalisé cette méthode, après des débats publics très vifs, par l'article 6 de la directive concernant la protection juridique des programmes d'ordinateur (91/250/CEE). Il semble néanmoins que la lutte pour un tel droit de décompilation a été vaine :Tout d'abord, l'article 6 est rédigé d'une façon très complexe et autorise une décompilation seulement selon des conditions très restrictives. En plus, la décompilation en elle-même est un travail très complexe qui peut durer des années et qui ne garantit pas de trouver les informations recherchées. 4. En outre, une réglementation de décompilation n'existe jusqu'à présent que dans le domaine du droit d'auteur, tandis qu'une règlementation pour la protection juridique des brevets fait défaut. La question concernant la protection juridique des brevets pour les inventions mises en rouvre par ordinateur restera aussi dans le futur sans réponse, étant donné que le Parlement européen a rejeté une telle proposition de directive en juillet 2005. Ceci est regrettable, parce que la proposition de directive prévoyait explicitement un droit de décompilation. La Commission européenne projette, cependant, de réexaminer les dispositions de décompilation relatives au droit d'auteur. Dans ce contexte, il devrait notamment être examiné si les dispositions de décompilation de l'article 6 de la directive des programmes d'ordinateur sont satisfaisantes afin de garantir une (certaine) interopérabilité. 5. Un réexamen de la directive concernant la protection juridique des programmes d'ordinateur pourrait aussi servir à clarifier l'existence et l'étendue de la protection d'interfaces. L'article 1, paragraphe 2, 2ième phrase se réfère dans ce contexte uniquement à un principe reconnu en droit international du droit d'auteur, dénommé «dichotomie d'idée/d'expression» : seul l'expression individuelle est protégée, mais pas l'idée en tant que telle. La rédaction de l'article devrait ainsi préciser qu'une spécification d'une interface constitue toujours une idée, qui ne peut pas être protégée, alors que l'implémentation de l'interface dans un programme d'ordinateur représente son expression et devrait ainsi bénéficier d'une protection selon le droit d'auteur. Or, dans la plupart des cas, la spécification d'une interface est suffisante pour rendre interopérables différents programmes d'ordinateur. 6. La Commission dans sa décision Microsoft a pourtant supposé que les interfaces recherchées par les concurrents de Microsoft pouvaient être protégées par des droits de propriété intellectuelle. En effet, le seul moyen à disposition pour ceux qui veulent rendre interopérables leur programme d'ordinateur et avec celui d'une entreprise dominante est le recours à l'article 82 CE. Ici, la question qui se pose est celle de savoir si le refus de fournir des interfaces constitue un abus d'une position dominante et donc mène à l'octroi d'une licence obligatoire. 7. Dans le contexte des licences obligatoires selon l'article 82 CE, il est courant d'invoquer la relation de conflit entre la propriété intellectuelle et le droit de la concurrence. Or, l'étude démontre que ces deux institutions de droit poursuivent le même but, à savoir l'encouragement au bien-être des consommateurs en stimulant l'innovation. Les objectifs convergent notamment si on définit la concurrence plutôt en tant que concept dynamique. Par conséquent, des restrictions temporaires à la concurrence peuvent être acceptées, si ceci mène à la création de la concurrence à long terme. Pourtant, des conflits potentiels persistent, étant donné qu'on ne peut pas argumenter que chaque restriction à la concurrence effectuée par le titulaire d'un droit de propriété intellectuelle mène à l'incitation de l'innovation à long terme. 8. En réfutant ce dernier argument, l'étude démontre que les droits de propriété intellectuelle ne peuvent pas être généralement exemptés de l'application du droit de la concurrence. Notamment, selon l'état actuel de la jurisprudence, il ne peut être soutenu qu'il existe un noyau dur spécifique du droit de la propriété intellectuelle, qui ne devrait pas être affecté par le droit de la concurrence. L'ordonnance d'une licence obligatoire peut être justifiée sur la base de l'article 82 CE, dans la mesure où la balance d'intérêts démontre un effet positif au bien-être des consommateurs résultant d'une telle licence. En même temps, les droits individuels du propriétaire d'un droit de propriété intellectuelle sont à respecter, surtout la liberté contractuelle et la protection de la propriété. 9. Le droit de la liberté contractuelle et le droit de la propriété sont atteints, si le propriétaire d'un droit, de nature matérielle ou immatérielle, n'a exercé son droit de propriété que pour lui-même, exclusivement, sans jamais avoir démontré la volonté de s'acquitter de ses droits. C'est donc surtout pour protéger ces deux principes de droit que la présente étude fait une distinction majeure entre le refus de contracter et la rupture d'une relation contractuelle. 10. Le premier cas est traité de manière détaillée sous le chapitre de la doctrine des facilités essentielles (EFD). Selon la position prise ici, cette constellation est caractérisée par l'obligation du propriétaire de contracter et ainsi d'établir des relations d'affaires avec ses concurrents. Or, un principe selon lequel les entreprises en position dominante sont obligées d'encourager la concurrence, n'existe pas en droit communautaire. Il est toutefois nécessaire de pouvoir imposer une telle obligation, notamment dans les cas où la concurrence sur un marché ne peut être mise en oeuvre à long terme par un autre moyen et où cette ouverture du marché n'entraîne pas d'obstacles à l'innovation. 11. La constellation particulière des facilités essentielles exige néanmoins un contrôle plus prudent que dans les cas constituant une rupture de relation d'affaires. Cette exigence a été respectée sur base des conditions que l'arrêt Bronner a établit concernant l'essentialité d'une facilité. Même si l'établissement en question remplit toutes les conditions afin d'être qualifié d'essentiel, l'ordonnance d'un accès obligé doit encore passer l'examen d'une balance d'intérêts. Celle-ci mène encore plus rarement à l'octroi d'une licence dans les cas où la facilité est protégée par un droit de propriété intellectuelle. Des exceptions à cette règle existent si le droit de la propriété intellectuelle n'a pas été obtenu par des moyens basés sur le mérite ou si la fonction d'incitation à l'innovation est en doute. 12. L'affaire IMS Health présente un tel cas exceptionnel. La structure recherchée par les concurrents de IMS remplissait, au moment de l'examen de l'affaire par la Commission européenne, tous les critères d'un standard de facto. En outre, au moment du développement de la structure, celle-ci ne bénéficiait pas d'une protection de droit immatérielle. Une telle protection ne lui a été accordée que depuis la transposition de la directive concernant la protection juridique des bases de données en droit d'auteur allemand. Par conséquent, IMS ne pouvait avoir entrepris des investissements dans la construction de la structure, afin de profiter ultérieurement de la protection du droit d'auteur. Ceci affaiblit la présomption selon laquelle l'utilisation exclusive du droit aurait dû être préservée afin de ne pas faire obstacle à l'innovation. 13. Le cas européen de Microsoft se distingue de cette constellation. Les conditions qui ont mené à la décision de la Commission européenne quant à l'attribution d'interopérabilité et ainsi à une licence obligatoire d'interfaces, ont été présenté de manière détaillée dans cette étude. Elles fournissent les meilleures preuves que les «circonstances exceptionnelles », qui ont été déterminantes dans l'affaire Magill de la Cour de justice, à savoir «l'empêchement de la création d'un nouveau produit », le «manque de justification objective » et «l'empêchement de toute concurrence sur un marché en aval distinct », ne peuvent constituer une énumération exhaustive pour l'ordonnance d'une licence obligatoire. 14. En effet, dans l'affaire Microsoft, l'intersection progressive d'interopérabilité entre les systèmes d'exploitation étrangers à Microsoft et des systèmes d'exploitation de Microsoft n'a pas empêché la création de nouveaux produits. Le marché en question, celui des systèmes d'exploitation pour serveur de groupe de travail, avait été créé par l'entreprise Novell. Par conséquent, quand Microsoft a accédé à ce marché, d'autres entreprises en situation d'offre s'y trouvaient déjà avec leurs produits. Il s'en suit que, en 'exigeant de Microsoft des interfaces correspondantes, il s'agissait d'assurer l'interopérabilité avec les produits de Microsoft, et surtout avec l'omniprésent système d'exploitation pour ordinateur PC, afin de maintenir des produits déjà existants sur le marché, et notamment des produits «pionniers »qui avaient pris le risque d'exploiter le marché des systèmes d'exploitation pour serveur de groupe de travail. 15. Une autre circonstance exceptionnelle que celle d'un nouveau produit empêché donne l'impulsion à la thèse qu'une intersection progressive aux interfaces de Microsoft constitue un abus d'une position dominante selon l'article 82 CE : celle du transfert du pouvoir de marché. L'intégration verticale d'une entreprise en position dominante sur un marché qui n'a jusqu'à ce jour été que fourni par celle-ci, et qui rompt des relations contractuelles avec des entreprises agissant sur ce marché, afin d'évincer de la concurrence, constitue un cas de type connu de l'abus, reconnue pour la première fois dans l'arrêt Commercial Solvents de la CJCE: L'entreprise en position dominante utilise son pouvoir sur un marché initial et stratégiquement important et se sert ainsi des avantages, qui ne peuvent être conciliés avec le concept de concurrence par le mérite. 16. Il doit être de même si le bien en question bénéficie d'un droit immatériel, et qu'il s'agit ainsi d'un arrêt d'une licence. En effet, les fonctions, en principe supposées, d'incitation et de mérite, perdent de leur importance si le bien en question a déjà fait objet d'une licence: Il ne peut pas alors être argumenté que le propriétaire d'un droit immatériel doit l'utiliser exclusivement lui-même, afin de profiter des fruits de son mérite. Cet argument particulier de la prise en compte de l'effet d'incitation et de mérite perd d'autant plus de sa pertinence, si l'entreprise en cause ne fournit pas sur le marché dérivé une innovation, mais ne sert juste qu'à vendre un produit déjà préexistant. 17. Dans le domaine de licence de propriété intellectuelle obligatoire selon l'article 82 CE, les juridictions européennes n'ont jusqu'à présent uniquement eu à décider sur des constellations de cas, dans lesquelles le droit n'avait pas été l'objet d'une licence antérieure. Avec le cas Microsoft, le Tribunal de Première Instance a maintenant la possibilité de décider d'une distinction importante à faire en droit de la concurrence entre, d'une part, les cas dans lesquels un droit de propriété intellectuelle n'a pas encore été l'objet d'une licence et de l'autre, ceux dans lesquels il s'agit d'une rupture de licence.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Résumé I. Introduction La présente étude analyse les conflits entre les autorités nationales de concurrence dans le cas de figure où plusieurs autorités examinent en même temps la convergence d'une opération de concentration avec leur droit de concentration respectif. Tandis que le débat concernant le contrôle parallèle des opérations de concentration internationales est aujourd'hui extrêmement vif, la recherche fondamentale sur ce sujet n'a pas encore beaucoup avancé. Cependant il y a un besoin de réforme évident, un besoin au centre duquel se situe une réflexion sur l'organisation du droit de concurrence international. Le but de cette étude est donc de fournir une vue d'ensemble des conflits possibles entre les autorités nationales de concurrence en matière politique, économique et juridique (matérielle et procédurale) causés par une opération de concentration internationale. L'objectif n'est pas de fournir une évaluation des différents systèmes de contrôle de concentration, mais plutôt de chercher la source des conflits. Par ailleurs, l'analyse qui suit insistera sur la nécessité d'une solution internationale de ces conflits. II. Arrière-plan Depuis plusieurs décennies, les relations économiques internationales entre les Etats et les entreprises ont été profondément marquées par un processus dynamique de globalisation et de libéralisation. La libéralisation a engendré une croissance énorme du commerce mondial. En conséquence, les entreprises ont développé des stratégies globales pour arriver à une croissance durable. Ainsi, le nombre et la taille des entreprises internationales a constamment augmenté. À cause de cette présence globale des entreprises, les anciens marchés nationaux ou régionaux sont devenus des marchés globaux. Dans le cadre de la libéralisation économique, beaucoup d'Etats ainsi que l'Union Européenne ont reconnu que la concurrence est le moyen approprié pour faire progresser l'innovation et la croissance économique. Il faut donc maintenir et développer les structures de concurrence. Pour cela, il faut surveiller dans le cadre du droit de contrôle international toutes les pratiques concertées dont l'objet ou l'effet serait de restreindre la concurrence, ainsi que les abus d'une position dominante ou les opérations de concentration d'entreprises. Jusqu'à présent, sur environ 200 Etats souverains existants au monde, une bonne centaine ainsi que l'Union Européenne (l'UE) ont développé un droit de concurrence. Et parmi ces Etats, 75 environ ont créé un droit de contrôle de concentration. Mais ces règles nationales ne sont pas toujours appropriées au regard de l'économie mondiale. On constate plutôt que ,,l'internationalisation croissante des marchés [...] n'a pas été suivie d'une internationalisation parallèle de la politique de concurrence". Par ailleurs, un grand nombre d'Etats appliquent leur droit de concurrence également en dehors de leur propre territoire afin de contrôler les abus à l'étranger. Même si on peut comprendre ce besoin de contrôle, cette évolution risque de provoquer des conflits avec les législations des autres Etats concernés. D'autres difficultés naissent des différences théoriques ou pratiques des systèmes du droit de la concurrence ou de régulations divergentes du point de vue matériel et procédural. Même sur la base de règles comparables, des divergences apparaissent à cause de différentes méthodes d'interprétation ou d'application. La communauté internationale s'emploie à combattre toutes les barrières au commerce transnational -notamment dans le cadre de l'Organisation Mondiale du Commerce (OMC). Mais si elle néglige de lutter en même temps contre les barrières commerciales établies par les entreprises elles-mêmes, elle risque de perdre les gains d'efficacité et de bien public déjà acquis par la suppression des barrières commerciales publiques. Car certaines actions des entreprises privées, comme l'exclusion ou la répartition mutuelle du marché, peuvent aussi bien conduire à des restrictions de la concurrence que les barrières commerciales publiques, tarifaires ou non-tarifaires, et peuvent même s'y substituer. III. Plan de l'étude Après l'Introduction, la partie B traite de la coopération de l'Union Européenne avec les Etats-Unis en matière du droit de la concurrence. En effet, les accords bilatéraux entre l'UE et les Etats-Unis montrent les possibilités et les limites d'une telle coopération. Les conflits entre les autorités de concurrence résultent de la mondialisation croissante et de l'intensification de la concurrence qui en découle. Aussi, ces conflits ne sont pas seulement d'ordre théorique mais également d'une grande importance pratique comme le montre l'analyse des deux cas dans la partie C. Les autorités de concurrence des Etats-Unis et de l'Union Européenne ont chacun de leur côté examiné la fusion des entreprises Boeing Corporation et McDonnell Douglas Corporation (MDD), ainsi que le projet de fusion entre Honeywell International Inc. (Honeywell) et General Electric Co. (GE). Or, ces deux procédures sont paradigmatiques en ce qui concerne la sensibilité politique des autorités de concurrence et les limites de la coopération bilatérale. Après ces analyse de cas, la partie D qui compare le droit de contrôle de concentration aux Etats-Unis et en Europe et examine les conflits éventuels entre les deux systèmes constitue la partie principale de l'étude. Les sources de ces conflits peuvent être aussi bien trouvées dans le droit matériel que dans le droit procédural, tout comme dans les différences d'orientation politique générale des deux systèmes. La partie E montre les différentes solutions qui ont été proposées dans ce cadre. Ensuite, ces propositions sont comparées avec celles concernant l'harmonisation des politiques de concurrence et de contrôle de concentrations. Sur la base de ces résultats, une proposition de solution montrant les premiers pas nécessaires pour résoudre les conflits existants entre les autorités de concurrence est présentée. IV. Résumé des conflits L'étude aboutit à la constatation que presque tous les aspects du contrôle des concentrations constituent un important potentiel de conflits. Celui-ci est d'ailleurs bien plus important que l'on ne pourrait penser au w des lois applicables. La complexité du droit de la concurrence provoque nécessairement des conflits. Mais il faut également tenir compte des différences fondamentales concernant les objectifs politiques des Etats, les formes d'institutionnalisation des autorités de concurrence et la prise en considération des pays en développement ou des pays émergents. Les différences purement juridiques accroissent le potentiel de conflits entre les Etats et empêchent une intensification de la coopération. Cela est notamment vrai pour la définition de la concentration, l'application extraterritoriale du droit national, la notification obligatoire et ses seuils fixés. Concernant le droit matériel, les conflits se situent dans les domaines de la délimitation du marché, le critère d'incompabilité, l'analyse économique, la prise en compte des gains d'efficacité, l'importance de la concentration de sauvetage ainsi que de l'application du principe de ,,comity of nations". Du point de we du droit procédural, les différences d'inscription obligatoire et d'interdiction partielle de l'accomplissement consécutif donnent autant également lieu à des conflits potentiels que les différences de méthode d'investigation et d'exécution des décisions publiques. Il en va de même pour les différents remèdes ou les sanctions prévues pour le mépris des décisions des autorités ou des tribunaux et la position des parties tierces dans la procédure est également un facteur de conflit. Enfin, il faut mentionner le manque de transparence qui nuit à la sécurité juridique. L'application arbitraire du droit, le protectionnisme, le mercantilisme ainsi que le manque de sécurité juridique augmentent le danger de conflits interétatiques. La coopération entre les Etats-Unis et l'Union Européenne sur la base de l'accord de 1991 n'a pas vraiment réduit ce potentiel de conflits. Cela s'est notamment avéré au moment des projets de fusion entre GE et Honeywell et de la reprise de MDD par Boeing. V. Les possibilités d'harmonisation Aussi bien la nécessité que la faisabilité d'une harmonisation globale du droit de la concurrence et d'une politique de la concurrence sont encore très discutés. La plupart des débats tournent plutôt autour de l'arrangement concret d'un tel droit harmonisé que de l'objectif général d'une harmonisation. Quelques Etats comme les Etats-Unis redoutent une trop grande perte de souveraineté et veulent par conséquent maintenir leur méthode unilatérale et extraterritoriale. Cependant, la plupart des experts des organisations internationales comme ceux des autorités de concurrence et du public intéressé approuvent l'idée d'un droit de concurrence international. Etant donné la gravité de certains conflits, de nombreux Etats et un grand nombre de juristes perçoivent la nécessité de développer la conscience d'une indispensable harmonisation, et un accord sur ce plan semble parfaitement possible. Parmi ceux qui soutiennent cet accord l'on trouve presque tous les Etats membres de l'Organisation de coopération et de développement économiques (l'OCDE), de nombreux Etats membres de l'OMC, de l'Organisations des nations unies (l'ONU) et de l'Accord de libre-échange nord-américain (l'ALENA), particulièrement les Etats de l'UE, l'Australie, le Japon, le Canada, le Mexique, la Nouvelle Zélande et quelques représentants des autorités de concurrence des Etats-Unis. La méthode la plus efficace et raisonnable pour lutter contre les obstacles privés à la concurrence est la coopération et la coordination globale des mécanismes de contrôle. Les forums et les structures nécessaires pour la préparation d'une telle tâche existent déjà. Ainsi, le cadre institutionnel éprouvé de l'OMC pourra faire progresser le processus d`harmonisation. Il faudrait simplement élargir les compétences de l'OMC pour garantir un contrôle international efficace. L'harmonisation sur le plan international serait plus efficace qu'une harmonisation unilatérale ou bilatérale. La flexibilité d'un accord international pourrait être garanti par 1"insertion de cet accord dans le Mémorandum d'accords commerciaux plurilatéraux (Annexe 4) de l'OMC. Ainsi, cet accord ne serait obligatoire que pour les Etats membres qui l'auraient déjà approuvé séparément. Les autres Etats auraient la possibilité de le signer plus tard. En cas de conflits dans le cadre de l'application de cet accord, on pourrait se servir du mécanisme d'arbitrage de l'OMC. Il faudrait également créer une autorité internationale de concurrence et un comité spécial international de concurrence. Un tel accord de l'OMC ne constitue qu'un premier pas. Les exigences minimales de l'accord doivent être renforcées et régulièrement ajustées à l'évolution et aux nouvelles données de l'économie mondiale. Ainsi, le processus d'harmonisation internationale sera l'objet d'une dynamique permanente. VI. Résultats et conclusions L'étude a montré que l'application parallèle des droits nationaux de concurrence est une importante source de conflits. Elle a surtout mis l'accent sur les relations entre les Etats-Unis et l'Union Européenne. Il est d'ailleurs très probable que ce genre de conflits augmente encore dans le futur. En 2000, l'activité mondiale des fusions et acquisitions a eu un volume de 3 billions de dollars Anglo-américains. Cela équivaut à une multiplication par onze du volume de 1991. En 2001, par contre, le volume a de nouveau baissé à 1,6 billions de dollars Anglo-américains. Mais selon les pronostics, le nombre des concentrations va à nouveau augmenter considérablement dans les prochaines années. Cette vague de concentrations internationales est la conséquence de l'intensification mondiale des relations économiques transnationales. Cette évolution va se poursuivre pour autant que les barrières commerciales publiques continuent à être démantelées, que le renforcement de la dérégularisation ouvre de nouveaux marchés à la compétition, que de plus en plus de standards techniques soient harmonisés et que les transports et la communication internationale soient améliorés et moins couteux. Enfin, la consolidation de certains secteurs économiques à la suite de fusions déjà réalisées encourage de plus en plus les entreprises à fusionner sur le plan international et dans des dimensions de plus en plus grandes. Outre les conflits engendrés par les différentes législations nationales, il faut également mentionner les oppositions qui résultent d'une façon indirecte de la compétition entre les différentes autorités de contrôle. Ainsi, par exemple, les conséquences économiques et financières d'un retard dans la procédure de contrôle ou les sanctions importantes imposées aux entreprises concernées sont souvent le sujet de discussions et de conflits politiques. Dans ce cadre, il faut souligner qu'en réalité le droit de concurrence ainsi que le droit de contrôle de concentrations ne vise pas seulement une politique de concurrence mais également la politique industrielle et générale. La diversité de ces différentes visées politiques provoque nécessairement des conflits politiques. La solution présentée à la fin de ce travail voudrait proposer une application efficace du droit de contrôle de concentration sur le plan international. A la base de cette efficacité il y a aurait notamment: L'encouragement d'une politique de concurrence au sein des Etats qui n'ont pas encore développé un droit de concurrence ou qui ne l'exécutent pas d'une manière suffisante. L'encouragement de la concurrence et des concentrations positives améliorant la situation compétitive. La simplification de la coopération des autorités de concurrence. L'accélération des procédures et des décisions. La garantie de la sécurité juridique. La diminution des conflits politiques. L'encouragement d'une amélioration globale du bien public qui est à la base de toute politique commerciale. Ces objectifs ne peuvent être atteints que si le protectionnisme national est battu en brêche et si des systèmes de contrôle international sont installés. Les intérêts des Etats doivent refléter les nouvelles dimensions de l'économie globale qui ne s'arrête pas aux frontières nationales. Pour cela il leur faut accepter certaines pertes de souveraineté et tolérer certaines infractions aux règles internationales de la non-ingérence. Les intérêts nationaux doivent s'ajuster à l'économie mondiale et aux intérêts des autres Etats. Bien entendu, tant que la divergence actuelle entre les marchés internationaux et les systèmes de contrôle nationaux persiste, une amélioration de la situation est peu probable. Pour que cela soit possible, il faudrait une législation qui reflète les nouvelles dimensions de l'économie et ses effets transnationaux et qui, en même temps, augmente et assure une concurrence efficace. Une telle stratégie aiderait non seulement les autorités de concurrence et les Etats mais également tout particulièrement les consommateurs et les entreprises. Car une telle concurrence efficace engendre des entreprises plus efficaces, des produits améliorés, un choix plus grand et des prix plus bas. En fin de compte, un tel effet de bien public diminuerait aussi le risque de conflits interétatiques. Dans le cadre de la consolidation et de l'amélioration des structures juridiques du système de l'OMC, il serait essentiel que les institutions et la méthode d'arbitrage de l'OMC inspirent suffisamment confiance à la communauté internationale des Etats. Car c'est seulement sur la base d'une telle confiance et avec la volonté des Etats de faire un pas décisif en faveur d'un commerce mondial plus libre et plus loyal qu'un projet aussi ambitieux est réalisable. Il est donc essentiel que les responsables réalisent enfin les projets d'harmonisation et de coopération renforcées qu'ils ont si souvent annoncés. En tous cas, une forte ,,dynamique du processus d'harmonisation" sera nécessaire pour progresser sur le terrain de l'harmonisation internationale de la politique de la concurrence. Berlin, 17/08/2006 Florens Girardet

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Introduction et objectif: Lors d'essais cliniques, le pharmacien est responsable de la préparation et de la dispensation des médicaments à évaluer. Un article récent a toutefois montré que les aspects pharmaceutiques liés au contrôle de la dose administrée in fine étaient souvent mal contrôlés. Il peut exister une différence entre la dose nominale fournie par le certificat d'analyse du fabricant et la dose réellement administrée au sujet, biais qui se reporte en cascade sur l'estimation des paramètres pharmacocinétiques (PK), comme la clairance ou le volume de distribution. Ce travail visait à évaluer les biais entachant la quantité de médicament réellement injectée (iv/sc) aux volontaires d'un essai clinique étudiant la PK et la relation dose-réponse d'un nouveau produit biotechnologique. Méthode: La dose de médicament administrée lors de l'essai clinique (D) a été calculée de la manière suivante: D = C * V - pertes. La concentration du produit (C; titre nominal du fabricant) a été vérifiée par immuno-essai. Le volume de médicament injecté (V) a été déterminé pour chaque injection par pesée (n=72), en utilisant la masse de la seringue avant et après injection et la densité du produit. Enfin, une analyse in vitro a permis d'évaluer les pertes liées à l'adsorption du produit dans les lignes de perfusion et de choisir le dispositif adéquat in vivo. Résultats: La concentration du médicament s'est révélée proche du titre nominal (96 ± 7%), et a été utilisée comme référence. Le volume injecté était quant à lui entaché d'un biais systématique par rapport à la valeur théorique correspondant à 0.03 mL pour la dose minimale (i.e. 75% du volume à injecter à cette dose). Une analyse complémentaire a montré que cela s'expliquait par une réaspiration partielle de la solution médica-menteuse avant le retrait de la seringue après injection sc, due à l'élasticité du piston. En iv, le biais était par contre provoqué par une réaspiration du soluté de perfusion co-administré. Enfin, la mesure des quantités de médicament récupérées après injection dans le dispositif de perfusion a démontré des pertes minimales par adsorption. Discussion-conclusion: Cette étude confirme l'existence de biais inversement corrélés au volume et à la concentration du médicament administré, pouvant provoquer des erreurs importantes sur les paramètres PK. Ce problème est négligé ou insuffisamment considéré dans les protocoles de Phase I et nécessiterait une planification rigoureuse. Les procédures opératoires devraient attirer l'attention sur ce point crucial.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Contexte : L'insuffisance cardiaque touche environ 150 personnes sur 100'000 habitants en Suisse, avec une¦prévalence évaluée à 1.45 %, et cause 42.3 décès par 100'000 habitants. Globalement, la prévalence de¦l'insuffisance cardiaque augmente, d'une part à cause du vieillissement de la population, d'autre part par¦l'amélioration de la prise en charge de pathologies cardiaques. La transplantation reste actuellement le gold¦standard pour l'insuffisance cardiaque réfractaire au traitement pharmacologique, mais les organes sont¦rares. Une alternative a donc été développée, celle des systèmes d'assistance ventriculaire (ventricular assist¦device, VAD). Les appareils existants actuellement sur le marché fonctionnent en déviant le sang du¦ventricule vers un système de projection à flux pulsatile ou continu placé dans la cage thoracique, avant de le¦renvoyer vers l'artère. Ils comportent certains défauts, en particulier la nécessité de léser le coeur pour les¦implanter et les risques hémorragique et thrombo-embolique importants. Pour remédier à ces défauts, des¦VAD externes sont en cours de développement. Fixés autour du coeur, ils permettent de l'assister dans la¦contraction, sans contact direct avec le sang ni lésion du coeur. Dans cette étude, nous avons créé deux¦prototypes de VAD externes basés sur la technique du muscle artificiel. Ils sont faits de fils de Nitinol, un¦alliage à mémoire de forme qui raccourcit lorsqu'il est chauffé. Placés autour du coeur, ils lui impriment un¦mouvement de contraction, tel un muscle artificiel.¦Méthode : deux VAD externes ont été créés en utilisant du Nitinol. Les fibres de Nitinol du VAD N°1¦passent à travers des charnières qui augmentent son pouvoir de contraction. Celles du VAD N°2 sont¦orientées dans un maillage de fibres de Kevlar de manière à reproduire la direction des fibres musculaires du¦ventricule humain. Ils ont été testés sur un banc d'essai avec un coeur en silicone. Nous avons mesuré la¦fraction d'éjection, le débit et la pression générée, à différentes valeurs de précharge et post-charge. Les¦VAD étaient alimentés par une génératrice ou par une unité de contrôle, qui permettait de fournir l'énergie¦précisément dans chaque fil de Nitinol et d'imposer une certaine fréquence cardiaque.¦Résultats : Tant avec la génératrice que l'unité de contrôle, le ventricule gauche du VAD N°1 fournit une¦fraction d'éjection maximale de 16.09 %. Le débit maximal est de 191.42 ml/min. La génératrice permet au¦VAD N°2 de fournir une fraction d'éjection de 6.18 %, contre 2.48 % avec l'unité de contrôle. Le débit¦maximal est de 27.37 ml/min. La pression générée atteint 75 mmHg pour le VAD N°1 et 6 mmHg pour le¦VAD N°2.¦Discussion/conclusion : Le VAD N°1 est le plus performant, il permet une augmentation significative de la¦fraction d'éjection et pourrait avoir un impact sur la qualité de vie des patients. L'unité de contrôle apporte¦un avantage sur la génératrice pour le VAD N°1, en dirigeant plus précisément l'énergie dans les fils de¦Nitinol et en limitant les pertes. Le VAD N°2, lui, est peu performant et l'unité de contrôle n'améliore pas¦ses performances. Cela est probablement dû à sa configuration initiale, la taille du VAD n'étant pas adaptée¦au coeur en silicone. Cette étude prouve qu'il est possible d'assister un coeur depuis l'extérieur, sans l'altérer,¦et que la position des fibres de Nitinol a plus d'importance que leur nombre.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Résumé Durant le développement embryonnaire, les cellules pigmentaires des mammifères se développent à partir de deux origines différentes : les melanocytes se développent à partir de la crête neurale alors que les cellules de la rétine pigmentaire (RP) ont une origine neuronale. Un grand nombre de gènes sont impliqués dans la pigmentation dont les gènes de la famille tyrosinase à savoir Tyr, Tyrp1 et Dct. Certaines études ont suggéré que les gènes de la pigmentation sont régulés de manière différentielle dans les mélanocytes et dans la RP. Dans ce travail, les gènes de la famille tyrosinase ont été étudiés comme modèle de la régulation des gènes de la pigmentation par des éléments régulateurs agissant à distance. II a été montré que le promoteur du gène Tyrp1pouvait induire l'expression d'un transgène uniquement dans la RP alors que ce gène est aussi exprimé dans les mélanocytes comme le montre le phénotype des souris mutantes pour Tyrp1. Ce résultat suggère que les éléments régulateurs du promoteur sont suffisants pour l'expression dans la RP mais pas pour l'expression dans les mélanocytes. J'ai donc cherché à identifier la séquence qui régule l'expression dans les mélanocytes. Un chromosome artificiel bactérien (CAB) contenant le gène Tyrp1 s'est avéré suffisant pour induire l'expression dans les mélanocytes, comme démontré par la correction du phénotype mutant. La séquence de ce CAB contient plusieurs régions très conservées qui pourraient représenter de nouveaux éléments régulateurs. Par la suite, j'ai focalisé mon analyse sur une séquence située à -I5 kb qui s'est révélée être un amplificateur spécifique aux mélanocytes comme démontré par des expériences de cultures cellulaire et de transgenèse. De plus, une analyse poussée de cet élément a révélé que le facteur de transcription Sox 10 représentait un transactivateur de cet amplificateur. Comme pour Tyrp1, la régulation du gène tyrosinase est contrôlée par différents éléments régulateurs dans les mélanocytes et la RP. Il a été montré que le promoteur de tyrosinase n'était pas suffisant pour une forte expression dans les mélanocytes et la RP. De plus, l'analyse de la région située en amont a révélé la présence d'un amplificateur nécessaire à l'expression dans les mélanocytes à la position -15 kb. Cet amplificateur n'est toutefois pas actif dans la RP mais agit comme un répresseur dans ces cellules. Ces résultats indiquent que certains éléments nécessaires à l'expression dans les deux types de cellules pigmentaires sont absents de ces constructions. Comme pour Tyrp1, j'ai en premier lieu démontré qu'un CAB était capable de corriger le phénotype albinique, puis ai inséré un gène reporter (lacZ) dans le CAB par recombinaison homologue et ai finalement analysé l'expression du reporter en transgenèse. Ces souris ont montré une expression forte du lacZ dans les mélanocytes et la RP, ce qui indique que le CAB contient les séquences régulatrices nécessaires à l'expression correcte de tyrosinase. Afin de localiser plus précisément les éléments régulateurs, j'ai ensuite généré des délétions dans le CAB et analysé l'expression du lacZ en transgenèse. La comparaison de séquences génomiques provenant de différentes espèces a permis par la suite d'identifier des régions représentant de nouveaux éléments régulateurs potentiels. En utilisant cette approche, j'ai identifié une région qui se comporte comme un amplificateur dans la RP et qui est nécessaire à l'expression de tyrosinase dans ce tissu. De plus, j'ai identifié les facteurs de transcription Mitf et Sox10 comme transactivateurs de l'amplificateur spécifique aux mélanocytes situé à -15 kb. L'identification et la caractérisation des ces éléments régulateurs des gènes tyrosinase et Tyrp1confirme donc que la régulation différentielle des gènes dans les mélanocytes et la RP est liée à des éléments régulateurs séparés. Summary Pigment cells of mammals originate from two different lineages: melanocytes arise from the neural crest, whereas cells of the retinal pigment epithelium (RPE) originate from the optic cup of the developing forebrain. A large set of genes are involved in pigmentation, including the members of the tyrosinase gene family, namely tyrosinase, Tyrp1 and Dct. Previous studies have suggested that pigmentation genes are differentially regulated in melanocytes and RPE. In this work, the tyrosinase gene family was used as a model for studying the involvement of distal regulatory elements in pigment cell-specific gene expression. The promoter of the Tyrp1 gene has been shown to drive detectable transgene expression only to the RPE, even though the gene is also expressed in melanocytes as evident from Tyrp1-mutant mice. This indicates that the regulatory elements responsible for Tyrp1 gene expression in the RPE are not sufficient for expression in melanocytes. I thus searched for a putative melanocyte-specific regulatory sequence and demonstrate that a bacterial artificial chromosome (BAC) containing the Tyrp1 gene and surrounding sequences is able to target transgenic expression to melanocytes and to rescue the Tyrp1 b (brown) phenotype. This BAC contains several highly conserved non-coding sequences that might represent novel regulatory elements. I further focused on a sequence located at -15 kb which I identified as amelanocyte-specific enhancer as shown by cell culture and transgenic mice. In addition, further functional analysis identified the transcription factor Sox10 as being able to bind and transactivate this enhancer. As for Tyrp1, tyrosinase gene regulation is mediated by different cis-regulatory elements in melanocytes and RPE. It was shown that the tyrosinase promoter was not sufficient to confer strong and specific expression in melanocytes and RPE. Moreover, analysis of tyrosinase upstream sequence, revealed the presence of a specific enhancer at position -15 kb which was necessary to confer strong expression in melanocytes. This enhancer element however failed to act as an enhancer in the RPE, but rather repressed expression. This indicates that some regulatory elements required for tyrosinase expression in both RPE and melanocytes are still missing from these constructs. As for Tyrp1, I first demonstrated that a BAC containing the Tyr gene is able to rescue the Tyr c (albino) phenotype in mice, then I inserted a lacZ reporter gene in the BAC by homologous recombination, and finally analysed the pattern of lacZ expression in transgenic mice. These mice showed strong lacZ expression in both RPE and melanocytes, indicating that the BAC contains the regulatory sequences required for proper tyrosinase expression. In order to localize more precisely these regulatory elements, I have then generated several deletions in the BAC and analysed lacZ expression in transgenic mice. Multi-species comparative genomic analysis then allowed identifying conserved sequences that potentially represent novel regulatory elements. Using this experimental approach, I identified a region that behaves as a RPE-specific enhancer and that is required for tyrosinase expression in the retina] pigment epithelium. In addition, I identified the transcription factors Mitf and Sox l0 as being transactivators of the melanocyte-specific enhancer located at -l5 kb. The identification and characterization of these tyrosinase and Tyrp1 distal regulatory element supports the idea that separate regulatory sequences mediate differential gene expression in melanocytes and RPE.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Un système efficace de sismique tridimensionnelle (3-D) haute-résolution adapté à des cibles lacustres de petite échelle a été développé. Dans le Lac Léman, près de la ville de Lausanne, en Suisse, des investigations récentes en deux dimension (2-D) ont mis en évidence une zone de faille complexe qui a été choisie pour tester notre système. Les structures observées incluent une couche mince (<40 m) de sédiments quaternaires sub-horizontaux, discordants sur des couches tertiaires de molasse pentées vers le sud-est. On observe aussi la zone de faille de « La Paudèze » qui sépare les unités de la Molasse du Plateau de la Molasse Subalpine. Deux campagnes 3-D complètes, d?environ d?un kilomètre carré, ont été réalisées sur ce site de test. La campagne pilote (campagne I), effectuée en 1999 pendant 8 jours, a couvert 80 profils en utilisant une seule flûte. Pendant la campagne II (9 jours en 2001), le nouveau système trois-flûtes, bien paramétrés pour notre objectif, a permis l?acquisition de données de très haute qualité sur 180 lignes CMP. Les améliorations principales incluent un système de navigation et de déclenchement de tirs grâce à un nouveau logiciel. Celui-ci comprend un contrôle qualité de la navigation du bateau en temps réel utilisant un GPS différentiel (dGPS) à bord et une station de référence près du bord du lac. De cette façon, les tirs peuvent être déclenchés tous les 5 mètres avec une erreur maximale non-cumulative de 25 centimètres. Tandis que pour la campagne I la position des récepteurs de la flûte 48-traces a dû être déduite à partir des positions du bateau, pour la campagne II elle ont pu être calculées précisément (erreur <20 cm) grâce aux trois antennes dGPS supplémentaires placées sur des flotteurs attachés à l?extrémité de chaque flûte 24-traces. Il est maintenant possible de déterminer la dérive éventuelle de l?extrémité des flûtes (75 m) causée par des courants latéraux ou de petites variations de trajet du bateau. De plus, la construction de deux bras télescopiques maintenant les trois flûtes à une distance de 7.5 m les uns des autres, qui est la même distance que celle entre les lignes naviguées de la campagne II. En combinaison avec un espacement de récepteurs de 2.5 m, la dimension de chaque «bin» de données 3-D de la campagne II est de 1.25 m en ligne et 3.75 m latéralement. L?espacement plus grand en direction « in-line » par rapport à la direction «cross-line» est justifié par l?orientation structurale de la zone de faille perpendiculaire à la direction «in-line». L?incertitude sur la navigation et le positionnement pendant la campagne I et le «binning» imprécis qui en résulte, se retrouve dans les données sous forme d?une certaine discontinuité des réflecteurs. L?utilisation d?un canon à air à doublechambre (qui permet d?atténuer l?effet bulle) a pu réduire l?aliasing observé dans les sections migrées en 3-D. Celui-ci était dû à la combinaison du contenu relativement haute fréquence (<2000 Hz) du canon à eau (utilisé à 140 bars et à 0.3 m de profondeur) et d?un pas d?échantillonnage latéral insuffisant. Le Mini G.I 15/15 a été utilisé à 80 bars et à 1 m de profondeur, est mieux adapté à la complexité de la cible, une zone faillée ayant des réflecteurs pentés jusqu?à 30°. Bien que ses fréquences ne dépassent pas les 650 Hz, cette source combine une pénétration du signal non-aliasé jusqu?à 300 m dans le sol (par rapport au 145 m pour le canon à eau) pour une résolution verticale maximale de 1.1 m. Tandis que la campagne I a été acquise par groupes de plusieurs lignes de directions alternées, l?optimisation du temps d?acquisition du nouveau système à trois flûtes permet l?acquisition en géométrie parallèle, ce qui est préférable lorsqu?on utilise une configuration asymétrique (une source et un dispositif de récepteurs). Si on ne procède pas ainsi, les stacks sont différents selon la direction. Toutefois, la configuration de flûtes, plus courtes que pour la compagne I, a réduit la couverture nominale, la ramenant de 12 à 6. Une séquence classique de traitement 3-D a été adaptée à l?échantillonnage à haute fréquence et elle a été complétée par deux programmes qui transforment le format non-conventionnel de nos données de navigation en un format standard de l?industrie. Dans l?ordre, le traitement comprend l?incorporation de la géométrie, suivi de l?édition des traces, de l?harmonisation des «bins» (pour compenser l?inhomogénéité de la couverture due à la dérive du bateau et de la flûte), de la correction de la divergence sphérique, du filtrage passe-bande, de l?analyse de vitesse, de la correction DMO en 3-D, du stack et enfin de la migration 3-D en temps. D?analyses de vitesse détaillées ont été effectuées sur les données de couverture 12, une ligne sur deux et tous les 50 CMP, soit un nombre total de 600 spectres de semblance. Selon cette analyse, les vitesses d?intervalles varient de 1450-1650 m/s dans les sédiments non-consolidés et de 1650-3000 m/s dans les sédiments consolidés. Le fait que l?on puisse interpréter plusieurs horizons et surfaces de faille dans le cube, montre le potentiel de cette technique pour une interprétation tectonique et géologique à petite échelle en trois dimensions. On distingue cinq faciès sismiques principaux et leurs géométries 3-D détaillées sur des sections verticales et horizontales: les sédiments lacustres (Holocène), les sédiments glacio-lacustres (Pléistocène), la Molasse du Plateau, la Molasse Subalpine de la zone de faille (chevauchement) et la Molasse Subalpine au sud de cette zone. Les couches de la Molasse du Plateau et de la Molasse Subalpine ont respectivement un pendage de ~8° et ~20°. La zone de faille comprend de nombreuses structures très déformées de pendage d?environ 30°. Des tests préliminaires avec un algorithme de migration 3-D en profondeur avant sommation et à amplitudes préservées démontrent que la qualité excellente des données de la campagne II permet l?application de telles techniques à des campagnes haute-résolution. La méthode de sismique marine 3-D était utilisée jusqu?à présent quasi-exclusivement par l?industrie pétrolière. Son adaptation à une échelle plus petite géographiquement mais aussi financièrement a ouvert la voie d?appliquer cette technique à des objectifs d?environnement et du génie civil.<br/><br/>An efficient high-resolution three-dimensional (3-D) seismic reflection system for small-scale targets in lacustrine settings was developed. In Lake Geneva, near the city of Lausanne, Switzerland, past high-resolution two-dimensional (2-D) investigations revealed a complex fault zone (the Paudèze thrust zone), which was subsequently chosen for testing our system. Observed structures include a thin (<40 m) layer of subhorizontal Quaternary sediments that unconformably overlie southeast-dipping Tertiary Molasse beds and the Paudèze thrust zone, which separates Plateau and Subalpine Molasse units. Two complete 3-D surveys have been conducted over this same test site, covering an area of about 1 km2. In 1999, a pilot survey (Survey I), comprising 80 profiles, was carried out in 8 days with a single-streamer configuration. In 2001, a second survey (Survey II) used a newly developed three-streamer system with optimized design parameters, which provided an exceptionally high-quality data set of 180 common midpoint (CMP) lines in 9 days. The main improvements include a navigation and shot-triggering system with in-house navigation software that automatically fires the gun in combination with real-time control on navigation quality using differential GPS (dGPS) onboard and a reference base near the lake shore. Shots were triggered at 5-m intervals with a maximum non-cumulative error of 25 cm. Whereas the single 48-channel streamer system of Survey I requires extrapolation of receiver positions from the boat position, for Survey II they could be accurately calculated (error <20 cm) with the aid of three additional dGPS antennas mounted on rafts attached to the end of each of the 24- channel streamers. Towed at a distance of 75 m behind the vessel, they allow the determination of feathering due to cross-line currents or small course variations. Furthermore, two retractable booms hold the three streamers at a distance of 7.5 m from each other, which is the same distance as the sail line interval for Survey I. With a receiver spacing of 2.5 m, the bin dimension of the 3-D data of Survey II is 1.25 m in in-line direction and 3.75 m in cross-line direction. The greater cross-line versus in-line spacing is justified by the known structural trend of the fault zone perpendicular to the in-line direction. The data from Survey I showed some reflection discontinuity as a result of insufficiently accurate navigation and positioning and subsequent binning errors. Observed aliasing in the 3-D migration was due to insufficient lateral sampling combined with the relatively high frequency (<2000 Hz) content of the water gun source (operated at 140 bars and 0.3 m depth). These results motivated the use of a double-chamber bubble-canceling air gun for Survey II. A 15 / 15 Mini G.I air gun operated at 80 bars and 1 m depth, proved to be better adapted for imaging the complexly faulted target area, which has reflectors dipping up to 30°. Although its frequencies do not exceed 650 Hz, this air gun combines a penetration of non-aliased signal to depths of 300 m below the water bottom (versus 145 m for the water gun) with a maximum vertical resolution of 1.1 m. While Survey I was shot in patches of alternating directions, the optimized surveying time of the new threestreamer system allowed acquisition in parallel geometry, which is preferable when using an asymmetric configuration (single source and receiver array). Otherwise, resulting stacks are different for the opposite directions. However, the shorter streamer configuration of Survey II reduced the nominal fold from 12 to 6. A 3-D conventional processing flow was adapted to the high sampling rates and was complemented by two computer programs that format the unconventional navigation data to industry standards. Processing included trace editing, geometry assignment, bin harmonization (to compensate for uneven fold due to boat/streamer drift), spherical divergence correction, bandpass filtering, velocity analysis, 3-D DMO correction, stack and 3-D time migration. A detailed semblance velocity analysis was performed on the 12-fold data set for every second in-line and every 50th CMP, i.e. on a total of 600 spectra. According to this velocity analysis, interval velocities range from 1450-1650 m/s for the unconsolidated sediments and from 1650-3000 m/s for the consolidated sediments. Delineation of several horizons and fault surfaces reveal the potential for small-scale geologic and tectonic interpretation in three dimensions. Five major seismic facies and their detailed 3-D geometries can be distinguished in vertical and horizontal sections: lacustrine sediments (Holocene) , glaciolacustrine sediments (Pleistocene), Plateau Molasse, Subalpine Molasse and its thrust fault zone. Dips of beds within Plateau and Subalpine Molasse are ~8° and ~20°, respectively. Within the fault zone, many highly deformed structures with dips around 30° are visible. Preliminary tests with 3-D preserved-amplitude prestack depth migration demonstrate that the excellent data quality of Survey II allows application of such sophisticated techniques even to high-resolution seismic surveys. In general, the adaptation of the 3-D marine seismic reflection method, which to date has almost exclusively been used by the oil exploration industry, to a smaller geographical as well as financial scale has helped pave the way for applying this technique to environmental and engineering purposes.<br/><br/>La sismique réflexion est une méthode d?investigation du sous-sol avec un très grand pouvoir de résolution. Elle consiste à envoyer des vibrations dans le sol et à recueillir les ondes qui se réfléchissent sur les discontinuités géologiques à différentes profondeurs et remontent ensuite à la surface où elles sont enregistrées. Les signaux ainsi recueillis donnent non seulement des informations sur la nature des couches en présence et leur géométrie, mais ils permettent aussi de faire une interprétation géologique du sous-sol. Par exemple, dans le cas de roches sédimentaires, les profils de sismique réflexion permettent de déterminer leur mode de dépôt, leurs éventuelles déformations ou cassures et donc leur histoire tectonique. La sismique réflexion est la méthode principale de l?exploration pétrolière. Pendant longtemps on a réalisé des profils de sismique réflexion le long de profils qui fournissent une image du sous-sol en deux dimensions. Les images ainsi obtenues ne sont que partiellement exactes, puisqu?elles ne tiennent pas compte de l?aspect tridimensionnel des structures géologiques. Depuis quelques dizaines d?années, la sismique en trois dimensions (3-D) a apporté un souffle nouveau à l?étude du sous-sol. Si elle est aujourd?hui parfaitement maîtrisée pour l?imagerie des grandes structures géologiques tant dans le domaine terrestre que le domaine océanique, son adaptation à l?échelle lacustre ou fluviale n?a encore fait l?objet que de rares études. Ce travail de thèse a consisté à développer un système d?acquisition sismique similaire à celui utilisé pour la prospection pétrolière en mer, mais adapté aux lacs. Il est donc de dimension moindre, de mise en oeuvre plus légère et surtout d?une résolution des images finales beaucoup plus élevée. Alors que l?industrie pétrolière se limite souvent à une résolution de l?ordre de la dizaine de mètres, l?instrument qui a été mis au point dans le cadre de ce travail permet de voir des détails de l?ordre du mètre. Le nouveau système repose sur la possibilité d?enregistrer simultanément les réflexions sismiques sur trois câbles sismiques (ou flûtes) de 24 traces chacun. Pour obtenir des données 3-D, il est essentiel de positionner les instruments sur l?eau (source et récepteurs des ondes sismiques) avec une grande précision. Un logiciel a été spécialement développé pour le contrôle de la navigation et le déclenchement des tirs de la source sismique en utilisant des récepteurs GPS différentiel (dGPS) sur le bateau et à l?extrémité de chaque flûte. Ceci permet de positionner les instruments avec une précision de l?ordre de 20 cm. Pour tester notre système, nous avons choisi une zone sur le Lac Léman, près de la ville de Lausanne, où passe la faille de « La Paudèze » qui sépare les unités de la Molasse du Plateau et de la Molasse Subalpine. Deux campagnes de mesures de sismique 3-D y ont été réalisées sur une zone d?environ 1 km2. Les enregistrements sismiques ont ensuite été traités pour les transformer en images interprétables. Nous avons appliqué une séquence de traitement 3-D spécialement adaptée à nos données, notamment en ce qui concerne le positionnement. Après traitement, les données font apparaître différents faciès sismiques principaux correspondant notamment aux sédiments lacustres (Holocène), aux sédiments glacio-lacustres (Pléistocène), à la Molasse du Plateau, à la Molasse Subalpine de la zone de faille et la Molasse Subalpine au sud de cette zone. La géométrie 3-D détaillée des failles est visible sur les sections sismiques verticales et horizontales. L?excellente qualité des données et l?interprétation de plusieurs horizons et surfaces de faille montrent le potentiel de cette technique pour les investigations à petite échelle en trois dimensions ce qui ouvre des voies à son application dans les domaines de l?environnement et du génie civil.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Avant-propos : De nombreuses études ont été réalisées sur les inégalités factuelles des structures sociales, comprenant aussi bien l'aspect statique de la stratification sociale que l'aspect dynamique de la mobilité sociale (voir par exemple Levy et Suter, 2002, Lemel, 1991, Erikson et Goldthorpe, 1992, Esping-Andersen, 1993). Par contre, les recherches portant sur la perception, par les acteurs, des inégalités des structures sociales sont en comparaison peu nombreuses en ce qui concerne les représentations de la stratification sociale (Levy et al., 1997, Lorenzi-Cioldi et Joye, 1988, Coxon, Davies et Jones, 1986, Zwicky, 1989) et presque inexistantes dans le cas des représentations de la mobilité sociale (Attias-Donfut et Wolff, 2001). La présente recherche se propose d'étudier simultanément la perception de la stratification sociale et de la mobilité sociale intragénérationnelle par les acteurs en intégrant le caractère multidimensionnel du système d'inégalités. Elle défend la thèse fondamentale d'une double origine des inégalités perçues, qui participeraient à la fois d'aspects macrosociaux et mésosociaux de la stratification sociale, les premiers portant sur la structure sociale dans son ensemble, les seconds sur une partie seulement de celle-ci (voir par exemple Kelley et Evans, 1995, Levy, 2002). Dans une perspective systémique, on se trouverait, à côté de la structure macrosociale, en présence de sous-systèmes mésosociaux, de portée restreinte. La perception de la stratification sociale dépendrait alors du cadre de référence adopté par les acteurs, selon qu'il porte sur le système dans son ensemble ou sur un sous-système. Un des objectifs de cette recherche sera d'établir que la pertinence des cadres de référence macrosocial et mésosocial est étroitement liée à la lecture statique ou dynamique de la stratification sociale. Dans le cas statique, celui du positionnement, les représentations sociales s'articuleraient autour des inégalités macrosociales, tenant compte du système dans son ensemble, tandis que dans le cas dynamique, celui de la mobilité ou de l'évolution du positionnement, les inégalités mésosociales, propres aux sous-systèmes, l'emporteraient. D'une part, la perception du positionnement social dépendrait de l'insertion de l'acteur dans la structure sociale, comprise dans son ensemble, et reproduirait les inégalités factuelles macrosociales, telles qu'elles apparaissent par exemple au travers des catégories socioprofessionnelles. D'autre part, la perception du parcours de mobilité ? conservation, amélioration ou dégradation de la position perçue ? resterait indépendante des changements macrosociaux de l'insertion, mais relèverait avant tout de déterminants propres à l'environnement social immédiat de l'acteur. L'environnement de l'acteur, en tant qu'il s'inscrit dans une partie restreinte de la structure sociale, permettrait de saisir les inégalités mésosociales. L'expérience, par les acteurs, de ces deux aspects de la structure sociale conduirait à la mise en place de deux types d'inégalités perçues irréductibles les unes aux autres dans la mesure où le système macrosocial et les sous-systèmes mésosociaux présentent une certaine autonomie. Cette autonomie peut être vue d'une part en rapport avec l'importance propre des organisations de nature mésosociale - en particulier les entreprises - dans les sociétés contemporaines (Sainsaulieu et Segrestin, 1986, Perrow, 1991), d'autre part en relation avec l'hétérogénéité que ces dernières induisent en termes de segmentation du marché de l'emploi (Baron et Bielby, 1980). Dans une large mesure, les organisations intermédiaires se distinguent ainsi de la structure sociale prise dans son ensemble: plutôt que de reproduire les inégalités macrosociales, elles constitueraient des systèmes d'inégalités indépendants, notamment quant à la régulation des parcours professionnels (Bertaux, 1977). Ainsi, la perception de la structure sociale ne se réduirait pas aux seuls facteurs macrosociaux, mais dépendrait, en l'absence d'un modèle d'organisation mésosocial unique, de la diversité des structures intermédiaires. On peut d'ailleurs supposer que la prise en compte des organisations mésosociales est susceptible de pallier la faiblesse des explications classiques en termes macrosociologiques, relevées par les tenants des thèses avançant le déclin du pouvoir structurant de la stratification sociale ou du travail (voir Levy, 2002 et, sur les thèses citées, par exemple Beck, 1983, Matthes, 1983, Berger et Hradil, 1990, Clark et Lipset, 1991). En effet, dans la mesure où l'acteur serait plus souvent confronté aux structures de son environnement social immédiat plutôt qu'à la structure sociale dans son ensemble, la perception pourrait dépendre en premier lieu de facteurs mésosociaux, susceptibles de supplanter ou, à tout le moins, d'atténuer l'effet des facteurs macrosociaux. Une telle approche permet de conserver une lecture structurelle de la perception du positionnement en enrichissant la relation classique entre structure macrosociale et acteur d'une composante mésosociologique, évitant ainsi le recours à une explication culturelle ad hoc Dès lors, la principale question de recherche s'adresse au lien entre structure sociale factuelle et structure sociale perçue. Dans la perspective statique du positionnement, l'effet des structures mésosociales serait tel qu'il se superposerait à la détermination macrosociale de la perception, sans pour autant subvertir la hiérarchie des positions induites par les catégories socioprofessionnelles. Dans la perspective dynamique, en revanche, les changements liés à l'insertion mésosociale peuvent l'emporter sur l'immobilité ou la mobilité définies en termes macrosociologiques. D'une part, en supposant que les plans mésosocial et macrosocial agissent de manière plus ou moins autonome sur la perception, l'amélioration, la conservation ou la dégradation de la position ne coïncide pas nécessairement selon ces deux plans. D'autre part, l'ampleur de la mobilité perçue due à l'écart entre le positionnement mésosocial passé et actuel peut dépasser celle qui est liée à la mobilité macrosociale, surtout si cette dernière est de faible distance. Le passage de la perspective statique à la perspective dynamique peut dès lors être vu comme un moyen de faire apparaître le rôle fondamental joué par les structures mésosociales au sein de la stratification sociale. L'orientation de la recherche consistera d'abord à mettre en évidence, par-delà les différences macrosociales des représentations des positions professionnelles, les variations de la perception au sein des catégories socioprofessionnelles. Ces étapes montreront, à différents égards, que les représentations se singularisent en relation avec l'insertion mésosociale de l'acteur. On verra également que la perception de la mobilité échappe à une détermination macrosociale, mais qu'elle présente une cohérence mésosociale certaine. Ces résultats, insistant sur la prise en compte des structures mésosociales, nous amèneront enfin à un examen systématique des déterminants de la perception du positionnement et du parcours de mobilité, mettant en oeuvre une variété de facteurs explicatifs dépassant un cadre d'analyse purement structurel. La recherche débute par une discussion de la place qui revient à une étude des représentations du parcours professionnel dans le champ des travaux sur la stratification et la mobilité sociale, en particulier sa justification théorique et empirique, et la formulation des hypothèses de recherche (chapitre 1). Elle se poursuit par la présentation de l'échantillonnage et des variables utilisées (chapitre 2). Le traitement des hypothèses de recherche fait l'objet de trois chapitres distincts. Chaque hypothèse s'accompagne, en plus des développements liés à son examen, d'une introduction et d'une conclusion spécifiques. Le premier (chapitre 3) porte sur la perception de la stratification sociale des positions professionnelles, le second (chapitre 4) sur la perception du parcours de mobilité et le troisième (chapitre 5) sur les déterminants sociologiques de la perception des inégalités liées au positionnement et à la mobilité professionnels. Enfin, au traitement des hypothèses fait suite la conclusion de la recherche (chapitre 6).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Résumé: Le développement rapide de nouvelles technologies comme l'imagerie médicale a permis l'expansion des études sur les fonctions cérébrales. Le rôle principal des études fonctionnelles cérébrales est de comparer l'activation neuronale entre différents individus. Dans ce contexte, la variabilité anatomique de la taille et de la forme du cerveau pose un problème majeur. Les méthodes actuelles permettent les comparaisons interindividuelles par la normalisation des cerveaux en utilisant un cerveau standard. Les cerveaux standards les plus utilisés actuellement sont le cerveau de Talairach et le cerveau de l'Institut Neurologique de Montréal (MNI) (SPM99). Les méthodes de recalage qui utilisent le cerveau de Talairach, ou celui de MNI, ne sont pas suffisamment précises pour superposer les parties plus variables d'un cortex cérébral (p.ex., le néocortex ou la zone perisylvienne), ainsi que les régions qui ont une asymétrie très importante entre les deux hémisphères. Le but de ce projet est d'évaluer une nouvelle technique de traitement d'images basée sur le recalage non-rigide et utilisant les repères anatomiques. Tout d'abord, nous devons identifier et extraire les structures anatomiques (les repères anatomiques) dans le cerveau à déformer et celui de référence. La correspondance entre ces deux jeux de repères nous permet de déterminer en 3D la déformation appropriée. Pour les repères anatomiques, nous utilisons six points de contrôle qui sont situés : un sur le gyrus de Heschl, un sur la zone motrice de la main et le dernier sur la fissure sylvienne, bilatéralement. Evaluation de notre programme de recalage est accomplie sur les images d'IRM et d'IRMf de neuf sujets parmi dix-huit qui ont participés dans une étude précédente de Maeder et al. Le résultat sur les images anatomiques, IRM, montre le déplacement des repères anatomiques du cerveau à déformer à la position des repères anatomiques de cerveau de référence. La distance du cerveau à déformer par rapport au cerveau de référence diminue après le recalage. Le recalage des images fonctionnelles, IRMf, ne montre pas de variation significative. Le petit nombre de repères, six points de contrôle, n'est pas suffisant pour produire les modifications des cartes statistiques. Cette thèse ouvre la voie à une nouvelle technique de recalage du cortex cérébral dont la direction principale est le recalage de plusieurs points représentant un sillon cérébral. Abstract : The fast development of new technologies such as digital medical imaging brought to the expansion of brain functional studies. One of the methodolgical key issue in brain functional studies is to compare neuronal activation between individuals. In this context, the great variability of brain size and shape is a major problem. Current methods allow inter-individual comparisions by means of normalisation of subjects' brains in relation to a standard brain. A largerly used standard brains are the proportional grid of Talairach and Tournoux and the Montreal Neurological Insititute standard brain (SPM99). However, there is a lack of more precise methods for the superposition of more variable portions of the cerebral cortex (e.g, neocrotex and perisyvlian zone) and in brain regions highly asymmetric between the two cerebral hemipsheres (e.g. planum termporale). The aim of this thesis is to evaluate a new image processing technique based on non-linear model-based registration. Contrary to the intensity-based, model-based registration uses spatial and not intensitiy information to fit one image to another. We extract identifiable anatomical features (point landmarks) in both deforming and target images and by their correspondence we determine the appropriate deformation in 3D. As landmarks, we use six control points that are situated: one on the Heschl'y Gyrus, one on the motor hand area, and one on the sylvian fissure, bilaterally. The evaluation of this model-based approach is performed on MRI and fMRI images of nine of eighteen subjects participating in the Maeder et al. study. Results on anatomical, i.e. MRI, images, show the mouvement of the deforming brain control points to the location of the reference brain control points. The distance of the deforming brain to the reference brain is smallest after the registration compared to the distance before the registration. Registration of functional images, i.e fMRI, doesn't show a significant variation. The small number of registration landmarks, i.e. six, is obvious not sufficient to produce significant modification on the fMRI statistical maps. This thesis opens the way to a new computation technique for cortex registration in which the main directions will be improvement of the registation algorithm, using not only one point as landmark, but many points, representing one particular sulcus.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Résumé Le trouble somatoforme douloureux persistant et le syndrome de fatigue chronique constituent des entités cliniques qui incarnent la position particulière du corps dans notre société actuelle. Tous les deux se situent dans un carrefour entre le psychique et le somatique, en interaction étroite avec l'entourage socioculturel, soulignant ainsi la nécessité de considérer l'être humain dans son intégralité. La société actuelle, pauvre en repères collectifs, où l'exaltation de l'individualité est un critère primordial et où le corps social réparateur n'existe pas, provoque une grand mal être. Le sentiment de ne pas être reconnu dans son intériorité est incorporé et après s'exprime ensuite sous la forme d'une plainte douloureuse. Le contexte de l'émigration et celui des systèmes de prévoyance sociale dans les pays occidentaux, sont des exemples de conditions qui favorisent le changement dans la dynamique de la maladie. En s'appuyant sur la représentation du corps dans un moment historique précis, l'homme cherche à exprimer une souffrance profonde dans le vécu de soi-même, qui n'a pas accès à d'autres voies d'expression. Le contexte social, culturel, médical, professionnel, lui facilite les moyens d'obtenir la reconnaissance de son affliction sans être exclu du groupe d'appartenance sociale. Les deux symptômes, douleur et fatigue, rassemblent les conditions nécessaires, dans la conception actuelle du corps, sociale et médicale, pour transporter le désir et la demande d'une partie de la société qui ne peut pas exprimer sa souffrance.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La stimulation cérébrale profonde (SCP) nécessite l'implantation chirurgicale d'un système comprenant électrodes cérébrales et boîtier(s) de stimulation. Les noyaux cérébraux visés par la méthodologie stéréotaxique d'implantation doivent être visualisés au mieux par une imagerie à haute résolution. La procédure chirurgicale d'implantation des électrodes se fait si possible en anesthésie locale pour faire des mesures électro-physiologiques et tester en peropératoire l'effet de la stimulation, afin d'optimiser la position de l'électrode définitive. Dans un deuxième temps, le ou les générateur(s) d'impulsions sont implantés en anesthésie générale. La SCP pour les mouvements anormaux a une très bonne efficacité et un risque de complications graves faible quoique non nul. Les complications liées au matériel sont les plus fréquentes. Deep brain stimulation (DBS) requires the surgical implantation of a system including brain electrodes and impulsion generator(s). The nuclei targeted by the stereotaxic implantation methodology have to be visualized at best by high resolution imaging. The surgical procedure for implanting the electrodes is performed if possible under local anaesthesia to make electro-physiological measurements and to test intra-operatively the effect of the stimulation, in order to optimize the position of the definitive electrode. In a second step, the impulsion generator(s) are implanted under general anaesthesia. DBS for movement disorders has a very good efficacy and a low albeit non-zero risk of serious complications. Complications related to the material are the most common.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cette étude porte sur les 1829 graffiti sur céramique d'époque gallo-romaine retrouvés sur le site d'Avenches. Ils offrent de précieux repères pour estimer les effets de la romanisation et les persistances des traditions indigènes. Soumis à un examen attentif combinant les approches linguistique, iconographique, céramologique, spatiale et chronologique, ils nous renseignent sur certains domaines, comme les pratiques religieuses, les modes de consommation, les usages commerciaux et le système de mesure employé, mais également sur la composition de la société, via les tendances onomastiques. Les dessins et les graffiti indéterminés, qui sont difficiles ou impossibles à comprendre, permettent néanmoins de susciter la réflexion sur plusieurs questions, comme la valeur des symboles et de certains dessins, le sens des graffiti équivoques. Les informations épigraphiques, la restitution des inscriptions et l'étude de l'alphabet fournissent également des renseignements importants sur l'écriture, la langue, l'éducation et le degré d'alphabétisation de la population. Se rapportant à une autre catégorie de la population d'Avenches, celle des artisans, les quelques graffiti ante cocturam livrent quant à eux des informations concernant l'organisation sociale et l'histoire des artisans. Combiner les résultats obtenus dans différents domaines est primordial pour comprendre le phénomène des graffiti à Avenches durant l'époque romaine. Deux questions reviennent systématiquement dans chacun de nos chapitres : l'identité des auteurs des graffiti et la signification du message gravé. Cette dernière est parfois limpide ; plus souvent elle donne lieu à diverses interprétations. Mais qui sont les scripteurs ? Certaines couches de la société sont-elles à exclure ou à privilégier ? On sait que l'élite des helvètes avait obtenu très tôt la citoyenneté romaine, mais les utilisateurs des récipients appartenaient-ils à cette élite ? En principe, tout un chacun avait la possibilité d'inscrire son nom sur un récipient, qu'il fût de basse extraction ou qu'il se trouvât au somment de la hiérarchie sociale de la cité. Ce sont les circonstances qui conduisent un individu à graver son nom sur un récipient : pour éviter de le perdre, pour qu'on ne l'utilise pas, ou pour le reconnaître à l'occasion d'une célébration, dans un cadre communautaire. Vu la prédominance des noms latins indigènes et gaulois, les nombreux noms grecs et la rareté des noms italiens, faut-il déduire que les scripteurs appartenaient aux couches basses et moyennes de la population ? Ce serait faire fi des mises en garde et des précautions appliquées tout au long de l'étude. D'un point de vue terminologique, il apparaît que la formule « marque de propriété » est une appellation générique se rapportant à un geste bien précis, mais réalisé dans des circonstances très variables. Les auteurs des graffiti ne composent en tout cas pas un groupe homogène. Des femmes, des hommes et peut-être des enfants ont laissé leurs traces sur les récipients. Leur statut, leur condition sociale et leur origine ne sont pas aisés à identifier. L'origine des noms révèle des tendances sur la mode onomastique, tandis que la forme qu'ils revêtent en relation avec le statut de la ville nous conduit à d'intéressantes constatations diachroniques sur l'onomastique de la population d'Avenches. La présence des indications chiffrées et des abréviations codifiées est à mettre en relation avec les besoins domestiques, de la cuisine et de l'approvisionnement, avec le monde du commerce et de l'artisanat, pour la vente ou pour le contrôle de la production. La variété des écritures est probablement liée au support et au type de message inscrit, mais elle témoigne également d'une production épigraphique provenant d'un spectre relativement large de la population, qui se tourne vers cette pratique de l'écrit pour répondre à des besoins quotidiens.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Deux ans après la création du poste d'infirmier au Service de Psychiatrie de Liaison du CHUV à Lausanne, nous proposons de faire le constat de nos réflexions issues de cette nouvelle pratique. Nous voulons, en portant un regard extérieur sur les équipes infirmières, définir notre implication au sujet des difficultés relationnelles qu'elles peuvent rencontrer auprès d'un malade. Nous constatons que ce vécu difficile peut être influencé par des facteurs de stress liés au contexte des soins somatiques aigus, ceux-ci se surajoutant à une problématique relationnelle ou psychiatrique. Nous postulons que la position double du rôle de l'infirmier psychiatrique de liaison, que nous définissons dans cet article, (infirmier tiers pour les équipes infirmières, et infirmier "spécialiste" pour le patient), permet d'offrir des espaces intermédiaires de réflexions quant à une recherche de compréhension d'une relation soignant / soigné et de proposer des outils spécifiques aux équipes infirmières.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'OFSP et la Commission de contrôle de la recherche sur le sida ont mandaté l'IUMSP pour un bilan de la situation actuelle en matière de recherche sur la sexualité en Suisse et à l'étranger. Le présent document présente une revue de la littérature internationale et Suisse, une revue des recherches menées en Suisse allemande (en allemand) ainsi qu'une présentation des grandes enquêtes de population réalisées à l'étranger, un résumé des travaux de Cartigny, une liste des institutions et chercheurs prêts à collaborer à un programme de recherche sur la sexualité.