156 resultados para Énoncé de principe


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé: L'article porte sur la conception du « dialogue » de Mikhaïl Bakhtine dans laquelle s'articulent deux groupes d'idées : 1) la notion de « dialogue » en tant que forme de l'interaction verbale interindividuelle (l'échange des répliques) et 2) la notion de « dialogisme » comme principe qui prévoit un rapport particulier entre le « Moi » (le « Je ») et l'« Autrui ». Son but consiste à 1) analyser ces notions au sens de Bakhtine, en s'appuyant sur le texte russe des Problèmes de l'oeuvre de Dostoïevski (1929) ; et à 2) montrer leurs sources sociologiques (principalement russes). Il y est également question de la notion de « polyphonie » introduite par Bakhtine pour caractériser la particularité de la construction des romans de Dostoïevski et d'une facette des réflexions bakhtiniennes sur le rôle de la « polyphonie » chez Dostoïevski, contenues dans le texte russe de 1929, abandonnées dans la version de 1963 et, de ce fait, méconnues des chercheurs francophones n'ayant accès qu'à la traduction des Problèmes de la poétique de Dostoïevski (1963). This paper examines the conception of "dialogue" elaborated by Mikhaïl Bakhtin in which are articulated two groups of ideas : 1) the notion of "dialogue" as a form of verbal interindividual interaction (an exchange of speech) and 2) the notion of "dialogism" as a principle which implies a relation between the "Me" (the "I") and the "Other". Its aim is 1) to analyse these notions in the sens of Bakhtin, on the base of russian text of Problems of Dostoyevsky's Art (1929) and 2) to show their sociological (mainly russian) origins. The paper also deals with the notion of "polyphony" introduced by Bakhtin to characterize the particularity of Dostoyevsky's method of constructing novels and with one facet of bakhtinian reflections (expounded in the text of 1929, omitted in the version of 1963, thereby unknown by francophone researchers who have access only to the translation of Problems of Dostoyevsky's Poetics (1963)) on the role of "polyphony" in Dostoyevsky's works.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Depuis les années quatre-vingt, la maçonnologie -soit l'étude des réseaux et des nouvelles formes de sociabilité constituées principalement par la Franc-Maçonnerie- s'est progressivement imposée comme une nouvelle discipline des sciences historiques, sociales et politiques. Sa démarche novatrice est interdisciplinaire et vise à comprendre l'origine sociale des adeptes, le rôle du secret comme facteur d'agrégation, ainsi que la philosophie et la morale prônées par l'ordre. Cette démarche ne s'adresse d'ailleurs pas exclusivement à la Franc-Maçonnerie ; elle peut sans problèmes être élargie à d'autres organisations secrètes telles : l'ordre des Illuminés de Bavière, la Charbonnerie, la Philadelphie etc... Les ouvrages pionniers de cette discipline -ceux de Maurice Agulhon et de Pierre-Yves Beaurepaire pour la France, de Carlo Francovich pour l'Italie et d'Helmut Reinalter pour l'Autriche et l'Allemagne- ont la particularité de s'être concentrés sur les sociétés secrètes du XVIIIe siècle : approfondissant leur dimension cosmopolite proche de la philosophie des Lumières. Cette thèse propose de se concentrer sur la Charbonnerie : une société aux origines compagnonniques encore active au début du XIXe siècle dans les provinces de Franche-Comté et de Bourgogne. Celle-ci a été transplantée dans le royaume de Naples, durant la période napoléonienne, et, dans cet environnement, elle s'est politisée épousant la cause de la lutte contre les régimes absolutistes et pour l'autodétermination des peuples. Depuis le royaume de Naples, la Charbonnerie s'est répandue, d'abord dans les autres États constituant la péninsule italienne d'alors, puis elle a été exportée, principalement par des exilés italiens, dans d'autres réalités telles: la France, l'Espagne, la Suisse, la Grande-Bretagne, la Grèce et la Russie. Son idéologie et son combat mêlent à la fois une dimension cosmopolite d'amitié entre les peuples et de secours pour les patriotes persécutés, ainsi que de lutte pour l'affirmation du principe de nationalité pour chaque peuple. - Since the 1980s, the study of Freemasonry - namely the study of the networks and forms of sociability associated with the Freemasons - has gradually established itself as a new field of historical, political and social research. This new interdisciplinary approach aims at exploring the social background of the affiliates, the role that secrecy played in their integration, and the philosophy and moral principles promoted by the Order. This approach is not confined to Freemasonry, but can be applied in the same way to other secret societies, such as the Illuminati, the Carbonari and the Philadelphians . The pioneering studies in this field - those developed by Maurice Agulhon and Pierre-Yves Beaurepaire on France, by Carlo Francovich on Italy and by Helmut Reinalter for Austria and Germany - focus on secret societies in the 18th century: consequently they emphasize their cosmopolitan dimension and their affinity to the philosophy of the Enlightenment. This doctoral thesis focuses more particularly on the Carbonari: a society that had its origins in the Compagnonnage, still present in the French provinces of the Franche-Comté and the Bourgogne in the early 19th century. During the Napoleonic period the Carboneria was imported into the Kingdom of Naples, where the society became more politicized, espousing the struggle against absolutism and for the peoples' right to self-determination. From the Kingdom of Naples, the society extended its influence first into the other countries of the Italian peninsula, then, thanks to exiled Italians, to France, Spain, Switzerland, Great Britain, Greece, and Russia. The ideals and objectives of the society combined the pursuit of cosmopolitan friendship between nations, the effort to save persecuted compatriots , and the assertion of the national identity of peoples.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

3 Summary 3. 1 English The pharmaceutical industry has been facing several challenges during the last years, and the optimization of their drug discovery pipeline is believed to be the only viable solution. High-throughput techniques do participate actively to this optimization, especially when complemented by computational approaches aiming at rationalizing the enormous amount of information that they can produce. In siiico techniques, such as virtual screening or rational drug design, are now routinely used to guide drug discovery. Both heavily rely on the prediction of the molecular interaction (docking) occurring between drug-like molecules and a therapeutically relevant target. Several softwares are available to this end, but despite the very promising picture drawn in most benchmarks, they still hold several hidden weaknesses. As pointed out in several recent reviews, the docking problem is far from being solved, and there is now a need for methods able to identify binding modes with a high accuracy, which is essential to reliably compute the binding free energy of the ligand. This quantity is directly linked to its affinity and can be related to its biological activity. Accurate docking algorithms are thus critical for both the discovery and the rational optimization of new drugs. In this thesis, a new docking software aiming at this goal is presented, EADock. It uses a hybrid evolutionary algorithm with two fitness functions, in combination with a sophisticated management of the diversity. EADock is interfaced with .the CHARMM package for energy calculations and coordinate handling. A validation was carried out on 37 crystallized protein-ligand complexes featuring 11 different proteins. The search space was defined as a sphere of 15 R around the center of mass of the ligand position in the crystal structure, and conversely to other benchmarks, our algorithms was fed with optimized ligand positions up to 10 A root mean square deviation 2MSD) from the crystal structure. This validation illustrates the efficiency of our sampling heuristic, as correct binding modes, defined by a RMSD to the crystal structure lower than 2 A, were identified and ranked first for 68% of the complexes. The success rate increases to 78% when considering the five best-ranked clusters, and 92% when all clusters present in the last generation are taken into account. Most failures in this benchmark could be explained by the presence of crystal contacts in the experimental structure. EADock has been used to understand molecular interactions involved in the regulation of the Na,K ATPase, and in the activation of the nuclear hormone peroxisome proliferatoractivated receptors a (PPARa). It also helped to understand the action of common pollutants (phthalates) on PPARy, and the impact of biotransformations of the anticancer drug Imatinib (Gleevec®) on its binding mode to the Bcr-Abl tyrosine kinase. Finally, a fragment-based rational drug design approach using EADock was developed, and led to the successful design of new peptidic ligands for the a5ß1 integrin, and for the human PPARa. In both cases, the designed peptides presented activities comparable to that of well-established ligands such as the anticancer drug Cilengitide and Wy14,643, respectively. 3.2 French Les récentes difficultés de l'industrie pharmaceutique ne semblent pouvoir se résoudre que par l'optimisation de leur processus de développement de médicaments. Cette dernière implique de plus en plus. de techniques dites "haut-débit", particulièrement efficaces lorsqu'elles sont couplées aux outils informatiques permettant de gérer la masse de données produite. Désormais, les approches in silico telles que le criblage virtuel ou la conception rationnelle de nouvelles molécules sont utilisées couramment. Toutes deux reposent sur la capacité à prédire les détails de l'interaction moléculaire entre une molécule ressemblant à un principe actif (PA) et une protéine cible ayant un intérêt thérapeutique. Les comparatifs de logiciels s'attaquant à cette prédiction sont flatteurs, mais plusieurs problèmes subsistent. La littérature récente tend à remettre en cause leur fiabilité, affirmant l'émergence .d'un besoin pour des approches plus précises du mode d'interaction. Cette précision est essentielle au calcul de l'énergie libre de liaison, qui est directement liée à l'affinité du PA potentiel pour la protéine cible, et indirectement liée à son activité biologique. Une prédiction précise est d'une importance toute particulière pour la découverte et l'optimisation de nouvelles molécules actives. Cette thèse présente un nouveau logiciel, EADock, mettant en avant une telle précision. Cet algorithme évolutionnaire hybride utilise deux pressions de sélections, combinées à une gestion de la diversité sophistiquée. EADock repose sur CHARMM pour les calculs d'énergie et la gestion des coordonnées atomiques. Sa validation a été effectuée sur 37 complexes protéine-ligand cristallisés, incluant 11 protéines différentes. L'espace de recherche a été étendu à une sphère de 151 de rayon autour du centre de masse du ligand cristallisé, et contrairement aux comparatifs habituels, l'algorithme est parti de solutions optimisées présentant un RMSD jusqu'à 10 R par rapport à la structure cristalline. Cette validation a permis de mettre en évidence l'efficacité de notre heuristique de recherche car des modes d'interactions présentant un RMSD inférieur à 2 R par rapport à la structure cristalline ont été classés premier pour 68% des complexes. Lorsque les cinq meilleures solutions sont prises en compte, le taux de succès grimpe à 78%, et 92% lorsque la totalité de la dernière génération est prise en compte. La plupart des erreurs de prédiction sont imputables à la présence de contacts cristallins. Depuis, EADock a été utilisé pour comprendre les mécanismes moléculaires impliqués dans la régulation de la Na,K ATPase et dans l'activation du peroxisome proliferatoractivated receptor a (PPARa). Il a également permis de décrire l'interaction de polluants couramment rencontrés sur PPARy, ainsi que l'influence de la métabolisation de l'Imatinib (PA anticancéreux) sur la fixation à la kinase Bcr-Abl. Une approche basée sur la prédiction des interactions de fragments moléculaires avec protéine cible est également proposée. Elle a permis la découverte de nouveaux ligands peptidiques de PPARa et de l'intégrine a5ß1. Dans les deux cas, l'activité de ces nouveaux peptides est comparable à celles de ligands bien établis, comme le Wy14,643 pour le premier, et le Cilengitide (PA anticancéreux) pour la seconde.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé Métropolisation, morphologie urbaine et développement durable. Transformations urbaines et régulation de l'étalement : le cas de l'agglomération lausannoise. Cette thèse s'inscrit clans la perspective d'une analyse stratégique visant à un définir et à expliciter les liens entre connaissance, expertise et décision politique. L'hypothèse fondamentale qui oriente l'ensemble de ce travail est la suivante : le régime d'urbanisation qui s'est imposé au cours des trente dernières années correspond à une transformation du principe morphogénétique de développement spatial des agglomérations qui tend à alourdir leurs bilans écologiques et à péjorer la qualité du cadre de vie des citadins. Ces enjeux environnementaux liés aux changements urbains et singulièrement ceux de la forme urbaine constituent un thème de plus en plus important dans la recherche de solutions d'aménagement urbain dans une perspective de développement durable. Dans ce contexte, l'aménagement urbain devient un mode d'action et une composante de tout premier ordre des politiques publiques visant un développement durable à l'échelle locale et globale. Ces modalités de développement spatial des agglomérations émergent indiscutablement au coeur de la problématique environnementale. Or si le concept de développement durable nous livre une nouvelle de de lecture des territoires et de ses transformations, en prônant le modèle de la ville compacte et son corollaire la densification, la traduction à donner à ce principe stratégique reste controversée, notamment sous l'angle de l'aménagement du territoire et des stratégies de développement urbain permettant une mise en oeuvre adéquate des solutions proposées. Nous avons ainsi tenté dans ce travail de répondre à un certain nombre de questions : quelle validité accorder au modèle de la ville compacte ? La densification est-elle une réponse adéquate ? Si oui, sous quelles modalités ? Quelles sont, en termes de stratégies d'aménagement, les alternatives durables au modèle de la ville étalée ? Faut-il vraiment densifier ou simplement maîtriser la dispersion ? Notre objectif principal étant in fine de déterminer les orientations et contenus urbanistiques de politiques publiques visant à réguler l'étalement urbain, de valider la faisabilité de ces principes et à définir les conditions de leur mise en place dans le cas d'une agglomération. Pour cela, et après avoir choisi l'agglomération lausannoise comme terrain d'expérimentation, trois approches complémentaires se sont révélées indispensables dans ce travail 1. une approche théorique visant à définir un cadre conceptuel interdisciplinaire d'analyse du phénomène urbain dans ses rapports à la problématique du développement durable liant régime d'urbanisation - forme urbaine - développement durable ; 2. une approche méthodologique proposant des outils d'analyse simples et efficaces de description des nouvelles morphologies urbaines pour une meilleure gestion de l'environnement urbain et de la pratique de l'aménagement urbain ; 3. une approche pragmatique visant à approfondir la réflexion sur la ville étalée en passant d'une approche descriptive des conséquences du nouveau régime d'urbanisation à une approche opérationnelle, visant à identifier les lignes d'actions possibles dans une perspective de développement durable. Cette démarche d'analyse nous a conduits à trois résultats majeurs, nous permettant de définir une stratégie de lutte contre l'étalement. Premièrement, si la densification est acceptée comme un objectif stratégique de l'aménagement urbain, le modèle de la ville dense ne peut être appliqué saris la prise en considération d'autres objectifs d'aménagement. Il ne suffit pas de densifier pour réduire l'empreinte écologique de la ville et améliorer la qualité de vie des citadins. La recherche d'une forme urbaine plus durable est tributaire d'une multiplicité de facteurs et d'effets de synergie et la maîtrise des effets négatifs de l'étalement urbain passe par la mise en oeuvre de politiques urbaines intégrées et concertées, comme par exemple prôner la densification qualifiée comme résultante d'un processus finalisé, intégrer et valoriser les transports collectifs et encore plus la métrique pédestre avec l'aménagement urbain, intégrer systématiquement la diversité à travers les dimensions physique et sociale du territoire. Deuxièmement, l'avenir de ces territoires étalés n'est pas figé. Notre enquête de terrain a montré une évolution des modes d'habitat liée aux modes de vie, à l'organisation du travail, à la mobilité, qui font que l'on peut penser à un retour d'une partie de la population dans les villes centres (fin de la toute puissance du modèle de la maison individuelle). Ainsi, le diagnostic et la recherche de solutions d'aménagement efficaces et viables ne peuvent être dissociés des demandes des habitants et des comportements des acteurs de la production du cadre bâti. Dans cette perspective, tout programme d'urbanisme doit nécessairement s'appuyer sur la connaissance des aspirations de la population. Troisièmement, la réussite de la mise en oeuvre d'une politique globale de maîtrise des effets négatifs de l'étalement urbain est fortement conditionnée par l'adaptation de l'offre immobilière à la demande de nouveaux modèles d'habitat répondant à la fois à la nécessité d'une maîtrise des coûts de l'urbanisation (économiques, sociaux, environnementaux), ainsi qu'aux aspirations émergentes des ménages. Ces résultats nous ont permis de définir les orientations d'une stratégie de lutte contre l'étalement, dont nous avons testé la faisabilité ainsi que les conditions de mise en oeuvre sur le territoire de l'agglomération lausannoise. Abstract This dissertation participates in the perspective of a strategic analysis aiming at specifying the links between knowledge, expertise and political decision, The fundamental hypothesis directing this study assumes that the urban dynamics that has characterized the past thirty years signifies a trans-formation of the morphogenetic principle of agglomerations' spatial development that results in a worsening of their ecological balance and of city dwellers' quality of life. The environmental implications linked to urban changes and particularly to changes in urban form constitute an ever greater share of research into sustainable urban planning solutions. In this context, urban planning becomes a mode of action and an essential component of public policies aiming at local and global sustainable development. These patterns of spatial development indisputably emerge at the heart of environmental issues. If the concept of sustainable development provides us with new understanding into territories and their transformations, by arguing in favor of densification, its concretization remains at issue, especially in terms of urban planning and of urban development strategies allowing the appropriate implementations of the solutions offered. Thus, this study tries to answer a certain number of questions: what validity should be granted to the model of the dense city? Is densification an adequate answer? If so, under what terms? What are the sustainable alternatives to urban sprawl in terms of planning strategies? Should densification really be pursued or should we simply try to master urban sprawl? Our main objective being in fine to determine the directions and urban con-tents of public policies aiming at regulating urban sprawl, to validate the feasibility of these principles and to define the conditions of their implementation in the case of one agglomeration. Once the Lausanne agglomeration had been chosen as experimentation field, three complementary approaches proved to be essential to this study: 1. a theoretical approach aiming at definying an interdisciplinary conceptual framework of the ur-ban phenomenon in its relation to sustainable development linking urban dynamics - urban form - sustainable development ; 2. a methodological approach proposing simple and effective tools for analyzing and describing new urban morphologies for a better management of the urban environment and of urban planning practices 3. a pragmatic approach aiming at deepening reflection on urban sprawl by switching from a descriptive approach of the consequences of the new urban dynamics to an operational approach, aiming at identifying possible avenues of action respecting the principles of sustainable development. This analysis approach provided us with three major results, allowing us to define a strategy to cur-tail urban sprawl. First, if densification is accepted as a strategic objective of urban planning, the model of the dense city can not be applied without taking into consideration other urban planning objectives. Densification does not suffice to reduce the ecological impact of the city and improve the quality of life of its dwellers. The search for a more sustainable urban form depends on a multitude of factors and effects of synergy. Reducing the negative effects of urban sprawl requires the implementation of integrated and concerted urban policies, like for example encouraging densification qualified as resulting from a finalized process, integrating and developing collective forms of transportation and even more so the pedestrian metric with urban planning, integrating diversity on a systematic basis through the physical and social dimensions of the territory. Second, the future of such sprawling territories is not fixed. Our research on the ground revea-led an evolution in the modes of habitat related to ways of life, work organization and mobility that suggest the possibility of the return of a part of the population to the center of cities (end of the rule of the model of the individual home). Thus, the diagnosis and the search for effective and sustainable solutions can not be conceived of independently of the needs of the inhabitants and of the behavior of the actors behind the production of the built territory. In this perspective, any urban program must necessarily be based upon the knowledge of the population's wishes. Third, the successful implementation of a global policy of control of urban sprawl's negative effects is highly influenced by the adaptation of property offer to the demand of new habitat models satisfying both the necessity of urbanization cost controls (economical, social, environ-mental) and people's emerging aspirations. These results allowed us to define a strategy to cur-tail urban sprawl. Its feasibility and conditions of implementation were tested on the territory of the Lausanne agglomeration.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé sous forme de thèses 1. La présente thèse de doctorat traite de la problématique des licences obligatoires en droit communautaire de la concurrence. Plus précisément, il s'agit d'examiner si et sous quelles conditions le refus de licencier un droit de propriété intellectuelle par une entreprise peut constituer un abus d'une position dominante selon l'article 82 du Traité CE. L'étude fait notamment référence aux marchés de haute technologie et ici à la décision Microsoft, qui a été publiée par la Commission européenne en mars 2004 et qui porte, dans sa deuxième partie, sur la possibilité de rendre interopérables différents composants, via des informations appelées interfaces. 2. La question d'une licence obligatoire ne se pose que si l'information recherchée est protégée par un droit de propriété intellectuelle et si cette information ne peut être obtenue par d'autres moyens. C'est pourquoi la première partie de l'étude examine deux sujets importants concernant l'interopérabilité: d'une part la méthode de décompilation permet-elle d'obtenir des interfaces de logiciel, d'autre part, les interfaces sont-elles protégées par le droit d'auteur. 3. En ce qui concerne la décompilation des programmes d'ordinateur, l'étude démontre que cette méthode ne permet pas de rendre interopérables différents programmes d'ordinateur de manière efficace. Le droit européen a légalisé cette méthode, après des débats publics très vifs, par l'article 6 de la directive concernant la protection juridique des programmes d'ordinateur (91/250/CEE). Il semble néanmoins que la lutte pour un tel droit de décompilation a été vaine :Tout d'abord, l'article 6 est rédigé d'une façon très complexe et autorise une décompilation seulement selon des conditions très restrictives. En plus, la décompilation en elle-même est un travail très complexe qui peut durer des années et qui ne garantit pas de trouver les informations recherchées. 4. En outre, une réglementation de décompilation n'existe jusqu'à présent que dans le domaine du droit d'auteur, tandis qu'une règlementation pour la protection juridique des brevets fait défaut. La question concernant la protection juridique des brevets pour les inventions mises en rouvre par ordinateur restera aussi dans le futur sans réponse, étant donné que le Parlement européen a rejeté une telle proposition de directive en juillet 2005. Ceci est regrettable, parce que la proposition de directive prévoyait explicitement un droit de décompilation. La Commission européenne projette, cependant, de réexaminer les dispositions de décompilation relatives au droit d'auteur. Dans ce contexte, il devrait notamment être examiné si les dispositions de décompilation de l'article 6 de la directive des programmes d'ordinateur sont satisfaisantes afin de garantir une (certaine) interopérabilité. 5. Un réexamen de la directive concernant la protection juridique des programmes d'ordinateur pourrait aussi servir à clarifier l'existence et l'étendue de la protection d'interfaces. L'article 1, paragraphe 2, 2ième phrase se réfère dans ce contexte uniquement à un principe reconnu en droit international du droit d'auteur, dénommé «dichotomie d'idée/d'expression» : seul l'expression individuelle est protégée, mais pas l'idée en tant que telle. La rédaction de l'article devrait ainsi préciser qu'une spécification d'une interface constitue toujours une idée, qui ne peut pas être protégée, alors que l'implémentation de l'interface dans un programme d'ordinateur représente son expression et devrait ainsi bénéficier d'une protection selon le droit d'auteur. Or, dans la plupart des cas, la spécification d'une interface est suffisante pour rendre interopérables différents programmes d'ordinateur. 6. La Commission dans sa décision Microsoft a pourtant supposé que les interfaces recherchées par les concurrents de Microsoft pouvaient être protégées par des droits de propriété intellectuelle. En effet, le seul moyen à disposition pour ceux qui veulent rendre interopérables leur programme d'ordinateur et avec celui d'une entreprise dominante est le recours à l'article 82 CE. Ici, la question qui se pose est celle de savoir si le refus de fournir des interfaces constitue un abus d'une position dominante et donc mène à l'octroi d'une licence obligatoire. 7. Dans le contexte des licences obligatoires selon l'article 82 CE, il est courant d'invoquer la relation de conflit entre la propriété intellectuelle et le droit de la concurrence. Or, l'étude démontre que ces deux institutions de droit poursuivent le même but, à savoir l'encouragement au bien-être des consommateurs en stimulant l'innovation. Les objectifs convergent notamment si on définit la concurrence plutôt en tant que concept dynamique. Par conséquent, des restrictions temporaires à la concurrence peuvent être acceptées, si ceci mène à la création de la concurrence à long terme. Pourtant, des conflits potentiels persistent, étant donné qu'on ne peut pas argumenter que chaque restriction à la concurrence effectuée par le titulaire d'un droit de propriété intellectuelle mène à l'incitation de l'innovation à long terme. 8. En réfutant ce dernier argument, l'étude démontre que les droits de propriété intellectuelle ne peuvent pas être généralement exemptés de l'application du droit de la concurrence. Notamment, selon l'état actuel de la jurisprudence, il ne peut être soutenu qu'il existe un noyau dur spécifique du droit de la propriété intellectuelle, qui ne devrait pas être affecté par le droit de la concurrence. L'ordonnance d'une licence obligatoire peut être justifiée sur la base de l'article 82 CE, dans la mesure où la balance d'intérêts démontre un effet positif au bien-être des consommateurs résultant d'une telle licence. En même temps, les droits individuels du propriétaire d'un droit de propriété intellectuelle sont à respecter, surtout la liberté contractuelle et la protection de la propriété. 9. Le droit de la liberté contractuelle et le droit de la propriété sont atteints, si le propriétaire d'un droit, de nature matérielle ou immatérielle, n'a exercé son droit de propriété que pour lui-même, exclusivement, sans jamais avoir démontré la volonté de s'acquitter de ses droits. C'est donc surtout pour protéger ces deux principes de droit que la présente étude fait une distinction majeure entre le refus de contracter et la rupture d'une relation contractuelle. 10. Le premier cas est traité de manière détaillée sous le chapitre de la doctrine des facilités essentielles (EFD). Selon la position prise ici, cette constellation est caractérisée par l'obligation du propriétaire de contracter et ainsi d'établir des relations d'affaires avec ses concurrents. Or, un principe selon lequel les entreprises en position dominante sont obligées d'encourager la concurrence, n'existe pas en droit communautaire. Il est toutefois nécessaire de pouvoir imposer une telle obligation, notamment dans les cas où la concurrence sur un marché ne peut être mise en oeuvre à long terme par un autre moyen et où cette ouverture du marché n'entraîne pas d'obstacles à l'innovation. 11. La constellation particulière des facilités essentielles exige néanmoins un contrôle plus prudent que dans les cas constituant une rupture de relation d'affaires. Cette exigence a été respectée sur base des conditions que l'arrêt Bronner a établit concernant l'essentialité d'une facilité. Même si l'établissement en question remplit toutes les conditions afin d'être qualifié d'essentiel, l'ordonnance d'un accès obligé doit encore passer l'examen d'une balance d'intérêts. Celle-ci mène encore plus rarement à l'octroi d'une licence dans les cas où la facilité est protégée par un droit de propriété intellectuelle. Des exceptions à cette règle existent si le droit de la propriété intellectuelle n'a pas été obtenu par des moyens basés sur le mérite ou si la fonction d'incitation à l'innovation est en doute. 12. L'affaire IMS Health présente un tel cas exceptionnel. La structure recherchée par les concurrents de IMS remplissait, au moment de l'examen de l'affaire par la Commission européenne, tous les critères d'un standard de facto. En outre, au moment du développement de la structure, celle-ci ne bénéficiait pas d'une protection de droit immatérielle. Une telle protection ne lui a été accordée que depuis la transposition de la directive concernant la protection juridique des bases de données en droit d'auteur allemand. Par conséquent, IMS ne pouvait avoir entrepris des investissements dans la construction de la structure, afin de profiter ultérieurement de la protection du droit d'auteur. Ceci affaiblit la présomption selon laquelle l'utilisation exclusive du droit aurait dû être préservée afin de ne pas faire obstacle à l'innovation. 13. Le cas européen de Microsoft se distingue de cette constellation. Les conditions qui ont mené à la décision de la Commission européenne quant à l'attribution d'interopérabilité et ainsi à une licence obligatoire d'interfaces, ont été présenté de manière détaillée dans cette étude. Elles fournissent les meilleures preuves que les «circonstances exceptionnelles », qui ont été déterminantes dans l'affaire Magill de la Cour de justice, à savoir «l'empêchement de la création d'un nouveau produit », le «manque de justification objective » et «l'empêchement de toute concurrence sur un marché en aval distinct », ne peuvent constituer une énumération exhaustive pour l'ordonnance d'une licence obligatoire. 14. En effet, dans l'affaire Microsoft, l'intersection progressive d'interopérabilité entre les systèmes d'exploitation étrangers à Microsoft et des systèmes d'exploitation de Microsoft n'a pas empêché la création de nouveaux produits. Le marché en question, celui des systèmes d'exploitation pour serveur de groupe de travail, avait été créé par l'entreprise Novell. Par conséquent, quand Microsoft a accédé à ce marché, d'autres entreprises en situation d'offre s'y trouvaient déjà avec leurs produits. Il s'en suit que, en 'exigeant de Microsoft des interfaces correspondantes, il s'agissait d'assurer l'interopérabilité avec les produits de Microsoft, et surtout avec l'omniprésent système d'exploitation pour ordinateur PC, afin de maintenir des produits déjà existants sur le marché, et notamment des produits «pionniers »qui avaient pris le risque d'exploiter le marché des systèmes d'exploitation pour serveur de groupe de travail. 15. Une autre circonstance exceptionnelle que celle d'un nouveau produit empêché donne l'impulsion à la thèse qu'une intersection progressive aux interfaces de Microsoft constitue un abus d'une position dominante selon l'article 82 CE : celle du transfert du pouvoir de marché. L'intégration verticale d'une entreprise en position dominante sur un marché qui n'a jusqu'à ce jour été que fourni par celle-ci, et qui rompt des relations contractuelles avec des entreprises agissant sur ce marché, afin d'évincer de la concurrence, constitue un cas de type connu de l'abus, reconnue pour la première fois dans l'arrêt Commercial Solvents de la CJCE: L'entreprise en position dominante utilise son pouvoir sur un marché initial et stratégiquement important et se sert ainsi des avantages, qui ne peuvent être conciliés avec le concept de concurrence par le mérite. 16. Il doit être de même si le bien en question bénéficie d'un droit immatériel, et qu'il s'agit ainsi d'un arrêt d'une licence. En effet, les fonctions, en principe supposées, d'incitation et de mérite, perdent de leur importance si le bien en question a déjà fait objet d'une licence: Il ne peut pas alors être argumenté que le propriétaire d'un droit immatériel doit l'utiliser exclusivement lui-même, afin de profiter des fruits de son mérite. Cet argument particulier de la prise en compte de l'effet d'incitation et de mérite perd d'autant plus de sa pertinence, si l'entreprise en cause ne fournit pas sur le marché dérivé une innovation, mais ne sert juste qu'à vendre un produit déjà préexistant. 17. Dans le domaine de licence de propriété intellectuelle obligatoire selon l'article 82 CE, les juridictions européennes n'ont jusqu'à présent uniquement eu à décider sur des constellations de cas, dans lesquelles le droit n'avait pas été l'objet d'une licence antérieure. Avec le cas Microsoft, le Tribunal de Première Instance a maintenant la possibilité de décider d'une distinction importante à faire en droit de la concurrence entre, d'une part, les cas dans lesquels un droit de propriété intellectuelle n'a pas encore été l'objet d'une licence et de l'autre, ceux dans lesquels il s'agit d'une rupture de licence.

Relevância:

10.00% 10.00%

Publicador:

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé I. Introduction La présente étude analyse les conflits entre les autorités nationales de concurrence dans le cas de figure où plusieurs autorités examinent en même temps la convergence d'une opération de concentration avec leur droit de concentration respectif. Tandis que le débat concernant le contrôle parallèle des opérations de concentration internationales est aujourd'hui extrêmement vif, la recherche fondamentale sur ce sujet n'a pas encore beaucoup avancé. Cependant il y a un besoin de réforme évident, un besoin au centre duquel se situe une réflexion sur l'organisation du droit de concurrence international. Le but de cette étude est donc de fournir une vue d'ensemble des conflits possibles entre les autorités nationales de concurrence en matière politique, économique et juridique (matérielle et procédurale) causés par une opération de concentration internationale. L'objectif n'est pas de fournir une évaluation des différents systèmes de contrôle de concentration, mais plutôt de chercher la source des conflits. Par ailleurs, l'analyse qui suit insistera sur la nécessité d'une solution internationale de ces conflits. II. Arrière-plan Depuis plusieurs décennies, les relations économiques internationales entre les Etats et les entreprises ont été profondément marquées par un processus dynamique de globalisation et de libéralisation. La libéralisation a engendré une croissance énorme du commerce mondial. En conséquence, les entreprises ont développé des stratégies globales pour arriver à une croissance durable. Ainsi, le nombre et la taille des entreprises internationales a constamment augmenté. À cause de cette présence globale des entreprises, les anciens marchés nationaux ou régionaux sont devenus des marchés globaux. Dans le cadre de la libéralisation économique, beaucoup d'Etats ainsi que l'Union Européenne ont reconnu que la concurrence est le moyen approprié pour faire progresser l'innovation et la croissance économique. Il faut donc maintenir et développer les structures de concurrence. Pour cela, il faut surveiller dans le cadre du droit de contrôle international toutes les pratiques concertées dont l'objet ou l'effet serait de restreindre la concurrence, ainsi que les abus d'une position dominante ou les opérations de concentration d'entreprises. Jusqu'à présent, sur environ 200 Etats souverains existants au monde, une bonne centaine ainsi que l'Union Européenne (l'UE) ont développé un droit de concurrence. Et parmi ces Etats, 75 environ ont créé un droit de contrôle de concentration. Mais ces règles nationales ne sont pas toujours appropriées au regard de l'économie mondiale. On constate plutôt que ,,l'internationalisation croissante des marchés [...] n'a pas été suivie d'une internationalisation parallèle de la politique de concurrence". Par ailleurs, un grand nombre d'Etats appliquent leur droit de concurrence également en dehors de leur propre territoire afin de contrôler les abus à l'étranger. Même si on peut comprendre ce besoin de contrôle, cette évolution risque de provoquer des conflits avec les législations des autres Etats concernés. D'autres difficultés naissent des différences théoriques ou pratiques des systèmes du droit de la concurrence ou de régulations divergentes du point de vue matériel et procédural. Même sur la base de règles comparables, des divergences apparaissent à cause de différentes méthodes d'interprétation ou d'application. La communauté internationale s'emploie à combattre toutes les barrières au commerce transnational -notamment dans le cadre de l'Organisation Mondiale du Commerce (OMC). Mais si elle néglige de lutter en même temps contre les barrières commerciales établies par les entreprises elles-mêmes, elle risque de perdre les gains d'efficacité et de bien public déjà acquis par la suppression des barrières commerciales publiques. Car certaines actions des entreprises privées, comme l'exclusion ou la répartition mutuelle du marché, peuvent aussi bien conduire à des restrictions de la concurrence que les barrières commerciales publiques, tarifaires ou non-tarifaires, et peuvent même s'y substituer. III. Plan de l'étude Après l'Introduction, la partie B traite de la coopération de l'Union Européenne avec les Etats-Unis en matière du droit de la concurrence. En effet, les accords bilatéraux entre l'UE et les Etats-Unis montrent les possibilités et les limites d'une telle coopération. Les conflits entre les autorités de concurrence résultent de la mondialisation croissante et de l'intensification de la concurrence qui en découle. Aussi, ces conflits ne sont pas seulement d'ordre théorique mais également d'une grande importance pratique comme le montre l'analyse des deux cas dans la partie C. Les autorités de concurrence des Etats-Unis et de l'Union Européenne ont chacun de leur côté examiné la fusion des entreprises Boeing Corporation et McDonnell Douglas Corporation (MDD), ainsi que le projet de fusion entre Honeywell International Inc. (Honeywell) et General Electric Co. (GE). Or, ces deux procédures sont paradigmatiques en ce qui concerne la sensibilité politique des autorités de concurrence et les limites de la coopération bilatérale. Après ces analyse de cas, la partie D qui compare le droit de contrôle de concentration aux Etats-Unis et en Europe et examine les conflits éventuels entre les deux systèmes constitue la partie principale de l'étude. Les sources de ces conflits peuvent être aussi bien trouvées dans le droit matériel que dans le droit procédural, tout comme dans les différences d'orientation politique générale des deux systèmes. La partie E montre les différentes solutions qui ont été proposées dans ce cadre. Ensuite, ces propositions sont comparées avec celles concernant l'harmonisation des politiques de concurrence et de contrôle de concentrations. Sur la base de ces résultats, une proposition de solution montrant les premiers pas nécessaires pour résoudre les conflits existants entre les autorités de concurrence est présentée. IV. Résumé des conflits L'étude aboutit à la constatation que presque tous les aspects du contrôle des concentrations constituent un important potentiel de conflits. Celui-ci est d'ailleurs bien plus important que l'on ne pourrait penser au w des lois applicables. La complexité du droit de la concurrence provoque nécessairement des conflits. Mais il faut également tenir compte des différences fondamentales concernant les objectifs politiques des Etats, les formes d'institutionnalisation des autorités de concurrence et la prise en considération des pays en développement ou des pays émergents. Les différences purement juridiques accroissent le potentiel de conflits entre les Etats et empêchent une intensification de la coopération. Cela est notamment vrai pour la définition de la concentration, l'application extraterritoriale du droit national, la notification obligatoire et ses seuils fixés. Concernant le droit matériel, les conflits se situent dans les domaines de la délimitation du marché, le critère d'incompabilité, l'analyse économique, la prise en compte des gains d'efficacité, l'importance de la concentration de sauvetage ainsi que de l'application du principe de ,,comity of nations". Du point de we du droit procédural, les différences d'inscription obligatoire et d'interdiction partielle de l'accomplissement consécutif donnent autant également lieu à des conflits potentiels que les différences de méthode d'investigation et d'exécution des décisions publiques. Il en va de même pour les différents remèdes ou les sanctions prévues pour le mépris des décisions des autorités ou des tribunaux et la position des parties tierces dans la procédure est également un facteur de conflit. Enfin, il faut mentionner le manque de transparence qui nuit à la sécurité juridique. L'application arbitraire du droit, le protectionnisme, le mercantilisme ainsi que le manque de sécurité juridique augmentent le danger de conflits interétatiques. La coopération entre les Etats-Unis et l'Union Européenne sur la base de l'accord de 1991 n'a pas vraiment réduit ce potentiel de conflits. Cela s'est notamment avéré au moment des projets de fusion entre GE et Honeywell et de la reprise de MDD par Boeing. V. Les possibilités d'harmonisation Aussi bien la nécessité que la faisabilité d'une harmonisation globale du droit de la concurrence et d'une politique de la concurrence sont encore très discutés. La plupart des débats tournent plutôt autour de l'arrangement concret d'un tel droit harmonisé que de l'objectif général d'une harmonisation. Quelques Etats comme les Etats-Unis redoutent une trop grande perte de souveraineté et veulent par conséquent maintenir leur méthode unilatérale et extraterritoriale. Cependant, la plupart des experts des organisations internationales comme ceux des autorités de concurrence et du public intéressé approuvent l'idée d'un droit de concurrence international. Etant donné la gravité de certains conflits, de nombreux Etats et un grand nombre de juristes perçoivent la nécessité de développer la conscience d'une indispensable harmonisation, et un accord sur ce plan semble parfaitement possible. Parmi ceux qui soutiennent cet accord l'on trouve presque tous les Etats membres de l'Organisation de coopération et de développement économiques (l'OCDE), de nombreux Etats membres de l'OMC, de l'Organisations des nations unies (l'ONU) et de l'Accord de libre-échange nord-américain (l'ALENA), particulièrement les Etats de l'UE, l'Australie, le Japon, le Canada, le Mexique, la Nouvelle Zélande et quelques représentants des autorités de concurrence des Etats-Unis. La méthode la plus efficace et raisonnable pour lutter contre les obstacles privés à la concurrence est la coopération et la coordination globale des mécanismes de contrôle. Les forums et les structures nécessaires pour la préparation d'une telle tâche existent déjà. Ainsi, le cadre institutionnel éprouvé de l'OMC pourra faire progresser le processus d`harmonisation. Il faudrait simplement élargir les compétences de l'OMC pour garantir un contrôle international efficace. L'harmonisation sur le plan international serait plus efficace qu'une harmonisation unilatérale ou bilatérale. La flexibilité d'un accord international pourrait être garanti par 1"insertion de cet accord dans le Mémorandum d'accords commerciaux plurilatéraux (Annexe 4) de l'OMC. Ainsi, cet accord ne serait obligatoire que pour les Etats membres qui l'auraient déjà approuvé séparément. Les autres Etats auraient la possibilité de le signer plus tard. En cas de conflits dans le cadre de l'application de cet accord, on pourrait se servir du mécanisme d'arbitrage de l'OMC. Il faudrait également créer une autorité internationale de concurrence et un comité spécial international de concurrence. Un tel accord de l'OMC ne constitue qu'un premier pas. Les exigences minimales de l'accord doivent être renforcées et régulièrement ajustées à l'évolution et aux nouvelles données de l'économie mondiale. Ainsi, le processus d'harmonisation internationale sera l'objet d'une dynamique permanente. VI. Résultats et conclusions L'étude a montré que l'application parallèle des droits nationaux de concurrence est une importante source de conflits. Elle a surtout mis l'accent sur les relations entre les Etats-Unis et l'Union Européenne. Il est d'ailleurs très probable que ce genre de conflits augmente encore dans le futur. En 2000, l'activité mondiale des fusions et acquisitions a eu un volume de 3 billions de dollars Anglo-américains. Cela équivaut à une multiplication par onze du volume de 1991. En 2001, par contre, le volume a de nouveau baissé à 1,6 billions de dollars Anglo-américains. Mais selon les pronostics, le nombre des concentrations va à nouveau augmenter considérablement dans les prochaines années. Cette vague de concentrations internationales est la conséquence de l'intensification mondiale des relations économiques transnationales. Cette évolution va se poursuivre pour autant que les barrières commerciales publiques continuent à être démantelées, que le renforcement de la dérégularisation ouvre de nouveaux marchés à la compétition, que de plus en plus de standards techniques soient harmonisés et que les transports et la communication internationale soient améliorés et moins couteux. Enfin, la consolidation de certains secteurs économiques à la suite de fusions déjà réalisées encourage de plus en plus les entreprises à fusionner sur le plan international et dans des dimensions de plus en plus grandes. Outre les conflits engendrés par les différentes législations nationales, il faut également mentionner les oppositions qui résultent d'une façon indirecte de la compétition entre les différentes autorités de contrôle. Ainsi, par exemple, les conséquences économiques et financières d'un retard dans la procédure de contrôle ou les sanctions importantes imposées aux entreprises concernées sont souvent le sujet de discussions et de conflits politiques. Dans ce cadre, il faut souligner qu'en réalité le droit de concurrence ainsi que le droit de contrôle de concentrations ne vise pas seulement une politique de concurrence mais également la politique industrielle et générale. La diversité de ces différentes visées politiques provoque nécessairement des conflits politiques. La solution présentée à la fin de ce travail voudrait proposer une application efficace du droit de contrôle de concentration sur le plan international. A la base de cette efficacité il y a aurait notamment: L'encouragement d'une politique de concurrence au sein des Etats qui n'ont pas encore développé un droit de concurrence ou qui ne l'exécutent pas d'une manière suffisante. L'encouragement de la concurrence et des concentrations positives améliorant la situation compétitive. La simplification de la coopération des autorités de concurrence. L'accélération des procédures et des décisions. La garantie de la sécurité juridique. La diminution des conflits politiques. L'encouragement d'une amélioration globale du bien public qui est à la base de toute politique commerciale. Ces objectifs ne peuvent être atteints que si le protectionnisme national est battu en brêche et si des systèmes de contrôle international sont installés. Les intérêts des Etats doivent refléter les nouvelles dimensions de l'économie globale qui ne s'arrête pas aux frontières nationales. Pour cela il leur faut accepter certaines pertes de souveraineté et tolérer certaines infractions aux règles internationales de la non-ingérence. Les intérêts nationaux doivent s'ajuster à l'économie mondiale et aux intérêts des autres Etats. Bien entendu, tant que la divergence actuelle entre les marchés internationaux et les systèmes de contrôle nationaux persiste, une amélioration de la situation est peu probable. Pour que cela soit possible, il faudrait une législation qui reflète les nouvelles dimensions de l'économie et ses effets transnationaux et qui, en même temps, augmente et assure une concurrence efficace. Une telle stratégie aiderait non seulement les autorités de concurrence et les Etats mais également tout particulièrement les consommateurs et les entreprises. Car une telle concurrence efficace engendre des entreprises plus efficaces, des produits améliorés, un choix plus grand et des prix plus bas. En fin de compte, un tel effet de bien public diminuerait aussi le risque de conflits interétatiques. Dans le cadre de la consolidation et de l'amélioration des structures juridiques du système de l'OMC, il serait essentiel que les institutions et la méthode d'arbitrage de l'OMC inspirent suffisamment confiance à la communauté internationale des Etats. Car c'est seulement sur la base d'une telle confiance et avec la volonté des Etats de faire un pas décisif en faveur d'un commerce mondial plus libre et plus loyal qu'un projet aussi ambitieux est réalisable. Il est donc essentiel que les responsables réalisent enfin les projets d'harmonisation et de coopération renforcées qu'ils ont si souvent annoncés. En tous cas, une forte ,,dynamique du processus d'harmonisation" sera nécessaire pour progresser sur le terrain de l'harmonisation internationale de la politique de la concurrence. Berlin, 17/08/2006 Florens Girardet

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction: Le captopril, inhibiteur de l'enzyme de conversion de l'angiotensine, est largement utilisé dans le traitement de l'hypertension artérielle et de l'insuffisance cardiaque chez l'adulte et l'enfant . De par son instabilité en milieu aqueux (oxydation en captopril disulfure), il n'est actuellement commercialisé que sous forme de comprimés. La prescription fréquente de doses faibles et variables en pédiatrie justifiait le développement d'une forme orale liquide, tant sur le plan pratique et économique, que sur celui de la sécurité d'administration. Cependant toutes les formulations orales liquides publiées présentent une stabilité courte, ne dépassant guère 1 mois. Objectif: Développer une forme orale liquide de captopril d'une stabilité d'au moins 6 mois. Méthode: Sur la base des données de la littérature, élaboration de 8 formulations liquides différentes de captopril 1 mg/ml (concentration permettant le prélèvement d'un volume adéquat pour une administration en pédiatrie). Mise au point d'une « stability indicating method » par HPLC par des tests de dégradation accélérée à la chaleur (100°C), en milieu acide, basique, en présence d'un agent oxydant et de la lumière. Sélection de la formulation la plus stable durant le premier mois. Etude de stabilité sur 2 ans de 3 lots (3 échantillons/lot) dans leur conditionnement final à température ambiante (TA), au frigo et à 40° ± 2°C. Contrôle microbiologique au début et à la fin de l'étude selon la méthode de la Ph. Eur. (Ed. 3). Résultats: La formule retenue est une solution aqueuse de captopril 1 mg/ml additionnée d'EDTA 1 mg/ml comme stabilisateur et conditionnée dans des flacons VERAL en verre brun de 60 ml. Après dégradation dans les conditions définies ci-dessus, le pic du captopril est nettement séparé sur les chromatogrammes de ceux des produits de dégradation. Après 2 ans, la concentration mesurée est de 104.6% (±0.32%) au frigo, 103.6% (±0.86%) à TA et 96.5 % (±0.02%) à 40°C. Aucune croissance n'a été observée sur la durée de l'étude. Discussion et conclusion: La solution de captopril 1 mg/ml mise au point est simple à préparer. En partant du principe actif pur et en présence d'EDTA comme complexant, les traces de métaux éventuellement présents n'induisent pas l'oxydation du captopril et par conséquent le recours à d'autres stabilisateurs n'est pas nécessaire. La méthode HPLC développée est une « stability indicating method ». Les résultats de l'étude ont montré que cette solution a une durée de validité de 2 ans au frigo et à TA. Compte tenu du fait que la préparation ne contient pas d'agent antimicrobien, une conservation au frigo (2 - 8°C) est toutefois recommandée. La formule proposée présente un réel avantage en pédiatrie tant sur le plan de la sécurité d'administration que sur celui de l'économie.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tesi propone l'edizione critica dele traduzioni del Bellum Catilinae e del Bellum Iugurthinum di Sallustio eseguite dall'umanista ferrarese Ludovico Carbone intorno agli anni '70 del Quattrocento. I testi sono accompagnati dagli apparati delle varianti e delle correzioni d'autore; dal testo latino dell'edizione Ernout, con la segnalazione in corsivo delle parti in cui pare evidente che l'umanista aveva di fronte un testo latino diverso; e da note di commento in cui si riportano eventualmente lezioni della tradizione dell'opera sallustiana che potrebbero essere all'origine della traduzione. Nell'introduzione viene delineato il ruolo svolto da Ludovico Carbone nella Ferrara del secondo Quattrocento, tra corte, università e vita cittadina; particolare attenzione è data alle osservazioni sulla lingua italiana dell'umanista e alla sua frequentazione della letteratura in volgare. L'esame della tradizione e della diffusione dell'opera di Sallustio ha lo scopo di comprendere il significato della scelta operata dal traduttore e di cercar di capire che tipo di modello poteva trovarsi di fronte. I due volgarizzamenti sono inseriti nel contesto storico e culturale di Ferrara, che vide in questi anni un'intensa attività di traduzione - spesso su diretta richiesta del principe -, tra i cui autori si distinsero Matteo Maria Boiardo e Niccolò Leoniceno. Inoltre, per una comprensione più completa dell'operazione del Carbone, viene ricostruita la figura del dedicatario delle due traduzioni, Alberto d'Este, e la sua importanza all'interno della storia di Ferrara sia dal punto di vista politico che cultuale; operazione che permette di aggiungere elementi utili a una datazione più precisa delle opere qui pubblicate. Una parte centrale del lavoro riguarda l'analisi delle modalità di traduzione che mostra come l'operazione del Carbone, pur mantenendosi molto rispettosa del testo di partenza, abbia ambizioni letterarie. Lo sforzo del traduttore è incentrato in particolar modo sulla resa dei vocaboli e sul ritmo del periodare. E' interessante notare come l'umanista, la cui prosa latina ha un periodare ampio e ricco di subordinate su modello ciceroniano, in volgare mantenga queste caratteristiche stilistiche solo nelle lettere dedicatorie, mentre nella traduzione il suo stile si uniforma in gran parte al modello di Sallustio. La Nota al testo dà conto dei rapporti tra i manoscritti e dei criteri di edizione delle due opere. Nella Nota linguistica si trova un'analisi sistematica e approfondita della lingua del manoscritto autografo del Catilinario, mentre per gli altri manoscritti sono segnalati gli usi linguistici solo in funzione di una loro collocazione geografica. Un esame contrastivo delle abitudini linguistiche dei copisti rispetto a quelle del Carbone è alla base della scelta del manoscritto da utilizzare per l'edizione del Giugurtino, per il quale non si dispone di un autografo. Un capitolo è dedicato all'analisi delle varianti evolutive del manoscritto londinese contenente il Catilinario. Lo studio del lessico utilizzato nelle traduzioni ha portato alla costituzione del Glossario, che - attraverso un confronto con numerosi vocabolari e testi di area ferrarese o limitrofa - registra e illustra le più significative forme dialettali, i tecnicismi e i latinismi particolarmente crudi, rari o il cui significato si discosta da quello assunto più frequentemente in volgare. Si segnalano alcuni termini le cui prime attestazioni compaiono nella lingua volgare proprio in questo periodo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Problématique et plan de l'ouvrage Au début des années 1970, apparaît une nouvelle approche de l'histoire qui proclame le primat de la démarche scientifique sur les options philosophiques ou le primat de la démarche intellectuelle sur les documents historiques. L'historien va dorénavant échafauder des hypothèses qu'il soumet ensuite à vérification et qu'il rectifie en conséquence. En effet, il n'y a pas de faits historiques en soi, qu'il suffirait d'extraire des documents et de raccorder à d'autres faits pour constituer une suite chronologique naturelle. L'histoire thématique s'impose en analysant le fonctionnement et la contextualisation au détriment de la pure description des faits. Les histoires ne sont jamais équivalentes : elles peuvent expliquer les choses différemment ou donner plus d'importance à une observation particulière et en laisser d'autres dans l'ombre. Cinq problématiques principales se dégagent de la vie de Politzer, problématiques assimilables à cinq métiers qui seront détaillés dans ce travail : le métier de clinicien, le métier de chercheur, le métier d'enseignant, le métier d'historien et le métier d'artiste et collectionneur d'art. Trois de ces métiers font partie intégrante de celui dedecin qui fut l'occupation principale de Politzer durant la plus grande partie de sa vie. Chaque problématique est développée sur le même principe : élaboration du contexte historique et particulier, description des données observables relatives à Politzer, établissement d'un lien entre le contexte et les composantes vérifiables pour en tirer une conclusion, ou plutôt démontrer la véracité de la problématique, tout en gardant à l'esprit que les faits ont toujours le dernier mot face aux théories. Cette démarche scientifique va permettre de mieux comprendre l'importance et la place prises par Politzer dans l'histoire de l'otologie et la société viennoise de la fin du XIXe siècle. L'ouvrage va s'articuler autour de ces cinq problématiques étudiées. Après une introduction générale, un chapitre biographique présente les origines de la famille Politzer et ses années de jeunesse. Il est complété par un autre chapitre sur ses années d'études dedecine avant d'entrer dans le vif du sujet des différents métiers de Politzer. Dans le chapitre concernant Politzer enseignant, une place toute particulière est accordée à la naissance de l'otologie, en tant que spécialité médicale à part entière, dans la première moitié du XIXe siècle. Cette étape fut importante, car elle permit à l'otologie de véritablement s'épanouir dans la seconde moitié du XIXe siècle. Cela aide à situer avec précision les travaux scientifiques entrepris et publiés par Politzer. Avant la conclusion, deux petits chapitres biographiques présentent la vie privée de Politzer et ses descendants. Une chronologie biographique et une bibliographie la plus exhaustive possible des travaux de Politzer sont ajoutées en annexe accompagnées de documents choisis et écrits par et sur Politzer. Deux de ces textes reflètent plus particulièrement certaines prises de position de Politzer concernant l'importance de l'otologie.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Une expertise collective sur l'évaluation des risques liés aux nanomatériaux pour la population générale et pour l'environnement a identifié plusieurs centaines de produits de grande consommation contenant des nanomatériaux, présents dans notre quotidien : textiles, cosmétiques, alimentaires, équipements sportifs, matériaux de construction... Des études nouvelles suggèrent la possibilité de risques pour la santé et pour l'environnement de certains produits. Face à cette situation d'incertitude, l'Afsset recommande d'agir sans attendre au nom du principe de précaution et de 1) Rendre obligatoire la traçabilité des nanomatériaux. Cela passe par une obligation de déclaration par les industriels, 2) la mise en place un étiquetage clair qui mentionne la présence de nanomatériaux dans les produits et informe sur la possibilité de relargage à l'usage, 3) d'aller jusqu'à l'interdiction de certains usages des nanomatériaux pour lesquels l'utilité est faible par rapport aux dangers potentiels, 4) l'harmonisation des cadres réglementaires français et européens pour généraliser les meilleures pratiques : déclaration, autorisation, substitution. En particulier, une révision de REACh s'impose pour prendre en compte les nanomatériaux manufacturés de manière spécifique et quel que soit leur tonnage. L'expertise fait également des recommandations pour construire une méthode renouvelée d'évaluation des risques sanitaires qui soit adaptée aux spécificités des nanomatériaux. Pour cela l'Afsset a testé les méthodologies classiques d'évaluation des risques sur 4 produits particuliers et courants : la chaussette antibactérienne (nanoparticules d'argent), le ciment autonettoyant et le lait solaire (nanoparticules de dioxyde de titane), la silice alimentaire à l'état nanométrique. Ces 4 produits représentent bien les voies d'exposition de l'homme (cutanée, inhalation, ingestion) et la possibilité de dispersion environnementale. Ces travaux font apparaître une urgence à faire progresser les connaissances sur les expositions et les dangers potentiels des nanomatériaux. Aujourd'hui, seuls 2% des études publiées sur les nanomatériaux concernent leurs risques pour la santé et l'environnement. Le premier effort devra porter sur la normalisation des caractéristiques des nanomatériaux. Les priorités de la recherche devront cibler la toxicologie, l'écotoxicologie et la mesure des expositions. Enfin, l'Afsset prévoit de s'autosaisir pour définir en 2 ans, avec son groupe de travail, un outil simplifié d'évaluation des risques. Il s'agit d'une grille de cotation des risques qui permet de catégoriser les produits en plusieurs gammes de risques. Face à ce chantier considérable, une mise en réseau entre les organismes européens et internationaux pour se partager le travail est nécessaire. Elle a commencé autour de l'OCDE qui coordonne des travaux d'évaluation des risques et de l'ISO qui travaille à la mise en place de nouvelles normes. [Auteurs]

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Une fois déposé, un sédiment est affecté au cours de son enfouissement par un ensemble de processus, regroupé sous le terme diagenèse, le transformant parfois légèrement ou bien suffisamment pour le rendre méconnaissable. Ces modifications ont des conséquences sur les propriétés pétrophysiques qui peuvent être positives ou négatives, c'est-à-dire les améliorer ou bien les détériorer. Une voie alternative de représentation numérique des processus, affranchie de l'utilisation des réactions physico-chimiques, a été adoptée et développée en mimant le déplacement du ou des fluides diagénétiques. Cette méthode s'appuie sur le principe d'un automate cellulaire et permet de simplifier les phénomènes sans sacrifier le résultat et permet de représenter les phénomènes diagénétiques à une échelle fine. Les paramètres sont essentiellement numériques ou mathématiques et nécessitent d'être mieux compris et renseignés à partir de données réelles issues d'études d'affleurements et du travail analytique effectué. La représentation des phénomènes de dolomitisation de faible profondeur suivie d'une phase de dédolomitisation a été dans un premier temps effectuée. Le secteur concerne une portion de la série carbonatée de l'Urgonien (Barrémien-Aptien), localisée dans le massif du Vercors en France. Ce travail a été réalisé à l'échelle de la section afin de reproduire les géométries complexes associées aux phénomènes diagénétiques et de respecter les proportions mesurées en dolomite. De plus, la dolomitisation a été simulée selon trois modèles d'écoulement. En effet, la dédolomitisation étant omniprésente, plusieurs hypothèses sur le mécanisme de dolomitisation ont été énoncées et testées. Plusieurs phases de dolomitisation per ascensum ont été également simulées sur des séries du Lias appartenant aux formations du groupe des Calcaire Gris, localisées au nord-est de l'Italie. Ces fluides diagénétiques empruntent le réseau de fracturation comme vecteur et affectent préférentiellement les lithologies les plus micritisées. Cette étude a permis de mettre en évidence la propagation des phénomènes à l'échelle de l'affleurement. - Once deposited, sediment is affected by diagenetic processes during their burial history. These diagenetic processes are able to affect the petrophysical properties of the sedimentary rocks and also improve as such their reservoir capacity. The modelling of diagenetic processes in carbonate reservoirs is still a challenge as far as neither stochastic nor physicochemical simulations can correctly reproduce the complexity of features and the reservoir heterogeneity generated by these processes. An alternative way to reach this objective deals with process-like methods, which simplify the algorithms while preserving all geological concepts in the modelling process. The aim of the methodology is to conceive a consistent and realistic 3D model of diagenetic overprints on initial facies resulting in petrophysical properties at a reservoir scale. The principle of the method used here is related to a lattice gas automata used to mimic diagenetic fluid flows and to reproduce the diagenetic effects through the evolution of mineralogical composition and petrophysical properties. This method developed in a research group is well adapted to handle dolomite reservoirs through the propagation of dolomitising fluids and has been applied on two case studies. The first study concerns a mid-Cretaceous rudist and granular platform of carbonate succession (Urgonian Fm., Les Gorges du Nan, Vercors, SE France), in which several main diagenetic stages have been identified. The modelling in 2D is focused on dolomitisation followed by a dédolomitisation stage. For the second study, data collected from outcrops on the Venetian platform (Lias, Mont Compomolon NE Italy), in which several diagenetic stages have been identified. The main one is related to per ascensum dolomitisation along fractures. In both examples, the evolution of the effects of the mimetic diagenetic fluid on mineralogical composition can be followed through space and numerical time and help to understand the heterogeneity in reservoir properties. Carbonates, dolomitisation, dédolomitisation, process-like modelling, lattice gas automata, random walk, memory effect.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé Ce travail poursuit deux buts. Le premier objectif, d'ordre théorique et méthodologique, est d'aborder les phénomènes d'intertextualité selon une perspective jusqu'ici négligée, qui prend à rebours le problème de l'intentionnalité, particulièrement aigu dans les études classiques plutôt que de partir du texte plus récent pour remonter à ses «modèles », il s'agit d'observer la circulation d'un corpus plus ancien dans l'espace et dans le temps et son interaction avec d'autres discours dans différents contextes. Le second but, lié à l'histoire littéraire, consiste à étudier la manière dont Sappho, seule femme au canon alexandrin des neuf poètes lyriques et assimilée pour cela à un Homère féminin ou à une dixième Muse, a joué à Rome un rôle de référence en matière de poésie d'amour. Pour ce faire, l'enquête s'articule autour d'un poème emblématique de Sappho, le fameux fragment 31 avec sa liste de symptômes de passion érotique, et de trois de ses échos marqués, chez Catulle, Lucrèce et Horace, à une époque où l'on assiste à un développement intense de la poésie d'amour latine. Chaque chapitre propose une analyse comparative systématique en cercles concentriques, partant de l'énoncé comparable - la pathographie - et abordant ensuite son insertion à des poèmes différents pour élargir enfin l'investigation aux contextes. Entre la Lesbos du VIIe-VIe et la Rome du Ier siècle avant notre ère intervient un changement majeur dans le type de contexte déterminant pour la fonction et la signification des poèmes d'une situation de communication orale, où chaque chant prend son sens dans une occasion particulière de performance, on passe à un environnement principalement écrit, où l'élément décisif est plutôt le co-texte, le recueil où le poème s'insère et entre en relation avec d'autres. À la pragmatique des chants de Sappho, liée à la vie de son groupe féminin à Lesbos, puis aux banquets par le biais desquels ils ont été transmis, répondent les poétiques de Catulle, Lucrèce et Horace, qui se définissent notamment par rapport à eux avec des réseaux d'échos reflétant souvent, de façon plus ou moins contrastée, différentes traditions de réception des textes de la poétesse, voire la structure du recueil alexandrin de ses poèmes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

- Comment prescrire à une femme enceinte? L'attitude optimale réalise un compromis entre d'une part l'indication au traitement, et d'autre part l'importance du risque que celui-ci fait courir au foetus et à la mère. Le respect de quelques principes simples peut aider dans cette démarche: - La relative carence en connaissances dans ce domaine impose avant tout une attitude basée sur le principe de précaution. - La période (1er, 2e ou 3e trimestre) pendant laquelle le foetus sera exposé au traitement envisagé est un élément prépondérant dans la réflexion. - Le traitement de choix est celui qui, parmi les alternatives efficaces, présente le meilleur profil de sécurité pendant la grossesse selon les observations humaines disponibles. - Le rapport bénéfice/risque pour la patiente et le foetus peut s'inverser pendant la grossesse. - Toute exposition médicamenteuse problématique pendant la grossesse doit faire l'objet d'une annonce à l'un des centres suisse de pharmacovigilance. Ces données de tératovigilance sont indispensables pour alimenter les connaissances dans ce domaine. - Afin d'illustrer ces principes généraux, un exemple typique de prescription chez la femme enceinte a été choisi, mettant l'accent sur un problème de tératovigilance récemment identifié: les risques liés à certains antidépresseurs durant la grossesse.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objectifs. - Le DSM-5 donne une définition du symptôme psychotique indépendante de tout concept depsychose. Chez les patients dépressifs, la présence d'hallucination ou d'idée délirante, quelle que soit leurforme clinique, conduit en principe à diagnostiquer une dépression psychotique et à prescrire des neurolep-tiques. Les symptômes psychotiques sont subdivisés par le DSM en « congruents » ou « non congruents » àl'humeur. Nous discutons de la pertinence d'une catégorie de symptômes psychotiques « atypiques », peuévocateurs d'une psychose au sens classique du terme. Méthode. - Discussion de la définition opérationnelle des symptômes psychotiques du DSM, étude d'unesérie de 16 patients chez qui un diagnostic de dépression psychotique a été posé. Résultats. - Sur les 16 patients, deux seulement présentaient des symptômes psychotiques classiques, évo-cateurs d'une psychose. Chez les autres, le diagnostic reposait sur la présence de symptômes très atypiques,comme des hallucinations visuelles par exemple.