999 resultados para Approche de réduction des méfaits
Resumo:
La documentation sur les interventions de gratuité sélective des soins est encore insuffisante et surtout focalisée sur leurs effets au niveau de l’utilisation des services de santé ou de la réduction des dépenses catastrophiques. Leurs effets sociaux sont occultés par les recherches. L’originalité de cette thèse tient au fait qu’elle constitue la première recherche qui s’est consacrée à cela. Ses résultats sont structurés en quatre articles. Le premier article montre que la gratuité sélective des soins est socialement acceptée, car elle est vue comme contributive au renforcement du lien social. Toutefois, le choix des cibles bénéficiaires est remis en cause. Au nom d’arguments moraux et humanitaires, les communautés préfèrent inclure les personnes âgées dans le ciblage, quitte à les substituer aux plus pauvres, les indigents. Néanmoins, le ciblage des indigents n’a pas entrainé de stigmatisation. Le deuxième article souligne que la fourniture gratuite de soins aux populations par les villageois membres des comités de gestion des centres de santé a contribué au renforcement de leur pouvoir d’agir et celui de leur organisation. Cependant, pour que la participation communautaire soit effective, l’étude montre qu’elle doit s’accompagner d’un renforcement des compétences des communautés Le troisième article soutient que la suppression du paiement des soins a permis aux femmes de ne plus avoir besoin de s’endetter ou de négocier constamment avec leurs maris pour disposer de l’argent des consultations prénatales ou des accouchements. Ce qui a contribué à leur empowerment et rendu possible l’atteinte d’autres réalisations au plan sanitaire (augmentation des accouchements assistés), mais aussi social (renforcement de leur position sociale). Le quatrième article s’est intéressé à étudier la pérennité de ces interventions de gratuité des soins. Les résultats suggèrent que le degré de pérennité de la prise en charge des indigents (district de Ouargaye) est moyen correspondant au degré le plus élevé dans une organisation alors que celui de la gratuité des accouchements et des soins pour les enfants (districts de Dori et de Sebba) est précaire. Cette différence de pérennité est due principalement à la différence d’échelle (taille des populations concernées) et d’ampleur (inégalité des ressources en jeu) entre ces interventions. D’autres facteurs ont aussi influencé cette situation comme les modalités de mise en œuvre de ces interventions (approche projet à Dori et Sebba vs approche communautaire à Ouargaye) Au plan des connaissances, l’étude a mis en exergue plusieurs points dont : 1) l’importance de prendre en compte les valeurs des populations dans l’élaboration des réformes ; 2) la pertinence sociale du ciblage communautaire de sélection des indigents ; 3) la capacité des communautés à prendre en charge leurs problèmes de santé pourvu qu’on leur donne les ressources financières et la formation minimale ; 4) l’importance du processus de pérennisation, notamment la stabilisation des ressources financières nécessaires à la continuité d’une intervention et l’adoption de risques organisationnels dans sa gestion ; 5) l’importance de la suppression de la barrière financière au point de services pour renforcer l’empowerment des femmes et son corolaire leur recours aux services de soins.
Resumo:
Malgré plusieurs chimiothérapies suivies d’une transplantation et d’une immunothérapie, 40% des patients avec un neuroblastome (NB) à haut risque subissent une progression de la maladie ou une rechute. L’échec de ces traitements est attribué à la présence de cellules initiatrices de tumeur (TIC) qui expriment le marqueur CD133 et qui sont souvent résistantes aux agents chimiothérapeutiques. Les cellules Natural Killer (NK), qui possèdent un effet anti-tumoral, peuvent être utilisées dans le cadre du développement de nouvelles approches immuno-thérapeutiques. Nous posons l’hypothèse que les cellules NK activées éliminent efficacement les TIC et contribuent à la réduction des risques de rechute. De plus, il est possible d’augmenter l’effet anti-tumoral des cellules NK contre le NB. L’activité cytotoxique des cellules NK est augmentée par des cellules dendritiques plasmacytoïdes (pDC) activées. A la suite de la stimulation de leurs récepteurs Toll-like les pDC produisent de grandes quantités d'interféron-alpha (IFN-α). Nous avons étudié les propriétés lytiques des cellules NK contre des lignées cellulaires de NB à la suite de leur activation par l’IFN-α ou des pDC activées. Nos résultats révèlent une augmentation de l’activité cytolytique des cellules NK contre ces lignées en réponse à une stimulation par les pDC activées. De plus, les cellules de NB CD133+ ou celles résistantes à l’immunothérapie dirigée contre le GD2 sont sensibles à la lyse médiée par les cellules NK stimulées par les pDC. Nous avons examiné les mécanismes cellulaires impliqués dans la lyse des cellules de NB. Nous montrons que cette cytotoxicité est médiée en partie par TRAIL induisant l'apoptose et en partie par la libération des granules cytotoxiques. Ainsi, ces résultats permettent de proposer une nouvelle approche immuno-thérapeutique complémentaire au traitement par l’anticorps anti-GD2 pour les patients atteints de NB à haut risque.
Resumo:
La question de l’accès financier des personnes socialement défavorisées aux soins de santé est aujourd’hui un enjeu éthique de grande importance dans de nombreux pays à faible revenu ou en voie d’émergence. On peut se demander comment l’équité dans l’accès aux soins peut être rendue effective puisque l’égalité des chances pour tous et la santé sont des pré-requis aux choix de vie et à la réalisation de soi. Les soins de santé sont donc d’une importance éthique particulière du fait qu’ils contribuent à préserver notre statut comme citoyens pleinement fonctionnels. Au Cameroun, bien que des efforts considérables soient consentis par les pouvoirs publics et leurs partenaires extérieurs pour favoriser l’accès aux soins des personnes défavorisées, le secteur de la santé reste encore très marqué par l’inégalité dans l’accès financier aux prestations sanitaires. Les médicaments les plus essentiels ne sont pas financièrement à la portée de tous et les coûts d’accès aux soins ambulatoires et hospitaliers dans les formations sanitaires sont manifestement prohibitifs pour une large frange de la population. Lors des épisodes de maladie, l’accès aux soins se fait par le paiement direct au point d’accès, et la pratique de l’automédication s’est répandue du fait de l’incapacité des personnes socialement défavorisées à payer leurs soins sans courir le risque de perdre l’essentiel de leur revenu. Les mesures de prise en charge sociale ou des systèmes de financement qui garantissent la réduction des inégalités entre les classes sociales sont fortement limitées par les faibles capacités d’une économie qui repose essentiellement sur l’informel. Sur la base de cette réalité, cette thèse analyse à partir du cas des travailleurs vulnérables du secteur informel urbain, la pertinence du choix politique de la couverture universelle santé au Cameroun à travers les principes de responsabilité et de solidarité. La population d’étude choisie est celle des travailleurs vulnérables du secteur informel en considération des problématiques liées à leur accès aux soins de santé, de l’importance de leur apport dans l’économie du pays ( 90 % des travailleurs) et du rôle qu’elle pourrait jouer dans l’atteinte de l’objectif de la couverture universelle santé. La thèse analyse donc, d’une part, les conditions et les modalités de répartition des biens sociaux qui répondent à la nécessaire redistribution équitable des ressources, en l’occurrence l’accès aux soins de qualité. Après avoir montré les préoccupations d’ordre politique, social, économique et éthique liées au problème d’accès universel aux soins, la thèse propose des stratégies opérationnelles susceptibles de conduire à l’amélioration de la qualité des soins et à un assainissement de la gestion du secteur des services de soins (éthique du care et éthique de bonne gouvernance). Aussi, dans la perspective de la recherche d’un financement local soutenable et durable de l’accès de tous aux soins, la thèse propose une approche participative. L’exploration de cette perspective aboutit au résultat qu’une approche inclusive et intégrée de promotion de l’économie informelle (dynamisation de ses activités et potentialisation de ses acteurs) pourrait faire de ce secteur un véritable levier de développement économique et social. Un développement social et solidaire durable et susceptible, sur le long terme, de réaliser l’objectif de la couverture universelle santé. En d’autres termes, elle propose des stratégies de capabilisation et de responsabilisation des travailleurs du secteur informel, en vue d’une société plus impliquée, plus responsable et plus solidaire. Une approche susceptible de matérialiser le droit à la santé, de construire l’autonomie des travailleurs en situation de vulnérabilité et de renforcer leurs capacités contributives à travers une opérationnalisation adaptée au contexte des principes de responsabilité et de solidarité.
Resumo:
Essai doctoral présenté à la Faculté des Arts et des Sciences en vue de l'obtention du grade de doctorat en psychologie clinique (D.psy.)
Resumo:
Essai doctoral présenté à la Faculté des Arts et des Sciences en vue de l'obtention du grade de doctorat en psychologie clinique (D.psy.)
Resumo:
Créé en 2006, le Fonds vert du Québec a été établi dans le but de financer les mesures et les activités favorisant le développement durable. Au fil des années, ce fonds a permis d’amasser d’importantes sommes, notamment grâce aux redevances, à la tarification ou à la compensation. Les changements climatiques ont amené le Ministère du Développement durable, de l’Environnement et de la Lutte contre les changements climatiques à consacrer la majeure partie des revenus du Fonds vert pour cet enjeu. Avec un bilan positif dans les revenus, on peut penser que le Fonds vert a aidé à réaliser les objectifs du Québec en matière de changements climatiques. Or, dans les dernières années, plusieurs parties prenantes, dont le Commissaire au développement durable, ont relevé des problèmes importants dans la gestion du fonds. Ces problèmes se situent notamment dans la gestion stratégique, dans la gestion des programmes et des projets ainsi que dans la diffusion de l’information. La gouvernance actuelle du Fonds vert du Québec n’a donc pas apporté les résultats souhaités en matière d’adaptation aux changements climatiques et en réduction des émissions de gaz à effet de serre. L’objectif de l’essai est d’analyser le cadre de gestion des fonds verts existants du Canada et des États-Unis afin de relever des solutions qui permettraient d’améliorer le Fonds vert du Québec en matière de changements climatiques au Québec. Pour atteindre cet objectif, divers fonds verts existants partageant des traits similaires à celui du Québec ont été analysés. Le choix s’est arrêté au Fonds municipal vert, au Climate Change and Emissions Management Fund et au California Climate Investments. Ces derniers ont été analysés en fonction d’un tableau comparatif comprenant des critères comme l’établissement d’objectifs visant l’atteinte de résultats, l’élaboration d’un processus de sélection de projets, la mise en œuvre d’un mécanisme de surveillance ou de suivi et la diffusion des informations relatives aux programmes. L’analyse comparative a permis de constater quelques tendances dans la gestion des fonds verts. D’abord, les fonds verts ont adopté leur propre approche dans la formulation des objectifs du fonds. Le Fonds municipal vert se démarque en établissant des objectifs de nature budgétaire et stratégique. De plus, ces objectifs sont énoncés de façon spécifique, mesurable, appropriée, réaliste et délimitée dans le temps. Les fonds verts analysés présentent également un processus de sélection de projets plus élaborés que celui du Fonds vert du Québec, en ce qu’il prévoit des critères d’admissibilités bien définis, une multitude d’étapes de sélection et la participation de plusieurs acteurs, notamment des acteurs externes. Le Climate Change and Emissions Management Fund se distingue des autres fonds, en ce qu’il introduit un comité, le Fairness monitor, pour surveiller le processus de sélection. Pour tous les fonds verts de cette analyse, le mécanisme de surveillance ou de suivi se traduit par des livrables, comme des rapports annuels, exécutés par des auditeurs indépendants. Enfin, les fonds verts utilisent divers moyens de communication pour faciliter la compréhension du fonctionnement du fonds en question. Le Fonds municipal vert offre des activités, telles que du réseautage, du mentorat, des conférences afin d’encourager le partage des connaissances et l’apprentissage par les pairs. Le California Climate Investments a mis sur pied une plateforme sur Internet qui permet de voir en continu l’évolution et les résultats des projets financés. Aux termes de cette analyse, quatre recommandations ont été formulées en fonction des éléments de gestion qui sont le plus ressortis des trois fonds verts.
Resumo:
Le "data mining", ou "fouille de données", est un ensemble de méthodes et de techniques attractif qui a connu une popularité fulgurante ces dernières années, spécialement dans le domaine du marketing. Le développement récent de l'analyse ou du renseignement criminel soulève des problèmatiques auxqwuelles il est tentant de d'appliquer ces méthodes et techniques. Le potentiel et la place du data mining dans le contexte de l'analyse criminelle doivent être mieux définis afin de piloter son application. Cette réflexion est menée dans le cadre du renseignement produit par des systèmes de détection et de suivi systématique de la criminalité répétitive, appelés processus de veille opérationnelle. Leur fonctionnement nécessite l'existence de patterns inscrits dans les données, et justifiés par les approches situationnelles en criminologie. Muni de ce bagage théorique, l'enjeu principal revient à explorer les possibilités de détecter ces patterns au travers des méthodes et techniques de data mining. Afin de répondre à cet objectif, une recherche est actuellement menée au Suisse à travers une approche interdisciplinaire combinant des connaissances forensiques, criminologiques et computationnelles.
Resumo:
La première partie de cette recherche, consistant en une revue critique de la littérature, a mis en évidence le manque de connaissances relatives au phénomène de coupage des produits stupéfiants, la cocaïne et l'héroïne en particulier (Broséus et al., 2014). La seconde partie s'attelle alors à améliorer l'état des connaissances sur le phénomène de coupage des produits stupéfiants et, pour ce faire, se base sur les résultats d'analyses d'environ 6000 spécimens de cocaïne et 3000 d'héroïne saisis en Suisse ent 2006 et 2013. Le type de produits de coupage détectés (adultérant ou diluant) avec leurs fréquences d'apparition respectives, le degré de coupage des spécimens et finalement les niveaux de la chaine de distribution auxquels se produirait le coupage ont été tout particulièrement investigués. L'ensemble des renseignements obtenus permettent de mieux comprendre le marché de distribution et de consommation des produits stupéfiants et s'avèrent utiles pour la mise en place de politiques efficaces, que ce soit dans le cadre de démarches de prévention, de réduction des risques ou de dépression.
Resumo:
Des progrès significatifs ont été réalisés dans le domaine de l'intégration quantitative des données géophysique et hydrologique l'échelle locale. Cependant, l'extension à de plus grandes échelles des approches correspondantes constitue encore un défi majeur. Il est néanmoins extrêmement important de relever ce défi pour développer des modèles fiables de flux des eaux souterraines et de transport de contaminant. Pour résoudre ce problème, j'ai développé une technique d'intégration des données hydrogéophysiques basée sur une procédure bayésienne de simulation séquentielle en deux étapes. Cette procédure vise des problèmes à plus grande échelle. L'objectif est de simuler la distribution d'un paramètre hydraulique cible à partir, d'une part, de mesures d'un paramètre géophysique pertinent qui couvrent l'espace de manière exhaustive, mais avec une faible résolution (spatiale) et, d'autre part, de mesures locales de très haute résolution des mêmes paramètres géophysique et hydraulique. Pour cela, mon algorithme lie dans un premier temps les données géophysiques de faible et de haute résolution à travers une procédure de réduction déchelle. Les données géophysiques régionales réduites sont ensuite reliées au champ du paramètre hydraulique à haute résolution. J'illustre d'abord l'application de cette nouvelle approche dintégration des données à une base de données synthétiques réaliste. Celle-ci est constituée de mesures de conductivité hydraulique et électrique de haute résolution réalisées dans les mêmes forages ainsi que destimations des conductivités électriques obtenues à partir de mesures de tomographic de résistivité électrique (ERT) sur l'ensemble de l'espace. Ces dernières mesures ont une faible résolution spatiale. La viabilité globale de cette méthode est testée en effectuant les simulations de flux et de transport au travers du modèle original du champ de conductivité hydraulique ainsi que du modèle simulé. Les simulations sont alors comparées. Les résultats obtenus indiquent que la procédure dintégration des données proposée permet d'obtenir des estimations de la conductivité en adéquation avec la structure à grande échelle ainsi que des predictions fiables des caractéristiques de transports sur des distances de moyenne à grande échelle. Les résultats correspondant au scénario de terrain indiquent que l'approche d'intégration des données nouvellement mise au point est capable d'appréhender correctement les hétérogénéitées à petite échelle aussi bien que les tendances à gande échelle du champ hydraulique prévalent. Les résultats montrent également une flexibilté remarquable et une robustesse de cette nouvelle approche dintégration des données. De ce fait, elle est susceptible d'être appliquée à un large éventail de données géophysiques et hydrologiques, à toutes les gammes déchelles. Dans la deuxième partie de ma thèse, j'évalue en détail la viabilité du réechantillonnage geostatique séquentiel comme mécanisme de proposition pour les méthodes Markov Chain Monte Carlo (MCMC) appliquées à des probmes inverses géophysiques et hydrologiques de grande dimension . L'objectif est de permettre une quantification plus précise et plus réaliste des incertitudes associées aux modèles obtenus. En considérant une série dexemples de tomographic radar puits à puits, j'étudie deux classes de stratégies de rééchantillonnage spatial en considérant leur habilité à générer efficacement et précisément des réalisations de la distribution postérieure bayésienne. Les résultats obtenus montrent que, malgré sa popularité, le réechantillonnage séquentiel est plutôt inefficace à générer des échantillons postérieurs indépendants pour des études de cas synthétiques réalistes, notamment pour le cas assez communs et importants où il existe de fortes corrélations spatiales entre le modèle et les paramètres. Pour résoudre ce problème, j'ai développé un nouvelle approche de perturbation basée sur une déformation progressive. Cette approche est flexible en ce qui concerne le nombre de paramètres du modèle et lintensité de la perturbation. Par rapport au rééchantillonage séquentiel, cette nouvelle approche s'avère être très efficace pour diminuer le nombre requis d'itérations pour générer des échantillons indépendants à partir de la distribution postérieure bayésienne. - Significant progress has been made with regard to the quantitative integration of geophysical and hydrological data at the local scale. However, extending corresponding approaches beyond the local scale still represents a major challenge, yet is critically important for the development of reliable groundwater flow and contaminant transport models. To address this issue, I have developed a hydrogeophysical data integration technique based on a two-step Bayesian sequential simulation procedure that is specifically targeted towards larger-scale problems. The objective is to simulate the distribution of a target hydraulic parameter based on spatially exhaustive, but poorly resolved, measurements of a pertinent geophysical parameter and locally highly resolved, but spatially sparse, measurements of the considered geophysical and hydraulic parameters. To this end, my algorithm links the low- and high-resolution geophysical data via a downscaling procedure before relating the downscaled regional-scale geophysical data to the high-resolution hydraulic parameter field. I first illustrate the application of this novel data integration approach to a realistic synthetic database consisting of collocated high-resolution borehole measurements of the hydraulic and electrical conductivities and spatially exhaustive, low-resolution electrical conductivity estimates obtained from electrical resistivity tomography (ERT). The overall viability of this method is tested and verified by performing and comparing flow and transport simulations through the original and simulated hydraulic conductivity fields. The corresponding results indicate that the proposed data integration procedure does indeed allow for obtaining faithful estimates of the larger-scale hydraulic conductivity structure and reliable predictions of the transport characteristics over medium- to regional-scale distances. The approach is then applied to a corresponding field scenario consisting of collocated high- resolution measurements of the electrical conductivity, as measured using a cone penetrometer testing (CPT) system, and the hydraulic conductivity, as estimated from electromagnetic flowmeter and slug test measurements, in combination with spatially exhaustive low-resolution electrical conductivity estimates obtained from surface-based electrical resistivity tomography (ERT). The corresponding results indicate that the newly developed data integration approach is indeed capable of adequately capturing both the small-scale heterogeneity as well as the larger-scale trend of the prevailing hydraulic conductivity field. The results also indicate that this novel data integration approach is remarkably flexible and robust and hence can be expected to be applicable to a wide range of geophysical and hydrological data at all scale ranges. In the second part of my thesis, I evaluate in detail the viability of sequential geostatistical resampling as a proposal mechanism for Markov Chain Monte Carlo (MCMC) methods applied to high-dimensional geophysical and hydrological inverse problems in order to allow for a more accurate and realistic quantification of the uncertainty associated with the thus inferred models. Focusing on a series of pertinent crosshole georadar tomographic examples, I investigated two classes of geostatistical resampling strategies with regard to their ability to efficiently and accurately generate independent realizations from the Bayesian posterior distribution. The corresponding results indicate that, despite its popularity, sequential resampling is rather inefficient at drawing independent posterior samples for realistic synthetic case studies, notably for the practically common and important scenario of pronounced spatial correlation between model parameters. To address this issue, I have developed a new gradual-deformation-based perturbation approach, which is flexible with regard to the number of model parameters as well as the perturbation strength. Compared to sequential resampling, this newly proposed approach was proven to be highly effective in decreasing the number of iterations required for drawing independent samples from the Bayesian posterior distribution.
Resumo:
Cadre de l'étude La part des dépenses de santé dans les budgets des pays occidentaux est importante et tend à croître depuis plusieurs décennies. Une des conséquences, notamment pour la Suisse, est une augmentation régulière des primes d'assurance maladie, dont l'impopularité incite les responsables politiques à trouver des stratégies de frein à la croissance des coûts de la santé. Les médicaments, qui contribuent notablement à l'augmentation de ces coûts, constituent l'une des cibles classiques d'interventions visant à une réduction des dépenses de santé. Le niveau de coûts des médicaments représente plus de 20% des dépenses de soins du domaine ambulatoire à la charge de l'assurance obligatoire des soins (AOS), soit une dépense annuelle de plus de 4 milliards de francs. Différentes mesures peuvent être utilisées par le gouvernement pour contenir cette facture à charge de la collectivité : baisse du prix des médicaments, limitation du nombre de produits remboursés par l'assurance de base et incitations à la concurrence sur les prix en autorisant les importations parallèles. Depuis que de plus en plus de brevets pour des médicaments sont arrivés à échéance, un autre angle d'attaque s'est concrétisé avec l'incitation à la prescription de médicaments génériques. Les génériques sont définis comme des produits thérapeutiques chimiquement identiques à des composés déjà utilisés, appelés médicaments originaux. En principe, une économie substantielle devrait pouvoir être réalisée sur les coûts totaux des médicaments si tous les génériques disponibles sur le marché étaient systématiquement prescrits par les professionnels et acceptés par les patients. Les résultats publiés par les caisses maladie et les offices fédéraux sont des estimations globales et les montants publiés par l'industrie pharmaceutique concernent l'ensemble du marché, incluant les médicaments utilisés dans les séjours hospitaliers, sont par ailleurs exprimés en prix de fabrique. De plus, aucune étude n'a tenu compte de la substituabilité des produits d'un point de vue pharmaceutique. L'objectif général de la thèse est d'évaluer aussi précisément que possible l'économie pouvant être encore réalisée dans le secteur ambulatoire en substituant aux médicaments originaux les produits génériques présents sur le marché et de caractériser plusieurs facteurs qui influencent la substitution générique. Pour cette étude, nous avons pu disposer de l'ensemble des factures pharmaceutiques de la caisse maladie CSS, pour tous ses assurés des cantons d'Argovie, du Tessin et de Vaud, soit plus de 169'000 assurés représentant les trois régions linguistiques de la Suisse. Les 1'341'197 prescriptions médicales qui ont été analysées concernent l'année 2003. C'est un moment critique dans l'histoire des génériques en Suisse, approprié pour établir un premier bilan après l'entrée en vigueur de la première mesure relative au droit de substituer octroyé en 2001 aux pharmaciens et, pour identifier idéalement les principaux déterminants de la substitution par les praticiens avant l'introduction de la quote-part différenciée en 2006. La présence d'un même principe actif n'est pas une condition suffisante pour permettre une substitution et pour ce travail des critères tenant compte des caractéristiques pharmaceutiques des produits ont été établis et appliqués pour valider la substituabilité des originaux par les génériques disponibles sur le marché. Ces critères concernent notamment le mode d'administration, le dosage et le nombre de doses dans l'emballage. L'étude a été réalisée selon deux approches, d'abord par une analyse descriptive sur l'ensemble de la population source pour estimer le marché des génériques et ensuite par une analyse statistique (régression logit multivariée) sur 173'212 prescriptions agrégées, qui concernent spécifiquement soit un générique soit un original substituable, pour caractériser les facteurs déterminants de la substitution générique. Résultats Dans l'ensemble de la population source, les génériques et les originaux substituables représentent 17,4% du marché en termes de coûts facturés, avec 3,4% de génériques et 14,0% d'originaux substituables ce qui correspond à un taux de substitution de 19,5%. En termes de dépenses, les substitutions génériques réalisées représentent une économie de 1,3% du total du marché étudié alors qu'il reste un potentiel notable d'économie par la substitution de 4,6%. Les taux de substitution sont très variables selon les cantons : 10,1% au Tessin, 29,0% pour le canton de Vaud et 35,8% pour Argovie. L'analyse univariée des 173'212 prescriptions de génériques ou d'originaux substituables, montre des taux de substitution plus élevés chez les patients jeunes et lorsqu'il y a d'importantes différences de prix entre les originaux et les génériques. Des taux de substitution peu élevés sont observés chez les patients les plus âgés et pour ceux qui ont des traitements médicamenteux complexes. Les patients ayant plus de 10 médicaments différents durant la même année, présentent une probabilité relative de substituer inférieure (-24%) par rapport aux patients ayant 6 à 10 médicaments différents dans l'année. Cependant, l'analyse multivariée montre que l'effet négatif sur le taux de substitution de l'âge combiné à la complexité des traitements n'excède pas 3%. Bien que le niveau de franchises et la participation financière à la quote-part soient liées à une augmentation de la prescription de génériques, leurs effets sont modérés pour les patients avec des franchises supérieures à 300 francs (effet marginal de 1%) et pour les patients qui n'ont pas atteint le plafond de participation (effet marginal de 2%). La différence de taux substitution entre les médecins hospitaliers et les spécialistes est diminuée de façon notable (effet marginal de -13%) et elle est cependant moins marquée avec les médecins généralistes (effet marginal de -3%). Les facteurs associés au marché ont une influence notable sur la substitution générique et des effets positifs sont observés avec l'augmentation de la taille du marché, du nombre de génériques pour un même original substituable et de l'économie relative entre l'original et le générique. Par contre, la diversification des formes galéniques et des tailles d'emballages au niveau de l'offre des médicaments originaux a des effets fortement négatifs sur la substitution générique (-7%). Le canton de domicile a aussi un impact notable sur la substitution et le canton du Tessin présente un taux plus bas (-26%) que le canton d'Argovie. Conclusion et perspectives Ce travail a montré qu'il y a encore un important potentiel d'économies à réaliser par la substitution générique, calculé à plus de 4% des dépenses pharmaceutiques prises en charge par l'AOS en ambulatoires. Une extrapolation à l'ensemble du marché suisse, qui doit être faite avec prudence, fait apparaître un potentiel d'économies de 127 millions pour les médicaments délivrés par les pharmacies en 2003. L'étude a mis en évidence un certain nombre de déterminants qui freinent la substitution générique, notamment la prescription par un médecin hospitalier. Sur ce point la prescription en DCI (dénomination commune internationale) pourrait favoriser la dispensation de génériques moins chers. Un taux de substitution plus faible est observé chez les patients âgés avec des traitements complexes. Ce constat peut être mis en relation avec la crainte d'avoir un traitement moins efficace ou moins bien supporté et les risques de confusion lors du passage d'un original substituable à un générique ou d'un générique à un autre générique. Sur ces éléments, l'indication claire et précise du nom de la substance, aussi bien sur les emballages des originaux substituables que sur ceux des génériques, pourrait rassurer les patients et diminuer les risques d'erreurs dans la prise des médicaments. Certaines précautions à prendre lors de la prescription de génériques sont reconnues, notamment pour les médicaments à faible marge thérapeutique, et des informations sur la bioéquivalence, régulièrement mises à jour et à disposition des professionnels, pourraient augmenter la confiance dans l'utilisation des génériques. Les industries pharmaceutiques préservent par différentes tactiques leurs parts de marché et notamment avec succès en introduisant de nouvelles formes galéniques juste avant l'expiration des brevets. Des directives complémentaires sur la fixation des prix pour le remboursement, en particulier l'introduction d'un prix de référence quelle que soit la forme galénique, pourraient diminuer l'effet de barrage des médicaments originaux. Les incitations économiques, telles que la franchise et les participations sont efficaces si l'on considère l'impact sur les taux de substitution. Leur effet global reste toutefois modeste et il serait nécessaire de mesurer concrètement l'impact de l'introduction en 2006 de la quote-part différenciée. Les différences de prix entre les originaux et les génériques exigées à 50% pour les gros marchés, c'est-à-dire de plus de 16 millions, devraient aussi avoir un impact qu'il serait opportun de mesurer.
Resumo:
Résumé Rôle des paramètres sociopolitiques et des connaissances dans la gestion des risques hydrologiques¦La recherche analyse (1) la mise en oeuvre de la gestion des risques hydrologiques et (2) les connaissances dont disposent les acteurs sur ces derniers, ainsi que (3) les interdépendances entre ces deux volets. Au total, trois études de cas ont été réalisées dont deux études régionales (ville de Berne, commune de Saillon) et une étude sur un acteur spécifique (les corporations de digues dans le canton de Berne). Les données empiriques ont été obtenues par des entretiens oraux semi-directifs et des enquêtes écrites.¦La gestion des risques hydrologiques est fortement influencée par des paramètres sociopolitiques, c'est-à-dire par les intérêts et les objectifs des acteurs, par les rapports de force entre ceux-ci ainsi que par les processus de négociation et de décision. Dans la pratique, les démarches de gestion se restreignent toutefois majoritairement aux aspects physiques, techniques et administratifs des risques hydrologiques. La dimension sociopolitique est ainsi négligée, ce qui est source de conflits qui ralentissent considérablement la planification de la protection contre les crues, voire la bloquent même complètement. La gestion des risques hydrologiques est en outre largement focalisée sur la réduction des aléas. Lés débats sur la vulnérabilité sont nettement plus rares bien qu'ils soient indispensables lorsqu'il s'agit de traiter les risques de façon holistique.¦Etant donné l'importance de la dimension sociopolitique et de la vulnérabilité, il est nécessaire que les démarches prévues dans la gestion des risques hydrologiques soient reconsidérées et adaptées. De plus, une meilleure intégration de tous les acteurs concernés est primordiale afin de trouver des solutions qui soient acceptables pour une majorité. Pour l'instant, le recours à des instruments de négociation est insuffisant.¦Les connaissances des risques hydrologiques et de leur gestion peuvent être classées en quatre répertoires (connaissances du système, de l'événement, de l'intervention et connaissances sociopolitiques) qui influent tous sur la réduction des risques. Parmi les facteurs les plus importants susceptibles de déclencher des transformations se trouvent l'occurrence de crues, la réalisation d'études (portant sur les aléas, la vulnérabilité, les mesures, etc.), l'échange de connaissances entre les acteurs, ainsi que la recherche de solutions lors de la gestion.¦Les caractéristiques des connaissances varient considérablement selon les acteurs. L'appartenance à un groupe donné ne permet toutefois pas à elle seule de déterminer l'état des connaissances : tous les acteurs peuvent avoir des connaissances pertinentes pour la gestion des risques. Les différences entre les acteurs rendent pourtant la communication compliquée. Ce problème pourrait être atténué par des médiateurs qui assureraient un travail de traduction. Dans la pratique, de telles instances manquent généralement.¦La gestion et les connaissances des risques hydrologiques sont fortement interdépendantes. L'état et les caractéristiques des connaissances déterminent directement la qualité de la protection contre les crues. Des lacunes ou des imprécisions peuvent donc entraîner une gestion non adaptée aux risques présents. Afin d'éviter une telle situation, il est important que les connaissances sur les risques hydrologiques et sur les possibilités d'y faire face soient régulièrement remises à jour. Ne devant pas se restreindre à l'expérience de crues passées, il est impératif qu'elles contiennent aussi des réflexions prospectives et des scénarios novateurs.¦La gestion n'est pas seulement demandeuse en connaissances, elle est également susceptible d'en générer de nouvelles et d'élargir les connaissances existantes. Il convient donc de considérer la création et le transfert de connaissances comme une tâche centrale de la gestion des risques.¦Zusammenfassung Die Rolle der soziopolitischen Parameter und des Wissens im Umgang mit hydrologischen Risiken¦Die Arbeit untersucht drei Themenbereiche: (1) den soziopolitischen Umgang mit hydrologischen Risiken, (2) das Wissen, über das die Akteure bezüglich der Hochwasserrisiken verfügen sowie (3) die Wechselwirkungen zwischen diesen beiden Themenfeldern. Insgesamt wurden drei Fallstudien durchgeführt, darunter zwei regionale Studien (Stadt Bern, Gemeinde Saillon) und eine Untersuchung eines spezifischen Akteurs (Schwellenkorporationen im Kanton Bern). Die empirischen Daten wurden anhand von halbstandardisierten Interviews und schriftlichen Umfragen erhoben.¦Das Management hydrologischer Risiken ist stark von soziopolitischen Parametern beeinflusst, d.h. von Interessen und Zielvorstellungen der Akteure, von Machtverhältnissen und von Verhandlungs- und Entscheidungsprozessen. Die in der Praxis vorgesehenen Schritte zur Reduktion der Hochwasserrisiken beschränken sich jedoch meist auf die physischen, administrativen und technischen Aspekte der Risiken. Die Vernachlässigung ihrer soziopolitischen Dimension führt zu Konflikten, welche die Planung von Hochwasserschutzprojekten deutlich verlangsamen oder gar blockieren. Des Weiteren konzentriert sich das Risikomanagement im Wesentlichen auf die Reduktion der Gefahren. Gesellschaftliche Debatten zur Vulnerabilität sind deutlich seltener, obschon sie für einen umfassenden Umgang mit Risiken unabdingbar sind.¦Angesichts der Bedeutung der soziopolitischen Dimension und der Vulnerabilität ist es notwendig, dass die Vorgehensweise im Risikomanagement überdacht und angepasst wird. Zudem ist eine bessere Integration aller betroffener Akteure unablässig, um mehrheitsfähige Lösungen zu finden. Zur Zeit ist der Rückgriff auf entsprechende Instrumente ungenügend.¦Das Wissen über hydrologische Risiken und deren Management kann in vier Repertoires eingeteilt werden (Systemwissen, Ereigniswissen, Interventionswissen, soziopolitisches Wissen), die alle bei der Reduktion von Risiken bedeutsam sind. Zu den wichtigsten Faktoren, die Wissenstransformationen auslösen, gehören Hochwasserereignisse, die Durchführung von Studien (zu Gefahren, zur Vulnerabilität, zu Massnahmen usw.), der Wissensaustausch zwischen Akteuren und die Suche nach Lösungen während des Risikomanagements.¦Die Merkmale der Wissensformen unterschieden sich stark zwischen den verschiedenen Akteuren. Die Zugehörigkeit eines Akteurs zu einer bestimmten Gruppe ist jedoch kein ausreichendes Kriterium, um dessen Wissensstand zu bestimmen: Alle Akteure können über Wissen verfügen, das für den Umgang mit Risiken relevant ist. Die Unterschiede zwischen den Akteuren gestalten die Kommunikation allerdings schwierig. Das Problem liesse sich entschärfen, indem Mediatoren eingesetzt würden, die als Übersetzer und Vermittler agierten. In der Praxis fehlen solche Instanzen weitgehend.¦Zwischen dem Umgang mit hydrologischen Risken und dem Wissen bestehen enge Wechselwirkungen. Der Zustand und die Eigenschaften der Wissensformen bestimmen direkt die Qualität des Hochwasserschutzes. Lückenhaftes und unpräzises Wissen kann demnach zu einem Risikomanagement führen, das den tatsächlichen Gegebenheiten nicht angepasst ist. Um eine solche Situation zu verhindern, muss das Wissen über Risiken und Hochwasserschutz regelmässig aktualisiert werden. Dabei darf es sich nicht auf die Erfahrung vergangener Hochwasser beschränken, sondern hat auch vorausschauende Überlegungen und neuartige Szenarien einzubeziehen.¦Das Risikomanagement benötigt nicht nur Wissen, es trägt auch dazu bei, neues Wissen zu t generieren und bestehendes zu erweitern. Die Erarbeitung und der Transfer von Wissen sind deshalb als zentrale Aufgaben des Risikomanagements zu betrachten.¦Abstract¦The role of socio-political parameters and of knowledge in the management of hydrological risks¦The purpose of the thesis is to analyse (1) the socio-political management of hydrological risks, (2) the knowledge about hydrological risks, and (3) the interaction between risk management and knowledge. Three case studies were carried out, two at a regional level (city of Berne, village of Saillon) and one about a specific stakeholder (the dyke corporations in the canton of Berne). Empirical data were collected by the means of semi-structured interviews and surveys.¦The management of hydrological risks is highly influenced by socio-political issues, i.e. by interests and goals of stakeholders, by the balance of power between stakeholders, as well as by negotiations and decision-making processes. In practice, however, risk management is mainly constrained by physical, technical, and administrative aspects. The neglect of the socio-political dimension may thus be the source of conflicts which significantly delay the planning and implementation of flood protection measures, or even stop them. Furthermore, risk management mostly concentrates on hazard reduction. Discussions on vulnerability issues are less frequent although they are fundamental for treating risks in a holistic manner.¦Because of the importance of the social-political dimension and of vulnerability issues, it is necessary that the common approach of managing hydrological risks is reconsidered and adapted. Moreover, the integration of all stakeholders that are concerned with hydrological risks is essential for finding solutions which are supported by a majority. For instance, the application of appropriate negotiation instruments is insufficient.¦Knowledge about hydrological risks and their management can be classified into four categories (system knowledge, event knowledge, intervention knowledge, socio-political knowledge) which are all influencing the reduction of risks. Among the most important factors that are likely to trigger knowledge transformations, one can point out flood events, studies about risk parameters (hazards, vulnerability, protection measures, etc.), knowledge exchange between stakeholders, and the search for solutions during risk management.¦The characteristics of knowledge vary considerably between stakeholders. The affiliation to a specific group is thus not a sufficient criterion to determine the quality of a stakeholder's knowledge: every stakeholder may have knowledge that is relevant for risk management. However, differences between stakeholders complicate the communication. This problem could be attenuated by mediators which ensure the translation between stakeholders. In practice, such instances are generally lacking.¦The management and knowledge of hydrological risks are highly interdependent. The state and the characteristics of the four categories of knowledge determine directly the quality of flood protection. Gaps and imprecison may thus lead to forms of management which are not adapted to the actual risks. This kind of situation can be avoided by updating regularly the knowledge about hydrological risks and about protection measures. However, knowledge must not be restricted to the experience of past floods. On the contrary, it is indispensable also to involve prospective reflections and new scenarios.¦Risk management does not only require knowledge, it may also generate new knowledge and enlarge existing knowledge. The creation and the transfer of knowledge has thus to be seen as a central task in risk management.
Resumo:
Par Compliance, on entend l'ensemble des mesures organisationnelles d'une entreprise qui visent à assurer le respect des règles par l'entreprise et ses collaborateurs. Dans le secteur privé - surtout dans les banques et les assurances - la Compliance est un concept bien établi et le poste du Compliance Officer apparaît clairement dans l'organigramme des entreprises. Ce terme apparaît aussi de temps à autre au sein de l'administration fédérale, en relation avec la politique de gestion des risques et le système de contrôle interne (SCI) ; mais une introduction effective de la Compliance n'y a pas encore eu lieu (jusqu'ici). Les Américains ont l'habitude de dire « if you think compliance is expensive, try non compliance ». Cette déclaration, apparemment valable pour le secteur privé, peut-elle cependant être transposée telle quelle au secteur public ? L'introduction d'un système de management tel que la Compliance apporterait-elle effectivement une plus-value par rapport aux systèmes existants afin d'éviter les risques engendrant des conséquences juridiques ou causant une mauvaise réputation suite au non-respect de règles par des collaborateurs ? La présente étude se penche sur ces questions et analyse, sur la base de documents et d'interviews, quels éléments de la Compliance existent au niveau de la Confédération et au sein de l'Office fédéral de la santé publique (OFSP) et s'ils sont propres à atteindre les objectifs visés par la Compliance. Dans plusieurs domaines, on a pu constater des défauts et, par conséquent, un gros potentiel d'amélioration. Le problème principal est l'absence d'organisation au niveau de la Compliance. Cela complique la vue d'ensemble des risques juridiques et de ceux pouvant causer une mauvaise réputation qui existent au niveau de la Confédération et à l'OFSP et rend impossible un management homogène de ces risques. En conséquence et dans l'état actuel des choses, il pourrait s'avérer difficile d'éviter de manière durable la réalisation des risques susmentionnés au moyen des systèmes existants. D'un autre côté, la politique de gestion des risques au sein de la Confédération et l'introduction d'un système de contrôle interne (SCI) ont représenté les premiers pas en direction d'un système de gestion des risques intégré. La Compliance serait un complément idéal et pourrait - dans la mesure où la direction de l'Office la soutient et donne le bon exemple - contribuer à la réduction des risques décrits ci-dessus non seulement au niveau de la Confédération mais encore au sein de l'OFSP. La présente étude ne vise pas pour autant à critiquer les systèmes établis, mais bien plus à montrer le potentiel d'amélioration dont on pourrait tirer profit.
Resumo:
Thesenhafte Zusammenfassung 1. Geschäftsmethoden ist urheberrechtlicher Schutz zu versagen. Vordergründig lässt sich die Schutzversagung mit dem Fehlen von Schutzvoraussetzungen er¬klären. Soweit es an einem Bezug zu Literatur, Wissenschaft oder Kunst man¬gelt, ist Schutz nach § 1 UrhG zu verwehren. Im Übrigen scheitert ein Schutz von Geschäftsmethoden in aller Regel an § 2 Abs. 2 UrhG. Angesichts ihrer Ausrichtung am Effizienzziel orientieren sich Geschäftsmethoden an Vorgege¬benem bzw. an Zweckmäßigkeitsüberlegungen, so dass Individualität ausschei¬det. Hintergrund sind jedoch Legitimierungsüberlegungen: Schutz ist mit Blick auf das Interesse der Allgemeinheit zu versagen, das auf ein Freibleiben von Geschäftsmethoden gerichtet ist und das Interesse des Entwicklers einer Geschäftsmethode an Ausschließlichkeit überwiegt. 2. Die Berücksichtigung der Interessen der Allgemeinheit ist durch Art. 14 Abs. 2 verfassungsrechtlich geboten. Im Urheberrechtsgesetz drückt sie sich vor allem in den Schrankenregelungen der §§ 44a ff. UrhG aus. Die Allgemeininteressen sind darüber hinaus auch auf der Ebene der Entstehung des Rechts zu berück¬sichtigen. Bei der Ermittlung der Interessen der Allgemeinheit sind auch öko¬nomische Überlegungen anzustellen und die wettbewerbsmäßigen Auswirkun¬gen eines Sonderrechtsschutzes zu berücksichtigen. 3. Im Bereich des urheberrechtlichen Datenbankschutzes konnte der Schutz von Geschäftsmethoden hinsichtlich der Auswahl oder Anordnung von Daten bisher durch das Erfordernis einer besonderen Gestaltungshöhe im Rahmen der Schutzvoraussetzung der Individualität verhindert werden. 4. Nach der Umsetzung der Datenbankrichtlinie kommt es infolge der Absenkung der Gestaltungshi5he hin zu einer einfachen Individualität sowie durch die Ein¬beziehung des konzeptionellen Modells in den urheberrechtlichen Schutzbereich vermehrt zu einem indirekten und direkten Schutz von Methoden. Das stellt einen Verstoß gegen die in Art. 9 Abs. 2 TRIPs statuierte Schutzfreiheit von Methoden dar. Auch wenn die Frage der unmittelbaren Anwendbarkeit dieser Norm noch nicht abschließend geklärt ist, hat das deutsche Urheberrechtsgesetz sie doch insofern zu berücksichtigen, als eine konventionsfreundliche Auslegung des Urheberrechtsgesetzes geboten ist. 5. Die bloße "Implementierung" von Geschäftsmethoden in Datenbanken darf nicht zum Schutz eines Gegenstandes führen, dem der Schutz an sich versagt ist. 6. Im Rahmen des Datenbankschutzes eine Monopolisierung von Methoden zuzulassen ist auch im Hinblick auf Art. 3 GG nicht unproblematisch. Denn Geschäftsmethoden, die anderen Werkarten zugrunde liegen, ist dieser Schutz weiterhin versagt, ohne dass ein sachlicher Grund für eine solche Differenzierung erkennbar wäre. 7. Überdies kann sich die Monopolisierung von Auswahl- und Anordnungsmethoden auch negativ auf die Informationsfreiheit auswirken. Es kann faktisch zu Monopolen an den in der Datenbank enthaltenen Informationen kommen. 8. Der Monopolisierung von Geschäftsmethoden zur Auswahl oder Anordnung von Daten ist daher entgegenzutreten. 9. Lösungen, die erst auf der Rechtsfolgenseite ansetzen, indem sie solche Methoden zwar als schutzbegründend ansehen, den Schutzumfang aber beschränken, sind abzulehnen. Sie durchbrechen den axiomatischen Zusammenhang zwischen Schutzbegründung und -umfang und führen dadurch zu willkürlichen Ergebnissen. Auch aus Anreizgesichtspunkten können sie nicht überzeugen. 10. Schutz ist bereits auf Tatbestandsebene zu versagen. 11. Die Schutzfreiheit von Geschäftsmethoden im Bereich des Datenbankschutzes kann dabei nicht durch eine Rückkehr zum Erfordernis einer besonderen Gestaltungshöhe erreicht werden. Dem steht der Wortlaut des Art. 3 Abs. 1 S. 2 der Datenbankrichtlinie ("keine anderen Kriterien") entgegen. Abgesehen davon ist das Individualitätskriterium auch nicht das geeignete Mittel, die Schutzfreiheit von Geschäftsmethoden zu gewährleisten: Zum einen erweist es sich als anfällig für Eingriffe seitens des Europäischen Gesetzgebers. Zum anderen kann es - da es an die sich im Werk ausdrückende Persönlichkeit des Urhebers anknüpft - insoweit nicht weiterhelfen, als Schutz nicht mangels Eigenpersönlichkeit, sondern aufgrund fehlender Legitimierbarkeit nach einer Interessenabwägung versagt wird. 12. Die Schutzfreiheit von Methoden sollte daher unabhängig von den Schutzvoraussetzungen, namentlich der Individualität, statuiert werden. 13. De lege lata kann das durch die Einführung eines ungeschriebenen negativen Tatbestandmerkmals geschehen. Dafür spricht die Regelung des § 69a Abs. 2 S. 2 UrhG, die für Computerprogramme die Schutzfreiheit von Ideen statuiert. Ein Verstoß gegen Art. 3 Abs. 1 S. 2 der Datenbankrichtlinie ("keine anderen Kriterien") kann einem solchen Tatbestandsmerkmal nicht entgegengehalten werden. Denn mit dem Ausschluss anderer Kriterien wollte der Europäische Gesetzgeber nur dem Erfordernis einer besonderen Gestaltungshöhe Einhalt gebieten, nicht aber die Tür für einen Methodenschutz öffnen. Ein dahingehender Wille darf ihm mit Blick auf Art. 9 Abs. 2 TRIPs auch nicht unterstellt werden. Die Schutzfreiheit sollte jedoch - anders als bei § 69a Abs. 2 S. 2 UrhG - schon auf Tatbestandsebene verankert werden. Ein solches Tatbestandsmerkmal könnte lauten: "Der Auswahl oder Anordnung zugrundeliegende abstrakte Methoden sowie solche konkreten Methoden, die sich an Vorgegebenem oder Zweckmäßigkeitsüberlegungen orientieren, können einen Schutz nach dieser Vorschrift nicht begründen." 14. Aus Gründen der Rechtsklarheit sollte de lege ferenda - wie im Patentrecht - die Schutzfreiheit von Geschäftsmethoden ausdrücklich und allgemein im Urheberrechtsgesetz festgeschrieben werden. Dafür sollte § 2 UrhG ein entsprechender Absatz 3 angefügt werden. Er könnte lauten: "Geschäftliche Methoden können einen Schutz nach diesem Gesetz nicht begründen 15. Soweit Datenbanken urheberrechtlicher Schutz mit Blick auf die Schutzfreiheit von Geschäftsmethoden versagt werden muss, verbleibt jedoch die Möglichkeit eines Schutzes nach den §§ 87a ff. UrhG. Dieser Schutz wird allein aufgrund einer wesentlichen Investition gewahrt. Die wirtschaftlich wertvollen auf Vollständigkeit angelegten Datenbanken werden dem sui-generis-Schutz regelmäßig unterfallen, so dass ausreichende Anreize zur Schaffung von Faktendatenbanken bestehen. Auch auf internationaler Ebene scheint dieses zweigleisige Sys¬tem Anklang zu finden, wie Reformarbeiten zur Einführung eines sui-generis-Schutzes für Datenbanken im Rahmen der WIPO belegen. Résumé sous forme de thèses 1. Une protection juridique des méthodes commerciales au sein du droit d'auteur doit être refusée. Au premier plan, le refus de protection peut être expliqué par un manque de conditions. S'il n'y a pas de référence dans la littérature, les sciences ou les arts, une protection doit être rejetée selon l'art. 1 de la législation allemande sur le droit d'auteur. D'ailleurs, une protection des méthodes commerciales sera interrompue en toute règle à cause de l'art. 2 al. 2 de la législation sur le droit d'auteur. Comme elles poursuivent l'objectif de l'efficacité, les méthodes commerciales se réfèrent à des faits donnés et/ou à des considérations d'utilité ce qui exclut l'individualité. En arrière-plan, cependant, il y a des considérations de légitimité. La protection doit être rejetée étant donné l'intérêt du public, qui est orienté vers un manque de protection des méthodes commerciales. Cet intérêt du public est prépondérant l'intérêt du fabricant, qui est dirigé vers une exclusivité sur la méthode commerciale. 2. La prise en considération des intérêts du public est imposée par l'art. 14 al. 2 de la Constitution allemande. Dans la loi sur le droit d'auteur, elle s'exprime avant tout dans les règlements restrictifs des art. 44a et suivants. Les intérêts du public doivent d'ailleurs être considérés au niveau de la formation du droit. En évaluant les intérêts du public, il est utile de considérer aussi les conséquences économiques et celles d'une protection particulière du droit d'auteur au niveau de la concurrence. 3. Dans le domaine de la protection des bases de données fondé dans le droit d'auteur, une protection des méthodes commerciales a pu été empêchée jusqu'à présent en vue du choix ou de la disposition de données par l'exigence d'un niveau d'originalité particulier dans le cadre des conditions de protection de l'individualité. 4. La mise en pratique de la directive sur les bases de données a abouti de plus en plus à une protection directe et indirecte des méthodes en conséquence de la réduction des exigences de l'originalité vers une simple individualité ainsi que par l'intégration du modèle conceptionnel dans le champ de protection du droit d'auteur. Cela représente une infraction contre l'exclusion de la protection des méthodes commerciales stipulée dans l'art. 9 al. 2 des Accords ADPIC (aspects des droits de propriété intellectuelle qui touchent au commerce), respectivement TRIPS. Même si la question de l'application directe de cette norme n'est pas finalement clarifiée, la législation allemande sur le droit d'auteur doit la considérer dans la mesure où une interprétation favorable aux conventions de la législation du droit d'auteur est impérative. 5. La simple mise en pratique des méthodes commerciales sur des bases de données ne doit pas aboutir à la protection d'une chose, si cette protection est en effet refusée. 6. En vue de l'art. 3 de la Constitution, il est en plus problématique de permettre une monopolisation des méthodes au sein de la protection de bases de données. Car, des méthodes commerciales qui sont basées sur d'autres types d'oeuvres, n'ont toujours pas droit à cette protection, sans qu'une raison objective pour une telle différenciation soit évidente. 7. En plus, une monopolisation des méthodes pour le choix ou la disposition des données peut amener des conséquences négatives sur la liberté d'information. En effet, cela peut entraîner des monopoles des informations contenues dans la base de données. 8. Une monopolisation des méthodes commerciales pour le choix ou la disposition des données doit donc être rejetée. 9. Des solutions présentées seulement au niveau des effets juridiques en considérant, certes, ces méthodes comme justifiant une protection, mais en même temps limitant l'étendue de la protection, doivent être refusées. Elles rompent le contexte axiomatique entre la justification et l'étendue de la protection et aboutissent ainsi à des résultats arbitraires. L'argument de créer ainsi des stimulants commerciaux n'est pas convaincant non plus. 10. La protection doit être refusée déjà au niveau de l'état de choses. 11. Une exclusion de la protection des méthodes commerciales dans le domaine des bases de données ne peut pas être atteinte par un retour à l'exigence d'un niveau d'originalité particulier. Le texte de l'art 3 al. 1 p. 2 de la directive sur les bases de données s'oppose à cela (« aucun autre critère »). A part cela, le critère de l'individualité n'est pas non plus le moyen propre pour garantir une exclusion de la protection des méthodes commerciales. D'un côté, ce critère est susceptible d'une intervention par le législateur européen. D'un autre côté, il n'est pas utile, comme il est lié à la personnalité de l'auteur exprimé dans l'oeuvre, dans la mesure où la protection n'est pas refusée pour manque d'individualité mais pour manque de légitimité constaté après une évaluation des intérêts. 12. L'exclusion de la protection des méthodes devra donc être stipulée indépendamment des conditions de protection, à savoir l'individualité. 13. De lege lata cela pourra se faire par l'introduction d'un élément constitutif négatif non écrit. Cette approche est supportée par le règlement dans l'art. 69a al. 2 p. 2 de la législation allemande sur le droit d'auteur qui stipule l'exclusion de la protection des idées pour des programmes d'ordinateur. Un tel élément constitutif ne représente pas d'infraction à l'art. 3 al. 1 p. 2 de la directive sur les bases de données (« aucun autre critère »). En excluant d'autres critères, le législateur européen n'a voulu qu'éviter l'exigence d'un niveau d'originalité particulier et non pas ouvrir la porte à une protection des méthodes. En vue de l'art. 9 al. 2 des Accords TRIPs, il ne faut pas prêter une telle intention au législateur européen. Cependant, l'exclusion de la protection devrait - autre que dans le cas de l'art. 69a al. 2 p. 2 de la législation allemande sur le droit d'auteur - être ancrée déjà au niveau de l'état de choses. Un tel élément constitutif pourrait s'énoncer comme suit : « Des méthodes abstraites se référant au choix ou à la disposition de données ainsi que des méthodes concrètes s'orientant à des faits donnés ou à des considérations d'utilité ne peuvent pas justifier une protection selon ce règlement. » 14. Pour assurer une clarté du droit, une exclusion de la protection des méthodes commerciales devrait de lege ferenda - comme dans la législation sur les brevets - être stipulée expressément et généralement dans la législation sur le droit d'auteur. Un troisième alinéa correspondant devrait être ajouté. Il pourrait s'énoncer comme suit : « Des méthodes commerciales ne peuvent pas justifier une protection selon cette loi ». 15. S'il faut refuser aux bases de données une protection au sein du droit d'auteur en vue de l'exclusion de la protection pour des méthodes commerciales, il est quand même possible d'accorder une protection selon les articles 87a et suivants de la législation allemande sur le droit d'auteur. Cette protection est uniquement accordée en cas d'un investissement substantiel. Les bases de données ayant une grande importance économique et s'orientant vers l'intégralité seront régulièrement soumises à la protection sui generis de sorte qu'il y ait de suffisants stimulants pour la fabrication de bases de données de faits. Ce système à double voie semble également rencontrer de l'intérêt au niveau international, comme le prouvent des travaux de réforme pour l'introduction d'une protection sui generis pour des bases de données au sein de l'OMPI.
Resumo:
Résumé Les patients ayant subi une transplantation cardiaque nécessitent un traitement immunosuppresseur à vie. Or un tel traitement entraîne différents effets secondaires, en fonction du médicament et des doses utilisés. La ciclosporine, connue pour sa puissante action immunosuppressive, est utilisée chez ces patients avec grand succès. Ainsi, ces dernières années, on a assisté à une diminution de la morbidité et de la mortalité post- transplantation. Ce succès s'accompagne toutefois d'effets secondaires, qui s'expriment principalement par une hypertension artérielle (HTA) et une dysfonction rénale voire une insuffisance rénale (augmentation de la créatinine et diminution de la clearance de la créatinine). L'introduction d'un nouvel immunosuppresseur, le mycophénolate mofétil (MMF, Cellcept), qui remplace l'azathioprine (AZA), a permis une réduction importante des doses de ciclosporine de 3-5mg/l(g/j à 1- 3mg/l(g/j. Or certaines études ont permis d'observer que l'utilisation du MMF associé à de faibles doses de ciclosporine après la transplantation entraîne une meilleure évolution chez les patients, notamment pour ce qui est de la tension artérielle (TA) et de la fonction rénale. Objectifs Il s'agit de déterminer l'influence, dans le temps, du MMF associé à de faibles doses de ciclosporine sur la TA et la fonction rénale chez les patients transplantés cardiaques, dans deux cas de figure: d'une part lorsque le traitement est commencé immédiatement après la transplantation, d'autre part lorsqu'il n'est introduit qu'une fois la détérioration de la fonction rénale apparue. Patients et méthodes La présente analyse rétrospective porte sur 105 patients ayant subi une transplantation cardiaque au CHUV de Lausanne, évalués un an après la greffe. Les patients ont été subdivisés en 3 groupes. Le groupe 1(67 patients) a reçu de la ciclosporine à doses conventionnelles (3-5mg11<g/j) et de l'azathioprine dès la transplantation. Les patients du groupe II (30 personnes) ont également reçu de la ciclosporine et de l'azathioprine, mais, en raison d'une détérioration rénale progressive, de myalgies ou d'arthralgies secondaires à la ciclosporine, ont bénéficié d'une modification du traitement consistant en une réduction des doses de ciclosporine en association avec du MMF (2gr1j) à la place de l'azathioprine. Enfin, les patients du groupe III (8 patients suivis pendant 2 ans maximum), ont reçu, dès la transplantation, du MMF (2g/D associé à de faibles doses de ciclosporine (jusqu'à 50% de moins que la dose conventionnelle, c'est-à-dire entre 1,0 et 1,5 meg/j). La TA, la créatinine, la clearance de la créatinine, l'incidence des infections et des rejets ont été analysées. Résultats La TA et la créatinine ont augmenté significativement au cours de la première année dans les 3 groupes, sans différences significatives entre ceux-ci. Pendant 5 ans, l'évolution des groupes I et II est restée similaire. Dans le groupe II, aucune amélioration de la créatinine et de la tension artérielle n'a été observée après la modification du traitement. Le groupe III, en revanche, a montré une très claire diminution de l'incidence des rejets aigus, aucun décès et une tendance (non significative) à une meilleure évolution de la créatinine et de la tension artérielle au cours de la première année en comparaison avec les groupes I et II. En ce qui concerne l'incidence des infections, il n'y a pas de différences entre les 3 groupes. Conclusion Une fois qu'une détérioration importante de la fonction rénale est apparue suite à l'administration de doses conventionnelles de ciclosporine, il est peu probable de réussir à récupérer la fonction rénale par une modification du traitement (MMF et faibles doses de ciclosporine), car le rein n'a plus de tissu fonctionnel de réserve. Le traitement associant le MMF à de faibles doses de ciclosporine administré dès la transplantation ayant montré une tendance à une meilleure évolution, notamment à une réduction de l'incidence des rejets (importante cause de mortalité) au cours de la première année, nous pensons que ce nouveau régime de traitement peut être plus bénéfique pour les patients s'il est introduit rapidement après la transplantation.