969 resultados para Mesure de mitigation
Resumo:
Contexte : Les patients souffrant d'un épisode dépressif sévère sont fréquemment traités par des inhibiteurs sélectifs de la recapture de la sérotonine (SSRI). Cependant, seulement 30-50% des patients répondront à ce type de traitement. Actuellement, il n'existe pas de marqueur biologique utilisable pour prédire la réponse à un traitement par SSRI. Un délai dans la mise en place d'une thérapie efficace peut avoir comme conséquences néfastes une augmentation du risque de suicide et une association avec un moins bon pronostic à long terme lors d'épisodes ultérieurs. Objectif : Par l'étude du métabolisme cérébral par tomographie par émission de positons (PET) au F-18-fluorodeoxyglucose (FDG), nous étudierons la présence de corrélations éventuelles entre la réponse clinique, qui généralement survient dans les 4 à 6 semaines après l'instauration du traitement antidépresseur, et une modification du métabolisme cérébral mesuré plus précocement, dans le but d'identifier les futurs répondeurs au traitement par SSRI. Méthodes : Cette étude longitudinale comprendra 20 patients unipolaires avec un épisode dépressif sévère au bénéfice d'un traitement par SSRI. Chacun des patients aura deux examens PET cérébraux au F-18-FDG. Le premier PET aura lieu juste avant le début du traitement aux SSRI et le second dans la 3ème semaine après début du traitement. La réponse clinique sera mesurée à 3 mois, et les répondeurs seront identifiés par une diminution significative des scores lors d'évaluation sur échelles de dépression. La recherche d'altérations métaboliques cérébrales sera faite en évaluant: (1) l'examen de base ou (2) l'examen PET précoce, à la recherche d'altérations spécifiques corrélées à une bonne réponse clinique, afin d'obtenir une valeur pronostique quant à la réponse au traitement. L'analyse de l'imagerie cérébrale utilisera la technique SPM (Statistical Parameter Mapping) impliquant un traitement numérique voxel par voxel des images PET. Résultats escomptés : Cette étude caractérisant les variations du métabolisme cérébral dans la phase précoce d'un traitement par SSRI vise à identifier des marqueurs métaboliques potentiels fournissant une valeur prédictive quant à la future efficacité du traitement SSRI introduit. Plus-value escomptée : L'identification d'un tel marqueur métabolique permettrait d'identifier rapidement les futurs répondeurs aux SSRI, et par conséquent d'éviter de proposer aux non-répondeurs la poursuite d'une médication, pendant plusieurs semaines, qui aurait peu de chance d'être efficace. Ainsi, une identification précoce des répondeurs aux SSRI pourrait permettre d'éviter des délais dans la mise en place d'une thérapie efficace et d'obtenir une amélioration du pronostic à plus long terme, avec une influence favorable sur les coûts de la santé.
Resumo:
La première guerre mondiale a créé des déséquilibres fondamentaux au sein de l'économie mondiale. D'une part, elle a endetté les Etats à un point tel que ces derniers ont été poussés à pratiquer des politiques inflationnistes aux effets sociaux parfois désastreux. D'autre part, elle a détruit le système monétaire international et avec lui le système de régulation des échanges commerciaux. Enfin, elle a provoqué un gonflement de l'appareil productif, ce qui se traduira par des tendances à la surproduction une fois la paix revenue. Bien que la Suisse soit restée neutre durant le conflit, la situation de guerre ne la pas épargnée et les déséquilibres fondamentaux évoqués l'ont aussi touchée de plein fouet à partir de 1919. Fortement intégrée dans l'économie mondiale, que ce soit au niveau des échanges d'hommes, de marchandises et de capitaux, la Suisse a surtout souffert des dérèglements intervenus sur le plan des échanges internationaux. Menant une politique du franc fort, les autorités ont dû faire face aux conséquences négatives de cette stratégie monétaire sur les différentes branches productives de l'économie. Surdimensionnées à l'issue de quatre années de pénurie, marquées par la difficulté d'importer, les branches de l'industrie et de l'agriculture travaillant pour le marché intérieur doivent faire face à une importation massive de produits étrangers. Celle-ci est encore stimulée par la politique de dumping monétaire de certains partenaires commerciaux. Quant à l'industrie d'exportation, elle ne parvient plus à écouler ses produits sur les marchés à monnaie dépréciée. Le chômage grimpe rapidement au cours de l'année 1921, ravivant les tensions sociales exacerbées par les grèves générales de 1918 et 1919. C'est dans ce contexte social explosif que la question de l'assainissement des finances fédérales doit être résolue. Durant le conflit, l'accroissement des dépenses de l'Etat a été couvert, dans une large mesure, par un accroissement de la dette et un recours à la planche à billet. Il s'agit donc de déterminer quels impôts vont fournir les sommes nécessaires au service et à l'amortissement de la dette. Les nouvelles tâches embrassées par la Confédération au cours du conflit provoquent par ailleurs un déficit budgétaire structurel que les autorités veulent combler au plus vite pour ne pas mettre en danger le franc suisse et éviter de tirer les taux de l'argent à la hausse. Pour faire face aux défis commerciaux et financiers générés par la guerre, la Confédération dispose de plusieurs outils lui permettant de mener une politique volontariste. Parmi ceux-ci, la politique douanière occupe une place très importante, puisqu'elle est à la fois la principale source de revenus de la Confédération et un bras de levier efficace pour influencer les flux commerciaux. Certes, de par son importance dans la répartition de la richesse nationale, la politique douanière a toujours été l'objet de conflits politiques homériques. Entre 1880 et 1914, un débat continu a opposé les différents groupes socio-économiques cherchant à défendre des intérêts fiscaux et commerciaux bien compris. Cependant, à l'issue de la Première guerre mondiale, les enjeux du débat prennent un ampleur qualitativement différente, puisqu'il s'agit de répondre à la question que tout le monde se pose: qui va payer la guerre ? Ce mémoire de licence analyse pourquoi et comment la réponse à cette question a engendré des conflits politiques extrêmement violents qui ont contribué à maintenir un climat social tendu au cours de la première moitié des années 1920. Pour diriger la politique douanière suisse en conformité avec leurs intérêts, les grandes associations faîtières de l'économie n'ont pas hésité à prolonger le régime des pleins pouvoirs en vigueur durant la guerre. Le 18 février 1921, des pleins pouvoirs douaniers sont attribués par le Parlement au Conseil fédéral. En vertu de ceux-ci, le gouvernement mène une politique entièrement dévouée aux intérêts des partenaires du bloc bourgeois-paysan alors au pouvoir. Afin de réguler les flux commerciaux, des mesures de restriction de l'importation sont instaurées. En matière de fiscalité, il s'agit avant tout de ne pas recourir trop à l'imposition directe frappant le revenu et le capital, mais d'utiliser l'imposition indirecte, et en particulier la taxation douanière. Pour satisfaire la paysannerie, dont l'appui politique est nécessaire, les positions agricoles du nouveau tarif sont fortement augmentées, ce qui pousse le prix des denrées alimentaires à la hausse. Cette partie du programme douanier, qui est défavorable aux milieux de l'industrie d'exportation, engendre quelques tensions au sein même du bloc bourgeois. Grands perdants de la politique fiscale menée par le Conseil fédéral, les salariés tentent de s'y opposer par tous les moyens à disposition. La politique autoritaire instaurée dans le domaine douanier les empêche toutefois de recourir au référendum. Une large coalition d'associations et de partis de gauche décident alors de s'opposer à la politique du gouvernement par le biais d'une initiative. La politique douanière devient le lieu de rassemblement d'une clientèle politique très diverse susceptible de déboucher sur la constitution d'un cartel politique de centre-gauche. Parallèlement, le PSS lance une autre initiative demandant à ce que la dette de guerre soit payée par un prélèvement unique sur la fortune. Au cours des années 1921 à 1923, la politique fiscale devient un champ d'affrontement politique de première importance. Certes, la gauche socialiste ne se gêne pas d'instrumentaliser ce champ pour attiser la lutte des classes, mais c'est surtout la droite nationaliste qui jette de l'huile sur le feu. Le discours antisocialiste qui caractérise la campagne de votation est de la plus grande violence. Au-delà des enjeux financiers et économiques qui sous-tendent le débat douanier, l'initiative remet en question les fondements mêmes de l'organisation politique suisse. Scellée en 1902, l'alliance douanière est en effet la clef de voûte du bloc bourgeois-paysan des associations faîtières. Une victoire de l'initiative serait la porte ouverte à un cartel de centre-gauche ou, plus grave encore, à une alliance rouge-verte. En stigmatisant les partisans bourgeois de l'initiative, qui sont accusés de faire un pacte avec le diable, l'USCI et l'USP parviennent à isoler le mouvement ouvrier. La défaite de 1923 est ainsi sans appel. Elle marque un jalon important de la «ghettoïsation» que le mouvement ouvrier aura à subir tout au long de l'Entre-deux-guerres. En plébiscitant les pleins pouvoirs douaniers, la votation donne aussi décharge aux autorités politiques pour leur gestion autoritaire de l'économie. Impensable avant la guerre, la soustraction d'arrêtés au référendum se systématisera dans l'Entre-deux-guerres, participant à une remise en question plus large des principes démocratiques. Au centre de la gestion des conséquences économiques et financières de la Première guerre mondiale, la politique douanière permet donc d'expliciter les conséquences sociales et politiques que le conflit a provoquées sur le plus long terme par le biais de l'explosion de la dette de l'Etat.
Resumo:
Par Compliance, on entend l'ensemble des mesures organisationnelles d'une entreprise qui visent à assurer le respect des règles par l'entreprise et ses collaborateurs. Dans le secteur privé - surtout dans les banques et les assurances - la Compliance est un concept bien établi et le poste du Compliance Officer apparaît clairement dans l'organigramme des entreprises. Ce terme apparaît aussi de temps à autre au sein de l'administration fédérale, en relation avec la politique de gestion des risques et le système de contrôle interne (SCI) ; mais une introduction effective de la Compliance n'y a pas encore eu lieu (jusqu'ici). Les Américains ont l'habitude de dire « if you think compliance is expensive, try non compliance ». Cette déclaration, apparemment valable pour le secteur privé, peut-elle cependant être transposée telle quelle au secteur public ? L'introduction d'un système de management tel que la Compliance apporterait-elle effectivement une plus-value par rapport aux systèmes existants afin d'éviter les risques engendrant des conséquences juridiques ou causant une mauvaise réputation suite au non-respect de règles par des collaborateurs ? La présente étude se penche sur ces questions et analyse, sur la base de documents et d'interviews, quels éléments de la Compliance existent au niveau de la Confédération et au sein de l'Office fédéral de la santé publique (OFSP) et s'ils sont propres à atteindre les objectifs visés par la Compliance. Dans plusieurs domaines, on a pu constater des défauts et, par conséquent, un gros potentiel d'amélioration. Le problème principal est l'absence d'organisation au niveau de la Compliance. Cela complique la vue d'ensemble des risques juridiques et de ceux pouvant causer une mauvaise réputation qui existent au niveau de la Confédération et à l'OFSP et rend impossible un management homogène de ces risques. En conséquence et dans l'état actuel des choses, il pourrait s'avérer difficile d'éviter de manière durable la réalisation des risques susmentionnés au moyen des systèmes existants. D'un autre côté, la politique de gestion des risques au sein de la Confédération et l'introduction d'un système de contrôle interne (SCI) ont représenté les premiers pas en direction d'un système de gestion des risques intégré. La Compliance serait un complément idéal et pourrait - dans la mesure où la direction de l'Office la soutient et donne le bon exemple - contribuer à la réduction des risques décrits ci-dessus non seulement au niveau de la Confédération mais encore au sein de l'OFSP. La présente étude ne vise pas pour autant à critiquer les systèmes établis, mais bien plus à montrer le potentiel d'amélioration dont on pourrait tirer profit.
Resumo:
Résumé : Introduction Cette étude est une analyse rétrospective des complications urétérales et de leurs prises en charge à partir d'une série monocentrique de 277 transplantations rénales consécutives. Matériel et méthode De septembre 1979 à juin 1999, 277 transplantations rénales (origine cadavérique) ont été pratiquées chez 241 patients. L'uretère provenant de la greffe rénale a été inséré dans la vessie selon la technique d'implantation extravésicale décrite par Lich-Gregoir et Campos-Freire. L'étude a analysé la date de survenue et le genre de complications observés. Les différentes procédures pour restaurer le tractus urinaire transplanté sont présentées dans cette étude. Résultats Des complications sont survenues chez 43/277 transplantations rénales (15,5%). Les fuites urinaires sur l'anastomose ou les sténoses urétérales étaient les plus fréquentes. La date de survenue de ces complications étaient soit précoce (< 1 mois) soit tardive (> 1 mois) dans un nombre similaire de cas. La plupart des cas ont été pris en charge chirurgicalement 33/43 cas (76,7%). La réparation chirurgicale la plus fréquente a été la réimplantation urétérovésicale (n-13), suivie par : l'anastomose urétérourétérale termino-terminale (uretère natif-uretère greffé, n-5) ; l'anastomose pyélourétérale (uretère natif-bassinet rénal greffé, n=5) ; la simple révision de l'implantation urétérovésicale (n=4) ; la résection et l'anastomose termino-terminale de l'uretère greffé (n=2) ; la calico-vésicostomie (vessie greffée, n=1) ; l'implantation selon Boari (n=1) ; la pyélovésicostomie avec bipartition de la vessie (n-1), et la pyéloiléocystoplastie avec greffe iléale détubularisée (n=1). Aucun décès en relation avec les complications urologiques n'a été rapporté. Cependant, 2 reflux vésico-rénaux consécutifs ont conduit à distance à la perte du greffon. Conclusion Le taux de complications constaté dans cette analyse rétrospective est similaire à celui observé dans d'autres études. Il se situe entre 2 et 20%. Si l'implantation urétérovésicale extravésicale classique reste une technique attractive en raison de sa simplicité, l'équipe chirurgicale dans un centre de formation doit rester attentive à toute mesure de prévention des complications urétérales, comme le choix d'une autre technique d'implantation de l'uretère et/ou de l'insertion transitoire d'un stent urétéral. Abstract Introduction: This study is a retrospective analysis of ureteral complications and their management from a monocenter series of 277 consecutive renal transplantations. Materials and Methods: From September 1979 to June 1999, 277 renal transplantations (cadaveric origin) were performed in 241 patients. The ureter from the kidney graft was inserted into the bladder according to the technique of extravesical implantation described by Lich-Gregoir and Campos-Freire. The study analyzed the time of occurrence and the type of complications observed. The different procedures to restore the transplanted urinary tract are presented. Results: Complications occurred in 431277 renal transplantations (15.5%). Anastomotic urine leakage or ureteral stricture were the most frequent. The time to appearance of these complications was either short (<1 month) or late (>1 month) in a similar number of cases. Most cases were managed surgically: 33/43 cases (76.7%). The most frequent surgi cal repair was ureterovesical reimplantation n =13), Followed by: ureteroureteral end, to end anastomosis (native ureter-ureter transplant, n =, 5); pyeloureteral anastomosis (native ureter-renal pelvis transplant n = 5): simple revision of ureterovesical implantation (n=4): resection and end-to end anastomosis of the transplant ureter (n=2); calico-vesicostomy graft-bladder, n = 1); implantation according to Boari (n= 1); pyelovesicostomy with bipartition of bladder (n = 1), and pyeloileocystoplasty with detubularized ileal graft (n=1). No deaths related to any of the urological complications were reported However, 2 consecutive vesico-renal refluxes led to the loss of the kidney graft in the long-term. Conclusion: The rate of complications observed in this retrospective analysis is similar to the experience of other studies, ranging from 2 to 20% If the classical extravesical ureteral bladder implantation is to remain an attractive technique due to its simplicity, the surgical team at the training center should be aware of all the means to prevent any ureteral complications, such as the choice of another implantation technique and/or insertion of a transient ureteral stent.
Resumo:
Introduction : Le monitoring de la tension artérielle à domicile est recommandé par plusieurs guidelines et a été montré être faisable chez la personne âgée. Les manomètres au poignet ont récemment été proposés pour la mesure de la tension artérielle à domicile, mais leur précision n'a pas été au préalable évaluée chez les patients âgés. Méthode : Quarante-huit participants (33 femmes et 15 hommes, moyenne d'âge 81.3±8.0 ans) ont leur tension artérielle mesurée avec un appareil au poignet avec capteur de position et un appareil au bras dans un ordre aléatoire et dans une position assise. Résultats : Les moyennes de mesures de tension artérielle étaient systématiquement plus basses avec l'appareil au poignet par rapport à celui du bras pour la pression systolique (120.1±2.2 vs. 130.5±2.2 mmHg, P < 0.001, moyenneidéviation standard) et pour la pression diastolique (66.011.3 vs. 69.7±1.3 mmHg, P < 0.001). De plus, une différence de lOmmHg ou plus grande entre l'appareil au bras et au poignet était observée dans 54.2 et 18,8% des mesures systoliques et diastoliques respectivement. Conclusion : Comparé à l'appareil au bras, l'appareil au poignet avec capteur de position sous-estimait systématiquement aussi bien la tension artérielle systolique que diastolique. L'ampleur de la différence est cliniquement significative et met en doute l'utilisation de l'appareil au poignet pour monitorer la tension artérielle chez la personne âgée. Cette étude indique le besoin de valider les appareils de mesures de la tension artérielle dans tous les groupes d'âge, y compris les personnes âgées.
Resumo:
Introduction : Le lipofilling s'est développé au cours du 20ème siècle, mais nécessite encore d'être amélioré, notamment à cause de sa grande variabilité. Dans cette revue de littérature, nous tenterons de déterminer les caractéristiques et les rôles de la centrifugation dans le transfert graisseux autologue. Méthodes : La discussion est fondée sur les 14 articles (Pubmed) qui traitent directement ou non de la centrifugation et ses implications. Discussion : Quelques auteurs s'accordent à penser que la centrifugation crée un gradient de cellules stromales le long du tube centrifugé et statuent que cette sous-couche dense de la phase graisseuse est la plus viable. La centrifugation apparaît donc délétère pour la partie peu dense du tissu prélevé, mais semble, pour certains, améliorer la survie de la sous-couche dense, puisqu'elle est enrichie en ADSC's/MSC's. Conclusion : Dans la mesure où le prélèvement est traumatique pour le tissu graisseux, son taux de survie est relativement faible. Mais si toutes les mesures sont prises en influant sur les déterminants de la prise de greffe, la survie s'optimise et les résultats sont meilleurs.
Resumo:
Introduction. - L'ostéoporose est caractérisée par une diminution dela densité minérale osseuse (DMO) et une détérioration de lamicroarchitecture osseuse (MO). En routine clinique, l'appréciationde la MO se fait de façon approximative en utilisant les facteurs derisque clinique (FRC). Il est maintenant possible d'estimer de façonsimple la MO en mesurant le Trabecular Bone Score (TBS) par réanalysed'une image DXA lombaire. TBS a une valeur diagnostiqueet pronostique indépendante des FRC et de la DMO. Le but de lacohorte lausannoise OstéoLaus est de combiner des éléments facilesà obtenir en routine clinique, à savoir les FRC et les éléments issusde la DXA (DMO, TBS, VFA) pour évaluer le risque fracturaire defaçon transversale puis prospective.Patients et Méthodes. - Nous avons constitué une cohorte d'environ1400 femmes entre 50 et 80 ans de la région lausannoise enrôléedepuis 7 ans dans une vaste cohorte (CoLaus, 6 700 participants)évaluant les facteurs génétiques et phénotypiques de maladies fréquentescardiovasculaires et psychiatriques. Le taux de participationà Ostéolaus est > 85%. Ces femmes sont vues entre mars 2010et décembre 2012. Elles passent un questionnaire, un ultrasonosseux du talon, une DXA de la colonne et de la hanche et une évaluationpar VFA (selon la méthode semi-quantitative de Genant) etle TBS. Nous rapportons les résultats préliminaires sur 631 participantes.Les données concernant les fractures (fx) vertébrales ne distinguentpas les origines traumatiques ou non.Résultats. - L'âge est de 67,4 ± 6,7 ans, l'IMC de 26.1 ± 4,6. Les donnéesbrutes de la colonne lombaire montrent une DMO à 0,943 ±0,168 (T-score -1,4 DS) et un TBS à 1,271 ± 0,103. La corrélationentre DMO et TBS est faible avec r2 = 0,16. La prévalence des fx vertébralesgrade 2/3, des fx ostéoporotiques majeures, et de toutes lesfx ostéoporotiques est de 8,4 %, 17,0 % et 26.0 % respectivement. LesORs (par diminution d'une déviation standard) ajustés pour l'âge etl'IMC sont pour la DMO de 1,8 (1,2-2,5), 1,6 (1,2-2,1), 1,3 (1,1-1,6),et pour TBS de 2,0 (1,4-3,0), 1,9 (1,4-2,5), 1.4 (1,1-1,7), respectivement.Le taux de fx avec DMO <þ- 2,5 DS se situe entre 35 et 37 %et le taux de fx avec un TBS < 1.200 entre 37 et 44 %. Par contre cetaux augmente entre 54 et 60 % si l'on combine une DMO < - 2,5 DSou un TBS < 1,200.Conclusion. - Ces données préliminaires confirment la faible corrélationentre la DMO et le TBS. Ajouter le TBS à la DMO permetd'augmenter significativement le nombre de participantes avec unefx ostéoporotique prévalente. Une mesure simple et peu irradiantepar DXA offre ainsi 3 informations complémentaires et pertinentespour la routine clinique : la DMO, la recherche des fractures vertébraleset le TBS.
Resumo:
L'objectif de cette étude est de valider une nouvelle grille de codage pour le Lab-TAB (Goldsmith et Rothbart, 1999). Cette grille mesure l'intensité émotionnelle et les comportements de régulation chez l'enfant âgé de six mois. L'accord interjuge se révèle satisfaisant. Les analyses factorielles ont mis en évidence trois facteurs - attention, niveau d'activité et détournement actif - retrouvés dans la littérature comme stratégies de régulation émotionnelle. Les analyses de consistance interne démontrent une bonne homogénéité de ces facteurs. La validité externe se révèle satisfaisante aux niveaux concourant et prédictif. Enfin, cet outil de codage permet de distinguer les prématurés et les nés à terme. L'ensemble de ces résultats indiquent que l'outil élaboré présente de bonnes qualités psychométriques.
Resumo:
Résumé : Les mécanismes de sélection sexuelle, en particulier la compétition entre mâles (sélection inter-sexuelle) et le choix des femelles (sélection intra-sexuelle), peuvent fortement influencer le succès reproducteur d'un individu, c'est-à-dire son nombre de descendants. On observe ainsi que les mâles dominants et les mâles élaborant des caractères sexuels secondaires marqués ont un succès reproducteur élevé. Toutefois, le succès reproducteur ne suffit pas pour garantir une contribution génétique élevée, parce que la fitness dépend également de la performance des descendants (c'est-à-dire de leur survie et de leur propre succès reproducteur). Si cette performance dépend en partie des gènes paternels, les males ont un avantage certain à signaler leur qualité aux femelles afin d'atteindre des taux de reproduction élevé. Ce mécanisme de signalisation est connu sous le nom de 'good genes hypothesis', toutefois très peu d'études ont clairement démontré le lien entre la qualité génétique des individus et la signalisation. De plus, la performance des descendants peut aussi dépendre des effets génétiques de compatibilité entre mâles et femelles ('compatible genes'). C'est-à-dire que certains allèles paternels n'apporteraient un avantage aux descendants qu'en combinaison avec certains allèles maternels. Nous avons déterminé, durant la période de reproduction, le statut de dominance des mâles pour deux espèces de poissons d'eau douce : la truite (Salmo trotta) et le vairon (Phoxinus phoxinus), puis nous avons évalué la relation entre le succès reproducteur et le statut de dominance et/ou la quantité de signalisation des caractères sexuels secondaires. Nous avons également fécondés artificiellement des oeufs de truites et de corégones (Coregonus palaea), en croisant chaque mâle avec chaque femelle (full-factorial breeding design). Ce type de design autorise la quantification précise des effets génétiques et permet de séparer les effets de 'good genes' et de 'compatible genes'. Cela a été fait sous différentes intensités de stress bactérien, ainsi que dans des conditions naturelles, et nous avons pu ainsi tester si certains indicateurs de qualité génétique des mâles ('good genes') étaient liés a) à la dominance et/ou b) à l'expression des caractères sexuels secondaires des mâles comme l'intensité mélanique ou la taille des tubercules sexuels. En outre, nous cherchons à savoir si la survie des descendants est liée à certaines combinaison des gènes du complexe d'histocompatibilité majeur (MHC) et/ou à la parenté génétique des parents, les deux traits étant soupçonnés d'avoir des influences génétique de compatibilité (`compatible genes') à la performance des descendants. Nous avons constaté que la dominance des mâles est directement liée à la taille et au poids des mâles (truites, vairons), mais également aux caractères sexuels secondaires (tubercules). De plus, les mâles vairons dominant ont eu un succès de fécondation plus élevés que les mâles subordonnés. Nous montrons que les truites et corégones mâles diffèrent dans leur qualité génétique, qui a été mesurée avéc la survie embryonnaire, le temps avant l'éclosion et enfin la croissance juvénile. Contrairement aux prédictions, la dominance (ou les traits indicatifs de dominance) n'était liée à la qualité génétique, dans aucun des traitements, et ne fonctionne donc pas comme indicateur de qualité. Par contre, la qualité génétique était liée aux caractères sexuels secondaires, particulièrement par la teinte mélanique chez les truites. Les embryons de truites issus de pères sombres survivaient mieux que ceux issus de pères clairs dans des environnements difficiles, de plus leur croissance était plus élevée lors de leur première année dans des conditions naturelles. La taille des juvéniles lors de leur première année est un trait important lié au succès dans la compétition pour des ressources telles qu'abri ou nourriture. De plus, les femelles truites peuvent augmenter la survie de leurs descendants en choisissant des mâles selon leur type de MHC ou selon leur degré de parenté. En outre, chez les corégones, la morphologie des tubercules sexuels ne semble pas signaler la qualité génétique. Nous avons également remarqué que l'exposition à des pathogènes non-létaux pouvait influencer la performance des alevins à court et long terme, probablement en affaiblissant leur système immunitaire. Cette thèse montre que les mâles diffèrent dans leur qualité génétique et que différents mécanismes de sélection inter- ou intra-sexuelle (par exemple la préférence pour des mâles sombres, pour des génotypes MHC ou pour des couples avec degré de parenté basse) pouvait avoir un effet positif sur la qualité des descendants, bien que cet effet génétique pouvait changer au cours du temps et entre différents environnements. Contrairement à nos attentes, le résultat de la compétition intra-sexuelle (la hiérarchie de dominance entre mâles) n'était pas lié à la qualité génétique individuelle ('good genes'). Dans ce sens, ce travail permet également de contribuer à l'explication du fait que la sélection sexuelle, de par sa forte sélection directionnelle, ne conduit pas à la diminution de la variance génétique, mais plutôt à la maintenance du polymorphisme génétique. Summary : Sexual selection mechanisms, especially male-male competition (inteasexual selection) and female mate choice (inteasexual selection), can strongly influence individual mating success, often resulting in dominant males and males with elaborate secondary sexual characters having higher fertilisation success. However, siring a high number of offspring alone does not guarantee high individual fitness, as fitness does also strongly depend on offspring performance (i.e. survival, fecundity). If this superiority in offspring performance depends on paternally inherited genes, the fathers are expected to signal this potential indirect benefit to females in order to attain high mating rates. This mechanism is also known as the 'good genes' hypothesis of sexual selection but until now most studies failed to conclusively show the relation of an individual genetic quality and its potential signalling traits. Further, offspring performance could also depend on compatible gene effects. These are alleles that increase offspring performance only in combination with other specific alleles. We first determined male dominance status from intrasexual competition during mating season for brown trout (Salmo trutta) and European minnows (Phoxinus phoxinus). For minnows we additionally checked if dominance and/or secondary sexual traits were linked to fertilisation success. Further, we artificially fertilised brown trout and alpine whitefish (Coregonus palaea) eggs, following full factorial breeding designs, enabling to properly measure `good gene' and `compatible gene' effects on offspring performance. This was done under different intensities of natural stressors, as well as under natural conditions. This procedure allowed us to test if the obtained male genetic quality measures (good genes effects) were indicated by a) dominance or lay traits linked to dominance and/or by b) secondary sexual characteristics such as melanin-based male skin darkness or breeding tubercles. Further, we investigated if offspring survival was linked to the MHC (major histocompatibility complex) gene combinations and/or to the parental genetic relatedness, as both traits were shown to have 'compatible gene' effects that may influence offspring performance. We found that male dominance in intrasexual competition was positively linked to body size, body weight (brown trout, minnows) but also to elaborate secondary sexual characteristics (breeding tubercles in minnows). Further, dominant minnow males did have an increased fertilisation success compared to subordinate ones. We show that brown trout and whitefish males do usually differ in their genetic quality, which was measured as embryo survival, hatching timing and finally as juvenile growth. Contrary to prediction male dominance or dominance indicating traits do not function as a quality signal as they were not linked to genetic quality. This result was constant when measuring genetic quality under different levels of natural stressors and under natural conditions (brown trout). On the other hand genetic quality seemed to be indicated by secondary sexual characteristics, specifically by melanin-based skin darkness in brown trout as brown trout embryos sired by darker fathers had increased survival rates when raised under harsh conditions and. they grew larger as juveniles after one year of growth in a natural stream, which is an important trait influencing success of juveniles in competition for hidings, food and other resources. Furthermore, brown trout females may increase the survival of their embryos when choosing males according to their MHC genotypes or to the general genetic relatedness between themselves and their potential mates. In whitefish on the other hand breeding tubercle morphology did not seem to signal genetic quality. Eventually, we saw that anon-lethal exposure to pathogens might influence short term and long term offspring performance probably by weakening an exposed individual's immune system. This thesis shows that males usually differ in their genetic quality and that different inter- or intrasexual selection mechanisms (e.g. mate selection favouring dark males, preference for MHC genotype combinations or for unrelated mates) may have strong positive effects on genetically dependent offspring performance but that such genetìc effects can change over time and environments. In contrast to our a priori expectations, the outcome of intrasexual selection, namely male dominance hierarchies, with dominant males often having high fertilisation success, was not linked to individual genetic quality (`good genes'). In this sense the present thesis may also be a helpful contribution to understand why sexual selection does not lead to rapid loss of genetic variation by strong directional selection but could even lead to the maintenance of genetic variation in natural populations.
Resumo:
Nous décrivons dans cet article la pratique de l'expertise psychiatrique pénale telle qu'elle est effectuée au centre d'expertises de l'Institut de psychiatrie légale du département de psychiatrie du CHUV à Lausanne. Y est notamment abordée la question de la place réservée à l'utilisation d'instruments d'évaluation du risque de récidive. Qu'ils soient actuariels ou à type de raisonnement clinique structuré, ces instruments nous paraissent pouvoir trouver à s'inscrire dans une démarche méthodologique rigoureuse, dans la mesure où celle-ci se déploie dans une perspective qui reste fondée sur la clinique.
Resumo:
Sur mandat de l'Office fédéral de la santé publique, l'Institut d'économie et de management de la santé de l'Université de Lausanne a conduit trois premières études visant à valider de nouveaux indicateurs dans le domaine des soins ambulatoires.[Intertitres] Hospitalisations potentiellement évitables. Identification des maladies. Mesure de l'impact des soins sur l'état de santé. [Graphiques] G1. Taux d'hospitalisation potentiellement évitables par région (2005). G2. Indicateurs de performance du système de santé ambulatoire. G3. Scores de guérison, appliqués aux patients souffrant de bronchite chronique et d'asthme.
Resumo:
AbstractCancer treatment has shifted from cytotoxic and nonspecific chemotherapy to chronic treatment with targeted molecular therapies. These new classes of drugs directed against cancer-specific molecules and signaling pathways, act at a particular level of the tumor cell development. However, in both types of therapeutic approaches (standard cytotoxic chemotherapy and targeted signal transduction inhibitions), toxicity and side effects can occur. The aim of this thesis was to investigate various approaches to improve the activity and tolerability of cancer treatment, in a clinical setting, a) by molecular targeting through the use of tyrosine kinase inhibitors (TKIs), whose dosage can be adapted to each patient according to plasma levels, and, b) in a preclinical model, by tissue targeting with locoregional administration of cytotoxic chemotherapy to increase drug exposure in the target tissue while reducing systemic toxicity of the treatment.A comprehensive program for the Therapeutic Drug Monitoring (TDM) of the new class of targeted anticancer drugs of TKIs in patient's blood has been therefore initiated comprising the setting up, validation and clinical application of a multiplex assay by liquid chromatography coupled to tandem mass spectrometry of TKIs in plasma from cancer patients. Information on drugs exposure may be clinically useful for an optimal follow-up of patients' anticancer treatment, especially in case of less than optimal clinical response, occurrence of adverse drug reaction effects and the numerous risks of drug-drug interactions. In this context, better knowledge of the potential drug interactions between TKIs and widely prescribed co- medications is of critical importance for clinicians, to improve their daily care of cancer patients. For one of the first TKI imatinib, TDM interpretation is nowadays based on total plasma concentrations but, only the unbound (free) form is likely to enter cell to exert its pharmacological action. Pharmacokinetic analysis of the total and free plasma level of imatinib measured simultaneously in patients have allowed to refine and validate a population pharmacokinetic model integrating factors influencing in patients the exposure of pharmacological active species. The equation developed from this model may be used for extrapolating free imatinib plasma concentration based on the total plasma levels that are currently measured in TDM from patients. Finally, the specific influence of Pglycoprotein on the intracellular disposition of TKIs has been studies in cell systems using the siRNA silencing approach.Another approach to enhance the selectivity of anticancer treatment may be achieved by the loco-regional administration of a cytostatic agent to the target organ while sparing non- affected tissues. Isolated lung perfusion (ILP) was designed for the treatment of loco-regional malignancies of the lung but clinical results have been so far disappointing. It has been shown in a preclinical model in rats that ILP with the cytotoxic agent doxorubicin alone allows a high drug uptake in lung tissue, and a low systemic toxicity, but was characterized by a high spatial tissular heterogeneity in drug exposure and doxorubicin uptake in tumor was comparatively smaller than in normal lung tissue. Photodynamic therapy (PDT) is a new approach for the treatment of superficial tumors, and implies the application of a sensitizer activated by a laser light at a specific wavelength, that disrupts endothelial barrier of tumor vessels to increase locally the distribution of cytostatics into the tumor tissue. PDT pre-treatment before intravenous administration of liposomal doxorubicin was indeed shown to selectively increase drug uptake in tumors in a rat model of sarcoma tumors to the lung.RésuméLe traitement de certains cancers s'est progressivement transformé et est passé de la chimiothérapie, cytotoxique et non spécifique, au traitement chronique des patients avec des thérapies moléculaires ciblées. Ces médicaments ont une action ciblée en interférant à un niveau spécifique du développement de la cellule tumorale. Dans les deux types d'approches thérapeutiques (chimiothérapie cytotoxique et traitements ciblés), on est confronté à la présence de toxicité et aux effets secondaires du traitement anticancéreux. Le but de cette thèse a donc été d'étudier diverses approches visant à améliorer l'efficacité et la tolérabilité du traitement anticancéreux, a) dans le cadre d'une recherche clinique, par le ciblage moléculaire grâce aux inhibiteurs de tyrosines kinases (TKIs) dont la posologie est adaptée à chaque patient, et b) dans un modèle préclinique, par le ciblage tissulaire grâce à l'administration locorégionale de chimiothérapie cytotoxique, afin d'augmenter l'exposition dans le tissu cible et de réduire la toxicité systémique du traitement.Un programme de recherche sur le suivi thérapeutique (Therapeutic Drug Monitoring, TDM) des inhibiteurs de tyrosine kinases a été ainsi mis en place et a impliqué le développement, la validation et l'application clinique d'une méthode multiplex par chromatographie liquide couplée à la spectrométrie de masse en tandem des TKIs chez les patients souffrant de cancer. L'information fournie par le TDM sur l'exposition des patients aux traitements ciblés est cliniquement utile et est susceptible d'optimiser la dose administrée, notamment dans les cas où la réponse clinique au traitement des patients est sous-optimale, en présence d'effets secondaires du traitement ciblé, ou lorsque des risques d'interactions médicamenteuses sont suspectés. Dans ce contexte, l'étude des interactions entre les TKIs et les co-médications couramment associées est utile pour les cliniciens en charge d'améliorer au jour le jour la prise en charge du traitement anticancéreux. Pour le premier TKI imatinib, l'interprétation TDM est actuellement basée sur la mesure des concentrations plasmatiques totales alors que seule la fraction libre (médicament non lié aux protéines plasmatiques circulantes) est susceptible de pénétrer dans la cellule pour exercer son action pharmacologique. L'analyse pharmacocinétique des taux plasmatiques totaux et libres d'imatinib mesurés simultanément chez les patients a permis d'affiner et de valider un modèle de pharmacocinétique de population qui intègre les facteurs influençant l'exposition à la fraction de médicament pharmacologiquement active. L'équation développée à partir de ce modèle permet d'extrapoler les concentrations libres d'imatinib à partir des concentrations plasmatiques totales qui sont actuellement mesurées lors du TDM des patients. Finalement, l'influence de la P-glycoprotéine sur la disposition cellulaire des TKIs a été étudiée dans un modèle cellulaire utilisant l'approche par la technologie du siRNA permettant de bloquer sélectivement l'expression du gène de cette protéine d'efflux des médicaments.Une autre approche pour augmenter la sélectivité du traitement anticancéreux consiste en une administration loco-régionale d'un agent cytostatique directement au sein de l'organe cible tout en préservant les tissus sains. La perfusion isolée du poumon (ILP) a été conçue pour le traitement loco-régional des cancers affectant les tissus pulmonaires mais les résultats cliniques ont été jusqu'à ce jour décevants. Dans des modèles précliniques chez le rat, il a pu être démontré que l'ILP avec la doxorubicine, un agent cytotoxique, administré seul, permet une exposition élevée au niveau du tissu pulmonaire, et une faible toxicité systémique. Toutefois, cette technique est caractérisée par une importante variabilité de la distribution dans les tissus pulmonaires et une pénétration du médicament au sein de la tumeur comparativement plus faible que dans les tissus sains.La thérapie photodynamique (PDT) est une nouvelle approche pour le traitement des tumeurs superficielles, qui consiste en l'application d'un agent sensibilisateur activé par une lumière laser de longueur d'onde spécifique, qui perturbe l'intégrité physiologique de la barrière endothéliale des vaisseaux alimentant la tumeur et permet d'augmenter localement la pénétration des agents cytostatiques.Nos études ont montré qu'un pré-traitement par PDT permet d'augmenter sélectivement l'absorption de doxorubicine dans les tumeurs lors d'administration i.v. de doxorubicine liposomale dans un modèle de sarcome de poumons de rongeurs.Résumé large publicDepuis une dizaine d'année, le traitement de certains cancers s'est progressivement transformé et les patients qui devaient jusqu'alors subir des chimiothérapies, toxiques et non spécifiques, peuvent maintenant bénéficier de traitements chroniques avec des thérapies ciblées. Avec les deux types d'approches thérapeutiques, on reste cependant confronté à la toxicité et aux effets secondaires du traitement.Le but de cette thèse a été d'étudier chez les patients et dans des modèles précliniques les diverses approches visant à améliorer l'activité et la tolérance des traitements à travers un meilleur ciblage de la thérapie anticancéreuse. Cet effort de recherche nous a conduits à nous intéresser à l'optimisation du traitement par les inhibiteurs de tyrosines kinases (TKIs), une nouvelle génération d'agents anticancéreux ciblés agissant sélectivement sur les cellules tumorales, en particulier chez les patients souffrant de leucémie myéloïde chronique et de tumeurs stromales gastro-intestinales. L'activité clinique ainsi que la toxicité de ces TKIs paraissent dépendre non pas de la dose de médicament administrée, mais de la quantité de médicaments circulant dans le sang auxquelles les tumeurs cancéreuses sont exposées et qui varient beaucoup d'un patient à l'autre. A cet effet, nous avons développé une méthode par chromatographie couplée à la spectrométrie de masse pour mesurer chez les patients les taux de médicaments de la classe des TKIs dans la perspective de piloter le traitement par une approche de suivi thérapeutique (Therapeutic Drug Monitoring, TDM). Le TDM repose sur la mesure de la quantité de médicament dans le sang d'un patient dans le but d'adapter individuellement la posologie la plus appropriée: des quantités insuffisantes de médicament dans le sang peuvent conduire à un échec thérapeutique alors qu'un taux sanguin excessif peut entraîner des manifestations toxiques.Dans une seconde partie préclinique, nous nous sommes concentrés sur l'optimisation de la chimiothérapie loco-régionale dans un modèle de sarcome du poumon chez le rat, afin d'augmenter l'exposition dans la tumeur tout en réduisant la toxicité dans les tissus non affectés.La perfusion isolée du poumon (ILP) permet d'administrer un médicament anticancéreux cytotoxique comme la doxorubicine, sélectivement au niveau le tissu pulmonaire où sont généralement localisées les métastases de sarcome. L'administration par ILP de doxorubicine, toxique pour le coeur, a permis une forte accumulation des médicaments dans le poumon, tout en épargnant le coeur. Il a été malheureusement constaté que la doxorubicine ne pénètre que faiblement dans la tumeur sarcomateuse, témoignant des réponses cliniques décevantes observées avec cette approche en clinique. Nous avons ainsi étudié l'impact sur la pénétration tumorale de l'association d'une chimiothérapie cytotoxique avec la thérapie photodynamique (PDT) qui consiste en l'irradiation spécifique du tissu-cible cancéreux, après l'administration d'un agent photosensibilisateur. Dans ce modèle animal, nous avons observé qu'un traitement par PDT permet effectivement d'augmenter de façon sélective l'accumulation de doxorubicine dans les tumeurs lors d'administration intraveineuse de médicament.
Resumo:
In Andalusia, Spain, the pandemic influenza A(H1N1)v virus has spread throughout the community, being the dominant influenza strain in the season so far. The current objective of the Andalusia Health Service is focussed on the mitigation of the health and social impact by appropriate care of the patients at home or in health centres. The 2009-10 seasonal influenza epidemic started early compared with to previous seasons. This article analyses the influenza A(H1N1)v situation in Andalusia until the week 39/2009.
Resumo:
Cet article soutient l'idée que le travail du deuil peut être riche de possibilités pour repenser la communauté et les relations internationales, et que la " guerre préventive " ainsi que la déréalisation de la perte concourent à miner les liens humains fondamentaux. L'expérience du deuil est à même de révéler les modes sur lesquels le self est fait de relations intériorisées, si bien que lorsque nous perdons des êtres, nous perdons et altérons une part de nous-mêmes. Faire le deuil pourrait déboucher sur une option : la non-violence. A soutenir l'insoutenable quand nous perdons quelqu'un, nous pouvons devenir capables d'une plus grande sollicitude envers les pertes subies par les autres, et en particulier, les pertes causées par notre propre recours à la violence. La distinction entre des vies " qui valent la peine d'être pleurées " et d'autres " qui ne valent pas une larme " est révélatrice de la distribution géopolitique différentielle de la mélancolie, ainsi que des cadres raciaux et ethniques qui font et défont l'humain en sa possibilité d'être pleuré. Voici qui laisse entrevoir une manière de faire le lien entre un concept psychanalytique de la formation du sujet, concept pétri de politique, et une politique soucieuse de tout ce qu'il y a d'inacceptable à mourir sous les frappes militaires. La théorie féministe est centrale à cette conception, dans la mesure où elle met tout particulièrement l'accent sur un sujet incarné, vulnérable à la violence, qui ne peut émerger que dans le contexte d'une dépendance physique fondamentale.
Resumo:
Thesenhafte Zusammenfassung 1. Geschäftsmethoden ist urheberrechtlicher Schutz zu versagen. Vordergründig lässt sich die Schutzversagung mit dem Fehlen von Schutzvoraussetzungen er¬klären. Soweit es an einem Bezug zu Literatur, Wissenschaft oder Kunst man¬gelt, ist Schutz nach § 1 UrhG zu verwehren. Im Übrigen scheitert ein Schutz von Geschäftsmethoden in aller Regel an § 2 Abs. 2 UrhG. Angesichts ihrer Ausrichtung am Effizienzziel orientieren sich Geschäftsmethoden an Vorgege¬benem bzw. an Zweckmäßigkeitsüberlegungen, so dass Individualität ausschei¬det. Hintergrund sind jedoch Legitimierungsüberlegungen: Schutz ist mit Blick auf das Interesse der Allgemeinheit zu versagen, das auf ein Freibleiben von Geschäftsmethoden gerichtet ist und das Interesse des Entwicklers einer Geschäftsmethode an Ausschließlichkeit überwiegt. 2. Die Berücksichtigung der Interessen der Allgemeinheit ist durch Art. 14 Abs. 2 verfassungsrechtlich geboten. Im Urheberrechtsgesetz drückt sie sich vor allem in den Schrankenregelungen der §§ 44a ff. UrhG aus. Die Allgemeininteressen sind darüber hinaus auch auf der Ebene der Entstehung des Rechts zu berück¬sichtigen. Bei der Ermittlung der Interessen der Allgemeinheit sind auch öko¬nomische Überlegungen anzustellen und die wettbewerbsmäßigen Auswirkun¬gen eines Sonderrechtsschutzes zu berücksichtigen. 3. Im Bereich des urheberrechtlichen Datenbankschutzes konnte der Schutz von Geschäftsmethoden hinsichtlich der Auswahl oder Anordnung von Daten bisher durch das Erfordernis einer besonderen Gestaltungshöhe im Rahmen der Schutzvoraussetzung der Individualität verhindert werden. 4. Nach der Umsetzung der Datenbankrichtlinie kommt es infolge der Absenkung der Gestaltungshi5he hin zu einer einfachen Individualität sowie durch die Ein¬beziehung des konzeptionellen Modells in den urheberrechtlichen Schutzbereich vermehrt zu einem indirekten und direkten Schutz von Methoden. Das stellt einen Verstoß gegen die in Art. 9 Abs. 2 TRIPs statuierte Schutzfreiheit von Methoden dar. Auch wenn die Frage der unmittelbaren Anwendbarkeit dieser Norm noch nicht abschließend geklärt ist, hat das deutsche Urheberrechtsgesetz sie doch insofern zu berücksichtigen, als eine konventionsfreundliche Auslegung des Urheberrechtsgesetzes geboten ist. 5. Die bloße "Implementierung" von Geschäftsmethoden in Datenbanken darf nicht zum Schutz eines Gegenstandes führen, dem der Schutz an sich versagt ist. 6. Im Rahmen des Datenbankschutzes eine Monopolisierung von Methoden zuzulassen ist auch im Hinblick auf Art. 3 GG nicht unproblematisch. Denn Geschäftsmethoden, die anderen Werkarten zugrunde liegen, ist dieser Schutz weiterhin versagt, ohne dass ein sachlicher Grund für eine solche Differenzierung erkennbar wäre. 7. Überdies kann sich die Monopolisierung von Auswahl- und Anordnungsmethoden auch negativ auf die Informationsfreiheit auswirken. Es kann faktisch zu Monopolen an den in der Datenbank enthaltenen Informationen kommen. 8. Der Monopolisierung von Geschäftsmethoden zur Auswahl oder Anordnung von Daten ist daher entgegenzutreten. 9. Lösungen, die erst auf der Rechtsfolgenseite ansetzen, indem sie solche Methoden zwar als schutzbegründend ansehen, den Schutzumfang aber beschränken, sind abzulehnen. Sie durchbrechen den axiomatischen Zusammenhang zwischen Schutzbegründung und -umfang und führen dadurch zu willkürlichen Ergebnissen. Auch aus Anreizgesichtspunkten können sie nicht überzeugen. 10. Schutz ist bereits auf Tatbestandsebene zu versagen. 11. Die Schutzfreiheit von Geschäftsmethoden im Bereich des Datenbankschutzes kann dabei nicht durch eine Rückkehr zum Erfordernis einer besonderen Gestaltungshöhe erreicht werden. Dem steht der Wortlaut des Art. 3 Abs. 1 S. 2 der Datenbankrichtlinie ("keine anderen Kriterien") entgegen. Abgesehen davon ist das Individualitätskriterium auch nicht das geeignete Mittel, die Schutzfreiheit von Geschäftsmethoden zu gewährleisten: Zum einen erweist es sich als anfällig für Eingriffe seitens des Europäischen Gesetzgebers. Zum anderen kann es - da es an die sich im Werk ausdrückende Persönlichkeit des Urhebers anknüpft - insoweit nicht weiterhelfen, als Schutz nicht mangels Eigenpersönlichkeit, sondern aufgrund fehlender Legitimierbarkeit nach einer Interessenabwägung versagt wird. 12. Die Schutzfreiheit von Methoden sollte daher unabhängig von den Schutzvoraussetzungen, namentlich der Individualität, statuiert werden. 13. De lege lata kann das durch die Einführung eines ungeschriebenen negativen Tatbestandmerkmals geschehen. Dafür spricht die Regelung des § 69a Abs. 2 S. 2 UrhG, die für Computerprogramme die Schutzfreiheit von Ideen statuiert. Ein Verstoß gegen Art. 3 Abs. 1 S. 2 der Datenbankrichtlinie ("keine anderen Kriterien") kann einem solchen Tatbestandsmerkmal nicht entgegengehalten werden. Denn mit dem Ausschluss anderer Kriterien wollte der Europäische Gesetzgeber nur dem Erfordernis einer besonderen Gestaltungshöhe Einhalt gebieten, nicht aber die Tür für einen Methodenschutz öffnen. Ein dahingehender Wille darf ihm mit Blick auf Art. 9 Abs. 2 TRIPs auch nicht unterstellt werden. Die Schutzfreiheit sollte jedoch - anders als bei § 69a Abs. 2 S. 2 UrhG - schon auf Tatbestandsebene verankert werden. Ein solches Tatbestandsmerkmal könnte lauten: "Der Auswahl oder Anordnung zugrundeliegende abstrakte Methoden sowie solche konkreten Methoden, die sich an Vorgegebenem oder Zweckmäßigkeitsüberlegungen orientieren, können einen Schutz nach dieser Vorschrift nicht begründen." 14. Aus Gründen der Rechtsklarheit sollte de lege ferenda - wie im Patentrecht - die Schutzfreiheit von Geschäftsmethoden ausdrücklich und allgemein im Urheberrechtsgesetz festgeschrieben werden. Dafür sollte § 2 UrhG ein entsprechender Absatz 3 angefügt werden. Er könnte lauten: "Geschäftliche Methoden können einen Schutz nach diesem Gesetz nicht begründen 15. Soweit Datenbanken urheberrechtlicher Schutz mit Blick auf die Schutzfreiheit von Geschäftsmethoden versagt werden muss, verbleibt jedoch die Möglichkeit eines Schutzes nach den §§ 87a ff. UrhG. Dieser Schutz wird allein aufgrund einer wesentlichen Investition gewahrt. Die wirtschaftlich wertvollen auf Vollständigkeit angelegten Datenbanken werden dem sui-generis-Schutz regelmäßig unterfallen, so dass ausreichende Anreize zur Schaffung von Faktendatenbanken bestehen. Auch auf internationaler Ebene scheint dieses zweigleisige Sys¬tem Anklang zu finden, wie Reformarbeiten zur Einführung eines sui-generis-Schutzes für Datenbanken im Rahmen der WIPO belegen. Résumé sous forme de thèses 1. Une protection juridique des méthodes commerciales au sein du droit d'auteur doit être refusée. Au premier plan, le refus de protection peut être expliqué par un manque de conditions. S'il n'y a pas de référence dans la littérature, les sciences ou les arts, une protection doit être rejetée selon l'art. 1 de la législation allemande sur le droit d'auteur. D'ailleurs, une protection des méthodes commerciales sera interrompue en toute règle à cause de l'art. 2 al. 2 de la législation sur le droit d'auteur. Comme elles poursuivent l'objectif de l'efficacité, les méthodes commerciales se réfèrent à des faits donnés et/ou à des considérations d'utilité ce qui exclut l'individualité. En arrière-plan, cependant, il y a des considérations de légitimité. La protection doit être rejetée étant donné l'intérêt du public, qui est orienté vers un manque de protection des méthodes commerciales. Cet intérêt du public est prépondérant l'intérêt du fabricant, qui est dirigé vers une exclusivité sur la méthode commerciale. 2. La prise en considération des intérêts du public est imposée par l'art. 14 al. 2 de la Constitution allemande. Dans la loi sur le droit d'auteur, elle s'exprime avant tout dans les règlements restrictifs des art. 44a et suivants. Les intérêts du public doivent d'ailleurs être considérés au niveau de la formation du droit. En évaluant les intérêts du public, il est utile de considérer aussi les conséquences économiques et celles d'une protection particulière du droit d'auteur au niveau de la concurrence. 3. Dans le domaine de la protection des bases de données fondé dans le droit d'auteur, une protection des méthodes commerciales a pu été empêchée jusqu'à présent en vue du choix ou de la disposition de données par l'exigence d'un niveau d'originalité particulier dans le cadre des conditions de protection de l'individualité. 4. La mise en pratique de la directive sur les bases de données a abouti de plus en plus à une protection directe et indirecte des méthodes en conséquence de la réduction des exigences de l'originalité vers une simple individualité ainsi que par l'intégration du modèle conceptionnel dans le champ de protection du droit d'auteur. Cela représente une infraction contre l'exclusion de la protection des méthodes commerciales stipulée dans l'art. 9 al. 2 des Accords ADPIC (aspects des droits de propriété intellectuelle qui touchent au commerce), respectivement TRIPS. Même si la question de l'application directe de cette norme n'est pas finalement clarifiée, la législation allemande sur le droit d'auteur doit la considérer dans la mesure où une interprétation favorable aux conventions de la législation du droit d'auteur est impérative. 5. La simple mise en pratique des méthodes commerciales sur des bases de données ne doit pas aboutir à la protection d'une chose, si cette protection est en effet refusée. 6. En vue de l'art. 3 de la Constitution, il est en plus problématique de permettre une monopolisation des méthodes au sein de la protection de bases de données. Car, des méthodes commerciales qui sont basées sur d'autres types d'oeuvres, n'ont toujours pas droit à cette protection, sans qu'une raison objective pour une telle différenciation soit évidente. 7. En plus, une monopolisation des méthodes pour le choix ou la disposition des données peut amener des conséquences négatives sur la liberté d'information. En effet, cela peut entraîner des monopoles des informations contenues dans la base de données. 8. Une monopolisation des méthodes commerciales pour le choix ou la disposition des données doit donc être rejetée. 9. Des solutions présentées seulement au niveau des effets juridiques en considérant, certes, ces méthodes comme justifiant une protection, mais en même temps limitant l'étendue de la protection, doivent être refusées. Elles rompent le contexte axiomatique entre la justification et l'étendue de la protection et aboutissent ainsi à des résultats arbitraires. L'argument de créer ainsi des stimulants commerciaux n'est pas convaincant non plus. 10. La protection doit être refusée déjà au niveau de l'état de choses. 11. Une exclusion de la protection des méthodes commerciales dans le domaine des bases de données ne peut pas être atteinte par un retour à l'exigence d'un niveau d'originalité particulier. Le texte de l'art 3 al. 1 p. 2 de la directive sur les bases de données s'oppose à cela (« aucun autre critère »). A part cela, le critère de l'individualité n'est pas non plus le moyen propre pour garantir une exclusion de la protection des méthodes commerciales. D'un côté, ce critère est susceptible d'une intervention par le législateur européen. D'un autre côté, il n'est pas utile, comme il est lié à la personnalité de l'auteur exprimé dans l'oeuvre, dans la mesure où la protection n'est pas refusée pour manque d'individualité mais pour manque de légitimité constaté après une évaluation des intérêts. 12. L'exclusion de la protection des méthodes devra donc être stipulée indépendamment des conditions de protection, à savoir l'individualité. 13. De lege lata cela pourra se faire par l'introduction d'un élément constitutif négatif non écrit. Cette approche est supportée par le règlement dans l'art. 69a al. 2 p. 2 de la législation allemande sur le droit d'auteur qui stipule l'exclusion de la protection des idées pour des programmes d'ordinateur. Un tel élément constitutif ne représente pas d'infraction à l'art. 3 al. 1 p. 2 de la directive sur les bases de données (« aucun autre critère »). En excluant d'autres critères, le législateur européen n'a voulu qu'éviter l'exigence d'un niveau d'originalité particulier et non pas ouvrir la porte à une protection des méthodes. En vue de l'art. 9 al. 2 des Accords TRIPs, il ne faut pas prêter une telle intention au législateur européen. Cependant, l'exclusion de la protection devrait - autre que dans le cas de l'art. 69a al. 2 p. 2 de la législation allemande sur le droit d'auteur - être ancrée déjà au niveau de l'état de choses. Un tel élément constitutif pourrait s'énoncer comme suit : « Des méthodes abstraites se référant au choix ou à la disposition de données ainsi que des méthodes concrètes s'orientant à des faits donnés ou à des considérations d'utilité ne peuvent pas justifier une protection selon ce règlement. » 14. Pour assurer une clarté du droit, une exclusion de la protection des méthodes commerciales devrait de lege ferenda - comme dans la législation sur les brevets - être stipulée expressément et généralement dans la législation sur le droit d'auteur. Un troisième alinéa correspondant devrait être ajouté. Il pourrait s'énoncer comme suit : « Des méthodes commerciales ne peuvent pas justifier une protection selon cette loi ». 15. S'il faut refuser aux bases de données une protection au sein du droit d'auteur en vue de l'exclusion de la protection pour des méthodes commerciales, il est quand même possible d'accorder une protection selon les articles 87a et suivants de la législation allemande sur le droit d'auteur. Cette protection est uniquement accordée en cas d'un investissement substantiel. Les bases de données ayant une grande importance économique et s'orientant vers l'intégralité seront régulièrement soumises à la protection sui generis de sorte qu'il y ait de suffisants stimulants pour la fabrication de bases de données de faits. Ce système à double voie semble également rencontrer de l'intérêt au niveau international, comme le prouvent des travaux de réforme pour l'introduction d'une protection sui generis pour des bases de données au sein de l'OMPI.