295 resultados para sans-serifer
Resumo:
RESUMELes troubles des conduites alimentaires atypiques (TCAA) représentent une catégorie diagnostique émergente, relativement peu décrite. Ils regroupent des tableaux cliniques ne satisfaisant pas entièrement aux critères des troubles alimentaires typiques anorexie et boulimie. Désignés par le terme de EDNOS' dans le DSM-IV2 (American Psychiatrie Association, 1994), ils sont appelés troubles atypiques dans la CIM-103 (World Health Organization, 1993).Les TCAA représentent la majorité des demandes dans les consultations pour troubles alimentaires, concernent une grande proportion de la population non-consultante et constituent un enjeu de santé publique prioritaire.Cette étude se penche sur le parcours de 24 jeunes filles présentant de tels troubles, qui ont été suivies dans le cadre d'un groupe thérapeutique à l'UMSA (Unité Multidisciplinaire de Santé des Adolescents, CHUV, Lausanne). Elle a pour but de mieux connaître ces troubles alimentaires atypiques.Deux axes de questions de recherche organisent ce travail: le premier, orienté autour du trouble alimentaire atypique, de sa définition (avec les questions de classification diagnostique) et de son évolution (avec les questions de passages d'une catégorie à une autre), le second autour du groupe thérapeutique, de son utilité et de ses indications.1. Résultats cliniquesLes résultats de l'analyse thématique décrivent un trouble important, qui induit une souffrance plus intense que ne tendraient à le laisser penser la relative banalité de la présentation clinique en comparaison des troubles typiques ainsi que la catégorisation en tant que troubles résiduels. Des moyens compensatoires -qui visent au maintien d'un poids stable en dépit des crises alimentaires ainsi qu'à la perte de poids, soit par des méthodes non-purgatives (restrictions massives, diètes, jeûnes, pratique du sport à outrance), soit par des méthodes purgatives (vomissements auto-induits, usage de laxatifs, diurétiques) - sont présents chez 15 participantes, sous forme de vomissements chez 6 d'entre elles. Seize participantes ont présenté des troubles des menstruations. Des difficultés de la lignée anxio-dépressive sont relevées chez la moitié des participantes, alliées à un perfectionnisme important. L'estime de soi apparaît globalement basse, excessivement influencée par l'insatisfaction attachée au poids et aux formes corporelles. L'analyse fait clairement apparaître le lien complexe unissant les attitudes face à l'alimentation et le désir de maigrir aux crises de frénésie alimentaire. Les crises permettent aux patientes de moduler leurs émotions, tant .positives que négatives. Le vécu de la maladie et des préoccupations pour le corps et l'alimentation semble généralisable. et «transcatégorique», bien que les troubles alimentaires de l'ordre de l'anorexie atypique restrictive, du fait de l'absence de crises de frénésie, semblent appartenir à un registre différent des troubles avec perte de contrôle sur l'alimentation et crises, notamment en termes d'implications dans la vie quotidienne.Lorsque les participantes sont revues (au minimum un an après la sortie du groupe thérapeutique), 15 d'entre elles sont indemnes de tout symptôme, 5 présentent encore un TCAA type boulimie atypique, et 4 ont parfois des crises résiduelles. Des préoccupations pour l'alimentation et le poids subsistent. Le pronostic d'évolution n'apparaît lié ni à la durée de participation au groupe, ni uniquement à la catégorie diagnostique ou aux seuls éléments de co-morbidité, mais davantage à un investissement rapidement positif du groupe, ainsi qu'à la qualité des prises en charge parallèles en présence d'éléments de co-morbidité importants ou d'antécédents d'autres troubles alimentaires.Notre collectif atteste de passages d'une catégorie de trouble à une autre (anorexie puis boulimie, comme décrit dans la littérature) et de changements d'intensité (trouble typique puis atypique) au cours de la maladie, confirmant un continuum possible, tant entre les troubles typiques, qu'entre les troubles typiques et atypiques. Néanmoins, la multiplicité des parcours possibles dans la maladie, ainsi que l'existence de formes stables, sans passages d'une catégorie à une autre, incite à la prudence et ne permet pas de confirmer en tout point l'hypothèse de la nature dimensionnelle (même nature, intensité différente) des troubles alimentaires.Le trouble atypique représente parfois une étape dans l'évolution à partir d'un trouble typique, pouvant être envisagé comme moment sur le chemin de la guérison, ce qui pose la question des critères de guérison.2. Nature des troubles alimentaires atypiquesDu collectif émergent 4 catégories diagnostiques de troubles alimentaires atypiques: hyperphagie boulimique, boulimie atypique non-purgative, boulimie atypique purgative et anorexie atypique restrictive. Le tableau clinique.de l'hyperphagie boulimique comporte des crises de boulimie, mais peu de préoccupations concernant le poids et les formes corporelles en compá= raison des 3 autres catégories, et pas de moyens de compensation des crises, ce qui induit fréquemment un surpoids voire une obésité pour les patientes concernées. Les moyens de compensation des crises de boulimie demeurent non-purgatives (jeûne, sport) dans la boulimie atypique non-purgative, alors que vomissements et usage de laxatifs suite aux crises caractérisent la boulimie atypique purgative. Le tableau clinique de l'anorexie atypique restrictive ne présente ni crises de boulimie ni moyens de compensation purgatifs type vomissements. Ces catégories sont retrouvées dans la littérature.Nos résultats rejoignent la littérature actuelle qui envisage la nécessité d'une reclassification des troubles alimentaires en vue du DSM-V. Dans l'intervalle, adopter la classification de la CIM et parler d'anorexie atypique, de -type restrictif ou avec crises, de boulimie atypique, purgative ou non, et y ajouter l'hyperphagie boulimique, rendrait mieux compte de la réalité clinique des troubles alimentaires atypiques que ne le fait la classe des EDNOS du DSM, peu différenciée, mêlant des tableaux très divers et au final insatisfaisante.3. Utilité et indication du groupeLe groupe recèle un fort pouvoir thérapeutique pour les patientes qui s'y impliquent. L'étayage sur les autres émerge comme facteur thérapeutique principal, ainsi que le décrit la littérature. Cette prise en charge thérapeutique convient particulièrement à des patientes présentant un trouble alimentaire sur le versant boulimique, comprenant l'hyperphagie boulimique, la boulimie atypique, purgative ou non, ainsi que certaines boulimies de moyenne gravité. Les patientes du collectif qui présentent des difficultés de l'ordre de l'anorexie atypique restrictive bénéficient moins du groupe que les participantes qui expérimentent des pertes de contrôle sur la nourriture.4. ImplicationsL'intensité de la souffrance, la complexité des tableaux symptomatiques, la diversité des parcours et les multiples répercussions sur la vie sociale démontrent l'importance de repérer et prendre en charge ces troubles alimentaires qui demeurent souvent banalisés. Dans cette perspective, la formation au dépistage, à l'évaluation et à la prise en charge des divers intervenants confrontés à ces troubles représente un enjeu majeur. .Enfin, dénoncer les pressions socioculturelles à la minceur et le dictat des régimes, promouvoir une notion de bien-être et une bonne estime de soi qui ne soient pas liées à l'apparence contribuera à prévenir les troubles alimentaires atypiques.
Resumo:
Although active personal dosemeters (APDs) are not used quite often in hospital environments, the possibility to assess the dose and/or dose rate in real time is particularly interesting in interventional radiology and cardiology (IR/IC) since operators can receive relatively high doses while standing close to the primary radiation field.A study concerning the optimization of the use of APDs in IR/IC was performed in the framework of the ORAMED project, a Collaborative Project (2008-2011) supported by the European Commission within its 7th Framework Program. This paper reports on tests performed with APDs on phantoms using an X-ray facility in a hospital environment and APDs worn by interventionalists during routine practice in different European hospitals.The behaviour of the APDs is more satisfactory in hospitals than in laboratories with respect to the influence of the tube peak high voltage and pulse width, because the APDs are tested in scattered fields with dose equivalent rates generally lower than 1 Sv.h(-1).
Resumo:
The second scientific workshop of the European Crohn's and Colitis Organization (ECCO) focused on the relevance of intestinal healing for the disease course of inflammatory bowel disease (IBD). The objective was to better understand basic mechanisms, markers for disease prediction, detection and monitoring of intestinal healing, impact of intestinal healing on the disease course of IBD as well as therapeutic strategies. The results of this workshop are presented in four separate manuscripts. This section describes basic mechanisms of intestinal healing, identifies open questions in the field and provides a framework for future studies.
Resumo:
RÉSUMÉ Le but d'un traitement antimicrobien est d'éradiquer une infection bactérienne. Cependant, il est souvent difficile d'en évaluer rapidement l'efficacité en utilisant les techniques standard. L'estimation de la viabilité bactérienne par marqueurs moléculaires permettrait d'accélérer le processus. Ce travail étudie donc la possibilité d'utiliser le RNA ribosomal (rRNA) à cet effet. Des cultures de Streptococcus gordonii sensibles (parent Wt) et tolérants (mutant Tol 1) à l'action bactéricide de la pénicilline ont été exposées à différents antibiotiques. La survie bactérienne au cours du temps a été déterminée en comparant deux méthodes. La méthode de référence par compte viable a été comparée à une méthode moléculaire consistant à amplifier par PCR quantitative en temps réel une partie du génome bactérien. La cible choisie devait refléter la viabilité cellulaire et par conséquent être synthétisée de manière constitutive lors de la vie de la bactérie et être détruite rapidement lors de la mort cellulaire. Le choix s'est porté sur un fragment du gène 16S-rRNA. Ce travail a permis de valider ce choix en corrélant ce marqueur moléculaire à la viabilité bactérienne au cours d'un traitement antibiotique bactéricide. De manière attendue, les S. gordonii sensibles à la pénicilline ont perdu ≥ 4 log10 CFU/ml après 48 heures de traitement par pénicilline alors que le mutant tolérant Tol1 en a perdu ≥ 1 log10 CFU/ml. De manière intéressant, la quantité de marqueur a augmenté proportionnellement au compte viable durant la phase de croissance bactérienne. Après administration du traitement antibiotique, l'évolution du marqueur dépendait de la capacité de la bactérie à survivre à l'action de l'antibiotique. Stable lors du traitement des souches tolérantes, la quantité de marqueur détectée diminuait de manière proportionnelle au compte viable lors du traitement des souches sensibles. Cette corrélation s'est confirmée lors de l'utilisation d'autres antibiotiques bactéricides. En conclusion, l'amplification par PCR du RNA ribosomal 16S permet d'évaluer rapidement la viabilité bactérienne au cours d'un traitement antibiotique en évitant le recours à la mise en culture dont les résultats ne sont obtenus qu'après plus de 24 heures. Cette méthode offre donc au clinicien une évaluation rapide de l'efficacité du traitement, particulièrement dans les situations, comme le choc septique, où l'initiation sans délai d'un traitement efficace est une des conditions essentielles du succès thérapeutique. ABSTRACT Assessing bacterial viability by molecular markers might help accelerate the measurement of antibiotic-induced killing. This study investigated whether ribosomal RNA (rRNA) could be suitable for this purpose. Cultures of penicillin-susceptible and penicillin-tolerant (Tol1 mutant) Streptococcus gordonii were exposed to mechanistically different penicillin and levofloxacin. Bacterial survival was assessed by viable counts, and compared to quantitative real-time PCR amplification of either the 16S-rRNA genes (rDNA) or the 16S rRNA, following reverse transcription. Penicillin-susceptible S. gordonii lost ≥ 4 log10 CFU/ml of viability over 48 h of penicillin treatment. In comparison, the Toll mutant lost ≤ 1 log10 CFU/ml. Amplification of a 427-base fragment of 16S rDNA yielded amplicons that increased proportionally to viable counts during bacterial growth, but did not decrease during drug-induced killing. In contrast, the same 427-base fragment amplified from 16S rDNA paralleled both bacterial growth and drug-induced killing. It also differentiated between penicillin-induced killing of the parent and the Toll mutant (≥4 log10 CFU/ml and ≤1 lo10 CFU/ml, respectively), and detected killing by mechanistically unrelated levofloxacin. Since large fragments of polynucleotides might be degraded faster than smaller fragments the experiments were repeated by amplifying a 119-base region internal to the origina1 427-base fragment. The amount of 119-base amplicons increased proportionally to viability during growth, but remained stable during drug treatment. Thus, 16S rRNA was a marker of antibiotic-induced killing, but the size of the amplified fragment was critical to differentiate between live and dead bacteria.
Resumo:
Within the ORAMED project (Optimization of Radiation Protection of Medical Staff) a coordinated measurement program for occupationally exposed medical staff was performed in different hospitals in Europe (www.oramed-fp7.eu). The main objective was to obtain a set of standardized data on extremity and eye lens doses for staff involved in interventional radiology and cardiology and to optimize radiation protection. Special attention was given to the measurement of the doses to the eye lenses. In this paper an overview will be given of the measured eye lens doses and the main influence factors for these doses. The measured eye lens doses are extrapolated to annual doses. The extrapolations showed that monitoringof the eye lens should be performed on routine basis.
Resumo:
Un travail consacré à la sculpture d'ornement implique de s'intéresser à un corps de métier qui n'a guère laissé de trace dans l'historiographie, les sculpteurs d'ornement. A Genève, un seul représentant de cette spécialité est passé à la postérité : Jean Jaquet (1754-1839). L'activité de celui-ci, couvrant les dernières décennies du XVIIIe et les premières années du XIXe siècle, apparaît par conséquent comme un moment de perfection de la sculpture d'ornement dans l'histoire de la République. Comment Jaquet, ce simple entrepreneur en décoration, est-il parvenu à acquérir une forme de notoriété et à entrer dans l'histoire de l'art genevoise ? En quoi son parcours professionnel se distingue-t-il de celui des autres sculpteurs d'ornement actifs à Genève au XVIIIe siècle, ses émules obscurs ? Afin de discuter ces questions, j'ai procédé en trois temps.D'abord, il a fallu se donner les moyens de connaître l'arrière-plan socio-professionnel. Un important travail de dépouillement de sources notamment des registres des permissions de séjour accordées par la Chambre des Etrangers - a permis de se faire une idée des rouages de l'entreprise de décoration, de l'activité des ateliers et de leur succession dans le temps. L'étude de la production reste néanmoins problématique. Le corpus de décorations conservées du XVIIIe siècle est en effet mal identifié et l'absence de documentation historique rend périlleuse toute tentative de classement par ateliers ou par tranches chronologiques. En raison de ces lacunes, il n'a pas paru opportun de chercher à présenter une vision globale de la décoration intérieures au XVIIIe siècle à Genève, ni de proposer une nouvelle carte des attributions. La deuxième partie de la thèse suit par conséquent un principe simple. En raison de l'omniprésence de Jaquet dans l'historiographie, elle analyse la manière dont le corpus de ses oeuvres a été constitué au fil des XIXe et XXe siècle. En d'autres termes, elle vise à déconstruire les mécanismes de l'attribution et à interroger la pertinence de ses critères. Une telle démarche permet de redessiner les contours de la production de décoration à Genève et d'en saisir les enjeux. Les ateliers ont-ils chacun leur manière propre - leur style propre ? Celui-ci se fonde-t-il sur l'expression d'une personnalité artistique autonome ? Ou leur production est-elle avant tout déterminée par une demande sociale stéréotypée, fondée sur la reproduction de modèles convenus ? Sans minimiser l'importance de Jaquet dans la décoration genevoise du XVIIIe siècle, ni la qualité de son travail, la deuxième partie de ce travail vise à révéler certaines faiblesses dans le système des attributions. Indirectement, cela permet de se faire une idée de l'apport d'autres entrepreneurs en ornement.Les deux premières parties posent les bases d'un discours critique sur les producteurs et leurs oeuvres. La troisième analyse, du XIXe au XXIe siècle, les modalités de la promotion et de la réception de Jaquet, en d'autres termes la construction de son image. Grâce à son ambition, le sculpteur s'est hissé au-dessus de sa condition. Parmi les entrepreneurs en décoration actifs à Genève, il est en effet le seul à avoir séjourné à l'étranger, fréquenté les académies, enseigné le dessin et fait quelques incursions dans le domaine de la sculpture figuriste. Par conséquent, il est aussi le seul à avoir une place dans l'histoire des Beaux-Arts, puis, à partir de la fin du XIXe siècle, dans celle des Arts décoratifs à Genève. Ni artiste de talent universel, ni ouvrier, Jaquet est un représentant de première qualité d'une catégorie professionnelle particulière, composée d'individus auxquels les historiens de l'art ne portent qu'un intérêt limité, parce qu'ils sont à la charnière des arts mécaniques et des arts libéraux.
Resumo:
Rapport de synthèse : Objectifs : évaluer la survie intra-hospitalière des patients présentant un infarctus du myocarde avec sus-décalage du segment ST admis dans les hôpitaux suisses entre 2000 et 2007, et identifier les paramètres prédictifs de mortalité intra-hospitalière et d'événements cardio-vasculaires majeurs (infarctus, réinfarctus, attaque cérébrale). Méthode : utilisation des données du registre national suisse AMIS Plus (Acute Myocardial lnfarction and Unstable Angina in Switzerland). Tous les patients admis pour un infarctus du myocarde avec sus-décalage du segment ST ou bloc de branche gauche nouveau dans un hôpital suisse participant au registre entre janvier 2000 et décembre 2007 ont été inclus. Résultats: nous avons étudié 12 026 patients présentant un infarctus du myocarde avec sus-décalage du segment ST ou bloc de branche gauche nouveau admis dans 54 hôpitaux suisses différents. L'âge moyen est de 64+-13 ans et 73% des patients inclus sont des hommes. L'incidence de mortalité intra-hospitalière est de 7.6% en 2000 et de 6% en 2007. Le taux de réinfarctus diminue de 3.7% en 2000 à 0.9% en 2007. L'utilisation de médicaments thrombolytiques chute de 40.2% à 2% entre 2000 et 2007. Les paramètres prédictifs cliniques de mortalité sont : un âge> 65-ans, une classe Killips Ill ou IV, un diabète et un infarctus du myocarde avec onde Q (au moment de la présentation). Les patients traités par revascularisation coronarienne percutanée ont un taux inférieur de mortalité et de réinfarctus (3.9% versus 11.2% et 1.1% versus 3.1%, respectivement, p<0.001) sur la période de temps étudiée. Le nombre de patients traités par revascularisation coronarienne percutanée augmente de 43% en 2000 à 85% en 2007. Les patients admis dans les hôpitaux bénéficiant d'une salle de cathétérisme cardiaque ont un taux de mortalité plus bas que les patients hopitalisés dans les centres sans salle de cathétérisme cardiaque. Mais les caractéristiques démographiques de ces deux populations sont très différentes. La mortalité intra-hospitalière ainsi que le taux de réinfarctus diminuent significativement au cours y de la période étudiée, parallèlement à l'augmentation de |'utilisation de la revascularisation coronarienne percutanée. La revascularisation coronarienne percutanée est le paramètre prédictif de survie le plus important. Conclusion: la mortalité intra-hospitalière et le taux de réinfarctus du myocarde ont diminué de manière significative chez les patients souffrant d'un infarctus du myocarde avec sus-décalage du segment ST au cours de ces sept dernières années, parallèlement à l'augmentation significative de la revascularisation coronarienne percutanée en plus de la thérapie médicamenteuse. La survie n'est È pas liée au lieu d'hospitalisation mais à l'accès à une revascularisation coronarienne percutanée.
Resumo:
La cicatrisation cutanée requiert de nombreux mécanismes et un nombre toujours croissant de molécules participant à ces réactions sont identifiées. La compréhension de cette cinétique et des différents facteurs impliqués dans ce processus permet d'accélérer la guérison des plaies. Certains facteurs de croissance (PDGF, FGF, EGF) ont déjà été utilisés localement sur des plaies mais leurs effets relatés sont inconsistants et contradictoires, probablement en raison de l'absence de cinétique ou de concentration physiologique. Les plaquettes jouent un rôle fondamental dans la cicatrisation cutanée, principalement par la formation du clou plaquettaire et le relargage de divers facteurs de croissance et de cytokines. De même, les kératinocytes ont un rôle similaire dans l'épithélialisation des plaies. Ainsi, l'apport de plaquettes et de kératinocytes sur une plaie pourrait accélérer sa cicatrisation. L'étude rapportée ici tente de vérifier si une solution de kératinocytes autologues en suspension dans un concentré plaquettaire ou un concentré plaquettaire seul pourrait stimuler la cicatrisation cutanée. Pour ce faire, nous avons comparé trois groupes de 15 patients bénéficiant, sur une prise de greffe de profondeur similaire, d'un traitement standard fait de pansement simple, d'un concentré plaquettaire seul ou de kératinocytes autologues suspendus dans un concentré plaquettaire. Sur ces plaies, la durée de cicatrisation ainsi que la douleur au cours de la guérison ont été étudiés. Nos résultats montrent une réduction significative de la durée de cicatrisation dans le groupe traité avec un concentré plaquettaire, passant de 13.9 +/- 0.5 à 7.2 +/- 0.2 jours. Cet effet est encore plus marqué dans le groupe traité avec des kératinocytes en suspension dans un concentré plaquettaire passant de 13.9 +/- 0.5 à 5.7 +/- 0.2 jours. De même, la douleur évaluée au cinquième jour montre une nette diminution dans les deux groupes traités avec des cellules. En conclusion, notre travail montre que l'application de plaquettes autologues ou de kératinocytes en suspension dans un concentré plaquettaire permet d'accélérer la cicatrisation cutanée et de diminuer les douleurs, sans aucun effet indésirable constaté. Notre étude montre également qu'un concentré plaquettaire peut être utilisé comme vecteur pour une suspension de kératinocytes. L'identification de la cinétique d'apparition et de la concentration de chacun des facteurs de croissance lors de la cicatrisation cutanée permettrait dans le futur d'analyser plus finement et de traiter physiologiquement des plaies chroniques.
Resumo:
De nos jours, les tribunaux se basent couramment sur des résultats d'analyses ADN pour étudier le lien potentiel entre du matériel biologique prélevé sur une scène de crime et un suspect. Malheureusement, plusieurs cas d'erreurs de laboratoire ou de manipulation de traces lors de leur collecte ou de leur transport ont été découverts ces dernières années. Dès lors, quelle est la valeur réelle d'un tel rapprochement entre une trace et un suspect ? Faut-il douter de la fiabilité des analyses ADN ? Et si oui, comment maîtriser le risque sans devoir écarter totalement la preuve ? Le praticien peut rencontrer des difficultés avec ces questions car la littérature existante se limite à mentionner le potentiel d'erreur, sans pour autant fournir des pistes sur la façon de gérer concrètement ce problème. L'objet de la présente contribution est d'examiner ces questions à la lumière d'un arrêt récent du Tribunal pénal fédéral. Nous verrons qu'une approche utile consiste à apprécier le risque d'erreur au cas par cas et de manière concrète, plutôt que de réfléchir de façon globale et abstraite.
Resumo:
Thesenhafte Zusammenfassung 1. Geschäftsmethoden ist urheberrechtlicher Schutz zu versagen. Vordergründig lässt sich die Schutzversagung mit dem Fehlen von Schutzvoraussetzungen er¬klären. Soweit es an einem Bezug zu Literatur, Wissenschaft oder Kunst man¬gelt, ist Schutz nach § 1 UrhG zu verwehren. Im Übrigen scheitert ein Schutz von Geschäftsmethoden in aller Regel an § 2 Abs. 2 UrhG. Angesichts ihrer Ausrichtung am Effizienzziel orientieren sich Geschäftsmethoden an Vorgege¬benem bzw. an Zweckmäßigkeitsüberlegungen, so dass Individualität ausschei¬det. Hintergrund sind jedoch Legitimierungsüberlegungen: Schutz ist mit Blick auf das Interesse der Allgemeinheit zu versagen, das auf ein Freibleiben von Geschäftsmethoden gerichtet ist und das Interesse des Entwicklers einer Geschäftsmethode an Ausschließlichkeit überwiegt. 2. Die Berücksichtigung der Interessen der Allgemeinheit ist durch Art. 14 Abs. 2 verfassungsrechtlich geboten. Im Urheberrechtsgesetz drückt sie sich vor allem in den Schrankenregelungen der §§ 44a ff. UrhG aus. Die Allgemeininteressen sind darüber hinaus auch auf der Ebene der Entstehung des Rechts zu berück¬sichtigen. Bei der Ermittlung der Interessen der Allgemeinheit sind auch öko¬nomische Überlegungen anzustellen und die wettbewerbsmäßigen Auswirkun¬gen eines Sonderrechtsschutzes zu berücksichtigen. 3. Im Bereich des urheberrechtlichen Datenbankschutzes konnte der Schutz von Geschäftsmethoden hinsichtlich der Auswahl oder Anordnung von Daten bisher durch das Erfordernis einer besonderen Gestaltungshöhe im Rahmen der Schutzvoraussetzung der Individualität verhindert werden. 4. Nach der Umsetzung der Datenbankrichtlinie kommt es infolge der Absenkung der Gestaltungshi5he hin zu einer einfachen Individualität sowie durch die Ein¬beziehung des konzeptionellen Modells in den urheberrechtlichen Schutzbereich vermehrt zu einem indirekten und direkten Schutz von Methoden. Das stellt einen Verstoß gegen die in Art. 9 Abs. 2 TRIPs statuierte Schutzfreiheit von Methoden dar. Auch wenn die Frage der unmittelbaren Anwendbarkeit dieser Norm noch nicht abschließend geklärt ist, hat das deutsche Urheberrechtsgesetz sie doch insofern zu berücksichtigen, als eine konventionsfreundliche Auslegung des Urheberrechtsgesetzes geboten ist. 5. Die bloße "Implementierung" von Geschäftsmethoden in Datenbanken darf nicht zum Schutz eines Gegenstandes führen, dem der Schutz an sich versagt ist. 6. Im Rahmen des Datenbankschutzes eine Monopolisierung von Methoden zuzulassen ist auch im Hinblick auf Art. 3 GG nicht unproblematisch. Denn Geschäftsmethoden, die anderen Werkarten zugrunde liegen, ist dieser Schutz weiterhin versagt, ohne dass ein sachlicher Grund für eine solche Differenzierung erkennbar wäre. 7. Überdies kann sich die Monopolisierung von Auswahl- und Anordnungsmethoden auch negativ auf die Informationsfreiheit auswirken. Es kann faktisch zu Monopolen an den in der Datenbank enthaltenen Informationen kommen. 8. Der Monopolisierung von Geschäftsmethoden zur Auswahl oder Anordnung von Daten ist daher entgegenzutreten. 9. Lösungen, die erst auf der Rechtsfolgenseite ansetzen, indem sie solche Methoden zwar als schutzbegründend ansehen, den Schutzumfang aber beschränken, sind abzulehnen. Sie durchbrechen den axiomatischen Zusammenhang zwischen Schutzbegründung und -umfang und führen dadurch zu willkürlichen Ergebnissen. Auch aus Anreizgesichtspunkten können sie nicht überzeugen. 10. Schutz ist bereits auf Tatbestandsebene zu versagen. 11. Die Schutzfreiheit von Geschäftsmethoden im Bereich des Datenbankschutzes kann dabei nicht durch eine Rückkehr zum Erfordernis einer besonderen Gestaltungshöhe erreicht werden. Dem steht der Wortlaut des Art. 3 Abs. 1 S. 2 der Datenbankrichtlinie ("keine anderen Kriterien") entgegen. Abgesehen davon ist das Individualitätskriterium auch nicht das geeignete Mittel, die Schutzfreiheit von Geschäftsmethoden zu gewährleisten: Zum einen erweist es sich als anfällig für Eingriffe seitens des Europäischen Gesetzgebers. Zum anderen kann es - da es an die sich im Werk ausdrückende Persönlichkeit des Urhebers anknüpft - insoweit nicht weiterhelfen, als Schutz nicht mangels Eigenpersönlichkeit, sondern aufgrund fehlender Legitimierbarkeit nach einer Interessenabwägung versagt wird. 12. Die Schutzfreiheit von Methoden sollte daher unabhängig von den Schutzvoraussetzungen, namentlich der Individualität, statuiert werden. 13. De lege lata kann das durch die Einführung eines ungeschriebenen negativen Tatbestandmerkmals geschehen. Dafür spricht die Regelung des § 69a Abs. 2 S. 2 UrhG, die für Computerprogramme die Schutzfreiheit von Ideen statuiert. Ein Verstoß gegen Art. 3 Abs. 1 S. 2 der Datenbankrichtlinie ("keine anderen Kriterien") kann einem solchen Tatbestandsmerkmal nicht entgegengehalten werden. Denn mit dem Ausschluss anderer Kriterien wollte der Europäische Gesetzgeber nur dem Erfordernis einer besonderen Gestaltungshöhe Einhalt gebieten, nicht aber die Tür für einen Methodenschutz öffnen. Ein dahingehender Wille darf ihm mit Blick auf Art. 9 Abs. 2 TRIPs auch nicht unterstellt werden. Die Schutzfreiheit sollte jedoch - anders als bei § 69a Abs. 2 S. 2 UrhG - schon auf Tatbestandsebene verankert werden. Ein solches Tatbestandsmerkmal könnte lauten: "Der Auswahl oder Anordnung zugrundeliegende abstrakte Methoden sowie solche konkreten Methoden, die sich an Vorgegebenem oder Zweckmäßigkeitsüberlegungen orientieren, können einen Schutz nach dieser Vorschrift nicht begründen." 14. Aus Gründen der Rechtsklarheit sollte de lege ferenda - wie im Patentrecht - die Schutzfreiheit von Geschäftsmethoden ausdrücklich und allgemein im Urheberrechtsgesetz festgeschrieben werden. Dafür sollte § 2 UrhG ein entsprechender Absatz 3 angefügt werden. Er könnte lauten: "Geschäftliche Methoden können einen Schutz nach diesem Gesetz nicht begründen 15. Soweit Datenbanken urheberrechtlicher Schutz mit Blick auf die Schutzfreiheit von Geschäftsmethoden versagt werden muss, verbleibt jedoch die Möglichkeit eines Schutzes nach den §§ 87a ff. UrhG. Dieser Schutz wird allein aufgrund einer wesentlichen Investition gewahrt. Die wirtschaftlich wertvollen auf Vollständigkeit angelegten Datenbanken werden dem sui-generis-Schutz regelmäßig unterfallen, so dass ausreichende Anreize zur Schaffung von Faktendatenbanken bestehen. Auch auf internationaler Ebene scheint dieses zweigleisige Sys¬tem Anklang zu finden, wie Reformarbeiten zur Einführung eines sui-generis-Schutzes für Datenbanken im Rahmen der WIPO belegen. Résumé sous forme de thèses 1. Une protection juridique des méthodes commerciales au sein du droit d'auteur doit être refusée. Au premier plan, le refus de protection peut être expliqué par un manque de conditions. S'il n'y a pas de référence dans la littérature, les sciences ou les arts, une protection doit être rejetée selon l'art. 1 de la législation allemande sur le droit d'auteur. D'ailleurs, une protection des méthodes commerciales sera interrompue en toute règle à cause de l'art. 2 al. 2 de la législation sur le droit d'auteur. Comme elles poursuivent l'objectif de l'efficacité, les méthodes commerciales se réfèrent à des faits donnés et/ou à des considérations d'utilité ce qui exclut l'individualité. En arrière-plan, cependant, il y a des considérations de légitimité. La protection doit être rejetée étant donné l'intérêt du public, qui est orienté vers un manque de protection des méthodes commerciales. Cet intérêt du public est prépondérant l'intérêt du fabricant, qui est dirigé vers une exclusivité sur la méthode commerciale. 2. La prise en considération des intérêts du public est imposée par l'art. 14 al. 2 de la Constitution allemande. Dans la loi sur le droit d'auteur, elle s'exprime avant tout dans les règlements restrictifs des art. 44a et suivants. Les intérêts du public doivent d'ailleurs être considérés au niveau de la formation du droit. En évaluant les intérêts du public, il est utile de considérer aussi les conséquences économiques et celles d'une protection particulière du droit d'auteur au niveau de la concurrence. 3. Dans le domaine de la protection des bases de données fondé dans le droit d'auteur, une protection des méthodes commerciales a pu été empêchée jusqu'à présent en vue du choix ou de la disposition de données par l'exigence d'un niveau d'originalité particulier dans le cadre des conditions de protection de l'individualité. 4. La mise en pratique de la directive sur les bases de données a abouti de plus en plus à une protection directe et indirecte des méthodes en conséquence de la réduction des exigences de l'originalité vers une simple individualité ainsi que par l'intégration du modèle conceptionnel dans le champ de protection du droit d'auteur. Cela représente une infraction contre l'exclusion de la protection des méthodes commerciales stipulée dans l'art. 9 al. 2 des Accords ADPIC (aspects des droits de propriété intellectuelle qui touchent au commerce), respectivement TRIPS. Même si la question de l'application directe de cette norme n'est pas finalement clarifiée, la législation allemande sur le droit d'auteur doit la considérer dans la mesure où une interprétation favorable aux conventions de la législation du droit d'auteur est impérative. 5. La simple mise en pratique des méthodes commerciales sur des bases de données ne doit pas aboutir à la protection d'une chose, si cette protection est en effet refusée. 6. En vue de l'art. 3 de la Constitution, il est en plus problématique de permettre une monopolisation des méthodes au sein de la protection de bases de données. Car, des méthodes commerciales qui sont basées sur d'autres types d'oeuvres, n'ont toujours pas droit à cette protection, sans qu'une raison objective pour une telle différenciation soit évidente. 7. En plus, une monopolisation des méthodes pour le choix ou la disposition des données peut amener des conséquences négatives sur la liberté d'information. En effet, cela peut entraîner des monopoles des informations contenues dans la base de données. 8. Une monopolisation des méthodes commerciales pour le choix ou la disposition des données doit donc être rejetée. 9. Des solutions présentées seulement au niveau des effets juridiques en considérant, certes, ces méthodes comme justifiant une protection, mais en même temps limitant l'étendue de la protection, doivent être refusées. Elles rompent le contexte axiomatique entre la justification et l'étendue de la protection et aboutissent ainsi à des résultats arbitraires. L'argument de créer ainsi des stimulants commerciaux n'est pas convaincant non plus. 10. La protection doit être refusée déjà au niveau de l'état de choses. 11. Une exclusion de la protection des méthodes commerciales dans le domaine des bases de données ne peut pas être atteinte par un retour à l'exigence d'un niveau d'originalité particulier. Le texte de l'art 3 al. 1 p. 2 de la directive sur les bases de données s'oppose à cela (« aucun autre critère »). A part cela, le critère de l'individualité n'est pas non plus le moyen propre pour garantir une exclusion de la protection des méthodes commerciales. D'un côté, ce critère est susceptible d'une intervention par le législateur européen. D'un autre côté, il n'est pas utile, comme il est lié à la personnalité de l'auteur exprimé dans l'oeuvre, dans la mesure où la protection n'est pas refusée pour manque d'individualité mais pour manque de légitimité constaté après une évaluation des intérêts. 12. L'exclusion de la protection des méthodes devra donc être stipulée indépendamment des conditions de protection, à savoir l'individualité. 13. De lege lata cela pourra se faire par l'introduction d'un élément constitutif négatif non écrit. Cette approche est supportée par le règlement dans l'art. 69a al. 2 p. 2 de la législation allemande sur le droit d'auteur qui stipule l'exclusion de la protection des idées pour des programmes d'ordinateur. Un tel élément constitutif ne représente pas d'infraction à l'art. 3 al. 1 p. 2 de la directive sur les bases de données (« aucun autre critère »). En excluant d'autres critères, le législateur européen n'a voulu qu'éviter l'exigence d'un niveau d'originalité particulier et non pas ouvrir la porte à une protection des méthodes. En vue de l'art. 9 al. 2 des Accords TRIPs, il ne faut pas prêter une telle intention au législateur européen. Cependant, l'exclusion de la protection devrait - autre que dans le cas de l'art. 69a al. 2 p. 2 de la législation allemande sur le droit d'auteur - être ancrée déjà au niveau de l'état de choses. Un tel élément constitutif pourrait s'énoncer comme suit : « Des méthodes abstraites se référant au choix ou à la disposition de données ainsi que des méthodes concrètes s'orientant à des faits donnés ou à des considérations d'utilité ne peuvent pas justifier une protection selon ce règlement. » 14. Pour assurer une clarté du droit, une exclusion de la protection des méthodes commerciales devrait de lege ferenda - comme dans la législation sur les brevets - être stipulée expressément et généralement dans la législation sur le droit d'auteur. Un troisième alinéa correspondant devrait être ajouté. Il pourrait s'énoncer comme suit : « Des méthodes commerciales ne peuvent pas justifier une protection selon cette loi ». 15. S'il faut refuser aux bases de données une protection au sein du droit d'auteur en vue de l'exclusion de la protection pour des méthodes commerciales, il est quand même possible d'accorder une protection selon les articles 87a et suivants de la législation allemande sur le droit d'auteur. Cette protection est uniquement accordée en cas d'un investissement substantiel. Les bases de données ayant une grande importance économique et s'orientant vers l'intégralité seront régulièrement soumises à la protection sui generis de sorte qu'il y ait de suffisants stimulants pour la fabrication de bases de données de faits. Ce système à double voie semble également rencontrer de l'intérêt au niveau international, comme le prouvent des travaux de réforme pour l'introduction d'une protection sui generis pour des bases de données au sein de l'OMPI.
Resumo:
Le plan Nous nous proposons de distinguer dans l'oeuvre d'Ovsjaniko-Kulikovskij quatre étapes selon les sujets qu'il aborde dont les trois premières nous concernent directement: 1) les oeuvres de jeunesse portant sur le sanskrit et sur l'histoire de la pensée (1882-1892), 2) le noeud de sa conception (1893-1896), 3) les études spécialisées et les conclusions (1897-1902) et 4) ouvrages sur la théorie de la littérature et de l'art (à partir de 1903 environ, cette division étant approximative). Notre recherche ne suivra pas un plan strictement chronologique. Nous comptons évoquer les oeuvres en suivant leur apparition sans pour autant faire l'analyse détaillée de chacune d'elles. Au contraire, notre méthode d'analyse consistera à 1) dégager les idées maîtresses d'Ovsjaniko-Kulikovskij et leurs interrelations et 2) suivre leur évolution en les rapportant aux théories voisines en linguistique et dans d'autres sciences. Dans la partie I, intitulée «Une indo-européanistique évolutionniste», nous concentrerons notre attention tout d'abord sur les spécificités du parcours intellectuel d'Ovsjaniko-Kulikovskij par rapport à ses contemporains. Nous suivrons l'influence sur lui de cet «air du temps » de la fin du XIX' siècle qui rendait ses recherches indo-européennes évolutionnistes, à partir du réseau des présupposés de cette théorie. Nous verrons comment naît son insatisfaction devant les conceptions existantes du langage et comment se formulent les tâches et la problématique de la nouvelle conception qu'il veut élaborer. Dans la partie II, intitulée «Vers une linguistique énergétique», nous analyserons la constitution des piliers de sa conception, de ses idées originales qui la distinguent de ses contemporains. Nous nous intéresserons à la question du «nouveau» dans la science en nous référant aux conditions de production d'une conception nouvelle, à l'«air du temps» et à l'«air du lieu»: le raisonnement énergétique dans les sciences. Nous procéderons à une comparaison constante avec les conceptions de ses prédécesseurs (en particulier de ceux qu'il cite lui-même en tant que tels) et de ses contemporains. Dans la partie III, intitulée «Une syntaxe énergétique», nous nous intéresserons à ce que la conception d'Ovsjaniko-Kulikovskij a apporté de nouveau aux questions du «temps». A-t-il pu construire une «linguistique scientifique»? Comment le raisonnement énergétique sert-il à la fois de moteur et de frein à sa conception, lui ouvre-t-il de nouveaux horizons et lui dicte-t-il des limites? Dans la conclusion, enfin, nous dresserons le bilan de l'étude en démontrant quel intérêt il y a, pour l'histoire de la linguistique, à situer un auteur dans un tel croisement d'associations spatio-temporelles.
Resumo:
Célèbre est devenu le concept d'empreinte écologique qui se présente comme un indicateur composite supposé nous renseigner sur l'espace utilisé par les hommes pour produire les ressources qu'ils consomment et les déchets qu'ils rejettent, le mettre en regard de la capacité écologique de la planète (la biocapacité), donc le revenu écologique à disposition des hommes. Lorsque l'empreinte écologique excède la biodiversité, cela signifie que la planète est en danger. Le succès de cet indicateur élaboré par le Global Footprint Network (GFN) tient sans doute aux conclusions sensationnelles qui se dégagent des calculs effectués : par exemple, la propagation à la planète du mode de vie nord-américain exigerait à elle seule cinq planètes... Il est donc important de comprendre comment a été élaboré cet indicateur, quelle est sa fiabilité et quels enseignements peuvent en être tirés en vue de l'adoption d'une politique de développement durable. Tel est le premier objectif de cet article qui en explique la philosophie, montre comment est conçu cet indicateur et comment sont opérés les calculs. Mais les auteurs ne s'arrêtent pas là. Ils rappellent certaines impasses faites consciemment par le GFN, puis les critiques déjà adressées à cet indicateur qui, précisément en raison de son caractère composite, agrège des données hétérogènes et procède à des calculs et des pondérations sujets à caution dont les enseignements sont donc contestables ? par exemple lorsqu'il suggère que certains pays auraient intérêt à remplacer leurs forêts pour accroître les surfaces cultivables, alors même que l'espace bâti (amputant lui aussi des terres arables) n'est absolument pas remis en question. Au-delà même de ces réserves, les auteurs prolongent et approfondissent la critique de l'empreinte écologique. Ainsi soulignent-ils, par exemple, que l'empreinte carbone compte pour la moitié de l'empreinte totale et que, si on se contentait de mesurer celle-ci en quantité physique plutôt qu'en usant d'un artefact (l'hectare global), le calcul serait sans doute plus robuste et les conclusions non moins alarmistes puisqu'il faudrait cette fois 11 planètes si d'aventure le mode de vie nord-américain devait s'étendre au monde entier. Même s'il peut paraître parfois un peu ardu, cet article est à lire absolument car ses auteurs y mettent en évidence un certain nombre de problèmes majeurs que nul ne saurait ignorer.
Resumo:
Un protocole de tests sur labyrinthe radial permettant d'évaluer la navigation spatial chez l'homme a été réalisé. Ces tests sur labyrinthe radial sont basés sur le protocole utilisé sur l'animal modèle de schizophrénie dans le CNP (Centre de neuroscience psychiatrique) de Lausanne. Les recherches actuelles du CNP ont montré un déficit dans les capacités d'orientation spatiale de ces animaux [13]. Ainsi notre méthodologie consistera à tester des sujets humains dans des tâches de labyrinthe afin d'étudier de la manière la plus équivalente les différents déficits observés dans la pathologie humaine et dans le rat modèle. Cette démarche est à la base d'une approche translationnelle qui combine recherches cliniques et expérimentales. Le travail expérimental a été mené sur deux dispositifs analogues. a) «radial au doigt», ensemble de petits canaux qui peuvent être explorés par le doigt, yeux ouverts ou fermés et dans lesquels des textures différentes tapissent chaque bras. b) «radial sur écran tactile», deux labyrinthes qui comparent deux types d'indice locale, couleurs différentes ou patrons noir-blanc. Dans les deux dispositifs a été prévu une série de tests permettant d'évaluer la mémorisation des indices utilisés en les supprimant temporairement où en les mettant en contradiction. La première perturbation a pour but de tester l'importance du référentiel locale par une rotation de 90° du labyrinthe. La permutation des bras lors d'un dernier essai permet d'induire une situation ou les informations ont été soit correctes spatialement mais incorrectes localement (texture) soit inversement. Ces perturbations des informations sensorielles qui sont fournies au sujet, permettent d'observer les systèmes de repérage et leur poids relatif dans la construction d'un système de référence durant la navigation spatiale. Les résultats du labyrinthe radial au doigt montrent que dans les conditions utilisant les informations visuelles les participants sont sensiblement plus performants. Il est apparu que les informations visuelles prédominent sur les informations proprioceptives et tactiles. Ainsi dans la condition intégrant informations visuospatiales, proprioceptives et tactiles, les sujets basent plus fortement leur navigation spatiale sur les indices visuelles soit locale soit spatiale. Dans cette condition une différence significative de stratégie entre hommes et femmes est apparue. Les hommes se basent majoritairement sur des indices spatiaux tandis que les femmes préfèrent les indices locaux. En présence d'informations tactiles et proprioceptives mais en absence de la vision, les participants utilisent les références spatiale et locale complémentairement sans avoir un système prédominant. Alors que si uniquement les informations proprioceptives sont présentes, les sujets utilisent un système de référence spatiale (globale). Le labyrinthe radial sur écran tactile indique une différence de système de référence selon l'indice local employé. Les couleurs, étant des forts indices locaux, vont favoriser un système de référence local. Au contraire les patrons noirs-blancs sont des indices visiblement très complexes et difficiles à mémoriser qui vont pousser les sujets à utiliser une stratégie de référence spatiale.
Resumo:
Résumé Les mutations du gène APP (amyloïde de la protéine de précurseur) sur le chromosome 21 mènent à une surproduction de protéines β amyloïdes dans la maladie d'Alzheimer (MA). Il existe donc un consensus impliquant la cascade amyloïde dans la genèse et le développement de la MA. C'est pourquoi, afin d'évaluer l'hypothèse de la cascade inflammatoire de la MA, on combine des manipulations génétiques chez des modèles de souris transgéniques avec des traitements anti-inflammatoires. Les animaux porteurs d'une mutation génétique induite permettent d'évaluer le rôle de certains gènes dans le développement de la maladie. Pour ce faire j'ai étudié les performances de différentes cohortes de souris soumises à un ensemble de trois épreuves comportementales complémentaires ; la première étudiant les conduites exploratoires, la deuxième évaluant la capacité de l'animal à effectuer un apprentissage de lieu et la troisième explorant l'efficacité des animaux dans une tâche dite d'élimination. Enfin, une évaluation complémentaire a été fondée sur le répertoire des troubles du comportement des animaux. Chez les animaux APP homozygotes, l'organisation de la mémoire se dégrade et se modifie avec l'âge. Chez ces animaux, le déficit des mémoires de références et de travail se manifeste déjà chez les souris jeunes (dès l'âge de 50 jours).De plus, il est apparu un certain nombre de troubles comportementaux. Enfin les APP homozygotes sont ceux qui ont le plus de dépôt de plaques amyloïdes localisé dans l'hippocampe. Chez les animaux APP hétérozygotes, tant la mémoire de référence, utilisée au cours d'un apprentissage de lieu, que la mémoire de travail permettant d'éviter des bras déjà visités, ne sont affectées que chez les sujets de 15 mois. De plus, tous les troubles du comportement sont présents à 15 mois, mais de manière moins intense que chez les animaux APP homozygotes. Un traitement anti-TNF administré aux APP hétérozygotes n'a pas permis d'améliorer leur performance mais a un effet bénéfique sur les troubles du comportement. Enfin, le pourcentage des dépôts de plaques a été estimé à trois fois moins élevé chez ces animaux hétérozygotes de 16 mois que chez les APP homozygotes de 8 mois. Chez les animaux APP hétérozygotes dont le gène TNFα est bloqué, les mémoires de travail et de référence sont altérées déjà à l'âge de 6 mois, en dépit du blocage de l'expression de TNF. Ces jeunes animaux ont même une capacité cognitive inférieure à celle des animaux hétérozygotes APP, en gardant toutefois leur activité et performance exploratoires intactes. Ainsi, il semble que le blocage de l'expression du gène TNFα chez des souris APP n'influence pas leurs capacités cognitives mais permet, d'une part, d'éviter l'apparition des troubles du comportement et d'autre part, ralentit le processus du déclin cognitif. Enfin, le pourcentage de plaques amyloïdes a été évalué à deux fois plus élevés pour les KO TNF-α APP hétérozygotes de 15 mois par rapport à des APP hétérozygotes sans traitement du même âge. Chez les animaux APP hétérozygotes surexprimant le TNFα, cette association génétique péjore la performance cognitive comparée à celle des APP homozygotes. Ces animaux ont une altération des mémoires de travail et de référence équivalente à celle retrouvée chez des APP homozygotes. Un traitement anti-inflammatoire administré à ces souris n'améliore pas la capacité cognitive mais permet d'une part, d'éviter l'apparition des troubles comportementaux, et d'autre part, d'entraîner la presque disparition des plaques amyloïdes. Abstract Mutations on the amyloid precursor protein (APP) gene on chromosome 21 lead to an overproduction of β amyloid in both human early onset familial Alzheimer's Disease (AD) and transgenic (TG) mice. On the other hand, inflammatory responses in the brain seem to contribute to the genesis and evolution of neurodegenerative damage. To study the influence of inflammatory factors - especially TNFα - on brain amyloid and behavioural components, TG mice expressing mutant amyloid precursor protein were treated with anti-TNFα antibody and compared with controls injected with PBS buffer or human globulins, as well as with APP mice knockout for the TNFα gene. The APP/V717 mutation leads to a brain deposit of amyloid and to significant behavioural deficits in both homozygous at different ages and heterozygous only at 15 months. The percentage of amyloid is almost triple in APP+/+ than in APP+/- animals, indicating a gene dosage effect. There is no significant effect of an anti-TNF treatment on the deposit of brain amyloid nor spatial learning capabilities. Transgenic mice show also stereotyped behaviour but the anti-TNF treatment decreases the production of stereotypies. The blockade of gene TNFα seems several cognitive alterations and increases the production of amyloid in APP mice at 15 months; but this combination allows to avoid the appearance of stereotyped behavior and in addition, the process of the cognitive decline slows down. Tg6074 mice (overexpressing TNF) increase deleterious effects on behavioural adaptive resources. Treatment with anti-TNF doesn't show changes in cognitive performances but seems to increase the production of amyloid and the stereotyped behaviour.