909 resultados para Balance du pouvoir
Resumo:
Cette thèse analyse la défense du paradis fiscal suisse dans les négociations internationales de l'entre-deux-guerres. Pour ce faire, elle s'appuie sur un très large panel de sources inédites, tirées des archives publiques suisses, britanniques, françaises, allemandes et belges, ainsi que sur une série d'archives du monde économique et d'organisations internationales. Ce travail tente, sur cette base, de retracer l'évolution des pourparlers fiscaux et d'identifier comment les dirigeants suisses sont parvenus à écarter en leur sein les premières pressions internationales qui surviennent après la Grande Guerre à l'encontre des pratiques fiscales helvétiques. Sur fond de fuites massives d'avoirs européens en direction du refuge suisse, ces démarches étrangères à l'encontre du secret bancaire sont menées aussi bien au niveau multilatéral, au sein des débats fiscaux de la Société des Nations, que sur le plan bilatéral, à l'intérieur des négociations interétatiques pour la conclusion de conventions de double imposition et d'assistance fiscale. Pourtant, les tentatives de la part des gouvernements européens d'amorcer une coopération contre l'évasion fiscale avec leur homologue suisse échouent constamment durant l'entre-deux-guerres : non seulement aucune mesure de collaboration internationale n'est adoptée par la Confédération, mais les dirigeants helvétiques parviennent encore à obtenir dans les négociations des avantages fiscaux pour les capitaux qui sont exportés depuis la Suisse ou qui transitent par son entremise. En clair, bien loin d'être amoindrie, la compétitivité fiscale du centre économique suisse sort renforcée des discussions internationales de l'entre-deux-guerres. La thèse avance à la fois des facteurs endogènes et exogènes à la politique suisse pour expliquer cette réussite a priori surprenante dans un contexte de crise financière et monétaire aiguë. A l'intérieur de la Confédération, la grande cohésion des élites suisses facilite la défense extérieure de la compétitivité fiscale. En raison de l'anémie de l'administration fiscale fédérale, du conservatisme du gouvernement ou encore de l'interpénétration du patronat industriel et bancaire helvétique, les décideurs s'accordent presque unanimement sur le primat à une protection rigoureuse du secret bancaire. En outre, corollaire de l'afflux de capitaux en Suisse, la place financière helvétique dispose de différentes armes économiques qu'elle peut faire valoir pour défendre ses intérêts face aux gouvernements étrangers. Mais c'est surtout la conjonction de trois facteurs exogènes au contexte suisse qui a favorisé la position helvétique au sein des négociations fiscales internationales. Premièrement, après la guerre, le climat anti-fiscal qui prédomine au sein d'une large frange des élites occidentales incite les gouvernements étrangers à faire preuve d'une grande tolérance à l'égard du havre fiscal suisse. Deuxièmement, en raison de leur sous-développement, les administrations fiscales européennes n'ont pas un pouvoir suffisant pour contrecarrer la politique suisse. Troisièmement, les milieux industriels et financiers étrangers tendent à appuyer les stratégies de défense du paradis fiscal suisse, soit parce qu'ils usent eux-mêmes de ses services, soit parce que, avec la pression à la baisse qu'il engendre sur les systèmes fiscaux des autres pays, l'îlot libéral helvétique participe au démantèlement de la fiscalité progressive que ces milieux appellent de leur voeu.
Resumo:
Résumé Introduction : Les patients nécessitant une prise en charge prolongée en milieu de soins intensifs et présentant une évolution compliquée, développent une réponse métabolique intense caractérisée généralement par un hypermétabolisme et un catabolisme protéique. La sévérité de leur atteinte pathologique expose ces patients à la malnutrition, due principalement à un apport nutritionnel insuffisant, et entraînant une balance énergétique déficitaire. Dans un nombre important d'unités de soins intensifs la nutrition des patients n'apparaît pas comme un objectif prioritaire de la prise en charge. En menant une étude prospective d'observation afin d'analyser la relation entre la balance énergétique et le pronostic clinique des patients avec séjours prolongés en soins intensifs, nous souhaitions changer cette attitude et démonter l'effet délétère de la malnutrition chez ce type de patient. Méthodes : Sur une période de 2 ans, tous les patients, dont le séjour en soins intensifs fut de 5 jours ou plus, ont été enrôlés. Les besoins en énergie pour chaque patient ont été déterminés soit par calorimétrie indirecte, soit au moyen d'une formule prenant en compte le poids du patient (30 kcal/kg/jour). Les patients ayant bénéficié d'une calorimétrie indirecte ont par ailleurs vérifié la justesse de la formule appliquée. L'âge, le sexe le poids préopératoire, la taille, et le « Body mass index » index de masse corporelle reconnu en milieu clinique ont été relevés. L'énergie délivrée l'était soit sous forme nutritionnelle (administration de nutrition entérale, parentérale ou mixte) soit sous forme non-nutritionnelle (perfusions : soluté glucosé, apport lipidique non nutritionnel). Les données de nutrition (cible théorique, cible prescrite, énergie nutritionnelle, énergie non-nutritionnelle, énergie totale, balance énergétique nutritionnelle, balance énergétique totale), et d'évolution clinique (nombre des jours de ventilation mécanique, nombre d'infections, utilisation des antibiotiques, durée du séjour, complications neurologiques, respiratoires gastro-intestinales, cardiovasculaires, rénales et hépatiques, scores de gravité pour patients en soins intensifs, valeurs hématologiques, sériques, microbiologiques) ont été analysées pour chacun des 669 jours de soins intensifs vécus par un total de 48 patients. Résultats : 48 patients de 57±16 ans dont le séjour a varié entre 5 et 49 jours (motif d'admission : polytraumatisés 10; chirurgie cardiaque 13; insuffisance respiratoire 7; pathologie gastro-intestinale 3; sepsis 3; transplantation 4; autre 8) ont été retenus. Si nous n'avons pu démontrer une relation entre la balance énergétique et plus particulièrement, le déficit énergétique, et la mortalité, il existe une relation hautement significative entre le déficit énergétique et la morbidité, à savoir les complications et les infections, qui prolongent naturellement la durée du séjour. De plus, bien que l'étude ne comporte aucune intervention et que nous ne puissions avancer qu'il existe une relation de cause à effet, l'analyse par régression multiple montre que le facteur pronostic le plus fiable est justement la balance énergétique, au détriment des scores habituellement utilisés en soins intensifs. L'évolution est indépendante tant de l'âge et du sexe, que du status nutritionnel préopératoire. L'étude ne prévoyait pas de récolter des données économiques : nous ne pouvons pas, dès lors, affirmer que l'augmentation des coûts engendrée par un séjour prolongé en unité de soins intensifs est induite par un déficit énergétique, même si le bon sens nous laisse penser qu'un séjour plus court engendre un coût moindre. Cette étude attire aussi l'attention sur l'origine du déficit énergétique : il se creuse au cours de la première semaine en soins intensifs, et pourrait donc être prévenu par une intervention nutritionnelle précoce, alors que les recommandations actuelles préconisent un apport énergétique, sous forme de nutrition artificielle, qu'à partir de 48 heures de séjour aux soins intensifs. Conclusions : L'étude montre que pour les patients de soins intensifs les plus graves, la balance énergétique devrait être considérée comme un objectif important de la prise en charge, nécessitant l'application d'un protocole de nutrition précoce. Enfin comme l'évolution à l'admission des patients est souvent imprévisible, et que le déficit s'installe dès la première semaine, il est légitime de s'interroger sur la nécessité d'appliquer ce protocole à tous les patients de soins intensifs et ceci dès leur admission. Summary Background and aims: Critically ill patients with complicated evolution are frequently hypermetabolic, catabolic, and at risk of underfeeding. The study aimed at assessing the relationship between energy balance and outcome in critically ill patients. Methods: Prospective observational study conducted in consecutive patients staying 5 days in the surgical ICU of a University hospital. Demographic data, time to feeding, route, energy delivery, and outcome were recorded. Energy balance was calculated as energy delivery minus target. Data in means+ SD, linear regressions between energy balance and outcome variables. Results: Forty eight patients aged 57±16 years were investigated; complete data are available in 669 days. Mechanical ventilation lasted 11±8 days, ICU stay 15+9 was days, and 30-days mortality was 38%. Time to feeding was 3.1 ±2.2 days. Enteral nutrition was the most frequent route with 433 days. Mean daily energy delivery was 1090±930 kcal. Combining enteral and parenteral nutrition achieved highest energy delivery. Cumulated energy balance was between -12,600+ 10,520 kcal, and correlated with complications (P<0.001), already after 1 week. Conclusion: Negative energy balances were correlated with increasing number of complications, particularly infections. Energy debt appears as a promising tool for nutritional follow-up, which should be further tested. Delaying initiation of nutritional support exposes the patients to energy deficits that cannot be compensated later on.
Resumo:
L'intubation endotrachéale reste la méthode de premier choix pour assurer la ventilation et la protection des voies aériennes supérieures. Ce geste fait partie intégrante du savoir-faire des équipes d'anesthésiologie, dans un contexte de chirurgie élective, de réanimation ou de soins intensifs. En règle générale, l'intubation s'avère rapide, sûre et efficace. Un apprentissage et une pratique régulière sont néanmoins nécessaires pour acquérir et maintenir les habilités requises pour gérer les situations standards et d'urgences usuelles, et pour minimiser le risque de complication, notamment iatrogènes. De nombreuses techniques ont été conçues pour faciliter l'intubation ou palier aux éventuelles difficultés. De nouveaux outils ne cessent d'être mis au point. La place qu'ils seront amenés à prendre dans la pratique quotidienne reste à définir. Ils font néanmoins désormais partie du paysage anesthésique. Il existe un certain nombre de conditions morphologiques ou pathologiques qui peuvent entraver l'intubation et risquer de converger pour aboutir à une situation d'intubation difficile. Afin de minimiser les risques de prise en charge des voies aériennes, il importe de détecter ces conditions et de pouvoir s'y adapter, notamment par le choix d'un matériel et d'un protocole adaptés. Les voies aériennes difficiles représentent en ce sens une interaction complexe entre les facteurs propres au patient, le contexte clinique et les capacités de l'anesthésiste. Les intubations trachéales difficiles restent une source majeure de morbidité et de mortalité dans la pratique clinique, particulièrement lorsqu'elles ne sont pas anticipées et dans les situations d'urgence. Même si la pharmacologie, les méthodes de travail et les moyens techniques ont évolués et garantissent une meilleure gestion du risque et une meilleure prise en charge des situations complexes, la gestion des voies aériennes et la prédiction des voies aériennes difficiles restent un défi central de la prise en charge anesthésiologique. La gestion des voies aériennes difficiles reste donc une composante importante de la pratique anesthésique, de part l'incidence d'événements potentiellement graves pour le patient qu'elle génère. La nécessité d'évaluer le risque d'ID est désormais ancrée dans les préceptes de la prise en charge anesthésique. Lors de l'évaluation préopératoire, le dépistage des facteurs de risque d'ID doit être systématique et correctement documenté. L'anticipation d'un risque trop élevé ou d'une situation potentiellement compliquée permet d'adapter sa planification, de compléter les examens préopératoires, d'orienter le choix de la technique et de se préparer à pouvoir répondre de manière rapide et efficace à une situation urgente. Même si les situations d'ID ne pourront probablement jamais êtres toutes anticipées, il importe donc de définir les facteurs de risque significatifs et de les intégrer dans la prise en charge des voies aériennes. L'accent a notamment été mis sur la recherche de critères prédictifs efficaces. Ces stratégies ont toutes pour but de stratifier le risque de difficultés intubatoires afin de minimiser l'incidence d'événements délétères, par une préparation optimale et la prise en charge adéquate des situations difficiles. L'absence de recommandations internationales standardisées d'identification et de prise en charge de l'ID sont principalement liées à l'absence de définitions standardisées, au manque de critères suffisamment sensibles et spécifiques, au caractère subjectif de certains critères cliniques utilisés et à la kyrielle de techniques et d'outils alternatifs à l'intubation orotrachéale laryngoscopique standard à disposition. Aucune anomalie anatomo-pathologique usuelle ni aucune de leurs combinaisons n'est strictement associée à l'intubation difficile. Certains examens sont en outre difficilement justifiables pour une consultation pré-anesthésique usuelle. Dans le cadre de cette problématique, l'objectif fondamental de ce travail est de participer à l'amélioration la prédictibilité de l'intubation difficile dans la pratique anesthésique. L'étude portera sur l'analyse rétrospective de dossiers anesthésiques de 3600 patients, adultes et pédiatriques, pris en charge par le service d'anesthésiologie dans le secteur hors bloc opératoire au CHUV, entre le 1er janvier et le 31 décembre 2010. L'analyse des résultats devrait permettre de déterminer l'incidence et le taux de prédictibilité de l'intubation difficile prévue et non prévue, ainsi que de citer les techniques actuelles de prise en charge dans une institution hospitalière universitaire telle que le CHUV. Un analyse critique des stratégies de prédiction employées, de leur mise en pratique et des techniques de travail privilégiées dans la prise en charge des situations d'intubations difficiles pourrait permettre l'élaboration de pistes réflexives dans le but de les optimiser et d'améliorer la prise en charge du patient et la gestion du risque anesthésique. Cette étude pourrait déboucher sur la proposition d'un score simple de prédiction de l'intubation difficile à intégrer sur la feuille de consultation pré- anesthésique. Le but est est d'améliorer les recommandations de prise en charge préopératoire et d'améliorer la transmission interprofessionnelle des informations liées aux voies aériennes, afin de minimiser le risque d'intubation difficile non prévue ainsi que l'incidence et la sévérité des complications liées aux ID.
Resumo:
Alors que les politiques publiques de protection de l'environnement se sont développées de manière exponentielle ces dernières décennies, les problèmes posés par les pollutions, la surexploitation des ressources naturelles ou les impacts du changement climatique demeu-rent et se renouvellent sans cesse. C'est que l'adoption d'une règle ne constitue jamais une fin en soi. Encore faut-il, pour qu'elle produise ses effets, que les acteurs se l'approprient, la traduisent comme une prescription qui s'impose au niveau concret de l'action. Or, au même titre que l'adoption d'une politique publique, sa mise en oeuvre représente un processus hautement conflictuel et politique. Loin d'être mécanique ou linéaire, cette phase est assimi-lable à un véritable processus d'appropriation des règles, émaillé de rapports de force et d'arrangements entre acteurs, de stratégies complémentaires ou concurrentes déployées par un large éventail de protagonistes. Tous ne poursuivent dans ce cadre pas des objectifs de concrétisation, certains cherchant à contourner ou à instrumentaliser les règles, à atté-nuer leurs effets ou à favoriser la mise en place de solutions sur mesure. Il y a, clairement, une distance de la règle à l'action. La présente thèse se propose de mettre en lumière la dimension politique de ces processus d'appropriation en reconstituant les jeux d'acteurs qui les composent. L'idée qui sous-tend la réflexion consiste à démontrer, sur la base d'une littérature variée (analyse des politiques publiques, droit, sociologie) et d'études de cas construits autour des bisses valaisans, le ca-ractère central des stratégies d'activation du droit. Ces dernières sont, dans un premier temps, mises en perspective au sein d'une approche qui appréhende le rapport entre règles et acteurs sur un mode moins managérial que ne le fait habituellement l'analyse des poli-tiques publiques. Relevant autant de démarches de concrétisation que de logiques alterna-tives (passivité, détournement, contournement, innovation), ces stratégies sont placées au coeur du cadre conceptuel élaboré, où elles entrent en interaction avec d'autres variables telles que les relations de pouvoir ou le caractère structurant du contexte institutionnel. Le potentiel analytique de l'approche développée est, dans un second temps, illustré à travers sa confrontation à trois études de cas gravitant autour des bisses : protection d'un écosys-tème aquatique ; gestion des risques de débordement et d'inondation ; développement ter-ritorial d'un village de montagne. Au final, le propos vient souligner tout l'intérêt d'une approche plus politique de la mise en oeuvre. La notion de stratégies d'activation et le cadre conceptuel développé contribuent à mettre en évidence un répertoire très fin de jeux d'acteurs, permettant d'organiser et de systématiser une analyse actorielle souvent réduite au minimum en raison de la difficulté à en rendre compte. La thèse apporte en ce sens une véritable plus-value à l'analyse des poli-tiques publiques, démontrant la manière dont les acteurs cherchent constamment à refor-muler les modalités de l'action collective (politics never end).
Resumo:
La présente recherche se propose de désobstruer un certain nombre de catégories « esthétiques », au sens étendu du terme, de leur métaphysique implicite. La thèse que je souhaite défendre se présente sous la forme d'un paradoxe : d'une part, le sens originel d'« esthétique » a été perdu de vue, d'autre part, malgré cet oubli, quiconque s'interroge philosophiquement sur les beaux-arts reçoit, nolens volens, Baumgarten en héritage. Avec AEsthetica (1750/1758), ouvrage inachevé et hautement problématique, nous pourrions dire, citant René Char, qu'il s'agit-là d'un « héritage précédé d'aucun testament ». En d'autres termes, ce qui nous échoit nous occupe, voire nous préoccupe, sans que nous disposions des outils conceptuels pour nous y rapporter librement. Soyons clairs, je ne soutiens pas que l'esthétique philosophique, telle qu'elle s'énonce à ses débuts, soit un passage obligé pour penser l'art, et ce d'autant plus qu'il ne s'agit pas d'un passage, mais proprement d'une impasse. Ce que je veux dire, c'est que Kant répond à Baumgarten, et que Hegel répond à Kant et ainsi de suite. Il n'y a pas de tabula rasa dans l'histoire de la pensée, et l'oubli de l'historicité d'une pensée est le meilleur moyen de la neutraliser en simple supplément culturel, tout en demeurant entièrement captifs de ses présupposés.Au départ, la question qui motivait implicitement la rédaction de cette recherche se formulait ainsi : « Dans quelle mesure la philosophie énonce-t-elle quelque chose d'important au sujet des beaux-arts ? » Au fil du temps, la question s'est inversée pour devenir : « Qu'est-ce que les écrits sur les beaux- arts, tels qu'ils foisonnent au 18e siècle, nous enseignent à propos de la philosophie et des limites inhérentes à sa manière de questionner ?» Et gardons-nous de penser qu'une telle inversion cantonne la question de l'esthétique, au sens très large du terme, à n'être qu'une critique immanente à l'histoire de la philosophie. Si la philosophie était une « discipline » parmi d'autres, un « objet » d'étude possible dans la liste des matières universitaires à choix, elle ne vaudrait pas, à mon sens, une seule heure de peine. Mais c'est bien parce que la philosophie continue à orienter la manière dont nous nous rapportons au « réel », au « monde » ou à l'« art » - je place les termes entre guillemets pour indiquer qu'il s'agit à la fois de termes usuels et de concepts philosophiques - que les enjeux de la question de l'esthétique, qui est aussi et avant tout la question du sentir, excèdent l'histoire de la philosophie.Pour introduire aux problèmes soulevés par l'esthétique comme discipline philosophique, j'ai commencé par esquisser à grands traits la question du statut de l'image, au sens le plus général du terme. Le fil conducteur a été celui de l'antique comparaison qui conçoit la poésie comme une « peinture parlante » et la peinture comme une « poésie muette ». Dans le prolongement de cette comparaison, le fameux adage ut pictura poesis erit a été conçu comme le véritable noeud de toute conception esthétique à venir.Il s'est avéré nécessaire d'insister sur la double origine de la question de l'esthétique, c'est-à-dire la rencontre entre la pensée grecque et le christianisme. En effet, l'un des concepts fondamentaux de l'esthétique, le concept de création et, plus spécifiquement la possibilité d'une création ex nihiio, a été en premier lieu un dogme théologique. Si j'ai beaucoup insisté sur ce point, ce n'est point pour établir une stricte identité entre ce dogme théologique et le concept de création esthétique qui, force est de l'admettre, est somme toute souvent assez flottant dans les écrits du 18e siècle. L'essor majeur de la notion de création, couplée avec celle de génie, sera davantage l'une des caractéristiques majeures du romantisme au siècle suivant. La démonstration vise plutôt à mettre en perspective l'idée selon laquelle, à la suite des théoriciens de l'art de la Renaissance, les philosophes du Siècle des Lumières ont accordé au faire artistique ou littéraire une valeur parfaitement inédite. Si l'inventeur du terme « esthétique » n'emploie pas explicitement le concept de création, il n'en demeure pas moins qu'il attribue aux poètes et aux artistes le pouvoir de faire surgir des mondes possibles et que ceux-ci, au même titre que d'autres régions de l'étant, font l'objet d'une saisie systématique qui vise à faire apparaître la vérité qui leur est propre. Par l'extension de l'horizon de la logique classique, Baumgarten inclut les beaux-arts, à titre de partie constituante des arts libéraux, comme objets de la logique au sens élargi du terme, appelée « esthético- logique ». L'inclusion de ce domaine spécifique d'étants est justifiée, selon les dires de son auteur, par le manque de concrétude de la logique formelle. Or, et cela n'est pas le moindre des paradoxes de l'esthétique, la subsomption des beaux-arts sous un concept unitaire d'Art et la portée noétique qui leur est conférée, s'opère à la faveur du sacrifice de leur singularité et de leur spécificité. Cela explique le choix du titre : « métaphysique de l'Art » et non pas « métaphysique de l'oeuvre d'art » ou « métaphysique des beaux-arts ». Et cette aporîe constitutive de la première esthétique est indépassable à partir des prémices que son auteur a établies, faisant de la nouvelle discipline une science qui, à ce titre, ne peut que prétendre à l'universalité.Au 18e siècle, certaines théories du beau empruntent la voie alternative de la critique du goût. J'ai souhaité questionner ces alternatives pour voir si elles échappent aux problèmes posés par la métaphysique de l'Art. Ce point peut être considéré comme une réplique à Kant qui, dans une note devenue célèbre, soutient que « les Allemands sont les seuls à se servir du mot "esthétique" pour désigner ce que d'autres appellent la critique du goût ». J'ai démontré que ces deux termes ne sont pas synonymes bien que ces deux positions philosophiques partagent et s'appuient sur des présupposés analogues.La distinction entre ces deux manières de penser l'art peut être restituée synthétiquement de la sorte : la saisie systématique des arts du beau en leur diversité et leur subsomption en un concept d'Art unitaire, qui leur attribue des qualités objectives et une valeur de vérité indépendante de toute saisie subjective, relègue, de facto, la question du jugement de goût à l'arrière-plan. La valeur de vérité de l'Art, définie comme la totalité des qualités intrinsèques des oeuvres est, par définition, non tributaire du jugement subjectif. Autrement dit, si les oeuvres d'art présentent des qualités intrinsèques, la question directrice inhérente à la démarche de Baumgarten ne peut donc nullement être celle d'une critique du goût, comme opération subjective {Le. relative au sujet, sans que cela soit forcément synonyme de « relativisme »), mais bien la quête d'un fondement qui soit en mesure de conférer à l'esthétique philosophique, en tant que métaphysique spéciale, sa légitimité.Ce qui distingue sur le plan philosophique le projet d'une métaphysique de l'Art de celui d'une esthétique du goût réside en ceci que le premier est guidé, a priori, par la nécessité de produire un discours valant universellement, indépendant des oeuvres d'art, tandis que le goût, pour s'exercer, implique toujours une oeuvre singulière, concrète, sans laquelle celui-ci ne reste qu'à l'état de potentialité. Le goût a trait au particulier et au contingent, sans être pour autant quelque chose d'aléatoire. En effet, il n'est pas un véritable philosophe s'interrogeant sur cette notion qui n'ait entrevu, d'une manière ou d'une autre, la nécessité de porter le goût à la hauteur d'un jugement, c'est-à-dire lui conférer au moins une règle ou une norme qui puisse le légitimer comme tel et le sauver du relativisme, pris en son sens le plus péjoratif. La délicatesse du goût va même jusqu'à être tenue pour une forme de « connaissance », par laquelle les choses sont appréhendées dans toute leur subtilité. Les différents auteurs évoqués pour cette question (Francis Hutcheson, David Hume, Alexander Gerard, Louis de Jaucourt, Montesquieu, Voltaire, D'Alembert, Denis Diderot, Edmund Burke), soutiennent qu'il y a bien quelque chose comme des « normes » du goût, que celles-ci soient inférées des oeuvres de génie ou qu'elles soient postulées a priori, garanties par une transcendance divine ou par la bonté de la Nature elle-même, ce qui revient, en dernière instance au même puisque le geste est similaire : rechercher dans le suprasensible, dans l'Idée, un fondement stable et identique à soi en mesure de garantir la stabilité de l'expérience du monde phénoménal.La seconde partie de la recherche s'est articulée autour de la question suivante : est-ce que les esthétiques du goût qui mesurent la « valeur » de l'oeuvre d'art à l'aune d'un jugement subjectif et par l'intensité du sentiment échappent aux apories constitutives de la métaphysique de l'Art ?En un sens, une réponse partielle à cette question est déjà contenue dans l'expression « esthétique du goût ». Cette expression ne doit pas être prise au sens d'une discipline ou d'un corpus unifié : la diversité des positions présentées dans cette recherche, bien que non exhaustive, suffit à le démontrer. Mais ce qui est suggéré par cette expression, c'est que ces manières de questionner l'art sont plus proches du sens original du terme aisthêsis que ne l'est la première esthétique philosophique de l'histoire de la philosophie. L'exercice du goût est une activité propre du sentir qui, en même temps, est en rapport direct avec la capacité intellectuelle à discerner les choses et à un juger avec finesse et justesse.Avec le goût esthétique s'invente une espèce de « sens sans organe » dont la teneur ontologique est hybride, mais dont le nom est identique à celui des cinq sens qui procurent la jouissance sensible la plus immédiate et la moins raisonnable qui soit. Par la reconnaissance de l'existence d'un goût « juste » et « vrai », ou à défaut, au moins de l'existence d'une « norme » indiscutable de celui-ci, c'est-à-dire de la possibilité de formuler un jugement de goût une tentative inédite de spîritualisation de la sensibilité a lieu.Par conséquent, il est loin d'être évident que ce que j'ai appelé les esthétiques du goût échappent à un autre aspect aporétique de la métaphysique de l'Art, à savoir : passer à côté du caractère singulier de telle ou telle oeuvre afin d'en dégager les traits universels qui permettent au discours de s'étayer. Dans une moindre mesure, cela est même le cas dans les Salons de Diderot où, trop souvent, le tableau sert de prétexte à l'élaboration d'un discours brillant.Par contre, tout l'intérêt de la question du goût réside en ceci qu'elle présente, de façon particulièrement aiguë, les limites proprement métaphysiques dont l'esthétique, à titre de discipline philosophique, se fait la légataire et tente à sa manière d'y remédier par une extension inédite du concept de vérité et sa caractérisai ion en termes de vérité « esthéticologique » au paragraphe 427 de Y Esthétique. Cela dit, le fait même que dans l'empirisme la sensibilité s'oppose, une fois de plus, à l'intellect comme source de la naissance des idées - même si c'est dans la perspective d'une réhabilitation de la sensibilité -, indique que l'horizon même de questionnement demeure inchangé. Si le goût a pu enfin acquérir ses lettres de noblesse philosophique, c'est parce qu'il a été ramené, plus ou moins explicitement, du côté de la raison. Le jugement portant sur les arts et, de manière plus générale, sur tout ce qui est affaire de goût ne saurait se limiter au sentiment de plaisir immédiat. Le vécu personnel doit se transcender en vertu de critères qui non seulement permettent de dépasser le relativisme solipsiste, mais aussi de donner forme à l'expérience vécue afin qu'elle manifeste à chaque fois, et de façon singulière, une portée universelle.Le goût, tel qu'il devient un topos des discours sur l'art au 18e siècle, peut, à mon sens, être interprété comme l'équivalent de la glande pinéale dans la physiologie cartésienne : l'invention d'un « je ne sais quoi » situé on ne sait où, sorte d'Hermès qui assure la communication entre l'âme et le corps et sert l'intermédiaire entre l'intellect et la sensibilité. L'expérience décrite dans l'exercice du goût implique de facto une dimension par définition occultée par la métaphysique de l'Art : le désir. Pour goûter, il faut désirer et accepter d'être rempli par l'objet de goût. Dans l'exercice du goût, le corps est en jeu autant que l'intellect, il s'agit d'une expérience totale dans laquelle aucune mise à distance théorétique n'est, en un premier temps, à même de nous prémunir de la violence des passions qui nous affectent. L'ambiguïté de cette notion réside précisément dans son statut ontologiquement problématique. Mais cette incertitude est féconde puisqu'elle met en exergue le caractère problématique de la distinction entre corps et esprit. Dans la notion de goût est contenue l'idée que le corps pense aussi et que, par voie de conséquence, la sensibilité n'est pas dépourvue de dimension spirituelle. Reste que formuler les choses de la sorte revient à rejouer, en quelque sorte, l'antique diaphorâ platonicienne et à convoquer, une fois de plus, les grandes oppositions métaphysiques telles que corps et âme, sensible et intelligible, matière et forme.La troisième partie est entièrement consacrée à Shaftesbury qui anticipe le statut ontologiquement fort de l'oeuvre d'art (tel qu'il sera thématisé par Baumgarten) et l'allie à une critique du goût. Cet auteur peut être considéré comme une forme d'exception qui confirme la règle puisque sa métaphysique de l'Art laisse une place prépondérante à une critique du goût. Mais le cumul de ces deux caractéristiques opposées un peu schématiquement pour les besoins de la démonstration n'invalide pas l'hypothèse de départ qui consiste à dire que la saisie philosophique de la question du goût et l'invention conjointe de l'esthétique au 18e siècle sont deux tentatives de trouver une issue au problème du dualisme des substances.Cette recherche doit être prise comme une forme de propédeutique à la fois absolument nécessaire et parfaitement insuffisante. Après Baumgarten et le siècle du goût philosophique, les propositions de dépassement des apories constitutives d'une tradition qui pense l'art à partir de couples d'oppositions métaphysiques tels qu'âme et corps, forme et matière, ainsi que leurs traductions dans les arts visuels (dessin et couleur ou encore figuration et abstraction), n'ont pas manqué. Il aurait fallu in fine s'effacer pour laisser la place aux plasticiens eux-mêmes, mais aussi aux poètes, non plus dans l'horizon de Y ut pictura, mais lorsqu'ils expriment, sans verser dans l'analyse conceptuelle, leurs rencontres avec telle ou telle oeuvre (je pense à Baudelaire lorsqu'il évoque Constantin Guys, à Charles Ferdinand Ramuz lorsqu'il rend hommage à Cézanne ou encore à Pascal Quignard lorsqu'il raconte les fresques de la maison des Dioscures à Pompéi, pour ne citer que trois noms qui affleurent immédiatement à ma mémoire tant leur souvenir est vivace et leur exemple un modèle). Et puis il s'agit, malgré tout, de ne pas renoncer pour autant au discours esthétique, c'est- à-dire à la philosophie, mais de réinterroger les catégories dont nous sommes les légataires et de penser avec et au-delà des limites qu'elles nous assignent. Mais cela ferait l'objet d'un autre ouvrage.
Resumo:
Ami, ou ennemi, le soleil ? Qui n'a jamais maudit un petit excès de bain de soleil sanctionné par une peau brûlée ? Mais en hiver, quand il se fait rare, l'huile de foie de morue est la panacée que prescrit la sagesse de nos grands-mères pour remplacer la vitamine D qu'en temps normal il nous aide à synthétiser. Pour pouvoir faire le point sur les dangers et les bénéfices du rayonnement solaire, il faut connaître son intensité et en particulier celle du rayonnement ultraviolet (UV) qui a une forte influence sur la santé.Durant ces dernières décades, une forte augmentation des cancers de la peau a été constatée dans les pays développés. La communauté médicale suppose que cette augmentation est liée à une plus forte exposition aux UV, qui serait elle-même due à des changements d'habitudes de la population (engouement pour les loisirs en plein air, pour les vacances sous les tropiques, popularité du bronzage, etc.) et éventuellement à un accroissement du rayonnement UV. [Auteurs]
Resumo:
In IVF around 70% of embryos fail to implant. Often more than one embryo is transferred in order to enhance the chances of pregnancy, but this is at the price of an increased multiple pregnancy risk. In the aim to increase the success rate with a single embryo, research projects on prognostic factors of embryo viability have been initiated, but no marker has found a routine clinical application to date. Effects of soluble human leukocyte antigen-G (sHLA-G) on both NK cell activity and on Th1/Th2 cytokine balance suggest a role in the embryo implantation process, but the relevance of sHLA-G measurements in embryo culture medium and in follicular fluid (FF) are inconsistent to date. In this study, we have investigated the potential of sHLA-G in predicting the achievement of a pregnancy after IVF-ICSI in a large number of patients (n = 221). sHLA-G was determined in media and in FF by ELISA. In both FF and embryo medium, no significant differences in sHLA-G concentrations were observed between the groups "pregnancy" and "implantation failure", or between the groups "ongoing" versus "miscarried pregnancies". Our results do not favour routine sHLA-G determinations in the FF nor in embryo conditioned media, with the current assay technology available.
Resumo:
Le terme complexe d'épistémologie médicale peut être explicité en définissant la médecine comme construite sur trois pôles fondamentaux et la relation qui lie ces trois pôles: le projet fondateur, l'objet du projet et les outils servant au projet. Ces trois pôles forment l'épistémologie médicale. Le projet est celui de soigner, ou encore de défendre contre la maladie: il s'agit d'agir sur le phénomène pathologique afin qu'il disparaisse. Or pour cela, il faut d'abord rendre ce phénomène visible. En d'autres termes, la construction du concept même de pathologie est indispensable au projet thérapeutique qui a besoin de faire apparaître son objet afin de pouvoir mieux le faire disparaître. L'objet dont on parle, c'est la maladie. Or, cet objet conceptuel doit être élaboré à l'aide d'outils conceptuels permettant de construire une représentation du modèle du pathologique. Ces outils sont toutes les théories conceptuelles de la maladie qui ont pu exister à travers les siècles et qui sont des application au domaine médical de différentes conceptualisations du monde, propres à chaque époque, telles que la philosophie ou la science par exemple. Le projet thérapeutique -‐ faire disparaître le phénomène pathologique - exige donc tout d'abord l'existence de son objet -‐ le concept de la maladie. Par la suite, il faut élaborer cet objet en un modèle de représentation de la maladie, modèle qui fournit un substrat sur lequel on peut alors appliquer des outils actifs qui, à leur tour, peuvent agir sur la maladie et tenter donc de faire disparaître le phénomène pathologique. Ces outils actifs, issus des outils conceptuels, sont en fait les techniques appliquées à la maladie. Nous distinguerons encore une troisième catégorie d'outils, faisant le lien entre les outils conceptuels et les outils actifs en rendant traductible par le corps le concept du phénomène pathologique: ce sont les outils sémiologiques. L'étude de l'épistémologie peut être définie comme l'étude de la production, de la construction et de la validation du savoir. Elle s'intéresse à comprendre comment est produite la connaissance scientifique. Or, cette production est construite de l'interaction entre les divers éléments qui définissent l'originalité des différents domaines de la science et que nous avons réunis dans les trois catégories du projet, de l'objet et des outils. Nous retrouvons ici les trois pôles fondateurs de la médecine, que nous avons définis plus haut en tant qu'objets d'étude de l'épistémologie médicale. Dans la première partie, théorique, de ce travail, qui est basée sur l'analyse de la littérature, nous nous intéresserons aux changements chronologiques de leur nature et de leurs relations dans le but de comprendre comment l'épistémologie médicale, en proposant une interprétation du phénomène pathologique, participe à la construction historique, culturelle et sociale de la maladie. La deuxième partie, pratique, est constituée de l'analyse d'interviews de médecins FMH et s'interroge sur la façon dont le médecin intègre, gère, interprète et applique l'héritage constamment en mouvement du savoir médical dans sa pratique de la médecine. En d'autres termes, comment du mélange d'un savoir médical historiquement transmis et du savoir acquis de son expérience, le médecin construit son propre socle épistémologique.
Resumo:
At the end of a sporting career, triathletes are often living as a couple and the cessation of sport has an effect on the their relationship. While a large part of the existence and identity of the couple is dedicated to the triathlon, disengagement from sport undeniably changes the gender balance. The allocation of roles is not a linear process in a couple, and the effects of giving up sport have not really been studied. Therefore, this article focuses on how couples deal with the various ways a sporting career comes to an end, which are characterized by changes in direction and temporary or permanent cessation. Sex, roles, age, social class, respective commitments or the fact of having children are variables taken into account in this analysis. The survey is based on interviews conducted with 10 couples. The analysis suggests that the disengagement from sport depends on how compromise was established during the sporting career. Between those who support their partner's sporting career, those who share it intermittently and those who pursue their own activities even to the exclusion of the other, the way to manage disengagement can vary depending on the situation and the roles assigned to each person.
Resumo:
L'Etude Suisse de Cohorte VIH a été mise en place en 1988. Plusieurs centres participent à cette étude : les hôpitaux universitaires de Zurich, Berne, Bâle, Genève et Lausanne, les hôpitaux cantonaux de Saint-Gall et du Tessin, 14 hôpitaux régionaux, ainsi que 35 praticiens privés. Cette étude a collecté des données de plus de 16500 personnes infectées par le VIH, de 1981 jusqu'aujourd'hui.¦Actuellement, plus de 7000 patients sont suivis tous les 6 mois. Parmi les analyses demandées au cours de ce suivi figure un test annuel de dépistage de la syphilis. Ce dépistage consiste en un test TPHA (Treponema Pallidum Haemagglutination Assay) où l'on observe l'hémagglutination de globules rouges qui ont absorbé des antigènes du tréponème, ou ses équivalents LIAISON et ARCHITECT.¦Si ce test TPHA est positif, un test VDRL, qui détecte des anticorps dirigés contre la cardiolipine, est effectué.¦Pour des raisons économiques, ce dépistage annuel systématique de la syphilis est remis en question par l'un des médecins praticiens participant à l'Etude Suisse de Cohorte VIH, estimant que ce dépistage ne devrait être demandé chaque année que chez les personnes étant identifiées comme à risque.¦Notre objectif est d'évaluer la nécessité de faire un dépistage de la syphilis annuel chez tous les patients de la Cohorte en comparaison à un dépistage annuel seulement chez le groupe jugé à risque.¦Pour pouvoir répondre à cette question, nous allons dans un premier temps faire une analyse descriptive : nous allons analyser quels patients ont développé une séroconversion en fonction de l'âge, du sexe et de la voie d'infection du VIH la plus probable (voie homosexuelle, hétérosexuelle ou consommation de drogues).¦Une conversion du test TPHA de négatif à positif n'est pas toujours synonyme d'infection à treponema pallidum. Une infection diagnostiquée au stade primaire et traitée efficacement ne provoque pas nécessairement des anticorps. A l'inverse, le test TPHA peut être faussement positif dû à une réaction croisée (p.ex. framboesie) ou non-spécifique (maladies auto-immunes). Pour l'analyse descriptive nous devons toutefois nous limiter à la séroconversion.¦Pour pouvoir faire cette analyse nous devons extraire certaines données, et procéder à un « nettoyage » de celles-ci : en effet, nous ne pouvons garder que les données des 700 patients ayant au moins un test initial de TPHA négatif, suivi d'un test TPHA positif avec un VDRL positif.¦Puis nous allons faire une étude « cas-témoins » pour comparer l'anamnèse sexuelle des patients présentant une séroconversion avec celle des patients qui n'ont pas développé d'anticorps, afin d'évaluer si nous pouvons définir, d'après l'anamnèse sexuelle, un groupe de sujets plus à risque de développer une syphilis. Cas et témoins seront stratifiés selon l'âge, le sexe et le mode d'infection du VIH.¦Comme troisième étape nous allons définir, pour un sous-échantillon, si le résultat positif du dépistage a permis de diagnostiquer la syphilis ou si le diagnostique avait déjà été établi grâce à la présence de symptômes.¦Etant donné que ce dépistage systématique est remis en cause pour des raisons financières, nous allons finalement, au cours de cette étude, estimer le coût des différentes options.¦Notre hypothèse, tirée d'après les déclarations de cas de syphilis de l'OFSP (Office Fédéral de la Santé Publique) et l'expérience des cliniciens, est que l'on trouve en effet que les homosexuels de moins de 50 ans représentent un grand pourcentage des personnes infectées par la syphilis. Cependant, nous ne savons pas si la fréquence d'infection des autres groupes de patients est suffisamment élevée pour justifier ce dépistage systématique.
Resumo:
Résumé Né à Munich en 1880, Julius Spanier obtient le titre de médecin en 1904. Après deux ans de spécialisation en pédiatrie, il ouvre son propre cabinet de médecin généraliste et spécialiste des maladies de l'enfance à Munich. Dès 1913, il participe à l'essor de la pédiatrie sociale et préventive de sa ville natale en assumant la direction de consultations de nourrissons. Ce travail - en partie interrompu par la Première Guerre mondiale à laquelle a participé le Dr Spanier comme médecin militaire - prend fin en 1933 lors de la prise de pouvoir nazie en raison des origines juives de notre médecin. Ces 30 années correspondent en Allemagne à un essor particulier de la pédiatrie sociale et préventive. Au début du XXème siècle apparaissent les premières consultations de nourrissons ; ainsi que de nombreuses associations de médecine sociale. La Première Guerre mondiale donne un élan décisif à la pédiatrie sociale, qui devient désormais une affaire d'Etat et dont le but est la diminution de la mortalité des nourrissons afin de remplacer les pertes humaines subies sur les champs de bataille. Après la fin de la guerre, les idées eugéniques de promouvoir une race aryenne pure prennent une place croissante dans la pédiatrie sociale. Une autre facette du développement de la pédiatrie sociale en Allemagne est l'institution, vers la fin du XIXème siècle, des premiers médecins scolaires. Le développement de la médecine scolaire est plus discret que celui de la médecine sociale des nourrissons, car suscitant moins d'intérêt de la part de l'Etat. Il s'imprègne aussi cependant des idées eugéniques de l'entre-deux-guerres. A Munich également, la médecine scolaire, fondée en 1907, ne connaît qu'un faible essor, jusqu'en 1933 qui sera le théâtre des réformes nazies. Le Dr Spanier devient en 1919 médecin scolaire en emploi accessoire, s'occupant de deux écoles de quartiers populaires munichois. Lors de la prise de pouvoir par Hitler, il est démis de ses fonctions comme médecin scolaire. Toute une législation dirigée contre les médecins juifs est mise en place, qui conduit en 1938 au retrait du droit d'exercer. Une minorité de médecins, nommés « Krankenbehandler », sont encore autorisés à soigner exclusivement les membres de la communauté juive. A Munich, capitale du mouvement nazi, 14 « Krankenbehandler » sont désignés, dont le Dr Spanier. Leur consultation se trouve dans l'unique hôpital juif de la ville, dont le nombre de lits est largement insuffisant face aux besoins rencontrés au sein de la communauté juive. En plus de son travail comme médecin-chef de l'hôpital juif, le Dr Spanier est médecin dans un camp de travail et un ghetto juifs de Munich. En 1942, lui, sa femme, les infirmières et tous les patients de la clinique sont déportés vers le camp de concentration de Theresienstadt, étape précédant dans la plupart des cas une déportation vers Auschwitz. De 1942 à 1945, le Dr Spanier exerce ses fonctions de médecin auprès des déportés du camp, avec le peu de moyens à disposition et dans un dévouement infatigable. Lui et sa femme échappent miraculeusement à la mort et reviennent à Munich en 1945. Le Dr Spanier assume alors diverses fonctions comme médecin et au sein de diverses organisations de dénazification et reconstruction d'une communauté juive munichoise. Il meurt en 1959.
Resumo:
Abstract: The expansion of a recovering population - whether re-introduced or spontaneously returning - is shaped by (i) biological (intrinsic) factors such as the land tenure system or dispersal, (ii) the distribution and availability of resources (e.g. prey), (iii) habitat and landscape features, and (iv) human attitudes and activities. In order to develop efficient conservation and recovery strategies, we need to understand all these factors and to predict the potential distribution and explore ways to reach it. An increased number of lynx in the north-western Swiss Alps in the nineties lead to a new controversy about the return of this cat. When the large carnivores were given legal protection in many European countries, most organizations and individuals promoting their protection did not foresee the consequences. Management plans describing how to handle conflicts with large predators are needed to find a balance between "overabundance" and extinction. Wildlife and conservation biologists need to evaluate the various threats confronting populations so that adequate management decisions can be taken. I developed a GIS probability model for the lynx, based on habitat information and radio-telemetry data from the Swiss Jura Mountains, in order to predict the potential distribution of the lynx in this mountain range, which is presently only partly occupied by lynx. Three of the 18 variables tested for each square kilometre describing land use, vegetation, and topography, qualified to predict the probability of lynx presence. The resulting map was evaluated with data from dispersing subadult lynx. Young lynx that were not able to establish home ranges in what was identified as good lynx habitat did not survive their first year of independence, whereas the only one that died in good lynx habitat was illegally killed. Radio-telemetry fixes are often used as input data to calibrate habitat models. Radio-telemetry is the only way to gather accurate and unbiased data on habitat use of elusive larger terrestrial mammals. However, it is time consuming and expensive, and can therefore only be applied in limited areas. Habitat models extrapolated over large areas can in turn be problematic, as habitat characteristics and availability may change from one area to the other. I analysed the predictive power of Ecological Niche Factor Analysis (ENFA) in Switzerland with the lynx as focal species. According to my results, the optimal sampling strategy to predict species distribution in an Alpine area lacking available data would be to pool presence cells from contrasted regions (Jura Mountains, Alps), whereas in regions with a low ecological variance (Jura Mountains), only local presence cells should be used for the calibration of the model. Dispersal influences the dynamics and persistence of populations, the distribution and abundance of species, and gives the communities and ecosystems their characteristic texture in space and time. Between 1988 and 2001, the spatio-temporal behaviour of subadult Eurasian lynx in two re-introduced populations in Switzerland was studied, based on 39 juvenile lynx of which 24 were radio-tagged to understand the factors influencing dispersal. Subadults become independent from their mothers at the age of 8-11 months. No sex bias neither in the dispersal rate nor in the distance moved was detected. Lynx are conservative dispersers, compared to bear and wolf, and settled within or close to known lynx occurrences. Dispersal distances reached in the high lynx density population - shorter than those reported in other Eurasian lynx studies - are limited by habitat restriction hindering connections with neighbouring metapopulations. I postulated that high lynx density would lead to an expansion of the population and validated my predictions with data from the north-western Swiss Alps where about 1995 a strong increase in lynx abundance took place. The general hypothesis that high population density will foster the expansion of the population was not confirmed. This has consequences for the re-introduction and recovery of carnivores in a fragmented landscape. To establish a strong source population in one place might not be an optimal strategy. Rather, population nuclei should be founded in several neighbouring patches. Exchange between established neighbouring subpopulations will later on take place, as adult lynx show a higher propensity to cross barriers than subadults. To estimate the potential population size of the lynx in the Jura Mountains and to assess possible corridors between this population and adjacent areas, I adapted a habitat probability model for lynx distribution in the Jura Mountains with new environmental data and extrapolated it over the entire mountain range. The model predicts a breeding population ranging from 74-101 individuals and from 51-79 individuals when continuous habitat patches < 50 km2 are disregarded. The Jura Mountains could once be part of a metapopulation, as potential corridors exist to the adjoining areas (Alps, Vosges Mountains, and Black Forest). Monitoring of the population size, spatial expansion, and the genetic surveillance in the Jura Mountains must be continued, as the status of the population is still critical. ENFA was used to predict the potential distribution of lynx in the Alps. The resulting model divided the Alps into 37 suitable habitat patches ranging from 50 to 18,711 km2, covering a total area of about 93,600 km2. When using the range of lynx densities found in field studies in Switzerland, the Alps could host a population of 961 to 1,827 residents. The results of the cost-distance analysis revealed that all patches were within the reach of dispersing lynx, as the connection costs were in the range of dispersal cost of radio-tagged subadult lynx moving through unfavorable habitat. Thus, the whole Alps could once be considered as a metapopulation. But experience suggests that only few disperser will cross unsuitable areas and barriers. This low migration rate may seldom allow the spontaneous foundation of new populations in unsettled areas. As an alternative to natural dispersal, artificial transfer of individuals across the barriers should be considered. Wildlife biologists can play a crucial role in developing adaptive management experiments to help managers learning by trial. The case of the lynx in Switzerland is a good example of a fruitful cooperation between wildlife biologists, managers, decision makers and politician in an adaptive management process. This cooperation resulted in a Lynx Management Plan which was implemented in 2000 and updated in 2004 to give the cantons directives on how to handle lynx-related problems. This plan was put into practice e.g. in regard to translocation of lynx into unsettled areas. Résumé: L'expansion d'une population en phase de recolonisation, qu'elle soit issue de réintroductions ou d'un retour naturel dépend 1) de facteurs biologiques tels que le système social et le mode de dispersion, 2) de la distribution et la disponibilité des ressources (proies), 3) de l'habitat et des éléments du paysage, 4) de l'acceptation de l'espèce par la population locale et des activités humaines. Afin de pouvoir développer des stratégies efficaces de conservation et de favoriser la recolonisation, chacun de ces facteurs doit être pris en compte. En plus, la distribution potentielle de l'espèce doit pouvoir être déterminée et enfin, toutes les possibilités pour atteindre les objectifs, examinées. La phase de haute densité que la population de lynx a connue dans les années nonante dans le nord-ouest des Alpes suisses a donné lieu à une controverse assez vive. La protection du lynx dans de nombreux pays européens, promue par différentes organisations, a entraîné des conséquences inattendues; ces dernières montrent que tout plan de gestion doit impérativement indiquer des pistes quant à la manière de gérer les conflits, tout en trouvant un équilibre entre l'extinction et la surabondance de l'espèce. Les biologistes de la conservation et de la faune sauvage doivent pour cela évaluer les différents risques encourus par les populations de lynx, afin de pouvoir rapidement prendre les meilleuresmdécisions de gestion. Un modèle d'habitat pour le lynx, basé sur des caractéristiques de l'habitat et des données radio télémétriques collectées dans la chaîne du Jura, a été élaboré afin de prédire la distribution potentielle dans cette région, qui n'est que partiellement occupée par l'espèce. Trois des 18 variables testées, décrivant pour chaque kilomètre carré l'utilisation du sol, la végétation ainsi que la topographie, ont été retenues pour déterminer la probabilité de présence du lynx. La carte qui en résulte a été comparée aux données télémétriques de lynx subadultes en phase de dispersion. Les jeunes qui n'ont pas pu établir leur domaine vital dans l'habitat favorable prédit par le modèle n'ont pas survécu leur première année d'indépendance alors que le seul individu qui est mort dans l'habitat favorable a été braconné. Les données radio-télémétriques sont souvent utilisées pour l'étalonnage de modèles d'habitat. C'est un des seuls moyens à disposition qui permette de récolter des données non biaisées et précises sur l'occupation de l'habitat par des mammifères terrestres aux moeurs discrètes. Mais ces méthodes de- mandent un important investissement en moyens financiers et en temps et peuvent, de ce fait, n'être appliquées qu'à des zones limitées. Les modèles d'habitat sont ainsi souvent extrapolés à de grandes surfaces malgré le risque d'imprécision, qui résulte des variations des caractéristiques et de la disponibilité de l'habitat d'une zone à l'autre. Le pouvoir de prédiction de l'Analyse Ecologique de la Niche (AEN) dans les zones où les données de présence n'ont pas été prises en compte dans le calibrage du modèle a été analysée dans le cas du lynx en Suisse. D'après les résultats obtenus, la meilleure mé- thode pour prédire la distribution du lynx dans une zone alpine dépourvue d'indices de présence est de combiner des données provenant de régions contrastées (Alpes, Jura). Par contre, seules les données sur la présence locale de l'espèce doivent être utilisées pour les zones présentant une faible variance écologique tel que le Jura. La dispersion influence la dynamique et la stabilité des populations, la distribution et l'abondance des espèces et détermine les caractéristiques spatiales et temporelles des communautés vivantes et des écosystèmes. Entre 1988 et 2001, le comportement spatio-temporel de lynx eurasiens subadultes de deux populations réintroduites en Suisse a été étudié, basé sur le suivi de 39 individus juvéniles dont 24 étaient munis d'un collier émetteur, afin de déterminer les facteurs qui influencent la dispersion. Les subadultes se sont séparés de leur mère à l'âge de 8 à 11 mois. Le sexe n'a pas eu d'influence sur le nombre d'individus ayant dispersés et la distance parcourue au cours de la dispersion. Comparé à l'ours et au loup, le lynx reste très modéré dans ses mouvements de dispersion. Tous les individus ayant dispersés se sont établis à proximité ou dans des zones déjà occupées par des lynx. Les distances parcourues lors de la dispersion ont été plus courtes pour la population en phase de haute densité que celles relevées par les autres études de dispersion du lynx eurasien. Les zones d'habitat peu favorables et les barrières qui interrompent la connectivité entre les populations sont les principales entraves aux déplacements, lors de la dispersion. Dans un premier temps, nous avons fait l'hypothèse que les phases de haute densité favorisaient l'expansion des populations. Mais cette hypothèse a été infirmée par les résultats issus du suivi des lynx réalisé dans le nord-ouest des Alpes, où la population connaissait une phase de haute densité depuis 1995. Ce constat est important pour la conservation d'une population de carnivores dans un habitat fragmenté. Ainsi, instaurer une forte population source à un seul endroit n'est pas forcément la stratégie la plus judicieuse. Il est préférable d'établir des noyaux de populations dans des régions voisines où l'habitat est favorable. Des échanges entre des populations avoisinantes pourront avoir lieu par la suite car les lynx adultes sont plus enclins à franchir les barrières qui entravent leurs déplacements que les individus subadultes. Afin d'estimer la taille de la population de lynx dans le Jura et de déterminer les corridors potentiels entre cette région et les zones avoisinantes, un modèle d'habitat a été utilisé, basé sur un nouveau jeu de variables environnementales et extrapolé à l'ensemble du Jura. Le modèle prédit une population reproductrice de 74 à 101 individus et de 51 à 79 individus lorsque les surfaces d'habitat d'un seul tenant de moins de 50 km2 sont soustraites. Comme des corridors potentiels existent effectivement entre le Jura et les régions avoisinantes (Alpes, Vosges, et Forêt Noire), le Jura pourrait faire partie à l'avenir d'une métapopulation, lorsque les zones avoisinantes seront colonisées par l'espèce. La surveillance de la taille de la population, de son expansion spatiale et de sa structure génétique doit être maintenue car le statut de cette population est encore critique. L'AEN a également été utilisée pour prédire l'habitat favorable du lynx dans les Alpes. Le modèle qui en résulte divise les Alpes en 37 sous-unités d'habitat favorable dont la surface varie de 50 à 18'711 km2, pour une superficie totale de 93'600 km2. En utilisant le spectre des densités observées dans les études radio-télémétriques effectuées en Suisse, les Alpes pourraient accueillir une population de lynx résidents variant de 961 à 1'827 individus. Les résultats des analyses de connectivité montrent que les sous-unités d'habitat favorable se situent à des distances telles que le coût de la dispersion pour l'espèce est admissible. L'ensemble des Alpes pourrait donc un jour former une métapopulation. Mais l'expérience montre que très peu d'individus traverseront des habitats peu favorables et des barrières au cours de leur dispersion. Ce faible taux de migration rendra difficile toute nouvelle implantation de populations dans des zones inoccupées. Une solution alternative existe cependant : transférer artificiellement des individus d'une zone à l'autre. Les biologistes spécialistes de la faune sauvage peuvent jouer un rôle important et complémentaire pour les gestionnaires de la faune, en les aidant à mener des expériences de gestion par essai. Le cas du lynx en Suisse est un bel exemple d'une collaboration fructueuse entre biologistes de la faune sauvage, gestionnaires, organes décisionnaires et politiciens. Cette coopération a permis l'élaboration du Concept Lynx Suisse qui est entré en vigueur en 2000 et remis à jour en 2004. Ce plan donne des directives aux cantons pour appréhender la problématique du lynx. Il y a déjà eu des applications concrètes sur le terrain, notamment par des translocations d'individus dans des zones encore inoccupées.