998 resultados para Taxe a la Valeur Ajoutee


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le prélèvement des ganglions sentinelles apparaît comme une technique séduisante pour l'évaluation ganglionnaire des cancers du col utérin de faible stade. La sélection d'une population à bas risque de métastase ganglionnaire, un entraînement minimal et le respect de quelques règles simples permettent de limiter le risque de faux négatif au minimum. La technique apporte des informations supplémentaires sur le plan anatomique en identifiant des ganglions situés en dehors des zones habituelles de curage, et sur le plan histologique avec la mise en évidence de cellules tumorales isolées et surtout de micrométastases dont la valeur pronostique est suspectée Sentinel node biopsy appears as a promising technique for the assessment of nodal disease in early cervical cancers. Selection of a population with a low risk of nodal metastasis, a minimal training, and simple rules allow a low false negative rate. Sentinel node biopsy provides supplementary information, such as anatomical information (nodes outside of routine lymphadenectomy areas) and histological information (isolated tumors cells and micrometastases).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Recent years have seen an emerging knowledge base and increasing public interest and awareness of sexual-economic relationships between local men and Western women, in different touristic regions around the world. However, to date, Western perspectives on the phenomenon make up the bulk of the existent literature. Questioning the dominant discourse of 'romance tourism' and representations of male participants as 'victims-opportunists', this dissertation explores male beach workers' experiences with, and perspectives on sexual-economic relationships between Kenyan men and visiting Western women in Kenya's South Coast region. The men were not considered in isolation; their experiences and perspectives are situated in relation to their family ties, social networks and the political economy of beach tourism. The study shows that locally these relationships are clearly understood as livelihood strategies for the visited. Men seek to establish long-term intimate relationships with female tourists as a means to accessing life's basic necessities for themselves and for their families and overall to improve their standards of living. It is argued that these relationships are a response to the poverty and inequalities generated by socio-economic changes over time. They are also a response to local gender role prescriptions that hinge male social value on men's capacity to marry, procreate and provide intergenerational social and economic support. The men's parallel quest for non-sexual economically motivated friendships with visiting foreign tourists termed "family friends" is a salient finding, that serves to reinforce the finding that the sexual- economic relationships are above all livelihood strategies. Résumé Ces dernières années ont vu l'émergence d'une base de connaissance, ainsi que d'un intérêt et d'une prise de conscience accrue du public, à l'égard des relations économico-sexuelles entre hommes locaux et femmes occidentales, dans différentes régions touristiques du monde. Cependant, à ce jour, des perspectives occidentales sur ce phénomène constituent l'essentiel de la littérature existante. En remettant en question le discours dominant du «romance tourism» (tourisme sentimental) et les représentations qui conçoivent les hommes participants comme étant 'victimes-opportunistes', cette thèse explore les expériences, et les visions qu'ont les travailleurs de plage sur les relations économico-sexuelles entre hommes Kenyans et femmes Occidentales dans la région de la côte sud du Kenya. Les hommes n'ont pas été considérés de manière isolée; leurs expériences et leurs perspectives sont situées par rapport à leur liens familiaux, leur réseaux sociaux et aussi par rapport à l'économie politique du tourisme balnéaire. L'étude montre que sur place ces relations sont clairement conçues comme des stratégies de survie pour les participants hôtes. Les hommes cherchent à établir des relations de long durée avec des femmes touristes comme moyen d'accéder à des biens et des services qui constituent des nécessités de bases, pour eux et pour leur familles et globalement pour relever leur niveau de vie! L'étude fait valoir que ces relations sont une réponse à la pauvreté et aux inégalités sociales crées par des dynamiques socio-économiques au fil du temps. Elles sont aussi une réponse au prescriptions sociales locales par lesquelles la valeur sociale masculine est définie à travers la capacité des hommes à se marier, à procréer et d'assurer un soutien intergénérationnel social et économique. La quête, en parallèle, de relations d'amitiés non-sexuelles à motivation économique, dénommé « family friends », par des hommes, est un résultat saillant de cette étude qui vient renforcer l'observation que les relations économico-sexuelles relèvent avant tout des stratégies de survie.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Summary Landscapes are continuously changing. Natural forces of change such as heavy rainfall and fires can exert lasting influences on their physical form. However, changes related to human activities have often shaped landscapes more distinctly. In Western Europe, especially modern agricultural practices and the expanse of overbuilt land have left their marks in the landscapes since the middle of the 20th century. In the recent years men realised that mare and more changes that were formerly attributed to natural forces might indirectly be the result of their own action. Perhaps the most striking landscape change indirectly driven by human activity we can witness in these days is the large withdrawal of Alpine glaciers. Together with the landscapes also habitats of animal and plant species have undergone vast and sometimes rapid changes that have been hold responsible for the ongoing loss of biodiversity. Thereby, still little knowledge is available about probable effects of the rate of landscape change on species persistence and disappearance. Therefore, the development and speed of land use/land cover in the Swiss communes between the 1950s and 1990s were reconstructed using 10 parameters from agriculture and housing censuses, and were further correlated with changes in butterfly species occurrences. Cluster analyses were used to detect spatial patterns of change on broad spatial scales. Thereby, clusters of communes showing similar changes or transformation rates were identified for single decades and put into a temporally dynamic sequence. The obtained picture on the changes showed a prevalent replacement of non-intensive agriculture by intensive practices, a strong spreading of urban communes around city centres, and transitions towards larger farm sizes in the mountainous areas. Increasing transformation rates toward more intensive agricultural managements were especially found until the 1970s, whereas afterwards the trends were commonly negative. However, transformation rates representing the development of residential buildings showed positive courses at any time. The analyses concerning the butterfly species showed that grassland species reacted sensitively to the density of livestock in the communes. This might indicate the augmented use of dry grasslands as cattle pastures that show altered plant species compositions. Furthermore, these species also decreased in communes where farms with an agricultural area >5ha have disappeared. The species of the wetland habitats were favoured in communes with smaller fractions of agricultural areas and lower densities of large farms (>10ha) but did not show any correlation to transformation rates. It was concluded from these analyses that transformation rates might influence species disappearance to a certain extent but that states of the environmental predictors might generally outweigh the importance of the corresponding rates. Information on the current distribution of species is evident for nature conservation. Planning authorities that define priority areas for species protection or examine and authorise construction projects need to know about the spatial distribution of species. Hence, models that simulate the potential spatial distribution of species have become important decision tools. The underlying statistical analyses such as the widely used generalised linear models (GLM) often rely on binary species presence-absence data. However, often only species presence data have been colleted, especially for vagrant, rare or cryptic species such as butterflies or reptiles. Modellers have thus introduced randomly selected absence data to design distribution models. Yet, selecting false absence data might bias the model results. Therefore, we investigated several strategies to select more reliable absence data to model the distribution of butterfly species based on historical distribution data. The results showed that better models were obtained when historical data from longer time periods were considered. Furthermore, model performance was additionally increased when long-term data of species that show similar habitat requirements as the modelled species were used. This successful methodological approach was further applied to assess consequences of future landscape changes on the occurrence of butterfly species inhabiting dry grasslands or wetlands. These habitat types have been subjected to strong deterioration in the recent decades, what makes their protection a future mission. Four spatially explicit scenarios that described (i) ongoing land use changes as observed between 1985 and 1997, (ii) liberalised agricultural markets, and (iii) slightly and (iv) strongly lowered agricultural production provided probable directions of landscape change. Current species-environment relationships were derived from a statistical model and used to predict future occurrence probabilities in six major biogeographical regions in Switzerland, comprising the Jura Mountains, the Plateau, the Northern and Southern Alps, as well as the Western and Eastern Central Alps. The main results were that dry grasslands species profited from lowered agricultural production, whereas overgrowth of open areas in the liberalisation scenario might impair species occurrence. The wetland species mostly responded with decreases in their occurrence probabilities in the scenarios, due to a loss of their preferred habitat. Further analyses about factors currently influencing species occurrences confirmed anthropogenic causes such as urbanisation, abandonment of open land, and agricultural intensification. Hence, landscape planning should pay more attention to these forces in areas currently inhabited by these butterfly species to enable sustainable species persistence. In this thesis historical data were intensively used to reconstruct past developments and to make them useful for current investigations. Yet, the availability of historical data and the analyses on broader spatial scales has often limited the explanatory power of the conducted analyses. Meaningful descriptors of former habitat characteristics and abundant species distribution data are generally sparse, especially for fine scale analyses. However, this situation can be ameliorated by broadening the extent of the study site and the used grain size, as was done in this thesis by considering the whole of Switzerland with its communes. Nevertheless, current monitoring projects and data recording techniques are promising data sources that might allow more detailed analyses about effects of long-term species reactions on landscape changes in the near future. This work, however, also showed the value of historical species distribution data as for example their potential to locate still unknown species occurrences. The results might therefore contribute to further research activities that investigate current and future species distributions considering the immense richness of historical distribution data. Résumé Les paysages changent continuellement. Des farces naturelles comme des pluies violentes ou des feux peuvent avoir une influence durable sur la forme du paysage. Cependant, les changements attribués aux activités humaines ont souvent modelé les paysages plus profondément. Depuis les années 1950 surtout, les pratiques agricoles modernes ou l'expansion des surfaces d'habitat et d'infrastructure ont caractérisé le développement du paysage en Europe de l'Ouest. Ces dernières années, l'homme a commencé à réaliser que beaucoup de changements «naturels » pourraient indirectement résulter de ses propres activités. Le changement de paysage le plus apparent dont nous sommes témoins de nos jours est probablement l'immense retraite des glaciers alpins. Avec les paysages, les habitats des animaux et des plantes ont aussi été exposés à des changements vastes et quelquefois rapides, tenus pour coresponsable de la continuelle diminution de la biodiversité. Cependant, nous savons peu des effets probables de la rapidité des changements du paysage sur la persistance et la disparition des espèces. Le développement et la rapidité du changement de l'utilisation et de la couverture du sol dans les communes suisses entre les années 50 et 90 ont donc été reconstruits au moyen de 10 variables issues des recensements agricoles et résidentiels et ont été corrélés avec des changements de présence des papillons diurnes. Des analyses de groupes (Cluster analyses) ont été utilisées pour détecter des arrangements spatiaux de changements à l'échelle de la Suisse. Des communes avec des changements ou rapidités comparables ont été délimitées pour des décennies séparées et ont été placées en séquence temporelle, en rendrent une certaine dynamique du changement. Les résultats ont montré un remplacement répandu d'une agriculture extensive des pratiques intensives, une forte expansion des faubourgs urbains autour des grandes cités et des transitions vers de plus grandes surfaces d'exploitation dans les Alpes. Dans le cas des exploitations agricoles, des taux de changement croissants ont été observés jusqu'aux années 70, alors que la tendance a généralement été inversée dans les années suivantes. Par contre, la vitesse de construction des nouvelles maisons a montré des courbes positives pendant les 50 années. Les analyses sur la réaction des papillons diurnes ont montré que les espèces des prairies sèches supportaient une grande densité de bétail. Il est possible que dans ces communes beaucoup des prairies sèches aient été fertilisées et utilisées comme pâturages, qui ont une autre composition floristique. De plus, les espèces ont diminué dans les communes caractérisées par une rapide perte des fermes avec une surface cultivable supérieure à 5 ha. Les espèces des marais ont été favorisées dans des communes avec peu de surface cultivable et peu de grandes fermes, mais n'ont pas réagi aux taux de changement. Il en a donc été conclu que la rapidité des changements pourrait expliquer les disparitions d'espèces dans certains cas, mais que les variables prédictives qui expriment des états pourraient être des descripteurs plus importants. Des informations sur la distribution récente des espèces sont importantes par rapport aux mesures pour la conservation de la nature. Pour des autorités occupées à définir des zones de protection prioritaires ou à autoriser des projets de construction, ces informations sont indispensables. Les modèles de distribution spatiale d'espèces sont donc devenus des moyens de décision importants. Les méthodes statistiques courantes comme les modèles linéaires généralisés (GLM) demandent des données de présence et d'absence des espèces. Cependant, souvent seules les données de présence sont disponibles, surtout pour les animaux migrants, rares ou cryptiques comme des papillons ou des reptiles. C'est pourquoi certains modélisateurs ont choisi des absences au hasard, avec le risque d'influencer le résultat en choisissant des fausses absences. Nous avons établi plusieurs stratégies, basées sur des données de distribution historique des papillons diurnes, pour sélectionner des absences plus fiables. Les résultats ont démontré que de meilleurs modèles pouvaient être obtenus lorsque les données proviennent des périodes de temps plus longues. En plus, la performance des modèles a pu être augmentée en considérant des données de distribution à long terme d'espèces qui occupent des habitats similaires à ceux de l'espèce cible. Vu le succès de cette stratégie, elle a été utilisée pour évaluer les effets potentiels des changements de paysage futurs sur la distribution des papillons des prairies sèches et marais, deux habitats qui ont souffert de graves détériorations. Quatre scénarios spatialement explicites, décrivant (i) l'extrapolation des changements de l'utilisation de sol tels qu'observés entre 1985 et 1997, (ii) la libéralisation des marchés agricoles, et une production agricole (iii) légèrement amoindrie et (iv) fortement diminuée, ont été utilisés pour générer des directions de changement probables. Les relations actuelles entre la distribution des espèces et l'environnement ont été déterminées par le biais des modèles statistiques et ont été utilisées pour calculer des probabilités de présence selon les scénarios dans six régions biogéographiques majeures de la Suisse, comportant le Jura, le Plateau, les Alpes du Nord, du Sud, centrales orientales et centrales occidentales. Les résultats principaux ont montré que les espèces des prairies sèches pourraient profiter d'une diminution de la production agricole, mais qu'elles pourraient aussi disparaître à cause de l'embroussaillement des terres ouvertes dû à la libéralisation des marchés agricoles. La probabilité de présence des espèces de marais a décrû à cause d'une perte générale des habitats favorables. De plus, les analyses ont confirmé que des causes humaines comme l'urbanisation, l'abandon des terres ouvertes et l'intensification de l'agriculture affectent actuellement ces espèces. Ainsi ces forces devraient être mieux prises en compte lors de planifications paysagères, pour que ces papillons diurnes puissent survivre dans leurs habitats actuels. Dans ce travail de thèse, des données historiques ont été intensivement utilisées pour reconstruire des développements anciens et pour les rendre utiles à des recherches contemporaines. Cependant, la disponibilité des données historiques et les analyses à grande échelle ont souvent limité le pouvoir explicatif des analyses. Des descripteurs pertinents pour caractériser les habitats anciens et des données suffisantes sur la distribution des espèces sont généralement rares, spécialement pour des analyses à des échelles fores. Cette situation peut être améliorée en augmentant l'étendue du site d'étude et la résolution, comme il a été fait dans cette thèse en considérant toute la Suisse avec ses communes. Cependant, les récents projets de surveillance et les techniques de collecte de données sont des sources prometteuses, qui pourraient permettre des analyses plus détaillés sur les réactions à long terme des espèces aux changements de paysage dans le futur. Ce travail a aussi montré la valeur des anciennes données de distribution, par exemple leur potentiel pour aider à localiser des' présences d'espèces encore inconnues. Les résultats peuvent contribuer à des activités de recherche à venir, qui étudieraient les distributions récentes ou futures d'espèces en considérant l'immense richesse des données de distribution historiques.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Publié par G.-B. Depping et R. de Lespinasse (Paris, 1837 et 1879, in-4°). — Dans ce manuscrit la « tierce partie » du Livre des métiers est formée par la copie de divers privilèges et de diverses chartes : « Privilege de l'Université de Paris », mars 1302 (n. s.) (fol. 133) ; — « Privilege de Teroanne », 1190 (fol. 134 v°) ; — « Lettre de la confrarie de Nostre Dame et de Saint Jaques », mars 1319 (n. s.) (fol. 134 v°) ; — « Lettres de Saint-Germain des Prez », février 1273 (n. s.), août 1275, etc. (fol. 135) ; — « Copies de plusieurs chartes de Philippe-Auguste et de Philippe le Bel (fol. 137) ; — « Le cri pour les monnoies » (fol. 139 v°), etc. ; — « Ce sont les estatus de la geole du Chastellet de Paris signifiées... par mestre Richart de Gisors » (fol. 144) ; — « Ce sont toutes les aumosnes qui sont faites par la main de l'aumosnier monseigneur le roy de France » (fol. 147) ; — « Modus solvendi in thesauro », 1298-1335 (fol. 160) ; — Tables comparatives de la valeur des monnaies et barèmes divers (fol. 162). — Aux fol. 1 et 172, le nom d'un ancien possesseur : « Jehan Le Feron. »

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le syndrome de Brugada, une affection rythmique du sujet jeune potentiellement fatale, se manifeste sur l'ECG par un bloc de branche droit (BBD) complet, avec sus-décalage majeur du segment ST et inversion des ondes Τ de V1 à V3 appelé pattern de type 1. Cette présentation peut être intermittente. Les manifestations incomplètes du syndrome de Brugada sont appelées patterns de types 2 ou 3, et sont caractérisées par un BBD incomplet et un sus-décalage ST plus ou moins prononcé dans les dérivations V-, et V2 de l'ECG. Cette description, cependant, est aussi celle du BBD incomplet fréquemment rencontré chez les sujets jeunes, de moins de 40 ans, et présent dans 3% de la population. Bo nombre de ces sujets sont donc référés pour une recherche de syndrome de Brugada. Le but de cette thèse est donc d'évaluer de nouveaux critères permettant de discriminer les BBD incomplets, banals, des sujets porteurs d'un syndrome de Brugada de types 2 ou 3. Trente-huit patients avec un pattern de Brugada de types 2 et 3, référés pour un test médicamenteux utilisant un antiarythmique révélant un pattern de type 1 chez les sujets porteurs, ont été inclus dans l'étude. Avant le test médicamenteux, deux angles ont été mesurés sur les dérivations Vi et/ou V2 : a, l'angle entre une ligne verticale et la descente de l'onde r', et β, l'angle entre la montée de l'onde S et la descente de l'onde r'. Les mesure à l'état basai des deux angles, seules ou combinées avec la durée du QRS, on été comparées entre les patients avec une épreuve pharmacologique positive et ceux dont l'épreuve s'est révélée négative (i.e. servant de groupe contrôle car porteur d'un véritable BBD incomplet). Des courbes ROC ont été établies afin de déterminer les valeurs d'angles les plus discriminantes. La moyenne des angles β était significativement plus petite chez les 14 patients avec un test pharmacologique négatif comparé aux 24 patients avec un test positif. La valeur optimale pour l'angle β était de 58°, ce qui donnait une valeur prédictive positive de 73% et une valeur prédictive négative de 97% pour une conversion en pattern de type 1 lors du test pharmacologique. L'angle α était un peu moins sensible et spécifique que β. Quand les angles étaient combinés à la durée du QRS, on observait une discrète amélioration de la discrimination entre les deux populations. Notre travail permet donc, chez des patients suspects d'un syndrome de Brugada, de discriminer entre un BBD incomplet et les patterns de Brugada types 2 et 3 en utilisant un critère simple basé sur l'ECG de surface potentiellement applicable au lit du patient

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Résumé de la thèseLe présent travail analyse la notion d'autonomie en éthique biomédicale et en propose unecompréhension à partir des théories de la délibération éthique. La thèse s'articule en deux parties.La première partie consiste en l'examen de la conception de l'autonomie développée en éthiquebiomédicale. Notamment, on retrace les origines de la notion de l'autonomie du patient dans lecontexte états-unien, on analyse l'élaboration de l'autonomie sous la forme de principe éthique, etl'on considère les critiques qui lui ont été adressées. Cette première partie débouche sur la thèsesuivante: en éthique biomédicale, l'autonomie est pensée comme un outil pour la légitimation deschoix, des pratiques, ou des politiques de santé, non pas comme réflexion critique sur les raisonspour agir ou sur les conditions des choix. Le risque est que l'autonomie se réduise à un dispositif dereproduction des normes et des conditions de l'interaction, sans pour autant remettre en discussionla rationalité médicale qui prédispose les options de choix et qui justifie les pratiques et lespolitiques dans le contexte du soin. Cette conception de l'autonomie présuppose une théorie de ladélibération éthique «en troisième personne». Selon cette théorie, la délibération consiste en uneprise de distance du point de vue subjectif de l'agent, pour assumer un point de vue plus objectif: lepoint de vue d'un «spectateur» impartial. Ainsi, le but de la délibération éthique est l'élaboration deraisons morales objectives, partageables par toute personne raisonnable, pouvant générer unconsensus sur la justification des actions. Cette théorie de la délibération a une implicationimportante pour la conception de l'autonomie en éthique biomédicale: l'autonomie est représentéecomme un principe moral partageable, comme le résultat d'un processus d'abstraction réflexive.Selon une théorie de la délibération éthique différente, que l'on appelle «en première personne», onpeut apprécier la valeur de l'autonomie seulement du point de vue de l'«agent». Ainsi, l'autonomieest la véritable modalité de la délibération éthique, dont le but est la constitution de soi-même, deson intégrité et identité morale. Dans ce travail, on s'est donc demandé si et comment cette manièrede concevoir la délibération du point de vue de l'agent peut apporter quelque chose à lacompréhension de la valeur de l'autonomie personnelle en éthique biomédicale.La deuxième partie de la thèse explore deux modèles de l'autonomie en première personnedéveloppés dans le débat philosophique plus récent: le modèle «hiérarchique» et le modèle«constructiviste kantien». Les deux modèles débouchent sur une compréhension «monologique» del'autonomie, qui est centrée sur l'agent et qui ne tient pas suffisamment compte du contexterelationnel du soin. Pour apprécier la valeur de l'autonomie dans les relations intersubjectives il fautadopter une perspective différente, que l'on appelle «en deuxième personne». Selon cette théorie, ladélibération est un dialogue entre les agents et l'autonomie est issue d'une relation de respect etreconnaissance réciproque. Comme l'autonomie est toujours issue d'une relation de réciprocité,comme elle est essentiellement relationnelle, elle n'est pas une entreprise simplement singulièremais toujours et inévitablement plurielle, collective. Ainsi, l'autonomie peut représenter un idéalnon seulement personnel mais aussi public. Il s'agit d'un idéal qu'on peut adopter dans nos relationsréciproques, un idéal normatif qui nous demande d'interroger la praticabilité de l'autonomie, c'est-àdired'identifier les sources de sa vulnérabilité. Cette vulnérabilité se situe à trois niveaux: au niveaudes relations interpersonnelles, au niveau des pratiques et des institutions, et au niveau des liensd'appartenance à des communautés culturelles ou à des groupes sociaux, qui contribuent à définirles relations réciproques et donc l'exercice de l'autonomie. Ces trois sources de vulnérabilité del'autonomie se retrouvent, toutes les trois, dans le contexte du soin. Selon cette conception del'autonomie, le but de la délibération n'est ni l'élaboration des raisons objectives, ni simplement laconstitution de sa propre identité ou intégrité, quant plutôt la construction de notre monde social.Ainsi, l'autonomie est quelque chose dont on est responsables, quelque chose qui nous engage àentrer en dialogue avec l'autre comme interlocuteurs dans une communauté morale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Introduction: Les données épidémiologiques montrent que seuls25-30% des patients avec syndrome coronarien aigu (SCA) atteignentles valeurs cibles de LDL-cholestérol (LDL-C). Les recommandationsexistantes précisent le choix et le dosage des statines à utiliser enfonction du LDL-C cible souhaité. Le but de cette étude observationnelleétait de connaître les pratiques actuelles au CHUV avant d'introduireune étude d'intervention.Méthode: Pour être inclus, les patients devaient être admis au CHUVpour un SCA avec troponine positive (>= 0.1 microg/l) entre le23.11.2008 et le 29.05.2010. Un bilan lipidique complet (CT, HDL-C,LDL-C, TG) a été dosé à leur admission et un nouveau contrôle desparamètres lipidiques a été effectué à 3 mois. Les hypolipémiantsutilisés durant cette période ont été analysés pour chaque patient.Résultats: 141 patients, 101 hommes (âge moyen 63 ± 13 ans) et 40femmes (âge moyen 73 ± 13 ans) admis aux urgences pour un SCAavec troponine positive ont été inclus. La valeur moyenne du LDL-C àl'admission était de 3,4 ± 1,1 mmol/l (hommes 3,5 ± 1,1; femmes 3,3 ±1,1) et de 2,4 ± 0,8 mmol/l (hommes 2,4 ± 0,8; femmes 2,2 ± 0,7) aucontrôle de 3 mois. Parmi ces 141 patients, 52 (37%) étaient déjàtraités par une statine (36 hommes et 16 femmes). Leur valeur deLDL-C à l'admission était de 2,8 ± 0,9 mmol/l et de 2,5 ± 0,6 mmol/l aucontrôle de 3 mois. 7 patients (13%) ont eu une augmentation dudosage de leur statine, 14 patients (27%) ont eu un changement destatine et 31 patients (60%) n'ont eu aucune modification de leurtraitement. 89 patients n'avaient pas de statine (65 hommes et 24femmes) à leur admission mais ont quitté l'hôpital sous une statine.Leur valeur de LDL-C à l'entrée s'élevait à 3,8 ± 1 mmol/l et à 2,3 ± 0,8mmol/l au contrôle de 3 mois.Conclusion: Chez les patients hospitalisés pour un SCA mais sanstraitement par statine préalable, les résultats montrent une bonneadéquation (peut-être liée au hasard au vu d'une prescriptionstandardisée) entre le traitement prescrit et l'obtention d'un LDL-C ciblesouhaitable à 3 mois. Chez les patients déjà sous traitement de statine,les résultats montrent une faible baisse du LDL-C à 3 mois malgré leurrisque cardio-vasculaire plus élevé. Une prise en charge individualiséesemble d'autant plus nécessaire que le risque est élevé.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Contexte : Les infections du site opératoire (Surgical Site Infections - SSI) sont des complications fréquentes des procédures chirurgicales et un problème majeur de la santé publique. La surveillance constitue un élément essentiel de la prévention des SSI. Les résultats publiés récemment par certains pays européens suggèrent un impact positif qu'un réseau de surveillance active peut avoir sur le taux de SSI dans les hôpitaux participants. Objectif : La présente étude évalue les effets de la surveillance sur l'incidence des SSI en analysant les résultats du programme suisse multicentrique de surveillance des SSI. Méthodes : L'étude porte sur les 13 premières années du programme, regroupant au total 23 hôpitaux périphériques, cantonaux et universitaires de la Suisse occidentale et du sud. Ce programme, qui a intégré le consortium national Swissnoso en 2011, a été organisé conformément aux principes du système américain de National Nosocomial Infections Surveillance (NNIS). La surveillance incluait les procédures de la chirurgie viscérale (appendicectomie, cholécystectomie, chirurgie du colon et herniaire) et de l'orthopédie (arthroplastie de la hanche et du genou). Les données démographiques et cliniques étaient recueillies de manière standardisée par les infirmières cliniciennes en infectiologie pendant et après l'hospitalisation. Les rapports annuels, résumant les taux des SSI pour chaque type de procédure ainsi que la comparaison inter-hospitalière des risques relatifs ajustés à l'index NNIS, ont été discutés au sein de chaque établissement entre le comité des chirurgiens et le responsable local du programme. Analyses statistiques : Les taux cumulatifs des SSI ont été calculés pour chaque procédure chirurgicale. Une stratification selon le type de SSI (superficielle, profonde, organe/espace) et selon l'index NNIS a été respectée. Les facteurs de risque des SSI ont été identifiés pour chaque procédure par les analyses univariées des caractéristiques du patient (âge, sexe, score ASA, temps avant l'opération) et celles de l'opération (classe de contamination, durée de la chirurgie, urgence, antibioprophylaxie, laparoscopie, procédures multiples, ré¬intervention). Afin d'évaluer l'effet de la durée de la surveillance sur le taux des SSI, le temps de participation au programme a été calculé et stratifié par périodes d'un an par hôpital et par procédure. La corrélation entre la durée de la surveillance et les SSI a été estimée en utilisant les modèles de régression logistique pour chaque procédure avec l'ajustement pour les variables avec p ^ 0.2. Dans toutes les analyses, la valeur p < 0.05 était considéré significative. Résultats : Les taux globaux des SSI étaient : 18.2% pour les colectomies, 6.4% pour les appendicectomies, 2.3% pour les cholécystectomies, 1.7% pour les cures des hernies et 1.6% et 1.3% pour les arthroplasties de la hanche et du genou, respectivement. L'incidence des SSI post-hospitalières allait du 21% pour les colectomies au 94% pour les arthroplasties du genou. Concernant les facteurs prédictifs des SSI, l'index NNIS était valable seulement pour la chirurgie gastro-intestinale, la laparoscopie étant globalement protectrice mais associée à un taux d'infections profondes plus élevé après l'appendicectomie. La durée de la participation au programme de surveillance n'apportait pas de diminution des taux des SSI dans aucune procédure incluse dans l'étude. Conclusions : L'étude confirme l'impact de la surveillance post-hospitalière sur le taux des SSI, l'effet protectrice de la laparoscopie ainsi que l'absence de la valeur prédictive de l'index NNIS en orthopédie. Contrairement aux autres programmes européens nous n'avons pas détecté d'effet positif de la durée de la surveillance sur le taux des SSI. Les résultats obtenus ouvrent la discussion sur l'utilisation plus effective des données de surveillance des SSI.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Recent findings suggest an association between exposure to cleaning products and respiratory dysfunctions including asthma. However, little information is available about quantitative airborne exposures of professional cleaners to volatile organic compounds deriving from cleaning products. During the first phases of the study, a systematic review of cleaning products was performed. Safety data sheets were reviewed to assess the most frequently added volatile organic compounds. It was found that professional cleaning products are complex mixtures of different components (compounds in cleaning products: 3.5 ± 2.8), and more than 130 chemical substances listed in the safety data sheets were identified in 105 products. The main groups of chemicals were fragrances, glycol ethers, surfactants, solvents; and to a lesser extent phosphates, salts, detergents, pH-stabilizers, acids, and bases. Up to 75% of products contained irritant (Xi), 64% harmful (Xn) and 28% corrosive (C) labeled substances. Hazards for eyes (59%), skin (50%) and by ingestion (60%) were the most reported. Monoethanolamine, a strong irritant and known to be involved in sensitizing mechanisms as well as allergic reactions, is frequently added to cleaning products. Monoethanolamine determination in air has traditionally been difficult and air sampling and analysis methods available were little adapted for personal occupational air concentration assessments. A convenient method was developed with air sampling on impregnated glass fiber filters followed by one step desorption, gas chromatography and nitrogen phosphorous selective detection. An exposure assessment was conducted in the cleaning sector, to determine airborne concentrations of monoethanolamine, glycol ethers, and benzyl alcohol during different cleaning tasks performed by professional cleaning workers in different companies, and to determine background air concentrations of formaldehyde, a known indoor air contaminant. The occupational exposure study was carried out in 12 cleaning companies, and personal air samples were collected for monoethanolamine (n=68), glycol ethers (n=79), benzyl alcohol (n=15) and formaldehyde (n=45). All but ethylene glycol mono-n-butyl ether air concentrations measured were far below (<1/10) of the Swiss eight hours occupational exposure limits, except for butoxypropanol and benzyl alcohol, where no occupational exposure limits were available. Although only detected once, ethylene glycol mono-n-butyl ether air concentrations (n=4) were high (49.5 mg/m3 to 58.7 mg/m3), hovering at the Swiss occupational exposure limit (49 mg/m3). Background air concentrations showed no presence of monoethanolamine, while the glycol ethers were often present, and formaldehyde was universally detected. Exposures were influenced by the amount of monoethanolamine in the cleaning product, cross ventilation and spraying. The collected data was used to test an already existing exposure modeling tool during the last phases of the study. The exposure estimation of the so called Bayesian tool converged with the measured range of exposure the more air concentrations of measured exposure were added. This was best described by an inverse 2nd order equation. The results suggest that the Bayesian tool is not adapted to predict low exposures. The Bayesian tool should be tested also with other datasets describing higher exposures. Low exposures to different chemical sensitizers and irritants should be further investigated to better understand the development of respiratory disorders in cleaning workers. Prevention measures should especially focus on incorrect use of cleaning products, to avoid high air concentrations at the exposure limits. - De récentes études montrent l'existence d'un lien entre l'exposition aux produits de nettoyages et les maladies respiratoires telles que l'asthme. En revanche, encore peu d'informations sont disponibles concernant la quantité d'exposition des professionnels du secteur du nettoyage aux composants organiques volatiles provenant des produits qu'ils utilisent. Pendant la première phase de cette étude, un recueil systématique des produits professionnels utilisés dans le secteur du nettoyage a été effectué. Les fiches de données de sécurité de ces produits ont ensuite été analysées, afin de répertorier les composés organiques volatiles les plus souvent utilisés. Il a été mis en évidence que les produits de nettoyage professionnels sont des mélanges complexes de composants chimiques (composants chimiques dans les produits de nettoyage : 3.5 ± 2.8). Ainsi, plus de 130 substances listées dans les fiches de données de sécurité ont été retrouvées dans les 105 produits répertoriés. Les principales classes de substances chimiques identifiées étaient les parfums, les éthers de glycol, les agents de surface et les solvants; dans une moindre mesure, les phosphates, les sels, les détergents, les régulateurs de pH, les acides et les bases ont été identifiés. Plus de 75% des produits répertoriés contenaient des substances décrites comme irritantes (Xi), 64% nuisibles (Xn) et 28% corrosives (C). Les risques pour les yeux (59%), la peau (50%) et par ingestion (60%) était les plus mentionnés. La monoéthanolamine, un fort irritant connu pour être impliqué dans les mécanismes de sensibilisation tels que les réactions allergiques, est fréquemment ajouté aux produits de nettoyage. L'analyse de la monoéthanolamine dans l'air a été habituellement difficile et les échantillons d'air ainsi que les méthodes d'analyse déjà disponibles étaient peu adaptées à l'évaluation de la concentration individuelle d'air aux postes de travail. Une nouvelle méthode plus efficace a donc été développée en captant les échantillons d'air sur des filtres de fibre de verre imprégnés, suivi par une étape de désorption, puis une Chromatographie des gaz et enfin une détection sélective des composants d'azote. Une évaluation de l'exposition des professionnels a été réalisée dans le secteur du nettoyage afin de déterminer la concentration atmosphérique en monoéthanolamine, en éthers de glycol et en alcool benzylique au cours des différentes tâches de nettoyage effectuées par les professionnels du nettoyage dans différentes entreprises, ainsi que pour déterminer les concentrations atmosphériques de fond en formaldéhyde, un polluant de l'air intérieur bien connu. L'étude de l'exposition professionnelle a été effectuée dans 12 compagnies de nettoyage et les échantillons d'air individuels ont été collectés pour l'éthanolamine (n=68), les éthers de glycol (n=79), l'alcool benzylique (n=15) et le formaldéhyde (n=45). Toutes les substances mesurées dans l'air, excepté le 2-butoxyéthanol, étaient en-dessous (<1/10) de la valeur moyenne d'exposition aux postes de travail en Suisse (8 heures), excepté pour le butoxypropanol et l'alcool benzylique, pour lesquels aucune valeur limite d'exposition n'était disponible. Bien que détecté qu'une seule fois, les concentrations d'air de 2-butoxyéthanol (n=4) étaient élevées (49,5 mg/m3 à 58,7 mg/m3), se situant au-dessus de la frontière des valeurs limites d'exposition aux postes de travail en Suisse (49 mg/m3). Les concentrations d'air de fond n'ont montré aucune présence de monoéthanolamine, alors que les éthers de glycol étaient souvent présents et les formaldéhydes quasiment toujours détectés. L'exposition des professionnels a été influencée par la quantité de monoéthanolamine présente dans les produits de nettoyage utilisés, par la ventilation extérieure et par l'emploie de sprays. Durant la dernière phase de l'étude, les informations collectées ont été utilisées pour tester un outil de modélisation de l'exposition déjà existant, l'outil de Bayesian. L'estimation de l'exposition de cet outil convergeait avec l'exposition mesurée. Cela a été le mieux décrit par une équation du second degré inversée. Les résultats suggèrent que l'outil de Bayesian n'est pas adapté pour mettre en évidence les taux d'expositions faibles. Cet outil devrait également être testé avec d'autres ensembles de données décrivant des taux d'expositions plus élevés. L'exposition répétée à des substances chimiques ayant des propriétés irritatives et sensibilisantes devrait être investiguée d'avantage, afin de mieux comprendre l'apparition de maladies respiratoires chez les professionnels du nettoyage. Des mesures de prévention devraient tout particulièrement être orientées sur l'utilisation correcte des produits de nettoyage, afin d'éviter les concentrations d'air élevées se situant à la valeur limite d'exposition acceptée.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Introduction La dystrophie musculaire de Duchenne (DMD) est une myopathie progressive liée au chromosome X qui atteint environ un garçon sur 3500. Des troubles du sommeil (TDS) sont fréquemment rapportés par ces patients Les études effectuées à ce jour se sont essentiellement concentrées sur les troubles respiratoires liés au sommeil. Les TDS débutent toutefois fréquemment avant l'installation d'un trouble ventilatoire nocturne et de nombreux autres facteurs peuvent en être la cause. Objectif L'objectif de cette étude est d'évaluer la fréquence des TDS chez les garçons avec une DMD et d'en identifier les facteurs de risque. Méthode II s'agit d'une étude transversale effectuée par questionnaire postal adressé aux parents de tout garçon âgé de 4-18 ans avec une DMD, suivi dans deux centres tertiaires de réhabilitation pédiatrique (Lausanne et Dublin). Les TDS sont évalués à l'aide de la 'Sleep Disturbance Scale for Children' (SDSC), validée sur 1157 enfants sains. Elle permet d'obtenir un score total et des scores pour six facteurs représentant les TDS les plus fréquents (troubles de l'endormissement et du maintien du sommeil (TEMS), éveil nocturne-cauchemars, transition veille-sommeil, somnolence diurne excessive, troubles respiratoires associés au sommeil (TRS), hyperhidrose du sommeil). Un T- score supérieur à 70 (>2DS) est considéré comme pathologique. Les associations potentielles entre des scores pathologiques et des facteurs individuels (âge, mobilité diurne et nocturne, douleur), thérapeutiques (orthèses nocturnes, ventilation non-invasive, médication) et environnementaux (facteurs socio-familiaux) sont évaluées à l'aide d'analyses univariées (χ2) et de régressions logistiques ascendantes. Résultats Seize garçons sur 63, soit 25.4%, présentent un score total pathologique en comparaison au 3% attendus dans la population générale. Les TEMS (29.7%), les TRS (15.6%) et l'hyperhidrose du sommeil (14.3%) sont les TDS les plus prévalent. Le besoin d'être mobilisé la nuit par un tiers (OR=9.4; 95%CI: 2.2-40.7; p=0.003) et être l'enfant d'une famille monoparentale (OR=7.2; 95%CI: 1.5-35.1; p=0.015) sont des facteurs de risque indépendants pour un score total pathologique. Le besoin d'être mobilisé la nuit par un tiers (OR=18.0; 95%CI: 2.9¬110.6; p=0.002), le traitement par corticostéroïdes (OR=7.7; 95%CI: 1.4-44.0; p-0.021) et être l'enfant d'une famille monoparentale (OR=7.0; 95%CI: 1.3-38.4; p=0.025) sont des facteurs de risque indépendants pour un TEMS. Discussion Cette étude montre une prévalence élevée des TDS chez les garçons avec une DMD (25% contre 3% attendus dans la population générale). Le besoin d'être mobilisé la nuit par un tiers est identifié comme un facteur de risque important pour un score total pathologique et un TEMS. Il reflète vraisemblablement un degré d'atteinte motrice tel qu'il limite les mouvements spontanés et les adaptations posturales du sommeil, ayant pour conséquence une diminution importante de la qualité du sommeil. Les enfants vivant dans un foyer monoparental présentent plus fréquemment un score total pathologique et des TEMS, possiblement en lien avec un stress psychologique plus important dans ces familles. Le traitement par corticostéroïdes est identifié comme facteur de risque pour un TEMS. Une adaptation du schéma ou du dosage permet généralement de limiter cet effet secondaire. Si nécessaire, un traitement par Mélatonine peut être instauré. Aucune association n'a pu être mise en évidence entre les facteurs analysés et les TRS, possiblement en raison du petit nombre de garçons ayant rapporté de tels symptômes et du fait que certains symptômes d'hypoventilation nocturne ne sont pas évalués par la SDSC. Par ailleurs, la valeur prédictive de l'anamnèse, comme celle des fonctions pulmonaires diurnes, est connue pour être limitée, raison pour laquelle une oxy-capnométrie est effectuée de routine en dessous d'une capacité vitale forcée de 50%. Elle permet, si nécessaire, l'instauration précoce d'une ventilation non-invasive, limitant ainsi vraisemblablement l'impact de ('hypoventilation nocturne sur la qualité du sommeil dans notre population. Plusieurs limitations sont à évoquer. Le petit nombre de patients ne permet pas d'exclure d'autres associations potentielles. La nature transversale de l'étude augmente le risque de causalité inverse. Cette étude n'inclut pas de mesure quantitative du sommeil. Les questionnaires adressés aux parents ont toutefois pu être démontrés comme fiables hormis pour les TRS. Un biais de non-réponse ne peut pas être totalement exclu, bien que le taux de réponse soit élevé (86,5%) et qu'il n'y ait pas de différence significative entre les populations de répondeurs et non-répondeurs. Conclusion La prévalence des TDS est élevée chez les garçons avec une DMD et leurs causes sont multiples. Les facteurs de risques sont physiques (immobilité nocturne), pharmacologiques (corticothérapie) et environnementaux (famille monoparentale). Compte tenu de son impact sur la qualité de vie, l'évaluation du sommeil doit être systématique en consultation et ne pas se limiter aux seuls troubles ventilatoires nocturnes.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Introduction Le cadre conceptuel de l'analyse économique considère que l'individu prend des décisions en mettant en balance les avantages et les inconvénients que ces décisions présentent pour lui. En s'appuyant sur ses préférences et en intégrant ses contraintes (matérielles, physiques, externes, etc.), il choisit d'effectuer ou non une action, d'adopter ou pas un comportement, de façon à ce que les conséquences de ses choix maximisent sa satisfaction. Le fait qu'un individu adopte un certain comportement révèle donc le caractère positif pour lui des conséquences de ce comportement. C'est le postulat méthodologique de rationalité du consommateur, fondement de toute analyse économique. L'adoption par un individu d'un comportement qui implique un risque pour son bien-être physique ou mental suit le même schéma d'analyse. Il résulte d'un arbitrage inter temporel entre la satisfaction que procure ce comportement et le coût du risque associé. Ce risque se définit par la combinaison de la probabilité d'occurrence de l'événement redouté avec la gravité de ses conséquences. En adoptant un comportement à risque, l'individu révèle donc que ce comportement a pour lui un impact net positif. Certains comportements à risque, comme la consommation de tabac et, plus largement, de psychotropes, engendrent une dépendance à même de brider le libre-arbitre du consommateur. Un individu peut être amené à consommer un produit alors même que sa raison lui dicte de ne pas le faire. Ces comportements ont longtemps été considérés par les économistes comme extérieurs au champ d'analyse de leur discipline, la dépendance paraissant antinomique avec le concept de rationalité du consommateur. Par son modèle de dépendance rationnelle, Gary Stanley Becker prend le contre-pied de cette approche en montrant qu'un comportement de dépendance pouvait parfaitement s'expliquer par la maximisation de la fonction de satisfaction d'un individu rationnel et informé. Il postule que les consommateurs de stupéfiants sont conscients des conséquences futures de leurs décisions présentes, tant du point de vue de leur santé que de celui de la dépendance. Dans ce modèle, la dépendance implique deux effets le renforcement et la tolérance. Le renforcement signifie que plus un bien a été consommé dans le passé, plus l'augmentation de sa consommation courante est valorisée. En d'autres termes, l'utilité marginale de la consommation courante augmente avec la consommation antérieure. La tolérance traduit le fait qu'un individu habitué à la consommation d'un bien tirera d'une consommation donnée une satisfaction inférieure par rapport à un individu qui a peu consommé par le passé. Dans l'exemple du tabagisme, l'effet de renforcement implique qu'un grand fumeur ressent une forte envie de fumer, mais que plus il a fumé dans le passé, plus le plaisir qu'il ressent en fumant une quantité donnée de cigarettes diminue. Le premier effet explique le phénomène de manque et le second explique pourquoi la satisfaction qu'un fumeur retire de sa consommation de cigarettes tend à diminuer avec le temps. Selon Becker, l'individu choisit de devenir dépendant : il sait que sa consommation présente de cigarettes contraint ses choix futurs et il détermine au départ sa consommation sur l'ensemble de sa vie. Cependant, ce modèle n'est pas compatible avec les regrets exprimés par de nombreux fumeurs et les tentatives infructueuses de sevrage souvent concomitantes. Un fumeur qui anticiperait parfaitement le phénomène de dépendance arrêterait de fumer à la date voulue, à sa première tentative. Partant de ce constat, Athanasios Orphanides a construit un modèle dans lequel les fumeurs peuvent se retrouver prisonniers de leur consommation par des anticipations imparfaites du pouvoir addictif du tabac. Leur théorie suppose que les individus ne sont pas tous sujets de la même manière à la dépendance, que chacun a une perception subjective de son risque de dépendance et que cette perception évolue constamment durant la période de consommation du bien addictif. Dans ce contexte, un individu qui maximise des préférences stables, mais qui sous-estime le potentiel addictif d'un produit peut devenir dépendant par accident et regretter ensuite cette dépendance. Le modèle de Becker ou celui d'Orphanides ont des conséquences très différentes sur l'action régulatrice que doit ou non jouer l'État sur le marché d'un bien addictif. Si, comme Becker, on considère que les consommateurs sont rationnels et parfaitement informés des conséquences de leurs actes, l'action du régulateur devrait se limiter à l'internalisation du coût externe que les fumeurs font peser sur la société. Si le fumeur est conscient du risque qu'il prend et que pour lui le plaisir qu'il retire de cette consommation dépasse le déplaisir engendré par ses conséquences, une intervention du régulateur reposerait sur une base paternaliste, l'État posant alors un jugement de valeur sur les préférences des individus. En revanche, si on considère, comme dans la modélisation d'Orphanides, que les fumeurs sous-estiment le phénomène de dépendance lorsqu'ils décident de se mettre à fumer, un marché non régulé conduit à une consommation supérieure à celle qui prévaudrait en information parfaite. Certains fumeurs peuvent ainsi se retrouver accrochés à leur consommation de tabac, sans que cela ait été leur but. Dans cette perspective, l'État est légitimé à intervenir par des politiques de lutte contre le tabagisme, afin de compenser les erreurs d'anticipation des individus. Cette thèse propose d'appliquer les outils de l'analyse économique à des problématiques de santé publique dans le domaine des comportements à risque et en particulier du tabagisme. Elle a pour finalité d'apporter de nouveaux éléments de connaissance permettant d'éclairer certains choix de régulation dans ce domaine. Le premier chapitre est une analyse coût-efficacité des thérapies médicamenteuses de soutien à la désaccoutumance tabagique. Comme nous l'avons vu plus haut, certains fumeurs se trouvent piégés dans leur consommation par le phénomène de dépendance et ont des difficultés à arrêter de fumer. Ces dernières années, plusieurs médicaments de soutien au fumeur en phase de sevrage ont fait leur apparition. Parmi eux, on compte des substituts nicotiniques sous forme de gomme, patch, spray ou inhalateur, mais aussi un antidépresseur ne contenant pas de nicotine. Ces traitements présentent des efficacités et des coûts différents. L'évaluation économique en santé permet de calculer un indicateur unique d'efficience qui synthétise l'efficacité d'un traitement et son coût. Cette méthode permet de comparer différents types de prises en charge médicales d'une même pathologie, mais aussi de comparer des interventions thérapeutiques dans des domaines différents. Nous développons un modèle de Markov pour estimer le gain en année de vie d'une stratégie de prévention du tabagisme. Ce modèle permet de simuler le devenir d'une cohorte de fumeurs en fonction du type de soutien à la désaccoutumance qui leur est proposé. Sur cette base, nous calculons le coût par année de vie gagnée de chaque type d'intervention. Les résultats permettent de classer les cinq types de prise en charge selon leur efficience, mais aussi de les comparer à d'autres interventions de prévention dans des domaines différents. Le deuxième chapitre traite des corrélations entre le niveau de formation des individus et leur consommation de tabac. Sur un plan épidémiologique, on constate que les personnes qui atteignent un niveau de formation plus élevé ont une propension à fumer plus faible que les autres. Peut-on en conclure qu'il existe une relation causale inverse entre formation et tabagisme ? Sous l'angle de la théorie économique, il existe deux principales hypothèses à même d'expliquer cette corrélation. La première hypothèse repose sur le modèle de capital santé développé par Michael Grossman au début des années 1970. Dans ce modèle, l'individu dispose d'un stock de santé qui se déprécie avec le temps. Ce stock peut être augmenté grâce à des dépenses en soins médicaux ou à des investissements en temps consacré à l'amélioration de sa santé. La formation a pour effet d'augmenter l'efficacité des investissements en santé. Dans le cas du tabac, Grossman considère que des individus mieux formés auront une meilleurs information sur les méfaits du tabac sur la santé, ce qui tendra à diminuer leur consommation de tabac. La seconde hypothèse ne considère pas un lien causal entre la formation et la santé, mais repose sur l'existence d'une tierce variable qui influencerait parallèlement, et dans un sens opposé, le niveau de formation et la propension à fumer. Cette tierce variable est le taux de préférence pour le présent. Pour un individu fortement tourné vers le présent, l'investissement en temps de formation a un coût relativement élevé dans la mesure où il doit sacrifier du revenu aujourd'hui pour obtenir un revenu plus élevé demain. Parallèlement, il pondère moins fortement la santé future et a donc une plus forte propension à fumer. Nous développons une méthode économétrique qui permet de séparer l'effet de causalité de l'effet de sélection. Le troisième chapitre traite du rôle des interactions sociales dans les comportements à risque des adolescents. La théorie économique considère que chaque individu définit seul ses choix de consommation en maximisant sa fonction d'utilité. Cela ne signifie pas pour autant qu'il soit insensible aux influences extérieures, notamment au comportement de son entourage. Dans certaines situations et pour certains produits, l'utilité que procure la consommation d'un bien est corrélée avec le nombre de personnes qui consomment ce même bien dans l'entourage. En d'autres termes, la consommation des autres, augmente la valeur que l'on attribue à un bien. Ce mécanisme est souvent appliqué à l'analyse des comportements à risque des adolescents et du rôle que peut y jouer le groupe des pairs. Si cet impact est bien connu du point de vue théorique, il est beaucoup plus difficile de le quantifier sur un plan empirique. Pour identifier cet effet, nous développons une méthodologie économétrique, originale dans ce contexte, qui permet de séparer l'effet individuel de l'effet d'influence des pairs dans l'adoption d'un comportement à risque. Nous appliquons cette méthode aux trois comportements à risque que sont la consommation de tabac, d'alcool et de cannabis chez les adolescents.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Trace element and isotopic compositions of marine fossils and sediment were analyzed from several Miocene deposits in the circum-Alpine region in order to reconstruct the paleoceanographic and paleoclimatic changes related to sea level changes, basin evolution and Alpine orogeny. To the north and the east the Alps were border by an epicontinental sea, the Paratethys, while to the south the Mediterranean surrounded the uplifting mountains during the Miocene. The thesis mainly focused on sediments and fossils sampled from Miocene beds of these two oceanic provinces. The north Alpine Molasse, the Vienna and Pannonian Basins were located in the Western and Central Paratethys. O-isotope compositions of well-preserved phosphatic fossils in these sediments support deposition under sub-tropical to warm-temperate climate with water temperatures between 14 to 28 °C for the Miocene. δ18O values of fossil shark teeth from different horizons vary similarly to those of the global trend until the end of the Badenian, however the δ18O values show wider range, which indicates local effects iii the sub-basins. The trend of 87Sr/86Sr in the samples roughly agrees with an open ocean environment for the Miocene. Yet a number of samples deviate from typical open ocean compositions with higher ratios suggesting modification of seawater by local and old terrestrial sources. In contrast, two exceptional teeth from the locality of La Moliere have extremely low δ18O values and low 87Sr/86Sr. However, the REE patterns of their enameloid are similar to those of teeth having O and Sr isotopic compositions typical of a marine setting at this site. Collectively, this suggests that the two teeth formed while the sharks frequented a freshwater environment with very low 18O-content and 87Sr/86Sr controlled by Mesozoic calcareous rocks. This is consistent with a paleogeography of high-elevation (~2300m) Miocene Alps adjacent to a marginal sea. The local effects are also reflected in the εNd values of the Paratethyan fossils, which is compatible with input from ancient crystalline rocks and Mesozoic sediments, while other samples with elevated εNd values indicate an influence of Neogene volcanism on the water budget. Excluding samples whose isotopic compositions reflect a local influence on the water column, an average εNd value of -7.9 ± 0.5 may be inferred for the Paratethys seawater. This value is indistinguishable from the Miocene value of the Indian Ocean, supporting a dominant role of ludo-Pacific water masses in the Paratethys. Regarding the Mediterranean, stable C-and O-isotope compositions of benthic and planktonic foraminifera from the Umbria-Marche region (UMC) have an offset typical for their habitats and the changes in composition mimic global changes, suggesting that the regional conditions of climate and the carbon cycle were controlled by global changes. The radiogenic isotope compositions of the fossil assemblages allow for distinction of periods. From 25 to 19 Ma, high εNd values and low 87Sr/86Sr of sediments and fossils support intense tectonism and volcanism, related to the opening of the western Mediterranean. Between 19 and 13 Ma the Mediterranean has εNd values that are largely controlled by incursion of Indian Ocean water. Brief periods of local hinterland control on seawater compositions are indicated by spikes in the εNd record, coinciding with volcanic events and a short sea-level decrease at about 15.2 Ma. Lower 87Sr/86Sr compared to the open ocean is compatible with rapid uplift of the hinterland and intense influx of Sr from Mesozoic carbonates of the western Apennines, while higher 87Sr/86Sr for other sites indicates erosion of old crustal silicate rocks. Finally, from 13 to 7 Ma the fossils have 87Sr/86Sr similar to those of Miocene seawater and their εNd values indicates fluctuating influence of Atlantic, and Indian Ocean or Paratethys sources of seawater entering the Mediterranean, driven by global sealevel changes and local tectonism. RÉSUMÉ DE LA THÈSE Les compositions en éléments traces et isotopiques de fossiles marins et de sédiments on été analysées à partir de nombreux dépôts marins dans la région circum Alpine dans le but de reconstruire les changements paléocéanographiques et paléoclimatiques liés aux changements du niveau marin, à l'évolution en bassins et à l'orogénie alpine. Au nord et à l'est des Alpes, une mer épicontinentale appelée Paratéthys s'est ouverte, alors que plus au sud la mer Méditerranée bordait au Miocène les Alpes naissantes. Le but de cette recherche est de se concentrer sur les sédiments et les fossiles provenant des couches du Miocènes de ces deux provinces marines. Les bassins de la Molasse Alpine du nord, de Vienne et Pannonien étaient situés au niveau de la Paratéthys Occidentale et Centrale. Les compositions isotopiques de l'oxygène de fossiles phosphatés bien préservés dans ces sédiments étayent la théorie d'un dépôt sous un climat subtropical à tempéré chaud avec des températures entre 14 et 28°C pendant le Miocène. Les valeurs δ18O des fossiles sont similaires à la tendance globale jusqu'à la fin du Badénien. Cependant les larges fluctuations en δ18O indiquent des effets locaux au niveau des sous bassins. En outre, deux dents de requin exceptionnelles présentent des valeurs extrêmement basses de δ18O. Ces données suggèrent que ces deux dents se sont formées alors que les requins fréquentaient un environnement d'eau douce avec de faibles valeurs de 18O. Le calcul de la composition isotopique de l'oxygène de cette eau douce permet d'obtenir une estimation de la paléoélévatian moyenne des Alpes du Miocène (~2300m). La tendance 87Sr/86Sr pour ces échantillons concorde approximativement avec un environnement d'océan ouvert au cours du Miocène. Toutefois un nombre d'échantillons dévie des compositions d'océan ouvert typiques, avec des rapports élevés suggérant des modifications de l'eau de mer par des sources locales et terrestres. Les effets locaux sont aussi reflétés au niveau des valeurs en εNd des fossiles paratéthysiens. Ceci est cohérent avec un apport d'anciennes roches cristallines et de sédiments mésozoïques, tandis que d'autres échantillons avec des valeurs hautes de εNd indiquent une influence d'un volcanisme néogène dans le budget marin. En excluant les échantillons dont les compositions isotopiques confirment une influence locale, une valeur moyenne de εNd de 7.9 t 0.5 peut être déduite pour l'eau de la Parathétys. Cette valeur est semblable à la valeur correspondant à l'Océan Indien durant le Miocène, confirmant un rôle dominant de cet océan dans la Paratéthys. Au niveau de la Méditerranée, les compositions en isotopes stables du Carbone et de l'Oxygène de foraminifères planctoniques et benthique de la région Umbria-Marche présentent un offset typique à leurs habitats. De plus les changements dans leurs compositions suivent les changements globaux, suggérant ainsi que les conditions climatiques régionales et le cycle du carbone étaient contrôlés par des phénomènes globaux. La composition en isotopes radiogéniques d'assemblages fossiles permet une reconnaissance sur trois périodes distinctes. De 25 à 19 millions d'années (Ma), des valeurs élevées de εNd et un faible rapport 87Sr/86Sr dans les sédiments soutiennent l'idée d'une activité tectonique et volcanique intense, liée à l'ouverture de la Méditerranée occidentale. Entre 19 et 13 Ma, la Méditerranée montre des valeurs de εNd qui sont largement contrôlées par une incursion d'eau provenant de l'Océan Indien. En effet, aux alentours de 15,2 Ma, des pics dans l'enregistrement des valeurs de εNd, coïncidant avec des événements volcaniques et de brèves diminutions du niveau marin. Enfin, de 13 à 7 Ma, les fossiles ont des rapports ß7Sr/8fiSr similaires à ceux de l'eau de mer au Miocène. Leurs valeurs de εNd indiquent une influence changeante de l'océan Atlantique, et de l'océan Indien ou des sources d'eau de merde la Parathétys qui entrent dans les bassins méditerranéens. Ce changement est guidé par des modifications globales du niveau marin et par la tectonique locale. RÉSUMÉ DE LA THÈSE (POUR LE GRAND PUBLIC) Les analyses des compositions en éléments traces et isotopiques des fossiles marins sont un outil très utile pour reconstruire les conditions océaniques et climatiques anciennes. Ce travail de thèse se concentre sur les sédiments déposés dans un environnement marin proches des Alpes au cours du Miocène, entre 23 et 7 millions d'années (Ma). Cette période est caractérisée par une tectonique alpine active, ainsi que par des changements climatiques et océanographiques globaux importants. Dans le but de tracer ces changements, les compositions isotopiques du Strontium, du Néodyme, de l'Oxygène et du Carbone ont été analysées dans des fossiles bien préservés ainsi que les sédiments contemporains. Les échantillons proviennent de deux provinces océaniques distinctes, la première est la Mer Méditerranée, et l'autre est une mer épicontinentale appelée Parathétys, qui existait au nord et à l'est des Alpes durant le Miocène. Au niveau de la Parathétys Occidentale et Orientale, les compositions isotopiques d'oxygène de dents de requins confirment un dépôt sous un climat subtropical à tempéré chaud avec des températures d'eau entre 14 et 28°C au Miocène. En outre, deux dents de requins exceptionnelles ont enregistré des compositions isotopiques d'oxygène extrêmement basses. Cela suggère que ces deux dents se sont formées alors que les requins entraient dans un système d'eau douce. Le calcul de la composition isotopique de l'oxygène de cette eau douce permet d'obtenir une estimation de la paléoélévation des Alpes au Miocène qui est aussi élevée que celle d'aujourd'hui. La tendance isotopique du Strontium pour ces échantillons concorde approximativement avec un environnement d'océan ouvert. Cependant un certain nombre d'échantillons indique des modifications de l'eau de mer par des sources terrestres locales. Les effets locaux sont aussi visibles au niveau des compositions isotopiques du Néodyme, qui sont en accord avec un apport provenant de roches cristallines anciennes et de sédiments du Mésozoïque, alors que d'autres échantillons indiquent une influence volcanique néogène dans le budget marin. A l'exclusion des échantillons dont les compositions correspondent à une influence locale, les compositions isotopiques du Néodyme de la Parathétys sont très similaires aux valeurs de l'Océan Indien, montrant ainsi un rôle important des masses d'eau IndoPacifiques dans cette région. Au niveau de la Méditerranée, les compositions en isotopes stables du Carbone et de l'Oxygène de foraminifères planctoniques et benthique de la région Umbria-Marche présentent un offset typique à leurs habitats. De plus, les changements dans leurs compositions suivent les changements globaux, suggérant ainsi que les conditions climatiques régionales et le cycle du carbone étaient contrôlés par des phénomènes globaux. La composition en isotopes radiogéniques d'assemblages fossiles permet une reconnaissance sur trois périodes distinctes. De 25 à 19 Ma, des rapport isotopiques élevés pour le Néodyme et faibles pour le Strontium dans les sédiments et les fossiles soutiennent l'idée d'une activité tectonique et volcanique intense, liée à l'ouverture de la Méditerranée occidentale. Entre 19 et 13 Ma, la Méditerranée présente des rapports isotopiques du Néodyme qui sont largement contrôlés par une incursion d'eau provenant de l'Océan Indien. En effet, aux alentours de 15,2 Ma, des pics dans l'enregistrement des valeurs des isotopes du Néodyme coïncident avec des événements volcaniques et de brèves diminutions du niveau marin. Finalement, de 13 à 7 Ma, les fossiles ont des rapports isotope Strontium similaires à ceux de l'eau de mer au Miocène. Les rapports isotopiques du Néodyme indiquent une influence changeante de l'océan Atlantique, et de l'océan Indien ou des sources d'eau de mer de la Parathétys qui entrent dans les bassins méditerranéens. Ce changement est guidé par des modifications globales du niveau marin et par la tectonique locale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les parasites jouent un rôle clef dans l'évolution des comportements et des traits d'histoire de vie de leurs hôtes. Le parasitisme s'avère parfois dévastateur à l'échelle de population d'hôtes, et peut également altérer certains traits associés à la valeur sélective d'un individu infecté, tels que son succès reproducteur ou encore son taux de mortalité. La coévolution hôte/parasite, qui représente l'une des forces sélectives les plus puissantes dans l'évolution des organismes, peut également conduire les partenaires de l'association parasitaire à s'adapter localement à des environnements hétérogènes. Cette thèse porte sur l'étude de parasites aviaires, du genre Plasmodium, Haemopro- teus et Leucocytozoon (Haemosporidae), naturellement associés à différentes populations de mésanges charbonnières (Parus major) et d'hirondelles des fenêtres (Delichon ur- bicum). Dans un premier temps, nous avons cherché à déterminer comment se distribuent ces parasites au sein de différentes populations hôtes et si ces communautés de parasites sont structurées. Par la suite, la principale question à laquelle nous voulions répondre était de savoir comment ces parasites, et notamment après coexistence de plusieurs lignées génétiques d'Haemosporidae au sein dun même-individu (i.e. co-infection), affectent la physiologie et le succès de reproducteur des hôtes. Nos résultats suggèrent que la distribution des Haemosporidae est principalement gouvernée par la présence d'insectes vecteurs et que la persistance de l'infection chez les hôtes varie en fonction du genre d'Haemosporidae (Chapitre 1-2). Par ailleurs, nous avons trouvé que des lignées de parasite génétiquement distinctes peuvent avoir des effets contrastés sur leurs hôtes. Par exemple, les hôtes exhibent des différences de parasitémie marquées en fonction des lignées de parasites responsable de l'infection. De plus, le succès reproducteur ainsi que la charge parasitaire des mésanges infectées par Plasmodium ou Haemoproteus n'étaient pas affecté par l'infection simultanée avec Leucocytozoon (Chapitre 2-3). Dans le Chapitre 4, j'ai examiné la capacité immunitaire de mésanges charbonnières infectées par des hémosporidies. Les résultats n'ont pas été concluant, et je suggère fortement une réévaluation de ceux-ci dans de futures études. Les mésanges charbonnières ne semblent pas signaler leur statut infectieux par la coloration de leur plumage (Chapitre 5); toutefois, la coloration noire des plumes reflète l'état de stress oxydatif des mésanges, qui dépend lui-même de l'infection parasitaire. La coloration verte pourrait également indiquer la qualité des soins paxentaux délivrés par les mésanges adultes femelles à leurs petits, comme le suggère la corrélation que nous avons observée entre la masse des jeunes d'une nichée et la coloration de leur mère. Les hirondelles capturées en Algérie souffrent plus de l'infection que celles échantillon¬nées en Europe (Chapitre 6). Les similitudes observées entre les communautés de par¬asites affectant les populations européennes et celles des populations nord-africaines suggèrent que la transmission des parasites a lieu lors de la migration vers le sud. A l'instar de nos observations sur les mésanges dans les chapitres 2 et 3, les hirondelles co-infectées ne montrent pas d'altérations de leur condition physique. Cette thèse démontre qu'il existe, au sein des populations de mésanges charbonnières, des interactions antagonistes entre, d'une part, les parasites et leurs hôtes et d'autre part, entre différent parasites. Le résultat de ces interactions antagonistes varie en fonction des espèces et de la zone géographique considérée. Nous avons démontré que les interactions ne suivent pas toujours la théorie, puisque la coevolution qui, en suivant le concept de la virulence, devrait augmenter la charge parasitaire et diminuer la condition physique des hôtes, ne montre pourtant pas d'impact négatif sur les populations de mésanges. Nous pouvons maintenant concentrer nos efforts à la caractérisation des interactions antagonistes. De plus, grâce aux avancées des méthodes moléculaires, nous pouvons suivre et étudier en détails comment ces interactions se manifestent et quels sont leurs effets sur la condition physique des hôtes. - Parasites are key in shaping various behavioural and life-history traits of their hosts. The influence of parasitism on host populations varies from slight to devastating and might influence such parameters as mortality rates or reproductive success. Host-parasite coevolution is one of the most powerful selective forces in evolution and can lead to local adaptation of parasites and hosts in spatially structured environments. In this thesis, I studied haemosporidian parasites in different populations of great tits (Parus major) and house martins (Delichon urbicum). Firstly, I wanted to determine how parasites are distributed and if parasite communities are structured. The main question I wanted to address hereafter was how parasites, and specifically infection with multiple genera of parasites (i.e. co-infection) influenced host physiology and reproductive success. I found that parasite distribution is environmentally driven and could therefore be closely linked to vector prevalence; and that the stability of parasite infection over time is genus-dependent (Chapter 1 - 2). I further found that different haemosporidian lineages might interact differently with their hosts as parasitaemia was strongly lineage-specific and that the presence of Leucocytozoon parasites showed no correlation to Plasmodium or Haemoproteus parasitaemia, nor to great tit reproductive success (Chapter 2-3). In Chapter 4 I examined immune capacity of haemosporidian-infected great tits. The results proved inconclusive, and I strongly suggest re-evaluation hereof in future work. Great tits do not appear to signal parasite infection through plumage colouration (Chapter 5); however, infection did have a link to oxidative stress resistance which is strongly signalled through the black breast stripe, with darker males being more resistant and darker females less resistant. Females might incur different costs associated with darker stripes. This would allow reversal of signaling function. Green colouration could also serve as a cue for female provisioning quality as indicated by the strong correlation between colouration and chick body mass. Breeding house martins caught in Algeria suffer greater haemosporidian infection than European populations (Chapter 6). Similar parasite communities in European and North-African populations suggest transmission of parasites may occur during southward migration. Similarly to what was observed in great tits in Chapter 2 and 3, no relationship was found between parasite co-infection and Swiss house martin body condition. This thesis demonstrates that host-parasite and inter-parasite antagonistic interac¬tions exist in great tit populations. How these interactions play out is species dependent and varies geographically. I have demonstrated that interactions do not always follow the theory, as co-infection - which under the concept of virulence should increase parasitaemia and decrease body condition - showed no negative impact on great tit populations. We can now concentrate our efforts on characterising these antagonistic interactions, and with the advance in molecular methods, track and investigate how these interactions play out and what the effect on host fitness is.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Messages à retenir: Connaître la pharmacocinétique du produit de contraste hépato spécifique Gd-EOB-DTPA.Apprendre la valeur diagnostique supplémentaire du Gd-EOB-DTPA comparée à celle des produits de contraste purement intravasculaires pour l'exploration destumeurs hépatiques.Connaître les situations cliniques typiques dans lesquelles l 'utilisation du Gd-EOB-DTPA est recommandée. Résumé: Le produit de contraste Gd-EOB-DTPA, un sel de l'acide gadoxétique, est un agent de contraste intra vasculaire et hépato-spécifique. Environ 50% de la doseinjectée par voie intraveineuse (IV) sont captés par les hépatocytes en phase veineuse, suivie d'une excrétion biliaire à environ 20 minutes après l'injection IV enbolus. En phase tardive, il en résulte donc un renforcement de contraste entre le parenchyme hépatique et toutes les lésions intra-hépatiques focales qui sontcomposées d'autres cellules que d'hépatocytes sains. La détection de métastases hépatiques est ainsi rendue plus facile, notamment celles de petite taille,même infra-centimétrique, en permettant de connaître exactement leur nombre total, ce qui est essentiel en cas de bilan pré-opératoire. La caractérisation destumeurs bénignes, telle que de l'hyperplasie nodulaire focale et de l'adénome hépatique, est également améliorée, en raison de leur contenu cellulaire différent.En cas de remaniement fibrotique ou cirrhotique sous-jacent, le Gd-EOB-DTPA s'est révélé supérieur que d'autres agents de contraste hépato-spécifiques enraison d'une meilleure imprégnation du parenchyme hépatique.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La présente recherche se propose de désobstruer un certain nombre de catégories « esthétiques », au sens étendu du terme, de leur métaphysique implicite. La thèse que je souhaite défendre se présente sous la forme d'un paradoxe : d'une part, le sens originel d'« esthétique » a été perdu de vue, d'autre part, malgré cet oubli, quiconque s'interroge philosophiquement sur les beaux-arts reçoit, nolens volens, Baumgarten en héritage. Avec AEsthetica (1750/1758), ouvrage inachevé et hautement problématique, nous pourrions dire, citant René Char, qu'il s'agit-là d'un « héritage précédé d'aucun testament ». En d'autres termes, ce qui nous échoit nous occupe, voire nous préoccupe, sans que nous disposions des outils conceptuels pour nous y rapporter librement. Soyons clairs, je ne soutiens pas que l'esthétique philosophique, telle qu'elle s'énonce à ses débuts, soit un passage obligé pour penser l'art, et ce d'autant plus qu'il ne s'agit pas d'un passage, mais proprement d'une impasse. Ce que je veux dire, c'est que Kant répond à Baumgarten, et que Hegel répond à Kant et ainsi de suite. Il n'y a pas de tabula rasa dans l'histoire de la pensée, et l'oubli de l'historicité d'une pensée est le meilleur moyen de la neutraliser en simple supplément culturel, tout en demeurant entièrement captifs de ses présupposés.Au départ, la question qui motivait implicitement la rédaction de cette recherche se formulait ainsi : « Dans quelle mesure la philosophie énonce-t-elle quelque chose d'important au sujet des beaux-arts ? » Au fil du temps, la question s'est inversée pour devenir : « Qu'est-ce que les écrits sur les beaux- arts, tels qu'ils foisonnent au 18e siècle, nous enseignent à propos de la philosophie et des limites inhérentes à sa manière de questionner ?» Et gardons-nous de penser qu'une telle inversion cantonne la question de l'esthétique, au sens très large du terme, à n'être qu'une critique immanente à l'histoire de la philosophie. Si la philosophie était une « discipline » parmi d'autres, un « objet » d'étude possible dans la liste des matières universitaires à choix, elle ne vaudrait pas, à mon sens, une seule heure de peine. Mais c'est bien parce que la philosophie continue à orienter la manière dont nous nous rapportons au « réel », au « monde » ou à l'« art » - je place les termes entre guillemets pour indiquer qu'il s'agit à la fois de termes usuels et de concepts philosophiques - que les enjeux de la question de l'esthétique, qui est aussi et avant tout la question du sentir, excèdent l'histoire de la philosophie.Pour introduire aux problèmes soulevés par l'esthétique comme discipline philosophique, j'ai commencé par esquisser à grands traits la question du statut de l'image, au sens le plus général du terme. Le fil conducteur a été celui de l'antique comparaison qui conçoit la poésie comme une « peinture parlante » et la peinture comme une « poésie muette ». Dans le prolongement de cette comparaison, le fameux adage ut pictura poesis erit a été conçu comme le véritable noeud de toute conception esthétique à venir.Il s'est avéré nécessaire d'insister sur la double origine de la question de l'esthétique, c'est-à-dire la rencontre entre la pensée grecque et le christianisme. En effet, l'un des concepts fondamentaux de l'esthétique, le concept de création et, plus spécifiquement la possibilité d'une création ex nihiio, a été en premier lieu un dogme théologique. Si j'ai beaucoup insisté sur ce point, ce n'est point pour établir une stricte identité entre ce dogme théologique et le concept de création esthétique qui, force est de l'admettre, est somme toute souvent assez flottant dans les écrits du 18e siècle. L'essor majeur de la notion de création, couplée avec celle de génie, sera davantage l'une des caractéristiques majeures du romantisme au siècle suivant. La démonstration vise plutôt à mettre en perspective l'idée selon laquelle, à la suite des théoriciens de l'art de la Renaissance, les philosophes du Siècle des Lumières ont accordé au faire artistique ou littéraire une valeur parfaitement inédite. Si l'inventeur du terme « esthétique » n'emploie pas explicitement le concept de création, il n'en demeure pas moins qu'il attribue aux poètes et aux artistes le pouvoir de faire surgir des mondes possibles et que ceux-ci, au même titre que d'autres régions de l'étant, font l'objet d'une saisie systématique qui vise à faire apparaître la vérité qui leur est propre. Par l'extension de l'horizon de la logique classique, Baumgarten inclut les beaux-arts, à titre de partie constituante des arts libéraux, comme objets de la logique au sens élargi du terme, appelée « esthético- logique ». L'inclusion de ce domaine spécifique d'étants est justifiée, selon les dires de son auteur, par le manque de concrétude de la logique formelle. Or, et cela n'est pas le moindre des paradoxes de l'esthétique, la subsomption des beaux-arts sous un concept unitaire d'Art et la portée noétique qui leur est conférée, s'opère à la faveur du sacrifice de leur singularité et de leur spécificité. Cela explique le choix du titre : « métaphysique de l'Art » et non pas « métaphysique de l'oeuvre d'art » ou « métaphysique des beaux-arts ». Et cette aporîe constitutive de la première esthétique est indépassable à partir des prémices que son auteur a établies, faisant de la nouvelle discipline une science qui, à ce titre, ne peut que prétendre à l'universalité.Au 18e siècle, certaines théories du beau empruntent la voie alternative de la critique du goût. J'ai souhaité questionner ces alternatives pour voir si elles échappent aux problèmes posés par la métaphysique de l'Art. Ce point peut être considéré comme une réplique à Kant qui, dans une note devenue célèbre, soutient que « les Allemands sont les seuls à se servir du mot "esthétique" pour désigner ce que d'autres appellent la critique du goût ». J'ai démontré que ces deux termes ne sont pas synonymes bien que ces deux positions philosophiques partagent et s'appuient sur des présupposés analogues.La distinction entre ces deux manières de penser l'art peut être restituée synthétiquement de la sorte : la saisie systématique des arts du beau en leur diversité et leur subsomption en un concept d'Art unitaire, qui leur attribue des qualités objectives et une valeur de vérité indépendante de toute saisie subjective, relègue, de facto, la question du jugement de goût à l'arrière-plan. La valeur de vérité de l'Art, définie comme la totalité des qualités intrinsèques des oeuvres est, par définition, non tributaire du jugement subjectif. Autrement dit, si les oeuvres d'art présentent des qualités intrinsèques, la question directrice inhérente à la démarche de Baumgarten ne peut donc nullement être celle d'une critique du goût, comme opération subjective {Le. relative au sujet, sans que cela soit forcément synonyme de « relativisme »), mais bien la quête d'un fondement qui soit en mesure de conférer à l'esthétique philosophique, en tant que métaphysique spéciale, sa légitimité.Ce qui distingue sur le plan philosophique le projet d'une métaphysique de l'Art de celui d'une esthétique du goût réside en ceci que le premier est guidé, a priori, par la nécessité de produire un discours valant universellement, indépendant des oeuvres d'art, tandis que le goût, pour s'exercer, implique toujours une oeuvre singulière, concrète, sans laquelle celui-ci ne reste qu'à l'état de potentialité. Le goût a trait au particulier et au contingent, sans être pour autant quelque chose d'aléatoire. En effet, il n'est pas un véritable philosophe s'interrogeant sur cette notion qui n'ait entrevu, d'une manière ou d'une autre, la nécessité de porter le goût à la hauteur d'un jugement, c'est-à-dire lui conférer au moins une règle ou une norme qui puisse le légitimer comme tel et le sauver du relativisme, pris en son sens le plus péjoratif. La délicatesse du goût va même jusqu'à être tenue pour une forme de « connaissance », par laquelle les choses sont appréhendées dans toute leur subtilité. Les différents auteurs évoqués pour cette question (Francis Hutcheson, David Hume, Alexander Gerard, Louis de Jaucourt, Montesquieu, Voltaire, D'Alembert, Denis Diderot, Edmund Burke), soutiennent qu'il y a bien quelque chose comme des « normes » du goût, que celles-ci soient inférées des oeuvres de génie ou qu'elles soient postulées a priori, garanties par une transcendance divine ou par la bonté de la Nature elle-même, ce qui revient, en dernière instance au même puisque le geste est similaire : rechercher dans le suprasensible, dans l'Idée, un fondement stable et identique à soi en mesure de garantir la stabilité de l'expérience du monde phénoménal.La seconde partie de la recherche s'est articulée autour de la question suivante : est-ce que les esthétiques du goût qui mesurent la « valeur » de l'oeuvre d'art à l'aune d'un jugement subjectif et par l'intensité du sentiment échappent aux apories constitutives de la métaphysique de l'Art ?En un sens, une réponse partielle à cette question est déjà contenue dans l'expression « esthétique du goût ». Cette expression ne doit pas être prise au sens d'une discipline ou d'un corpus unifié : la diversité des positions présentées dans cette recherche, bien que non exhaustive, suffit à le démontrer. Mais ce qui est suggéré par cette expression, c'est que ces manières de questionner l'art sont plus proches du sens original du terme aisthêsis que ne l'est la première esthétique philosophique de l'histoire de la philosophie. L'exercice du goût est une activité propre du sentir qui, en même temps, est en rapport direct avec la capacité intellectuelle à discerner les choses et à un juger avec finesse et justesse.Avec le goût esthétique s'invente une espèce de « sens sans organe » dont la teneur ontologique est hybride, mais dont le nom est identique à celui des cinq sens qui procurent la jouissance sensible la plus immédiate et la moins raisonnable qui soit. Par la reconnaissance de l'existence d'un goût « juste » et « vrai », ou à défaut, au moins de l'existence d'une « norme » indiscutable de celui-ci, c'est-à-dire de la possibilité de formuler un jugement de goût une tentative inédite de spîritualisation de la sensibilité a lieu.Par conséquent, il est loin d'être évident que ce que j'ai appelé les esthétiques du goût échappent à un autre aspect aporétique de la métaphysique de l'Art, à savoir : passer à côté du caractère singulier de telle ou telle oeuvre afin d'en dégager les traits universels qui permettent au discours de s'étayer. Dans une moindre mesure, cela est même le cas dans les Salons de Diderot où, trop souvent, le tableau sert de prétexte à l'élaboration d'un discours brillant.Par contre, tout l'intérêt de la question du goût réside en ceci qu'elle présente, de façon particulièrement aiguë, les limites proprement métaphysiques dont l'esthétique, à titre de discipline philosophique, se fait la légataire et tente à sa manière d'y remédier par une extension inédite du concept de vérité et sa caractérisai ion en termes de vérité « esthéticologique » au paragraphe 427 de Y Esthétique. Cela dit, le fait même que dans l'empirisme la sensibilité s'oppose, une fois de plus, à l'intellect comme source de la naissance des idées - même si c'est dans la perspective d'une réhabilitation de la sensibilité -, indique que l'horizon même de questionnement demeure inchangé. Si le goût a pu enfin acquérir ses lettres de noblesse philosophique, c'est parce qu'il a été ramené, plus ou moins explicitement, du côté de la raison. Le jugement portant sur les arts et, de manière plus générale, sur tout ce qui est affaire de goût ne saurait se limiter au sentiment de plaisir immédiat. Le vécu personnel doit se transcender en vertu de critères qui non seulement permettent de dépasser le relativisme solipsiste, mais aussi de donner forme à l'expérience vécue afin qu'elle manifeste à chaque fois, et de façon singulière, une portée universelle.Le goût, tel qu'il devient un topos des discours sur l'art au 18e siècle, peut, à mon sens, être interprété comme l'équivalent de la glande pinéale dans la physiologie cartésienne : l'invention d'un « je ne sais quoi » situé on ne sait où, sorte d'Hermès qui assure la communication entre l'âme et le corps et sert l'intermédiaire entre l'intellect et la sensibilité. L'expérience décrite dans l'exercice du goût implique de facto une dimension par définition occultée par la métaphysique de l'Art : le désir. Pour goûter, il faut désirer et accepter d'être rempli par l'objet de goût. Dans l'exercice du goût, le corps est en jeu autant que l'intellect, il s'agit d'une expérience totale dans laquelle aucune mise à distance théorétique n'est, en un premier temps, à même de nous prémunir de la violence des passions qui nous affectent. L'ambiguïté de cette notion réside précisément dans son statut ontologiquement problématique. Mais cette incertitude est féconde puisqu'elle met en exergue le caractère problématique de la distinction entre corps et esprit. Dans la notion de goût est contenue l'idée que le corps pense aussi et que, par voie de conséquence, la sensibilité n'est pas dépourvue de dimension spirituelle. Reste que formuler les choses de la sorte revient à rejouer, en quelque sorte, l'antique diaphorâ platonicienne et à convoquer, une fois de plus, les grandes oppositions métaphysiques telles que corps et âme, sensible et intelligible, matière et forme.La troisième partie est entièrement consacrée à Shaftesbury qui anticipe le statut ontologiquement fort de l'oeuvre d'art (tel qu'il sera thématisé par Baumgarten) et l'allie à une critique du goût. Cet auteur peut être considéré comme une forme d'exception qui confirme la règle puisque sa métaphysique de l'Art laisse une place prépondérante à une critique du goût. Mais le cumul de ces deux caractéristiques opposées un peu schématiquement pour les besoins de la démonstration n'invalide pas l'hypothèse de départ qui consiste à dire que la saisie philosophique de la question du goût et l'invention conjointe de l'esthétique au 18e siècle sont deux tentatives de trouver une issue au problème du dualisme des substances.Cette recherche doit être prise comme une forme de propédeutique à la fois absolument nécessaire et parfaitement insuffisante. Après Baumgarten et le siècle du goût philosophique, les propositions de dépassement des apories constitutives d'une tradition qui pense l'art à partir de couples d'oppositions métaphysiques tels qu'âme et corps, forme et matière, ainsi que leurs traductions dans les arts visuels (dessin et couleur ou encore figuration et abstraction), n'ont pas manqué. Il aurait fallu in fine s'effacer pour laisser la place aux plasticiens eux-mêmes, mais aussi aux poètes, non plus dans l'horizon de Y ut pictura, mais lorsqu'ils expriment, sans verser dans l'analyse conceptuelle, leurs rencontres avec telle ou telle oeuvre (je pense à Baudelaire lorsqu'il évoque Constantin Guys, à Charles Ferdinand Ramuz lorsqu'il rend hommage à Cézanne ou encore à Pascal Quignard lorsqu'il raconte les fresques de la maison des Dioscures à Pompéi, pour ne citer que trois noms qui affleurent immédiatement à ma mémoire tant leur souvenir est vivace et leur exemple un modèle). Et puis il s'agit, malgré tout, de ne pas renoncer pour autant au discours esthétique, c'est- à-dire à la philosophie, mais de réinterroger les catégories dont nous sommes les légataires et de penser avec et au-delà des limites qu'elles nous assignent. Mais cela ferait l'objet d'un autre ouvrage.