1000 resultados para Pesticides--Atténuation des risques
Resumo:
Les sports équestres sont en plein développement en France où l'on compte plus d'un million de chevaux. Le nombre de cavaliers pratiquant en club ou chez eux est estimé à 600 000 et l'on dénombre plus de 68 000 emplois en France dans tous les domaines : agriculture, environnement, courses, loisirs, sports (www.haras-nationaux.fr). On trouve également dans les métiers du cheval les vétérinaires spécialisés ainsi que les maréchaux-ferrants. De plus, la France est un pays reconnu pour son activité d'élevage avec une production de chevaux de concours de très grande qualité.Récemment, plusieurs études relatant les expositions professionnelles à la poussière des écuries ont paru dans les journaux scientifiques. Les résultats montrent que la poussière issue des écuries contient, entre autres, des concentrations relativement élevées d'endotoxines (1) et de ?(1-3)-glucan (2) pouvant avoir des conséquences sur la santé respiratoire des travailleurs. En effet, des études précédentes ont montré que le fait de travailler ou de côtoyer des chevaux était associé avec une augmentation des risques de problèmes des voies respiratoires supérieures tels que des irritations du nez, de la toux (sèche et productive), de l'asthme, des bronchites chroniques et des épisodes d'" organic dust toxic syndrome (3) " (Gallagher et al., 2007 ; Mazan et al., 2009). [Auteure]
Resumo:
Par Compliance, on entend l'ensemble des mesures organisationnelles d'une entreprise qui visent à assurer le respect des règles par l'entreprise et ses collaborateurs. Dans le secteur privé - surtout dans les banques et les assurances - la Compliance est un concept bien établi et le poste du Compliance Officer apparaît clairement dans l'organigramme des entreprises. Ce terme apparaît aussi de temps à autre au sein de l'administration fédérale, en relation avec la politique de gestion des risques et le système de contrôle interne (SCI) ; mais une introduction effective de la Compliance n'y a pas encore eu lieu (jusqu'ici). Les Américains ont l'habitude de dire « if you think compliance is expensive, try non compliance ». Cette déclaration, apparemment valable pour le secteur privé, peut-elle cependant être transposée telle quelle au secteur public ? L'introduction d'un système de management tel que la Compliance apporterait-elle effectivement une plus-value par rapport aux systèmes existants afin d'éviter les risques engendrant des conséquences juridiques ou causant une mauvaise réputation suite au non-respect de règles par des collaborateurs ? La présente étude se penche sur ces questions et analyse, sur la base de documents et d'interviews, quels éléments de la Compliance existent au niveau de la Confédération et au sein de l'Office fédéral de la santé publique (OFSP) et s'ils sont propres à atteindre les objectifs visés par la Compliance. Dans plusieurs domaines, on a pu constater des défauts et, par conséquent, un gros potentiel d'amélioration. Le problème principal est l'absence d'organisation au niveau de la Compliance. Cela complique la vue d'ensemble des risques juridiques et de ceux pouvant causer une mauvaise réputation qui existent au niveau de la Confédération et à l'OFSP et rend impossible un management homogène de ces risques. En conséquence et dans l'état actuel des choses, il pourrait s'avérer difficile d'éviter de manière durable la réalisation des risques susmentionnés au moyen des systèmes existants. D'un autre côté, la politique de gestion des risques au sein de la Confédération et l'introduction d'un système de contrôle interne (SCI) ont représenté les premiers pas en direction d'un système de gestion des risques intégré. La Compliance serait un complément idéal et pourrait - dans la mesure où la direction de l'Office la soutient et donne le bon exemple - contribuer à la réduction des risques décrits ci-dessus non seulement au niveau de la Confédération mais encore au sein de l'OFSP. La présente étude ne vise pas pour autant à critiquer les systèmes établis, mais bien plus à montrer le potentiel d'amélioration dont on pourrait tirer profit.
Resumo:
En France, les différentes réorientations pénales et les missions confiées au Service Pénitentiaire d'Insertion et de Probation (SPIP) placent l'évaluation des risques de récidive et leur prévention au centre de la pratique professionnelle des Conseillers Pénitentiaires d'Insertion et de Probation (CPIP). Les récentes évolutions législatives des missions des SPIP, les mutations identitaires et des pratiques qu'elles impliquent -en particulier les Groupes de Paroles de Prévention de la Récidive (GPPR)-, caractérisent une évolution centrée sur la gestion du risque. Partant de critiques dans la littérature sur la notion de gestion du risque de récidive dans les pratiques pénales et de ce qu'elle induit dans les modes d'appréhension des sujets et dans les interventions professionnelles, l'article met en relation les réorientations vers une gestion du risque telles qu'elles peuvent apparaître dans les textes, missions et référentiel du SPIP, avec une évaluation des pratiques professionnelles centrées sur les GPPR intégrés au sein des SPIP. Y a-t-il infiltration et remodelage des pratiques ? Si c'est bien le cas, on examine où se situe le niveau pertinent de cette influence et du réaménagement des pratiques.
Resumo:
Gaysurvey est une enquête menée périodiquement en Suisse parmi les hommes qui ont des relations sexuelles avec des hommes (HSH). Elle s'inscrit dans le dispositif de surveillance du VIH, établi par l'Office fédéral de la santé publique, en tant qu'instrument de suivi des comportements face au VIH/Sida dans ce groupe cible. Elle a déjà été réalisée à neuf reprises : en 1987, 1990, 1992, 1994, 1997, 2000, 2004, 2007 et 2009. En 2010, l'enquête européenne EMIS a permis d'obtenir certains indicateurs qui sont présentés avec les données des enquêtes Gaysurvey lorsqu'ils sont disponibles. Les résultats de cette enquête servent directement au pilotage et à l'évaluation de la stratégie de lutte contre le VIH/Sida en Suisse, telle qu'elle a été définie par l'OFSP et ses partenaires. Elle permet d'établir des tendances temporelles au niveau des pratiques sexuelles et des expositions au risque d'infection par le VIH. Elle permet, en outre, d'approfondir certaines thématiques pertinentes pour le travail de prévention (gestion du risque au sein d'une relation stable, entrée dans la sexualité, pratiques de réduction des risques). Ce rapport a pour objectif de faire la synthèse des tendances, mises à jour lors de la dernière vague d'enquête réalisée en 2012. [Introduction p. 17]
Resumo:
In Switzerland, the annual cost of damage by natural elements has been increasing for several years despite the introduction of protective measures. Mainly induced by material destruction building insurance companies have to pay the majority of this cost. In many European countries, governments and insurance companies consider prevention strategies to reduce vulnerability. In Switzerland, since 2004, the cost of damage due to natural hazards has surpassed the cost of damage due to fire; a traditional activity of the Cantonal Insurance company (EGA). Therefore, the strategy for efficient fire prevention incorporates a reduction of the vulnerability of buildings. The thesis seeks to illustrate the relevance of such an approach when applied to the damage caused by natural hazards. It examines the role of insurance place and its involvement in targeted prevention of natural disasters. Integrated risk management involves a faultless comprehension of all risk parameters The first part of the thesis is devoted to the theoretical development of the key concepts that influence risk management, such as: hazard, vulnerability, exposure or damage. The literature on this subject, very prolific in recent years, was taken into account and put in perspective in the context of this study. Among the risk parameters, it is shown in the thesis that vulnerability is a factor that we can influence efficiently in order to limit the cost of damage to buildings. This is confirmed through the development of an analysis method. This method has led to the development of a tool to assess damage to buildings by flooding. The tool, designed for the property insurer or owner, proposes several steps, namely: - Vulnerability and damage potential assessment; - Proposals for remedial measures and risk reduction from an analysis of the costs of a potential flood; - Adaptation of a global strategy in high-risk areas based on the elements at risk. The final part of the thesis is devoted to the study of a hail event in order to provide a better understanding of damage to buildings. For this, two samples from the available claims data were selected and analysed in the study. The results allow the identification of new trends A second objective of the study was to develop a hail model based on the available data The model simulates a random distribution of intensities and coupled with a risk model, proposes a simulation of damage costs for the determined study area. Le coût annuel des dommages provoqués par les éléments naturels en Suisse est conséquent et sa tendance est en augmentation depuis plusieurs années, malgré la mise en place d'ouvrages de protection et la mise en oeuvre de moyens importants. Majoritairement induit par des dégâts matériels, le coût est supporté en partie par les assurances immobilières en ce qui concerne les dommages aux bâtiments. Dans de nombreux pays européens, les gouvernements et les compagnies d'assurance se sont mis à concevoir leur stratégie de prévention en termes de réduction de la vulnérabilité. Depuis 2004, en Suisse, ce coût a dépassé celui des dommages dus à l'incendie, activité traditionnelle des établissements cantonaux d'assurance (ECA). Ce fait, aux implications stratégiques nombreuses dans le domaine public de la gestion des risques, résulte en particulier d'une politique de prévention des incendies menée efficacement depuis plusieurs années, notamment par le biais de la diminution de la vulnérabilité des bâtiments. La thèse, par la mise en valeur de données actuarielles ainsi que par le développement d'outils d'analyse, cherche à illustrer la pertinence d'une telle approche appliquée aux dommages induits par les phénomènes naturels. Elle s'interroge sur la place de l'assurance et son implication dans une prévention ciblée des catastrophes naturelles. La gestion intégrale des risques passe par une juste maîtrise de ses paramètres et de leur compréhension. La première partie de la thèse est ainsi consacrée au développement théorique des concepts clés ayant une influence sur la gestion des risques, comme l'aléa, la vulnérabilité, l'exposition ou le dommage. La littérature à ce sujet, très prolifique ces dernières années, a été repnse et mise en perspective dans le contexte de l'étude, à savoir l'assurance immobilière. Parmi les paramètres du risque, il est démontré dans la thèse que la vulnérabilité est un facteur sur lequel il est possible d'influer de manière efficace dans le but de limiter les coûts des dommages aux bâtiments. Ce raisonnement est confirmé dans un premier temps dans le cadre de l'élaboration d'une méthode d'analyse ayant débouché sur le développement d'un outil d'estimation des dommages aux bâtiments dus aux inondations. L'outil, destiné aux assurances immobilières, et le cas échéant aux propriétaires, offre plusieurs étapes, à savoir : - l'analyse de la vulnérabilité et le potentiel de dommages ; - des propositions de mesures de remédiation et de réduction du risque issues d'une analyse des coûts engendrés par une inondation potentielle; - l'adaptation d'une stratégie globale dans les zones à risque en fonction des éléments à risque. La dernière partie de la thèse est consacrée à l'étude d'un événement de grêle dans le but de fournir une meilleure compréhension des dommages aux bâtiments et de leur structure. Pour cela, deux échantillons ont été sélectionnés et analysés parmi les données de sinistres à disposition de l'étude. Les résultats obtenus, tant au niveau du portefeuille assuré que de l'analyse individuelle, permettent de dégager des tendances nouvelles. Un deuxième objectif de l'étude a consisté à élaborer une modélisation d'événements de grêle basée sur les données à disposition. Le modèle permet de simuler une distribution aléatoire des intensités et, couplé à un modèle d'estimation des risques, offre une simulation des coûts de dommages envisagés pour une zone d'étude déterminée. Les perspectives de ce travail permettent une meilleure focalisation du rôle de l'assurance et de ses besoins en matière de prévention.
Resumo:
[Sommaire] 1. Qu'est-ce que la bientraitance ? Définitions. 2. Qui s'intéresse à la bientraitance ?. 3. Quel est l'intérêt de la bientraitance. 4. Qu'est-ce qui est connu comme efficace ? 5. Y-a-t-il des risques à prendre en compte, des opposants ? 6. Une perspective de santé publique. 7.Qu'est-ce qui devrait être fait maintenant ? [Introduction (extrait)] Depuis 2000, la notion de «bientraitance » est de plus en plus couramment utilisée, notamment en France et en Belgique. Pourtant, les contours de cette notion sont encore flous. Les définitions sont nombreuses et les points de vue diffèrent selon les corps professionnels. Cet ouvrage entend préciser les contours de cette notion tout en rendant compte de toute la complexité que suppose une telle entreprise. Il relève les différentes perspectives adoptées autour du thème de la bientraitance des enfants et soulève les interrogations inhérentes à toute tentative de définition. En plus de soulever de nombreuses pistes de réflexion, cette Revue de la Littérature a servi de base au développement d'un projet pilote mené depuis décembre 2006 dans le canton de Fribourg. Le projet « Bientraitance : le rôle de l'éducation non formelle », mené par la Fondation Charlotte Olivier, cherche à optimiser l'utilisation des ressources de bientraitance endogènes. Il poursuit un double objectif : augmenter l'accès et la participation des enfants et des adolescents à des activités collectives (sport, art, culture, scouts / éclaireurs,...) considérées comme "bientraitantes" (donc en principe favorables au développement et à la santé au sens large) et évaluer les résultats de cette participation.
Resumo:
[Objectifs de la recherche] I. Mesurer la condition physique des enfants et des adolescents vaudois de 9 à 19 ans (physical fitness) à l'aide de tests standardisés. - II. Standardiser (normes par tranches d'âge et par sexes séparés) dans le contexte suisse des tests de condition physique, notamment Eurofit et Swissfit, permettant des comparaisons avec d'autres pays et un suivi longitudinal des performances. - III. Etudier les relations entre cette condition physique et la santé et les styles de vie, à savoir avec: 1. des critères anthropométriques; 2. l'activité physique et les pratiques sportives (physical activity); 3. les styles de vie (alimentation, usage de tabac, habitudes de vie en général, prise de risque); 4. certaines caractéristiques psychologiques comme les perceptions, la tendance à prendre des risques, l'image de soi. [Auteurs, p. 8]
Resumo:
1.1. La greffe de rein La greffe d'organes a révolutionné la médecine. De tout le temps elle a suscité les fantasmes et les rêves : la pratique est ancestrale ; elle remonte au 3ème siècle lorsque Saint Côme et Saint Damien réalisent pour la première fois une greffe de jambe de Maure sur un patient. Il faudra néanmoins attendre le 20ème siècle pour voir la transplantation se réaliser plus concrètement avec succès et se généraliser. A Vienne, en 1902, le Dr. Ulmann (1861-1937) pratique la toute première autogreffe de rein sur un chien. Il replace le rein de l'animal au niveau du cou, pratiquant une anastomose vasculaire. Depuis, les tentatives se multiplient et peu après le Dr. Von Decastello, pratique la première transplantation chien-chien. Par la suite, en associa- tion avec le Dr. Ulmann la première greffe entre un chien et une chèvre aura lieu, avec un certain succès. En effet, elle a permis à l'animal receveur de produire de l'urine. L'avancée majeure durant ce début de siècle fut le développement d'une nouvelle technique de suture vasculaire par le Dr. Carrel, qui obtiendra le prix Nobel en 1912. Son élève, le Dr. Jaboulay (1860-1913) a réalisé plusieurs tentatives de xénogreffes rénales. Il pratiquera en 1906 les deux premières xénogreffes en utilisant un cochon et une chèvre comme donneurs. Le greffon fut respectivement placé au niveau de la cuisse et du bras des patients. La fonction rénale durera une heure. En 1909 Ernest Unger (1875-1938) transplanta un rein de fox-terrier sur un boxer, avec une production d'urine pendant 14 jours. Durant la même année le Dr. Unger a pratiqué une xénogreffe en transplantant un rein de nouveau né sur un babouin, cette intervention se terminant par la mort de l'animal. Un autre essai de greffe singe à humain, pratiqué sur une femme mourant de défaillance rénale, a fait comprendre à Unger qu'il y a des barrières biologiques dans la transplantation, mais que la greffe rénale est techniquement faisable. En 1914, J.B. Murphy découvre l'importance de la rate et de la moelle osseuse dans la réponse immune. En 1933 et 1949 en Ukraine, les premières allogreffes humaines de reins sont pratiquées par le chirurgien soviétique Yu Yu Voronoy. Malheureuse- ment aucune fonction rénale des greffons n'a été observée. Après une période de « stagnation scientifique » générale qui durera à peu près 10 ans, l'intérêt pour la transplantation refait surface dans les années 1950. Deux équipes de chirurgien se forment : une à Boston et l'autre à Paris. De nombreux cas d'allogreffes humaines sans immunosuppression sont documentés de 1950 à 1953. Malheureusement chaque opération aboutit à un échec, ceci dû aux phénomènes du rejet. M. Simonsen et WJ. Dempster découvrent qu'un mécanisme immun est à la base du rejet. Ils établissent aussi que la position pelvienne était meilleure que la position plus superficielle. Grâce aux découvertes dans le domaine du rejet et les nombreux progrès techniques, une allogreffe entre vrais jumeaux est pratiquée à Boston en 1954. L'opération est un succès total et permet de contrer toutes les hypothèses négatives avancées par certains groupes de travail. Depuis 1948, de nombreux travaux dans le domaine de l'immunosuppression ont été entrepris. La découverte de l'action immunosuppressive de la cortisone permet son instauration dans le traitement anti-rejet, malheureusement avec peu de succès. En effet, l'irradiation totale reste la méthode de choix jusqu'en 1962, date de l'apparition de l'Azaothioprine (Imuran®). La découverte de l'Azaothioprine, permet d'avancer de nouvelles hypothèses concernant le rejet : en évitant le rejet post-opératoire aigu, une protection et une adaptation au receveur pourraient être modulées par l'immunosuppression. Dans les années 1960, l'apparition des immunosuppresseurs de synthèse permet de développer de nouvelles lignes de traitement. Le Dr.Starzl et ses collègues, découvrent l'efficacité d'un traitement combiné de Prednisone et d'Azathioprine qui devient alors le standard d'immunosuppression post greffe durant cette période. Les années 60 et 70 sont des années d'optimisme. La prise en charge des patients s'améliore, le développement de la dialyse permet de maintenir en vie les patients avant la greffe, les techniques de conservation des organes s'améliorent, la transplantation élargit son domaine d'action avec la première greffe de coeur en 1968. Le typage tissulaire permet de déterminer le type d'HLA et la compatibilité entre le re- ceveur et le donneur afin de minimiser les risques de rejet aigu. Les années 1970 se caractérisent par deux amélioration majeures : celle du typage HLA-DR et l'apparition des inhibiteurs de la calcineurine (Cyclosporine A). Ce dernier restera l'agent de premier choix jusqu'aux alentours des années 1990 où apparaissaient de nouveaux immunosuppresseurs, tels que les inhibiteurs mTOR (siroli- mus) et les inhibiteurs de l'inosine monophosphate déshydrogénase (mycophénolate mofétil), par exemple. En conclusion, la transplantation rénale a été une des premières transplantations d'organes solides pratiquées sur l'homme avec de nombreux essais cliniques impliquant une multitude d'acteurs. Malgré des périodes de hauts et de bas, les avancements techniques ont été notables, ce qui a été très favorable en terme de survie pour les patients nécessitant une greffe. 1.2. Le lymphocèle La greffe rénale, comme toute autre acte chirurgical, comporte des risques et une morbidité spécifique. Le lymphocèle a la prévalence la plus élevée, qui peut aller de 0.6 à 51% 1-3 avec des variations entre les études. Le lymphocèle est défini comme une collection post opératoire de liquide lymphatique dans une cavité non épithélialisée et n'est pas causée par une fuite urinaire ou une hémorragie1, 4. Historiquement, le lymphocèle a été décrit pour la première fois dans la littérature médicale dans les années 1950, par Kobayashi et Inoue5 en chirurgie gynécologique. Par la suite Mori et al.6 en 1960 documentent la première série d'analyse de lymphocèles. En 1969 le lymphocèle est décrit pour la première fois par Inociencio et al.7 en tant que complication de greffe rénale. Sa pathogénèse n'est pas complètement élucidée, cependant plusieurs facteurs de risque ont été identifiés tels que : la ligature inadéquate des vaisseaux lymphatiques lors de la dissection des vaisseaux iliaques du donneur et de la préparation du greffon, le BMI, les diurétiques, l'anticoagulation (héparine), les hautes doses de stéoïdes, certains agents immunosuppresseurs (sirolimus), le diabète, les problèmes de cicatrisation, une hypoalbuminémie, une chirurgie rétropéritonéale préalable et le rejet aigu de greffe. (Tableau 1) Une symptomatologie peut être présente ou absente : elle découle directement de la localisation et de la taille de la collection8, 9, 10. Lorsqu'on se trouve devant un tableau de lymphocèle asymptomatique, la découverte se fait de manière fortuite lors d'un contrôle de suivi de greffe11, 12 cliniquement ou par échographie. En cas de lymphocèle non significatif cela ne requiert aucun traitement. Au contraire, lorsqu'il atteint une certaines taille il provoque un effet de masse et de compression qui provoque la symptomatologie. Cette dernière est peu spécifique et apparait en moyenne entre 2 semaines et 6 mois 13 après la greffe. Le patient va se présenter avec un tableau pouvant aller de la simple douleur abdominale en passant par un oedème du membre inférieur ou, dans de plus rares cas, une thrombose veineuse profonde sera le seul signe consécutif au lymphocèle14, 15. La plupart du temps on observera des valeurs de créatinine élevées, signant une souffrance rénale. Le diagnostic du lymphocèle peut se faire selon plusieurs techniques. La plus utilisée est la ponction à l'aiguille fine sous guidage ultrasonographique4. L'analyse du liquide ponctionné permet de différencier un lymphocèle d'un urinome. Les autres techniques existantes sont : la ponction après injection de carmin d'indigo15, un pyelogramme intraveineux et un lymphangiogramme16, le CT-Scan ou l'IRM15. Le dosage sanguin d'IL6 et IL8 est parfois utilisé pour déterminer si le lymphocèle est infecté.15 Suite à l'apparition d'une collection symptomatique; le rein transplanté peut être dans une situation à risque pour laquelle un traitement doit être entrepris. A l'heure actuelle, il n'existe pas de solution universelle dans la prévention et le traitement de ce type de complication. Les solutions sont multiples et dépendent principalement de la localisation et de la taille de la collection. Pendant de nombreuses années, le seul traitement du lymphocèle a été celui de l'aspiration percutanée simple. Cette dernière conduit cependant à un taux de récidive de presque 100%.17 Cette technique reste une solution utilisée principalement à visée diagnostique18, 19, 20, 21 ou pour soulager les patients à court terme15. Pour améliorer l'efficacité de cette technique on a fait appel à des agents sclérosants comme l'éthanol, la povidone-iodine, la tétracycline, la doxycycline ou de la colle de fibrine. Des complications chirurgicales ont cependant été rapportées, pouvant aller jusqu'au rejet de greffe22. La fenestration par laparoscopie a été décrite pour la première fois en 1991 par McCullough et al.23 Cette technique reste, de nos jours, la technique la plus utilisée pour le traitement du lymphocèle. Elle a de nombreux avantages : un temps de convalescence court, des pertes de sang minimes et une réalimentation rapide24, 25. On constate en outre la quasi absence de récidives après traitement11, 26. L'évaluation radiologique est très importante, car la marsupialisation par laparoscopie est limitée par l'emplacement et le volume de la collection. Ainsi, on évitera ce type de traite- ment lorsque la collection se situera postérieurement, à proximité de la vessie, de l'uretère ou du hile rénal. Dans ces situations, la laparotomie s'impose malgré l'augmentation de la morbidité liée à cette technique24. Actuellement on cherche à trouver une technique universelle du traitement des lymphocèles avec la chirurgie la moins invasive possible et le taux de récidive le plus faible possible. Malgré ses li- mites, la fenestration par laparoscopie apparaît comme une très bonne solution. Cette étude consiste en une évaluation rétrospective des traitements chirurgicaux de cette complication post-opératoire de la greffe rénale au CHUV (Centre Hospitalier Universitaire Vaudois) de 2003 à 2011. Le but est de recenser et analyser les différentes techniques que l'on observe actuellement dans la littérature et pouvoir ainsi proposer une technique idéale pour le CHUV.
Resumo:
[Table des matières] 1. Introduction. 2. Concepts et modèles d'ancrage. 3. Méthode. 4. Analyse de l'ancrage des programmes. 4.1 Programme Prévention des dépendances dans les communes (RADIX). 4.2 Programme Voilà. 4.3 Programme Fil rouge. 4.4 Programme Funtasy Projects. 4.5 Programme-cadre Ecoles et santé / REES-CH. 4.6 La "Formation des médiateurs scolaires de Suisse romande et du Tessin" et le Projet "Médication" (Ecoles et santé). 4.7 Programme "Drogue ou Sport?", Service "Drogues et sport", Programme "Sport et drogues" / LaOla. 4.8 Les projets soutenus par le Bureau suisse pour la réduction des risques liés aux drogues (OSEO). 4.9 Matériel de prévention de la toxicomanie produit par l'ISPA. 5. Conclusions : Les éléments transversaux d'ancrage des programmes. 6. Annexes.
Resumo:
Introduction: en oncologie apparaissent sur le marché depuis quelques années de nouveaux traitements en formulation orale facilitant l'administration et améliorant la qualité de vie du patient mais augmentant le risque de non adhésion et d'erreurs de posologie. L'observation par MEMS® (Medication Event Monitoring System) permet le suivi et l'encadrement du traitement oral et par le biais d'entretiens semi structurés menés par le pharmacien, ouvre la discussion sur les problèmes révélés par cette prise en charge. Méthode: étude non randomisée prospective uni centrique regroupant 50 patients inclus dans 3 groupes de traitements oncologiques oraux courants (capecitabine, letrozole/exemestane, imatinib/sunitinib) bénéficiant d'un suivi oncologique classique et équipés d'un MEMS® pour un an maximum. La persistance et la qualité d'exécution sont les deux paramètres mesurés grâce aux données récoltées électroniquement. Les entretiens sont dédiés à la prévention de la non adhésion et à la gestion des effets secondaires médicamenteux. La satisfaction est évaluée par un questionnaire à la fin du suivi. Résultats: à ce jour 38 patients ont été inclus dans l'étude. Les données complètes sont disponibles pour les 19 premiers patients dont 10 sous capecitabine et 9 sous letrozole/exemestane. Dans ce collectif l'âge médian est de 66 ans avec une majorité de femmes (11:8). La persistance à 10 jours est de 85% et la qualité d'exécution de 99%. Les toxicités observées supérieures à grade 1 sont 1 syndrome mains-pieds (G3) et 1 syndrome coronarien aigu (G3). Le questionnaire de fin de suivi relève une satisfaction de 85% des patients pour les entretiens proposés (57% utiles, 28% très utiles, 15% inutiles) et le succès quant à l'intégration du MEMS® dans leur quotidien (57% très facile, 43% facile). Conclusion: la persistance et la qualité d'exécution observées dans notre collectif sont excellentes. La satisfaction retrouvée auprès des patients reflète le besoin d'un soutien complémentaire face à la complexité de la maladie oncologique. La gestion pluridisciplinaire profite tant aux patients qu'au binôme médecin-pharmacien par l'amélioration de la communication globale entre les divers acteurs et par l'identification précoce des risques de non adhésion. La poursuite de cette étude et l'analyse des futures données permettra de mesurer le réel impact de notre intervention et de justifier le bénéfice pour des patients sous traitement similaire.
Resumo:
Ces dernières années, de nombreuses recherches ont mis en évidence les effets toxiques des micropolluants organiques pour les espèces de nos lacs et rivières. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, alors que les organismes sont exposés tous les jours à des milliers de substances en mélange. Or les effets de ces cocktails ne sont pas négligeables. Cette thèse de doctorat s'est ainsi intéressée aux modèles permettant de prédire le risque environnemental de ces cocktails pour le milieu aquatique. Le principal objectif a été d'évaluer le risque écologique des mélanges de substances chimiques mesurées dans le Léman, mais aussi d'apporter un regard critique sur les méthodologies utilisées afin de proposer certaines adaptations pour une meilleure estimation du risque. Dans la première partie de ce travail, le risque des mélanges de pesticides et médicaments pour le Rhône et pour le Léman a été établi en utilisant des approches envisagées notamment dans la législation européenne. Il s'agit d'approches de « screening », c'est-à-dire permettant une évaluation générale du risque des mélanges. Une telle approche permet de mettre en évidence les substances les plus problématiques, c'est-à-dire contribuant le plus à la toxicité du mélange. Dans notre cas, il s'agit essentiellement de 4 pesticides. L'étude met également en évidence que toutes les substances, même en trace infime, contribuent à l'effet du mélange. Cette constatation a des implications en terme de gestion de l'environnement. En effet, ceci implique qu'il faut réduire toutes les sources de polluants, et pas seulement les plus problématiques. Mais l'approche proposée présente également un biais important au niveau conceptuel, ce qui rend son utilisation discutable, en dehors d'un screening, et nécessiterait une adaptation au niveau des facteurs de sécurité employés. Dans une deuxième partie, l'étude s'est portée sur l'utilisation des modèles de mélanges dans le calcul de risque environnemental. En effet, les modèles de mélanges ont été développés et validés espèce par espèce, et non pour une évaluation sur l'écosystème en entier. Leur utilisation devrait donc passer par un calcul par espèce, ce qui est rarement fait dû au manque de données écotoxicologiques à disposition. Le but a été donc de comparer, avec des valeurs générées aléatoirement, le calcul de risque effectué selon une méthode rigoureuse, espèce par espèce, avec celui effectué classiquement où les modèles sont appliqués sur l'ensemble de la communauté sans tenir compte des variations inter-espèces. Les résultats sont dans la majorité des cas similaires, ce qui valide l'approche utilisée traditionnellement. En revanche, ce travail a permis de déterminer certains cas où l'application classique peut conduire à une sous- ou sur-estimation du risque. Enfin, une dernière partie de cette thèse s'est intéressée à l'influence que les cocktails de micropolluants ont pu avoir sur les communautés in situ. Pour ce faire, une approche en deux temps a été adoptée. Tout d'abord la toxicité de quatorze herbicides détectés dans le Léman a été déterminée. Sur la période étudiée, de 2004 à 2009, cette toxicité due aux herbicides a diminué, passant de 4% d'espèces affectées à moins de 1%. Ensuite, la question était de savoir si cette diminution de toxicité avait un impact sur le développement de certaines espèces au sein de la communauté des algues. Pour ce faire, l'utilisation statistique a permis d'isoler d'autres facteurs pouvant avoir une influence sur la flore, comme la température de l'eau ou la présence de phosphates, et ainsi de constater quelles espèces se sont révélées avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps. Fait intéressant, une partie d'entre-elles avait déjà montré des comportements similaires dans des études en mésocosmes. En conclusion, ce travail montre qu'il existe des modèles robustes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques, et qu'ils peuvent être utilisés pour expliquer le rôle des substances dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application. - Depuis plusieurs années, les risques que posent les micropolluants organiques pour le milieu aquatique préoccupent grandement les scientifiques ainsi que notre société. En effet, de nombreuses recherches ont mis en évidence les effets toxiques que peuvent avoir ces substances chimiques sur les espèces de nos lacs et rivières, quand elles se retrouvent exposées à des concentrations aiguës ou chroniques. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, c'est à dire considérées séparément. Actuellement, il en est de même dans les procédures de régulation européennes, concernant la partie évaluation du risque pour l'environnement d'une substance. Or, les organismes sont exposés tous les jours à des milliers de substances en mélange, et les effets de ces "cocktails" ne sont pas négligeables. L'évaluation du risque écologique que pose ces mélanges de substances doit donc être abordé par de la manière la plus appropriée et la plus fiable possible. Dans la première partie de cette thèse, nous nous sommes intéressés aux méthodes actuellement envisagées à être intégrées dans les législations européennes pour l'évaluation du risque des mélanges pour le milieu aquatique. Ces méthodes sont basées sur le modèle d'addition des concentrations, avec l'utilisation des valeurs de concentrations des substances estimées sans effet dans le milieu (PNEC), ou à partir des valeurs des concentrations d'effet (CE50) sur certaines espèces d'un niveau trophique avec la prise en compte de facteurs de sécurité. Nous avons appliqué ces méthodes à deux cas spécifiques, le lac Léman et le Rhône situés en Suisse, et discuté les résultats de ces applications. Ces premières étapes d'évaluation ont montré que le risque des mélanges pour ces cas d'étude atteint rapidement une valeur au dessus d'un seuil critique. Cette valeur atteinte est généralement due à deux ou trois substances principales. Les procédures proposées permettent donc d'identifier les substances les plus problématiques pour lesquelles des mesures de gestion, telles que la réduction de leur entrée dans le milieu aquatique, devraient être envisagées. Cependant, nous avons également constaté que le niveau de risque associé à ces mélanges de substances n'est pas négligeable, même sans tenir compte de ces substances principales. En effet, l'accumulation des substances, même en traces infimes, atteint un seuil critique, ce qui devient plus difficile en terme de gestion du risque. En outre, nous avons souligné un manque de fiabilité dans ces procédures, qui peuvent conduire à des résultats contradictoires en terme de risque. Ceci est lié à l'incompatibilité des facteurs de sécurité utilisés dans les différentes méthodes. Dans la deuxième partie de la thèse, nous avons étudié la fiabilité de méthodes plus avancées dans la prédiction de l'effet des mélanges pour les communautés évoluant dans le système aquatique. Ces méthodes reposent sur le modèle d'addition des concentrations (CA) ou d'addition des réponses (RA) appliqués sur les courbes de distribution de la sensibilité des espèces (SSD) aux substances. En effet, les modèles de mélanges ont été développés et validés pour être appliqués espèce par espèce, et non pas sur plusieurs espèces agrégées simultanément dans les courbes SSD. Nous avons ainsi proposé une procédure plus rigoureuse, pour l'évaluation du risque d'un mélange, qui serait d'appliquer d'abord les modèles CA ou RA à chaque espèce séparément, et, dans une deuxième étape, combiner les résultats afin d'établir une courbe SSD du mélange. Malheureusement, cette méthode n'est pas applicable dans la plupart des cas, car elle nécessite trop de données généralement indisponibles. Par conséquent, nous avons comparé, avec des valeurs générées aléatoirement, le calcul de risque effectué selon cette méthode plus rigoureuse, avec celle effectuée traditionnellement, afin de caractériser la robustesse de cette approche qui consiste à appliquer les modèles de mélange sur les courbes SSD. Nos résultats ont montré que l'utilisation de CA directement sur les SSDs peut conduire à une sous-estimation de la concentration du mélange affectant 5 % ou 50% des espèces, en particulier lorsque les substances présentent un grand écart- type dans leur distribution de la sensibilité des espèces. L'application du modèle RA peut quant à lui conduire à une sur- ou sous-estimations, principalement en fonction de la pente des courbes dose- réponse de chaque espèce composant les SSDs. La sous-estimation avec RA devient potentiellement importante lorsque le rapport entre la EC50 et la EC10 de la courbe dose-réponse des espèces est plus petit que 100. Toutefois, la plupart des substances, selon des cas réels, présentent des données d' écotoxicité qui font que le risque du mélange calculé par la méthode des modèles appliqués directement sur les SSDs reste cohérent et surestimerait plutôt légèrement le risque. Ces résultats valident ainsi l'approche utilisée traditionnellement. Néanmoins, il faut garder à l'esprit cette source d'erreur lorsqu'on procède à une évaluation du risque d'un mélange avec cette méthode traditionnelle, en particulier quand les SSD présentent une distribution des données en dehors des limites déterminées dans cette étude. Enfin, dans la dernière partie de cette thèse, nous avons confronté des prédictions de l'effet de mélange avec des changements biologiques observés dans l'environnement. Dans cette étude, nous avons utilisé des données venant d'un suivi à long terme d'un grand lac européen, le lac Léman, ce qui offrait la possibilité d'évaluer dans quelle mesure la prédiction de la toxicité des mélanges d'herbicide expliquait les changements dans la composition de la communauté phytoplanctonique. Ceci à côté d'autres paramètres classiques de limnologie tels que les nutriments. Pour atteindre cet objectif, nous avons déterminé la toxicité des mélanges sur plusieurs années de 14 herbicides régulièrement détectés dans le lac, en utilisant les modèles CA et RA avec les courbes de distribution de la sensibilité des espèces. Un gradient temporel de toxicité décroissant a pu être constaté de 2004 à 2009. Une analyse de redondance et de redondance partielle, a montré que ce gradient explique une partie significative de la variation de la composition de la communauté phytoplanctonique, même après avoir enlevé l'effet de toutes les autres co-variables. De plus, certaines espèces révélées pour avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps, ont montré des comportements similaires dans des études en mésocosmes. On peut en conclure que la toxicité du mélange herbicide est l'un des paramètres clés pour expliquer les changements de phytoplancton dans le lac Léman. En conclusion, il existe diverses méthodes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques et celui-ci peut jouer un rôle dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application, avant d'utiliser leurs résultats pour la gestion des risques environnementaux. - For several years now, the scientists as well as the society is concerned by the aquatic risk organic micropollutants may pose. Indeed, several researches have shown the toxic effects these substances may induce on organisms living in our lakes or rivers, especially when they are exposed to acute or chronic concentrations. However, most of the studies focused on the toxicity of single compounds, i.e. considered individually. The same also goes in the current European regulations concerning the risk assessment procedures for the environment of these substances. But aquatic organisms are typically exposed every day simultaneously to thousands of organic compounds. The toxic effects resulting of these "cocktails" cannot be neglected. The ecological risk assessment of mixtures of such compounds has therefore to be addressed by scientists in the most reliable and appropriate way. In the first part of this thesis, the procedures currently envisioned for the aquatic mixture risk assessment in European legislations are described. These methodologies are based on the mixture model of concentration addition and the use of the predicted no effect concentrations (PNEC) or effect concentrations (EC50) with assessment factors. These principal approaches were applied to two specific case studies, Lake Geneva and the River Rhône in Switzerland, including a discussion of the outcomes of such applications. These first level assessments showed that the mixture risks for these studied cases exceeded rapidly the critical value. This exceeding is generally due to two or three main substances. The proposed procedures allow therefore the identification of the most problematic substances for which management measures, such as a reduction of the entrance to the aquatic environment, should be envisioned. However, it was also showed that the risk levels associated with mixtures of compounds are not negligible, even without considering these main substances. Indeed, it is the sum of the substances that is problematic, which is more challenging in term of risk management. Moreover, a lack of reliability in the procedures was highlighted, which can lead to contradictory results in terms of risk. This result is linked to the inconsistency in the assessment factors applied in the different methods. In the second part of the thesis, the reliability of the more advanced procedures to predict the mixture effect to communities in the aquatic system were investigated. These established methodologies combine the model of concentration addition (CA) or response addition (RA) with species sensitivity distribution curves (SSD). Indeed, the mixture effect predictions were shown to be consistent only when the mixture models are applied on a single species, and not on several species simultaneously aggregated to SSDs. Hence, A more stringent procedure for mixture risk assessment is proposed, that would be to apply first the CA or RA models to each species separately and, in a second step, to combine the results to build an SSD for a mixture. Unfortunately, this methodology is not applicable in most cases, because it requires large data sets usually not available. Therefore, the differences between the two methodologies were studied with datasets created artificially to characterize the robustness of the traditional approach applying models on species sensitivity distribution. The results showed that the use of CA on SSD directly might lead to underestimations of the mixture concentration affecting 5% or 50% of species, especially when substances present a large standard deviation of the distribution from the sensitivity of the species. The application of RA can lead to over- or underestimates, depending mainly on the slope of the dose-response curves of the individual species. The potential underestimation with RA becomes important when the ratio between the EC50 and the EC10 for the dose-response curve of the species composing the SSD are smaller than 100. However, considering common real cases of ecotoxicity data for substances, the mixture risk calculated by the methodology applying mixture models directly on SSDs remains consistent and would rather slightly overestimate the risk. These results can be used as a theoretical validation of the currently applied methodology. Nevertheless, when assessing the risk of mixtures, one has to keep in mind this source of error with this classical methodology, especially when SSDs present a distribution of the data outside the range determined in this study Finally, in the last part of this thesis, we confronted the mixture effect predictions with biological changes observed in the environment. In this study, long-term monitoring of a European great lake, Lake Geneva, provides the opportunity to assess to what extent the predicted toxicity of herbicide mixtures explains the changes in the composition of the phytoplankton community next to other classical limnology parameters such as nutrients. To reach this goal, the gradient of the mixture toxicity of 14 herbicides regularly detected in the lake was calculated, using concentration addition and response addition models. A decreasing temporal gradient of toxicity was observed from 2004 to 2009. Redundancy analysis and partial redundancy analysis showed that this gradient explains a significant portion of the variation in phytoplankton community composition, even when having removed the effect of all other co-variables. Moreover, some species that were revealed to be influenced positively or negatively, by the decrease of toxicity in the lake over time, showed similar behaviors in mesocosms studies. It could be concluded that the herbicide mixture toxicity is one of the key parameters to explain phytoplankton changes in Lake Geneva. To conclude, different methods exist to predict the risk of mixture in the ecosystems. But their reliability varies depending on the underlying hypotheses. One should therefore carefully consider these hypotheses, as well as the limits of the approaches, before using the results for environmental risk management
Resumo:
Alors que les politiques publiques de protection de l'environnement se sont développées de manière exponentielle ces dernières décennies, les problèmes posés par les pollutions, la surexploitation des ressources naturelles ou les impacts du changement climatique demeu-rent et se renouvellent sans cesse. C'est que l'adoption d'une règle ne constitue jamais une fin en soi. Encore faut-il, pour qu'elle produise ses effets, que les acteurs se l'approprient, la traduisent comme une prescription qui s'impose au niveau concret de l'action. Or, au même titre que l'adoption d'une politique publique, sa mise en oeuvre représente un processus hautement conflictuel et politique. Loin d'être mécanique ou linéaire, cette phase est assimi-lable à un véritable processus d'appropriation des règles, émaillé de rapports de force et d'arrangements entre acteurs, de stratégies complémentaires ou concurrentes déployées par un large éventail de protagonistes. Tous ne poursuivent dans ce cadre pas des objectifs de concrétisation, certains cherchant à contourner ou à instrumentaliser les règles, à atté-nuer leurs effets ou à favoriser la mise en place de solutions sur mesure. Il y a, clairement, une distance de la règle à l'action. La présente thèse se propose de mettre en lumière la dimension politique de ces processus d'appropriation en reconstituant les jeux d'acteurs qui les composent. L'idée qui sous-tend la réflexion consiste à démontrer, sur la base d'une littérature variée (analyse des politiques publiques, droit, sociologie) et d'études de cas construits autour des bisses valaisans, le ca-ractère central des stratégies d'activation du droit. Ces dernières sont, dans un premier temps, mises en perspective au sein d'une approche qui appréhende le rapport entre règles et acteurs sur un mode moins managérial que ne le fait habituellement l'analyse des poli-tiques publiques. Relevant autant de démarches de concrétisation que de logiques alterna-tives (passivité, détournement, contournement, innovation), ces stratégies sont placées au coeur du cadre conceptuel élaboré, où elles entrent en interaction avec d'autres variables telles que les relations de pouvoir ou le caractère structurant du contexte institutionnel. Le potentiel analytique de l'approche développée est, dans un second temps, illustré à travers sa confrontation à trois études de cas gravitant autour des bisses : protection d'un écosys-tème aquatique ; gestion des risques de débordement et d'inondation ; développement ter-ritorial d'un village de montagne. Au final, le propos vient souligner tout l'intérêt d'une approche plus politique de la mise en oeuvre. La notion de stratégies d'activation et le cadre conceptuel développé contribuent à mettre en évidence un répertoire très fin de jeux d'acteurs, permettant d'organiser et de systématiser une analyse actorielle souvent réduite au minimum en raison de la difficulté à en rendre compte. La thèse apporte en ce sens une véritable plus-value à l'analyse des poli-tiques publiques, démontrant la manière dont les acteurs cherchent constamment à refor-muler les modalités de l'action collective (politics never end).
Resumo:
Plusieurs infirmières pratiquant dans les centres d'hébergement se questionnent sur la pertinence d'utiliser systématiquement certaines échelles de mesure. Elles sont d'avis que l'utilisation ou les modalités entourant l'usage de ces échelles augmentent surtout leur charge de travail et ne contribuent pas toujours à l'amélioration de la qualité des soins. Face à cette préoccupation, la communauté de pratique de la Faculté des sciences infirmières de l'Université Laval sur les soins à l'aîné en centre d'hébergement (CP-FSI) a voulu explorer les fondements à la base des recommandations de ces différents instruments de mesure en l'occurrence l'échelle du risque de plaie de pression de Braden et les échelles d'évaluation des risques de chute. Un examen de la littérature scientifique et l'analyse de données empiriques amènent à la conclusion que l'utilisation systématique de ces échelles alourdit en effet la tâche des infirmières. Qui plus est, le jugement clinique infirmier est équivalent ou supérieur à l'utilisation de ces échelles. La CP-FSI conclut à l'importance de modifier les recommandations sur l'usage systématique de ces échelles et de plutôt valoriser le jugement clinique des infirmières.
Resumo:
Les évolutions récentes du marché du travail et les transformations de l'action de l'Etat social ont contribué à augmenter l'importance de la réinsertion professionnelle. Le renforcement de l'efficacité des mesures de réinsertion nécessite une prise en compte de tous les acteurs concernés, y compris des employeurs dont le rôle est souvent négligé. Ce travail étudie leur rôle d'un point de vue théorique et empirique, grâce à des entretiens réalisés avec des employeurs de quatre pays, y compris la Suisse. Les facteurs (critère d'embauche, rapports avec les services publics de l'emploi, perception des mesures ...) qui conditionnent la participation des employeurs au processus de réinsertion sont mis en avant et analysés. Le travail montre les attentes des employeurs en termes de stratégies de recherche d'emploi et de comportement des bénéficiaires. Les rapports distants entre les employeurs et les agences publiques de placement sont eux aussi analysés. Les résultats obtenus mettent en lumière la volonté des employeurs de participer à la réinsertion, mais soulignent également l'importance des mécanismes de minimisation des risques pour les employeurs. De plus, la force de la flexibilisation du marché est également démontrée. Finalement, cette meilleure connaissance des craintes et attentes des employeurs permet d'établir des recommandations visant à augmenter l'efficacité des mesures de réinsertion et à améliorer la compréhension mutuelle des différents acteurs de la réinsertion.
Resumo:
Les fluides de coupe sont principalement utilisés pour leurs propriétés lubrifiantes et/ou pour leur qualité de refroidissement des pièces en métallurgie. Ils sont utilisés pour faciliter l'opération d'usinage et contribue à améliorer la durée de vie de l'outil utilisé. Ils permettent d'éloigner les copeaux de la zone de coupe, ce qui contribue à l'obtention d'un état de surface de qualité, et de refroidir le copeau et la pièce usinée afin de contribuer à la précision dimensionnelle de la pièce finie. Les usages des fluides de coupe sont en évolution depuis les années 2000. Il y a environ 15-30 ans, seules les huiles entières étaient utilisées. Aujourd'hui, l'utilisation des huiles varie selon le type d'application mais il est à noter toutefois que l'usage des huiles entières est en pleine décroissance depuis 2001, contrairement à celui des fluides aqueux (émulsions) en pleine expansion. Les fluides de coupe exposeraient selon l'étude SUMER plus de 1 million de travailleurs. Il existe deux grands secteurs principaux utilisateurs de ces fluides : le travail des métaux (qui expose selon l'INRS le plus grand nombre de salariés) et l'automobile (plus grand secteur utilisateur selon la CSNIL, Chambre Syndical Nationale de l'Industrie des Lubrifiants). De nombreux éléments existent autour de la prévention des risques liés à l'utilisation des fluides de coupe mais comme le rappelait l'INRS dans son rapport publié en 2002, la plupart des méthodes de prévention, collectives ou individuelles, bien que déjà connues, ne sont pas toujours appliquées, et notamment dans les petites entreprises. De plus les moyens de surveillance, bien que largement détaillés dans de nombreux guides, sont rarement mis en oeuvre. Néanmoins, des substances dangereuses peuvent se retrouver soit au sein de la formulation des fluides de coupe (comme certains additifs, biocides..), soit se former au cours du stockage (comme c'est le cas de pour la NDELA, N-nitroso diéthanolamine). Certaines substances ont déjà vu leur usage en tant que biocide être interdit en France, tel que le formaldéhyde ou encore l'acide borique. Des solutions de substitution existent déjà, telles que la micro-lubrification ou l'usinage à sec. Mais la mise en place ou la recherche de substituts s'accompagne souvent de difficultés en ce qui concerne l'adaptation du processus industriel. La mise en oeuvre des collaborations avec les fournisseurs doit donc être fortement encouragée. Enfin, il existe des zones d'ombre concernant les risques associés au développement microbiologique intervenant lors du vieillissement des fluides. L'utilisation grandissante de ces fluides de type aqueux est en lien avec ces problèmes de contamination microbienne des fluides ainsi que les pathologies respiratoires qui semblent y être associées. Cependant l'absence de référentiel exclut toute interprétation des résultats relatifs à ces agents microbiologiques retrouvés à la fois dans les fluides et les aérosols. Conclusions : En raison de la complexité de la formulation des fluides de coupe, il n'existe pas aujourd'hui de méthode de mesure fiable pour évaluer l'exposition à ces produits. Ainsi la mise en place d'une évaluation quantitative des risques sanitaires complète semble prématurée voire impossible. Il apparaît cependant nécessaire d'aller plus loin en matière de prévention : - une valeur limite pourrait être imposée concernant les quantités en amines secondaires précurseurs de nitrosamines, telle que développée dans le modèle allemand, le respect de cette réglementation allemande est déjà un argument mis en place par certains fournisseurs français ; - La micro-lubrification et la recherche de substitution doivent être encouragées ; - L'élaboration d'un référentiel microbiologique qui puisse tenir compte de la qualité des fluides et de la protection des travailleurs devrait être soutenue. [Auteurs]