998 resultados para Conflits de valeurs


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Recent findings suggest an association between exposure to cleaning products and respiratory dysfunctions including asthma. However, little information is available about quantitative airborne exposures of professional cleaners to volatile organic compounds deriving from cleaning products. During the first phases of the study, a systematic review of cleaning products was performed. Safety data sheets were reviewed to assess the most frequently added volatile organic compounds. It was found that professional cleaning products are complex mixtures of different components (compounds in cleaning products: 3.5 ± 2.8), and more than 130 chemical substances listed in the safety data sheets were identified in 105 products. The main groups of chemicals were fragrances, glycol ethers, surfactants, solvents; and to a lesser extent phosphates, salts, detergents, pH-stabilizers, acids, and bases. Up to 75% of products contained irritant (Xi), 64% harmful (Xn) and 28% corrosive (C) labeled substances. Hazards for eyes (59%), skin (50%) and by ingestion (60%) were the most reported. Monoethanolamine, a strong irritant and known to be involved in sensitizing mechanisms as well as allergic reactions, is frequently added to cleaning products. Monoethanolamine determination in air has traditionally been difficult and air sampling and analysis methods available were little adapted for personal occupational air concentration assessments. A convenient method was developed with air sampling on impregnated glass fiber filters followed by one step desorption, gas chromatography and nitrogen phosphorous selective detection. An exposure assessment was conducted in the cleaning sector, to determine airborne concentrations of monoethanolamine, glycol ethers, and benzyl alcohol during different cleaning tasks performed by professional cleaning workers in different companies, and to determine background air concentrations of formaldehyde, a known indoor air contaminant. The occupational exposure study was carried out in 12 cleaning companies, and personal air samples were collected for monoethanolamine (n=68), glycol ethers (n=79), benzyl alcohol (n=15) and formaldehyde (n=45). All but ethylene glycol mono-n-butyl ether air concentrations measured were far below (<1/10) of the Swiss eight hours occupational exposure limits, except for butoxypropanol and benzyl alcohol, where no occupational exposure limits were available. Although only detected once, ethylene glycol mono-n-butyl ether air concentrations (n=4) were high (49.5 mg/m3 to 58.7 mg/m3), hovering at the Swiss occupational exposure limit (49 mg/m3). Background air concentrations showed no presence of monoethanolamine, while the glycol ethers were often present, and formaldehyde was universally detected. Exposures were influenced by the amount of monoethanolamine in the cleaning product, cross ventilation and spraying. The collected data was used to test an already existing exposure modeling tool during the last phases of the study. The exposure estimation of the so called Bayesian tool converged with the measured range of exposure the more air concentrations of measured exposure were added. This was best described by an inverse 2nd order equation. The results suggest that the Bayesian tool is not adapted to predict low exposures. The Bayesian tool should be tested also with other datasets describing higher exposures. Low exposures to different chemical sensitizers and irritants should be further investigated to better understand the development of respiratory disorders in cleaning workers. Prevention measures should especially focus on incorrect use of cleaning products, to avoid high air concentrations at the exposure limits. - De récentes études montrent l'existence d'un lien entre l'exposition aux produits de nettoyages et les maladies respiratoires telles que l'asthme. En revanche, encore peu d'informations sont disponibles concernant la quantité d'exposition des professionnels du secteur du nettoyage aux composants organiques volatiles provenant des produits qu'ils utilisent. Pendant la première phase de cette étude, un recueil systématique des produits professionnels utilisés dans le secteur du nettoyage a été effectué. Les fiches de données de sécurité de ces produits ont ensuite été analysées, afin de répertorier les composés organiques volatiles les plus souvent utilisés. Il a été mis en évidence que les produits de nettoyage professionnels sont des mélanges complexes de composants chimiques (composants chimiques dans les produits de nettoyage : 3.5 ± 2.8). Ainsi, plus de 130 substances listées dans les fiches de données de sécurité ont été retrouvées dans les 105 produits répertoriés. Les principales classes de substances chimiques identifiées étaient les parfums, les éthers de glycol, les agents de surface et les solvants; dans une moindre mesure, les phosphates, les sels, les détergents, les régulateurs de pH, les acides et les bases ont été identifiés. Plus de 75% des produits répertoriés contenaient des substances décrites comme irritantes (Xi), 64% nuisibles (Xn) et 28% corrosives (C). Les risques pour les yeux (59%), la peau (50%) et par ingestion (60%) était les plus mentionnés. La monoéthanolamine, un fort irritant connu pour être impliqué dans les mécanismes de sensibilisation tels que les réactions allergiques, est fréquemment ajouté aux produits de nettoyage. L'analyse de la monoéthanolamine dans l'air a été habituellement difficile et les échantillons d'air ainsi que les méthodes d'analyse déjà disponibles étaient peu adaptées à l'évaluation de la concentration individuelle d'air aux postes de travail. Une nouvelle méthode plus efficace a donc été développée en captant les échantillons d'air sur des filtres de fibre de verre imprégnés, suivi par une étape de désorption, puis une Chromatographie des gaz et enfin une détection sélective des composants d'azote. Une évaluation de l'exposition des professionnels a été réalisée dans le secteur du nettoyage afin de déterminer la concentration atmosphérique en monoéthanolamine, en éthers de glycol et en alcool benzylique au cours des différentes tâches de nettoyage effectuées par les professionnels du nettoyage dans différentes entreprises, ainsi que pour déterminer les concentrations atmosphériques de fond en formaldéhyde, un polluant de l'air intérieur bien connu. L'étude de l'exposition professionnelle a été effectuée dans 12 compagnies de nettoyage et les échantillons d'air individuels ont été collectés pour l'éthanolamine (n=68), les éthers de glycol (n=79), l'alcool benzylique (n=15) et le formaldéhyde (n=45). Toutes les substances mesurées dans l'air, excepté le 2-butoxyéthanol, étaient en-dessous (<1/10) de la valeur moyenne d'exposition aux postes de travail en Suisse (8 heures), excepté pour le butoxypropanol et l'alcool benzylique, pour lesquels aucune valeur limite d'exposition n'était disponible. Bien que détecté qu'une seule fois, les concentrations d'air de 2-butoxyéthanol (n=4) étaient élevées (49,5 mg/m3 à 58,7 mg/m3), se situant au-dessus de la frontière des valeurs limites d'exposition aux postes de travail en Suisse (49 mg/m3). Les concentrations d'air de fond n'ont montré aucune présence de monoéthanolamine, alors que les éthers de glycol étaient souvent présents et les formaldéhydes quasiment toujours détectés. L'exposition des professionnels a été influencée par la quantité de monoéthanolamine présente dans les produits de nettoyage utilisés, par la ventilation extérieure et par l'emploie de sprays. Durant la dernière phase de l'étude, les informations collectées ont été utilisées pour tester un outil de modélisation de l'exposition déjà existant, l'outil de Bayesian. L'estimation de l'exposition de cet outil convergeait avec l'exposition mesurée. Cela a été le mieux décrit par une équation du second degré inversée. Les résultats suggèrent que l'outil de Bayesian n'est pas adapté pour mettre en évidence les taux d'expositions faibles. Cet outil devrait également être testé avec d'autres ensembles de données décrivant des taux d'expositions plus élevés. L'exposition répétée à des substances chimiques ayant des propriétés irritatives et sensibilisantes devrait être investiguée d'avantage, afin de mieux comprendre l'apparition de maladies respiratoires chez les professionnels du nettoyage. Des mesures de prévention devraient tout particulièrement être orientées sur l'utilisation correcte des produits de nettoyage, afin d'éviter les concentrations d'air élevées se situant à la valeur limite d'exposition acceptée.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Compte tenu des relations étroites existant entre le pouvoir politique et l'histoire - et plus particulièrement l'enseignement de l'histoire à l'école - , les manuels constituent un objet d'étude privilégié de l'évolution des relations pouvoir/enseignement. Ils fournissent un lieu de médiation privilégié entre les savoirs savants et les savoirs scolaires institutionnels ; ils permettent d'observer les conceptions didactiques préconisées par l'institution scolaire. Si, sous l'égide de l'Etat-nation au 19e siècle, les savoirs savants historiques et les savoirs scolaires étaient entremêlés, les rapports se sont complexifiés durant le 20e siècle en raison notamment de la prise de distance progressive de l'histoire savante à l'égard du pouvoir. Petit à petit, à partir des années 1930, le concept d'histoire- problème, initié par l'école historique des Annales, dépasse l'histoire-récit de l'école historique positiviste (méthodique) du 19e siècle et sa traduction du récit- national au coeur de la leçon d'histoire. Cependant, si après 1945, l'école des Annales, puis la Nouvelle histoire, tendent à s'imposer dans le champ de l'histoire savante francophone, elles se heurtent à une tradition scolaire bien établie et modifient peu et tardivement les curricula, les manuels et les pratiques enseignantes. Progressivement donc, une fracture apparaît entre l'histoire savante et l'histoire scolaire. Dans cette étude, notre travail envisage l'analyse du manuel d'histoire en tant qu'objet hybride. Il est à la fois porteur d'un texte historien, ouvrage de vulgarisation et de référence, ainsi qu'outil pédagogico-didactique. Par ailleurs, le manuel d'histoire a la charge de transmettre des valeurs, car les finalités attribuées par l'autorité politique, via les autorités scolaires, à l'histoire scolaire comportent toujours une dimension forte de formation du futur citoyen. Au texte de départ sont associés des documents textuels ou iconiques, des résumés, des questions regroupées par chapitre, un glossaire ou une chronologie générale. De plus, ce texte est encadré d'un dispositif didactique plus ou moins explicite : préface, numérotation par paragraphe correspondant à la leçon du jour, dates mises en évidence, aide-mémoire et questions. Par ailleurs, les découpages en livres ou en parties peuvent correspondre à des années (ou parties d'années) de programme. Il sera donc également étudié pour les spécificités d'un sous-genre de discours à définir : les manuels - d'histoire - produits (et utilisés) dans le canton de Vaud au 20e siècle. En conséquence, notre travail se propose d'observer et d'analyser les manuels d'histoire vaudois sous deux modalités préférentielles. Premièrement, celle des formes constitutives et évolutives prises par le manuel pour se construire comme un discours légitimé (deuxième partie : écriture et mise en scène de l'histoire). Deuxièmement, celle de la mise en scène d'une histoire à visée pseudo- pédagogique masquant l'intégration du discours de l'autorité politique (troisième partie : comment l'autorité vient au discours). Site internet : http://manuelshistoire.ch

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Partant de deux études de cas, le projet de Frente Ribeirinha à Porto (Portugal) et celui d'Euroméditerranée à Marseille, ce projet de thèse a pour objectif l'étude des modalités de valorisation du tissu bâti (patrimonialisation) par les acteurs institutionnels dans les projets de régénération urbaine. Suivant l'hypothèse de l'entrée dans un nouveau régime de patrimonialité, l'analyse doit expliciter les stratégies à l'oeuvre ainsi que la manière dont les autorités publiques influent sur les représentations de l'espace construit. Abordant la question des échelles d'intervention des projets de régénération urbaine à partir des deux études de cas, mais également de littératures sur des projets anglo-saxons, la thèse cherche à voir, au prisme de la construction patrimoniale, comment ces projets sont directement connectés à l'économie internationale et au phénomène de globalisation et s'ils prennent en compte l'échelle du quotidien et de la domesticité. Il s'agit de montrer les limites d'une valorisation du tissu bâti dans un objectif de retombées économiques (ville consommable) au détriment des valeurs d'usage et de signifiants du quotidien. D'où l'hypothèse de l'importance d'une prise en compte des représentations de valeurs aux différentes échelles (dimensions socio-culturelles du projet de régénération) pour un équilibre qualitatif dans la fabrication du territoire et des projets sur le long terme. La volonté est sensiblement la compréhension des nouvelles constructions patrimoniales ainsi que des pratiques de conception et de mise en oeuvre du projet urbain. - Based on two case studies, the Frente Ribeirinha project in Porto (Portugal) and Euroméditerranée in Marseille, this research project aims at studying the modes of enhancement of the built fabric by institutional actors in urban regeneration projects. Posing the idea of a new heritage regime, this analysis attempts to explain the different strategies at work and how public authorities influence the built space's representations. Looking at the different scales of intervention of regeneration projects in our two case studies, as well as Anglo-Saxon literature on projects, it seeks at seeing, through heritage processes, how these projects are directly connected to the international economy and the phenomenon of globalization. Also, it aims at investigating whether policies take into account the scale of everyday life and domesticity. It attempts to show the limit of a built fabric's valuation with economic benefits objectives (consumable city) rather than taking into account values and meanings of everyday life. Hence, the thesis suggests taking into account representations and values at different scales (socio-cultural dimensions of the regeneration project) for a qualitative balance in urban planning and urban projects' manufacturing. The aim is to broaden the understanding on heritage construction, on urban design practices and on implementation of urban projects.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Bien que les activités où la compétence est un enjeu (p. ex. : problème académique) prennent souvent place dans des contextes interpersonnels (p. ex. : classe), hiérarchiques (p. ex. : enseignant-e/élèves), et spécifiques en termes de normes et de valeurs (p. ex. : culture), l'étude des buts de performance-le désir de se montrer compétent-e relativement à autrui-a le plus souvent été conduite au seul niveau intrapersonnel. S'appuyant sur le modèle transactionnel du stress et du coping, le modèle circumplexe des comportements interpersonnels, ainsi que sur la théorie de l'élaboration du conflit, la première partie de cette thèse révèle les conséquences interpersonnelles des buts de performance sur la régulation d'un comportement spécifique, à savoir le conflit sociocognitif (c.-à-d., une situation de confrontation avec un intéractant en désaccord) : les buts de performance-approche-le désir d'être meilleur-e qu'autrui-prédisent une régulation du conflit fortement agentique (dominante), soit la validation de son point de vue au détriment de celui de l'intéractant (que nous désignons régulation compétitive) ; alors que les buts de performance-évitement-le désir de ne pas être moins bon-ne qu'autrui-prédisent une régulation du conflit faiblement agentique (soumise), soit l'invalidation de son point de vue au bénéfice de celui de l'intéractant (que nous désignons régulation protective). De plus, les effets susmentionnés augmentent à mesure que l'intéractant est présenté comme supérieurement (vs. similairement) compétent. S'appuyant sur la littérature sur les structures de buts de groupe, et celle sur la socialisation des valeurs, la seconde partie de cette thèse révèle les antécédents interpersonnels des buts de performance, et plus spécifiquement le rôle du superviseur dans la socialisation des buts de performance : les buts de performance-approche d'un superviseur sont positivement associés avec l'émergence au cours du temps des buts de performance-approche de ses subordonnés (particulièrement lorsqu'ils se perçoivent comme compétents) et celle de leurs buts de performance-évitement (particulièrement lorsqu'ils se perçoivent comme incompétents). En outre, ce phénomène consistant en un processus de socialisation, les effets susmentionnés augmentent lorsque l'identification à l'endogroupe des subordonnées augmente, et lorsque l'adhésion aux valeurs culturelles occidentales dominantes (c.-à-d., rehaussement de soi) du superviseur augmente. Dans leur ensemble, ces résultats soulignent la nécessité d'étudier les buts dans leur plenum social, autrement dit, en adoptant une perspective interpersonnelle (c.-à-d., étudier les effets des buts entre les individus), positionnelle (c.-à-d., entre des individus de différentes positions sociales), et idéologique (c.- à-d., entre des individus se conformant à des normes spécifiques et adhérant à des valeurs spécifiques). -- Although competence-relevant activities (e.g., solving an academic problem) are often embedded in interpersonal (e.g., classroom), hierarchical (e.g., teacher/pupils), and norm-/value-specific (e.g., culture) settings, the study of performance goals-the desire to demonstrate competence relative to others-has mostly been conducted at the intrapersonal level alone. Drawing on the transactional model of stress and coping, the circumplex model of interpersonal behaviors, as well as on the conflict elaboration theory, the first part of this thesis reveals the interpersonal consequences of performance goals on the regulation of a specific behavior, namely socio-cognitive conflict (i.e., a situation of confrontation with a disagreeing interactant): Performance-approach goals-the desire to outperform others- predicted a highly agentic (dominant) conflict regulation, that is, the validation of one's point of view at the expense of that of the interactant (which we labeled competitive regulation); whereas performance-avoidance goals-the desire not to be outperformed by others- predicted a poorly agentic (submissive) conflict regulation, that is, the invalidation of one's point of view to the benefit of that of the interactant (which we labeled protective regulation). Furthermore, both the aforementioned effects were found to increase when the interactant was presented as being superiorly (vs. equally) in competence. Drawing on the literature on group goal structure, as well as on research on socialization of supervisors-based values, the second part of this thesis reveals the interpersonal antecedents of performance-based goals endorsement, focusing-more specifically-on the role of group-supervisors in performance goals socialization: Supervisor's performance-approach goals were positively associated with the emergence over time of subordinates' performance-approach (especially when perceiving themselves as competent) and -avoidance goals (especially when perceiving themselves as incompetent). Furthermore, providing evidence that this phenomenon essentially reflects a socialization process, both the aforementioned effects were found to increase as subordinates' in-group identification increased, and as supervisors' adherence to dominant Western values (i.e., self-enhancement values) increased. Taken together, these results advocate the need to study performance goals in their social plenum, that is, adopting an interpersonal (i.e., studying the effects of goals between individuals), positional (i.e., between individuals from different social positions), and ideological (i.e., between individuals following specific norms and endorsing specific values) perspective.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le projet s'intéresse aux socialisations des jeunes cyclistes sur route dans la phase de la carrière où ils deviennent des espoirs nationaux. Pour certains, cela correspond au passage d'une structure sportive amateur de haut niveau vers une équipe professionnelle. Cette phase semble constituer un moment clé de la consommation de produits dopants. Ces espoirs sont exposés à un nouvel environnement et une nouvelle logique professionnelle s'impose à eux, avec ses espoirs de carrière et de profits et ses risques. Ils sont confrontés à de nouveaux groupes sociaux avec lesquels s'établit un système d'interactions. Avec le temps, ces groupes vont notamment inculquer aux jeunes coureurs de nouvelles normes en matière de santé, de fatigue, d'expériences, d'éthique et d'entraînement.Il s'agit plus particulièrement d'observer les modes de socialisation des jeunes espoirs du cyclisme pour comprendre comment s'immiscent les pratiques de dopage dans les biographies des sportifs. Dans une optique de prévention, ce travail se propose d'étudier les effets de la socialisation. Comme le souligne H. Becker (1985), la déviance est le fruit d'un acte collectif. Il s'agit alors de comprendre comment, au contact de divers groupes encadrants (pairs, entraîneurs, dirigeants, médecins), les savoir-faire mais aussi les normes, les valeurs se construisent au cours de la phase de socialisation professionnelle. Il est important de comprendre les effets des interactions entre ces groupes et le jeune espoir. Cette socialisation semble correspondre à l'inculcation d'une culture cycliste qu'il s'agira de décrire en prenant en compte deux formes de transmission des normes : une explicite, à certains moments de la journée, où sont abordées les techniques de course, les tactiques, les modes d'entraînement et une implicite, pendant laquelle sont diffusées des valeurs qui conduisent le sportif à faire le choix du dopage. Dans le cas du dopage, nous nous intéresserons notamment aux normes de santé, d'éthique, aux conceptions de la pratique sportive en adéquation avec le suivi médical pendant la phase amateur puis néo-professionnelle. La formation, ou transformation, de ces représentations sera appréhendée à travers les interactions entre coureurs et encadrement lors des différents moments de leur quotidien. Il s'agira également d'étudier le cadre social de ces interactions. A partir des récits de vie collectés, nous essayerons de déterminer les moments où les choix s'opèrent et nous y analyserons les conduites.L'acquisition des représentations associées au dopage est le produit du double mouvement de l'action sociale des individus et des effets des structures organisationnelles et institutionnelles. En conséquence, nous nous intéresserons également à l'influence des différents dispositifs tels que la famille, l'école, le club, la structure médicale, la fédération nationale, sur les représentations des coureurs.Cette étude reposera sur une analyse comparée des cyclistes belges, français et suisses. Les carrières seront analysées à partir d'entretiens semi-directifs (75) auprès de (1) jeunes athlètes (18-23 ans) qui vivent les phases de professionnalisation, (2) d'anciens cyclistes ayant vécu les normes de socialisation du milieu et (3) des acteurs clefs de l'organisation des différents dispositifs (entraîneurs, dirigeants, médecins). Notre démarche méthodologique s'adosse à celles déjà expérimentées dans des travaux antérieurs (notamment, Brissonneau, 2003).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Pendant la grossesse, la pression artérielle reste stable malgré une nette augmentation du volume d'éjection systolique et du débit cardiaque. Cette stabilité vient d'un côté d'une vasodilatation périphérique entraînant une diminution des résistances périphériques et d'un autre côté d'une moindre rigidité des principales artères notamment l'aorte. En conséquence, l'amplitude des ondes de pouls est atténuée, de même que leur vitesse de propagation dans le sens tant antérogade que rétrograde (ondes réfléchies). Les ondes réfléchies tendent ainsi à atteindre l'aorte ascendante plus tard durant la systole, voire durant la diastole, ce qui peut contribuer à diminuer la pression puisée. La prééclampsie perturbe massivement ce processus d'adaptation. Il s'agit d'une maladie hypertensive de la grossesse engendrant une importante morbidité et mortalité néonatale et maternelle. Il est à remarquer que la diminution de la rigidité artérielle n'est pas observée chez les patientes atteintes avec pour conséquence une forte augmentation de la pression systolique centrale (aortique) par les ondes réfléchies. Ce fait a été établi grâce à l'existence de la tonométrie d'aplanation, une méthode permettant l'évaluation non invasive de l'onde de pouls centrale. Dans cette méthode, un senseur de pression piézo-électrique permet de capter l'onde de pouls périphérique, le plus souvent sur l'artère radiale. Par la suite, un algorithme validé permet d'en déduire la forme de l'onde de pouls centrale et de visualiser à quel moment du cycle cardiaque s'y ajoutent les ondes réfléchies. Plusieurs études font état d'une forte augmentation de la pression systolique centrale par les ondes réfléchies chez les patientes atteintes de prééclampsie, suggérant l'utilisation de cette méthode pour le diagnostic et le monitoring voire pour le dépistage de ces patientes. Pour atteindre ce but, il est nécessaire d'établir des normes en rapport notamment avec l'âge gestationnel. Dans la littérature, les données pertinentes actuellement disponibles sont variables, voire contradictoires. Par exemple, les ondes réfléchies proéminentes dans la partie diastolique de l'onde de pouls centrale disparaissaient chez des patientes enceintes au 3eme trimestre comparées à des contrôles non enceintes dans une étude lausannoise, alors que deux autres études présentent l'observation contraire. Autre exemple, certains auteurs décrivent une diminution progressive de l'augmentation systolique jusqu'à l'accouchement alors que d'autres rapportent un nadir aux environs du 6ème mois, suivi d'un retour à des valeurs plus élevées en fin de grossesse. Les mesures effectuées dans toutes ces études différaient dans leur exécution, les patientes étant notamment dans des postions corporelles différentes (couchées, semi-couchées, assises, en décubitus latéral). Or nous savons que le status hémodynamique est très sensible aux changements de position, particulièrement durant la grossesse où l'utérus gravide est susceptible d'avoir des interactions mécaniques avec les veines et possiblement les artères abdominales. Ces différences méthodologiques pourraient donc expliquer, au moins en partie, l'hétérogénéité des résultats concernant l'onde de pouls chez la femme enceinte, ce qui à notre connaissance n'a jamais été exploré. Nous avons mesuré l'onde de pouls dans les positions assise et couchée chez des femmes enceintes, au 3eme trimestre d'une grossesse non compliquée, et nous avons effectué une comparaison avec des données similaire obtenues chez des femmes non enceintes en bonne santé habituelle. Les résultats montrent que la position du corps a un impact majeur sur la forme de l'onde de pouls centrale. Comparée à la position assise, la position couchée se caractérise par une moindre augmentation systolique et, par contraste, une augmentation diastolique plus marquée. De manière inattendue, cet effet s'observe aussi bien en présence qu'en l'absence de grossesse, suggérant que la cause première n'en réside pas dans les interactions mécaniques de l'utérus gravide avec les vaisseaux sanguins abdominaux. Nos observations pourraient par contre être expliquées par l'influence de la position du corps, via un phénomène hydrostatique simple, sur la pression transmurale des artères éloignées du coeur, tout particulièrement celles des membres inférieurs et de l'étage abdominal. En position verticale, ces vaisseaux augmenteraient leur rigidité pour résister à la distension de leur paroi, ce qui y accroîtrait la vitesse de propagation des ondes de pression. En l'état, cette explication reste hypothétique. Mais quoi qu'il en soit, nos résultats expliquent certaines discordances entre les études conduites à ce jour pour caractériser l'influence de la grossesse physiologique sur la forme de l'onde de pouls central. De plus, ils indiquent que la position du corps doit être prise en compte lors de toute investigation utilisant la tonométrie d'applanation pour déterminer la rigidité des artères chez les jeunes femmes enceintes ou non. Il sera aussi nécessaire d'en tenir compte pour établir des normes en vue d'une utilisation de la tonométrie d'aplanation pour dépister ou suivre les patientes atteintes de prééclampsie. Il serait enfin intéressant d'évaluer si l'effet de la position sur la forme de l'onde de pouls central existe également dans l'autre sexe et chez des personnes plus âgées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This research project conducted in the Psychology Department of the University of Lausanne (Switzerland) evaluated the therapeutic alliance with Hispanic American Patients. From the patient's perspective, the therapeutic alliance was explored in two types of frameworks: the dyadic and the triadic setting. The dyadic setting is the encounter between a therapist (health professional) and a patient who ideally share the same language. The triadic setting is the encounter of a therapist and a patient who speak different languages, but are able to interact using the help of an interpreter. My specific interest focuses on studying the therapeutic alliance in a cross- cultural setting through a mixed methodology. As part of the quantitative phase, non- parametric tests were used to analyze 55 questionnaires of the Therapeutic Alliance for Migrants - Health Professionals' version (QALM-PS). For the qualitative phase, a thematic analysis was used to analyze 20 transcript interviews. While no differences were found concerning the strength of the therapeutic alliance between the triadic and dyadic settings, results showed that the factors that enrich the therapeutic alliance with migrant patients depend more on an emotional alliance (bond) than on a rational alliance (agreements). Indeed, the positive relationship with the interpreter, and especially with the therapist, relies considerably on human qualities and moral values, bringing the conception of humanity as an important need when meeting foreign patients in health care settings. In addition, the quality of communication, which could be attributed to the type of interpreter in the triadic setting, plays an important role in the establishment of a positive therapeutic relationship. Ce projet de recherche mené au Département de psychologie de l'Université de Lausanne (Suisse) a évalué l'alliance thérapeutique avec les patients hispano-américains. Du point de vue du patient, l'alliance thérapeutique a été étudiée dans deux types de dispositifs: le cadre dyadique et triadique. Le cadre dyadique est la rencontre d'un thérapeute (professionnel de la santé) et d'un patient qui, idéalement, partagent la même langue. Le cadre triadique est la rencontre d'un thérapeute et d'un patient qui parlent différentes langues, mais sont capables d'interagir grâce à l'aide d'un interprète. Mon intérêt porte en particulier sur l'étude de l'alliance thérapeutique dans un cadre interculturel au travers d'une méthodologie mixte. Dans la phase quantitative, des tests non paramétriques ont été utilisés pour les analyses des 55 questionnaires de l'alliance thérapeutique pour les migrants, version - professionnels de la santé (QALM-PS). Pour la phase qualitative, une analyse thématique a été utilisée pour l'analyse des 20 entretiens transcrits. Bien qu'aucune différence n'a été constatée en ce qui concerne la force de l'alliance thérapeutique entre les cadres dyadiques et triadiques, les résultats montrent que les facteurs qui enrichissent l'alliance thérapeutique avec les patients migrants dépendent plus de l'alliance émotionnelle (lien) que sur une alliance rationnelle (accords). En effet, la relation positive avec l'interprète, et en particulier avec le thérapeute, repose en grande partie sur des qualités humaines et des valeurs morales, ce qui porte la conception de l'humanité comme un besoin important lors de la rencontre des patients étrangers dans un cadre de santé. En outre, la qualité de la communication, qui pourrait être attribuée au type d'interprète dans le cadre triadique, joue un rôle important dans l'établissement d'une relation thérapeutique positive.

Relevância:

10.00% 10.00%

Publicador:

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé La psychiatrie de consultation-liaison (CL) connaît depuis une décennie un essor majeur en Europe sous l'impulsion des recherches multicentriques du groupe European Consultation Liaison Psychiatry - ECLVV (Huyse). En Suisse, la discipline reste à développer par manque de consultants spécialisés selon le rapport 2000 de l'Association des professeurs titulaires de chaires. Néanmoins une harmonisation progressive des standards européens de documentation et d'évaluation apparaît progressivement, notamment dans les travaux du Service de Psychiatrie de Liaison du Centre Hospitalier Universitaire Vaudois. Afin d'améliorer sa pratique de consultation-liaison qui restait jusqu'alors frustrante par un sentiment de débordement et d'absence de feed-back des interventions, le Centre Psychosocial Neuchâtelois de La Chaux-de-Fonds (CPS) a constitué une base de données informatisée de CL à des fins de recherche-action selon les recommandations du groupe ECLVV. Nous avons comparé les valeurs de prévalence de notre activité de CL dans le service dedecine interne de l'Hôpital de La Chaux-de-Fonds en 1994, année du début de l'informatisation des données du CPS, et en 1998, année des plus récents résultats exploitables. La taille de l'échantillon était de 78 cas pour 1994 et de 108 cas pour 1998. Les résultats de notre étude épidémiologique rétrospective et descriptive montraient une augmentation en volume des demandes de CL, une diversification et une complexification des cas. Cette charge croissante sur la psychiatrie de consultation-liaison s'observait également dans les données de la littérature. La réponse psychiatrique du CPS montrait une modestie de moyens et du pragmatisme dans le style des interventions. Ces dernières étaient essentiellement de nature de psychiatrie générale et d'urgence, focalisée sur les tentatives de suicides. Les tentamens, ici comme ailleurs, restent le noyau dur de toute pratique de psychiatrie à l'hôpital général. L'état de lieu de notre pratique de consultation-liaison issu de ce travail a permis de créer une base de données simplifée étendue à l'ensemble des demandes de consultation au CPS afin de réguler le flux de toutes ses interventions face aux demandes toujours croissantes. Dans ce sens, notre étude a montré la nécessité de formaliser les demandes de consultation psychiatrique à l'hôpital général afin d'optimaliser les réponses des consultants.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé Introduction : Les patients nécessitant une prise en charge prolongée en milieu de soins intensifs et présentant une évolution compliquée, développent une réponse métabolique intense caractérisée généralement par un hypermétabolisme et un catabolisme protéique. La sévérité de leur atteinte pathologique expose ces patients à la malnutrition, due principalement à un apport nutritionnel insuffisant, et entraînant une balance énergétique déficitaire. Dans un nombre important d'unités de soins intensifs la nutrition des patients n'apparaît pas comme un objectif prioritaire de la prise en charge. En menant une étude prospective d'observation afin d'analyser la relation entre la balance énergétique et le pronostic clinique des patients avec séjours prolongés en soins intensifs, nous souhaitions changer cette attitude et démonter l'effet délétère de la malnutrition chez ce type de patient. Méthodes : Sur une période de 2 ans, tous les patients, dont le séjour en soins intensifs fut de 5 jours ou plus, ont été enrôlés. Les besoins en énergie pour chaque patient ont été déterminés soit par calorimétrie indirecte, soit au moyen d'une formule prenant en compte le poids du patient (30 kcal/kg/jour). Les patients ayant bénéficié d'une calorimétrie indirecte ont par ailleurs vérifié la justesse de la formule appliquée. L'âge, le sexe le poids préopératoire, la taille, et le « Body mass index » index de masse corporelle reconnu en milieu clinique ont été relevés. L'énergie délivrée l'était soit sous forme nutritionnelle (administration de nutrition entérale, parentérale ou mixte) soit sous forme non-nutritionnelle (perfusions : soluté glucosé, apport lipidique non nutritionnel). Les données de nutrition (cible théorique, cible prescrite, énergie nutritionnelle, énergie non-nutritionnelle, énergie totale, balance énergétique nutritionnelle, balance énergétique totale), et d'évolution clinique (nombre des jours de ventilation mécanique, nombre d'infections, utilisation des antibiotiques, durée du séjour, complications neurologiques, respiratoires gastro-intestinales, cardiovasculaires, rénales et hépatiques, scores de gravité pour patients en soins intensifs, valeurs hématologiques, sériques, microbiologiques) ont été analysées pour chacun des 669 jours de soins intensifs vécus par un total de 48 patients. Résultats : 48 patients de 57±16 ans dont le séjour a varié entre 5 et 49 jours (motif d'admission : polytraumatisés 10; chirurgie cardiaque 13; insuffisance respiratoire 7; pathologie gastro-intestinale 3; sepsis 3; transplantation 4; autre 8) ont été retenus. Si nous n'avons pu démontrer une relation entre la balance énergétique et plus particulièrement, le déficit énergétique, et la mortalité, il existe une relation hautement significative entre le déficit énergétique et la morbidité, à savoir les complications et les infections, qui prolongent naturellement la durée du séjour. De plus, bien que l'étude ne comporte aucune intervention et que nous ne puissions avancer qu'il existe une relation de cause à effet, l'analyse par régression multiple montre que le facteur pronostic le plus fiable est justement la balance énergétique, au détriment des scores habituellement utilisés en soins intensifs. L'évolution est indépendante tant de l'âge et du sexe, que du status nutritionnel préopératoire. L'étude ne prévoyait pas de récolter des données économiques : nous ne pouvons pas, dès lors, affirmer que l'augmentation des coûts engendrée par un séjour prolongé en unité de soins intensifs est induite par un déficit énergétique, même si le bon sens nous laisse penser qu'un séjour plus court engendre un coût moindre. Cette étude attire aussi l'attention sur l'origine du déficit énergétique : il se creuse au cours de la première semaine en soins intensifs, et pourrait donc être prévenu par une intervention nutritionnelle précoce, alors que les recommandations actuelles préconisent un apport énergétique, sous forme de nutrition artificielle, qu'à partir de 48 heures de séjour aux soins intensifs. Conclusions : L'étude montre que pour les patients de soins intensifs les plus graves, la balance énergétique devrait être considérée comme un objectif important de la prise en charge, nécessitant l'application d'un protocole de nutrition précoce. Enfin comme l'évolution à l'admission des patients est souvent imprévisible, et que le déficit s'installe dès la première semaine, il est légitime de s'interroger sur la nécessité d'appliquer ce protocole à tous les patients de soins intensifs et ceci dès leur admission. Summary Background and aims: Critically ill patients with complicated evolution are frequently hypermetabolic, catabolic, and at risk of underfeeding. The study aimed at assessing the relationship between energy balance and outcome in critically ill patients. Methods: Prospective observational study conducted in consecutive patients staying 5 days in the surgical ICU of a University hospital. Demographic data, time to feeding, route, energy delivery, and outcome were recorded. Energy balance was calculated as energy delivery minus target. Data in means+ SD, linear regressions between energy balance and outcome variables. Results: Forty eight patients aged 57±16 years were investigated; complete data are available in 669 days. Mechanical ventilation lasted 11±8 days, ICU stay 15+9 was days, and 30-days mortality was 38%. Time to feeding was 3.1 ±2.2 days. Enteral nutrition was the most frequent route with 433 days. Mean daily energy delivery was 1090±930 kcal. Combining enteral and parenteral nutrition achieved highest energy delivery. Cumulated energy balance was between -12,600+ 10,520 kcal, and correlated with complications (P<0.001), already after 1 week. Conclusion: Negative energy balances were correlated with increasing number of complications, particularly infections. Energy debt appears as a promising tool for nutritional follow-up, which should be further tested. Delaying initiation of nutritional support exposes the patients to energy deficits that cannot be compensated later on.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction: Le glucose est le principal substrat énergétique cérébral. Sa concentration dans le cerveau est étroitement liée à la glycémie. Chez le patient neurolésé, du fait de l'augmentation des besoins énergétiques, les réserves cérébrales de glucose sont limitées. Une glycémie suffisamment élevée paraît nécessaire pour assurer un apport adéquat de glucose au cerveau. Objectifs : Le but de cette étude est de mieux comprendre la relation entre glucose cérébral et glycémie lors de lésion cérébrale en analysant la physiologie cérébrale chez des patients neurolésés. Plus précisément nous investiguerons: La relation entre le glucose cérébral et le glucose systémique et son association avec le pronostic vital, l'association entre la neuroglucopénie et différents paramètres cérébraux tel que l'hypertension intracrânienne (HTIC) ou la dysfonction énergétique et finalement l'effet d'une perfusion de glucose 10% sur le glucose cérébral lors d'état de neuroglucopénie. Méthodologie : Analyse d'une base de données prospective comportant des patients souffrant d'un traumatisme crânio-cérébral (TCC) ou une hémorragie sous- arachnoïdienne (HSA) sévères. Les patients comateux sont monitorés par un dispositif intra-parenchymateux avancé, comprenant un cathéter de microdialyse cérébrale et un capteur de PbO2. Résultats : 34 patients consécutifs (moyenne d'âge 42 ans, moyenne de temps jusqu'au début du monitoring : 1.5 jours ± 1 ; moyenne de la durée maximale du monitoring : 6 jours ± 3) ont été étudiés, 25 patients souffrant d'un TCC et 9 patients avec une HSA. Nous avons obtenu une corrélation individuelle entre le glucose cérébral et la glycémie chez 52.9 % des patients. Lorsque la glycémie est inférieure à 5 mmol/l, on observe plus fréquemment des épisodes de neuroglucopénie en comparaison aux valeurs intermédiaires de glycémie (5 - 9.9 mmol/l). Les épisodes d'HTIC (pression intracrânienne (PIC) > 20 mmHg) sont plus fréquemment associés à des épisodes de neuroglucopénie que lorsque la pression intracrânienne est normale 75 % vs. 35%. La dysfonction énergétique est plus souvent associés à des épisodes de neuroglucopénie que lorsque le LPR est normal: 55% contre 36%. Un coefficient de corrélation entre glucose cérébral et glycémie significativement plus élevé a été obtenu chez les survivants que chez les non-survivants (0.1 [interquartile range 0.02- 0.3] contre 0.32 [0.17-0.61]). Chez les patients neuroglucopéniques ayant une corrélation entre glucose cérébral et glycémie, la perfusion de glucose i.v. fait monter le glucose cérébral jusqu'à l'arrêt de la perfusion. Conclusion : Malgré une étroite relation entre glycémie et glucose cérébral en conditions stables, cette relation peut être altérée par des causes cérébrales chez les patients neurolésés montrant que la diminution de la disponibilité du glucose extracellulaire ne résulte pas uniquement d'une hypoglycémie relative mais également de causes cérébrales tel que l'hypoperfusion, l'HTIC ou la dysfonction énergétique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

1.1 Objectifs Le syndrome de bas débit cardiaque est une appréciation clinique (Hoffman et al.) dont les signes sont peu sensibles, peu spécifiques, souvent tardifs et dont la mesure chez l'enfant est rendue impossible en clinique pour des raisons techniques et de fiabilités des systèmes de mesures. Aucun score n'est applicable à l'heure actuelle chez l'enfant. C'est pourquoi, ces 10 dernières années, de nombreuses équipes se sont penchée activement sur ce problème afin de définir des marqueurs performants prédisant la survenue du LCOS après chirurgie cardiaque chez l'enfant. Cette étude s'est attachée à réunir ses marqueurs cardiaques, de les combiner et de les inclure dans un score de bas débit cardiaque. 1.2 Méthode Enfants et nouveau-nés ayant subit une chirurgie cardiaque au CHUV, après malformation cardiaque congénitale, entre janvier 2010 et octobre 2011 (N=48). Age : 8 jours à 13 ans (médiane : 16.3 mois). Deux scores développés. Soumission à l'aveugle de la liste des patients à un comité d'expert pour identifier les patients en LCOS à 48h post-chirurgie, puis comparaison avec le résultat du score. Les paramètres du premier score (SCORE 1), sont agendées de manière ordinales, alors que dans le deuxième score (SCORE 2) elles le sont de manière dichotomiques. Valeurs cut-off supérieures et inférieures des scores choisies selon une recherche extensive dans la littérature. Les valeurs cut-off intermédiaires (SCORE 1) ont été choisies au hasard. 1.3 Résultats La régression logistique multivariée pour la prédiction d'un LCOS à 48h, démontre que seul le score d'amine durant les 24 premières heures et un prédicteur indépendant de LCOS (OR 16.6 [2.6- 105.5] p<0.0001). Ce paramètre est bien corrélé avec le résultat des experts avec un coefficient de corrélation r=0.57 (p<0.0001). Les spécificités des deux scores (AUC=0.78 (p<0.0001) respectivement AUC=0.81 (p<0.0001)) sont de 71% respectivement 93.5%, les sensibilités de 70.6% respectivement 41.2 %, VPP de 57.1% respectivement 77.8%, VPN de 81.5 % respectivement 74.4%. Les tests du khi2 valent 7.7 (p=0.006) respectivement 8.69 (p=003), rejettent l'hypothèse nulle d'indépendance entre le résultat des experts et celui prédit par le score. 1.4 Conclusions Les scores développés dans le cadre de cette étude ne montrent pas une corrélation significative avec l'apparition d'un bas débit cardiaque. Même si le choix des paramètres permettant de quantifier l'apparition d'un bas débit cardiaque à 48h fût réalisé selon une recherche extensive dans la littérature, le design rétrospectif de l'étude, n'a pas permit de vérifier efficacement la relation entre l'apparition d'un bas débit cardiaque et le score de bas débit cardiaque.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ces dernières années, de nombreuses recherches ont mis en évidence les effets toxiques des micropolluants organiques pour les espèces de nos lacs et rivières. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, alors que les organismes sont exposés tous les jours à des milliers de substances en mélange. Or les effets de ces cocktails ne sont pas négligeables. Cette thèse de doctorat s'est ainsi intéressée aux modèles permettant de prédire le risque environnemental de ces cocktails pour le milieu aquatique. Le principal objectif a été d'évaluer le risque écologique des mélanges de substances chimiques mesurées dans le Léman, mais aussi d'apporter un regard critique sur les méthodologies utilisées afin de proposer certaines adaptations pour une meilleure estimation du risque. Dans la première partie de ce travail, le risque des mélanges de pesticides et médicaments pour le Rhône et pour le Léman a été établi en utilisant des approches envisagées notamment dans la législation européenne. Il s'agit d'approches de « screening », c'est-à-dire permettant une évaluation générale du risque des mélanges. Une telle approche permet de mettre en évidence les substances les plus problématiques, c'est-à-dire contribuant le plus à la toxicité du mélange. Dans notre cas, il s'agit essentiellement de 4 pesticides. L'étude met également en évidence que toutes les substances, même en trace infime, contribuent à l'effet du mélange. Cette constatation a des implications en terme de gestion de l'environnement. En effet, ceci implique qu'il faut réduire toutes les sources de polluants, et pas seulement les plus problématiques. Mais l'approche proposée présente également un biais important au niveau conceptuel, ce qui rend son utilisation discutable, en dehors d'un screening, et nécessiterait une adaptation au niveau des facteurs de sécurité employés. Dans une deuxième partie, l'étude s'est portée sur l'utilisation des modèles de mélanges dans le calcul de risque environnemental. En effet, les modèles de mélanges ont été développés et validés espèce par espèce, et non pour une évaluation sur l'écosystème en entier. Leur utilisation devrait donc passer par un calcul par espèce, ce qui est rarement fait dû au manque de données écotoxicologiques à disposition. Le but a été donc de comparer, avec des valeurs générées aléatoirement, le calcul de risque effectué selon une méthode rigoureuse, espèce par espèce, avec celui effectué classiquement où les modèles sont appliqués sur l'ensemble de la communauté sans tenir compte des variations inter-espèces. Les résultats sont dans la majorité des cas similaires, ce qui valide l'approche utilisée traditionnellement. En revanche, ce travail a permis de déterminer certains cas où l'application classique peut conduire à une sous- ou sur-estimation du risque. Enfin, une dernière partie de cette thèse s'est intéressée à l'influence que les cocktails de micropolluants ont pu avoir sur les communautés in situ. Pour ce faire, une approche en deux temps a été adoptée. Tout d'abord la toxicité de quatorze herbicides détectés dans le Léman a été déterminée. Sur la période étudiée, de 2004 à 2009, cette toxicité due aux herbicides a diminué, passant de 4% d'espèces affectées à moins de 1%. Ensuite, la question était de savoir si cette diminution de toxicité avait un impact sur le développement de certaines espèces au sein de la communauté des algues. Pour ce faire, l'utilisation statistique a permis d'isoler d'autres facteurs pouvant avoir une influence sur la flore, comme la température de l'eau ou la présence de phosphates, et ainsi de constater quelles espèces se sont révélées avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps. Fait intéressant, une partie d'entre-elles avait déjà montré des comportements similaires dans des études en mésocosmes. En conclusion, ce travail montre qu'il existe des modèles robustes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques, et qu'ils peuvent être utilisés pour expliquer le rôle des substances dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application. - Depuis plusieurs années, les risques que posent les micropolluants organiques pour le milieu aquatique préoccupent grandement les scientifiques ainsi que notre société. En effet, de nombreuses recherches ont mis en évidence les effets toxiques que peuvent avoir ces substances chimiques sur les espèces de nos lacs et rivières, quand elles se retrouvent exposées à des concentrations aiguës ou chroniques. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, c'est à dire considérées séparément. Actuellement, il en est de même dans les procédures de régulation européennes, concernant la partie évaluation du risque pour l'environnement d'une substance. Or, les organismes sont exposés tous les jours à des milliers de substances en mélange, et les effets de ces "cocktails" ne sont pas négligeables. L'évaluation du risque écologique que pose ces mélanges de substances doit donc être abordé par de la manière la plus appropriée et la plus fiable possible. Dans la première partie de cette thèse, nous nous sommes intéressés aux méthodes actuellement envisagées à être intégrées dans les législations européennes pour l'évaluation du risque des mélanges pour le milieu aquatique. Ces méthodes sont basées sur le modèle d'addition des concentrations, avec l'utilisation des valeurs de concentrations des substances estimées sans effet dans le milieu (PNEC), ou à partir des valeurs des concentrations d'effet (CE50) sur certaines espèces d'un niveau trophique avec la prise en compte de facteurs de sécurité. Nous avons appliqué ces méthodes à deux cas spécifiques, le lac Léman et le Rhône situés en Suisse, et discuté les résultats de ces applications. Ces premières étapes d'évaluation ont montré que le risque des mélanges pour ces cas d'étude atteint rapidement une valeur au dessus d'un seuil critique. Cette valeur atteinte est généralement due à deux ou trois substances principales. Les procédures proposées permettent donc d'identifier les substances les plus problématiques pour lesquelles des mesures de gestion, telles que la réduction de leur entrée dans le milieu aquatique, devraient être envisagées. Cependant, nous avons également constaté que le niveau de risque associé à ces mélanges de substances n'est pas négligeable, même sans tenir compte de ces substances principales. En effet, l'accumulation des substances, même en traces infimes, atteint un seuil critique, ce qui devient plus difficile en terme de gestion du risque. En outre, nous avons souligné un manque de fiabilité dans ces procédures, qui peuvent conduire à des résultats contradictoires en terme de risque. Ceci est lié à l'incompatibilité des facteurs de sécurité utilisés dans les différentes méthodes. Dans la deuxième partie de la thèse, nous avons étudié la fiabilité de méthodes plus avancées dans la prédiction de l'effet des mélanges pour les communautés évoluant dans le système aquatique. Ces méthodes reposent sur le modèle d'addition des concentrations (CA) ou d'addition des réponses (RA) appliqués sur les courbes de distribution de la sensibilité des espèces (SSD) aux substances. En effet, les modèles de mélanges ont été développés et validés pour être appliqués espèce par espèce, et non pas sur plusieurs espèces agrégées simultanément dans les courbes SSD. Nous avons ainsi proposé une procédure plus rigoureuse, pour l'évaluation du risque d'un mélange, qui serait d'appliquer d'abord les modèles CA ou RA à chaque espèce séparément, et, dans une deuxième étape, combiner les résultats afin d'établir une courbe SSD du mélange. Malheureusement, cette méthode n'est pas applicable dans la plupart des cas, car elle nécessite trop de données généralement indisponibles. Par conséquent, nous avons comparé, avec des valeurs générées aléatoirement, le calcul de risque effectué selon cette méthode plus rigoureuse, avec celle effectuée traditionnellement, afin de caractériser la robustesse de cette approche qui consiste à appliquer les modèles de mélange sur les courbes SSD. Nos résultats ont montré que l'utilisation de CA directement sur les SSDs peut conduire à une sous-estimation de la concentration du mélange affectant 5 % ou 50% des espèces, en particulier lorsque les substances présentent un grand écart- type dans leur distribution de la sensibilité des espèces. L'application du modèle RA peut quant à lui conduire à une sur- ou sous-estimations, principalement en fonction de la pente des courbes dose- réponse de chaque espèce composant les SSDs. La sous-estimation avec RA devient potentiellement importante lorsque le rapport entre la EC50 et la EC10 de la courbe dose-réponse des espèces est plus petit que 100. Toutefois, la plupart des substances, selon des cas réels, présentent des données d' écotoxicité qui font que le risque du mélange calculé par la méthode des modèles appliqués directement sur les SSDs reste cohérent et surestimerait plutôt légèrement le risque. Ces résultats valident ainsi l'approche utilisée traditionnellement. Néanmoins, il faut garder à l'esprit cette source d'erreur lorsqu'on procède à une évaluation du risque d'un mélange avec cette méthode traditionnelle, en particulier quand les SSD présentent une distribution des données en dehors des limites déterminées dans cette étude. Enfin, dans la dernière partie de cette thèse, nous avons confronté des prédictions de l'effet de mélange avec des changements biologiques observés dans l'environnement. Dans cette étude, nous avons utilisé des données venant d'un suivi à long terme d'un grand lac européen, le lac Léman, ce qui offrait la possibilité d'évaluer dans quelle mesure la prédiction de la toxicité des mélanges d'herbicide expliquait les changements dans la composition de la communauté phytoplanctonique. Ceci à côté d'autres paramètres classiques de limnologie tels que les nutriments. Pour atteindre cet objectif, nous avons déterminé la toxicité des mélanges sur plusieurs années de 14 herbicides régulièrement détectés dans le lac, en utilisant les modèles CA et RA avec les courbes de distribution de la sensibilité des espèces. Un gradient temporel de toxicité décroissant a pu être constaté de 2004 à 2009. Une analyse de redondance et de redondance partielle, a montré que ce gradient explique une partie significative de la variation de la composition de la communauté phytoplanctonique, même après avoir enlevé l'effet de toutes les autres co-variables. De plus, certaines espèces révélées pour avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps, ont montré des comportements similaires dans des études en mésocosmes. On peut en conclure que la toxicité du mélange herbicide est l'un des paramètres clés pour expliquer les changements de phytoplancton dans le lac Léman. En conclusion, il existe diverses méthodes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques et celui-ci peut jouer un rôle dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application, avant d'utiliser leurs résultats pour la gestion des risques environnementaux. - For several years now, the scientists as well as the society is concerned by the aquatic risk organic micropollutants may pose. Indeed, several researches have shown the toxic effects these substances may induce on organisms living in our lakes or rivers, especially when they are exposed to acute or chronic concentrations. However, most of the studies focused on the toxicity of single compounds, i.e. considered individually. The same also goes in the current European regulations concerning the risk assessment procedures for the environment of these substances. But aquatic organisms are typically exposed every day simultaneously to thousands of organic compounds. The toxic effects resulting of these "cocktails" cannot be neglected. The ecological risk assessment of mixtures of such compounds has therefore to be addressed by scientists in the most reliable and appropriate way. In the first part of this thesis, the procedures currently envisioned for the aquatic mixture risk assessment in European legislations are described. These methodologies are based on the mixture model of concentration addition and the use of the predicted no effect concentrations (PNEC) or effect concentrations (EC50) with assessment factors. These principal approaches were applied to two specific case studies, Lake Geneva and the River Rhône in Switzerland, including a discussion of the outcomes of such applications. These first level assessments showed that the mixture risks for these studied cases exceeded rapidly the critical value. This exceeding is generally due to two or three main substances. The proposed procedures allow therefore the identification of the most problematic substances for which management measures, such as a reduction of the entrance to the aquatic environment, should be envisioned. However, it was also showed that the risk levels associated with mixtures of compounds are not negligible, even without considering these main substances. Indeed, it is the sum of the substances that is problematic, which is more challenging in term of risk management. Moreover, a lack of reliability in the procedures was highlighted, which can lead to contradictory results in terms of risk. This result is linked to the inconsistency in the assessment factors applied in the different methods. In the second part of the thesis, the reliability of the more advanced procedures to predict the mixture effect to communities in the aquatic system were investigated. These established methodologies combine the model of concentration addition (CA) or response addition (RA) with species sensitivity distribution curves (SSD). Indeed, the mixture effect predictions were shown to be consistent only when the mixture models are applied on a single species, and not on several species simultaneously aggregated to SSDs. Hence, A more stringent procedure for mixture risk assessment is proposed, that would be to apply first the CA or RA models to each species separately and, in a second step, to combine the results to build an SSD for a mixture. Unfortunately, this methodology is not applicable in most cases, because it requires large data sets usually not available. Therefore, the differences between the two methodologies were studied with datasets created artificially to characterize the robustness of the traditional approach applying models on species sensitivity distribution. The results showed that the use of CA on SSD directly might lead to underestimations of the mixture concentration affecting 5% or 50% of species, especially when substances present a large standard deviation of the distribution from the sensitivity of the species. The application of RA can lead to over- or underestimates, depending mainly on the slope of the dose-response curves of the individual species. The potential underestimation with RA becomes important when the ratio between the EC50 and the EC10 for the dose-response curve of the species composing the SSD are smaller than 100. However, considering common real cases of ecotoxicity data for substances, the mixture risk calculated by the methodology applying mixture models directly on SSDs remains consistent and would rather slightly overestimate the risk. These results can be used as a theoretical validation of the currently applied methodology. Nevertheless, when assessing the risk of mixtures, one has to keep in mind this source of error with this classical methodology, especially when SSDs present a distribution of the data outside the range determined in this study Finally, in the last part of this thesis, we confronted the mixture effect predictions with biological changes observed in the environment. In this study, long-term monitoring of a European great lake, Lake Geneva, provides the opportunity to assess to what extent the predicted toxicity of herbicide mixtures explains the changes in the composition of the phytoplankton community next to other classical limnology parameters such as nutrients. To reach this goal, the gradient of the mixture toxicity of 14 herbicides regularly detected in the lake was calculated, using concentration addition and response addition models. A decreasing temporal gradient of toxicity was observed from 2004 to 2009. Redundancy analysis and partial redundancy analysis showed that this gradient explains a significant portion of the variation in phytoplankton community composition, even when having removed the effect of all other co-variables. Moreover, some species that were revealed to be influenced positively or negatively, by the decrease of toxicity in the lake over time, showed similar behaviors in mesocosms studies. It could be concluded that the herbicide mixture toxicity is one of the key parameters to explain phytoplankton changes in Lake Geneva. To conclude, different methods exist to predict the risk of mixture in the ecosystems. But their reliability varies depending on the underlying hypotheses. One should therefore carefully consider these hypotheses, as well as the limits of the approaches, before using the results for environmental risk management

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Rapport de synthèse : Le traitement des leucémies aiguës chez l'enfant représente un des succès de la médecine moderne avec des taux de guérison avoisinant les 80% ce qui implique la nécessité de suivre les effets secondaires à long terme des traitements chez cette population de patients. Récemment plusieurs études internationales ont relevé une prévalence plus importante de surpoids et d'obésité chez les enfants traités pour une leucémie aiguë. L'origine de ce processus reste incertaine :aux effets secondaires bien connus et décrits des traitements (stéroïdes et radiothérapie) semblent s'ajouter des facteurs génétiques, familiaux (age, BMI au diagnostic, BMI parents et fratrie), environnementaux. L'objectif de ce travail est d'estimer la prévalence et les facteurs de risque pour le surpoids et l'obésité chez les enfants traités et guéris d'une leucémie aiguë en Suisse romande et de comparer ces résultats à ceux d'études internationales. Pour répondre à ces questions nous avons inclus 54 patients (40 de Lausanne et 14 de Genève) traités pour une leucémie aiguë. Seuls les enfants à 5 ans de leur première rémission clinique, sans atteinte du système nerveux central, testiculaire ou médullaire et traités par chimiothérapie seule sont retenus. Leur poids, taille sont enregistrés durant les phases précises de traitement (au diagnostic, à la rémission, fin de consolidation, milieumaintenance et en fin de traitement) puis annuellement jusqu'à 12 ans post fin de traitement. Le BMI (kg/ml) et sa déviation standard BMI-SDS (spécifique pour Page et le sexe) pour les patients et leurs parents sont calculés selon les valeurs internationales (IOTF) respectivement BMI-SDS >1.645 (p<0.05) pour le surpoids et> 1.96 (p<0.025) pour l'obésité. Les résultats de ce travail confirment une prévalence double de surpoids (30% versus 17%) et quadruple d'obésité (18% versus 4%) au sein de la population d'enfants traités pour une leucémie aiguë comparées à la population suisse standard. Les facteurs de risque impliqués sont le BMI initial au diagnostic et le BMI maternel contrairement à Page, sexe, stéroïdes et au BMI paternel. Ces données confirment une prévalence significative d'enfants en surpoids/obèses au sein de cette population avec des résultats similaires à ceux retrouvés dans des études internationales récentes. Les facteurs de risque identifiés semblent plutôt liés à l'environnement familial qu'aux traitements. Ces constatations pourraient être le résultat d'interactions complexes entre "le background génétique", les facteurs environnementaux, les habitudes socioculturelles (activité physique, status nutritionnel) paramètres non évalués dans cette revue. Des études plus larges, prospectives sont nécessaires pour clarifier les rôles des différents facteurs de risque et de leurs interactions ;celles-ci devraient inclure des données génétiques (LEPR), taux de leptine, activité physique et le status nutritionnel. Enfin, l'identification des patients à risque est cruciale afin de prévenir les effets secondaires cardio-vasculaires, métaboliques bien connus liés au surpoids et à l'obésité.