204 resultados para stratégies du temps d’attente
Resumo:
Il est important pour les entreprises de compresser les informations détaillées dans des sets d'information plus compréhensibles. Au chapitre 1, je résume et structure la littérature sur le sujet « agrégation d'informations » en contrôle de gestion. Je récapitule l'analyse coûts-bénéfices que les comptables internes doivent considérer quand ils décident des niveaux optimaux d'agrégation d'informations. Au-delà de la perspective fondamentale du contenu d'information, les entreprises doivent aussi prendre en considération des perspectives cogni- tives et comportementales. Je développe ces aspects en faisant la part entre la comptabilité analytique, les budgets et plans, et la mesure de la performance. Au chapitre 2, je focalise sur un biais spécifique qui se crée lorsque les informations incertaines sont agrégées. Pour les budgets et plans, des entreprises doivent estimer les espérances des coûts et des durées des projets, car l'espérance est la seule mesure de tendance centrale qui est linéaire. A la différence de l'espérance, des mesures comme le mode ou la médiane ne peuvent pas être simplement additionnés. En considérant la forme spécifique de distributions des coûts et des durées, l'addition des modes ou des médianes résultera en une sous-estimation. Par le biais de deux expériences, je remarque que les participants tendent à estimer le mode au lieu de l'espérance résultant en une distorsion énorme de l'estimati¬on des coûts et des durées des projets. Je présente également une stratégie afin d'atténuer partiellement ce biais. Au chapitre 3, j'effectue une étude expérimentale pour comparer deux approches d'esti¬mation du temps qui sont utilisées en comptabilité analytique, spécifiquement « coûts basés sur les activités (ABC) traditionnelles » et « time driven ABC » (TD-ABC). Au contraire des affirmations soutenues par les défenseurs de l'approche TD-ABC, je constate que cette dernière n'est pas nécessairement appropriée pour les calculs de capacité. Par contre, je démontre que le TD-ABC est plus approprié pour les allocations de coûts que l'approche ABC traditionnelle. - It is essential for organizations to compress detailed sets of information into more comprehensi¬ve sets, thereby, establishing sharp data compression and good decision-making. In chapter 1, I review and structure the literature on information aggregation in management accounting research. I outline the cost-benefit trade-off that management accountants need to consider when they decide on the optimal levels of information aggregation. Beyond the fundamental information content perspective, organizations also have to account for cognitive and behavi¬oral perspectives. I elaborate on these aspects differentiating between research in cost accounti¬ng, budgeting and planning, and performance measurement. In chapter 2, I focus on a specific bias that arises when probabilistic information is aggregated. In budgeting and planning, for example, organizations need to estimate mean costs and durations of projects, as the mean is the only measure of central tendency that is linear. Different from the mean, measures such as the mode or median cannot simply be added up. Given the specific shape of cost and duration distributions, estimating mode or median values will result in underestimations of total project costs and durations. In two experiments, I find that participants tend to estimate mode values rather than mean values resulting in large distortions of estimates for total project costs and durations. I also provide a strategy that partly mitigates this bias. In the third chapter, I conduct an experimental study to compare two approaches to time estimation for cost accounting, i.e., traditional activity-based costing (ABC) and time-driven ABC (TD-ABC). Contrary to claims made by proponents of TD-ABC, I find that TD-ABC is not necessarily suitable for capacity computations. However, I also provide evidence that TD-ABC seems better suitable for cost allocations than traditional ABC.
Resumo:
Erythrocyte concentrates (ECs) are the major labile blood product being transfused worldwide, aiming at curing anemia of diverse origins. In Switzerland, ECs are stored at 4 °C up to 42 days in saline-adenine-glucose-mannitol (SAGM). Such storage induces cellular lesions, altering red blood cells (RBCs) metabolism, protein content and rheological properties. A hot debate exists regarding the impact of the storage lesions, thus the age of ECs on transfusion-related clinical adverse outcomes. Several studies tend to show that poorer outcomes occur in patients receiving older blood products. However, no clear association was demonstrated up to date. While metabolism and early rheological changes are reversible through transfusion of the blood units, oxidized proteins cannot be repaired, and it is likely such irreversible damages would affect the quality of the blood product and the efficiency of the transfusion. In vivo, RBCs are constantly exposed to oxygen fluxes, and are thus well equipped to deal with oxidative challenges. Moreover, functional 20S proteasome complexes allow for recognition and proteolysis of fairly oxidized protein, and some proteins can be eliminated from RBCs by the release of microvesicles. The present PhD thesis is involved in a global research project which goal is to characterize the effect of processing and storage on the quality of ECs. Assessing protein oxidative damages during RBC storage is of major importance to understand the mechanisms of aging of stored RBCs. To this purpose, redox proteomic-based investigations were conducted here. In a first part, cysteine oxidation and protein carbonylation were addressed via 2D-DIGE and derivatization-driven immunodetection approaches, respectively. Then, the oxidized sub- proteomes were characterized through LC-MS/MS identification of proteins in spots of interest (cysteine oxidation) or affinity-purified carbonylated proteins. Gene ontology annotation allowed classifying targets of oxidation according to their molecular functions. In a third part, the P20S activity was evaluated throughout the storage period of ECs, and its susceptibility to highly oxidized environment was investigated. The potential defensive role of microvesiculation was also addressed through the quantification of eliminated carbonylated proteins. We highlighted distinct protein groups differentially affected by cysteine oxidation, either reversibly or irreversibly. In addition, soluble extracts showed a decrease in carbonylation at the beginning of the storage and membrane extracts revealed increasing carbonylation after 4 weeks of storage. Engaged molecular functions revealed that antioxidant (AO) are rather reversibly oxidized at their cysteine residue(s), but are irreversibly oxidized through carbonylation. In the meantime, the 20S proteasome activity is decreased by around 40 % at the end of the storage period. Incubation of fresh RBCs extracts with exogenous oxidized proteins showed a dose-dependent and protein-dependent inhibitory effect. Finally, we proved that the release of microvesicles allows the elimination of increasing quantities of carbonylated proteins. Taken together, these results revealed an oxidative pathway model of RBCs storage, on which further investigation towards improved storage conditions will be based. -- Les concentrés érythrocytaires (CE) sont le produit sanguin le plus délivré au monde, permettant de traiter différentes formes d'anémies. En Suisse, les CE sont stocké à 4 °C pendant 42 jours dans une solution saline d'adénine, glucose et mannitol (SAGM). Une telle conservation induit des lésions de stockage qui altèrent le métabolisme, les protéines et les propriétés rhéologique du globule rouge (GR). Un débat important concerne l'impact du temps de stockage des CE sur les risques de réaction transfusionnelles, certaines études tentant de démontrer que des transfusions de sang vieux réduiraient l'espérance de vie des patients. Cependant, aucune association concrète n'a été prouvée à ce jour. Alors que les modifications du métabolisme et changement précoces des propriétés rhéologiques sont réversibles suite à la transfusion du CE, les protéines oxydées ne peuvent être réparées, et il est probable que de telles lésions affectent la qualité et l'efficacité des produits sanguins. In vivo, les GR sont constamment exposés à l'oxygène, et sont donc bien équipés pour résister aux lésions oxydatives. De plus, les complexes fonctionnels de proteasome 20S reconnaissent et dégradent les protéines modérément oxydées, et certaines protéines peuvent être éliminées par les microparticules. Cette thèse de doctorat est imbriquée dans un projet de recherche global ayant pour objectif la caractérisation des effets de la préparation et du stockage sur la qualité des GR. Evaluer les dommages oxydatifs du GR pendant le stockage est primordial pour comprendre les mécanismes de vieillissement des produits sanguin. Dans ce but, des recherches orientées redoxomique ont été conduites. Dans une première partie, l'oxydation des cystéines et la carbonylation des protéines sont évaluées par électrophorèse bidimensionnelle différentielle et par immunodétection de protéines dérivatisées. Ensuite, les protéines d'intérêt ainsi que les protéines carbonylées, purifiées par affinité, sont identifiées par spectrométrie de masse en tandem. Les protéines cibles de l'oxydation sont classées selon leur fonction moléculaire. Dans une troisième partie, l'activité protéolytique du protéasome 20S est suivie durant la période de stockage. L'impact du stress oxydant sur cette activité a été évalué en utilisant des protéines exogènes oxydées in vitro. Le potentiel rôle défensif de la microvesiculation a également été étudié par la quantification des protéines carbonylées éliminées. Dans ce travail, nous avons observé que différents groupes de protéines sont affectés par l'oxydation réversible ou irréversible de leurs cystéines. De plus, une diminution de la carbonylation en début de stockage dans les extraits solubles et une augmentation de la carbonylation après 4 semaines dans les extraits membranaires ont été montrées. Les fonctions moléculaires engagées par les protéines altérées montrent que les défenses antioxydantes sont oxydées de façon réversible sur leurs résidus cystéines, mais sont également irréversiblement carbonylées. Pendant ce temps, l'activité protéolytique du protéasome 20S décroit de 40 % en fin de stockage. L'incubation d'extraits de GR en début de stockage avec des protéines oxydées exogènes montre un effet inhibiteur « dose-dépendant » et « protéine-dépendant ». Enfin, les microvésicules s'avèrent éliminer des quantités croissantes de protéines carbonylées. La synthèse de ces résultats permet de modéliser une voie oxydative du stockage des GRs, à partir de laquelle de futures recherches seront menées avec pour but l'amélioration des conditions de stockage.
Resumo:
RESUME La première étape primordiale au cycle de vie du Plasmodium dans un hôte mammifère est l'invasion des hepatocytes par des sporozoites. L'infection finale des hepatocytes est précédée de la traversée de plusieurs cellules hôtes, rompant les membranes plasmiques et ayant comme résultat la sécrétion des facteurs cytotoliques dans le micro-environnement. Ce matériel endogène libéré est fortement stimulant/immunogène et peut servir de signal de danger initiant des réponses distinctes dans diverses cellules. De nos jours, le caractère essentiel et salutaire de la migration des sporozoites comme étape d'infection du Plasmodium est vivement controversée. Ainsi, notre étude a visé à caractériser l'effet de l'interaction du parasite avec ses cellules hôtes d'un point de vue immunologique. En particulier, nous avons voulu évaluer l'effet de la perte de matériel cellulaire pendant l'infection de Plasmodium sur les hepatocytes primaires de souris et sur des cultures cellulaires HepG2. Nous avons observé que les facteurs cytotoxiques dérivés des cellules endommagés activent NF-κB - un important régulateur de réponse inflammatoires -dans des cellules voisines des cellules endommagés, qui sont des cellules hôtes potentielles pour l'infection finale du parasite. Cette activation de NF-κB s'est produite peu de temps après l'infection et a mené in vitro et in vivo à une réduction d'infection de façon dépendante du temps, un effet qui a pu être compensé par l'addition de BAY11-7082, un inhibiteur spécifique de NF-κB. De plus, aucune activation de NF-κB avec des parasites SPECT-/-, incapables de traverser les hepatocytes, n'a été observée. Nous avons montré parla suite que l'activation de NF-κB induit l'expression de l'enzyme iNOS dans les hepatocytes, qui est responsable d'une diminution des hepatocytes infectés. En outre, les hepatocytes primaires des souris MyD88-/- n'ont montré ni activation de NF-κB, ni expression d'iNOS lors de l'infection, ce qui suggère la participation des membres de famille du Toll/IL-1 récepteur dans la reconnaissance des facteurs cytosoxiques. En effet, le manque de MyD88 a augmenté significativement l'infection in vitro et in vivo. D'autre part, un rôle bénéfique pour l'activation de NF-κB a été évalué. Les cellules infectées étaient plus résistantes contre l'apoptose induite par Fas (CD95/Apo-1) que les cellules non infectées ou les cellules infectées dans lesquelles NF-κB a été bloqué par BAY11-7082 in vitro. Paradoxalement, l'expression d'iNOS contribue à la protection des cellules infectées contre l'apoptose pax Fas, puisque le traitement avec l'inhibiteur spécifique SMT (S-methylisothiourea) a rendu les cellules infectées plus susceptibles à l'apoptose. Un effet bénéfique additionnel pour le parasite est que la plupart des cellules hôtes traversées présentent des peptides du parasite aux cellules T cytotoxiques spécifiques et peuvent donc réorienter la réaction immune spécifique sur les cellules non infectées. Nous montrons que les cellules hôtes endommagés par la migration du parasite induit l'inflammation, qui limite l'ampleur de l'infection. D'autre part, nos données soutiennent que la survie du parasite Plasmodium dans le foie est assurée par une augmentation de la résistance des hepatocytes contre l'apoptose. SUMMARY The first obligatory step of the Plasmodium life cycle in the mammalian host is the invasion of hepatocytes by sporozoites. Final hepatocyte infection involves the penetration of several host cells, whose plasma membranes are ruptured in the process, resulting in the release of cytosolic factors into the microenvironment. This released endogenous material is highly stimulatory / immunogenic and can serve as a danger signal initiating distinct responses in various cells. To date, it is highly controversial whether sporozoite migration through hepatocytes is an essential and beneficial step for Plasmodium infection. Thus, our study aimed at characterizing the effect of the interaction of the parasite with its host cells from an immunological point of view In particular, we wanted to evaluate the effect of cell material leakage during Plasmodium infection on cultured mouse primary hepatocytes and HepG2 cells. We observed that wounded cell-derived cytosolic factors activate NF-κB - a main regulator of host inflammatory responses - in cells bordering wounded cells, which are potential host cells for final parasite infection. This activation of NF-κB occurred shortly after infection and led to a reduction of infection load in a time dependent manner in vitro and in viva, an effect that could be reverted by addition of the specific NF-κB inhibitor BAY11-7082. In addition, no NF-κB activation was observed when SPECT-/- parasites, which are devoid of hepatocyte traversing properties, were used. We provide further evidence that NF-κB activation causes the induction of inducible nitric oxide synthase (iNOS) expression in hepatocytes, and this is, in turn, responsible for a decrease in Plasmodium-infected hepatocytes. Furthermore, primary hepatocytes from MyD88-/- mice showed no NF-κB activation and iNOS expression upon infection, suggesting a role of the Toll/IL-1 receptor family members in sensing cytosolic factors. Indeed, lack of MyD88 significantly increased infection in vitro and in vivo. In a further complementary series of experiments, we assessed a possible beneficial role for the activation of NF-κB. Infected cells were more resistant to Fas (CD95/Apo-1)-mediated apoptosis than uninfected cells or infected cells in which NF-κB was blocked by BAYl1-7082 in vitro. Paradoxically, iNOS expression contributes to the protection of infected cells from Fas-induced apoptosis, since treatment with the specific iNOS inhibitor SMT (S-Methylisothiourea Sulfate) rendered the infected cells more susceptible to apoptosis. An additional beneficial effect of host cell traversal for the parasite is the fact that mainly traversed cells present parasite-derived peptides to specific cytotoxic T cells and therefore may redirect the specific immune response to uninfected cells. In summary, we have shown that host cells wounded by parasite migration induce inflammation, which limits the extent of parasite infection. In addition, our data support the notion that survival of Plasmodium parasites in the liver is mediated by increasing the resistance of hepatocytes to Fas-induced apoptosis.
Resumo:
L'article présente les étapes de la mise en place d'une veille bibliographique (ou veille scientifique) thématique effectuée conjointement depuis 2005 par 4 institutions francophones du domaine de la santé au travail : l'INRS (France), l'IRSST (Québec), l'IST (Suisse) et l'UCL (Belgique).La thématique suivie est celle de la surveillance biologique de l'exposition aux produits chimiques en milieu de travail. Les données recueillies et mises en forme par les documentalistes servent aux chercheurs spécialistes du sujet non seulement pour suivre les nouveautés du domaine, mais aussi pour documenter des cours et mettre à jour des guides de surveillance biologique. Les différentes étapes de l'approche méthodologique du projet sont décrites : le choix des bases de données à interroger et la mise au point de la stratégie de recherche, la mise en place d'une procédure de partage des tâches pour toutes les étapes du processus de veille qui se répètent à chaque mise à jour (interrogation, création de bases de données avec le logiciel Reference Manager, mise en forme et indexation des références, création et mise à disposition des partenaires des bases de données consolidées au fil du temps avec tous les articles analysés), les moyens administratifs, humains et techniques d'échange de fichiers et les essais pour élargir la veille à la surveillance de pages Web sélectionnées.Un bilan chiffré des six années de la veille est également donné.L'information récoltée et analysée durant les deux dernières années par les partenaires du projet fera l'objet d'un second article axé sur les principales tendances de la thématique choisie.
Resumo:
AbstractThis article demonstrates the importance of Angela Carter's translations of Charles Perrault's contes into English and argues for their profound influence on her subsequent literary career. Against feminist critics who rejected fairy tales as conservative and informed by patriarchal structures and values, Carter reclaimed Perrault for feminism by recovering the critical edge and emancipating potential of his Histoires ou contes du temps passé, Avec des Moralités. This essay shows, through a comparative reading of "La Belle au bois dormant" and "The Sleeping Beauty in the Wood," that Carter opposed the worldly "politics of experience" that she found in Perrault to the Disneyfied imagery of the Sleeping Beauty myth and modernized the critique of early marriages already contained in Perrault's Moralités. The subversive power of Carter's work, therefore, is not directed against Perrault but rather toward cultural and commercial appropriations of the fairy tale, which promote a naïve view of marriage.Recommended CitationHennard Dutheil de la Rochère, Martine. ""But marriage itself is no party": Angela Carter's Translation of Charles Perrault's "La Belle au bois dormant"; or, Pitting the Politics of Experience against the Sleeping Beauty Myth." Marvels & Tales 24.1 (2010).
Resumo:
Ce travail porte sur le développement des compétences sociales et des cercles sociaux à l'adolescence. Il s'intéresse plus particulièrement à l'effet au cours du temps que peuvent avoir les nouveaux moyens de communication électronique (MCE) sur ces deux aspects de la socialisation. Trois parties principales se dégagent de ce travail. La première partie présente le développement d'un outil multidimensionnel destiné à l'évaluation des compétences sociales et permettant de les distinguer en fonction du contexte d'interaction (online vs. offline). La seconde partie porte sur la comparaison des compétences sociales et de la taille du cercle social de 329 adolescents de 7e et de 8e année primaire, en fonction de leur utilisation, ou non, des MCE. Elle met en évidence que ces deux aspects diffèrent de manière statistiquement significative entre les deux groupes, en faveur des utilisateurs de MCE. La troisième partie se centre sur l'utilisation de différents MCE et sur les effets différentiels qu'ils peuvent avoir au cours du temps sur ces deux aspects de la socialisation. Les analyses des données longitudinales mettent en évidence que l'utilisation de sites de réseaux sociaux (SRS) est particulièrement susceptible d'améliorer les compétences sociales et d'augmenter la taille du cercle social. Un modèle dans lequel les compétences sociales jouent un rôle de médiateur entre l'utilisation de SRS et la taille du cercle social est finalement postulé. - This work's topic concerns the development of social skills and social network size during adolescence. It examines more particularly the effects that new online communication media (OCM) may have on these two aspects of adolescent socialization. It is subdivided in three distinct parts. The first part presents the development of a multidimensional tool designed to assess social skills in two different contexts of interaction (online vs. offline). The second part compares the social skills and social network size of 329 adolescents depending on their use, or not, of OCM. It highlights significant differences on these two aspects between users and non-users, in favor of OCM users. The third part focuses on the differential effects that six OCM may have over time on these two aspects of socialization. Longitudinal data analyses highlight that the use of social network sites (SNS) is particularly likely to improve social skills and to increase social network size. A model in which social skills mediate the relationship between SNS use and social network size is finally postulated.
Resumo:
Le philosophe et théoricien russe de la littérature Mikhaïl Bakhtine a discuté des fonctions du fripon, du bouffon et du sot dans son étude "Les formes du temps et du chronotope dans le roman". Pour Bakhtine, ces trois figures jouent un rôle important dans l'évolution du roman européen, dans la mesure où elles reflètent la démarche du romancier: plutôt que de prendre part à la vie, les fripons, bouffons et sots l'observent et la mettent à nu. Afin d'évaluer s'il s'agit toujours des mêmes concepts, ce triple paradigme est interrogé dans ce recueil à travers différentes traditions culturelles.
Resumo:
Paul Ricoeur construit la philosophie comme une hétérotopie, en la soumettant à l'ordre, juridique et théologique, d'un «aveu». En soustrayant la pensée à la compétence première de la philosophie pour l'accorder à l'ordre d'un récit, Ricoeur fait de l'exercice de la philosophie une «empirique de la volonté serve». Ce primat donné à un ordre de médiation, par le biais d'un récit, dépouille ainsi la philosophie de toute tâche inaugurale. Dans ses Valences of the Dialectic, le philosophe américain Jameson est revenu de façon critique sur ce montage, soulignant le paradoxe qui oblige Ricoeur à ôter la pensée du temps des tâches premières de la phénoménologie. Cet article vise à en exposer les conséquences (notamment le basculement vers une herméneutique), pour interroger les effets théologico-politiques de ce vaste projet. --- Paul Ricoeur has built up philosophy as a heterotopy by submitting it to the juridical and theological order of a "confession". By taking away thought as the primus competence of philosophy, and attributing it to narration, Ricoeur transforms philosophy into an "empirics of the serve-will". This priority given to mediation through narration deprives philosophy from any inaugural task. In his Valences of the Dialectic, the American philosopher Jameson has critically questioned this construction, underlining the paradox that forces Ricoeur to take away thought of time from the primus tasks of phenomenology. This paper intends to expose the consequences of such a deal (among others the swing to hermeneutics), and to inquire about the theologico-political effects of such a vast project.
Resumo:
Bien que les activités où la compétence est un enjeu (p. ex. : problème académique) prennent souvent place dans des contextes interpersonnels (p. ex. : classe), hiérarchiques (p. ex. : enseignant-e/élèves), et spécifiques en termes de normes et de valeurs (p. ex. : culture), l'étude des buts de performance-le désir de se montrer compétent-e relativement à autrui-a le plus souvent été conduite au seul niveau intrapersonnel. S'appuyant sur le modèle transactionnel du stress et du coping, le modèle circumplexe des comportements interpersonnels, ainsi que sur la théorie de l'élaboration du conflit, la première partie de cette thèse révèle les conséquences interpersonnelles des buts de performance sur la régulation d'un comportement spécifique, à savoir le conflit sociocognitif (c.-à-d., une situation de confrontation avec un intéractant en désaccord) : les buts de performance-approche-le désir d'être meilleur-e qu'autrui-prédisent une régulation du conflit fortement agentique (dominante), soit la validation de son point de vue au détriment de celui de l'intéractant (que nous désignons régulation compétitive) ; alors que les buts de performance-évitement-le désir de ne pas être moins bon-ne qu'autrui-prédisent une régulation du conflit faiblement agentique (soumise), soit l'invalidation de son point de vue au bénéfice de celui de l'intéractant (que nous désignons régulation protective). De plus, les effets susmentionnés augmentent à mesure que l'intéractant est présenté comme supérieurement (vs. similairement) compétent. S'appuyant sur la littérature sur les structures de buts de groupe, et celle sur la socialisation des valeurs, la seconde partie de cette thèse révèle les antécédents interpersonnels des buts de performance, et plus spécifiquement le rôle du superviseur dans la socialisation des buts de performance : les buts de performance-approche d'un superviseur sont positivement associés avec l'émergence au cours du temps des buts de performance-approche de ses subordonnés (particulièrement lorsqu'ils se perçoivent comme compétents) et celle de leurs buts de performance-évitement (particulièrement lorsqu'ils se perçoivent comme incompétents). En outre, ce phénomène consistant en un processus de socialisation, les effets susmentionnés augmentent lorsque l'identification à l'endogroupe des subordonnées augmente, et lorsque l'adhésion aux valeurs culturelles occidentales dominantes (c.-à-d., rehaussement de soi) du superviseur augmente. Dans leur ensemble, ces résultats soulignent la nécessité d'étudier les buts dans leur plenum social, autrement dit, en adoptant une perspective interpersonnelle (c.-à-d., étudier les effets des buts entre les individus), positionnelle (c.-à-d., entre des individus de différentes positions sociales), et idéologique (c.- à-d., entre des individus se conformant à des normes spécifiques et adhérant à des valeurs spécifiques). -- Although competence-relevant activities (e.g., solving an academic problem) are often embedded in interpersonal (e.g., classroom), hierarchical (e.g., teacher/pupils), and norm-/value-specific (e.g., culture) settings, the study of performance goals-the desire to demonstrate competence relative to others-has mostly been conducted at the intrapersonal level alone. Drawing on the transactional model of stress and coping, the circumplex model of interpersonal behaviors, as well as on the conflict elaboration theory, the first part of this thesis reveals the interpersonal consequences of performance goals on the regulation of a specific behavior, namely socio-cognitive conflict (i.e., a situation of confrontation with a disagreeing interactant): Performance-approach goals-the desire to outperform others- predicted a highly agentic (dominant) conflict regulation, that is, the validation of one's point of view at the expense of that of the interactant (which we labeled competitive regulation); whereas performance-avoidance goals-the desire not to be outperformed by others- predicted a poorly agentic (submissive) conflict regulation, that is, the invalidation of one's point of view to the benefit of that of the interactant (which we labeled protective regulation). Furthermore, both the aforementioned effects were found to increase when the interactant was presented as being superiorly (vs. equally) in competence. Drawing on the literature on group goal structure, as well as on research on socialization of supervisors-based values, the second part of this thesis reveals the interpersonal antecedents of performance-based goals endorsement, focusing-more specifically-on the role of group-supervisors in performance goals socialization: Supervisor's performance-approach goals were positively associated with the emergence over time of subordinates' performance-approach (especially when perceiving themselves as competent) and -avoidance goals (especially when perceiving themselves as incompetent). Furthermore, providing evidence that this phenomenon essentially reflects a socialization process, both the aforementioned effects were found to increase as subordinates' in-group identification increased, and as supervisors' adherence to dominant Western values (i.e., self-enhancement values) increased. Taken together, these results advocate the need to study performance goals in their social plenum, that is, adopting an interpersonal (i.e., studying the effects of goals between individuals), positional (i.e., between individuals from different social positions), and ideological (i.e., between individuals following specific norms and endorsing specific values) perspective.
Resumo:
Summary In his theory On the Origin of Species by Means of Natural Selection (1859), Darwin describes evolution as a gradual change in population over time and that natural selection is a process that caused evolution. Because quantitative variation in species is partly influenced by several genes and thus heritable, association between levels of genetic variation at neutral markers and at quantitative traits and their partitioning within and among populations are important to study mechanisms that drive evolution in populations. Most studies addressing quantitative variation in plants focused on morphological and life history traits but not in traits affecting reproductive success. The aim of this thesis is to better understand how patterns of variation for neutral molecular markers and phenotypic traits drive the evolution of reproduction and defensive mechanisms in six European populations of Silene latifolia, a dioecious plant species. We found evidence for extremely high within and between population variation at six microsatellite loci and at most quantitative traits studied in plants grown under standardized conditions (morphology, life history and reproductive traits). Interestingly, there was clinal variation between age at first flowering and latitude. This pattern is likely due to natural selection since differentiation of this trait was high, heritable and probably higher than differentiation at neutral markers. Our study focused on sex specific selective pressures: mechanisms of intersexual coadaptation and defence mechanism against the seed predator Hadena bicruris. To address divergence at reproductive traits, we studied male and female population of origin effects and in particular pollen competitive ability on male post-pollination success in the study populations with within and between populations crosses. We crossed the same female plant with pollen from a male within the same population of origin and pollen from two males from two distinct populations, using a fixed tester male as a competitor. Additionally, we conducted control crosses with pollen from each male as a single donor. We analysed paternity success of each competitor with two microsatellite loci, seed set and offspring fitness. Male population of origin showed significant among-population variation for siring success at pollen competition. In vitro pollen germination rate showed heritable variation among populations and was positively correlated to siring success. Local or foreign pollen did not have a consistent advantage. Furthermore, female population of origin affected the outcome of pollen competition in some populations. There was no difference of seed set or offspring fitness in within/ between population crosses. This suggests that reproductive divergence may occur via pollen competition in Silene latifolia. The specialist seed predator Hadena bicruris may also induce divergence between populations. We tested potential constitutive and induced defence mechanisms against the specialist predator Hadena bicruris. Because fruit wall thickness is smaller in the invasive range (Northern America) were the moth is absent, this suggests that a thicker fruit wall is a potentially defensive trait against larval attack, and that relaxed selection in the absence of the seed predator has resulted in an evolutionary loss of this defence in the invasive range. Fruit wall thickness was different among three populations. Experimental exposure to moth eggs increased fruit abortion. Fruits built after attack on exposed plants did not have thicker fruit walls compared to fruits on non-exposed plants. Furthermore, fruits with thicker fruit walls were not less profitable, nor did they require longer handling time when exposed to larvae, suggesting no defensive role of fruit wall thickness. Our results show that there is high molecular and phenotypic variation in Silene latifolia and that traits potentially involved in reproductive success both for intra-specific (between sexes) and inter-specific interactions are heritable. Different selective forces may thus interact and cause differential evolution of geographically separated Silene latifolia populations in Europe, leading to the observed differentiation. Résumé Dans sa théorie de l'évolution, L'origine des espèces, ch. 4 (1859), Darwin décrit l'évolution comme un processus continu au cours du temps à l'intérieur de populations et que la sélection naturelle en est le moteur. La variation quantitative est en partie déterminée par plusieurs gènes, donc transmissible à la descendance. Associer le niveau de variation génétique à des marqueurs neutres au niveau de la variation à des traits quantitatifs, ainsi que la répartition à l'intérieur et entre les populations d'une espèce donnée de cette variation, sont importants dans la compréhension des forces évolutives. La plupart des études scientifiques sur la variation quantitative chez les plantes se sont intéressées à la morphologie et à la phénologie mais pas aux caractères impliqués dans le succès reproducteur. L'objectif de cette thèse est de mieux comprendre comment la répartition de la variation à des marqueurs neutres et des caractères quantitatifs influence l'évolution de la reproduction et des mécanismes de défense dans six populations Européennes de l'espèce dioïque Silene latifolia. Nous avons mis en évidence une grande diversité intra et inter-population à six loci microsatellites ainsi qu'à la plupart des caractères quantitatifs mesurés (morphologie, phénologie et traits reproducteurs) sur des plantes cultivées dans des conditions standardisées. Un résultat intéressant est la présence d'un cline latitudinal pour l'âge à la floraison. Ceci est probablement une conséquence de la sélection naturelle, puisque ce caractère est différencié entre les populations étudiées, héritable et que la différenciation de ce trait est supérieure à la différenciation des marqueurs neutres étudiés. Notre étude a ensuite porté plus précisément sur les pressions de sélection spécifiques aux sexes : la coadaptation entre les sexes et les mécanismes de défense contre l'insecte granivore Hadena bicruris. Afin d'évaluer la divergence sur les traits reproducteurs, nous avons étudié les effets des populations d'origine des mâles et des femelles et en particulier le succès reproducteur des mâles après pollinisation à l'aide de croisements inter et intra-population. Nous avons pollinisé la même femelle avec du pollen provenant d'un mâle de la même population ainsi qu'avec le pollen de deux mâles provenant de deux autres populations en situation de compétition avec un pollen provenant d'une population test. Des croisements contrôle ont été réalisés avec les mêmes mâles en pollinisation pure. Nous avons évalué le succès reproducteur de chaque mâle à l'aide d'analyses de paternité ainsi que la production de graines et la fitness de la descendance. L'origine du mâle avait un effet sur la paternité. Le taux de croissance in vitro du pollen est un caractère héritable et a eu un effet positif sur le succès reproducteur. De plus, l'origine de la femelle avait un effet sur le succès des mâles en compétition dans certaines populations. Nos résultats suggèrent qu'une divergence reproductive chez Silene latifolia pourrait apparaître suite à la compétition pollinique. Nous avons ensuite testé des mécanismes potentiels de défense constitutive et induite contre l'herbivore spécialiste Hadena bicruris, un papillon nocturne qui pourrait aussi jouer un rôle dans la différenciation des populations. L'épaisseur des fruits étant plus faible dans les régions où la plante est invasive (Amérique du Nord) et où l'insecte est absent, ce trait pourrait jouer un rôle défensif. Une pression de sélection plus faible causée par l'absence de l'herbivore aurait abouti à une perte de cette défense dans ces régions. Nous avons montré que l'épaisseur du fruit est variable selon les populations. L'infestation artificielle de fruit par l'insecte induit l'abscission sélective des fruits. Les fruits produits après une infestation n'étaient pas plus épais que les fruits issus de plantes non infestées. De plus, les fruits épais n'étaient pas moins nutritifs et ne causaient pas de perte de temps pour la prédation pour les larves, ce qui suggère que l'épaisseur des fruits ne joue pas un rôle défensif. Nos résultats montrent que plusieurs pressions de sélection interviennent et interagissent dans l'évolution de populations distantes, provoquant la divergence des populations Européennes de l'espèce Silene latifolia.
Resumo:
To translate the Kinder- und Hausmärchen into French is to confront the spectre of Charles Perrault and his Histoires ou contes du temps passé. Avec des moralités, which have haunted the fairy-tale genre in France since the end of the 17th century. Celebrated for their alleged simplicity and naivety by literary critics and folklorists, Perrault's "contes" have become the paragon of a genre against which fairytales translated into French are implicitly? measured. On the one hand, Perrault has come to play an integrating role, linking foreign texts to the French literary heritage and thereby facilitating their reception. On the other hand, he is simultaneously used as a contrast, to emphasise the originality of foreign authors and emphasise cultural differences. Drawing on contemporary and 19th century examples emphasising the influence of the Histoires ou contes du temps passé on French translations of the KHM, I will show that the Grimms' fairy-tales are translated less in the "tongue of Molière" than in the "tongue of Perrault".
Resumo:
Résumé Fondement : le développement de solutions d'hydroxy-éthyl-amidons (HEAS) avec peu d'impact sur la coagulation sanguine, mais un effet supérieur sur la volémie, par comparaison aux HEAS couramment utilisés, est d'un grand intérêt clinique. Nous posons l'hypothèse que des solutions de haut poids moléculaire et de bas degré de substitution possèdent ces caractéristiques. Méthode : trente porcs ont été perfusés avec trois HEAS différents (20 ml/kg) de même degré de substitution (0.42) mais de poids moléculaire différent (130, 500 et 900 kDa). Une série de prélèvements sanguins ont été effectués sur 24 heures, sur lesquels des analyses de coagulation sanguine étaient effectuées par thromboélastographie et dosages plasmatiques. De plus, la concentration plasmatique ainsi que le poids moléculaire in vivo ont été déterminés, ainsi que des paramètres de pharmacocinétiques, ceci en se basant sur un modèle bi-compartimental. Résultats : les analyses de thromboélastographie et les tests de coagulation plasmatique n'ont pas démontré d'altération plus marquée de la coagulation sanguine après l'utilisation des solutions des HAES 500 et HAES 900, par comparaison avec celle de HAES 130. Par contre, les HAES 500 et HAES 900 ont présenté une plus grande aire sous la courbe (area under the curve), dans la relation concentration en fonction du temps [1542 (142) g min litre-1, p<0.001, 1701 (321) g min litre-1, p<0.001] par rapport au HAES 130 [1156 (223) g min litre-1]. La demi-vie alpha (t ½α) était plus longue pour les HAES 500 [53.8 (8.6) min, p<0.01] et HAES 900 [57.1 (12.3) min, p<0.01 ]que pour le HAES 130 [39.9 (10.7) min]. La demi-vie beta (t½β) était par contre similaire pour les trois types de HAES [de 332 (100) à 381 (63) min]. Conclusions : pour les HAES de bas degré de substitution, le poids moléculaire n'est pas un facteur clé en ce qui concerne l'altération de la coagulation. La persistance intravasculaire initialement plus longue des HAES de haut poids moléculaire et bas degré de substitution pourrait résulter dans un plus long effet volémique de ces substances. Abstract Background: The development of hydroxyethyl starches (HES) with low impact on blood coagulation but higher volume effect compared with the currently used HES solutions is of clinical interest. We hypothesized that high molecular weight, low-substituted HES might possess these properties. Methods: Thirty pigs were infused with three different HES solutions (20 ml kg-1) with the same degree of molar substitution (0.42) but different molecular weights (130, 500 and 900 kDa). Serial blood samples were taken over 24 h and blood coagulation was assessed by Thromboelastograph® analysis and analysis of plasma coagulation. In addition, plasma concentration and in vivo molecular weight were determined and pharmacokinetic data were computed based on a two-compartment model. Results: Thromboelastograph analysis and plasma coagulation tests did not reveal a more pronounced alteration of blood coagulation with HES 500 and HES 900 compared with HES 130. In contrast, HES 500 and HES 900 had a greater area under the plasma concentration-time curve [1542 (142) g min litre-1, P<0.001, 1701 (321) g min litre-1, P<0.001] than HES 130 [I 156 (223) g min litre-1] and alpha half life (t ½α) was longer for HES 500 [53.8 (8.6) min, P<0.01 ] and HES 900 [57. I (I 2.3) min, P<0.01 ] than for HES 130 [39.9 (I 0.7) min]. Beta half life (t½β), however, was similar for all three types of HES [from 332 (100) to 381 (63) min]. Conclusions. In low-substituted HES, molecular weight is not a key factor in compromising blood coagulation. The longer initial intravascular persistence of high molecular weight lowsubstituted HES might result in a longer lasting volume effect.
Resumo:
Dieser Beitrag geht davon aus, dass eine neue Gattung in anderen europäischen Sprachen und Kulturen bereits vorhandene Gattungsformen ,"(re)konfiguriert", um sie der eigenen Sprache und Kultur anzupassen und neue Aussageformen zu schaffen. Dieser Prozess wird am Beispiel der europäischen Märchen aufgezeigt, die der hier formulierten Hypothese nach weder Erzeugnisse einer Universalgattung noch nationaler Folklore sind, sondern komplexe ,"Rekonfigurationen" lateinischer, italienischen und französischer Gattungsformen. Am Beispiel der Histoires ou contes du temps passé, avec des Moralités von 1697 wird gezeigt, wie Charles Perrault mit einer neuartigen ,"Szenographie" das zum Gattungsparadigma gewordene Psyche-Märchen von Apuleius ,"rekonfiguiert". An die Stelle des erzählenden Esels Lucius, der vorgibt, Psyches Geschichte von der alten Magd einer Räuberbande gehört zu haben, setzt Perrault seinen Sohn, Pierre Darmancour, und schafft mit einer pseudo-naiven Szenographie eine neue Gattung, die von den Brüdern Grimm und deren ,"Beiträgerinnen" hugenottischer Herkunft zum Kinder- und Hausmärchen umgearbeitet wird.
Resumo:
Les instabilités engendrées par des gradients de densité interviennent dans une variété d'écoulements. Un exemple est celui de la séquestration géologique du dioxyde de carbone en milieux poreux. Ce gaz est injecté à haute pression dans des aquifères salines et profondes. La différence de densité entre la saumure saturée en CO2 dissous et la saumure environnante induit des courants favorables qui le transportent vers les couches géologiques profondes. Les gradients de densité peuvent aussi être la cause du transport indésirable de matières toxiques, ce qui peut éventuellement conduire à la pollution des sols et des eaux. La gamme d'échelles intervenant dans ce type de phénomènes est très large. Elle s'étend de l'échelle poreuse où les phénomènes de croissance des instabilités s'opèrent, jusqu'à l'échelle des aquifères à laquelle interviennent les phénomènes à temps long. Une reproduction fiable de la physique par la simulation numérique demeure donc un défi en raison du caractère multi-échelles aussi bien au niveau spatial et temporel de ces phénomènes. Il requiert donc le développement d'algorithmes performants et l'utilisation d'outils de calculs modernes. En conjugaison avec les méthodes de résolution itératives, les méthodes multi-échelles permettent de résoudre les grands systèmes d'équations algébriques de manière efficace. Ces méthodes ont été introduites comme méthodes d'upscaling et de downscaling pour la simulation d'écoulements en milieux poreux afin de traiter de fortes hétérogénéités du champ de perméabilité. Le principe repose sur l'utilisation parallèle de deux maillages, le premier est choisi en fonction de la résolution du champ de perméabilité (grille fine), alors que le second (grille grossière) est utilisé pour approximer le problème fin à moindre coût. La qualité de la solution multi-échelles peut être améliorée de manière itérative pour empêcher des erreurs trop importantes si le champ de perméabilité est complexe. Les méthodes adaptatives qui restreignent les procédures de mise à jour aux régions à forts gradients permettent de limiter les coûts de calculs additionnels. Dans le cas d'instabilités induites par des gradients de densité, l'échelle des phénomènes varie au cours du temps. En conséquence, des méthodes multi-échelles adaptatives sont requises pour tenir compte de cette dynamique. L'objectif de cette thèse est de développer des algorithmes multi-échelles adaptatifs et efficaces pour la simulation des instabilités induites par des gradients de densité. Pour cela, nous nous basons sur la méthode des volumes finis multi-échelles (MsFV) qui offre l'avantage de résoudre les phénomènes de transport tout en conservant la masse de manière exacte. Dans la première partie, nous pouvons démontrer que les approximations de la méthode MsFV engendrent des phénomènes de digitation non-physiques dont la suppression requiert des opérations de correction itératives. Les coûts de calculs additionnels de ces opérations peuvent toutefois être compensés par des méthodes adaptatives. Nous proposons aussi l'utilisation de la méthode MsFV comme méthode de downscaling: la grille grossière étant utilisée dans les zones où l'écoulement est relativement homogène alors que la grille plus fine est utilisée pour résoudre les forts gradients. Dans la seconde partie, la méthode multi-échelle est étendue à un nombre arbitraire de niveaux. Nous prouvons que la méthode généralisée est performante pour la résolution de grands systèmes d'équations algébriques. Dans la dernière partie, nous focalisons notre étude sur les échelles qui déterminent l'évolution des instabilités engendrées par des gradients de densité. L'identification de la structure locale ainsi que globale de l'écoulement permet de procéder à un upscaling des instabilités à temps long alors que les structures à petite échelle sont conservées lors du déclenchement de l'instabilité. Les résultats présentés dans ce travail permettent d'étendre les connaissances des méthodes MsFV et offrent des formulations multi-échelles efficaces pour la simulation des instabilités engendrées par des gradients de densité. - Density-driven instabilities in porous media are of interest for a wide range of applications, for instance, for geological sequestration of CO2, during which CO2 is injected at high pressure into deep saline aquifers. Due to the density difference between the C02-saturated brine and the surrounding brine, a downward migration of CO2 into deeper regions, where the risk of leakage is reduced, takes place. Similarly, undesired spontaneous mobilization of potentially hazardous substances that might endanger groundwater quality can be triggered by density differences. Over the last years, these effects have been investigated with the help of numerical groundwater models. Major challenges in simulating density-driven instabilities arise from the different scales of interest involved, i.e., the scale at which instabilities are triggered and the aquifer scale over which long-term processes take place. An accurate numerical reproduction is possible, only if the finest scale is captured. For large aquifers, this leads to problems with a large number of unknowns. Advanced numerical methods are required to efficiently solve these problems with today's available computational resources. Beside efficient iterative solvers, multiscale methods are available to solve large numerical systems. Originally, multiscale methods have been developed as upscaling-downscaling techniques to resolve strong permeability contrasts. In this case, two static grids are used: one is chosen with respect to the resolution of the permeability field (fine grid); the other (coarse grid) is used to approximate the fine-scale problem at low computational costs. The quality of the multiscale solution can be iteratively improved to avoid large errors in case of complex permeability structures. Adaptive formulations, which restrict the iterative update to domains with large gradients, enable limiting the additional computational costs of the iterations. In case of density-driven instabilities, additional spatial scales appear which change with time. Flexible adaptive methods are required to account for these emerging dynamic scales. The objective of this work is to develop an adaptive multiscale formulation for the efficient and accurate simulation of density-driven instabilities. We consider the Multiscale Finite-Volume (MsFV) method, which is well suited for simulations including the solution of transport problems as it guarantees a conservative velocity field. In the first part of this thesis, we investigate the applicability of the standard MsFV method to density- driven flow problems. We demonstrate that approximations in MsFV may trigger unphysical fingers and iterative corrections are necessary. Adaptive formulations (e.g., limiting a refined solution to domains with large concentration gradients where fingers form) can be used to balance the extra costs. We also propose to use the MsFV method as downscaling technique: the coarse discretization is used in areas without significant change in the flow field whereas the problem is refined in the zones of interest. This enables accounting for the dynamic change in scales of density-driven instabilities. In the second part of the thesis the MsFV algorithm, which originally employs one coarse level, is extended to an arbitrary number of coarse levels. We prove that this keeps the MsFV method efficient for problems with a large number of unknowns. In the last part of this thesis, we focus on the scales that control the evolution of density fingers. The identification of local and global flow patterns allows a coarse description at late times while conserving fine-scale details during onset stage. Results presented in this work advance the understanding of the Multiscale Finite-Volume method and offer efficient dynamic multiscale formulations to simulate density-driven instabilities. - Les nappes phréatiques caractérisées par des structures poreuses et des fractures très perméables représentent un intérêt particulier pour les hydrogéologues et ingénieurs environnementaux. Dans ces milieux, une large variété d'écoulements peut être observée. Les plus communs sont le transport de contaminants par les eaux souterraines, le transport réactif ou l'écoulement simultané de plusieurs phases non miscibles, comme le pétrole et l'eau. L'échelle qui caractérise ces écoulements est définie par l'interaction de l'hétérogénéité géologique et des processus physiques. Un fluide au repos dans l'espace interstitiel d'un milieu poreux peut être déstabilisé par des gradients de densité. Ils peuvent être induits par des changements locaux de température ou par dissolution d'un composé chimique. Les instabilités engendrées par des gradients de densité revêtent un intérêt particulier puisque qu'elles peuvent éventuellement compromettre la qualité des eaux. Un exemple frappant est la salinisation de l'eau douce dans les nappes phréatiques par pénétration d'eau salée plus dense dans les régions profondes. Dans le cas des écoulements gouvernés par les gradients de densité, les échelles caractéristiques de l'écoulement s'étendent de l'échelle poreuse où les phénomènes de croissance des instabilités s'opèrent, jusqu'à l'échelle des aquifères sur laquelle interviennent les phénomènes à temps long. Etant donné que les investigations in-situ sont pratiquement impossibles, les modèles numériques sont utilisés pour prédire et évaluer les risques liés aux instabilités engendrées par les gradients de densité. Une description correcte de ces phénomènes repose sur la description de toutes les échelles de l'écoulement dont la gamme peut s'étendre sur huit à dix ordres de grandeur dans le cas de grands aquifères. Il en résulte des problèmes numériques de grande taille qui sont très couteux à résoudre. Des schémas numériques sophistiqués sont donc nécessaires pour effectuer des simulations précises d'instabilités hydro-dynamiques à grande échelle. Dans ce travail, nous présentons différentes méthodes numériques qui permettent de simuler efficacement et avec précision les instabilités dues aux gradients de densité. Ces nouvelles méthodes sont basées sur les volumes finis multi-échelles. L'idée est de projeter le problème original à une échelle plus grande où il est moins coûteux à résoudre puis de relever la solution grossière vers l'échelle de départ. Cette technique est particulièrement adaptée pour résoudre des problèmes où une large gamme d'échelle intervient et évolue de manière spatio-temporelle. Ceci permet de réduire les coûts de calculs en limitant la description détaillée du problème aux régions qui contiennent un front de concentration mobile. Les aboutissements sont illustrés par la simulation de phénomènes tels que l'intrusion d'eau salée ou la séquestration de dioxyde de carbone.
Resumo:
Ces dernières années, de nombreuses recherches ont mis en évidence les effets toxiques des micropolluants organiques pour les espèces de nos lacs et rivières. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, alors que les organismes sont exposés tous les jours à des milliers de substances en mélange. Or les effets de ces cocktails ne sont pas négligeables. Cette thèse de doctorat s'est ainsi intéressée aux modèles permettant de prédire le risque environnemental de ces cocktails pour le milieu aquatique. Le principal objectif a été d'évaluer le risque écologique des mélanges de substances chimiques mesurées dans le Léman, mais aussi d'apporter un regard critique sur les méthodologies utilisées afin de proposer certaines adaptations pour une meilleure estimation du risque. Dans la première partie de ce travail, le risque des mélanges de pesticides et médicaments pour le Rhône et pour le Léman a été établi en utilisant des approches envisagées notamment dans la législation européenne. Il s'agit d'approches de « screening », c'est-à-dire permettant une évaluation générale du risque des mélanges. Une telle approche permet de mettre en évidence les substances les plus problématiques, c'est-à-dire contribuant le plus à la toxicité du mélange. Dans notre cas, il s'agit essentiellement de 4 pesticides. L'étude met également en évidence que toutes les substances, même en trace infime, contribuent à l'effet du mélange. Cette constatation a des implications en terme de gestion de l'environnement. En effet, ceci implique qu'il faut réduire toutes les sources de polluants, et pas seulement les plus problématiques. Mais l'approche proposée présente également un biais important au niveau conceptuel, ce qui rend son utilisation discutable, en dehors d'un screening, et nécessiterait une adaptation au niveau des facteurs de sécurité employés. Dans une deuxième partie, l'étude s'est portée sur l'utilisation des modèles de mélanges dans le calcul de risque environnemental. En effet, les modèles de mélanges ont été développés et validés espèce par espèce, et non pour une évaluation sur l'écosystème en entier. Leur utilisation devrait donc passer par un calcul par espèce, ce qui est rarement fait dû au manque de données écotoxicologiques à disposition. Le but a été donc de comparer, avec des valeurs générées aléatoirement, le calcul de risque effectué selon une méthode rigoureuse, espèce par espèce, avec celui effectué classiquement où les modèles sont appliqués sur l'ensemble de la communauté sans tenir compte des variations inter-espèces. Les résultats sont dans la majorité des cas similaires, ce qui valide l'approche utilisée traditionnellement. En revanche, ce travail a permis de déterminer certains cas où l'application classique peut conduire à une sous- ou sur-estimation du risque. Enfin, une dernière partie de cette thèse s'est intéressée à l'influence que les cocktails de micropolluants ont pu avoir sur les communautés in situ. Pour ce faire, une approche en deux temps a été adoptée. Tout d'abord la toxicité de quatorze herbicides détectés dans le Léman a été déterminée. Sur la période étudiée, de 2004 à 2009, cette toxicité due aux herbicides a diminué, passant de 4% d'espèces affectées à moins de 1%. Ensuite, la question était de savoir si cette diminution de toxicité avait un impact sur le développement de certaines espèces au sein de la communauté des algues. Pour ce faire, l'utilisation statistique a permis d'isoler d'autres facteurs pouvant avoir une influence sur la flore, comme la température de l'eau ou la présence de phosphates, et ainsi de constater quelles espèces se sont révélées avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps. Fait intéressant, une partie d'entre-elles avait déjà montré des comportements similaires dans des études en mésocosmes. En conclusion, ce travail montre qu'il existe des modèles robustes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques, et qu'ils peuvent être utilisés pour expliquer le rôle des substances dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application. - Depuis plusieurs années, les risques que posent les micropolluants organiques pour le milieu aquatique préoccupent grandement les scientifiques ainsi que notre société. En effet, de nombreuses recherches ont mis en évidence les effets toxiques que peuvent avoir ces substances chimiques sur les espèces de nos lacs et rivières, quand elles se retrouvent exposées à des concentrations aiguës ou chroniques. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, c'est à dire considérées séparément. Actuellement, il en est de même dans les procédures de régulation européennes, concernant la partie évaluation du risque pour l'environnement d'une substance. Or, les organismes sont exposés tous les jours à des milliers de substances en mélange, et les effets de ces "cocktails" ne sont pas négligeables. L'évaluation du risque écologique que pose ces mélanges de substances doit donc être abordé par de la manière la plus appropriée et la plus fiable possible. Dans la première partie de cette thèse, nous nous sommes intéressés aux méthodes actuellement envisagées à être intégrées dans les législations européennes pour l'évaluation du risque des mélanges pour le milieu aquatique. Ces méthodes sont basées sur le modèle d'addition des concentrations, avec l'utilisation des valeurs de concentrations des substances estimées sans effet dans le milieu (PNEC), ou à partir des valeurs des concentrations d'effet (CE50) sur certaines espèces d'un niveau trophique avec la prise en compte de facteurs de sécurité. Nous avons appliqué ces méthodes à deux cas spécifiques, le lac Léman et le Rhône situés en Suisse, et discuté les résultats de ces applications. Ces premières étapes d'évaluation ont montré que le risque des mélanges pour ces cas d'étude atteint rapidement une valeur au dessus d'un seuil critique. Cette valeur atteinte est généralement due à deux ou trois substances principales. Les procédures proposées permettent donc d'identifier les substances les plus problématiques pour lesquelles des mesures de gestion, telles que la réduction de leur entrée dans le milieu aquatique, devraient être envisagées. Cependant, nous avons également constaté que le niveau de risque associé à ces mélanges de substances n'est pas négligeable, même sans tenir compte de ces substances principales. En effet, l'accumulation des substances, même en traces infimes, atteint un seuil critique, ce qui devient plus difficile en terme de gestion du risque. En outre, nous avons souligné un manque de fiabilité dans ces procédures, qui peuvent conduire à des résultats contradictoires en terme de risque. Ceci est lié à l'incompatibilité des facteurs de sécurité utilisés dans les différentes méthodes. Dans la deuxième partie de la thèse, nous avons étudié la fiabilité de méthodes plus avancées dans la prédiction de l'effet des mélanges pour les communautés évoluant dans le système aquatique. Ces méthodes reposent sur le modèle d'addition des concentrations (CA) ou d'addition des réponses (RA) appliqués sur les courbes de distribution de la sensibilité des espèces (SSD) aux substances. En effet, les modèles de mélanges ont été développés et validés pour être appliqués espèce par espèce, et non pas sur plusieurs espèces agrégées simultanément dans les courbes SSD. Nous avons ainsi proposé une procédure plus rigoureuse, pour l'évaluation du risque d'un mélange, qui serait d'appliquer d'abord les modèles CA ou RA à chaque espèce séparément, et, dans une deuxième étape, combiner les résultats afin d'établir une courbe SSD du mélange. Malheureusement, cette méthode n'est pas applicable dans la plupart des cas, car elle nécessite trop de données généralement indisponibles. Par conséquent, nous avons comparé, avec des valeurs générées aléatoirement, le calcul de risque effectué selon cette méthode plus rigoureuse, avec celle effectuée traditionnellement, afin de caractériser la robustesse de cette approche qui consiste à appliquer les modèles de mélange sur les courbes SSD. Nos résultats ont montré que l'utilisation de CA directement sur les SSDs peut conduire à une sous-estimation de la concentration du mélange affectant 5 % ou 50% des espèces, en particulier lorsque les substances présentent un grand écart- type dans leur distribution de la sensibilité des espèces. L'application du modèle RA peut quant à lui conduire à une sur- ou sous-estimations, principalement en fonction de la pente des courbes dose- réponse de chaque espèce composant les SSDs. La sous-estimation avec RA devient potentiellement importante lorsque le rapport entre la EC50 et la EC10 de la courbe dose-réponse des espèces est plus petit que 100. Toutefois, la plupart des substances, selon des cas réels, présentent des données d' écotoxicité qui font que le risque du mélange calculé par la méthode des modèles appliqués directement sur les SSDs reste cohérent et surestimerait plutôt légèrement le risque. Ces résultats valident ainsi l'approche utilisée traditionnellement. Néanmoins, il faut garder à l'esprit cette source d'erreur lorsqu'on procède à une évaluation du risque d'un mélange avec cette méthode traditionnelle, en particulier quand les SSD présentent une distribution des données en dehors des limites déterminées dans cette étude. Enfin, dans la dernière partie de cette thèse, nous avons confronté des prédictions de l'effet de mélange avec des changements biologiques observés dans l'environnement. Dans cette étude, nous avons utilisé des données venant d'un suivi à long terme d'un grand lac européen, le lac Léman, ce qui offrait la possibilité d'évaluer dans quelle mesure la prédiction de la toxicité des mélanges d'herbicide expliquait les changements dans la composition de la communauté phytoplanctonique. Ceci à côté d'autres paramètres classiques de limnologie tels que les nutriments. Pour atteindre cet objectif, nous avons déterminé la toxicité des mélanges sur plusieurs années de 14 herbicides régulièrement détectés dans le lac, en utilisant les modèles CA et RA avec les courbes de distribution de la sensibilité des espèces. Un gradient temporel de toxicité décroissant a pu être constaté de 2004 à 2009. Une analyse de redondance et de redondance partielle, a montré que ce gradient explique une partie significative de la variation de la composition de la communauté phytoplanctonique, même après avoir enlevé l'effet de toutes les autres co-variables. De plus, certaines espèces révélées pour avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps, ont montré des comportements similaires dans des études en mésocosmes. On peut en conclure que la toxicité du mélange herbicide est l'un des paramètres clés pour expliquer les changements de phytoplancton dans le lac Léman. En conclusion, il existe diverses méthodes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques et celui-ci peut jouer un rôle dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application, avant d'utiliser leurs résultats pour la gestion des risques environnementaux. - For several years now, the scientists as well as the society is concerned by the aquatic risk organic micropollutants may pose. Indeed, several researches have shown the toxic effects these substances may induce on organisms living in our lakes or rivers, especially when they are exposed to acute or chronic concentrations. However, most of the studies focused on the toxicity of single compounds, i.e. considered individually. The same also goes in the current European regulations concerning the risk assessment procedures for the environment of these substances. But aquatic organisms are typically exposed every day simultaneously to thousands of organic compounds. The toxic effects resulting of these "cocktails" cannot be neglected. The ecological risk assessment of mixtures of such compounds has therefore to be addressed by scientists in the most reliable and appropriate way. In the first part of this thesis, the procedures currently envisioned for the aquatic mixture risk assessment in European legislations are described. These methodologies are based on the mixture model of concentration addition and the use of the predicted no effect concentrations (PNEC) or effect concentrations (EC50) with assessment factors. These principal approaches were applied to two specific case studies, Lake Geneva and the River Rhône in Switzerland, including a discussion of the outcomes of such applications. These first level assessments showed that the mixture risks for these studied cases exceeded rapidly the critical value. This exceeding is generally due to two or three main substances. The proposed procedures allow therefore the identification of the most problematic substances for which management measures, such as a reduction of the entrance to the aquatic environment, should be envisioned. However, it was also showed that the risk levels associated with mixtures of compounds are not negligible, even without considering these main substances. Indeed, it is the sum of the substances that is problematic, which is more challenging in term of risk management. Moreover, a lack of reliability in the procedures was highlighted, which can lead to contradictory results in terms of risk. This result is linked to the inconsistency in the assessment factors applied in the different methods. In the second part of the thesis, the reliability of the more advanced procedures to predict the mixture effect to communities in the aquatic system were investigated. These established methodologies combine the model of concentration addition (CA) or response addition (RA) with species sensitivity distribution curves (SSD). Indeed, the mixture effect predictions were shown to be consistent only when the mixture models are applied on a single species, and not on several species simultaneously aggregated to SSDs. Hence, A more stringent procedure for mixture risk assessment is proposed, that would be to apply first the CA or RA models to each species separately and, in a second step, to combine the results to build an SSD for a mixture. Unfortunately, this methodology is not applicable in most cases, because it requires large data sets usually not available. Therefore, the differences between the two methodologies were studied with datasets created artificially to characterize the robustness of the traditional approach applying models on species sensitivity distribution. The results showed that the use of CA on SSD directly might lead to underestimations of the mixture concentration affecting 5% or 50% of species, especially when substances present a large standard deviation of the distribution from the sensitivity of the species. The application of RA can lead to over- or underestimates, depending mainly on the slope of the dose-response curves of the individual species. The potential underestimation with RA becomes important when the ratio between the EC50 and the EC10 for the dose-response curve of the species composing the SSD are smaller than 100. However, considering common real cases of ecotoxicity data for substances, the mixture risk calculated by the methodology applying mixture models directly on SSDs remains consistent and would rather slightly overestimate the risk. These results can be used as a theoretical validation of the currently applied methodology. Nevertheless, when assessing the risk of mixtures, one has to keep in mind this source of error with this classical methodology, especially when SSDs present a distribution of the data outside the range determined in this study Finally, in the last part of this thesis, we confronted the mixture effect predictions with biological changes observed in the environment. In this study, long-term monitoring of a European great lake, Lake Geneva, provides the opportunity to assess to what extent the predicted toxicity of herbicide mixtures explains the changes in the composition of the phytoplankton community next to other classical limnology parameters such as nutrients. To reach this goal, the gradient of the mixture toxicity of 14 herbicides regularly detected in the lake was calculated, using concentration addition and response addition models. A decreasing temporal gradient of toxicity was observed from 2004 to 2009. Redundancy analysis and partial redundancy analysis showed that this gradient explains a significant portion of the variation in phytoplankton community composition, even when having removed the effect of all other co-variables. Moreover, some species that were revealed to be influenced positively or negatively, by the decrease of toxicity in the lake over time, showed similar behaviors in mesocosms studies. It could be concluded that the herbicide mixture toxicity is one of the key parameters to explain phytoplankton changes in Lake Geneva. To conclude, different methods exist to predict the risk of mixture in the ecosystems. But their reliability varies depending on the underlying hypotheses. One should therefore carefully consider these hypotheses, as well as the limits of the approaches, before using the results for environmental risk management