999 resultados para Minimal hypotheses semantics
Resumo:
We study the problem of the partition of a system of initial size V into a sequence of fragments s1,s2,s3 . . . . By assuming a scaling hypothesis for the probability p(s;V) of obtaining a fragment of a given size, we deduce that the final distribution of fragment sizes exhibits power-law behavior. This minimal model is useful to understanding the distribution of avalanche sizes in first-order phase transitions at low temperatures.
Resumo:
We study the minimal class of exact solutions of the Saffman-Taylor problem with zero surface tension, which contains the physical fixed points of the regularized (nonzero surface tension) problem. New fixed points are found and the basin of attraction of the Saffman-Taylor finger is determined within that class. Specific features of the physics of finger competition are identified and quantitatively defined, which are absent in the zero surface tension case. This has dramatic consequences for the long-time asymptotics, revealing a fundamental role of surface tension in the dynamics of the problem. A multifinger extension of microscopic solvability theory is proposed to elucidate the interplay between finger widths, screening and surface tension.
Resumo:
This study was designed to check for the equivalence of the ZKPQ-50-CC (Spanish and French versions) through Internet on-line (OL) and paper and pencil (PP) answer format. Differences in means and devia- tions were significant in some scales, but effect sizes are minimal except for Sociability in the Spanish sample. Alpha reliabilities are also very similar in both versions with no significant differences between formats. A robust factorial structure was found for the two formats and the average congruency coefficients were 0.98. The goodness-of-fit indexes obtained by confirmatory factorial analysis are very similar to those obtained in the ZKPQ-50-CC validation study and they do not differ between the two formats. The multi-group analysis confirms the equivalence among the OL-PP formats in both countries. These results in general support the validity and reliability of the Internet as a method in investigations using the ZKPQ-50-CC.
Resumo:
Modeling concentration-response function became extremely popular in ecotoxicology during the last decade. Indeed, modeling allows determining the total response pattern of a given substance. However, reliable modeling is consuming in term of data, which is in contradiction with the current trend in ecotoxicology, which aims to reduce, for cost and ethical reasons, the number of data produced during an experiment. It is therefore crucial to determine experimental design in a cost-effective manner. In this paper, we propose to use the theory of locally D-optimal designs to determine the set of concentrations to be tested so that the parameters of the concentration-response function can be estimated with high precision. We illustrated this approach by determining the locally D-optimal designs to estimate the toxicity of the herbicide dinoseb on daphnids and algae. The results show that the number of concentrations to be tested is often equal to the number of parameters and often related to the their meaning, i.e. they are located close to the parameters. Furthermore, the results show that the locally D-optimal design often has the minimal number of support points and is not much sensitive to small changes in nominal values of the parameters. In order to reduce the experimental cost and the use of test organisms, especially in case of long-term studies, reliable nominal values may therefore be fixed based on prior knowledge and literature research instead of on preliminary experiments
Resumo:
Staphylococcus aureus experimental endocarditis relies on sequential fibrinogen binding (for valve colonization) and fibronectin binding (for endothelial invasion) conferred by peptidoglycan-attached adhesins. Fibronectin-binding protein A (FnBPA) reconciles these two properties--as well as elastin binding--and promotes experimental endocarditis by itself. Here we attempted to delineate the minimal subdomain of FnBPA responsible for fibrinogen and fibronectin binding, cell invasion, and in vivo endocarditis. A large library of truncated constructs of FnBPA was expressed in Lactococcus lactis and tested in vitro and in animals. A 127-amino-acid subdomain spanning the hinge of the FnBPA fibrinogen-binding and fibronectin-binding regions appeared necessary and sufficient to confer the sum of these properties. Competition with synthetic peptides could not delineate specific fibrinogen- and fibronectin-binding sites, suggesting that dual binding arose from protein folding, irrespective of clearly defined binding domains. Moreover, coexpressing the 127-amino-acid subdomain with remote domains of FnBPA further increased fibrinogen binding by > or =10 times, confirming the importance of domain interactions for binding efficacy. In animals, fibrinogen binding (but not fibronectin binding) was significantly associated with endocarditis induction, whereas both fibrinogen binding and fibronectin binding were associated with disease severity. Moreover, fibrinogen binding also combined with fibronectin binding to synergize the invasion of cultured cell lines significantly, a feature correlating with endocarditis severity. Thus, while fibrinogen binding and fibronectin binding were believed to act sequentially in colonization and invasion, they appeared unexpectedly intertwined in terms of both functional anatomy and pathogenicity (in endocarditis). This unforeseen FnBPA subtlety might bear importance for the development of antiadhesin strategies.
Resumo:
We evaluated microcalorimetry for real-time susceptibility testing of Aspergillus spp. based on growth-related heat production. The minimal heat inhibitory concentration (MHIC) for A. fumigatus ATCC 204305 was 1 mg/L for amphotericin B, 0.25 mg/L for voriconazole, 0.06 mg/L for posaconazole, 0.125 mg/L for caspofungin and 0.03 mg/L for anidulafungin. Agreement within two 2-fold dilutions between MHIC (determined by microcalorimetry) and MIC or MEC (determined by CLSI M38A) was 90% for amphotericin B, 100% for voriconazole, 90% for posaconazole and 70% for caspofungin. This proof-of-concept study demonstrated the potential of isothermal microcalorimetry for growth evaluation of Aspergillus spp. and real-time antifungal susceptibility testing.
Resumo:
Dans le contexte d'un climat de plus en plus chaud, une étude « géosystémique » de la répartition du pergélisol dans l'ensemble d'un versant périglaciaire alpin, de la paroi rocheuse jusqu'au glacier rocheux, s'avère primordiale. S'insérant dans cette problématique, ce travail de thèse vise comme objectif général l'étude des versants d'éboulis situés à l'intérieur de la ceinture du pergélisol discontinu selon deux volets de recherche différents : une étude de la stratigraphie et de la répartition du pergélisol dans les éboulis de haute altitude et des processus qui lui sont associés ; une reconstitution de l'histoire paléoenvironnementale du domaine périglaciaire alpin pendant le Tardiglaciaire et l'Holocène. La stratigraphie et la répartition spatiale du pergélisol a été étudiée dans cinq éboulis des Alpes Valaisannes (Suisse), dont trois ont fait l'objet de forages profonds, grâce à la prospection géophysique de détail effectuée à l'aide de méthodes thermiques, de résistivité, sismiques et nucléaires. Les mesures effectuées ont permis de mettre en évidence que, dans les cinq éboulis étudiés, la répartition du pergélisol est discontinue et aucun des versants n'est intégralement occupé par du pergélisol. En particulier, il a été possible de prouver de manière directe que, dans un éboulis, le pergélisol est présent dans les parties inférieures du versant et absent dans les parties supérieures. Trois facteurs de contrôle principaux de la répartition du pergélisol déterminée au sein des éboulis étudiés ont été individualisés, pouvant agir seuls ou de manière combinée : la ventilation ascendante, l'augmentation de la granulométrie en direction de l'aval et la redistribution de la neige par le vent et les avalanches. Parmi ceux-ci, la relation ventilation - granulométrie semble être le facteur de contrôle principal permettant d'expliquer la présence de pergélisol dans les parties inférieures d'un éboulis et son absence dans les parties supérieures. Enfin, l'analyse de la structure des éboulis périglaciaires de haute altitude a permis de montrer que la stratigraphie du pergélisol peut être un élément important pour l'interprétation de la signification paléoclimatique de ce type de formes. Pour le deuxième volet de la recherche, grâce aux datations relatives effectuées à l'aide de l'utilisation conjointe de la méthode paléogéographique et du marteau de Schmidt, il a été possible de définir la chrono - stratigraphie du retrait glaciaire et du développement des glaciers rocheux et des versants d'éboulis d es quatre régions des Alpes suisses étudiées (régions du Mont Gelé - Mont Fort, des Fontanesses et de Chamosentse , dans les Alpes Valaisannes, et Massif de la Cima di Gana Bianca , dans les Alpes Tessinoises). La compilation de toutes les datations effectuées a permis de montrer que la plupart des glaciers rocheux actifs étudiés se seraient développés soit juste avant et/ou pendant l'Optimum Climatique Holocène de 9.5 - 6.3 ka cal BP, soit au plus tard juste après cet évènement climatique majeur du dernier interglaciaire. Parmi les glaciers rocheux fossiles datés, la plupart aurait commencé à se former dans la deuxième moitié du Tardiglaciaire et se serait inactivé dans la première partie de l'Optimum Climatique Holocène. Pour les éboulis étudiés, les datations effectuées ont permis d'observer que leur surface date de la période entre le Boréal et l'Atlantique récent, indiquant que les taux d'éboulisation après la fin de l'Optimum Climatique Holocène ont dû être faibles, et que l'intervalle entre l'âge maximal et l'âge minimal est dans la plupart des cas relativement court (4 - 6 millénaires), indiquant que les taux d'éboulisation durant la période de formation des éboulis ont dû être importants. Grâce au calcul des taux d'érosion des parois rocheuses sur la base du volume de matériaux rocheux pour quatre des éboulis étudiés, il a été possible mettre en évidence l'existence d'une « éboulisation parapériglaciaire » liée à la dégradation du pergélisol dans les parois rocheuses, fonctionnant principalement durant les périodes de réchauffement climatique rapide comme cela a été le cas au début du Bølling, du Préboréal à la fin de l'Atlantique récent et, peut-être, à partir des années 1980.
Resumo:
Cystic fibrosis (CF) patients often present with malnutrition which may partly be due to increased resting energy expenditure (REE) secondary to inflammation. Both REE and tumour necrosis factor-alpha (TNF-alpha), as other markers of inflammation, are elevated during respiratory exacerbations and decrease after antibiotic treatment. However, the effect of antibiotic therapy on REE and inflammation in patients without respiratory exacerbation is not known. The aim of our study was to determine the effect of such an elective antibiotic therapy on REE, TNF-alpha, and other serum markers of inflammation. Twelve CF patients 5F/7M, age 15.9 +/- 6.1 years, weight for height ratio 89 +/- 8% without clinically obvious exacerbation and treated by intravenous antibiotics were studied. Both before (D0) and after (D14) treatment, pulmonary function tests were performed. REE was measured by indirect calorimetry and blood taken to measure inflammation parameters. Body weight increased by 1.1 kg from D0 to D14 (P < 0.001), composed of 0.3 kg fat mass and 0.8 kg fat-free mass (FFM). The forced expiratory volume at 1 s increased from 43 +/- 15% of predicted at D0 to 51 +/- 15% of predicted at D14 (P < 0.01). Mean REE was 41.1 +/- 7.6 kcal/kg FFM per day at D0 and did not change significantly at D14 (40.6 +/- 8.5 kcal/kg FFM per day). Serum markers of inflammation decreased from D0 to D14: C-reactive protein 17 +/- 17 mg/l to 4 +/- 7 mg/l (P < 0.05), elastase 62 +/- 29 microg/l to 45 +/- 18 microg/l (P < 0.02), orosomucoid acid 1.25 +/- 0.11 g/l to 0.80 +/- 0.15 g/l (P < 0.001), and TNF-alpha 37 +/- 14 pg/ml to 29 +/- 6 pg/ml (P = 0.05). Individual values showed a correlation between changes in REE and in TNF-alpha (P < 0.02). The contribution of inflammation to energy expenditure is possible but appears to be minimal in cystic fibrosis patients treated by antibiotics on a regular basis in the absence of clinically obvious exacerbation.
Resumo:
The multiscale finite-volume (MSFV) method is designed to reduce the computational cost of elliptic and parabolic problems with highly heterogeneous anisotropic coefficients. The reduction is achieved by splitting the original global problem into a set of local problems (with approximate local boundary conditions) coupled by a coarse global problem. It has been shown recently that the numerical errors in MSFV results can be reduced systematically with an iterative procedure that provides a conservative velocity field after any iteration step. The iterative MSFV (i-MSFV) method can be obtained with an improved (smoothed) multiscale solution to enhance the localization conditions, with a Krylov subspace method [e.g., the generalized-minimal-residual (GMRES) algorithm] preconditioned by the MSFV system, or with a combination of both. In a multiphase-flow system, a balance between accuracy and computational efficiency should be achieved by finding a minimum number of i-MSFV iterations (on pressure), which is necessary to achieve the desired accuracy in the saturation solution. In this work, we extend the i-MSFV method to sequential implicit simulation of time-dependent problems. To control the error of the coupled saturation/pressure system, we analyze the transport error caused by an approximate velocity field. We then propose an error-control strategy on the basis of the residual of the pressure equation. At the beginning of simulation, the pressure solution is iterated until a specified accuracy is achieved. To minimize the number of iterations in a multiphase-flow problem, the solution at the previous timestep is used to improve the localization assumption at the current timestep. Additional iterations are used only when the residual becomes larger than a specified threshold value. Numerical results show that only a few iterations on average are necessary to improve the MSFV results significantly, even for very challenging problems. Therefore, the proposed adaptive strategy yields efficient and accurate simulation of multiphase flow in heterogeneous porous media.
Resumo:
Abstract Electrical stimulation is a new way to treat digestive disorders such as constipation. Colonic propulsive activity can be triggered by battery operated devices. This study aimed to demonstrate the effect of direct electrical colonic stimulation on mean transit time in a chronic porcine model. The impact of stimulation and implanted material on the colonic wall was also assessed. Three pairs of electrodes were implanted into the caecal wall of 12 anaesthetized pigs. Reference colonic transit time was determined by radiopaque markers for each pig before implantation. It was repeated 4 weeks after implantation with sham stimulation and 5 weeks after implantation with electrical stimulation. Aboral sequential trains of 1-ms pulse width (10 V; 120 Hz) were applied twice daily for 6 days, using an external battery operated stimulator. For each course of markers, a mean value was computed from transit times obtained from individual pig. Microscopic examination of the caecum was routinely performed after animal sacrifice. A reduction of mean transit time was observed after electrical stimulation (19 +/- 13 h; mean +/- SD) when compared to reference (34 +/- 7 h; P = 0.045) and mean transit time after sham stimulation (36 +/- 9 h; P = 0.035). Histological examination revealed minimal chronic inflammation around the electrodes. Colonic transit time measured in a chronic porcine model is reduced by direct sequential electrical stimulation. Minimal tissue lesion is elicited by stimulation or implanted material. Electrical colonic stimulation could be a promising approach to treat specific disorders of the large bowel.
Resumo:
BACKGROUND: The perichondral cutaneous graft (PCCG) from the posterior conchal region is an elegant solution for the coverage of facial defects with particular stability requirements. The donor defect can easily be covered with a transposition flap from the postauricular region. Although this region is a common donor site for skin grafts and has an important supporting function for glasses or hearing aids, little is known about long-term morbidity after graft harvest. OBJECTIVE: To assess the morbidity of the posterior concha and the postauricular region in terms of pain, scar formation, and patient satisfaction. MATERIALS AND METHODS: A retrospective study of 16 patients who had a PCCG harvested from the posterior concha. RESULTS: Two patients presented with a postoperative wound dehiscence on the postauricular region and one with a keloid scar on the posterior concha. One case of transitory hyperesthesia and pain when sleeping on the operated site was observed. None had complaints related to wearing glasses or hearing aids. CONCLUSION: Donor site morbidity of the postauricular and posterior conchal region is minimal and associated with high patient satisfaction, excellent aesthetic results, and emotional detachment from the hidden donor site.
Resumo:
We present an update of neutral Higgs boson decays into bottom quark pairs in the minimal supersymmetric extension of the standard model. In particular the resummation of potentially large higher-order corrections due to the soft supersymmetry (SUSY) breaking parameters Ab and is extended. The remaining theoretical uncertainties due to unknown higher-order SUSY-QCD corrections are analyzed quantitatively.
Resumo:
PAPER 1: A THEORY ON THE EFFECTS OF INTERNATIONALIZATION ON FIRM ENTREPRENEURIAL BEHAVIOR AND GROWTH Abstract This article addresses the relationship. Past findings reveal that the direct effects of internationalization on performance are mixed and inconclusive. Our framework integrates firm entrepreneurial behavior as a mediating force of the troublesome Drawing on the tension between the entrepreneurship literature and the organizational inertia theory, we argue that internationalization is key to minimizing the stifling effects of inertia and in engendering entrepreneurial behavior towards growth. We suggest that firms that internationalize at a young age and enjoy an intense degree of internationalization tend to become more entrepreneurial than do late and weakly internationalized firms. As a consequence, early and intense internationalizers experience superior growth. Aware of the inherent endogeneity of our propositions, we also discuss how consistent estimates can be obtained when testing the model empirically. PAPER 2: DOES INTERNATIONALIZATION MATTER FOR GROWTH? THE CASE OF SWISS SOFTWARE FIRMS. Abstract This paper seeks to address the issue of whether early and intense internationalization leads to superior firm growth. We revisit the hypotheses of previous studies within the emerging research domain of international entrepreneurship. Empirical analyses on the performance implications of internationalization have so far been limited and inconsistent. Our paper intends to make two contributions to the international entrepreneurship literature. First, we bring additional empirical evidence as to the inconclusive firm performance endogeneity in our causal model, using a sample of 103 Swiss international small and medium-sized enterprises (SMEs). On one hand, we find that the degree of internationalization significantly increases perceived firm growth (i.e., relative firm performance in a market); however, age at internationalization was unrelated to perceived firm growth. On the other hand, we reproduced the causal path of a highly cited study that showed how age at internationalization was significantly and negatively associated with objective firm growth (i.e., sales). Interestingly, our results support the study similar setting (OLS regression with comparable control variables); however, the effect for age at internationalization reverses when we correct for endogeneity. PAPER 3: EFFECT OF INTERNATIONALIZATION ON FIRM ENTREPRENEURIAL ORIENTATION AND PERFORMANCE: THE CASE OF SWISS SOFTWARE FIRMS. Abstract How does internationalization influence a firm orientation (EO) and is this related to firm growth? This paper inquires into the performance theorizing, we test a process model in which EO plays a mediating role in accounting for the relationship between internationalization and growth. We position this paper on the tension zone between the entrepreneurship literature and the organizational inertia theory. We lay out the argument that internationalization is source of opportunities that drives a firm and thus mitigates inertial pressure. Using a sample of Swiss software small and medium-sized enterprises (SMEs), we found that degree of internationalization (but not age of internationalization) increases EO, which subsequently increased firm growth.
Resumo:
Odorant receptor (OR) genes constitute with 1200 members the largest gene family in the mouse genome. A mature olfactory sensory neuron (OSN) is thought to express just one OR gene, and from one allele. The cell bodies of OSNs that express a given OR gene display a mosaic pattern within a particular region of the main olfactory epithelium. The mechanisms and cis-acting DNA elements that regulate the expression of one OR gene per OSN - OR gene choice - remain poorly understood. Here, we describe a reporter assay to identify minimal promoters for OR genes in transgenic mice, which are produced by the conventional method of pronuclear injection of DNA. The promoter transgenes are devoid of an OR coding sequence, and instead drive expression of the axonal marker tau-β-galactosidase. For four mouse OR genes (M71, M72, MOR23, and P3) and one human OR gene (hM72), a mosaic, OSN-specific pattern of reporter expression can be obtained in transgenic mice with contiguous DNA segments of only ~300 bp that are centered around the transcription start site (TSS). The ~150bp region upstream of the TSS contains three conserved sequence motifs, including homeodomain (HD) binding sites. Such HD binding sites are also present in the H and P elements, DNA sequences that are known to strongly influence OR gene expression. When a 19mer encompassing a HD binding site from the P element is multimerized nine times and added upstream of a MOR23 minigene that contains the MOR23 coding region, we observe a dramatic increase in the number of transgene-expressing founders and lines and in the number of labeled OSNs. By contrast, a nine times multimerized 19mer with a mutant HD binding site does not have these effects. We hypothesize that HD binding sites in the H and P elements and in OR promoters modulate the probability of OR gene choice.
Resumo:
Ces dernières années, de nombreuses recherches ont mis en évidence les effets toxiques des micropolluants organiques pour les espèces de nos lacs et rivières. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, alors que les organismes sont exposés tous les jours à des milliers de substances en mélange. Or les effets de ces cocktails ne sont pas négligeables. Cette thèse de doctorat s'est ainsi intéressée aux modèles permettant de prédire le risque environnemental de ces cocktails pour le milieu aquatique. Le principal objectif a été d'évaluer le risque écologique des mélanges de substances chimiques mesurées dans le Léman, mais aussi d'apporter un regard critique sur les méthodologies utilisées afin de proposer certaines adaptations pour une meilleure estimation du risque. Dans la première partie de ce travail, le risque des mélanges de pesticides et médicaments pour le Rhône et pour le Léman a été établi en utilisant des approches envisagées notamment dans la législation européenne. Il s'agit d'approches de « screening », c'est-à-dire permettant une évaluation générale du risque des mélanges. Une telle approche permet de mettre en évidence les substances les plus problématiques, c'est-à-dire contribuant le plus à la toxicité du mélange. Dans notre cas, il s'agit essentiellement de 4 pesticides. L'étude met également en évidence que toutes les substances, même en trace infime, contribuent à l'effet du mélange. Cette constatation a des implications en terme de gestion de l'environnement. En effet, ceci implique qu'il faut réduire toutes les sources de polluants, et pas seulement les plus problématiques. Mais l'approche proposée présente également un biais important au niveau conceptuel, ce qui rend son utilisation discutable, en dehors d'un screening, et nécessiterait une adaptation au niveau des facteurs de sécurité employés. Dans une deuxième partie, l'étude s'est portée sur l'utilisation des modèles de mélanges dans le calcul de risque environnemental. En effet, les modèles de mélanges ont été développés et validés espèce par espèce, et non pour une évaluation sur l'écosystème en entier. Leur utilisation devrait donc passer par un calcul par espèce, ce qui est rarement fait dû au manque de données écotoxicologiques à disposition. Le but a été donc de comparer, avec des valeurs générées aléatoirement, le calcul de risque effectué selon une méthode rigoureuse, espèce par espèce, avec celui effectué classiquement où les modèles sont appliqués sur l'ensemble de la communauté sans tenir compte des variations inter-espèces. Les résultats sont dans la majorité des cas similaires, ce qui valide l'approche utilisée traditionnellement. En revanche, ce travail a permis de déterminer certains cas où l'application classique peut conduire à une sous- ou sur-estimation du risque. Enfin, une dernière partie de cette thèse s'est intéressée à l'influence que les cocktails de micropolluants ont pu avoir sur les communautés in situ. Pour ce faire, une approche en deux temps a été adoptée. Tout d'abord la toxicité de quatorze herbicides détectés dans le Léman a été déterminée. Sur la période étudiée, de 2004 à 2009, cette toxicité due aux herbicides a diminué, passant de 4% d'espèces affectées à moins de 1%. Ensuite, la question était de savoir si cette diminution de toxicité avait un impact sur le développement de certaines espèces au sein de la communauté des algues. Pour ce faire, l'utilisation statistique a permis d'isoler d'autres facteurs pouvant avoir une influence sur la flore, comme la température de l'eau ou la présence de phosphates, et ainsi de constater quelles espèces se sont révélées avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps. Fait intéressant, une partie d'entre-elles avait déjà montré des comportements similaires dans des études en mésocosmes. En conclusion, ce travail montre qu'il existe des modèles robustes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques, et qu'ils peuvent être utilisés pour expliquer le rôle des substances dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application. - Depuis plusieurs années, les risques que posent les micropolluants organiques pour le milieu aquatique préoccupent grandement les scientifiques ainsi que notre société. En effet, de nombreuses recherches ont mis en évidence les effets toxiques que peuvent avoir ces substances chimiques sur les espèces de nos lacs et rivières, quand elles se retrouvent exposées à des concentrations aiguës ou chroniques. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, c'est à dire considérées séparément. Actuellement, il en est de même dans les procédures de régulation européennes, concernant la partie évaluation du risque pour l'environnement d'une substance. Or, les organismes sont exposés tous les jours à des milliers de substances en mélange, et les effets de ces "cocktails" ne sont pas négligeables. L'évaluation du risque écologique que pose ces mélanges de substances doit donc être abordé par de la manière la plus appropriée et la plus fiable possible. Dans la première partie de cette thèse, nous nous sommes intéressés aux méthodes actuellement envisagées à être intégrées dans les législations européennes pour l'évaluation du risque des mélanges pour le milieu aquatique. Ces méthodes sont basées sur le modèle d'addition des concentrations, avec l'utilisation des valeurs de concentrations des substances estimées sans effet dans le milieu (PNEC), ou à partir des valeurs des concentrations d'effet (CE50) sur certaines espèces d'un niveau trophique avec la prise en compte de facteurs de sécurité. Nous avons appliqué ces méthodes à deux cas spécifiques, le lac Léman et le Rhône situés en Suisse, et discuté les résultats de ces applications. Ces premières étapes d'évaluation ont montré que le risque des mélanges pour ces cas d'étude atteint rapidement une valeur au dessus d'un seuil critique. Cette valeur atteinte est généralement due à deux ou trois substances principales. Les procédures proposées permettent donc d'identifier les substances les plus problématiques pour lesquelles des mesures de gestion, telles que la réduction de leur entrée dans le milieu aquatique, devraient être envisagées. Cependant, nous avons également constaté que le niveau de risque associé à ces mélanges de substances n'est pas négligeable, même sans tenir compte de ces substances principales. En effet, l'accumulation des substances, même en traces infimes, atteint un seuil critique, ce qui devient plus difficile en terme de gestion du risque. En outre, nous avons souligné un manque de fiabilité dans ces procédures, qui peuvent conduire à des résultats contradictoires en terme de risque. Ceci est lié à l'incompatibilité des facteurs de sécurité utilisés dans les différentes méthodes. Dans la deuxième partie de la thèse, nous avons étudié la fiabilité de méthodes plus avancées dans la prédiction de l'effet des mélanges pour les communautés évoluant dans le système aquatique. Ces méthodes reposent sur le modèle d'addition des concentrations (CA) ou d'addition des réponses (RA) appliqués sur les courbes de distribution de la sensibilité des espèces (SSD) aux substances. En effet, les modèles de mélanges ont été développés et validés pour être appliqués espèce par espèce, et non pas sur plusieurs espèces agrégées simultanément dans les courbes SSD. Nous avons ainsi proposé une procédure plus rigoureuse, pour l'évaluation du risque d'un mélange, qui serait d'appliquer d'abord les modèles CA ou RA à chaque espèce séparément, et, dans une deuxième étape, combiner les résultats afin d'établir une courbe SSD du mélange. Malheureusement, cette méthode n'est pas applicable dans la plupart des cas, car elle nécessite trop de données généralement indisponibles. Par conséquent, nous avons comparé, avec des valeurs générées aléatoirement, le calcul de risque effectué selon cette méthode plus rigoureuse, avec celle effectuée traditionnellement, afin de caractériser la robustesse de cette approche qui consiste à appliquer les modèles de mélange sur les courbes SSD. Nos résultats ont montré que l'utilisation de CA directement sur les SSDs peut conduire à une sous-estimation de la concentration du mélange affectant 5 % ou 50% des espèces, en particulier lorsque les substances présentent un grand écart- type dans leur distribution de la sensibilité des espèces. L'application du modèle RA peut quant à lui conduire à une sur- ou sous-estimations, principalement en fonction de la pente des courbes dose- réponse de chaque espèce composant les SSDs. La sous-estimation avec RA devient potentiellement importante lorsque le rapport entre la EC50 et la EC10 de la courbe dose-réponse des espèces est plus petit que 100. Toutefois, la plupart des substances, selon des cas réels, présentent des données d' écotoxicité qui font que le risque du mélange calculé par la méthode des modèles appliqués directement sur les SSDs reste cohérent et surestimerait plutôt légèrement le risque. Ces résultats valident ainsi l'approche utilisée traditionnellement. Néanmoins, il faut garder à l'esprit cette source d'erreur lorsqu'on procède à une évaluation du risque d'un mélange avec cette méthode traditionnelle, en particulier quand les SSD présentent une distribution des données en dehors des limites déterminées dans cette étude. Enfin, dans la dernière partie de cette thèse, nous avons confronté des prédictions de l'effet de mélange avec des changements biologiques observés dans l'environnement. Dans cette étude, nous avons utilisé des données venant d'un suivi à long terme d'un grand lac européen, le lac Léman, ce qui offrait la possibilité d'évaluer dans quelle mesure la prédiction de la toxicité des mélanges d'herbicide expliquait les changements dans la composition de la communauté phytoplanctonique. Ceci à côté d'autres paramètres classiques de limnologie tels que les nutriments. Pour atteindre cet objectif, nous avons déterminé la toxicité des mélanges sur plusieurs années de 14 herbicides régulièrement détectés dans le lac, en utilisant les modèles CA et RA avec les courbes de distribution de la sensibilité des espèces. Un gradient temporel de toxicité décroissant a pu être constaté de 2004 à 2009. Une analyse de redondance et de redondance partielle, a montré que ce gradient explique une partie significative de la variation de la composition de la communauté phytoplanctonique, même après avoir enlevé l'effet de toutes les autres co-variables. De plus, certaines espèces révélées pour avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps, ont montré des comportements similaires dans des études en mésocosmes. On peut en conclure que la toxicité du mélange herbicide est l'un des paramètres clés pour expliquer les changements de phytoplancton dans le lac Léman. En conclusion, il existe diverses méthodes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques et celui-ci peut jouer un rôle dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application, avant d'utiliser leurs résultats pour la gestion des risques environnementaux. - For several years now, the scientists as well as the society is concerned by the aquatic risk organic micropollutants may pose. Indeed, several researches have shown the toxic effects these substances may induce on organisms living in our lakes or rivers, especially when they are exposed to acute or chronic concentrations. However, most of the studies focused on the toxicity of single compounds, i.e. considered individually. The same also goes in the current European regulations concerning the risk assessment procedures for the environment of these substances. But aquatic organisms are typically exposed every day simultaneously to thousands of organic compounds. The toxic effects resulting of these "cocktails" cannot be neglected. The ecological risk assessment of mixtures of such compounds has therefore to be addressed by scientists in the most reliable and appropriate way. In the first part of this thesis, the procedures currently envisioned for the aquatic mixture risk assessment in European legislations are described. These methodologies are based on the mixture model of concentration addition and the use of the predicted no effect concentrations (PNEC) or effect concentrations (EC50) with assessment factors. These principal approaches were applied to two specific case studies, Lake Geneva and the River Rhône in Switzerland, including a discussion of the outcomes of such applications. These first level assessments showed that the mixture risks for these studied cases exceeded rapidly the critical value. This exceeding is generally due to two or three main substances. The proposed procedures allow therefore the identification of the most problematic substances for which management measures, such as a reduction of the entrance to the aquatic environment, should be envisioned. However, it was also showed that the risk levels associated with mixtures of compounds are not negligible, even without considering these main substances. Indeed, it is the sum of the substances that is problematic, which is more challenging in term of risk management. Moreover, a lack of reliability in the procedures was highlighted, which can lead to contradictory results in terms of risk. This result is linked to the inconsistency in the assessment factors applied in the different methods. In the second part of the thesis, the reliability of the more advanced procedures to predict the mixture effect to communities in the aquatic system were investigated. These established methodologies combine the model of concentration addition (CA) or response addition (RA) with species sensitivity distribution curves (SSD). Indeed, the mixture effect predictions were shown to be consistent only when the mixture models are applied on a single species, and not on several species simultaneously aggregated to SSDs. Hence, A more stringent procedure for mixture risk assessment is proposed, that would be to apply first the CA or RA models to each species separately and, in a second step, to combine the results to build an SSD for a mixture. Unfortunately, this methodology is not applicable in most cases, because it requires large data sets usually not available. Therefore, the differences between the two methodologies were studied with datasets created artificially to characterize the robustness of the traditional approach applying models on species sensitivity distribution. The results showed that the use of CA on SSD directly might lead to underestimations of the mixture concentration affecting 5% or 50% of species, especially when substances present a large standard deviation of the distribution from the sensitivity of the species. The application of RA can lead to over- or underestimates, depending mainly on the slope of the dose-response curves of the individual species. The potential underestimation with RA becomes important when the ratio between the EC50 and the EC10 for the dose-response curve of the species composing the SSD are smaller than 100. However, considering common real cases of ecotoxicity data for substances, the mixture risk calculated by the methodology applying mixture models directly on SSDs remains consistent and would rather slightly overestimate the risk. These results can be used as a theoretical validation of the currently applied methodology. Nevertheless, when assessing the risk of mixtures, one has to keep in mind this source of error with this classical methodology, especially when SSDs present a distribution of the data outside the range determined in this study Finally, in the last part of this thesis, we confronted the mixture effect predictions with biological changes observed in the environment. In this study, long-term monitoring of a European great lake, Lake Geneva, provides the opportunity to assess to what extent the predicted toxicity of herbicide mixtures explains the changes in the composition of the phytoplankton community next to other classical limnology parameters such as nutrients. To reach this goal, the gradient of the mixture toxicity of 14 herbicides regularly detected in the lake was calculated, using concentration addition and response addition models. A decreasing temporal gradient of toxicity was observed from 2004 to 2009. Redundancy analysis and partial redundancy analysis showed that this gradient explains a significant portion of the variation in phytoplankton community composition, even when having removed the effect of all other co-variables. Moreover, some species that were revealed to be influenced positively or negatively, by the decrease of toxicity in the lake over time, showed similar behaviors in mesocosms studies. It could be concluded that the herbicide mixture toxicity is one of the key parameters to explain phytoplankton changes in Lake Geneva. To conclude, different methods exist to predict the risk of mixture in the ecosystems. But their reliability varies depending on the underlying hypotheses. One should therefore carefully consider these hypotheses, as well as the limits of the approaches, before using the results for environmental risk management