848 resultados para Standard fire curve


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Age-related changes in lumbar vertebral microarchitecture are evaluated, as assessed by trabecular bone score (TBS), in a cohort of 5,942 French women. The magnitude of TBS decline between 45 and 85 years of age is piecewise linear in the spine and averaged 14.5 %. TBS decline rate increases after 65 years by 50 %. INTRODUCTION: This study aimed to evaluate age-related changes in lumbar vertebral microarchitecture, as assessed by TBS, in a cohort of French women aged 45-85 years. METHODS: An all-comers cohort of French Caucasian women was selected from two clinical centers. Data obtained from these centers were cross-calibrated for TBS and bone mineral density (BMD). BMD and TBS were evaluated at L1-L4 and for all lumbar vertebrae combined using GE-Lunar Prodigy densitometer images. Weight, height, and body mass index (BMI) also were determined. To validate our all-comers cohort, the BMD normative data of our cohort and French Prodigy data were compared. RESULTS: A cohort of 5,942 French women aged 45 to 85 years was created. Dual-energy X-ray absorptiometry normative data obtained for BMD from this cohort were not significantly different from French prodigy normative data (p = 0.15). TBS values at L1-L4 were poorly correlated with BMI (r = -0.17) and weight (r = -0.14) and not correlated with height. TBS values obtained for all lumbar vertebra combined (L1, L2, L3, L4) decreased with age. The magnitude of TBS decline at L1-L4 between 45 and 85 years of age was piecewise linear in the spine and averaged 14.5 %, but this rate increased after 65 years by 50 %. Similar results were obtained for other region of interest in the lumbar spine. As opposed to BMD, TBS was not affected by spinal osteoarthrosis. CONCLUSION: The age-specific reference curve for TBS generated here could therefore be used to help clinicians to improve osteoporosis patient management and to monitor microarchitectural changes related to treatment or other diseases in routine clinical practice.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

PURPOSE: To quantify the relationship between bone marrow (BM) response to radiation and radiation dose by using (18)F-labeled fluorodeoxyglucose positron emission tomography [(18)F]FDG-PET standard uptake values (SUV) and to correlate these findings with hematological toxicity (HT) in cervical cancer (CC) patients treated with chemoradiation therapy (CRT). METHODS AND MATERIALS: Seventeen women with a diagnosis of CC were treated with standard doses of CRT. All patients underwent pre- and post-therapy [(18)F]FDG-PET/computed tomography (CT). Hemograms were obtained before and during treatment and 3 months after treatment and at last follow-up. Pelvic bone was autosegmented as total bone marrow (BMTOT). Active bone marrow (BMACT) was contoured based on SUV greater than the mean SUV of BMTOT. The volumes (V) of each region receiving 10, 20, 30, and 40 Gy (V10, V20, V30, and V40, respectively) were calculated. Metabolic volume histograms and voxel SUV map response graphs were created. Relative changes in SUV before and after therapy were calculated by separating SUV voxels into radiation therapy dose ranges of 5 Gy. The relationships among SUV decrease, radiation dose, and HT were investigated using multiple regression models. RESULTS: Mean relative pre-post-therapy SUV reductions in BMTOT and BMACT were 27% and 38%, respectively. BMACT volume was significantly reduced after treatment (from 651.5 to 231.6 cm(3), respectively; P<.0001). BMACT V30 was significantly correlated with a reduction in BMACT SUV (R(2), 0.14; P<.001). The reduction in BMACT SUV significantly correlated with reduction in white blood cells (WBCs) at 3 months post-treatment (R(2), 0.27; P=.04) and at last follow-up (R(2), 0.25; P=.04). Different dosimetric parameters of BMTOT and BMACT correlated with long-term hematological outcome. CONCLUSIONS: The volumes of BMTOT and BMACT that are exposed to even relatively low doses of radiation are associated with a decrease in WBC counts following CRT. The loss in proliferative BM SUV uptake translates into low WBC nadirs after treatment. These results suggest the potential of intensity modulated radiation therapy to spare BMTOT to reduce long-term hematological toxicity.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

RÉSUMÉ GRAND PUBLIC La complexité des sociétés d'insectes (telles que les abeilles, les termites ou les fourmis) a depuis longtemps fasciné l'Homme. Depuis le débfit du XIXème siècle, de nombreux travaux observationnels, comportementaux et théoriques leur on été consacrés afin de mieux les décrire et comprendre. L'avènement de la biologie moléculaire à la fin du XXèrne siècle a offert de nouveaux outils scientifiques pour identifier et étudier les gènes et molécules impliqués dans le développement et le comportement des êtres vivants. Alors que la majorité de ces études s'est focalisée sur des organismes de laboratoire tel que la mouche ou les nématodes, l'utilisation de ces outils est restée marginale jusqu'à présent dans l'étude des sociétés d'insectes. Lors de ma thèse, j'ai développé des outils moléculaires permettant de déterminer le niveau d'activité de zo,ooo gènes chez la fourmi de feu, Solenopsis invicta, ainsi qu'une base de données et un portail en ligne regroupant les informations relatives à l'étude génétique des fourmis: Fourmidable. J'ai ensuite utilisé ces outils dans le cadre d'une étude comportementale chez la fourmis S. invicta. Dans les sociétés d'insectes, une hiérarchie peut déterminer le statut reproducteur des individus. Suite à la mort d'un dominant, les subordonnés entrent en compétition en vue d'améliorer leur statut. Un tel phénomène se produit au sein des colonies de S. invicta contenant une unique reine mère, des milliers d'ouvrières et des centaines de reines vierges ailées. A la mort de la reine mère, un grand nombre de reines vierges tentent de la remplacer en arrachant leurs ailes et en activant leurs organes reproducteurs plutôt que de partir en vol nuptial. Ces tentatives sont le plus souvent arrêtées par les ouvrières qui exécutent la plupart de ces reines sur la base de signaux olfactifs produits lors de l'activation des organes reproducteurs. Afin de mieux comprendre les mécanismes moléculaires impliqués, j'ai étudié l'activité de gènes au sein des reines au début de ce processus. J'ai ainsi déterminé que des gènes impliqués dans communication olfactive, le développement des organes reproducteurs et la métabolisation de l'hormone juvénile sont activês à ce moment là. La vitesse à laquelle les reines perdent leurs ailes ainsi que les niveaux d'expression de gènes sont ensuite liés à leur probabilité de survie. ABSTRACT : Honeybees, termites and ants occupy the "pinnacle of social evolution" with societies of a complexity that rivals our own. Humans have long been fascinated by social insects, but studying them has been mostly limited to observational and behavioral experiments. The advent of molecular biology first made it possible to investigate the molecular-genetic basis of development in model systems such as the fruit fly Drosophila melarcogaster or the roundworm Caenorhabditis elegans and subsequently their behavior. Molecular and genomic tools are now becoming available for the study of social insects as well. To permit genomic research on the fire ant, Solenopsis invicta, we developed a cDNA microarray that can simultaneously determine the expression levels of approximately 1oooo genes. These genes were assembled and bioinformatically annotated using custom pipelines. The obtained data formed the cornerstones for Fourmidable, a web portal centralizing sequence, gene annotation and gene expression data as well as laboratory protocols for research on ants. In many animals living in groups the reproductive status of individuals is determined by their social status. In species with social hierarchies, the death of dominant individuals typically upheaves the social hierarchy and provides an opportunity for subordinate individuals to improve their social status. Such a phenomenon occurs in the monogyne form of S. invicta, where colonies typically contain a single wingless reproductive queen, thousands of workers and hundreds of winged non-reproductive virgin queens. Upon the death of the mother queen, many virgin queens shed their wings and initiate reproductive development instead of departing on a mating flight. Workers progressively execute almost all of them over the following weeks. The workers base their collective decision on pheromonal cues associated with the onset of reproductive development of the virgin queens which occurs after orphaning. We used the aforementioned tools to determine that genes putatively involved in processes including olfactory signaling, reproductive development and Juvenile Hormone metabolism are differentially expressed at the onset of competition. Additionally, we found that queens that initiate reproductive development faster and, to a certain extent, shed their wings faster after orphaning are more likely to become replacement queens. These results provide candidate genes that are putatively linked to competition outcome. To determine the extent to which specific genes affect different aspects of life in ant colonies, functional tests such as gene activation and silencing will still be required. We conclude by discussing some of the challenges and opportunities for molecular-genetic research on ants. RÉSUMÉ Les sociétés d'abeilles, de termites et de fourmis sont d'une complexité proche de celle de la nôtre et ont depuis longtemps fasciné l'Homme. Cependant, leur étude était jusqu'à présent limitée aux observations et expériences comportementales. L'avènement de la biologie moléculaire a d'abord rendu possible l'étude moléculaire et génétique du développement d'organismes modèles tels que la mouche Drosophila melanogaster ou le nématode Caenorhabditis elegans, puis dans un second temps de leur comportement. De telles études deviennent désormais possibles pour les insectes sociaux. Nous avons développé une puce à ADN permettant de déterminer simultanément les niveaux d'expression de 1oooo gènes de la fourmi de feu, Solenopsís invicta. Ces gènes ont été séquencés puis assemblés et annotés à l'aide de pipelines que nous avons développés. En se basant sur les informations obtenues, nous avons créé un portail web, Fourmidable. Ce portail vise à centraliser toutes les informations de séquence, d'annotation et d'expression de gènes, ainsi que les protocoles de laboratoire utilisés pour la recherche sur les fourmis. Par la suite, nous avons utilisé les outils développés pour étudier un aspect particulier de S. invicta. Chez les animaux grégaires, une hiérarchie sociale peut déterminer le statut reproducteur des individus. Suite à la mort d'un individu dominant, les individus subordonnés peuvent entrer en compétition en vue d'améliorer leur statut. Un tel phénomène se produit au sein des colonies monogynes de S. invicta, qui contiennent habituellement une unique reine mère, des milliers d'ouvrières et des centaines de reines vierges ailées. Suite à la mort de la reine mère, dominante, un grand nombre de reines vierges, subordonnées, perdent leurs ailes et activent leurs organes reproducteurs au lieu de partir en vol nuptial. Au cours des semaines suivantes, les ouvrières exécutent la plupart de ces reines sur la base de signaux olfactifs produits lors de l'activation des organes reproducteurs. Afin de mieux comprendre les mécanismes moléculaires impliqués, nous avons étudié l'expression de gènes au début de cette compétition. Nous avons identifié 297 gènes différemment exprimés, dont l'annotation indique qu'ils seraient impliqués dans des processus biologiques dont la communication olfactive, le développement des organes reproducteurs et la métabolisation de l'hormone juvénile. Par la suite, nous avons déterminé que la vitesse à laquelle les reines perdent leurs ailes en début de compétition ainsi que les niveaux d'expression de gènes sont corrélés à la probabilité de survie des reines. Nous concluons en discutant des opportunités offertes par la recherche génétique sur les fourmis ainsi que les défis qu'elle devra surmonter.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The optimization of the extremity dosimetry of medical staff in nuclear medicine was the aim of the Work Package 4 (WP4) of the ORAMED project, a Collaborative Project (2008-2011) supported by the European Commission within its 7th Framework Programme. Hand doses and dose distributions across the hands of medical staff working in nuclear medicine departments were evaluated through an extensive measurement program involving 32 hospitals in Europe and 139 monitored workers. The study included the most frequently used radionuclides, (99m)Tc- and (18)F-labelled radiopharmaceuticals for diagnostic and (90)Y-labelled Zevalin (R) and DOTATOC for therapy. Furthermore, Monte Carlo simulations were performed in different predefined scenarios to evaluate separately the efficacy of different radiation protection measures by comparing hand dose distributions according to various parameters. The present work gives recommendations based on results obtained with both measurements and simulations. This results in nine practical recommendations regarding the positioning of the dosemeters for an appropriate skin dose monitoring and the best protection means to reduce the personnel exposure.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

We study the nonequilibrium behavior of the three-dimensional Gaussian random-field Ising model at T=0 in the presence of a uniform external field using a two-spin-flip dynamics. The deterministic, history-dependent evolution of the system is compared with the one obtained with the standard one-spin-flip dynamics used in previous studies of the model. The change in the dynamics yields a significant suppression of coercivity, but the distribution of avalanches (in number and size) stays remarkably similar, except for the largest ones that are responsible for the jump in the saturation magnetization curve at low disorder in the thermodynamic limit. By performing a finite-size scaling study, we find strong evidence that the change in the dynamics does not modify the universality class of the disorder-induced phase transition.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Audit report on the Westory Fire Agency for the year ended June 30, 2011

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Special investigation of the City of Denison Fire Department for the period July 1, 2005 through March 31, 2010

Relevância:

20.00% 20.00%

Publicador:

Resumo:

We analyzed the initial adhesion and biofilm formation of Staphylococcus aureus (ATCC 29213) and S. epidermidis RP62A (ATCC 35984) on various bone grafts and bone graft substitutes under standardized in vitro conditions. In parallel, microcalorimetry was evaluated as a real-time microbiological assay in the investigation of biofilm formation and material science research. The materials beta-tricalcium phosphate (beta-TCP), processed human spongiosa (Tutoplast) and poly(methyl methacrylate) (PMMA) were investigated and compared with polyethylene (PE). Bacterial counts (log(10) cfu per sample) were highest on beta-TCP (S. aureus 7.67 +/- 0.17; S. epidermidis 8.14 +/- 0.05) while bacterial density (log(10) cfu per surface) was highest on PMMA (S. aureus 6.12 +/- 0.2, S. epidermidis 7.65 +/- 0.13). Detection time for S. aureus biofilms was shorter for the porous materials (beta-TCP and processed human spongiosa, p < 0.001) compared to the smooth materials (PMMA and PE), with no differences between beta-TCP and processed human spongiosa (p > 0.05) or PMMA and PE (p > 0.05). In contrast, for S. epidermidis biofilms the detection time was different (p < 0.001) between all materials except between processed human spongiosa and PE (p > 0.05). The quantitative analysis by quantitative culture after washing and sonication of the material demonstrated the importance of monitoring factors like specific surface or porosity of the test materials. Isothermal microcalorimetry proved to be a suitable tool for an accurate, non-invasive and real-time microbiological assay, allowing the detection of bacterial biomass without removing the biofilm from the surface.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

1. Identifying those areas suitable for recolonization by threatened species is essential to support efficient conservation policies. Habitat suitability models (HSM) predict species' potential distributions, but the quality of their predictions should be carefully assessed when the species-environment equilibrium assumption is violated.2. We studied the Eurasian otter Lutra lutra, whose numbers are recovering in southern Italy. To produce widely applicable results, we chose standard HSM procedures and looked for the models' capacities in predicting the suitability of a recolonization area. We used two fieldwork datasets: presence-only data, used in the Ecological Niche Factor Analyses (ENFA), and presence-absence data, used in a Generalized Linear Model (GLM). In addition to cross-validation, we independently evaluated the models with data from a recolonization event, providing presences on a previously unoccupied river.3. Three of the models successfully predicted the suitability of the recolonization area, but the GLM built with data before the recolonization disagreed with these predictions, missing the recolonized river's suitability and badly describing the otter's niche. Our results highlighted three points of relevance to modelling practices: (1) absences may prevent the models from correctly identifying areas suitable for a species spread; (2) the selection of variables may lead to randomness in the predictions; and (3) the Area Under Curve (AUC), a commonly used validation index, was not well suited to the evaluation of model quality, whereas the Boyce Index (CBI), based on presence data only, better highlighted the models' fit to the recolonization observations.4. For species with unstable spatial distributions, presence-only models may work better than presence-absence methods in making reliable predictions of suitable areas for expansion. An iterative modelling process, using new occurrences from each step of the species spread, may also help in progressively reducing errors.5. Synthesis and applications. Conservation plans depend on reliable models of the species' suitable habitats. In non-equilibrium situations, such as the case for threatened or invasive species, models could be affected negatively by the inclusion of absence data when predicting the areas of potential expansion. Presence-only methods will here provide a better basis for productive conservation management practices.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Executive Summary The unifying theme of this thesis is the pursuit of a satisfactory ways to quantify the riskureward trade-off in financial economics. First in the context of a general asset pricing model, then across models and finally across country borders. The guiding principle in that pursuit was to seek innovative solutions by combining ideas from different fields in economics and broad scientific research. For example, in the first part of this thesis we sought a fruitful application of strong existence results in utility theory to topics in asset pricing. In the second part we implement an idea from the field of fuzzy set theory to the optimal portfolio selection problem, while the third part of this thesis is to the best of our knowledge, the first empirical application of some general results in asset pricing in incomplete markets to the important topic of measurement of financial integration. While the first two parts of this thesis effectively combine well-known ways to quantify the risk-reward trade-offs the third one can be viewed as an empirical verification of the usefulness of the so-called "good deal bounds" theory in designing risk-sensitive pricing bounds. Chapter 1 develops a discrete-time asset pricing model, based on a novel ordinally equivalent representation of recursive utility. To the best of our knowledge, we are the first to use a member of a novel class of recursive utility generators to construct a representative agent model to address some long-lasting issues in asset pricing. Applying strong representation results allows us to show that the model features countercyclical risk premia, for both consumption and financial risk, together with low and procyclical risk free rate. As the recursive utility used nests as a special case the well-known time-state separable utility, all results nest the corresponding ones from the standard model and thus shed light on its well-known shortcomings. The empirical investigation to support these theoretical results, however, showed that as long as one resorts to econometric methods based on approximating conditional moments with unconditional ones, it is not possible to distinguish the model we propose from the standard one. Chapter 2 is a join work with Sergei Sontchik. There we provide theoretical and empirical motivation for aggregation of performance measures. The main idea is that as it makes sense to apply several performance measures ex-post, it also makes sense to base optimal portfolio selection on ex-ante maximization of as many possible performance measures as desired. We thus offer a concrete algorithm for optimal portfolio selection via ex-ante optimization over different horizons of several risk-return trade-offs simultaneously. An empirical application of that algorithm, using seven popular performance measures, suggests that realized returns feature better distributional characteristics relative to those of realized returns from portfolio strategies optimal with respect to single performance measures. When comparing the distributions of realized returns we used two partial risk-reward orderings first and second order stochastic dominance. We first used the Kolmogorov Smirnov test to determine if the two distributions are indeed different, which combined with a visual inspection allowed us to demonstrate that the way we propose to aggregate performance measures leads to portfolio realized returns that first order stochastically dominate the ones that result from optimization only with respect to, for example, Treynor ratio and Jensen's alpha. We checked for second order stochastic dominance via point wise comparison of the so-called absolute Lorenz curve, or the sequence of expected shortfalls for a range of quantiles. As soon as the plot of the absolute Lorenz curve for the aggregated performance measures was above the one corresponding to each individual measure, we were tempted to conclude that the algorithm we propose leads to portfolio returns distribution that second order stochastically dominates virtually all performance measures considered. Chapter 3 proposes a measure of financial integration, based on recent advances in asset pricing in incomplete markets. Given a base market (a set of traded assets) and an index of another market, we propose to measure financial integration through time by the size of the spread between the pricing bounds of the market index, relative to the base market. The bigger the spread around country index A, viewed from market B, the less integrated markets A and B are. We investigate the presence of structural breaks in the size of the spread for EMU member country indices before and after the introduction of the Euro. We find evidence that both the level and the volatility of our financial integration measure increased after the introduction of the Euro. That counterintuitive result suggests the presence of an inherent weakness in the attempt to measure financial integration independently of economic fundamentals. Nevertheless, the results about the bounds on the risk free rate appear plausible from the view point of existing economic theory about the impact of integration on interest rates.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The Gp-9 gene in fire ants represents an important model system for studying the evolution of social organization in insects as well as a rich source of information relevant to other major evolutionary topics. An important feature of this system is that polymorphism in social organization is completely associated with allelic variation at Gp-9, such that single-queen colonies (monogyne form) include only inhabitants bearing B-like alleles while multiple-queen colonies (polygyne form) additionally include inhabitants bearing b-like alleles. A recent study of this system by Leal and Ishida (2008) made two major claims, the validity and significance of which we examine here. After reviewing existing literature, analyzing the methods and results of Leal and Ishida (2008), and generating new data from one of their study sites, we conclude that their claim that polygyny can occur in Solenopsis invicta in the U.S.A. in the absence of expression of the b-like allele Gp-9(b) is unfounded. Moreover, we argue that available information on insect OBPs (the family of proteins to which GP-9 belongs), on the evolutionary/population genetics of Gp-9, and on pheromonal/behavioral control of fire ant colony queen number fails to support their view that GP-9 plays no role in the chemosensory-mediated communication that underpins regulation of social organization. Our analyses lead us to conclude that there are no new reasons to question the existing consensus view of the Gp-9 system outlined in Gotzek and Ross (2007).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In France and Finland, farmer's lung disease (FLD), a hypersensitivity pneumonitis common in agricultural areas, is mainly caused by Eurotium species. The presence of antibodies in patients' serum is an important criterion for diagnosis. Our study aimed to improve the serological diagnosis of FLD by using common fungal particles that pollute the farm environment as antigens. Fungal particles of the Eurotium species were observed in handled hay. A strain of Eurotium amstelodami was grown in vitro using selected culture media; and antigen extracts from sexual (ascospores), asexual (conidia), and vegetative (hyphae) forms were made. Antigens were tested by enzyme-linked immunosorbent assay (ELISA), which was used to test for immunoglobulin G antibodies from the sera of 17 FLD patients, 40 healthy exposed farmers, and 20 nonexposed controls. The antigens were compared by receiver operating characteristic analysis, and a threshold was then established. The ascospores contained in asci enclosed within cleistothecia were present in 38% of the hay blades observed; conidial heads of aspergillus were less prevalent. The same protocol was followed to make the three antigen extracts. A comparison of the results for FLD patients and exposed controls showed the area under the curve to be 0.850 for the ascospore antigen, 0.731 for the conidia, and 0.690 for the hyphae. The cutoffs that we determined, with the standard deviation for measures being taken into account, showed 67% for sensitivity and 92% for specificity with the ascospore antigen. In conclusion, the serological diagnosis of FLD by ELISA was improved by the adjunction of ascospore antigen.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Expression of colony social organization in fire ants appears to be under the control of a single Mendelian factor of large effect. Variation in colony queen number in Solenopsis invicta and its relatives is associated with allelic variation at the gene Gp-9, but not with variation at other unlinked genes; workers regulate queen identity and number on the basis of Gp-9 genotypic compatibility. Nongeneticfactors, such as prior social experience, queen reproductive status, and local environment, have negligible effects on queen number which illustrates the nearly complete penetrance of Gp-9. As predicted, queen number can be manipulated experimentally by altering worker Gp-9 genotype frequencies. The Gp-9 allele lineage associated with polygyny in South American fire? ants has been retained across multiple speciation events, which may signal the action of balancing selection to maintain social polymorphism in these species. Moreover positive selection is implicated in driving the molecular evolution of Gp-9 in association with the origin of polygyny. The identity of the product of Gp-9 as an odorant-binding protein suggests plausible scenarios for its direct involvement in the regulation of queen number via a role in chemical communication. While these and other lines of evidence show that Gp-9 represents a legitimate candidate gene of major effect, studies aimed at determining (i) the biochemical pathways in which GP-9 functions; (ii) the phenotypic effects of molecular variation at Gp-9 and other pathway genes; and (iii) the potential involvement of genes in linkage disequilibrium with Gp-9 are needed to elucidate the genetic architecture underlying social organization in fire ants. Information that reveals the links between molecular variation, individual phenotype, and colony-level behaviors, combined with behavioral models that incorporate details of the chemical communication involved in regulating queen number will yield a novel integrated view of the evolutionary changes underlying a key social adaptation.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ces dernières années, de nombreuses recherches ont mis en évidence les effets toxiques des micropolluants organiques pour les espèces de nos lacs et rivières. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, alors que les organismes sont exposés tous les jours à des milliers de substances en mélange. Or les effets de ces cocktails ne sont pas négligeables. Cette thèse de doctorat s'est ainsi intéressée aux modèles permettant de prédire le risque environnemental de ces cocktails pour le milieu aquatique. Le principal objectif a été d'évaluer le risque écologique des mélanges de substances chimiques mesurées dans le Léman, mais aussi d'apporter un regard critique sur les méthodologies utilisées afin de proposer certaines adaptations pour une meilleure estimation du risque. Dans la première partie de ce travail, le risque des mélanges de pesticides et médicaments pour le Rhône et pour le Léman a été établi en utilisant des approches envisagées notamment dans la législation européenne. Il s'agit d'approches de « screening », c'est-à-dire permettant une évaluation générale du risque des mélanges. Une telle approche permet de mettre en évidence les substances les plus problématiques, c'est-à-dire contribuant le plus à la toxicité du mélange. Dans notre cas, il s'agit essentiellement de 4 pesticides. L'étude met également en évidence que toutes les substances, même en trace infime, contribuent à l'effet du mélange. Cette constatation a des implications en terme de gestion de l'environnement. En effet, ceci implique qu'il faut réduire toutes les sources de polluants, et pas seulement les plus problématiques. Mais l'approche proposée présente également un biais important au niveau conceptuel, ce qui rend son utilisation discutable, en dehors d'un screening, et nécessiterait une adaptation au niveau des facteurs de sécurité employés. Dans une deuxième partie, l'étude s'est portée sur l'utilisation des modèles de mélanges dans le calcul de risque environnemental. En effet, les modèles de mélanges ont été développés et validés espèce par espèce, et non pour une évaluation sur l'écosystème en entier. Leur utilisation devrait donc passer par un calcul par espèce, ce qui est rarement fait dû au manque de données écotoxicologiques à disposition. Le but a été donc de comparer, avec des valeurs générées aléatoirement, le calcul de risque effectué selon une méthode rigoureuse, espèce par espèce, avec celui effectué classiquement où les modèles sont appliqués sur l'ensemble de la communauté sans tenir compte des variations inter-espèces. Les résultats sont dans la majorité des cas similaires, ce qui valide l'approche utilisée traditionnellement. En revanche, ce travail a permis de déterminer certains cas où l'application classique peut conduire à une sous- ou sur-estimation du risque. Enfin, une dernière partie de cette thèse s'est intéressée à l'influence que les cocktails de micropolluants ont pu avoir sur les communautés in situ. Pour ce faire, une approche en deux temps a été adoptée. Tout d'abord la toxicité de quatorze herbicides détectés dans le Léman a été déterminée. Sur la période étudiée, de 2004 à 2009, cette toxicité due aux herbicides a diminué, passant de 4% d'espèces affectées à moins de 1%. Ensuite, la question était de savoir si cette diminution de toxicité avait un impact sur le développement de certaines espèces au sein de la communauté des algues. Pour ce faire, l'utilisation statistique a permis d'isoler d'autres facteurs pouvant avoir une influence sur la flore, comme la température de l'eau ou la présence de phosphates, et ainsi de constater quelles espèces se sont révélées avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps. Fait intéressant, une partie d'entre-elles avait déjà montré des comportements similaires dans des études en mésocosmes. En conclusion, ce travail montre qu'il existe des modèles robustes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques, et qu'ils peuvent être utilisés pour expliquer le rôle des substances dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application. - Depuis plusieurs années, les risques que posent les micropolluants organiques pour le milieu aquatique préoccupent grandement les scientifiques ainsi que notre société. En effet, de nombreuses recherches ont mis en évidence les effets toxiques que peuvent avoir ces substances chimiques sur les espèces de nos lacs et rivières, quand elles se retrouvent exposées à des concentrations aiguës ou chroniques. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, c'est à dire considérées séparément. Actuellement, il en est de même dans les procédures de régulation européennes, concernant la partie évaluation du risque pour l'environnement d'une substance. Or, les organismes sont exposés tous les jours à des milliers de substances en mélange, et les effets de ces "cocktails" ne sont pas négligeables. L'évaluation du risque écologique que pose ces mélanges de substances doit donc être abordé par de la manière la plus appropriée et la plus fiable possible. Dans la première partie de cette thèse, nous nous sommes intéressés aux méthodes actuellement envisagées à être intégrées dans les législations européennes pour l'évaluation du risque des mélanges pour le milieu aquatique. Ces méthodes sont basées sur le modèle d'addition des concentrations, avec l'utilisation des valeurs de concentrations des substances estimées sans effet dans le milieu (PNEC), ou à partir des valeurs des concentrations d'effet (CE50) sur certaines espèces d'un niveau trophique avec la prise en compte de facteurs de sécurité. Nous avons appliqué ces méthodes à deux cas spécifiques, le lac Léman et le Rhône situés en Suisse, et discuté les résultats de ces applications. Ces premières étapes d'évaluation ont montré que le risque des mélanges pour ces cas d'étude atteint rapidement une valeur au dessus d'un seuil critique. Cette valeur atteinte est généralement due à deux ou trois substances principales. Les procédures proposées permettent donc d'identifier les substances les plus problématiques pour lesquelles des mesures de gestion, telles que la réduction de leur entrée dans le milieu aquatique, devraient être envisagées. Cependant, nous avons également constaté que le niveau de risque associé à ces mélanges de substances n'est pas négligeable, même sans tenir compte de ces substances principales. En effet, l'accumulation des substances, même en traces infimes, atteint un seuil critique, ce qui devient plus difficile en terme de gestion du risque. En outre, nous avons souligné un manque de fiabilité dans ces procédures, qui peuvent conduire à des résultats contradictoires en terme de risque. Ceci est lié à l'incompatibilité des facteurs de sécurité utilisés dans les différentes méthodes. Dans la deuxième partie de la thèse, nous avons étudié la fiabilité de méthodes plus avancées dans la prédiction de l'effet des mélanges pour les communautés évoluant dans le système aquatique. Ces méthodes reposent sur le modèle d'addition des concentrations (CA) ou d'addition des réponses (RA) appliqués sur les courbes de distribution de la sensibilité des espèces (SSD) aux substances. En effet, les modèles de mélanges ont été développés et validés pour être appliqués espèce par espèce, et non pas sur plusieurs espèces agrégées simultanément dans les courbes SSD. Nous avons ainsi proposé une procédure plus rigoureuse, pour l'évaluation du risque d'un mélange, qui serait d'appliquer d'abord les modèles CA ou RA à chaque espèce séparément, et, dans une deuxième étape, combiner les résultats afin d'établir une courbe SSD du mélange. Malheureusement, cette méthode n'est pas applicable dans la plupart des cas, car elle nécessite trop de données généralement indisponibles. Par conséquent, nous avons comparé, avec des valeurs générées aléatoirement, le calcul de risque effectué selon cette méthode plus rigoureuse, avec celle effectuée traditionnellement, afin de caractériser la robustesse de cette approche qui consiste à appliquer les modèles de mélange sur les courbes SSD. Nos résultats ont montré que l'utilisation de CA directement sur les SSDs peut conduire à une sous-estimation de la concentration du mélange affectant 5 % ou 50% des espèces, en particulier lorsque les substances présentent un grand écart- type dans leur distribution de la sensibilité des espèces. L'application du modèle RA peut quant à lui conduire à une sur- ou sous-estimations, principalement en fonction de la pente des courbes dose- réponse de chaque espèce composant les SSDs. La sous-estimation avec RA devient potentiellement importante lorsque le rapport entre la EC50 et la EC10 de la courbe dose-réponse des espèces est plus petit que 100. Toutefois, la plupart des substances, selon des cas réels, présentent des données d' écotoxicité qui font que le risque du mélange calculé par la méthode des modèles appliqués directement sur les SSDs reste cohérent et surestimerait plutôt légèrement le risque. Ces résultats valident ainsi l'approche utilisée traditionnellement. Néanmoins, il faut garder à l'esprit cette source d'erreur lorsqu'on procède à une évaluation du risque d'un mélange avec cette méthode traditionnelle, en particulier quand les SSD présentent une distribution des données en dehors des limites déterminées dans cette étude. Enfin, dans la dernière partie de cette thèse, nous avons confronté des prédictions de l'effet de mélange avec des changements biologiques observés dans l'environnement. Dans cette étude, nous avons utilisé des données venant d'un suivi à long terme d'un grand lac européen, le lac Léman, ce qui offrait la possibilité d'évaluer dans quelle mesure la prédiction de la toxicité des mélanges d'herbicide expliquait les changements dans la composition de la communauté phytoplanctonique. Ceci à côté d'autres paramètres classiques de limnologie tels que les nutriments. Pour atteindre cet objectif, nous avons déterminé la toxicité des mélanges sur plusieurs années de 14 herbicides régulièrement détectés dans le lac, en utilisant les modèles CA et RA avec les courbes de distribution de la sensibilité des espèces. Un gradient temporel de toxicité décroissant a pu être constaté de 2004 à 2009. Une analyse de redondance et de redondance partielle, a montré que ce gradient explique une partie significative de la variation de la composition de la communauté phytoplanctonique, même après avoir enlevé l'effet de toutes les autres co-variables. De plus, certaines espèces révélées pour avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps, ont montré des comportements similaires dans des études en mésocosmes. On peut en conclure que la toxicité du mélange herbicide est l'un des paramètres clés pour expliquer les changements de phytoplancton dans le lac Léman. En conclusion, il existe diverses méthodes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques et celui-ci peut jouer un rôle dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application, avant d'utiliser leurs résultats pour la gestion des risques environnementaux. - For several years now, the scientists as well as the society is concerned by the aquatic risk organic micropollutants may pose. Indeed, several researches have shown the toxic effects these substances may induce on organisms living in our lakes or rivers, especially when they are exposed to acute or chronic concentrations. However, most of the studies focused on the toxicity of single compounds, i.e. considered individually. The same also goes in the current European regulations concerning the risk assessment procedures for the environment of these substances. But aquatic organisms are typically exposed every day simultaneously to thousands of organic compounds. The toxic effects resulting of these "cocktails" cannot be neglected. The ecological risk assessment of mixtures of such compounds has therefore to be addressed by scientists in the most reliable and appropriate way. In the first part of this thesis, the procedures currently envisioned for the aquatic mixture risk assessment in European legislations are described. These methodologies are based on the mixture model of concentration addition and the use of the predicted no effect concentrations (PNEC) or effect concentrations (EC50) with assessment factors. These principal approaches were applied to two specific case studies, Lake Geneva and the River Rhône in Switzerland, including a discussion of the outcomes of such applications. These first level assessments showed that the mixture risks for these studied cases exceeded rapidly the critical value. This exceeding is generally due to two or three main substances. The proposed procedures allow therefore the identification of the most problematic substances for which management measures, such as a reduction of the entrance to the aquatic environment, should be envisioned. However, it was also showed that the risk levels associated with mixtures of compounds are not negligible, even without considering these main substances. Indeed, it is the sum of the substances that is problematic, which is more challenging in term of risk management. Moreover, a lack of reliability in the procedures was highlighted, which can lead to contradictory results in terms of risk. This result is linked to the inconsistency in the assessment factors applied in the different methods. In the second part of the thesis, the reliability of the more advanced procedures to predict the mixture effect to communities in the aquatic system were investigated. These established methodologies combine the model of concentration addition (CA) or response addition (RA) with species sensitivity distribution curves (SSD). Indeed, the mixture effect predictions were shown to be consistent only when the mixture models are applied on a single species, and not on several species simultaneously aggregated to SSDs. Hence, A more stringent procedure for mixture risk assessment is proposed, that would be to apply first the CA or RA models to each species separately and, in a second step, to combine the results to build an SSD for a mixture. Unfortunately, this methodology is not applicable in most cases, because it requires large data sets usually not available. Therefore, the differences between the two methodologies were studied with datasets created artificially to characterize the robustness of the traditional approach applying models on species sensitivity distribution. The results showed that the use of CA on SSD directly might lead to underestimations of the mixture concentration affecting 5% or 50% of species, especially when substances present a large standard deviation of the distribution from the sensitivity of the species. The application of RA can lead to over- or underestimates, depending mainly on the slope of the dose-response curves of the individual species. The potential underestimation with RA becomes important when the ratio between the EC50 and the EC10 for the dose-response curve of the species composing the SSD are smaller than 100. However, considering common real cases of ecotoxicity data for substances, the mixture risk calculated by the methodology applying mixture models directly on SSDs remains consistent and would rather slightly overestimate the risk. These results can be used as a theoretical validation of the currently applied methodology. Nevertheless, when assessing the risk of mixtures, one has to keep in mind this source of error with this classical methodology, especially when SSDs present a distribution of the data outside the range determined in this study Finally, in the last part of this thesis, we confronted the mixture effect predictions with biological changes observed in the environment. In this study, long-term monitoring of a European great lake, Lake Geneva, provides the opportunity to assess to what extent the predicted toxicity of herbicide mixtures explains the changes in the composition of the phytoplankton community next to other classical limnology parameters such as nutrients. To reach this goal, the gradient of the mixture toxicity of 14 herbicides regularly detected in the lake was calculated, using concentration addition and response addition models. A decreasing temporal gradient of toxicity was observed from 2004 to 2009. Redundancy analysis and partial redundancy analysis showed that this gradient explains a significant portion of the variation in phytoplankton community composition, even when having removed the effect of all other co-variables. Moreover, some species that were revealed to be influenced positively or negatively, by the decrease of toxicity in the lake over time, showed similar behaviors in mesocosms studies. It could be concluded that the herbicide mixture toxicity is one of the key parameters to explain phytoplankton changes in Lake Geneva. To conclude, different methods exist to predict the risk of mixture in the ecosystems. But their reliability varies depending on the underlying hypotheses. One should therefore carefully consider these hypotheses, as well as the limits of the approaches, before using the results for environmental risk management