26 resultados para Courbes de Seinerg-Witten

em Université de Lausanne, Switzerland


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Aujourd'hui, les problèmes des maladies infectieuses concernent l'émergence d'infections difficiles à traiter, telles que les infections associées aux implants et les infections fongiques invasives chez les patients immunodéprimés. L'objectif de cette thèse était de développer des stratégies pour l'éradication des biofilms bactériens (partie 1), ainsi que d'étudier des méthodes innovantes pour la détection microbienne, pour l'établissement de nouveaux tests de sensibilité (partie 2). Le traitement des infections associées aux implants est difficile car les biofilms bactériens peuvent résister à des niveaux élevés d'antibiotiques. A ce jour, il n'y a pas de traitement optimal défini contre des infections causées par des bactéries de prévalence moindre telles que Enterococcus faecalis ou Propionibacterium acnés. Dans un premier temps, nous avons démontré une excellente activité in vitro de la gentamicine sur une souche de E. faecalis en phase stationnaire de croissance Nous avons ensuite confirmé l'activité de la gentamicine sur un biofilm précoce en modèle expérimental animal à corps étranger avec un taux de guérison de 50%. De plus, les courbes de bactéricidie ainsi que les résultats de calorimétrie ont prouvé que l'ajout de gentamicine améliorait l'activité in vitro de la daptomycine, ainsi que celle de la vancomycine. In vivo, le schéma thérapeutique le plus efficace était l'association daptomycine/gentamicine avec un taux de guérison de 55%. En établissant une nouvelle méthode pour l'évaluation de l'activité des antimicrobiens vis-à-vis de micro-organismes en biofilm, nous avons démontré que le meilleur antibiotique actif sur les biofilms à P. acnés était la rifampicine, suivi par la penicilline G, la daptomycine et la ceftriaxone. Les études conduites en modèle expérimental animal ont confirmé l'activité de la rifampicine seule avec un taux de guérison 36%. Le meilleur schéma thérapeutique était au final l'association rifampicine/daptomycine avec un taux de guérison 63%. Les associations de rifampicine avec la vancomycine ou la levofloxacine présentaient des taux de guérisons respectivement de 46% et 25%. Nous avons ensuite étudié l'émergence in vitro de la résistance à la rifampicine chez P. acnés. Nous avons observé un taux de mutations de 10"9. La caractérisation moléculaire de la résistance chez les mutant-résistants a mis en évidence l'implication de 5 mutations ponctuelles dans les domaines I et II du gène rpoB. Ce type de mutations a déjà été décrit au préalable chez d'autres espèces bactériennes, corroborant ainsi la validité de nos résultats. La deuxième partie de cette thèse décrit une nouvelle méthode d'évaluation de l'efficacité des antifongiques basée sur des mesures de microcalorimétrie isotherme. En utilisant un microcalorimètre, la chaleur produite par la croissance microbienne peut être-mesurée en temps réel, très précisément. Nous avons évalué l'activité de l'amphotéricine B, des triazolés et des échinocandines sur différentes souches de Aspergillus spp. par microcalorimétrie. La présence d'amphotéricine Β ou de triazole retardait la production de chaleur de manière concentration-dépendante. En revanche, pour les échinochandines, seule une diminution le pic de « flux de chaleur » a été observé. La concordance entre la concentration minimale inhibitrice de chaleur (CMIC) et la CMI ou CEM (définie par CLSI M38A), avec une marge de 2 dilutions, était de 90% pour l'amphotéricine B, 100% pour le voriconazole, 90% pour le pozoconazole et 70% pour la caspofongine. La méthode a été utilisée pour définir la sensibilité aux antifongiques pour d'autres types de champignons filamenteux. Par détermination microcalorimétrique, l'amphotéricine B s'est avéré être l'agent le plus actif contre les Mucorales et les Fusarium spp.. et le voriconazole le plus actif contre les Scedosporium spp. Finalement, nous avons évalué l'activité d'associations d'antifongiques vis-à-vis de Aspergillus spp. Une meilleure activité antifongique était retrouvée avec l'amphotéricine B ou le voriconazole lorsque ces derniers étaient associés aux échinocandines vis-à-vis de A. fumigatus. L'association échinocandine/amphotéricine B a démontré une activité antifongique synergique vis-à-vis de A. terreus, contrairement à l'association échinocandine/voriconazole qui ne démontrait aucune amélioration significative de l'activité antifongique. - The diagnosis and treatment of infectious diseases are today increasingly challenged by the emergence of difficult-to-manage situations, such as infections associated with medical devices and invasive fungal infections, especially in immunocompromised patients. The aim of this thesis was to address these challenges by developing new strategies for eradication of biofilms of difficult-to-treat microorganisms (treatment, part 1) and investigating innovative methods for microbial detection and antimicrobial susceptibility testing (diagnosis, part 2). The first part of the thesis investigates antimicrobial treatment strategies for infections caused by two less investigated microorganisms, Enterococcus faecalis and Propionibacterium acnes, which are important pathogens causing implant-associated infections. The treatment of implant-associated infections is difficult in general due to reduced susceptibility of bacteria when present in biofilms. We demonstrated an excellent in vitro activity of gentamicin against E. faecalis in stationary growth- phase and were able to confirm the activity against "young" biofilms (3 hours) in an experimental foreign-body infection model (cure rate 50%). The addition of gentamicin improved the activity of daptomycin and vancomycin in vitro, as determined by time-kill curves and microcalorimetry. In vivo, the most efficient combination regimen was daptomycin plus gentamicin (cure rate 55%). Despite a short duration of infection, the cure rates were low, highlighting that enterococcal biofilms remain difficult to treat despite administration of newer antibiotics, such as daptomycin. By establishing a novel in vitro assay for evaluation of anti-biofilm activity (microcalorimetry), we demonstrated that rifampin was the most active antimicrobial against P. acnes biofilms, followed by penicillin G, daptomycin and ceftriaxone. In animal studies we confirmed the anti-biofilm activity of rifampin (cure rate 36% when administered alone), as well as in combination with daptomycin (cure rate 63%), whereas in combination with vancomycin or levofloxacin it showed lower cure rates (46% and 25%, respectively). We further investigated the emergence of rifampin resistance in P. acnes in vitro. Rifampin resistance progressively emerged during exposure to rifampin, if the bacterial concentration was high (108 cfu/ml) with a mutation rate of 10"9. In resistant isolates, five point mutations of the rpoB gene were found in cluster I and II, as previously described for staphylococci and other bacterial species. The second part of the thesis describes a novel real-time method for evaluation of antifungals against molds, based on measurements of the growth-related heat production by isothermal microcalorimetry. Current methods for evaluation of antifungal agents against molds, have several limitations, especially when combinations of antifungals are investigated. We evaluated the activity of amphotericin B, triazoles (voriconazole, posaconazole) and echinocandins (caspofungin and anidulafungin) against Aspergillus spp. by microcalorimetry. The presence of amphotericin Β or a triazole delayed the heat production in a concentration-dependent manner and the minimal heat inhibition concentration (MHIC) was determined as the lowest concentration inhibiting 50% of the heat produced at 48 h. Due to the different mechanism of action echinocandins, the MHIC for this antifungal class was determined as the lowest concentration lowering the heat-flow peak with 50%. Agreement within two 2-fold dilutions between MHIC and MIC or MEC (determined by CLSI M38A) was 90% for amphotericin B, 100% for voriconazole, 90% for posaconazole and 70% for caspofungin. We further evaluated our assay for antifungal susceptibility testing of non-Aspergillus molds. As determined by microcalorimetry, amphotericin Β was the most active agent against Mucorales and Fusarium spp., whereas voriconazole was the most active agent against Scedosporium spp. Finally, we evaluated the activity of antifungal combinations against Aspergillus spp. Against A. jumigatus, an improved activity of amphotericin Β and voriconazole was observed when combined with an echinocandin. Against A. terreus, an echinocandin showed a synergistic activity with amphotericin B, whereas in combination with voriconazole, no considerable improved activity was observed.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

ABSTRACT : During my SNSF-funded Ph.D. thesis project, I studied the evolution of redox conditions and organic-carbon preservation in the western Tethyan realm during three major positive excursions in the Cretaceous δ13C record, corresponding to the Valanginian, Early Aptian and Late Cenomanian. These periods were characterized by important global environmental and climate change, which was associated with perturbations in the carbon cycle. For the period of the Valanginian δ13C excursion, total organic carbon (TOC) contents and the quality of preserved organic matter are typical of oxic pelagic settings in the western Tethys. This is confirmed by the absence of major excursions in the stratigraphic distribution of RSTE during the δ13C shift. Published TOC data from other parts of the Valanginian oceans indicate that dys- to anaerobic zones were restricted to marginal seas within the Atlantic and Southern Ocean, and to the Pacific. Phosphorus (P) and mineralogical contents suggest a stepwise climatic evolution during the Valanginian, with a humid and warm climate prior to the δ13C shift leading to an increase in continental runoff. During the δ13C shift, a decrease in detrital input and P contents suggests a change in the climate towards more and conditions. During the early Aptian oceanic anoxic event (OAE 1a), a general increase followed by a rapid decrease in P contents suggests enhanced nutrient input at the beginning of OAE 1a. The return to lower values during OAE 1 a, associated with an increase in RSTE contents, may have been related to the weakened capacity to retain P in the sedimentary reservoir due to bottom-water oxygen depletion. In basinal settings, the RSTE distribution indicates well-developed anoxic conditions during OAE la, whereas in the shallower-water environments, conditions were oxic to suboxic, rather than anoxic. Furthermore, in the deeper part of the Tethys, two distinct enrichments have been observed, indicating fluctuations in the intensity of water column anoxia during the δ73C excursion. We also studied the effect of the end-Cenomanian oceanic anoxic event (OAE 2) on an expanded section in the Chrummflueschlucht (E of Euthal, Ct Switzerland). The goal here was to identify paleoceanographic and paleoenvironmental conditions during OAE 2 in this part of the northern Tethyan margin. The results show that this section is one of the most complete sections for the Cenomanian-Turonian boundary interval known from the Helvetic realm, despite a small hiatus between sediments corresponding to peaks 1 and 2 in the δ13C record. The evolution of P contents points to an increase in the input of this nutrient at the onset of OAE 2. The trends in RSTE contents show, however, that this part of the Helvetic realm was not affected by a strong depletion in oxygen conditions during OAE 2, despite its hemipelagic position. A further goal of this project was to submit the samples to a total extraction method (a combined HF/HNO3/HCI acid digestion) and compare the results obtained by the partial HNO3 acid extraction in order to standardize the analytical prócedures in the extraction of RSTE. The obtained results for samples of OAE 1 a suggest that RSTE trends using the partial HNO3 digestion are very comparable to those obtained by the total digestion method and subsequently normalized with regards to AI contents. RÉSUMÉ : Durant ce projet de thèse, financé par le Swiss National Science Funding (SNSF), j'ai étudié l'évolution des conditions redox et de la préservation de carbone organique dans le domnaine ouesttéthysien pendant trois excursions majeures du δ13C au Crétacé correspondant au Valanginien, à l'Aptien inférieur et à la limite Cénomanien-Turonien. Ces périodes sont caractérisées par des changements climatiques et environnementaux globaux associés à des perturbations dans le cylce du carbone. Pour L'excursion positive en δ13C du Valanginien, les analyses du carbone organique total (COT) et les observations palynologiques du domaine téthysien ont présenté des indications d'environnement pélagique relativementbienoxygéné. L'absence d'enrichissements en éléments traces sensibles aux conditions redox (TE) pendant l'excursion positive en δ13C confirme ces interprétations. Les données publiées de COT dans d'autres partie du globe indiquent cependant l'existence de conditions dys- à anaérobiques dans certains bassins restreints de l'Atlantique, l'Océan Austral et du Pacifique. L'évolution du phosphore (P) et la composition minéralogique des sédiments semblent indiquer un climat relativement chaud et humide avant l'excursion en δ13C entraînant une augmentation de l'altération continentale. Pendant le shift isotopique, une diminution des apports détritiques et du P suggèrent une transition vers des conditions plus arides. À l'Aptien Inférieur, le début de l'événement anoxique (OAE 1a) est marqué par une augmentation générale du P dans les sédiments indiquant une augmentation du niveau trophique à la base de l'excursion isotopique. Durant l'événement anoxique, les sédiments sont relativement appauvris en P. Cette diminution rapide associée à des enrichissements en TE est probablement liée à une remobilisation plus importante du P lors de la mise en place de conditions anoxiques dans les eaux de fond. Dans les environnements de bassin, le comportement des TE (enrichissements bien marqués) attestent de conditions réductrices bien marquées alors que dans les environnements moins profonds, les conditions semblent plutôt oxiques à dysoxiques. De plus, deux niveaux d'enrichissement en TE ont été observés dans la partie plus profonde de la Téthys, indiquant des fluctuations assez rapides dans l'intensité de l'anoxie de la colonne d'eau. Nous avons ensuite étudié les effets de l'événement anoxique de la fin du Cenomanien (OAE 2) dans un basin marginal de la marge nord de la Téthys avec la coupe de Chrummflueschlucht (à l'est de Euthal, Ct Schwyz). Les résultats ont montré que cette coupe présente un des enregistrements sédimentaires des plus complets de l'OAE 2 dans le domaine helvétique malgré un hiatus entre le pic 1 et 2 de l'excursion en δ13C. L'évolution du P montre une augmentation au début de l'OAE 2. Cependant, la distribution des TE indique que cette région n'a pas été affectée par des conditions réductrices trop importantes. Un second aspect de ce travail a été l'étude des différentes méthodes sur l'analyse de la distribution des TE. Des échantillons de l'OAE 1a ont été soumis à deux types d'extractions, l'une dite «totale » (attaque combinée d'acides HF/HNO3/HCI) et l'autre dite partielle » (HNO3). Les résultats obtenus suggèrent que les courbes de tendances des TE acquises par extraction partielle sont semblables à celle obtenues par extraction totale et normalisées par l'AI.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La trachée et les bronches proximales sont de fins conduits subtils, ingénieusement structurés par une partie cartilagineuse antérieure résistante aux variations de pression et une partie membraneuse postérieure souple. Par leurs faibles volumes (espace mort) ils délivrent un grand pourcentage de l'air inspiré aux voies distales, puis au parenchyme pulmonaire, permettant les échanges de gaz. Cette belle harmonie respiratoire peut être rapidement mise à mal dès qu'un processus atteint ces voies respiratoires proximales, soit en les comprimant, processus sténosant, soit en affaiblissant leur structure, trachéo-bronchomalacie, soit en ouvrant leur paroi sur les structures médiastinales, fistule trachéo/broncho-médiastinales, pleurales ou autres. Le pronostic vital est alors rapidement engagé au vu de l'absolue nécessité du bon fonctionnement de ces fins conduits, une petite diminution du calibre de leurs fines lumières provoquant une baisse importante de leurs surfaces. Dans ces situations à haut potentiel de complication majeure les interventions endoscopiques pour restaurer l'intégrité de ces conduits sont alors fort risquées, et il est primordial de pouvoir les effectuer dans un cadre sécurisé au maximum. La réalisation de ces gestes par la technique décrite dans notre article « Use of combined suspension laryngoscopy, flexible bronchoscopy and high frequency jet ventilation forY-shaped airway stents delivery" permet la sécurité nécessaire à ces situations instable, en effet -la laryngoscopie en suspension expose les voies proximales en offrant un accès le plus large possible à l'arbre trachéobronchique ce qui permet l insertion de multiples instruments parfois volumineux, -la Jet ventilation assure une oxygénation et une ventilation adéquate par un fin cathéter placé soit dans le poumon sain, soit en distalité de la lésion -la bronchoscopie souple, passant au travers d'endroits exigus et courbes permet le déploiement sous vision direct, au millimètre près, de divers dispositifs. Cette association remplace avantageusement la technique traditionnelle qui insère les stents à l'aveugle, et en apnée, ce qui représente de haut risque de mauvais positionnement des stents avec des conséquences immédiates sur l'oxygénation et la ventilation souvent déjà bien altérées. Perspective et conclusion : cette technique est utile pour l'insertion des stents en Y, centraux, comme décrit dans notre article, et les indications peuvent être étendues aux stents distaux pour lesquels l'accès n'est parfois pas aisé avec le bronchoscope rigide, et pour d'autres interventions endoscopiques, laser, cryothérapie, radiofréquence ou l'insertion de nouveaux dispositifs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The study of wave propagation at sonic frequency in soil leads to elasticity parameter determination. These parameters are compatible to those measured simultaneously by static loading. The acquisition of in situ elasticity parameter combined with laboratory description of the elastoplastic behaviour can lead to in situ elastoplastic curves. - L'étude de la propagation des ondes acoustiques permet la détermination des paramètres d'élasticité dans les sols. Ces paramètres sont cohérents avec des mesures statiques simultanées. L'acquisition des paramètres d'élasticité in situ associée à une description du comportement élasto-plastique mesuré en laboratoire permet d'obtenir des courbes d'élastoplasticité in situ.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans le domaine de l'analyse et la détection de produits pharmaceutiques contrefaits, différentes techniques analytiques ont été appliquées afin de discriminer les produits authentiques des contrefaçons. Parmi celles-ci, les spectroscopies proche infrarouge (NIR) et Raman ont fourni des résultats prometteurs. L'objectif de cette étude était de développer une méthodologie, basée sur l'établissement de liens chimiques entre les saisies de produits contrefaits, permettant de fournir des informations utiles pour les acteurs impliqués dans la lutte à la prolifération de ces produits. Une banque de données de spectres NIR et Raman a été créée et différents algorithmes de classification non-supervisée (i.e., analyse en composantes principales (ACP) et analyse factorielle discriminante (AFD) - elus ter onolysis) ont été utilisées afin d'identifier les différents groupes de produits présents. Ces classes ont été comparées aux profils chimiques mis en évidence par la spectroscopie infrarouge à transformée de Fourier (FT-IR) et par la chromatographie gazeuse couplée à la spectrométrie de masse (GC -MS). La stratégie de classification proposée, fondée sur les classes identifiées par spectroscopie NIR et Raman, utilise un algorithme de classification basé sur des mesures de distance et des courbes Receiver Operating Characteristics (ROC). Le modèle est capable de comparer le spectre d'une nouvelle contrefaçon à ceux des saisies précédemment analysées afin de déterminer si le nouveau spécimen appartient à l'une des classes existantes, permettant ainsi de le lier à d'autres saisies dans la base de données.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Rapport de synthèse : Introduction : le vieillissement cutané est un processus biologique complexe auquel participe une exposition excessive au rayonnement ultraviolet du soleil. En particulier, les longueurs d'onde des rayons ultraviolets A et B (UV-A et UV-B) peuvent induire une augmentation de la synthèse de protéases, comme la métalloprotéinase matricielle 1 (MMP-1), qui est impliquée dans le processus de vieillissement. La thermothérapie par infrarouges, dont les longueurs d'onde sont plus longues que celles des UV, est largement utilisée à des fins thérapeutiques ou cosmétiques. Or, il a été démontré que les infrarouges en filtration aqueuse (IRFA) pouvaient induire une augmentation de la production de MMP-1 et par conséquent être nocifs. Il serait donc intéressant d'évaluer les effets des IRFA au niveau cellulaire et moléculaire. But Expérimental : étudier les effets des lampes à infrarouges en filtration aqueuse utilisées en clinique sur des fibroblastes cutanés humains en culture, afin d'analyser l'expression du gène codant pour la protéine MMP-1. Méthode : des fibroblastes cutanés humain ont été irradiés d'une part avec approximativement 88% d'IRFA (780-1400 nm) et 12% de lumière rouge (LR, 665-780 nm) avec 380 mW/cm2 IRFA(+LR) (333 mW/cm2 IRFA) et d'autre part avec des UV-A comme contrôle. Des courbes de survie cellulaire ont été établies après une exposition allant de 15 minutes à 8 heures au IRFA(+LR) (340-10880 J/cm2 wIRA(+RL), 300-9600 J/cm2 wIRA) ou de 15 à 45 minutes aux UV-A(+BL) (25-75 J/cm2 UV-A(+BL). L'induction de l'ARNm du gène de la MMP-1 a été analysé dans les fibroblastes cutanés humain à deux températures physiologiques (30°C et 37°C) lors d'expositions uniques de 15 à 60 minutes aux IRFA(+LR) (340-1360 J/cm2 IRFA(+LR), 300-1200 J/cm2 IRFA) ou de 30 minutes aux UV-A(+BL) (50 J/cm2 UVA(+BL)). De plus, nous avons effectué des irradiations répétées, une a chaque passage cellulaire jusqu'au passage. 10 de 15 minutes d'IRFA(+LR) 340 J/cm2 IRFA(+LR), 300 J/cm2 IRFA) . Résultats : une exposition unique aux UV-A (+BL) entraîne chez des fibroblastes cutanés humains une augmentation de la mort cellulaire, ainsi qu'une forte augmentation de l'expression du gène codant pour la MMP-1. L'augmentation mise en évidence pour cet ARNm varie en fonction de la technique utilisée : elle est de 11 ± 1 fois par RT-PCR classique, de 76 ± 2 fois par RT-PCR quantitative à 30°C, et de 75 ± 1 fois par RT-PCR quantitative à 37°C. Par contre, une exposition unique ou répétée aux IRFA (+LR) n'induit aucune augmentation de la mort cellulaire, ni de l'expression de l'ARNm de la MMP-1 chez ces fibroblastes. Conclusions : les résultats de cette étude montrent que, contrairement aux rayons ultraviolets, les IRFA (+LR) ne semblent impliqués ni dans le vieillissement, ni dans la mort cellulaire, même utilisés à des doses très élevées. Ces résultats sont en accord avec certaines investigations in vivo montrant une induction de MMP-1 par des UV et non des infrarouges. Ces dernières études suggèrent d'ailleurs plutôt un rôle protecteur des IRFA (+LR).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Keywords Diabetes mellitus; coronary artery disease; myocardial ischemia; prognostic value; single-photon emission computed tomography myocardial perfusion imaging Summary Aim: To determine the long-term prognostic value of SPECT myocardial perfusion imaging (MPI) for the occurrence of cardiovascular events in diabetic patients. Methods: SPECT MPI of 210 consecutive Caucasian diabetic patients were analysed using Kaplan-Meier event-free survival curves and independent predictors were determined by Cox multivariate analyses. Results: Follow-up was complete in 200 (95%) patients with a median period of 3.0 years (0.8-5.0). The population was composed of 114 (57%) men, age 65±10 years, 181 (90.5%) type 2 diabetes mellitus, 50 (25%) with a history of coronary artery disease (CAD) and 98 (49%) presenting chest pain prior to MPI. The prevalence of abnormal MPI was 58%. Patients with a normal MPI had neither cardiac death, nor myocardial infarction, independently of a history of coronary artery disease or chest pain. Among the independent predictors of cardiac death and myocardial infarction, the strongest was abnormal MPI (p<.0001), followed by history of CAD (Hazard Ratio (HR)= t 5.9, p=0.0001), diabetic retinopathy (HR=10.0, p=0.001) and inability to exercise (HR=7.7, p=0.02). Patients with normal 1VIPI had a low revascularisation rate of 2.4% during the follow-up period. Compared to normal MPI, cardiovascular events increased 5.2 fold for reversible defects, 8.5 fold for fixed defects and 20.1 fold for the association of both defects. Conclusion: Diabetic patients with normal MPI had an excellent prognosis independently of history of CAD. On the opposite, an abnormal MPI led to a > 5 fold increase in cardiovascular events. This emphasizes the value of SPECT MPI in predicting and risk-stratifying cardiovascular events in diabetic patients. Mots-Clés Diabète; maladie coronarienne; ischémie myocardique; valeur pronostique; tomoscintigraphie myocardique de perfusion par émission monophotonique Résumé Objectifs: Déterminer la valeur pronostique à long terme de la tomoscintigraphie myocardique de perfusion (TSMP) chez les patients diabétiques pour prédire les événements cardiovasculaires (ECV). Méthodes: Etude de 210 diabétiques caucasiens consécutifs référés pour une TSMP. Les courbes de survie ont été déterminées par Kaplan-Meier et les facteurs prédictifs indépendants par analyses multivariées de type Cox. Résultats: Le suivi a été complet chez 200 (95%) patients avec une durée médiane de 3.0 ans (0.8-50). La population était composée de 114 (57%) hommes, âge moyen 65±10 ans, avec 181 (90.5%) diabète de type 2, 50 (25%) antécédents de maladie coronarienne (AMC) et 98 (49%) patients connus pour un angor avant la TSMP. La prévalence de TSMP anormales était de 58%. Aucun décès d'origine cardiaque ou infarctus du myocarde n'est survenu chez les patients avec une TSMP normale, ceci indépendamment de leurs AMC et des douleurs thoraciques. Les facteurs prédictifs indépendants pour les ECV sont une TSMP anormale (p<.0001), les AMC (Hazard Ratio (HR)=15.9, p-0.0001), suivi de la rétinopathie diabétique (HR-10.0, p=0.001) et de l'incapacité à effectuer un exercice (HR=7.7, p=0.02). Les patients avec une TSMP normale ont présenté un taux de revascularisations de 2.4%. La présence de défauts mixtes accroît le risque d'ECV de 20.1 fois, les défauts fixes de 8.5 fois et les défauts réversibles de 5.2 fois comparés aux sujets avec une TSMP normale. Conclusion: Les patients diabétiques, coronariens ou non, avec une tomoscintigraphie myocardique de perfusion normale ont un excellent pronostique. A l'opposé, une TSMP anormale est associée à une augmentation du risque d'ECV de plus de 5 fois. Ceci confirme l'utilité de la TSMP dans la stratification du risque chez les patients diabétiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les écosystèmes fournissent de nombreuses ressources et services écologiques qui sont utiles à la population humaine. La biodiversité est une composante essentielle des écosystèmes et maintient de nombreux services. Afin d'assurer la permanence des services écosystémiques, des mesures doivent être prises pour conserver la biodiversité. Dans ce but, l'acquisition d'informations détaillées sur la distribution de la biodiversité dans l'espace est essentielle. Les modèles de distribution d'espèces (SDMs) sont des modèles empiriques qui mettent en lien des observations de terrain (présences ou absences d'une espèce) avec des descripteurs de l'environnement, selon des courbes de réponses statistiques qui décrive la niche réalisée des espèces. Ces modèles fournissent des projections spatiales indiquant les lieux les plus favorables pour les espèces considérées. Le principal objectif de cette thèse est de fournir des projections plus réalistes de la distribution des espèces et des communautés en montagne pour le climat présent et futur en considérant non-seulement des variables abiotiques mais aussi biotiques. Les régions de montagne et l'écosystème alpin sont très sensibles aux changements globaux et en même temps assurent de nombreux services écosystémiques. Cette thèse est séparée en trois parties : (i) fournir une meilleure compréhension du rôle des interactions biotiques dans la distribution des espèces et l'assemblage des communautés en montagne (ouest des Alpes Suisses), (ii) permettre le développement d'une nouvelle approche pour modéliser la distribution spatiale de la biodiversité, (iii) fournir des projections plus réalistes de la distribution future des espèces ainsi que de la composition des communautés. En me focalisant sur les papillons, bourdons et plantes vasculaires, j'ai détecté des interactions biotiques importantes qui lient les espèces entre elles. J'ai également identifié la signature du filtre de l'environnement sur les communautés en haute altitude confirmant l'utilité des SDMs pour reproduire ce type de processus. A partir de ces études, j'ai contribué à l'amélioration méthodologique des SDMs dans le but de prédire les communautés en incluant les interactions biotiques et également les processus non-déterministes par une approche probabiliste. Cette approche permet de prédire non-seulement la distribution d'espèces individuelles, mais également celle de communautés dans leur entier en empilant les projections (S-SDMs). Finalement, j'ai utilisé cet outil pour prédire la distribution d'espèces et de communautés dans le passé et le futur. En particulier, j'ai modélisé la migration post-glaciaire de Trollius europaeus qui est à l'origine de la structure génétique intra-spécifique chez cette espèce et évalué les risques de perte face au changement climatique. Finalement, j'ai simulé la distribution des communautés de bourdons pour le 21e siècle afin d'évaluer les changements probables dans ce groupe important de pollinisateurs. La diversité fonctionnelle des bourdons va être altérée par la perte d'espèces spécialistes de haute altitude et ceci va influencer la pollinisation des plantes en haute altitude. - Ecosystems provide a multitude of resources and ecological services, which are useful to human. Biodiversity is an essential component of those ecosystems and guarantee many services. To assure the permanence of ecosystem services for future generation, measure should be applied to conserve biodiversity. For this purpose, the acquisition of detailed information on how biodiversity implicated in ecosystem function is distributed in space is essential. Species distribution models (SDMs) are empirical models relating field observations to environmental predictors based on statistically-derived response surfaces that fit the realized niche. These models result in spatial predictions indicating locations of the most suitable environment for the species and may potentially be applied to predict composition of communities and their functional properties. The main objective of this thesis was to provide more accurate projections of species and communities distribution under current and future climate in mountains by considering not solely abiotic but also biotic drivers of species distribution. Mountain areas and alpine ecosystems are considered as particularly sensitive to global changes and are also sources of essential ecosystem services. This thesis had three main goals: (i) a better ecological understanding of biotic interactions and how they shape the distribution of species and communities, (ii) the development of a novel approach to the spatial modeling of biodiversity, that can account for biotic interactions, and (iii) ecologically more realistic projections of future species distributions, of future composition and structure of communities. Focusing on butterfly and bumblebees in interaction with the vegetation, I detected important biotic interactions for species distribution and community composition of both plant and insects along environmental gradients. I identified the signature of environmental filtering processes at high elevation confirming the suitability of SDMs for reproducing patterns of filtering. Using those case-studies, I improved SDMs by incorporating biotic interaction and accounting for non-deterministic processes and uncertainty using a probabilistic based approach. I used improved modeling to forecast the distribution of species through the past and future climate changes. SDMs hindcasting allowed a better understanding of the spatial range dynamic of Trollius europaeus in Europe at the origin of the species intra-specific genetic diversity and identified the risk of loss of this genetic diversity caused by climate change. By simulating the future distribution of all bumblebee species in the western Swiss Alps under nine climate change scenarios for the 21st century, I found that the functional diversity of this pollinator guild will be largely affected by climate change through the loss of high elevation specialists. In turn, this will have important consequences on alpine plant pollination.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé Les glissements de terrain représentent un des principaux risques naturels dans les régions montagneuses. En Suisse, chaque année les glissements de terrains causent des dégâts qui affectent les infrastructures et ont des coûts financiers importants. Une bonne compréhension des mécanismes des glissements peut permettre d'atténuer leur impact. Celle-ci passe notamment par la connaissance de la structure interne du glissement, la détermination de son volume et de son ou ses plans de glissement. Dans un glissement de terrain, la désorganisation et la présence de fractures dans le matériel déplacé engendre un changement des paramètres physiques et en particulier une diminution des vitesses de propagation des ondes sismiques ainsi que de la densité du matériel. Les méthodes sismiques sont de ce fait bien adaptées à l'étude des glissements de terrain. Parmi les méthodes sismiques, l'analyse de la dispersion des ondes de surface est une méthode simple à mettre en oeuvre. Elle présente l'avantage d'estimer les variations des vitesses de cisaillement avec la profondeur sans avoir spécifiquement recours à l'utilisation d'une source d'onde S et de géophones horizontaux. Sa mise en oeuvre en trois étapes implique la mesure de la dispersion des ondes de surface sur des réseaux étendus, la détermination des courbes de dispersion pour finir par l'inversion de ces courbes. Les modèles de vitesse obtenus à partir de cette procédure ne sont valides que lorsque les milieux explorés ne présentent pas de variations latérales. En pratique cette hypothèse est rarement vérifiée, notamment pour un glissement de terrain dans lequel les couches remaniées sont susceptibles de présenter de fortes hétérogénéités latérales. Pour évaluer la possibilité de déterminer des courbes de dispersion à partir de réseaux de faible extension des mesures testes ont été effectuées sur un site (Arnex, VD) équipé d'un forage. Un profil sismique de 190 m de long a été implanté dans une vallée creusée dans du calcaire et remplie par des dépôts glacio-lacustres d'une trentaine de mètres d'épaisseur. Les données acquises le long de ce profil ont confirmé que la présence de variations latérales sous le réseau de géophones affecte l'allure des courbes de dispersion jusqu'à parfois empêcher leur détermination. Pour utiliser l'analyse de la dispersion des ondes de surface sur des sites présentant des variations latérales, notre approche consiste à déterminer les courbes de dispersions pour une série de réseaux de faible extension, à inverser chacune des courbes et à interpoler les différents modèles de vitesse obtenus. Le choix de la position ainsi que de l'extension des différents réseaux de géophones est important. Il tient compte de la localisation des hétérogénéités détectées à partir de l'analyse de sismique réfraction, mais également d'anomalies d'amplitudes observées sur des cartes qui représentent dans le domaine position de tir - position du récepteur, l'amplitude mesurée pour différentes fréquences. La procédure proposée par Lin et Lin (2007) s'est avérée être une méthode efficace permettant de déterminer des courbes de dispersion à partir de réseaux de faible extension. Elle consiste à construire à partir d'un réseau de géophones et de plusieurs positions de tir un enregistrement temps-déports qui tient compte d'une large gamme de distances source-récepteur. Au moment d'assembler les différentes données une correction de phase est appliquée pour tenir compte des hétérogénéités situées entre les différents points de tir. Pour évaluer cette correction nous suggérons de calculer pour deux tir successif la densité spectrale croisée des traces de même offset: Sur le site d'Arnex, 22 courbes de dispersions ont été déterminées pour de réseaux de géophones de 10 m d'extension. Nous avons également profité du forage pour acquérir un profil de sismique verticale en ondes S. Le modèle de vitesse S déduit de l'interprétation du profil de sismique verticale est utilisé comme information à priori lors l'inversion des différentes courbes de dispersion. Finalement, le modèle en deux dimension qui a été établi grâce à l'analyse de la dispersion des ondes de surface met en évidence une structure tabulaire à trois couches dont les limites coïncident bien avec les limites lithologiques observées dans le forage. Dans celui-ci des argiles limoneuses associées à une vitesse de propagation des ondes S de l'ordre de 175 m/s surmontent vers 9 m de profondeur des dépôts de moraine argilo-sableuse caractérisés par des vitesses de propagation des ondes S de l'ordre de 300 m/s jusqu'à 14 m de profondeur et supérieur ou égal à 400 m/s entre 14 et 20 m de profondeur. Le glissement de la Grande Combe (Ballaigues, VD) se produit à l'intérieur du remplissage quaternaire d'une combe creusée dans des calcaires Portlandien. Comme dans le cas du site d'Arnex les dépôts quaternaires correspondent à des dépôts glacio-lacustres. Dans la partie supérieure la surface de glissement a été localisée à une vingtaine de mètres de profondeur au niveau de l'interface qui sépare des dépôts de moraine jurassienne et des dépôts glacio-lacustres. Au pied du glissement 14 courbes de dispersions ont été déterminées sur des réseaux de 10 m d'extension le long d'un profil de 144 m. Les courbes obtenues sont discontinues et définies pour un domaine de fréquence de 7 à 35 Hz. Grâce à l'utilisation de distances source-récepteur entre 8 et 72 m, 2 à 4 modes de propagation ont été identifiés pour chacune des courbes. Lors de l'inversion des courbes de dispersion la prise en compte des différents modes de propagation a permis d'étendre la profondeur d'investigation jusqu'à une vingtaine de mètres de profondeur. Le modèle en deux dimensions permet de distinguer 4 couches (Vs1 < 175 m/s, 175 m/s < Vs2 < 225 m/s, 225 m/s < Vs3 < 400 m/s et Vs4 >.400 m/s) qui présentent des variations d'épaisseur. Des profils de sismiques réflexion en ondes S acquis avec une source construite dans le cadre de ce travail, complètent et corroborent le modèle établi à partir de l'analyse de la dispersion des ondes de surface. Un réflecteur localisé entre 5 et 10 m de profondeur et associé à une vitesse de sommation de 180 m/s souligne notamment la géométrie de l'interface qui sépare la deuxième de la troisième couche du modèle établi à partir de l'analyse de la dispersion des ondes de surface. Abstract Landslides are one of the main natural hazards in mountainous regions. In Switzerland, landslides cause damages every year that impact infrastructures and have important financial costs. In depth understanding of sliding mechanisms may help limiting their impact. In particular, this can be achieved through a better knowledge of the internal structure of the landslide, the determination of its volume and its sliding surface or surfaces In a landslide, the disorganization and the presence of fractures in the displaced material generate a change of the physical parameters and in particular a decrease of the seismic velocities and of the material density. Therefoe, seismic methods are well adapted to the study of landslides. Among seismic methods, surface-wave dispersion analysis is a easy to implement. Through it, shearwave velocity variations with depth can be estimated without having to resort to an S-wave source and to horizontal geophones. Its 3-step implementation implies measurement of surface-wave dispersion with long arrays, determination of the dispersion curves and finally inversion of these curves. Velocity models obtained through this approach are only valid when the investigated medium does not include lateral variations. In practice, this assumption is seldom correct, in particular for landslides in which reshaped layers likely include strong lateral heterogeneities. To assess the possibility of determining dispersion curves from short array lengths we carried out tests measurements on a site (Arnex, VD) that includes a borehole. A 190 m long seismic profile was acquired in a valley carved into limestone and filled with 30 m of glacio-lacustrine sediments. The data acquired along this profile confirmed that the presence of lateral variations under the geophone array influences the dispersion-curve shape so much that it sometimes preventes the dispersion curves determination. Our approach to use the analysis of surface-wave dispersion on sites that include lateral variations consists in obtaining dispersion curves for a series of short length arrays; inverting each so obtained curve and interpolating the different obtained velocity model. The choice of the location as well as the geophone array length is important. It takes into account the location of the heterogeneities that are revealed by the seismic refraction interpretation of the data but also, the location of signal amplitude anomalies observed on maps that represent, for a given frequency, the measured amplitude in the shot position - receiver position domain. The procedure proposed by Lin and Lin (2007) turned out to be an efficient one to determine dispersion curves using short extension arrays. It consists in building a time-offset from an array of geophones with a wide offset range by gathering seismograms acquired with different source-to-receiver offsets. When assembling the different data, a phase correction is applied in order to reduce static phase error induced by lateral variation. To evaluate this correction, we suggest to calculate, for two successive shots, the cross power spectral density of common offset traces. On the Arnex site, 22 curves were determined with 10m in length geophone-arrays. We also took advantage of the borehole to acquire a S-wave vertical seismic profile. The S-wave velocity depth model derived from the vertical seismic profile interpretation is used as prior information in the inversion of the dispersion-curves. Finally a 2D velocity model was established from the analysis of the different dispersion curves. It reveals a 3-layer structure in good agreement with the observed lithologies in the borehole. In it a clay layer with a shear-wave of 175 m/s shear-wave velocity overlies a clayey-sandy till layer at 9 m depth that is characterized down to 14 m by a 300 m/s S-wave velocity; these deposits have a S-wave velocity of 400 m/s between depths of 14 to 20 m. The La Grand Combe landslide (Ballaigues, VD) occurs inside the Quaternary filling of a valley carved into Portlandien limestone. As at the Arnex site, the Quaternary deposits correspond to glaciolacustrine sediments. In the upper part of the landslide, the sliding surface is located at a depth of about 20 m that coincides with the discontinuity between Jurassian till and glacio-lacustrine deposits. At the toe of the landslide, we defined 14 dispersion curves along a 144 m long profile using 10 m long geophone arrays. The obtained curves are discontinuous and defined within a frequency range of 7 to 35 Hz. The use of a wide range of offsets (from 8 to 72 m) enabled us to determine 2 to 4 mode of propagation for each dispersion curve. Taking these higher modes into consideration for dispersion curve inversion allowed us to reach an investigation depth of about 20 m. A four layer 2D model was derived (Vs1< 175 m/s, 175 m/s <Vs2< 225 m/s, 225 m/s < Vs3 < 400 m/s, Vs4> 400 m/s) with variable layer thicknesses. S-wave seismic reflection profiles acquired with a source built as part of this work complete and the velocity model revealed by surface-wave analysis. In particular, reflector at a depth of 5 to 10 m associated with a 180 m/s stacking velocity image the geometry of the discontinuity between the second and third layer of the model derived from the surface-wave dispersion analysis.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé : Nous avons effectué une étude de cohorte examinant la survie de tous les patients qui ont présenté une sepsis sévère ou un choc septique aux soins intensifs dedecine et de chirurgie du CIIUV durant une période de 3 ans. Introduction: La sepsis sévère et le choc septique constituent la deuxième cause de mortalité dans les unités de soins intensifs non coronaires. La survie à long terme est mal connue. Nous avons comparé la survie à 28 jours de notre collectif avec les données de la littérature, examiné la survie à long terme des patients ayant survécus plus de 28 jours et identifié des paramètres prédictifs de la survie. Matériel et méthode : Nous avons classifié les patients ayant présenté un épisode septique rétrospectivement en sepsis sévère ou choc septique selon les critères de Bone (1). Les données cliniques et paracliniques ont été relevées au moment de l'épisode. Des courbes de survie uni- et multivariées ont été établies à 28 jours et à long terme chez ceux qui ont survécus plus de 28 jours, d'après les données de questionnaires envoyés aux médecins traitants. Résultats : Durant Ìa période de l'étude, 339 patients ont présenté un choc septique (169) ou une sepsis sévère (170). La mortalité à 28 jours a été de 33% (choc septique: 55%, sepsis sévère: 11.2%, p<10"5). Les données significativement associées à la mortalité à 28 jours dans l'analyse de régression multivariée selon Cox ont été le type d'épisode septique (choc septique vs. sepsis sévère, p=0.001), le «Acute Physiology Score» du score APACHE II (p=0.02) et le nombre de dysfonctions d'organes (plus de trois dysfunctions, p=0.04). 227 patients ont survécu plus de 28 jours et des données de suivi ont été obtenues chez 225. Le suivi moyen après 28 jours a été de 25.1 mois (5700 mois-patients). La mortalité globale de ces patients, extrapolée des courbes de Kaplan-Meyer, a été de l'ordre de 7% à 1 an et de 15% à 2 ans. Les données significativement associées à leur survie à long terme ont été les "chronic health points" du score APACHE II (p=0.02), l'âge (p=0.05) et le fait d'avoir subi une opération chirurgicale avant l'épisode septique (p=0.02). Conclusion : La mortalité à 28 jours de notre cohorte de patients s'est révélée comparable aux chiffres publiés. La survie à long terme des patients ayant survécu plus de 28 jours a été satisfaisante. Elle s'est révélée indépendante de la sévérité de l'épisode septique, mais dépendait plutôt des conditions de santé sous-jacentes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Rapport de synthèseApproche et objectifL'objectif de la recherche était de préciser les relations existant entre l'insuffisance rénale chronique, l'anémie et l'accident vasculaire cérébral parmi des patients hospitalisés au Centre Hospitalier Universitaire Vaudois (CHUV) pour un accident vasculaire cérébral (AVC). Les auteurs ont déterminé la prévalence de l'anémie et de l'insuffisance rénale chronique parmi ces patients et examiné s'ils sont des facteurs de risque indépendants de la mortalité suite à un AVC.L'insuffisance rénale chronique est associée à un risque élevé de développer un AVC. L'anémie est une complication et une conséquence fréquente qui découle de l'insuffisance rénale chronique et est également un facteur de risque pour les maladies cérébro- et cardiovasculaires.MéthodeLa présente étude de cohorte rétrospective se base sur le registre des AVC du CHUV et inclut tous les patients traités suite à un premier AVC au service de neurologie du CHUV entre les années 2000 et 2003.Les variables utilisées pour l'analyse sont les caractéristiques démographiques, l'insuffisance rénale chronique, le débit de filtration glomérulaire.(GFR), l'anémie et d'autres facteurs de risque d'AVC. Ils ont été récoltés au moyen du système informatique du laboratoire du CHUV, d'entretiens téléphoniques (patients ou proches) et du registre des AVC du CHUV.L'insuffisance rénale chronique a été calculée sur base de la ,,Kidney Disease Outcomes Quality Initiative (K/DOQI)-CKD Classification", laquelle est divisée en cinq stades. L'anémie a été définie par une hémoglobine de < 120g/L pour les femmes et < 130g/L pour les hommes.Les analyses statistiques réalisées sont des tests Chi-carré, des tests de Τ ainsi que des courbes de Kaplan-Meier et le modèle de régression de Cox.RésultatsParmi 890 patients adultes avec un AVC, le GFR moyen était de 64.3 ml/min/1.73 m2, 17% souffraient d'anémie et 10% sont décédés pendant la première année après la sortie de l'hôpital, suite à l'"AVC index". Parmi ceux-ci, 61% avaient une insuffisance rénale chronique de stade 3-5 et 39% de stade 1 ou 2 selon les critères de K/DOQI.D'autre part un taux d'hémoglobine élevé a pu être associé à un risque moins élevé de mortalité un an après la sortie de l'hôpital.Conclusion et perspectiveNous avons constaté que l'anémie ainsi que l'insuffisance rénale chronique sont fréquents parmi les patients souffrant d'un AVC et qu'ils sont des facteurs de risque d'un taux de mortalité élevé après un an. En conséquence, il pourrait être utile de traiter les patients souffrant d'anémie et d'insuffisance rénale dès que possible afin de diminuer les complications et comorbidités résultants de ces maladies.La perspective est de rendre les cliniciens attentif à l'importance de l'insuffisance rénale et de l'anémie parmi les patients ayants développé un AVC, ainsi que d'initier le traitement approprié afin de diminuer les complications, les comorbidités ainsi que les récidives d'un AVC. L'efficacité et l'économicité des interventions visant à améliorer le pronostic chez les patients présentant un AVC et souffrant d'une insuffisance rénale chronique et / ou d'une anémie doivent être évaluées par des études appropriées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Summary Landscapes are continuously changing. Natural forces of change such as heavy rainfall and fires can exert lasting influences on their physical form. However, changes related to human activities have often shaped landscapes more distinctly. In Western Europe, especially modern agricultural practices and the expanse of overbuilt land have left their marks in the landscapes since the middle of the 20th century. In the recent years men realised that mare and more changes that were formerly attributed to natural forces might indirectly be the result of their own action. Perhaps the most striking landscape change indirectly driven by human activity we can witness in these days is the large withdrawal of Alpine glaciers. Together with the landscapes also habitats of animal and plant species have undergone vast and sometimes rapid changes that have been hold responsible for the ongoing loss of biodiversity. Thereby, still little knowledge is available about probable effects of the rate of landscape change on species persistence and disappearance. Therefore, the development and speed of land use/land cover in the Swiss communes between the 1950s and 1990s were reconstructed using 10 parameters from agriculture and housing censuses, and were further correlated with changes in butterfly species occurrences. Cluster analyses were used to detect spatial patterns of change on broad spatial scales. Thereby, clusters of communes showing similar changes or transformation rates were identified for single decades and put into a temporally dynamic sequence. The obtained picture on the changes showed a prevalent replacement of non-intensive agriculture by intensive practices, a strong spreading of urban communes around city centres, and transitions towards larger farm sizes in the mountainous areas. Increasing transformation rates toward more intensive agricultural managements were especially found until the 1970s, whereas afterwards the trends were commonly negative. However, transformation rates representing the development of residential buildings showed positive courses at any time. The analyses concerning the butterfly species showed that grassland species reacted sensitively to the density of livestock in the communes. This might indicate the augmented use of dry grasslands as cattle pastures that show altered plant species compositions. Furthermore, these species also decreased in communes where farms with an agricultural area >5ha have disappeared. The species of the wetland habitats were favoured in communes with smaller fractions of agricultural areas and lower densities of large farms (>10ha) but did not show any correlation to transformation rates. It was concluded from these analyses that transformation rates might influence species disappearance to a certain extent but that states of the environmental predictors might generally outweigh the importance of the corresponding rates. Information on the current distribution of species is evident for nature conservation. Planning authorities that define priority areas for species protection or examine and authorise construction projects need to know about the spatial distribution of species. Hence, models that simulate the potential spatial distribution of species have become important decision tools. The underlying statistical analyses such as the widely used generalised linear models (GLM) often rely on binary species presence-absence data. However, often only species presence data have been colleted, especially for vagrant, rare or cryptic species such as butterflies or reptiles. Modellers have thus introduced randomly selected absence data to design distribution models. Yet, selecting false absence data might bias the model results. Therefore, we investigated several strategies to select more reliable absence data to model the distribution of butterfly species based on historical distribution data. The results showed that better models were obtained when historical data from longer time periods were considered. Furthermore, model performance was additionally increased when long-term data of species that show similar habitat requirements as the modelled species were used. This successful methodological approach was further applied to assess consequences of future landscape changes on the occurrence of butterfly species inhabiting dry grasslands or wetlands. These habitat types have been subjected to strong deterioration in the recent decades, what makes their protection a future mission. Four spatially explicit scenarios that described (i) ongoing land use changes as observed between 1985 and 1997, (ii) liberalised agricultural markets, and (iii) slightly and (iv) strongly lowered agricultural production provided probable directions of landscape change. Current species-environment relationships were derived from a statistical model and used to predict future occurrence probabilities in six major biogeographical regions in Switzerland, comprising the Jura Mountains, the Plateau, the Northern and Southern Alps, as well as the Western and Eastern Central Alps. The main results were that dry grasslands species profited from lowered agricultural production, whereas overgrowth of open areas in the liberalisation scenario might impair species occurrence. The wetland species mostly responded with decreases in their occurrence probabilities in the scenarios, due to a loss of their preferred habitat. Further analyses about factors currently influencing species occurrences confirmed anthropogenic causes such as urbanisation, abandonment of open land, and agricultural intensification. Hence, landscape planning should pay more attention to these forces in areas currently inhabited by these butterfly species to enable sustainable species persistence. In this thesis historical data were intensively used to reconstruct past developments and to make them useful for current investigations. Yet, the availability of historical data and the analyses on broader spatial scales has often limited the explanatory power of the conducted analyses. Meaningful descriptors of former habitat characteristics and abundant species distribution data are generally sparse, especially for fine scale analyses. However, this situation can be ameliorated by broadening the extent of the study site and the used grain size, as was done in this thesis by considering the whole of Switzerland with its communes. Nevertheless, current monitoring projects and data recording techniques are promising data sources that might allow more detailed analyses about effects of long-term species reactions on landscape changes in the near future. This work, however, also showed the value of historical species distribution data as for example their potential to locate still unknown species occurrences. The results might therefore contribute to further research activities that investigate current and future species distributions considering the immense richness of historical distribution data. Résumé Les paysages changent continuellement. Des farces naturelles comme des pluies violentes ou des feux peuvent avoir une influence durable sur la forme du paysage. Cependant, les changements attribués aux activités humaines ont souvent modelé les paysages plus profondément. Depuis les années 1950 surtout, les pratiques agricoles modernes ou l'expansion des surfaces d'habitat et d'infrastructure ont caractérisé le développement du paysage en Europe de l'Ouest. Ces dernières années, l'homme a commencé à réaliser que beaucoup de changements «naturels » pourraient indirectement résulter de ses propres activités. Le changement de paysage le plus apparent dont nous sommes témoins de nos jours est probablement l'immense retraite des glaciers alpins. Avec les paysages, les habitats des animaux et des plantes ont aussi été exposés à des changements vastes et quelquefois rapides, tenus pour coresponsable de la continuelle diminution de la biodiversité. Cependant, nous savons peu des effets probables de la rapidité des changements du paysage sur la persistance et la disparition des espèces. Le développement et la rapidité du changement de l'utilisation et de la couverture du sol dans les communes suisses entre les années 50 et 90 ont donc été reconstruits au moyen de 10 variables issues des recensements agricoles et résidentiels et ont été corrélés avec des changements de présence des papillons diurnes. Des analyses de groupes (Cluster analyses) ont été utilisées pour détecter des arrangements spatiaux de changements à l'échelle de la Suisse. Des communes avec des changements ou rapidités comparables ont été délimitées pour des décennies séparées et ont été placées en séquence temporelle, en rendrent une certaine dynamique du changement. Les résultats ont montré un remplacement répandu d'une agriculture extensive des pratiques intensives, une forte expansion des faubourgs urbains autour des grandes cités et des transitions vers de plus grandes surfaces d'exploitation dans les Alpes. Dans le cas des exploitations agricoles, des taux de changement croissants ont été observés jusqu'aux années 70, alors que la tendance a généralement été inversée dans les années suivantes. Par contre, la vitesse de construction des nouvelles maisons a montré des courbes positives pendant les 50 années. Les analyses sur la réaction des papillons diurnes ont montré que les espèces des prairies sèches supportaient une grande densité de bétail. Il est possible que dans ces communes beaucoup des prairies sèches aient été fertilisées et utilisées comme pâturages, qui ont une autre composition floristique. De plus, les espèces ont diminué dans les communes caractérisées par une rapide perte des fermes avec une surface cultivable supérieure à 5 ha. Les espèces des marais ont été favorisées dans des communes avec peu de surface cultivable et peu de grandes fermes, mais n'ont pas réagi aux taux de changement. Il en a donc été conclu que la rapidité des changements pourrait expliquer les disparitions d'espèces dans certains cas, mais que les variables prédictives qui expriment des états pourraient être des descripteurs plus importants. Des informations sur la distribution récente des espèces sont importantes par rapport aux mesures pour la conservation de la nature. Pour des autorités occupées à définir des zones de protection prioritaires ou à autoriser des projets de construction, ces informations sont indispensables. Les modèles de distribution spatiale d'espèces sont donc devenus des moyens de décision importants. Les méthodes statistiques courantes comme les modèles linéaires généralisés (GLM) demandent des données de présence et d'absence des espèces. Cependant, souvent seules les données de présence sont disponibles, surtout pour les animaux migrants, rares ou cryptiques comme des papillons ou des reptiles. C'est pourquoi certains modélisateurs ont choisi des absences au hasard, avec le risque d'influencer le résultat en choisissant des fausses absences. Nous avons établi plusieurs stratégies, basées sur des données de distribution historique des papillons diurnes, pour sélectionner des absences plus fiables. Les résultats ont démontré que de meilleurs modèles pouvaient être obtenus lorsque les données proviennent des périodes de temps plus longues. En plus, la performance des modèles a pu être augmentée en considérant des données de distribution à long terme d'espèces qui occupent des habitats similaires à ceux de l'espèce cible. Vu le succès de cette stratégie, elle a été utilisée pour évaluer les effets potentiels des changements de paysage futurs sur la distribution des papillons des prairies sèches et marais, deux habitats qui ont souffert de graves détériorations. Quatre scénarios spatialement explicites, décrivant (i) l'extrapolation des changements de l'utilisation de sol tels qu'observés entre 1985 et 1997, (ii) la libéralisation des marchés agricoles, et une production agricole (iii) légèrement amoindrie et (iv) fortement diminuée, ont été utilisés pour générer des directions de changement probables. Les relations actuelles entre la distribution des espèces et l'environnement ont été déterminées par le biais des modèles statistiques et ont été utilisées pour calculer des probabilités de présence selon les scénarios dans six régions biogéographiques majeures de la Suisse, comportant le Jura, le Plateau, les Alpes du Nord, du Sud, centrales orientales et centrales occidentales. Les résultats principaux ont montré que les espèces des prairies sèches pourraient profiter d'une diminution de la production agricole, mais qu'elles pourraient aussi disparaître à cause de l'embroussaillement des terres ouvertes dû à la libéralisation des marchés agricoles. La probabilité de présence des espèces de marais a décrû à cause d'une perte générale des habitats favorables. De plus, les analyses ont confirmé que des causes humaines comme l'urbanisation, l'abandon des terres ouvertes et l'intensification de l'agriculture affectent actuellement ces espèces. Ainsi ces forces devraient être mieux prises en compte lors de planifications paysagères, pour que ces papillons diurnes puissent survivre dans leurs habitats actuels. Dans ce travail de thèse, des données historiques ont été intensivement utilisées pour reconstruire des développements anciens et pour les rendre utiles à des recherches contemporaines. Cependant, la disponibilité des données historiques et les analyses à grande échelle ont souvent limité le pouvoir explicatif des analyses. Des descripteurs pertinents pour caractériser les habitats anciens et des données suffisantes sur la distribution des espèces sont généralement rares, spécialement pour des analyses à des échelles fores. Cette situation peut être améliorée en augmentant l'étendue du site d'étude et la résolution, comme il a été fait dans cette thèse en considérant toute la Suisse avec ses communes. Cependant, les récents projets de surveillance et les techniques de collecte de données sont des sources prometteuses, qui pourraient permettre des analyses plus détaillés sur les réactions à long terme des espèces aux changements de paysage dans le futur. Ce travail a aussi montré la valeur des anciennes données de distribution, par exemple leur potentiel pour aider à localiser des' présences d'espèces encore inconnues. Les résultats peuvent contribuer à des activités de recherche à venir, qui étudieraient les distributions récentes ou futures d'espèces en considérant l'immense richesse des données de distribution historiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le syndrome de Brugada, une affection rythmique du sujet jeune potentiellement fatale, se manifeste sur l'ECG par un bloc de branche droit (BBD) complet, avec sus-décalage majeur du segment ST et inversion des ondes Τ de V1 à V3 appelé pattern de type 1. Cette présentation peut être intermittente. Les manifestations incomplètes du syndrome de Brugada sont appelées patterns de types 2 ou 3, et sont caractérisées par un BBD incomplet et un sus-décalage ST plus ou moins prononcé dans les dérivations V-, et V2 de l'ECG. Cette description, cependant, est aussi celle du BBD incomplet fréquemment rencontré chez les sujets jeunes, de moins de 40 ans, et présent dans 3% de la population. Bo nombre de ces sujets sont donc référés pour une recherche de syndrome de Brugada. Le but de cette thèse est donc d'évaluer de nouveaux critères permettant de discriminer les BBD incomplets, banals, des sujets porteurs d'un syndrome de Brugada de types 2 ou 3. Trente-huit patients avec un pattern de Brugada de types 2 et 3, référés pour un test médicamenteux utilisant un antiarythmique révélant un pattern de type 1 chez les sujets porteurs, ont été inclus dans l'étude. Avant le test médicamenteux, deux angles ont été mesurés sur les dérivations Vi et/ou V2 : a, l'angle entre une ligne verticale et la descente de l'onde r', et β, l'angle entre la montée de l'onde S et la descente de l'onde r'. Les mesure à l'état basai des deux angles, seules ou combinées avec la durée du QRS, on été comparées entre les patients avec une épreuve pharmacologique positive et ceux dont l'épreuve s'est révélée négative (i.e. servant de groupe contrôle car porteur d'un véritable BBD incomplet). Des courbes ROC ont été établies afin de déterminer les valeurs d'angles les plus discriminantes. La moyenne des angles β était significativement plus petite chez les 14 patients avec un test pharmacologique négatif comparé aux 24 patients avec un test positif. La valeur optimale pour l'angle β était de 58°, ce qui donnait une valeur prédictive positive de 73% et une valeur prédictive négative de 97% pour une conversion en pattern de type 1 lors du test pharmacologique. L'angle α était un peu moins sensible et spécifique que β. Quand les angles étaient combinés à la durée du QRS, on observait une discrète amélioration de la discrimination entre les deux populations. Notre travail permet donc, chez des patients suspects d'un syndrome de Brugada, de discriminer entre un BBD incomplet et les patterns de Brugada types 2 et 3 en utilisant un critère simple basé sur l'ECG de surface potentiellement applicable au lit du patient

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'évaluation des résultats des arthroplasties totales du genou demande une évaluation du geste thérapeutique ou clinique, mais doit également tenir compte de l'impact de ce geste sur l'état de santé global du patient (somatique, psychologique, social) et intégrer son degré de satisfaction. La complexité croissante des instruments de mesure du suivi a de quoi décourager le chirurgien praticien déjà surchargé par son activité clinique quotidienne. L'apparition des scores, des études prospectives et des analyses statistiques, telles les courbes de survie, ont certainement permis une appréciation plus objective de nos résultats, tout en accroissant nos connaissances et en améliorant notre pratique quotidienne. La question aujourd'hui n'est plus de savoir si un suivi clinique de nos patients est utile, mais plutôt de choisir les bons instruments et de définir les buts de l'analyse tout en cherchant comment implanter cette démarche de manière réaliste dans nos pratiques. Les scores classiques, aussi imparfaits soient-ils, restent pour l'instant utiles. Largement diffusés à travers le monde, appliqués de manière prospective, ces outils de suivi orientés vers la clinique et la radiologie sont le fondement du suivi prospectif des implants. Au quotidien, ils permettent un suivi en temps réel des implants d'un service ou d'une institution. Cependant, leur faiblesse intrinsèque résidant dans l'inaptitude à saisir le point de vue du patient, il semble inéluctable d'y adjoindre des instruments psychométriques. Dans l'avenir, la recherche devrait se concentrer vers le développement d'outils adaptés, capables de cerner avec une plus grande précision l'attente des patients et de technologies accessibles à chaque praticien pour mesurer objectivement les capacités fonctionnelles de leurs patients avec plus d'acuité. Le développement de systèmes permettant une évaluation objective de la fonction quotidienne du patient revêt un intérêt tout particulier. Parallèlement, un effort doit être fait au niveau des sociétés spécialisées nationales et internationales pour harmoniser leurs protocoles de suivi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ces dernières années, de nombreuses recherches ont mis en évidence les effets toxiques des micropolluants organiques pour les espèces de nos lacs et rivières. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, alors que les organismes sont exposés tous les jours à des milliers de substances en mélange. Or les effets de ces cocktails ne sont pas négligeables. Cette thèse de doctorat s'est ainsi intéressée aux modèles permettant de prédire le risque environnemental de ces cocktails pour le milieu aquatique. Le principal objectif a été d'évaluer le risque écologique des mélanges de substances chimiques mesurées dans le Léman, mais aussi d'apporter un regard critique sur les méthodologies utilisées afin de proposer certaines adaptations pour une meilleure estimation du risque. Dans la première partie de ce travail, le risque des mélanges de pesticides et médicaments pour le Rhône et pour le Léman a été établi en utilisant des approches envisagées notamment dans la législation européenne. Il s'agit d'approches de « screening », c'est-à-dire permettant une évaluation générale du risque des mélanges. Une telle approche permet de mettre en évidence les substances les plus problématiques, c'est-à-dire contribuant le plus à la toxicité du mélange. Dans notre cas, il s'agit essentiellement de 4 pesticides. L'étude met également en évidence que toutes les substances, même en trace infime, contribuent à l'effet du mélange. Cette constatation a des implications en terme de gestion de l'environnement. En effet, ceci implique qu'il faut réduire toutes les sources de polluants, et pas seulement les plus problématiques. Mais l'approche proposée présente également un biais important au niveau conceptuel, ce qui rend son utilisation discutable, en dehors d'un screening, et nécessiterait une adaptation au niveau des facteurs de sécurité employés. Dans une deuxième partie, l'étude s'est portée sur l'utilisation des modèles de mélanges dans le calcul de risque environnemental. En effet, les modèles de mélanges ont été développés et validés espèce par espèce, et non pour une évaluation sur l'écosystème en entier. Leur utilisation devrait donc passer par un calcul par espèce, ce qui est rarement fait dû au manque de données écotoxicologiques à disposition. Le but a été donc de comparer, avec des valeurs générées aléatoirement, le calcul de risque effectué selon une méthode rigoureuse, espèce par espèce, avec celui effectué classiquement où les modèles sont appliqués sur l'ensemble de la communauté sans tenir compte des variations inter-espèces. Les résultats sont dans la majorité des cas similaires, ce qui valide l'approche utilisée traditionnellement. En revanche, ce travail a permis de déterminer certains cas où l'application classique peut conduire à une sous- ou sur-estimation du risque. Enfin, une dernière partie de cette thèse s'est intéressée à l'influence que les cocktails de micropolluants ont pu avoir sur les communautés in situ. Pour ce faire, une approche en deux temps a été adoptée. Tout d'abord la toxicité de quatorze herbicides détectés dans le Léman a été déterminée. Sur la période étudiée, de 2004 à 2009, cette toxicité due aux herbicides a diminué, passant de 4% d'espèces affectées à moins de 1%. Ensuite, la question était de savoir si cette diminution de toxicité avait un impact sur le développement de certaines espèces au sein de la communauté des algues. Pour ce faire, l'utilisation statistique a permis d'isoler d'autres facteurs pouvant avoir une influence sur la flore, comme la température de l'eau ou la présence de phosphates, et ainsi de constater quelles espèces se sont révélées avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps. Fait intéressant, une partie d'entre-elles avait déjà montré des comportements similaires dans des études en mésocosmes. En conclusion, ce travail montre qu'il existe des modèles robustes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques, et qu'ils peuvent être utilisés pour expliquer le rôle des substances dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application. - Depuis plusieurs années, les risques que posent les micropolluants organiques pour le milieu aquatique préoccupent grandement les scientifiques ainsi que notre société. En effet, de nombreuses recherches ont mis en évidence les effets toxiques que peuvent avoir ces substances chimiques sur les espèces de nos lacs et rivières, quand elles se retrouvent exposées à des concentrations aiguës ou chroniques. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, c'est à dire considérées séparément. Actuellement, il en est de même dans les procédures de régulation européennes, concernant la partie évaluation du risque pour l'environnement d'une substance. Or, les organismes sont exposés tous les jours à des milliers de substances en mélange, et les effets de ces "cocktails" ne sont pas négligeables. L'évaluation du risque écologique que pose ces mélanges de substances doit donc être abordé par de la manière la plus appropriée et la plus fiable possible. Dans la première partie de cette thèse, nous nous sommes intéressés aux méthodes actuellement envisagées à être intégrées dans les législations européennes pour l'évaluation du risque des mélanges pour le milieu aquatique. Ces méthodes sont basées sur le modèle d'addition des concentrations, avec l'utilisation des valeurs de concentrations des substances estimées sans effet dans le milieu (PNEC), ou à partir des valeurs des concentrations d'effet (CE50) sur certaines espèces d'un niveau trophique avec la prise en compte de facteurs de sécurité. Nous avons appliqué ces méthodes à deux cas spécifiques, le lac Léman et le Rhône situés en Suisse, et discuté les résultats de ces applications. Ces premières étapes d'évaluation ont montré que le risque des mélanges pour ces cas d'étude atteint rapidement une valeur au dessus d'un seuil critique. Cette valeur atteinte est généralement due à deux ou trois substances principales. Les procédures proposées permettent donc d'identifier les substances les plus problématiques pour lesquelles des mesures de gestion, telles que la réduction de leur entrée dans le milieu aquatique, devraient être envisagées. Cependant, nous avons également constaté que le niveau de risque associé à ces mélanges de substances n'est pas négligeable, même sans tenir compte de ces substances principales. En effet, l'accumulation des substances, même en traces infimes, atteint un seuil critique, ce qui devient plus difficile en terme de gestion du risque. En outre, nous avons souligné un manque de fiabilité dans ces procédures, qui peuvent conduire à des résultats contradictoires en terme de risque. Ceci est lié à l'incompatibilité des facteurs de sécurité utilisés dans les différentes méthodes. Dans la deuxième partie de la thèse, nous avons étudié la fiabilité de méthodes plus avancées dans la prédiction de l'effet des mélanges pour les communautés évoluant dans le système aquatique. Ces méthodes reposent sur le modèle d'addition des concentrations (CA) ou d'addition des réponses (RA) appliqués sur les courbes de distribution de la sensibilité des espèces (SSD) aux substances. En effet, les modèles de mélanges ont été développés et validés pour être appliqués espèce par espèce, et non pas sur plusieurs espèces agrégées simultanément dans les courbes SSD. Nous avons ainsi proposé une procédure plus rigoureuse, pour l'évaluation du risque d'un mélange, qui serait d'appliquer d'abord les modèles CA ou RA à chaque espèce séparément, et, dans une deuxième étape, combiner les résultats afin d'établir une courbe SSD du mélange. Malheureusement, cette méthode n'est pas applicable dans la plupart des cas, car elle nécessite trop de données généralement indisponibles. Par conséquent, nous avons comparé, avec des valeurs générées aléatoirement, le calcul de risque effectué selon cette méthode plus rigoureuse, avec celle effectuée traditionnellement, afin de caractériser la robustesse de cette approche qui consiste à appliquer les modèles de mélange sur les courbes SSD. Nos résultats ont montré que l'utilisation de CA directement sur les SSDs peut conduire à une sous-estimation de la concentration du mélange affectant 5 % ou 50% des espèces, en particulier lorsque les substances présentent un grand écart- type dans leur distribution de la sensibilité des espèces. L'application du modèle RA peut quant à lui conduire à une sur- ou sous-estimations, principalement en fonction de la pente des courbes dose- réponse de chaque espèce composant les SSDs. La sous-estimation avec RA devient potentiellement importante lorsque le rapport entre la EC50 et la EC10 de la courbe dose-réponse des espèces est plus petit que 100. Toutefois, la plupart des substances, selon des cas réels, présentent des données d' écotoxicité qui font que le risque du mélange calculé par la méthode des modèles appliqués directement sur les SSDs reste cohérent et surestimerait plutôt légèrement le risque. Ces résultats valident ainsi l'approche utilisée traditionnellement. Néanmoins, il faut garder à l'esprit cette source d'erreur lorsqu'on procède à une évaluation du risque d'un mélange avec cette méthode traditionnelle, en particulier quand les SSD présentent une distribution des données en dehors des limites déterminées dans cette étude. Enfin, dans la dernière partie de cette thèse, nous avons confronté des prédictions de l'effet de mélange avec des changements biologiques observés dans l'environnement. Dans cette étude, nous avons utilisé des données venant d'un suivi à long terme d'un grand lac européen, le lac Léman, ce qui offrait la possibilité d'évaluer dans quelle mesure la prédiction de la toxicité des mélanges d'herbicide expliquait les changements dans la composition de la communauté phytoplanctonique. Ceci à côté d'autres paramètres classiques de limnologie tels que les nutriments. Pour atteindre cet objectif, nous avons déterminé la toxicité des mélanges sur plusieurs années de 14 herbicides régulièrement détectés dans le lac, en utilisant les modèles CA et RA avec les courbes de distribution de la sensibilité des espèces. Un gradient temporel de toxicité décroissant a pu être constaté de 2004 à 2009. Une analyse de redondance et de redondance partielle, a montré que ce gradient explique une partie significative de la variation de la composition de la communauté phytoplanctonique, même après avoir enlevé l'effet de toutes les autres co-variables. De plus, certaines espèces révélées pour avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps, ont montré des comportements similaires dans des études en mésocosmes. On peut en conclure que la toxicité du mélange herbicide est l'un des paramètres clés pour expliquer les changements de phytoplancton dans le lac Léman. En conclusion, il existe diverses méthodes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques et celui-ci peut jouer un rôle dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application, avant d'utiliser leurs résultats pour la gestion des risques environnementaux. - For several years now, the scientists as well as the society is concerned by the aquatic risk organic micropollutants may pose. Indeed, several researches have shown the toxic effects these substances may induce on organisms living in our lakes or rivers, especially when they are exposed to acute or chronic concentrations. However, most of the studies focused on the toxicity of single compounds, i.e. considered individually. The same also goes in the current European regulations concerning the risk assessment procedures for the environment of these substances. But aquatic organisms are typically exposed every day simultaneously to thousands of organic compounds. The toxic effects resulting of these "cocktails" cannot be neglected. The ecological risk assessment of mixtures of such compounds has therefore to be addressed by scientists in the most reliable and appropriate way. In the first part of this thesis, the procedures currently envisioned for the aquatic mixture risk assessment in European legislations are described. These methodologies are based on the mixture model of concentration addition and the use of the predicted no effect concentrations (PNEC) or effect concentrations (EC50) with assessment factors. These principal approaches were applied to two specific case studies, Lake Geneva and the River Rhône in Switzerland, including a discussion of the outcomes of such applications. These first level assessments showed that the mixture risks for these studied cases exceeded rapidly the critical value. This exceeding is generally due to two or three main substances. The proposed procedures allow therefore the identification of the most problematic substances for which management measures, such as a reduction of the entrance to the aquatic environment, should be envisioned. However, it was also showed that the risk levels associated with mixtures of compounds are not negligible, even without considering these main substances. Indeed, it is the sum of the substances that is problematic, which is more challenging in term of risk management. Moreover, a lack of reliability in the procedures was highlighted, which can lead to contradictory results in terms of risk. This result is linked to the inconsistency in the assessment factors applied in the different methods. In the second part of the thesis, the reliability of the more advanced procedures to predict the mixture effect to communities in the aquatic system were investigated. These established methodologies combine the model of concentration addition (CA) or response addition (RA) with species sensitivity distribution curves (SSD). Indeed, the mixture effect predictions were shown to be consistent only when the mixture models are applied on a single species, and not on several species simultaneously aggregated to SSDs. Hence, A more stringent procedure for mixture risk assessment is proposed, that would be to apply first the CA or RA models to each species separately and, in a second step, to combine the results to build an SSD for a mixture. Unfortunately, this methodology is not applicable in most cases, because it requires large data sets usually not available. Therefore, the differences between the two methodologies were studied with datasets created artificially to characterize the robustness of the traditional approach applying models on species sensitivity distribution. The results showed that the use of CA on SSD directly might lead to underestimations of the mixture concentration affecting 5% or 50% of species, especially when substances present a large standard deviation of the distribution from the sensitivity of the species. The application of RA can lead to over- or underestimates, depending mainly on the slope of the dose-response curves of the individual species. The potential underestimation with RA becomes important when the ratio between the EC50 and the EC10 for the dose-response curve of the species composing the SSD are smaller than 100. However, considering common real cases of ecotoxicity data for substances, the mixture risk calculated by the methodology applying mixture models directly on SSDs remains consistent and would rather slightly overestimate the risk. These results can be used as a theoretical validation of the currently applied methodology. Nevertheless, when assessing the risk of mixtures, one has to keep in mind this source of error with this classical methodology, especially when SSDs present a distribution of the data outside the range determined in this study Finally, in the last part of this thesis, we confronted the mixture effect predictions with biological changes observed in the environment. In this study, long-term monitoring of a European great lake, Lake Geneva, provides the opportunity to assess to what extent the predicted toxicity of herbicide mixtures explains the changes in the composition of the phytoplankton community next to other classical limnology parameters such as nutrients. To reach this goal, the gradient of the mixture toxicity of 14 herbicides regularly detected in the lake was calculated, using concentration addition and response addition models. A decreasing temporal gradient of toxicity was observed from 2004 to 2009. Redundancy analysis and partial redundancy analysis showed that this gradient explains a significant portion of the variation in phytoplankton community composition, even when having removed the effect of all other co-variables. Moreover, some species that were revealed to be influenced positively or negatively, by the decrease of toxicity in the lake over time, showed similar behaviors in mesocosms studies. It could be concluded that the herbicide mixture toxicity is one of the key parameters to explain phytoplankton changes in Lake Geneva. To conclude, different methods exist to predict the risk of mixture in the ecosystems. But their reliability varies depending on the underlying hypotheses. One should therefore carefully consider these hypotheses, as well as the limits of the approaches, before using the results for environmental risk management