428 resultados para Prise en compte
Resumo:
Le géopatrimoine regroupe des objets géologiques lato sensu auxquels certaines valeurs sont attribuées, en fonction de leur intérêt pour la science, de leur rareté, de leurs particularités culturelles ou écologiques, etc. Valoriser le géopatrimoine signifie avant tout faire partager cette approche aux non-spécialistes, en expliquant ce qui fait la valeur de ces objets. Cette valorisation peut s'effectuer, entre autres, sous la forme d'une activité touristique et contribuer ainsi au développement régional. Faire comprendre l'origine, la singularité et la valeur des formes du relief implique le recours à une communication éducative, désignée par le terme de médiation. Les implications de la dimension éducative du processus, comme la prise en compte des connaissances et attentes du public, la création d'un environnement favorable à l'apprentissage ou l'attractivité du contenu, sont souvent négligées. Du point de vue conceptuel, un modèle de la médiation indirecte (c'est-à-dire au moyen de supports médiatiques) a été proposé et appliqué au développement empirique de produits de médiation et à leur évaluation. Ce modèle ne garantit pas la réussite de la communication éducative, mais contribue à créer un cadre favorable au processus. De plus, plusieurs lignes directrices pour le choix du type de média et sa mise en forme ont été définies sur la base d'une compilation de résultats de la psychologie cognitive sur l'usage des médias pour l'apprentissage. Des méthodes qualitatives et quantitatives variées ont été mobilisées: enquêtes par questionnaire ex situ et in situ, auprès des visiteurs de géomorphosites de montagne, réalisation de médias interactifs testés ensuite auprès de divers publics (parcours enregistré, pré- et post-questionnaires) et entretiens collectifs. Les résultats obtenus éclairent divers aspects de la problématique. L'étude du public a montré, par exemple, que le géotourisme possède un réel public parmi les visiteurs des sites de montagnes: trois-quarts d'entre eux expriment de l'intérêt pour des explications sur la géologie et l'évolution du paysage. Cette thèse a exploré ces aspects liés au processus d'apprentissage en se focalisant sur les médias visuels, surtout interactifs. La plupart des médias visuels couramment utilisés en géomorphologie ont été considérés. Le développement de versions interactives de ces médias sous forme d'applications web a fourni un aperçu concret des possibilités des nouvelles technologies. Les utilisateurs apprécient en particulier a richesse du contenu, le haut degré d'interactivité et la variété de ces applications. De tels médias incitent à visiter le site naturel et semblent aussi répondre aux intérêts de publics variés.
Resumo:
(Résumé de l'ouvrage) Depuis une vingtaine d'années, des perspectives assez neuves ont fait leur apparition dans les études pauliniennes. Au congrès de l'ACFEB tenu à Strasbourg en 1995, dont sont issus les travaux rassemblés ici, on a tenté une présentation critique des apports récents de la recherche tout en dégageant aussi des ouvertures pour les travaux futurs. Dans la première partie de l'ouvrage est prise en compte la diversité des méthodes et des approches. La deuxième partie aborde les textes pauliniens d'un point de vue qui relève de l'histoire des religions ou de l'histoire de la culture. La dernière partie part de la reconsidération récente portée sur le judaïsme ancien pour réexaminer la position de l'Apôtre sur la loi et la justification.
Resumo:
Si La notion de Bien commun paraît de prime abord trop ambitieuse, trompeuse en ses promesses excessives et inaccessibles, elle est néanmoins nécessaire au débat éthique dans l'espace public contemporain. Dans cette contribution, nous voudrions montrer comment une compréhension critique de la notion controversée de Bien commun peut s'avérer compatible avec une prise en compte réaliste et responsable des conflits d'intérêts et de la délibération éthique. L'exemple du débat français sur la laïcité permet à cet égard de comprendre la nécessité de dépasser l'opposition stérile entre un communautarisme poussé à l'extrême et un universalisme vidé de sa pertinence historique et dialectique. If, at the first look, the notion of the common Good seems too ambitious, making excessive and unaccessible promises, it is nevertheless necessary to use it in the ethical public discussion. This paper aims to show that a critical understanding of this controversial idea of the common Good may help to solve some conflicts of interests. The example of the french debate on laicity should help us to overcome the fallacious opposition between extreme communitarianism and abstract universalism.
Resumo:
Rapport de synthèse : Cette étude réalisée conjointement par les services de pédopsychiatrie et de néonatologie du Centre Hospitalier Universitaire Vaudois (CHUV), Lausanne, Suisse, s'inscrit dans un groupe de publications issues d'un projet portant sur les représentations parentales et le devenir de 1a prématurité, financée par le Fonds National de la Recherche Scientifique entre 1998 et 2002 (FNRS 32-49712.96), soutenue par la Fondation de la Psychiatrie pour la Petite Enfance. Elle à pour objectifs d'évaluer et de compazer la présence de symptômes de stress post-traumatique; en fonction de la gravité de la prématurité, chez les mères et chez les pères de bébés nés prématurément. Population et Méthode : en fonction du score de risque périnatal (PERI) du bébé, les parents des prématurés (âge gestationnel < 34 semaines) ont été divisés en deux groupes : les parents de prématurés à faible risque (n = 16) et à haut risque (n = 26). Les symptômes d'intrusion et d'évitement, de l'état de stress post-traumatique, ont été évalués chez les parents à l'aide d'un questionnaire rempli par les parents, l'Impact of Event Scale (IES). Leurs réponses ont été comparées à un groupe contrôle de parents de nouveau-nés à terme (n = 24). Les différences entre les réponses des mères et des pères, ont été analysées. Résultats : les parents de bébés prématurés sont plus à risque que les parents de nouveau-nés à terme, de présenter des symptômes de stress post-traumatique. Les mères en lien avec le fait même de la prématurité du bébé, les pères en lien avec la gravité de la prématurité. Les mèrés et les pères des prématurés des deux groupes (prématurés à faible risque, prématurés à haut risque) décrivent des symptômes d'intrusion, alors que les symptômes d'évitement sont décrits par toutes les mères, mais seulement par les pères de prématurés à haut risque périnatal. Le vécu particulier des parents, ainsi que les enjeux différents pour les mères et les pères lors d'une naissance prématurée, sont ainsi mis en évidence. La prise en compte de ces différences devrait influencer les interventions des pédopsychiatres et des équipes de néonatologie qui interviennent auprès des parents et guident la construction des liens avec le bébé né prématurément. Publiée par la revue «Neuropsychiatrie de l'enfance et de l'adolescence », aux éditions Elsevier Masson sous le titre : « Etat de stress post-traumatique chez les mères et chez les pères d'enfants prématurés : similitudes et différences» ; numéró 57 (2009) 385-391.
Resumo:
Résumé Lors d'une recherche d'information, l'apprenant est très souvent confronté à des problèmes de guidage et de personnalisation. Ceux-ci sont d'autant plus importants que la recherche se fait dans un environnement ouvert tel que le Web. En effet, dans ce cas, il n'y a actuellement pas de contrôle de pertinence sur les ressources proposées pas plus que sur l'adéquation réelle aux besoins spécifiques de l'apprenant. A travers l'étude de l'état de l'art, nous avons constaté l'absence d'un modèle de référence qui traite des problématiques liées (i) d'une part aux ressources d'apprentissage notamment à l'hétérogénéité de la structure et de la description et à la protection en terme de droits d'auteur et (ii) d'autre part à l'apprenant en tant qu'utilisateur notamment l'acquisition des éléments le caractérisant et la stratégie d'adaptation à lui offrir. Notre objectif est de proposer un système adaptatif à base de ressources d'apprentissage issues d'un environnement à ouverture contrôlée. Celui-ci permet de générer automatiquement sans l'intervention d'un expert pédagogue un parcours d'apprentissage personnalisé à partir de ressources rendues disponibles par le biais de sources de confiance. L'originalité de notre travail réside dans la proposition d'un modèle de référence dit de Lausanne qui est basé sur ce que nous considérons comme étant les meilleures pratiques des communautés : (i) du Web en terme de moyens d'ouverture, (ii) de l'hypermédia adaptatif en terme de stratégie d'adaptation et (iii) de l'apprentissage à distance en terme de manipulation des ressources d'apprentissage. Dans notre modèle, la génération des parcours personnalisés se fait sur la base (i) de ressources d'apprentissage indexées et dont le degré de granularité en favorise le partage et la réutilisation. Les sources de confiance utilisées en garantissent l'utilité et la qualité. (ii) de caractéristiques de l'utilisateur, compatibles avec les standards existants, permettant le passage de l'apprenant d'un environnement à un autre. (iii) d'une adaptation à la fois individuelle et sociale. Pour cela, le modèle de Lausanne propose : (i) d'utiliser ISO/MLR (Metadata for Learning Resources) comme formalisme de description. (ii) de décrire le modèle d'utilisateur avec XUN1 (eXtended User Model), notre proposition d'un modèle compatible avec les standards IEEE/PAPI et IMS/LIP. (iii) d'adapter l'algorithme des fourmis au contexte de l'apprentissage à distance afin de générer des parcours personnalisés. La dimension individuelle est aussi prise en compte par la mise en correspondance de MLR et de XUM. Pour valider notre modèle, nous avons développé une application et testé plusieurs scenarii mettant en action des utilisateurs différents à des moments différents. Nous avons ensuite procédé à des comparaisons entre ce que retourne le système et ce que suggère l'expert. Les résultats s'étant avérés satisfaisants dans la mesure où à chaque fois le système retourne un parcours semblable à celui qu'aurait proposé l'expert, nous sommes confortées dans notre approche.
Resumo:
RESUME En faisant référence à la notion de préjugé idéologique, ce travail s'intéresse à la manifestation d'une croyance qui oppose la culture à la nature lors de la classification et l'évaluation des individus. Nous proposons que cette croyance se manifeste par l'attribution de traits spécifiques aux groupes (traits culturels et naturels) et que sa fonction est de justifier la suprématie de l'homme bourgeois blanc occidental sur autrui. Ainsi, nous abordons la perception de plusieurs groupes ethniques de la part d'individus suisses. Notre travail est organisé en trois parties. La première partie présente une étude exploratoire dont l'objectif est de cerner les phénomènes étudiés. Les résultats mettent en évidence que l'attribution de traits culturels .positifs aux groupes ethniques est relativement indépendante de l'attribution de traits naturels positifs àceux-ci: les groupes perçus comme les plus culturels sont également perçus comme les plus naturels. De plus, l'attribution de traits naturels positifs semble sous-tendre une attitude favorable envers les groupes. La deuxième partie reprend les critères qu'identifient les notions de culture et de nature. Les études 2, 3 et 4 ont mis en évidence qu'il y au continuum dans la signification des traits par rapport à .l'être humain et à l'animal. Cela nous a amené sélectionner des traits attribués uniquement à l' être humain (culture) et des traits attribués davantage à l' animal qu'à l'être humain (nature). Les études 5 et 6 de la troisième partie montrent que, lorsqu'il est question de groupes ethniques, l'endogroupe dominant et ses alliés sont associés à la culture positive, alors que des exogroupes spécifiques sont associés à la nature positive (des exogroupes sujets au paternalisme). L'étude 7 confirme les résultats concernant l'endogroupe dominant et ses alliés avec des groupes fictifs et il met en évidence que les membres du groupe dominant utilisent la notion de culture positive pour hiérarchiser les groupes. L'attribution de nature positive n'est pas prise en compte pour hiérarchiser des groupes fictifs. Pour conclure, les études montrent qu'il n'y a pas d'opposition entre la culture et la nature (positives): les membres du groupe ethnique dominant utilisent la notion de culture pour classifier et évaluer les individus sur une hiérarchie de valeurs. La notion de nature n'est pas utilisée pour hiérarchiser les groupes, mais elle identifie des exogroupes spécifiques.
Resumo:
Résumé Le concept de clairvoyance normative (Py & Somat, 1991), qui a vu le jour dans la continuité des études sur la norme d'internalité (Beauvois, 1984), traduit la connaissance du caractère normatif ou contre-normatif d'un type de comportements ou d'un type de jugements. Un certain nombre de recherches semble alors attester que la clairvoyance normative participe à l'obtention d'une évaluation positive. Toutefois, ces différentes recherches font toutes fi de l'idée qu'il existerait deux dimensions de la valeur sociale : l'utilité sociale et la désirabilité sociale. La prise en compte de ces deux dimensions, surtout si l'on admet que les normes sociales ne renvoient pas toutes à la même dimension (Beauvois, 1995 ; Dubois & Beauvois, 2005 ; Dubois, 2005), vient alors quelque peu compliquer le modèle liant clairvoyance normative et évaluation positive car elle suggère que la clairvoyance de certaines normes aidera avant tout à être bien évalué sur le plan de l'utilité sociale alors que la clairvoyance d'autres normes participera davantage à être évalué favorablement sur le plan de la désirabilité sociale. Ces réflexions ont été à la base de ce travail de thèse et ont conduit à la réalisation de notre première étude. Les quelques résultats inattendus que nous avons obtenus nous ont cependant incité par la suite à reconsidérer la pertinence de rattacher la notion de clairvoyance à certains types de contenu (internalité, autosuffisance, etc.), ce qui nous a amené à la proposition de deux nouvelles notions : la clairvoyance de l'utilité sociale et la clairvoyance de la désirabilité sociale. C'est dans l'optique de valider cette proposition que deux nouvelles études ont alors été réalisées. Si celles-ci appuient dans leur ensemble l'idée que les clairvoyances de l'utilité et de la désirabilité sociales seraient des indicateurs plus performants d'une évaluation sociale positive que ne le seraient les clairvoyances des normes sociales de jugement, elles n'ont néanmoins pas manqué de soulever de nouvelles questions. Cela nous a ainsi mené, dans un troisième temps, à nous interroger sur ce qui détermine la valeur en jeu dans une situation d'évaluation. Nos trois dernières études ont été construites dans ce dessein et ont participé, en conclusion de ce travail, à étayer l'idée que la clairvoyance de la valeur sociale des jugements ne permettrait l'obtention d'une évaluation positive que si celle-ci va de pair avec une certaine clairvoyance de la valeur sociale des éléments constitutifs de la situation d'interaction. Abstract The concept of normative clearsightedness (Py & Somat, 1991), born in continuity with studies on the norm of internality (Beauvois, 1984), reflects the knowledge of the normative or counter-normative nature of a type of behaviour or a type of judgement. Several researches appear to show that normative clearsightedness helps to obtain a positive evaluation. However, none of these researches takes into account the idea that there might be two dimensions of social value: social utility and social desirability. Considering those two dimensions, especially if we accept that not all social norms refer to the same dimension (Beauvois, 1995; Dubois & Beauvois, 2005; Dubois, 2005), somehow complicates the model linking normative clearsightedness with a positive evaluation. It suggests indeed that while clearsightedness of some norms will help first of all to get a good evaluation on the dimension of social utility, clearsightedness of other norms will help above all to get a good evaluation on the dimension of social desirability. These considerations were the foundation of this work and led to our first study. However, we reached some unexpected results that prompted us thereafter to reconsider the pertinence to attach the notion of clearsightedness to particular types of content (internality, self-sufficiency, etc.), which led us to propose two new notions: clearsightedness of social utility and clearsightedness of social desirability. Two new studies were thus executed to challenge this proposal. While these researches support as a whole that clearsightedness of social utility and social desirability are better indicators of positive evaluation than clearsightedness of social norms of judgement, they also raised new questions, which led us, in a third time, to wonder about what will determine the dominating social value in an evaluative situation. Our last three studies were designed to this purpose and helped to support the idea, in conclusion of this work, that the clearsightedness of the social value of judgements would bring a positive evaluation only if this clearsightedness is combined with a kind of clearsightedness of the social value of elements constituting the interaction's situation.
Resumo:
Rapport de synthèse : But du travail : le pronostic des patients atteints d'ostéosarcome s'est considérablement amélioré grâce à l'utilisation de thérapies combinées performantes. Cependant, ces traitements agressifs sont grevés de complications chroniques. Notre travail a consisté à l'évaluation du status fonctionnel, psychologique et familial chez des patients survivants au long cours d'ostéosarcome traités au centre pluridisciplinaire d'oncologie. Patients et méthodes: 15 survivants au long cours d'ostéosarcome ont été évalués à la recherche de séquelles physiques et psychologiques. Pour l'évaluation fonctionnelle, nous avons utilisé la méthode de Enneking. L'évaluation psychologique a été basée sur un test d'évaluation globale (GHQ-28), sur un test de cohésion familiale (FAST test) et sur une échelle d'évaluation de symptômes post-traumatiques. Résultats: sur le plan fonctionnel, seuls 5 patients présentaient des séquelles graves et 10 des handicaps modérés. 4 patients souffraient de symptômes dépressifs. 6 patients ont décrit uns structure familiale déséquilibrée dont 3 des 4 patients avec des symptômes dépressifs, les 4 patients avec symptômes post-traumatiques et 5 des 7 patients avec une mauvaise acceptation émotionnelle. Conclusions: la plupart des patients souffrant d'ostéosarcome présentent une bonne récupération fonctionnelle. Seule une minorité reste sévèrement handicapée. Un tiers des patients souffre de symptômes dépressifs et de stress post-traumatique. Une mauvaise acceptation émotionnelle est fortement liée à une structure familiale déséquilibrée. La situation psychologique et familiale des patients atteints d'ostéosarcome doit donc être rapidement prise en compte afin d'améliorer leur évolution au long cours.
Resumo:
Résumé Les glissements de terrain représentent un des principaux risques naturels dans les régions montagneuses. En Suisse, chaque année les glissements de terrains causent des dégâts qui affectent les infrastructures et ont des coûts financiers importants. Une bonne compréhension des mécanismes des glissements peut permettre d'atténuer leur impact. Celle-ci passe notamment par la connaissance de la structure interne du glissement, la détermination de son volume et de son ou ses plans de glissement. Dans un glissement de terrain, la désorganisation et la présence de fractures dans le matériel déplacé engendre un changement des paramètres physiques et en particulier une diminution des vitesses de propagation des ondes sismiques ainsi que de la densité du matériel. Les méthodes sismiques sont de ce fait bien adaptées à l'étude des glissements de terrain. Parmi les méthodes sismiques, l'analyse de la dispersion des ondes de surface est une méthode simple à mettre en oeuvre. Elle présente l'avantage d'estimer les variations des vitesses de cisaillement avec la profondeur sans avoir spécifiquement recours à l'utilisation d'une source d'onde S et de géophones horizontaux. Sa mise en oeuvre en trois étapes implique la mesure de la dispersion des ondes de surface sur des réseaux étendus, la détermination des courbes de dispersion pour finir par l'inversion de ces courbes. Les modèles de vitesse obtenus à partir de cette procédure ne sont valides que lorsque les milieux explorés ne présentent pas de variations latérales. En pratique cette hypothèse est rarement vérifiée, notamment pour un glissement de terrain dans lequel les couches remaniées sont susceptibles de présenter de fortes hétérogénéités latérales. Pour évaluer la possibilité de déterminer des courbes de dispersion à partir de réseaux de faible extension des mesures testes ont été effectuées sur un site (Arnex, VD) équipé d'un forage. Un profil sismique de 190 m de long a été implanté dans une vallée creusée dans du calcaire et remplie par des dépôts glacio-lacustres d'une trentaine de mètres d'épaisseur. Les données acquises le long de ce profil ont confirmé que la présence de variations latérales sous le réseau de géophones affecte l'allure des courbes de dispersion jusqu'à parfois empêcher leur détermination. Pour utiliser l'analyse de la dispersion des ondes de surface sur des sites présentant des variations latérales, notre approche consiste à déterminer les courbes de dispersions pour une série de réseaux de faible extension, à inverser chacune des courbes et à interpoler les différents modèles de vitesse obtenus. Le choix de la position ainsi que de l'extension des différents réseaux de géophones est important. Il tient compte de la localisation des hétérogénéités détectées à partir de l'analyse de sismique réfraction, mais également d'anomalies d'amplitudes observées sur des cartes qui représentent dans le domaine position de tir - position du récepteur, l'amplitude mesurée pour différentes fréquences. La procédure proposée par Lin et Lin (2007) s'est avérée être une méthode efficace permettant de déterminer des courbes de dispersion à partir de réseaux de faible extension. Elle consiste à construire à partir d'un réseau de géophones et de plusieurs positions de tir un enregistrement temps-déports qui tient compte d'une large gamme de distances source-récepteur. Au moment d'assembler les différentes données une correction de phase est appliquée pour tenir compte des hétérogénéités situées entre les différents points de tir. Pour évaluer cette correction nous suggérons de calculer pour deux tir successif la densité spectrale croisée des traces de même offset: Sur le site d'Arnex, 22 courbes de dispersions ont été déterminées pour de réseaux de géophones de 10 m d'extension. Nous avons également profité du forage pour acquérir un profil de sismique verticale en ondes S. Le modèle de vitesse S déduit de l'interprétation du profil de sismique verticale est utilisé comme information à priori lors l'inversion des différentes courbes de dispersion. Finalement, le modèle en deux dimension qui a été établi grâce à l'analyse de la dispersion des ondes de surface met en évidence une structure tabulaire à trois couches dont les limites coïncident bien avec les limites lithologiques observées dans le forage. Dans celui-ci des argiles limoneuses associées à une vitesse de propagation des ondes S de l'ordre de 175 m/s surmontent vers 9 m de profondeur des dépôts de moraine argilo-sableuse caractérisés par des vitesses de propagation des ondes S de l'ordre de 300 m/s jusqu'à 14 m de profondeur et supérieur ou égal à 400 m/s entre 14 et 20 m de profondeur. Le glissement de la Grande Combe (Ballaigues, VD) se produit à l'intérieur du remplissage quaternaire d'une combe creusée dans des calcaires Portlandien. Comme dans le cas du site d'Arnex les dépôts quaternaires correspondent à des dépôts glacio-lacustres. Dans la partie supérieure la surface de glissement a été localisée à une vingtaine de mètres de profondeur au niveau de l'interface qui sépare des dépôts de moraine jurassienne et des dépôts glacio-lacustres. Au pied du glissement 14 courbes de dispersions ont été déterminées sur des réseaux de 10 m d'extension le long d'un profil de 144 m. Les courbes obtenues sont discontinues et définies pour un domaine de fréquence de 7 à 35 Hz. Grâce à l'utilisation de distances source-récepteur entre 8 et 72 m, 2 à 4 modes de propagation ont été identifiés pour chacune des courbes. Lors de l'inversion des courbes de dispersion la prise en compte des différents modes de propagation a permis d'étendre la profondeur d'investigation jusqu'à une vingtaine de mètres de profondeur. Le modèle en deux dimensions permet de distinguer 4 couches (Vs1 < 175 m/s, 175 m/s < Vs2 < 225 m/s, 225 m/s < Vs3 < 400 m/s et Vs4 >.400 m/s) qui présentent des variations d'épaisseur. Des profils de sismiques réflexion en ondes S acquis avec une source construite dans le cadre de ce travail, complètent et corroborent le modèle établi à partir de l'analyse de la dispersion des ondes de surface. Un réflecteur localisé entre 5 et 10 m de profondeur et associé à une vitesse de sommation de 180 m/s souligne notamment la géométrie de l'interface qui sépare la deuxième de la troisième couche du modèle établi à partir de l'analyse de la dispersion des ondes de surface. Abstract Landslides are one of the main natural hazards in mountainous regions. In Switzerland, landslides cause damages every year that impact infrastructures and have important financial costs. In depth understanding of sliding mechanisms may help limiting their impact. In particular, this can be achieved through a better knowledge of the internal structure of the landslide, the determination of its volume and its sliding surface or surfaces In a landslide, the disorganization and the presence of fractures in the displaced material generate a change of the physical parameters and in particular a decrease of the seismic velocities and of the material density. Therefoe, seismic methods are well adapted to the study of landslides. Among seismic methods, surface-wave dispersion analysis is a easy to implement. Through it, shearwave velocity variations with depth can be estimated without having to resort to an S-wave source and to horizontal geophones. Its 3-step implementation implies measurement of surface-wave dispersion with long arrays, determination of the dispersion curves and finally inversion of these curves. Velocity models obtained through this approach are only valid when the investigated medium does not include lateral variations. In practice, this assumption is seldom correct, in particular for landslides in which reshaped layers likely include strong lateral heterogeneities. To assess the possibility of determining dispersion curves from short array lengths we carried out tests measurements on a site (Arnex, VD) that includes a borehole. A 190 m long seismic profile was acquired in a valley carved into limestone and filled with 30 m of glacio-lacustrine sediments. The data acquired along this profile confirmed that the presence of lateral variations under the geophone array influences the dispersion-curve shape so much that it sometimes preventes the dispersion curves determination. Our approach to use the analysis of surface-wave dispersion on sites that include lateral variations consists in obtaining dispersion curves for a series of short length arrays; inverting each so obtained curve and interpolating the different obtained velocity model. The choice of the location as well as the geophone array length is important. It takes into account the location of the heterogeneities that are revealed by the seismic refraction interpretation of the data but also, the location of signal amplitude anomalies observed on maps that represent, for a given frequency, the measured amplitude in the shot position - receiver position domain. The procedure proposed by Lin and Lin (2007) turned out to be an efficient one to determine dispersion curves using short extension arrays. It consists in building a time-offset from an array of geophones with a wide offset range by gathering seismograms acquired with different source-to-receiver offsets. When assembling the different data, a phase correction is applied in order to reduce static phase error induced by lateral variation. To evaluate this correction, we suggest to calculate, for two successive shots, the cross power spectral density of common offset traces. On the Arnex site, 22 curves were determined with 10m in length geophone-arrays. We also took advantage of the borehole to acquire a S-wave vertical seismic profile. The S-wave velocity depth model derived from the vertical seismic profile interpretation is used as prior information in the inversion of the dispersion-curves. Finally a 2D velocity model was established from the analysis of the different dispersion curves. It reveals a 3-layer structure in good agreement with the observed lithologies in the borehole. In it a clay layer with a shear-wave of 175 m/s shear-wave velocity overlies a clayey-sandy till layer at 9 m depth that is characterized down to 14 m by a 300 m/s S-wave velocity; these deposits have a S-wave velocity of 400 m/s between depths of 14 to 20 m. The La Grand Combe landslide (Ballaigues, VD) occurs inside the Quaternary filling of a valley carved into Portlandien limestone. As at the Arnex site, the Quaternary deposits correspond to glaciolacustrine sediments. In the upper part of the landslide, the sliding surface is located at a depth of about 20 m that coincides with the discontinuity between Jurassian till and glacio-lacustrine deposits. At the toe of the landslide, we defined 14 dispersion curves along a 144 m long profile using 10 m long geophone arrays. The obtained curves are discontinuous and defined within a frequency range of 7 to 35 Hz. The use of a wide range of offsets (from 8 to 72 m) enabled us to determine 2 to 4 mode of propagation for each dispersion curve. Taking these higher modes into consideration for dispersion curve inversion allowed us to reach an investigation depth of about 20 m. A four layer 2D model was derived (Vs1< 175 m/s, 175 m/s <Vs2< 225 m/s, 225 m/s < Vs3 < 400 m/s, Vs4> 400 m/s) with variable layer thicknesses. S-wave seismic reflection profiles acquired with a source built as part of this work complete and the velocity model revealed by surface-wave analysis. In particular, reflector at a depth of 5 to 10 m associated with a 180 m/s stacking velocity image the geometry of the discontinuity between the second and third layer of the model derived from the surface-wave dispersion analysis.
Resumo:
Partant d'une perspective sémiotique appliquée aux débuts de film pour élargir l'approche à une réflexion historique sur l'intermédialité, cet article examine le postulat selon lequel les spectacles vivants qui précédaient la projection des films dans les années 1920 ont été en quelque sorte « happés » par le discours filmique. A travers l'examen d'un ensemble de films réalisés entre 1927 et 1937 qui accordent dans leurs génériques ou leurs prologues une place prépondérante à l'adresse vocale, l'auteur met en évidence certains phénomènes de résurgence de l'oralité propre à la période « muette », les speaker des premiers talkies endossant une fonction à certains égards similaire à celle du bonimenteur des premiers temps. L'accent est mis sur la production cinématographique de Guitry, dont la passion pour la « théâtralité » l'incite à proposer des formes singulières d'auto-mise en scène et d'adresse au spectateur. La question de la réflexivité des incipit passe également par la prise en compte de la dimension technologique, qui est parfois intégrée au film même, à l'instar de l'ouverture radiophonique de L'Atlantide de Pabst. Ces considérations s'inscrivent plus généralement dans une réflexion sur les diverses imitations de la voix vive à l'ère des technologies de l'audiovisuel.
Resumo:
Les deux notions, migrations d'une part et développement d'autre part, sont en elles-mêmes complexes, les mettre en relation amplifie cette complexité. Il n'est pas dans notre intention d'introduire un débat sur leur histoire, l'évolution de leur approche et les multiples définitionss possibles, mais simplement de préciser un cadrage scientifique privilégiant une nouvelle catégorie d'acteurs. La formulation du titre du livre, émigrés/immigrés, n'avait pas pour seul objectif de rappeler le double regard porté sur les migrations internationales, celui du pays de départ ou celui du pays d'arrivée, mais d'énoncer une construction signifiant les évolutions récentes dans le champ des pratiques migratoires. Pays d'origine, d'arrivée ou d'installation, de transits et de rebond, font partie d'un même espace migratoire qu'il s'avère nécessaire d'appréhender dans sa globalité si l'on souhaite comprendre les mutations en cours. Ce livre s'est donc intéressé à l'ensemble de la réalité migratoire, le migrant étant à la fois émigré et immigré, ce qui signifie la prise en compte des effets de cette présence pour les pays d'acceuil et d'installation et les pays d'origine. Quant au développement, nous sommes dans le registre des "concepts valise" chacun le définissant à sa manière. Notion polysémique par excellence, une multitude de qualificatifs lui ont été accolés : il peut être rural ou urbain, endogène ou exogène, local ou global, durable ou soutenable. Il s'agirait d'un "concept magique", permettant pour des personnes et des espaces, de passer de moins de production à plus de production, de moins de souffrance à plus de confort, du "moins être"à un bien-être social, économique et politique...
Resumo:
Partant de deux études de cas, le projet de Frente Ribeirinha à Porto (Portugal) et celui d'Euroméditerranée à Marseille, ce projet de thèse a pour objectif l'étude des modalités de valorisation du tissu bâti (patrimonialisation) par les acteurs institutionnels dans les projets de régénération urbaine. Suivant l'hypothèse de l'entrée dans un nouveau régime de patrimonialité, l'analyse doit expliciter les stratégies à l'oeuvre ainsi que la manière dont les autorités publiques influent sur les représentations de l'espace construit. Abordant la question des échelles d'intervention des projets de régénération urbaine à partir des deux études de cas, mais également de littératures sur des projets anglo-saxons, la thèse cherche à voir, au prisme de la construction patrimoniale, comment ces projets sont directement connectés à l'économie internationale et au phénomène de globalisation et s'ils prennent en compte l'échelle du quotidien et de la domesticité. Il s'agit de montrer les limites d'une valorisation du tissu bâti dans un objectif de retombées économiques (ville consommable) au détriment des valeurs d'usage et de signifiants du quotidien. D'où l'hypothèse de l'importance d'une prise en compte des représentations de valeurs aux différentes échelles (dimensions socio-culturelles du projet de régénération) pour un équilibre qualitatif dans la fabrication du territoire et des projets sur le long terme. La volonté est sensiblement la compréhension des nouvelles constructions patrimoniales ainsi que des pratiques de conception et de mise en oeuvre du projet urbain. - Based on two case studies, the Frente Ribeirinha project in Porto (Portugal) and Euroméditerranée in Marseille, this research project aims at studying the modes of enhancement of the built fabric by institutional actors in urban regeneration projects. Posing the idea of a new heritage regime, this analysis attempts to explain the different strategies at work and how public authorities influence the built space's representations. Looking at the different scales of intervention of regeneration projects in our two case studies, as well as Anglo-Saxon literature on projects, it seeks at seeing, through heritage processes, how these projects are directly connected to the international economy and the phenomenon of globalization. Also, it aims at investigating whether policies take into account the scale of everyday life and domesticity. It attempts to show the limit of a built fabric's valuation with economic benefits objectives (consumable city) rather than taking into account values and meanings of everyday life. Hence, the thesis suggests taking into account representations and values at different scales (socio-cultural dimensions of the regeneration project) for a qualitative balance in urban planning and urban projects' manufacturing. The aim is to broaden the understanding on heritage construction, on urban design practices and on implementation of urban projects.
Resumo:
Les infections liées aux accès vasculaires sont à l'origine d'une proportion importante des infections nosocomiales. Elles comprennent leur colonisation par des micro-organismes, les infections du site d'insertion et les bactériémies et fongémies qui leur sont associées ou attribuées. Une bactériémie complique l'insertion de 3 à 5 % des voies veineuses, correspondant à une incidence de 2 à 14 épisodes pour 1000 jourcathéters. Cette proportion ne représente toutefois que la partie visible de l'iceberg puisque la plupart des épisodes de sepsis clinique sans foyer infectieux associé sont également considérés comme liés aux accès vasculaires. Après un rappel de leur physiopathologie, cet article passe en revue les éléments importants pour leur prévention, y compris ceux concernant l'utilisation de cathéters imprégnés de désinfectants ou d'antibiotiques. Pour terminer, nous discutons en détail les stratégies préventives globales. Fondées sur la prise en compte d'un ensemble d'éléments spécifiques, ces approches sont centrées sur l'éducation du personnel au respect des règles d'hygiène de base et sur l'introduction de recommandations précises pour l'insertion et l'utilisation des accès vasculaires.
Resumo:
Pendant la grossesse, la pression artérielle reste stable malgré une nette augmentation du volume d'éjection systolique et du débit cardiaque. Cette stabilité vient d'un côté d'une vasodilatation périphérique entraînant une diminution des résistances périphériques et d'un autre côté d'une moindre rigidité des principales artères notamment l'aorte. En conséquence, l'amplitude des ondes de pouls est atténuée, de même que leur vitesse de propagation dans le sens tant antérogade que rétrograde (ondes réfléchies). Les ondes réfléchies tendent ainsi à atteindre l'aorte ascendante plus tard durant la systole, voire durant la diastole, ce qui peut contribuer à diminuer la pression puisée. La prééclampsie perturbe massivement ce processus d'adaptation. Il s'agit d'une maladie hypertensive de la grossesse engendrant une importante morbidité et mortalité néonatale et maternelle. Il est à remarquer que la diminution de la rigidité artérielle n'est pas observée chez les patientes atteintes avec pour conséquence une forte augmentation de la pression systolique centrale (aortique) par les ondes réfléchies. Ce fait a été établi grâce à l'existence de la tonométrie d'aplanation, une méthode permettant l'évaluation non invasive de l'onde de pouls centrale. Dans cette méthode, un senseur de pression piézo-électrique permet de capter l'onde de pouls périphérique, le plus souvent sur l'artère radiale. Par la suite, un algorithme validé permet d'en déduire la forme de l'onde de pouls centrale et de visualiser à quel moment du cycle cardiaque s'y ajoutent les ondes réfléchies. Plusieurs études font état d'une forte augmentation de la pression systolique centrale par les ondes réfléchies chez les patientes atteintes de prééclampsie, suggérant l'utilisation de cette méthode pour le diagnostic et le monitoring voire pour le dépistage de ces patientes. Pour atteindre ce but, il est nécessaire d'établir des normes en rapport notamment avec l'âge gestationnel. Dans la littérature, les données pertinentes actuellement disponibles sont variables, voire contradictoires. Par exemple, les ondes réfléchies proéminentes dans la partie diastolique de l'onde de pouls centrale disparaissaient chez des patientes enceintes au 3eme trimestre comparées à des contrôles non enceintes dans une étude lausannoise, alors que deux autres études présentent l'observation contraire. Autre exemple, certains auteurs décrivent une diminution progressive de l'augmentation systolique jusqu'à l'accouchement alors que d'autres rapportent un nadir aux environs du 6ème mois, suivi d'un retour à des valeurs plus élevées en fin de grossesse. Les mesures effectuées dans toutes ces études différaient dans leur exécution, les patientes étant notamment dans des postions corporelles différentes (couchées, semi-couchées, assises, en décubitus latéral). Or nous savons que le status hémodynamique est très sensible aux changements de position, particulièrement durant la grossesse où l'utérus gravide est susceptible d'avoir des interactions mécaniques avec les veines et possiblement les artères abdominales. Ces différences méthodologiques pourraient donc expliquer, au moins en partie, l'hétérogénéité des résultats concernant l'onde de pouls chez la femme enceinte, ce qui à notre connaissance n'a jamais été exploré. Nous avons mesuré l'onde de pouls dans les positions assise et couchée chez des femmes enceintes, au 3eme trimestre d'une grossesse non compliquée, et nous avons effectué une comparaison avec des données similaire obtenues chez des femmes non enceintes en bonne santé habituelle. Les résultats montrent que la position du corps a un impact majeur sur la forme de l'onde de pouls centrale. Comparée à la position assise, la position couchée se caractérise par une moindre augmentation systolique et, par contraste, une augmentation diastolique plus marquée. De manière inattendue, cet effet s'observe aussi bien en présence qu'en l'absence de grossesse, suggérant que la cause première n'en réside pas dans les interactions mécaniques de l'utérus gravide avec les vaisseaux sanguins abdominaux. Nos observations pourraient par contre être expliquées par l'influence de la position du corps, via un phénomène hydrostatique simple, sur la pression transmurale des artères éloignées du coeur, tout particulièrement celles des membres inférieurs et de l'étage abdominal. En position verticale, ces vaisseaux augmenteraient leur rigidité pour résister à la distension de leur paroi, ce qui y accroîtrait la vitesse de propagation des ondes de pression. En l'état, cette explication reste hypothétique. Mais quoi qu'il en soit, nos résultats expliquent certaines discordances entre les études conduites à ce jour pour caractériser l'influence de la grossesse physiologique sur la forme de l'onde de pouls central. De plus, ils indiquent que la position du corps doit être prise en compte lors de toute investigation utilisant la tonométrie d'applanation pour déterminer la rigidité des artères chez les jeunes femmes enceintes ou non. Il sera aussi nécessaire d'en tenir compte pour établir des normes en vue d'une utilisation de la tonométrie d'aplanation pour dépister ou suivre les patientes atteintes de prééclampsie. Il serait enfin intéressant d'évaluer si l'effet de la position sur la forme de l'onde de pouls central existe également dans l'autre sexe et chez des personnes plus âgées.
Resumo:
Ces dernières années, de nombreuses recherches ont mis en évidence les effets toxiques des micropolluants organiques pour les espèces de nos lacs et rivières. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, alors que les organismes sont exposés tous les jours à des milliers de substances en mélange. Or les effets de ces cocktails ne sont pas négligeables. Cette thèse de doctorat s'est ainsi intéressée aux modèles permettant de prédire le risque environnemental de ces cocktails pour le milieu aquatique. Le principal objectif a été d'évaluer le risque écologique des mélanges de substances chimiques mesurées dans le Léman, mais aussi d'apporter un regard critique sur les méthodologies utilisées afin de proposer certaines adaptations pour une meilleure estimation du risque. Dans la première partie de ce travail, le risque des mélanges de pesticides et médicaments pour le Rhône et pour le Léman a été établi en utilisant des approches envisagées notamment dans la législation européenne. Il s'agit d'approches de « screening », c'est-à-dire permettant une évaluation générale du risque des mélanges. Une telle approche permet de mettre en évidence les substances les plus problématiques, c'est-à-dire contribuant le plus à la toxicité du mélange. Dans notre cas, il s'agit essentiellement de 4 pesticides. L'étude met également en évidence que toutes les substances, même en trace infime, contribuent à l'effet du mélange. Cette constatation a des implications en terme de gestion de l'environnement. En effet, ceci implique qu'il faut réduire toutes les sources de polluants, et pas seulement les plus problématiques. Mais l'approche proposée présente également un biais important au niveau conceptuel, ce qui rend son utilisation discutable, en dehors d'un screening, et nécessiterait une adaptation au niveau des facteurs de sécurité employés. Dans une deuxième partie, l'étude s'est portée sur l'utilisation des modèles de mélanges dans le calcul de risque environnemental. En effet, les modèles de mélanges ont été développés et validés espèce par espèce, et non pour une évaluation sur l'écosystème en entier. Leur utilisation devrait donc passer par un calcul par espèce, ce qui est rarement fait dû au manque de données écotoxicologiques à disposition. Le but a été donc de comparer, avec des valeurs générées aléatoirement, le calcul de risque effectué selon une méthode rigoureuse, espèce par espèce, avec celui effectué classiquement où les modèles sont appliqués sur l'ensemble de la communauté sans tenir compte des variations inter-espèces. Les résultats sont dans la majorité des cas similaires, ce qui valide l'approche utilisée traditionnellement. En revanche, ce travail a permis de déterminer certains cas où l'application classique peut conduire à une sous- ou sur-estimation du risque. Enfin, une dernière partie de cette thèse s'est intéressée à l'influence que les cocktails de micropolluants ont pu avoir sur les communautés in situ. Pour ce faire, une approche en deux temps a été adoptée. Tout d'abord la toxicité de quatorze herbicides détectés dans le Léman a été déterminée. Sur la période étudiée, de 2004 à 2009, cette toxicité due aux herbicides a diminué, passant de 4% d'espèces affectées à moins de 1%. Ensuite, la question était de savoir si cette diminution de toxicité avait un impact sur le développement de certaines espèces au sein de la communauté des algues. Pour ce faire, l'utilisation statistique a permis d'isoler d'autres facteurs pouvant avoir une influence sur la flore, comme la température de l'eau ou la présence de phosphates, et ainsi de constater quelles espèces se sont révélées avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps. Fait intéressant, une partie d'entre-elles avait déjà montré des comportements similaires dans des études en mésocosmes. En conclusion, ce travail montre qu'il existe des modèles robustes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques, et qu'ils peuvent être utilisés pour expliquer le rôle des substances dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application. - Depuis plusieurs années, les risques que posent les micropolluants organiques pour le milieu aquatique préoccupent grandement les scientifiques ainsi que notre société. En effet, de nombreuses recherches ont mis en évidence les effets toxiques que peuvent avoir ces substances chimiques sur les espèces de nos lacs et rivières, quand elles se retrouvent exposées à des concentrations aiguës ou chroniques. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, c'est à dire considérées séparément. Actuellement, il en est de même dans les procédures de régulation européennes, concernant la partie évaluation du risque pour l'environnement d'une substance. Or, les organismes sont exposés tous les jours à des milliers de substances en mélange, et les effets de ces "cocktails" ne sont pas négligeables. L'évaluation du risque écologique que pose ces mélanges de substances doit donc être abordé par de la manière la plus appropriée et la plus fiable possible. Dans la première partie de cette thèse, nous nous sommes intéressés aux méthodes actuellement envisagées à être intégrées dans les législations européennes pour l'évaluation du risque des mélanges pour le milieu aquatique. Ces méthodes sont basées sur le modèle d'addition des concentrations, avec l'utilisation des valeurs de concentrations des substances estimées sans effet dans le milieu (PNEC), ou à partir des valeurs des concentrations d'effet (CE50) sur certaines espèces d'un niveau trophique avec la prise en compte de facteurs de sécurité. Nous avons appliqué ces méthodes à deux cas spécifiques, le lac Léman et le Rhône situés en Suisse, et discuté les résultats de ces applications. Ces premières étapes d'évaluation ont montré que le risque des mélanges pour ces cas d'étude atteint rapidement une valeur au dessus d'un seuil critique. Cette valeur atteinte est généralement due à deux ou trois substances principales. Les procédures proposées permettent donc d'identifier les substances les plus problématiques pour lesquelles des mesures de gestion, telles que la réduction de leur entrée dans le milieu aquatique, devraient être envisagées. Cependant, nous avons également constaté que le niveau de risque associé à ces mélanges de substances n'est pas négligeable, même sans tenir compte de ces substances principales. En effet, l'accumulation des substances, même en traces infimes, atteint un seuil critique, ce qui devient plus difficile en terme de gestion du risque. En outre, nous avons souligné un manque de fiabilité dans ces procédures, qui peuvent conduire à des résultats contradictoires en terme de risque. Ceci est lié à l'incompatibilité des facteurs de sécurité utilisés dans les différentes méthodes. Dans la deuxième partie de la thèse, nous avons étudié la fiabilité de méthodes plus avancées dans la prédiction de l'effet des mélanges pour les communautés évoluant dans le système aquatique. Ces méthodes reposent sur le modèle d'addition des concentrations (CA) ou d'addition des réponses (RA) appliqués sur les courbes de distribution de la sensibilité des espèces (SSD) aux substances. En effet, les modèles de mélanges ont été développés et validés pour être appliqués espèce par espèce, et non pas sur plusieurs espèces agrégées simultanément dans les courbes SSD. Nous avons ainsi proposé une procédure plus rigoureuse, pour l'évaluation du risque d'un mélange, qui serait d'appliquer d'abord les modèles CA ou RA à chaque espèce séparément, et, dans une deuxième étape, combiner les résultats afin d'établir une courbe SSD du mélange. Malheureusement, cette méthode n'est pas applicable dans la plupart des cas, car elle nécessite trop de données généralement indisponibles. Par conséquent, nous avons comparé, avec des valeurs générées aléatoirement, le calcul de risque effectué selon cette méthode plus rigoureuse, avec celle effectuée traditionnellement, afin de caractériser la robustesse de cette approche qui consiste à appliquer les modèles de mélange sur les courbes SSD. Nos résultats ont montré que l'utilisation de CA directement sur les SSDs peut conduire à une sous-estimation de la concentration du mélange affectant 5 % ou 50% des espèces, en particulier lorsque les substances présentent un grand écart- type dans leur distribution de la sensibilité des espèces. L'application du modèle RA peut quant à lui conduire à une sur- ou sous-estimations, principalement en fonction de la pente des courbes dose- réponse de chaque espèce composant les SSDs. La sous-estimation avec RA devient potentiellement importante lorsque le rapport entre la EC50 et la EC10 de la courbe dose-réponse des espèces est plus petit que 100. Toutefois, la plupart des substances, selon des cas réels, présentent des données d' écotoxicité qui font que le risque du mélange calculé par la méthode des modèles appliqués directement sur les SSDs reste cohérent et surestimerait plutôt légèrement le risque. Ces résultats valident ainsi l'approche utilisée traditionnellement. Néanmoins, il faut garder à l'esprit cette source d'erreur lorsqu'on procède à une évaluation du risque d'un mélange avec cette méthode traditionnelle, en particulier quand les SSD présentent une distribution des données en dehors des limites déterminées dans cette étude. Enfin, dans la dernière partie de cette thèse, nous avons confronté des prédictions de l'effet de mélange avec des changements biologiques observés dans l'environnement. Dans cette étude, nous avons utilisé des données venant d'un suivi à long terme d'un grand lac européen, le lac Léman, ce qui offrait la possibilité d'évaluer dans quelle mesure la prédiction de la toxicité des mélanges d'herbicide expliquait les changements dans la composition de la communauté phytoplanctonique. Ceci à côté d'autres paramètres classiques de limnologie tels que les nutriments. Pour atteindre cet objectif, nous avons déterminé la toxicité des mélanges sur plusieurs années de 14 herbicides régulièrement détectés dans le lac, en utilisant les modèles CA et RA avec les courbes de distribution de la sensibilité des espèces. Un gradient temporel de toxicité décroissant a pu être constaté de 2004 à 2009. Une analyse de redondance et de redondance partielle, a montré que ce gradient explique une partie significative de la variation de la composition de la communauté phytoplanctonique, même après avoir enlevé l'effet de toutes les autres co-variables. De plus, certaines espèces révélées pour avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps, ont montré des comportements similaires dans des études en mésocosmes. On peut en conclure que la toxicité du mélange herbicide est l'un des paramètres clés pour expliquer les changements de phytoplancton dans le lac Léman. En conclusion, il existe diverses méthodes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques et celui-ci peut jouer un rôle dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application, avant d'utiliser leurs résultats pour la gestion des risques environnementaux. - For several years now, the scientists as well as the society is concerned by the aquatic risk organic micropollutants may pose. Indeed, several researches have shown the toxic effects these substances may induce on organisms living in our lakes or rivers, especially when they are exposed to acute or chronic concentrations. However, most of the studies focused on the toxicity of single compounds, i.e. considered individually. The same also goes in the current European regulations concerning the risk assessment procedures for the environment of these substances. But aquatic organisms are typically exposed every day simultaneously to thousands of organic compounds. The toxic effects resulting of these "cocktails" cannot be neglected. The ecological risk assessment of mixtures of such compounds has therefore to be addressed by scientists in the most reliable and appropriate way. In the first part of this thesis, the procedures currently envisioned for the aquatic mixture risk assessment in European legislations are described. These methodologies are based on the mixture model of concentration addition and the use of the predicted no effect concentrations (PNEC) or effect concentrations (EC50) with assessment factors. These principal approaches were applied to two specific case studies, Lake Geneva and the River Rhône in Switzerland, including a discussion of the outcomes of such applications. These first level assessments showed that the mixture risks for these studied cases exceeded rapidly the critical value. This exceeding is generally due to two or three main substances. The proposed procedures allow therefore the identification of the most problematic substances for which management measures, such as a reduction of the entrance to the aquatic environment, should be envisioned. However, it was also showed that the risk levels associated with mixtures of compounds are not negligible, even without considering these main substances. Indeed, it is the sum of the substances that is problematic, which is more challenging in term of risk management. Moreover, a lack of reliability in the procedures was highlighted, which can lead to contradictory results in terms of risk. This result is linked to the inconsistency in the assessment factors applied in the different methods. In the second part of the thesis, the reliability of the more advanced procedures to predict the mixture effect to communities in the aquatic system were investigated. These established methodologies combine the model of concentration addition (CA) or response addition (RA) with species sensitivity distribution curves (SSD). Indeed, the mixture effect predictions were shown to be consistent only when the mixture models are applied on a single species, and not on several species simultaneously aggregated to SSDs. Hence, A more stringent procedure for mixture risk assessment is proposed, that would be to apply first the CA or RA models to each species separately and, in a second step, to combine the results to build an SSD for a mixture. Unfortunately, this methodology is not applicable in most cases, because it requires large data sets usually not available. Therefore, the differences between the two methodologies were studied with datasets created artificially to characterize the robustness of the traditional approach applying models on species sensitivity distribution. The results showed that the use of CA on SSD directly might lead to underestimations of the mixture concentration affecting 5% or 50% of species, especially when substances present a large standard deviation of the distribution from the sensitivity of the species. The application of RA can lead to over- or underestimates, depending mainly on the slope of the dose-response curves of the individual species. The potential underestimation with RA becomes important when the ratio between the EC50 and the EC10 for the dose-response curve of the species composing the SSD are smaller than 100. However, considering common real cases of ecotoxicity data for substances, the mixture risk calculated by the methodology applying mixture models directly on SSDs remains consistent and would rather slightly overestimate the risk. These results can be used as a theoretical validation of the currently applied methodology. Nevertheless, when assessing the risk of mixtures, one has to keep in mind this source of error with this classical methodology, especially when SSDs present a distribution of the data outside the range determined in this study Finally, in the last part of this thesis, we confronted the mixture effect predictions with biological changes observed in the environment. In this study, long-term monitoring of a European great lake, Lake Geneva, provides the opportunity to assess to what extent the predicted toxicity of herbicide mixtures explains the changes in the composition of the phytoplankton community next to other classical limnology parameters such as nutrients. To reach this goal, the gradient of the mixture toxicity of 14 herbicides regularly detected in the lake was calculated, using concentration addition and response addition models. A decreasing temporal gradient of toxicity was observed from 2004 to 2009. Redundancy analysis and partial redundancy analysis showed that this gradient explains a significant portion of the variation in phytoplankton community composition, even when having removed the effect of all other co-variables. Moreover, some species that were revealed to be influenced positively or negatively, by the decrease of toxicity in the lake over time, showed similar behaviors in mesocosms studies. It could be concluded that the herbicide mixture toxicity is one of the key parameters to explain phytoplankton changes in Lake Geneva. To conclude, different methods exist to predict the risk of mixture in the ecosystems. But their reliability varies depending on the underlying hypotheses. One should therefore carefully consider these hypotheses, as well as the limits of the approaches, before using the results for environmental risk management