1000 resultados para Période préindustrielle
Resumo:
Résumé Cette recherche analyse les transformations de la gouvernance d'entreprise et des relations industrielles entre 1970 et 2008 dans le contexte suisse, en mettant l'accent sur les changements survenus depuis les années 1990. Elle se centre sur le secteur de l'industrie des machines, de l'électrotechnique et de la métallurgie -noyau historique du capitalisme helvétique et principal employeur et exportateur industriel du pays - et discute l'hypothèse de la convergence des économies coordonnées vers le modèle libéral. Elle examine d'abord les formes de coordination hors-marché qui se sont consolidées entre les élites économiques suisses au cours de la période d'après-guerre. Les stratégies d'innovation incrémentale des grandes sociétés étaient soutenues par une gouvernance marquée par la faible pression des marchés des capitaux, en raison notamment de la forte concentration de l'actionnariat, de mécanismes protectionnistes en matière d'accès au contrôle des sociétés, ainsi que d'une grande interdépendance entre banques et entreprises. Cette interdépendance apparaît dans la forte densité du réseau d'interconnexions des Conseils d'administration, où les principales banques tiennent une place centrale. Le réseau met également en relation les sociétés du secteur entre elles, ainsi qu'avec des firmes actives sur d'autres marchés, ce qui témoigne de l'irréductibilité des stratégies industrielles à une pure logique de compétition centrée sur les marchés. Les stratégies à long terme du management peuvent également s'appuyer sur un système pacifié de relations industrielles, caractérisé par l'autorégulation des acteurs privés dans le cadre d'un partenariat social de branche entre des associations aux stratégies modérées, « néocorporatistes ». Nous analysons alors l'impact de la libéralisation et de la financiarisation de l'économie suisse sur la coordination des élites économiques durant les années 1990. Nous montrons que l'affirmation des fonds d'investissement a déstabilisé le système traditionnel de gouvernance d'entreprise. Ce dernier a ainsi été marqué par l'émergence d'un marché pour le contrôle de l'entreprise -fin du «capital patient » -, la dissolution de l'interdépendance entre banques et industries et plus globalement des formes de coordination hors-marché reposant sur le réseau d'interconnexions des Conseils d'administration, ainsi que par de profondes restructurations des grandes sociétés orientées vers la création de richesse pour les actionnaires. La recherche explore alors les logiques d'interactions entre la sphère de la gouvernance d'entreprise et celle des relations industrielles, l'affirmation du capital financier faisant pression sur le partenariat social dans le sens d'une flexibilisation et déréglementation du marché du travail. Par ailleurs, nous mettons en perspective le rôle central des élites dans le changement institutionnel. Loin de subir la pression des actionnaires, les préférences d'une nouvelle élite managériale au profil financier ont convergé avec les intérêts des investisseurs dans le processus de financiarisation. Ces préférences ont également participé à l'érosion du partenariat social de branche. Du côté syndical, l'émergence -ici aussi - d'une nouvelle élite, académique et issue de la gauche politique, au cours des années 1990, a remis en cause les recettes de l'ancienne génération de syndicalistes ouvriers. La principale association du secteur a ainsi diversifié ses registres d'action en investissant la sphère politique et en relativisant la paix absolue du travail, deux stratégies activement rejetées par le syndicat au cours du régime de croissance d'après-guerre. Tout en mettant la sociologie des élites au service d'une meilleure compréhension des processus de changement institutionnel dans les capitalismes contemporains, cette recherche souligne des logiques de changement différentes dans les sphères sous revue :changement disruptif dans la gouvernance d'entreprise, incrémentai dans les relations industrielles. L'analyse s'est appuyée sur le croisement de différentes méthodes : analyse documentaire, entretiens semi-directifs, analyse du parcours et profil des élites, analyse de réseau, études de cas.
Resumo:
Fondée sur un corpus d'écrivains-voyageurs qui sont symptomatiques des changements importants affectant la question de l'espace dans la première moitié du XXème siècle, cette étude tire profit de la grande polyvalence de la problématique du paysage pour proposer un véritable dialogue interdisciplinaire entre littérature et philosophie. Cette perspective est largement favorisée par les écrivains eux-mêmes qui ont indiscutablement lié leur entreprise poétique à des enjeux épistémiques recoupant les préoccupations des scientifiques, médecins, géographes ou philosophes de leur temps. Un certain nombre d'interrogations nous sont apparues caractéristiques de cette période de l'histoire des voyages. Victor Segalen, Blaise Cendrars et Henri Michaux ont été particulièrement sensibles à cette angoisse d'époque liée à l'amenuisement du monde, c'est-à- dire au raccourcissement des distances entre continents suite aux développements des moyens de transport et la perte des « espaces blancs » de la carte, conséquence directe des entreprises exploratrices du XIXème siècle. A la déréliction qui s'empare du voyageur moderne face à la disparition des zones inconnues s'est ajouté l'effroi provoqué par la seconde loi thermodynamique du biologiste allemand Ernst Haeckel, qui, avec sa théorie de l'entropie, a fait craindre à plusieurs générations que la matière de l'univers tendrait vers une simplification toujours plus grande, et que le globe terrestre, à l'image du cosmos, ressemblerait peu ou prou à un immense magma de glace. Il est remarquable de constater à quel point ces trois auteurs ont développé une sorte d'outillage conceptuel commun propre à diagnostiquer cette crise et à la résoudre en élaborant une nouvelle manière de se rapporter à l'espace et de décrire le paysage. Ce nouveau paradigme qui modélise un autre type de relation à l'extérieur est solidaire de courants de pensée post-rationalistes qui de Nietzsche à Gilles Deleuze, en passant par Bergson et la phénoménologie, ont conduit à un démantèlement de la conception cartésienne de la conscience dans son rapport à l'étendue. Aux croisements de la philosophie et de la littérature se construit durant la première moitié du XXème siècle un nouveau modèle de représentation du paysage qui passe par l'élaboration de la ligne libre. Celle-ci décrit une manière de dire le réel qui ne consiste pas à en reproduire les composantes de façon fidèle, mais à tracer le mouvement énergétique par lequel le corps se rapporte à l'espace de manière dynamique et variée. Proche du terme de diagramme, exploité par Deleuze et relayé par le géographe Jean-Marc Besse, il consiste en un schème du réel qui s'élabore en cours d'expérience et ouvre sur une réalité à venir. De ce point de vue, la ligne libre définit une manière de se rapporter au réel qui remet en question les théories paysagères fondées sur Vartialisation. En prenant appui sur cette proximité d'intérêt entre une certaine philosophie et la littérature de voyage de la première moitié du XXème siècle, cette étude montre que la construction de ce nouveau paradigme permet de mettre en évidence un type de transfert peu conventionnel entre ces deux champs des sciences humaines. Car Segalen, Cendrars et Michaux n'ont pas vraiment repris aux philosophes des concepts, des syllogismes ou même des pensées, mais se sont approprié une figure dont ils ont libéré l'imaginaire sémantique. En lecteurs émerveillés de Nietzsche, ils ont surtout vu dans le voyageur Zarathoustra et dans sa manière de se déplacer dans le paysage, une façon stratégique de répondre à la crise de l'entropie. Mais si Zarathoustra incarne le mouvement de la ligne libre en lui conférant une valeur épistémique, il constitue également une figure imprégnée par la littérature de voyage et le genre de l'aventure. De ce point de vue, il apparaît que le développement de ce paradigme est redevable aussi bien de la philosophie que de la littérature de voyage et qu'une brève histoire de son élaboration révèle qu'une sémantique viatique accompagne la conception philosophique de cette ligne libre auprès des philosophes qui s'en approprient le modèle (Nietzsche, Bergson, Husserl, Heidegger, Merleau-Ponty, Deleuze).
Resumo:
Abstract Working memory has been defined as the ability to maintain and manipulate on-line a limited amount of information. A large number of studies have investigated visuospatial working memory in schizophrenia. However, today, the available data concerning the functioning of these processes in schizophrenia are largely controversial. These inconclusive results are due to incomplete knowledge on processes involved in visuospatial working memory tasks. Recent studies suggest that visuospatial working memory processes may be divided into an active monitoring and a storing components. Furthermore, it has been shown that visuospatial working memory processes are strongly interconnected with early encoding processes (perceptual organization). In our view, the two working memory components, and the relationship that they entertain with early encoding processes, may be investigated using dynamic and static visuospatial stimuli in a working memory paradigm. In this thesis we aim at comparing dynamic and static visuospatial working memory processes in patients with schizophrenia and first-episode of psychosis patients. This analysis may clarify the functioning of visuospatial working memory and the dysfunction of these processes in schizophrenia. Our results are in accord with the hypothesis of two visuospatial working memory subcomponents. Dynamic, rather than static, stimuli are strongly involved in the visuospatial working memory encoding process. Indeed, the results are congruent with the idea that static stimuli may be strongly encoded by parallel perceptual organization processes. Patients with schizophrenia show important deficits in both working memory and perceptual organization encoding processes. In contrast, perceptual organization processes seem spared in firstepisodepsychosis patients. Considering our findings, we propose a model to explain the degradation of visuospatial processes involved in a working memory task during schizophrenia. Résumé: La mémoire de travail est définie comme la capacité à maintenir et manipuler « on-line » un nombre limité d'informations pour une courte période de temps (de l'ordre de quelques dizaines de secondes). Un grand nombre d'études a montré que les processus de mémoire de travail visuo spatiale peuvent être affectés dans la schizophrénie. Malgré cela, les données concernant les déficits de ces processus chez des patients qui souffrent de schizophrénie sont contradictoires. La difficulté de comprendre la nature des déficits de mémoire de travail visuospatiale dans la schizophrénie est en grande partie imputable aux connaissances encore lacunaires sur le fonctionnement de ces processus dans un état non pathologique. Dans cette thèse, on cherche à élucider le fonctionnement des processus de mémoire de travail visuospatiale. Pour cela, on a créé un nouveau paradigme qui sollicite ce type de mémoire. Dans ce paradigme, on présente des stimuli dynamiques et statiques. Après un court délai, le sujet doit reconnaître le stimulus qu'il a visualisé parmi six possibilités. Sur la base de récentes études neurophysiologiques, neuroanatomiques et psychologiques, nous avançons l'hypothèse que l'encodage de stimuli dynamiques et statiques repose sur deux processus distincts de mémoire de travail : un processus d'organisation qui manipule les informations sensorielles et un processus dé stockage qui est responsable du maintien de l'information au cours de la manipulation. Ces processus sont en relation directe avec les processus responsables d'une organisation de l'information à un niveau précoce du traitement visuel. Les études présentées dans cette thèse ont pour but de vérifier la pertinence de la distinction entre les processus de mémoire de travail visuospatiale, selon la modalité «dynamique » ou «statique ». L'investigation des processus dynamiques et statiques de mémoire de travail dans la schizophrénie présente deux avantages principaux. Premièrement, 1a pathologie pourrait permettre de mettre en évidence, par les dysfonctionnements qu'elle présente, la pertinence des hypothèses sur le fonctionnement des processus de mémoire de travail visuospatiale et de leur interaction avec les processus sensoriels. Deuxièmement, ces investigations rendent possible une analyse des dysfonctions des différents processus dans la schizophrénie. Dans cette thèse, on analyse aussi les processus de mémoire de travail «dynamiques » et «statiques » chez des sujets dans une phase initiale de la psychose. Les résultats de cette étude permettent de faire une comparaison avec ceux obtenus avec des patients qui souffrent de schizophrénie. Cette comparaison peut apporter des informations intéressantes sur l'évolution des dysfonctions dans les processus impliqués dans les fonctions de mémoire de travail visuospatiale au cours de la schizophrénie. Les résultats obtenus dans les différentes études sont cohérents avec l'hypothèse d'une implication différente des processus d'organisation de la mémoire de travail sur des stimuli dynamiques et statiques. -Nos résultats montrent que les processus de mémoire de travail responsables de l'organisation (manipulation active) des informations est déficitaire dans la schizophrénie. Ce déficit semble jouer un rôle de premier plan dans la dégradation des processus visuospatiaux au cours de la schizophrénie.
Resumo:
Rapport de synthese :Comparaison des effets vasculaires et tubulaires rénaux de plusieurs antagonistes des récepteurs de |'angiotensine II en combinaison avec un diurétique thiazidique chez l'humainObjectif : Le but de ce travail était d'investiguer si les antagonistes des récepteurs AT1 de l'angiotensine II (ARA2) entraînent un blocage équivalent des récepteurs au niveau vasculaire et au niveau rénal, en particulier lorsque le système rénine- angiotensine est stimulé par l'administration d'un diurétique thiazidique. Méthode : trente volontaires masculins en bonne santé ont participé à cette étude randomisée, contrôlée, en simple insu. Nous avons mesuré les variations de pression artérielle, d'hémodynamique rénale ainsi que la réponse tubulaire rénale à une perfusion d'angiotensine II 3ng/kg/min administrée sur 1 heure. Ceci avant traitement puis après sept jours d'administration, 24 heures après la dernière dose de médicament. Nous avons comparé l'irbésartan 300 mg seul ou en association avec 12.5 ou 25 mg d'hydrochlorothiazide. (irbésartan 300/12.5 ; irbésartan 300/25). Nous avons également comparé les effets de l'irbésartan 300/25 au losartan 100 mg, au valsartan 160 mg ainsi qu'à l'olmésartan 20 mg, tous administrés avec 25 mg d'hydrochlorothiazide. Chaque participant a été randomisé pour recevoir 2 traitements de 7 jours espacés d'une période d'une semaine sans traitement. Résultats: La réponse de la pression artérielle à |'angiotensine II exogène était bloquée >90% avec l'irbésartan 300 mg seul ou en association avec le diurétique. Il en était de même avec l'olmésartan 20/25. Par contre le blocage n'était que de 60% environ dans les groupes valsartan 160/25 et losartan 100/25. Au niveau rénal, |'angiotensine II exogène réduisait le flux plasmatique rénal de 36% en pré- traitement. Dans les groupes recevant l'irbésartan 300 mg et l'olmésartan 20 mg associés à l'hydrochlorothiazide 25 mg, la vasoconstriction rénale était bloquée presque entièrement alors qu'el|e ne |'était que partiellement avec le valsartan 160/25 et le losartan 100/25 (34 et 45%, respectivement). En pré-traitement, au niveau tubulaire, l'angiotensine II exogène réduisait le volume urinaire de 84% et l'excrétion urinaire de sodium de 65 %. Les effets tubulaires n'étaient que partiellement bloqués par l'administration d'ARA2. Conclusion: Ces résultats démontrent que les ARA; aux doses maximales recommandées ne bloquent pas aussi efficacement les récepteurs ATI au niveau tubulaire qu'au niveau vasculaire. Cette observation pourrait constituer une justification à l'hypothèse selon laquelle des doses plus importantes d'ARA2 seraient nécessaires afin d'obtenir une meilleure protection d'organe. De plus, nos résultats confirment qu'i| y a d'importantes différences entre les ARA2, relatives à leur capacité d'induire un blocage prolongé sur 24 heures des récepteurs AT1 au niveau vasculaire et tubulaire.
Resumo:
Objectif Un bolus unique d'étomidate inhibe une enzyme mitochondriale impliquée dans la synthèse du cortisol. Au sein de notre institution, tout patient candidat à une chirurgie cardiaque reçoit de l'étomidate à l'induction de l'anesthésie. L'objectif de cette étude a été de déterminer l'incidence des dysfonctions surrénaliennes chez les patients bénéficiant d'une chirurgie cardiaque et nécessitant de hautes doses de noradrénaline au cours de la période postopératoire. Type d'étude Étude rétrospective descriptive dans l'unité de réanimation d'un centre hospitalier universitaire. Patients et méthodes Soixante-trois patients admis en réanimation après chirurgie cardiaque nécessitant plus de 0,2μg/kg par minute de noradrénaline au cours des premières 48 heures postopératoires ont été étudiés. L'insuffisance surrénalienne absolue a été définie par un cortisol basal inférieur à 414nmo/l (15μg/dl), l'insuffisance surrénalienne relative par un cortisol basal entre 414nmo/l (15μg/dl) et 938nmo/l (34μg/dl) avec une augmentation de la cortisolémie (à 60 minutes après un test de stimulation par 250μg de corticotropine de synthèse) inférieure à 250nmo/l (9μg/dl). Résultats Quatorze patients (22 %) ont présenté une fonction surrénalienne normale, 10 (16 %) une insuffisance surrénalienne absolue et 39 (62 %) une insuffisance surrénalienne relative. Tous les patients ont reçu une substitution stéroïdienne, sans aucune différence d'évolution clinique entre les différents groupes. Conclusion L'incidence de l'insuffisance surrénalienne chez les patients qui ont reçu un bolus d'étomidate à l'induction, lors d'une chirurgie cardiaque avec circulation extracorporelle, et présenté une défaillance circulatoire postopératoire, est élevée.
Resumo:
Introduction Le cadre conceptuel de l'analyse économique considère que l'individu prend des décisions en mettant en balance les avantages et les inconvénients que ces décisions présentent pour lui. En s'appuyant sur ses préférences et en intégrant ses contraintes (matérielles, physiques, externes, etc.), il choisit d'effectuer ou non une action, d'adopter ou pas un comportement, de façon à ce que les conséquences de ses choix maximisent sa satisfaction. Le fait qu'un individu adopte un certain comportement révèle donc le caractère positif pour lui des conséquences de ce comportement. C'est le postulat méthodologique de rationalité du consommateur, fondement de toute analyse économique. L'adoption par un individu d'un comportement qui implique un risque pour son bien-être physique ou mental suit le même schéma d'analyse. Il résulte d'un arbitrage inter temporel entre la satisfaction que procure ce comportement et le coût du risque associé. Ce risque se définit par la combinaison de la probabilité d'occurrence de l'événement redouté avec la gravité de ses conséquences. En adoptant un comportement à risque, l'individu révèle donc que ce comportement a pour lui un impact net positif. Certains comportements à risque, comme la consommation de tabac et, plus largement, de psychotropes, engendrent une dépendance à même de brider le libre-arbitre du consommateur. Un individu peut être amené à consommer un produit alors même que sa raison lui dicte de ne pas le faire. Ces comportements ont longtemps été considérés par les économistes comme extérieurs au champ d'analyse de leur discipline, la dépendance paraissant antinomique avec le concept de rationalité du consommateur. Par son modèle de dépendance rationnelle, Gary Stanley Becker prend le contre-pied de cette approche en montrant qu'un comportement de dépendance pouvait parfaitement s'expliquer par la maximisation de la fonction de satisfaction d'un individu rationnel et informé. Il postule que les consommateurs de stupéfiants sont conscients des conséquences futures de leurs décisions présentes, tant du point de vue de leur santé que de celui de la dépendance. Dans ce modèle, la dépendance implique deux effets le renforcement et la tolérance. Le renforcement signifie que plus un bien a été consommé dans le passé, plus l'augmentation de sa consommation courante est valorisée. En d'autres termes, l'utilité marginale de la consommation courante augmente avec la consommation antérieure. La tolérance traduit le fait qu'un individu habitué à la consommation d'un bien tirera d'une consommation donnée une satisfaction inférieure par rapport à un individu qui a peu consommé par le passé. Dans l'exemple du tabagisme, l'effet de renforcement implique qu'un grand fumeur ressent une forte envie de fumer, mais que plus il a fumé dans le passé, plus le plaisir qu'il ressent en fumant une quantité donnée de cigarettes diminue. Le premier effet explique le phénomène de manque et le second explique pourquoi la satisfaction qu'un fumeur retire de sa consommation de cigarettes tend à diminuer avec le temps. Selon Becker, l'individu choisit de devenir dépendant : il sait que sa consommation présente de cigarettes contraint ses choix futurs et il détermine au départ sa consommation sur l'ensemble de sa vie. Cependant, ce modèle n'est pas compatible avec les regrets exprimés par de nombreux fumeurs et les tentatives infructueuses de sevrage souvent concomitantes. Un fumeur qui anticiperait parfaitement le phénomène de dépendance arrêterait de fumer à la date voulue, à sa première tentative. Partant de ce constat, Athanasios Orphanides a construit un modèle dans lequel les fumeurs peuvent se retrouver prisonniers de leur consommation par des anticipations imparfaites du pouvoir addictif du tabac. Leur théorie suppose que les individus ne sont pas tous sujets de la même manière à la dépendance, que chacun a une perception subjective de son risque de dépendance et que cette perception évolue constamment durant la période de consommation du bien addictif. Dans ce contexte, un individu qui maximise des préférences stables, mais qui sous-estime le potentiel addictif d'un produit peut devenir dépendant par accident et regretter ensuite cette dépendance. Le modèle de Becker ou celui d'Orphanides ont des conséquences très différentes sur l'action régulatrice que doit ou non jouer l'État sur le marché d'un bien addictif. Si, comme Becker, on considère que les consommateurs sont rationnels et parfaitement informés des conséquences de leurs actes, l'action du régulateur devrait se limiter à l'internalisation du coût externe que les fumeurs font peser sur la société. Si le fumeur est conscient du risque qu'il prend et que pour lui le plaisir qu'il retire de cette consommation dépasse le déplaisir engendré par ses conséquences, une intervention du régulateur reposerait sur une base paternaliste, l'État posant alors un jugement de valeur sur les préférences des individus. En revanche, si on considère, comme dans la modélisation d'Orphanides, que les fumeurs sous-estiment le phénomène de dépendance lorsqu'ils décident de se mettre à fumer, un marché non régulé conduit à une consommation supérieure à celle qui prévaudrait en information parfaite. Certains fumeurs peuvent ainsi se retrouver accrochés à leur consommation de tabac, sans que cela ait été leur but. Dans cette perspective, l'État est légitimé à intervenir par des politiques de lutte contre le tabagisme, afin de compenser les erreurs d'anticipation des individus. Cette thèse propose d'appliquer les outils de l'analyse économique à des problématiques de santé publique dans le domaine des comportements à risque et en particulier du tabagisme. Elle a pour finalité d'apporter de nouveaux éléments de connaissance permettant d'éclairer certains choix de régulation dans ce domaine. Le premier chapitre est une analyse coût-efficacité des thérapies médicamenteuses de soutien à la désaccoutumance tabagique. Comme nous l'avons vu plus haut, certains fumeurs se trouvent piégés dans leur consommation par le phénomène de dépendance et ont des difficultés à arrêter de fumer. Ces dernières années, plusieurs médicaments de soutien au fumeur en phase de sevrage ont fait leur apparition. Parmi eux, on compte des substituts nicotiniques sous forme de gomme, patch, spray ou inhalateur, mais aussi un antidépresseur ne contenant pas de nicotine. Ces traitements présentent des efficacités et des coûts différents. L'évaluation économique en santé permet de calculer un indicateur unique d'efficience qui synthétise l'efficacité d'un traitement et son coût. Cette méthode permet de comparer différents types de prises en charge médicales d'une même pathologie, mais aussi de comparer des interventions thérapeutiques dans des domaines différents. Nous développons un modèle de Markov pour estimer le gain en année de vie d'une stratégie de prévention du tabagisme. Ce modèle permet de simuler le devenir d'une cohorte de fumeurs en fonction du type de soutien à la désaccoutumance qui leur est proposé. Sur cette base, nous calculons le coût par année de vie gagnée de chaque type d'intervention. Les résultats permettent de classer les cinq types de prise en charge selon leur efficience, mais aussi de les comparer à d'autres interventions de prévention dans des domaines différents. Le deuxième chapitre traite des corrélations entre le niveau de formation des individus et leur consommation de tabac. Sur un plan épidémiologique, on constate que les personnes qui atteignent un niveau de formation plus élevé ont une propension à fumer plus faible que les autres. Peut-on en conclure qu'il existe une relation causale inverse entre formation et tabagisme ? Sous l'angle de la théorie économique, il existe deux principales hypothèses à même d'expliquer cette corrélation. La première hypothèse repose sur le modèle de capital santé développé par Michael Grossman au début des années 1970. Dans ce modèle, l'individu dispose d'un stock de santé qui se déprécie avec le temps. Ce stock peut être augmenté grâce à des dépenses en soins médicaux ou à des investissements en temps consacré à l'amélioration de sa santé. La formation a pour effet d'augmenter l'efficacité des investissements en santé. Dans le cas du tabac, Grossman considère que des individus mieux formés auront une meilleurs information sur les méfaits du tabac sur la santé, ce qui tendra à diminuer leur consommation de tabac. La seconde hypothèse ne considère pas un lien causal entre la formation et la santé, mais repose sur l'existence d'une tierce variable qui influencerait parallèlement, et dans un sens opposé, le niveau de formation et la propension à fumer. Cette tierce variable est le taux de préférence pour le présent. Pour un individu fortement tourné vers le présent, l'investissement en temps de formation a un coût relativement élevé dans la mesure où il doit sacrifier du revenu aujourd'hui pour obtenir un revenu plus élevé demain. Parallèlement, il pondère moins fortement la santé future et a donc une plus forte propension à fumer. Nous développons une méthode économétrique qui permet de séparer l'effet de causalité de l'effet de sélection. Le troisième chapitre traite du rôle des interactions sociales dans les comportements à risque des adolescents. La théorie économique considère que chaque individu définit seul ses choix de consommation en maximisant sa fonction d'utilité. Cela ne signifie pas pour autant qu'il soit insensible aux influences extérieures, notamment au comportement de son entourage. Dans certaines situations et pour certains produits, l'utilité que procure la consommation d'un bien est corrélée avec le nombre de personnes qui consomment ce même bien dans l'entourage. En d'autres termes, la consommation des autres, augmente la valeur que l'on attribue à un bien. Ce mécanisme est souvent appliqué à l'analyse des comportements à risque des adolescents et du rôle que peut y jouer le groupe des pairs. Si cet impact est bien connu du point de vue théorique, il est beaucoup plus difficile de le quantifier sur un plan empirique. Pour identifier cet effet, nous développons une méthodologie économétrique, originale dans ce contexte, qui permet de séparer l'effet individuel de l'effet d'influence des pairs dans l'adoption d'un comportement à risque. Nous appliquons cette méthode aux trois comportements à risque que sont la consommation de tabac, d'alcool et de cannabis chez les adolescents.
Resumo:
La présente étude est à la fois une évaluation du processus de la mise en oeuvre et des impacts de la police de proximité dans les cinq plus grandes zones urbaines de Suisse - Bâle, Berne, Genève, Lausanne et Zurich. La police de proximité (community policing) est à la fois une philosophie et une stratégie organisationnelle qui favorise un partenariat renouvelé entre la police et les communautés locales dans le but de résoudre les problèmes relatifs à la sécurité et à l'ordre public. L'évaluation de processus a analysé des données relatives aux réformes internes de la police qui ont été obtenues par l'intermédiaire d'entretiens semi-structurés avec des administrateurs clés des cinq départements de police, ainsi que dans des documents écrits de la police et d'autres sources publiques. L'évaluation des impacts, quant à elle, s'est basée sur des variables contextuelles telles que des statistiques policières et des données de recensement, ainsi que sur des indicateurs d'impacts construit à partir des données du Swiss Crime Survey (SCS) relatives au sentiment d'insécurité, à la perception du désordre public et à la satisfaction de la population à l'égard de la police. Le SCS est un sondage régulier qui a permis d'interroger des habitants des cinq grandes zones urbaines à plusieurs reprises depuis le milieu des années 1980. L'évaluation de processus a abouti à un « Calendrier des activités » visant à créer des données de panel permettant de mesurer les progrès réalisés dans la mise en oeuvre de la police de proximité à l'aide d'une grille d'évaluation à six dimensions à des intervalles de cinq ans entre 1990 et 2010. L'évaluation des impacts, effectuée ex post facto, a utilisé un concept de recherche non-expérimental (observational design) dans le but d'analyser les impacts de différents modèles de police de proximité dans des zones comparables à travers les cinq villes étudiées. Les quartiers urbains, délimités par zone de code postal, ont ainsi été regroupés par l'intermédiaire d'une typologie réalisée à l'aide d'algorithmes d'apprentissage automatique (machine learning). Des algorithmes supervisés et non supervisés ont été utilisés sur les données à haute dimensionnalité relatives à la criminalité, à la structure socio-économique et démographique et au cadre bâti dans le but de regrouper les quartiers urbains les plus similaires dans des clusters. D'abord, les cartes auto-organisatrices (self-organizing maps) ont été utilisées dans le but de réduire la variance intra-cluster des variables contextuelles et de maximiser simultanément la variance inter-cluster des réponses au sondage. Ensuite, l'algorithme des forêts d'arbres décisionnels (random forests) a permis à la fois d'évaluer la pertinence de la typologie de quartier élaborée et de sélectionner les variables contextuelles clés afin de construire un modèle parcimonieux faisant un minimum d'erreurs de classification. Enfin, pour l'analyse des impacts, la méthode des appariements des coefficients de propension (propensity score matching) a été utilisée pour équilibrer les échantillons prétest-posttest en termes d'âge, de sexe et de niveau d'éducation des répondants au sein de chaque type de quartier ainsi identifié dans chacune des villes, avant d'effectuer un test statistique de la différence observée dans les indicateurs d'impacts. De plus, tous les résultats statistiquement significatifs ont été soumis à une analyse de sensibilité (sensitivity analysis) afin d'évaluer leur robustesse face à un biais potentiel dû à des covariables non observées. L'étude relève qu'au cours des quinze dernières années, les cinq services de police ont entamé des réformes majeures de leur organisation ainsi que de leurs stratégies opérationnelles et qu'ils ont noué des partenariats stratégiques afin de mettre en oeuvre la police de proximité. La typologie de quartier développée a abouti à une réduction de la variance intra-cluster des variables contextuelles et permet d'expliquer une partie significative de la variance inter-cluster des indicateurs d'impacts avant la mise en oeuvre du traitement. Ceci semble suggérer que les méthodes de géocomputation aident à équilibrer les covariables observées et donc à réduire les menaces relatives à la validité interne d'un concept de recherche non-expérimental. Enfin, l'analyse des impacts a révélé que le sentiment d'insécurité a diminué de manière significative pendant la période 2000-2005 dans les quartiers se trouvant à l'intérieur et autour des centres-villes de Berne et de Zurich. Ces améliorations sont assez robustes face à des biais dus à des covariables inobservées et covarient dans le temps et l'espace avec la mise en oeuvre de la police de proximité. L'hypothèse alternative envisageant que les diminutions observées dans le sentiment d'insécurité soient, partiellement, un résultat des interventions policières de proximité semble donc être aussi plausible que l'hypothèse nulle considérant l'absence absolue d'effet. Ceci, même si le concept de recherche non-expérimental mis en oeuvre ne peut pas complètement exclure la sélection et la régression à la moyenne comme explications alternatives. The current research project is both a process and impact evaluation of community policing in Switzerland's five major urban areas - Basel, Bern, Geneva, Lausanne, and Zurich. Community policing is both a philosophy and an organizational strategy that promotes a renewed partnership between the police and the community to solve problems of crime and disorder. The process evaluation data on police internal reforms were obtained through semi-structured interviews with key administrators from the five police departments as well as from police internal documents and additional public sources. The impact evaluation uses official crime records and census statistics as contextual variables as well as Swiss Crime Survey (SCS) data on fear of crime, perceptions of disorder, and public attitudes towards the police as outcome measures. The SCS is a standing survey instrument that has polled residents of the five urban areas repeatedly since the mid-1980s. The process evaluation produced a "Calendar of Action" to create panel data to measure community policing implementation progress over six evaluative dimensions in intervals of five years between 1990 and 2010. The impact evaluation, carried out ex post facto, uses an observational design that analyzes the impact of the different community policing models between matched comparison areas across the five cities. Using ZIP code districts as proxies for urban neighborhoods, geospatial data mining algorithms serve to develop a neighborhood typology in order to match the comparison areas. To this end, both unsupervised and supervised algorithms are used to analyze high-dimensional data on crime, the socio-economic and demographic structure, and the built environment in order to classify urban neighborhoods into clusters of similar type. In a first step, self-organizing maps serve as tools to develop a clustering algorithm that reduces the within-cluster variance in the contextual variables and simultaneously maximizes the between-cluster variance in survey responses. The random forests algorithm then serves to assess the appropriateness of the resulting neighborhood typology and to select the key contextual variables in order to build a parsimonious model that makes a minimum of classification errors. Finally, for the impact analysis, propensity score matching methods are used to match the survey respondents of the pretest and posttest samples on age, gender, and their level of education for each neighborhood type identified within each city, before conducting a statistical test of the observed difference in the outcome measures. Moreover, all significant results were subjected to a sensitivity analysis to assess the robustness of these findings in the face of potential bias due to some unobserved covariates. The study finds that over the last fifteen years, all five police departments have undertaken major reforms of their internal organization and operating strategies and forged strategic partnerships in order to implement community policing. The resulting neighborhood typology reduced the within-cluster variance of the contextual variables and accounted for a significant share of the between-cluster variance in the outcome measures prior to treatment, suggesting that geocomputational methods help to balance the observed covariates and hence to reduce threats to the internal validity of an observational design. Finally, the impact analysis revealed that fear of crime dropped significantly over the 2000-2005 period in the neighborhoods in and around the urban centers of Bern and Zurich. These improvements are fairly robust in the face of bias due to some unobserved covariate and covary temporally and spatially with the implementation of community policing. The alternative hypothesis that the observed reductions in fear of crime were at least in part a result of community policing interventions thus appears at least as plausible as the null hypothesis of absolutely no effect, even if the observational design cannot completely rule out selection and regression to the mean as alternative explanations.
Resumo:
Summary Ecotones are sensitive to change because they contain high numbers of species living at the margin of their environmental tolerance. This is equally true of tree-lines, which are determined by attitudinal or latitudinal temperature gradients. In the current context of climate change, they are expected to undergo modifications in position, tree biomass and possibly species composition. Attitudinal and latitudinal tree-lines differ mainly in the steepness of the underlying temperature gradient: distances are larger at latitudinal tree-lines, which could have an impact on the ability of tree species to migrate in response to climate change. Aside from temperature, tree-lines are also affected on a more local level by pressure from human activities. These are also changing as a consequence of modifications in our societies and may interact with the effects of climate change. Forest dynamics models are often used for climate change simulations because of their mechanistic processes. The spatially-explicit model TreeMig was used as a base to develop a model specifically tuned for the northern European and Alpine tree-line ecotones. For the latter, a module for land-use change processes was also added. The temperature response parameters for the species in the model were first calibrated by means of tree-ring data from various species and sites at both tree-lines. This improved the growth response function in the model, but also lead to the conclusion that regeneration is probably more important than growth for controlling tree-line position and species' distributions. The second step was to implement the module for abandonment of agricultural land in the Alps, based on an existing spatial statistical model. The sensitivity of its most important variables was tested and the model's performance compared to other modelling approaches. The probability that agricultural land would be abandoned was strongly influenced by the distance from the nearest forest and the slope, bath of which are proxies for cultivation costs. When applied to a case study area, the resulting model, named TreeMig-LAb, gave the most realistic results. These were consistent with observed consequences of land-abandonment such as the expansion of the existing forest and closing up of gaps. This new model was then applied in two case study areas, one in the Swiss Alps and one in Finnish Lapland, under a variety of climate change scenarios. These were based on forecasts of temperature change over the next century by the IPCC and the HadCM3 climate model (ΔT: +1.3, +3.5 and +5.6 °C) and included a post-change stabilisation period of 300 years. The results showed radical disruptions at both tree-lines. With the most conservative climate change scenario, species' distributions simply shifted, but it took several centuries reach a new equilibrium. With the more extreme scenarios, some species disappeared from our study areas (e.g. Pinus cembra in the Alps) or dwindled to very low numbers, as they ran out of land into which they could migrate. The most striking result was the lag in the response of most species, independently from the climate change scenario or tree-line type considered. Finally, a statistical model of the effect of reindeer (Rangifer tarandus) browsing on the growth of Pinus sylvestris was developed, as a first step towards implementing human impacts at the boreal tree-line. The expected effect was an indirect one, as reindeer deplete the ground lichen cover, thought to protect the trees against adverse climate conditions. The model showed a small but significant effect of browsing, but as the link with the underlying climate variables was unclear and the model was not spatial, it was not usable as such. Developing the TreeMig-LAb model allowed to: a) establish a method for deriving species' parameters for the growth equation from tree-rings, b) highlight the importance of regeneration in determining tree-line position and species' distributions and c) improve the integration of social sciences into landscape modelling. Applying the model at the Alpine and northern European tree-lines under different climate change scenarios showed that with most forecasted levels of temperature increase, tree-lines would suffer major disruptions, with shifts in distributions and potential extinction of some tree-line species. However, these responses showed strong lags, so these effects would not become apparent before decades and could take centuries to stabilise. Résumé Les écotones son sensibles au changement en raison du nombre élevé d'espèces qui y vivent à la limite de leur tolérance environnementale. Ceci s'applique également aux limites des arbres définies par les gradients de température altitudinaux et latitudinaux. Dans le contexte actuel de changement climatique, on s'attend à ce qu'elles subissent des modifications de leur position, de la biomasse des arbres et éventuellement des essences qui les composent. Les limites altitudinales et latitudinales diffèrent essentiellement au niveau de la pente des gradients de température qui les sous-tendent les distance sont plus grandes pour les limites latitudinales, ce qui pourrait avoir un impact sur la capacité des espèces à migrer en réponse au changement climatique. En sus de la température, la limite des arbres est aussi influencée à un niveau plus local par les pressions dues aux activités humaines. Celles-ci sont aussi en mutation suite aux changements dans nos sociétés et peuvent interagir avec les effets du changement climatique. Les modèles de dynamique forestière sont souvent utilisés pour simuler les effets du changement climatique, car ils sont basés sur la modélisation de processus. Le modèle spatialement explicite TreeMig a été utilisé comme base pour développer un modèle spécialement adapté pour la limite des arbres en Europe du Nord et dans les Alpes. Pour cette dernière, un module servant à simuler des changements d'utilisation du sol a également été ajouté. Tout d'abord, les paramètres de la courbe de réponse à la température pour les espèces inclues dans le modèle ont été calibrées au moyen de données dendrochronologiques pour diverses espèces et divers sites des deux écotones. Ceci a permis d'améliorer la courbe de croissance du modèle, mais a également permis de conclure que la régénération est probablement plus déterminante que la croissance en ce qui concerne la position de la limite des arbres et la distribution des espèces. La seconde étape consistait à implémenter le module d'abandon du terrain agricole dans les Alpes, basé sur un modèle statistique spatial existant. La sensibilité des variables les plus importantes du modèle a été testée et la performance de ce dernier comparée à d'autres approches de modélisation. La probabilité qu'un terrain soit abandonné était fortement influencée par la distance à la forêt la plus proche et par la pente, qui sont tous deux des substituts pour les coûts liés à la mise en culture. Lors de l'application en situation réelle, le nouveau modèle, baptisé TreeMig-LAb, a donné les résultats les plus réalistes. Ceux-ci étaient comparables aux conséquences déjà observées de l'abandon de terrains agricoles, telles que l'expansion des forêts existantes et la fermeture des clairières. Ce nouveau modèle a ensuite été mis en application dans deux zones d'étude, l'une dans les Alpes suisses et l'autre en Laponie finlandaise, avec divers scénarios de changement climatique. Ces derniers étaient basés sur les prévisions de changement de température pour le siècle prochain établies par l'IPCC et le modèle climatique HadCM3 (ΔT: +1.3, +3.5 et +5.6 °C) et comprenaient une période de stabilisation post-changement climatique de 300 ans. Les résultats ont montré des perturbations majeures dans les deux types de limites de arbres. Avec le scénario de changement climatique le moins extrême, les distributions respectives des espèces ont subi un simple glissement, mais il a fallu plusieurs siècles pour qu'elles atteignent un nouvel équilibre. Avec les autres scénarios, certaines espèces ont disparu de la zone d'étude (p. ex. Pinus cembra dans les Alpes) ou ont vu leur population diminuer parce qu'il n'y avait plus assez de terrains disponibles dans lesquels elles puissent migrer. Le résultat le plus frappant a été le temps de latence dans la réponse de la plupart des espèces, indépendamment du scénario de changement climatique utilisé ou du type de limite des arbres. Finalement, un modèle statistique de l'effet de l'abroutissement par les rennes (Rangifer tarandus) sur la croissance de Pinus sylvestris a été développé, comme première étape en vue de l'implémentation des impacts humains sur la limite boréale des arbres. L'effet attendu était indirect, puisque les rennes réduisent la couverture de lichen sur le sol, dont on attend un effet protecteur contre les rigueurs climatiques. Le modèle a mis en évidence un effet modeste mais significatif, mais étant donné que le lien avec les variables climatiques sous jacentes était peu clair et que le modèle n'était pas appliqué dans l'espace, il n'était pas utilisable tel quel. Le développement du modèle TreeMig-LAb a permis : a) d'établir une méthode pour déduire les paramètres spécifiques de l'équation de croissance ä partir de données dendrochronologiques, b) de mettre en évidence l'importance de la régénération dans la position de la limite des arbres et la distribution des espèces et c) d'améliorer l'intégration des sciences sociales dans les modèles de paysage. L'application du modèle aux limites alpines et nord-européennes des arbres sous différents scénarios de changement climatique a montré qu'avec la plupart des niveaux d'augmentation de température prévus, la limite des arbres subirait des perturbations majeures, avec des glissements d'aires de répartition et l'extinction potentielle de certaines espèces. Cependant, ces réponses ont montré des temps de latence importants, si bien que ces effets ne seraient pas visibles avant des décennies et pourraient mettre plusieurs siècles à se stabiliser.
Resumo:
L'athérosclérose (ATS) est une maladie artérielle inflammatoire chronique à l'origine des nombreuses maladies cardiovasculaires que sont l'infarctus du myocarde, l'accident vasculaire cérébral ou encore l'artériopathie oblitérante des membres inférieurs. L'ATS se définit comme la formation de plaques fibro-lipidiques dans l'intima des artères. Les facteurs de risque majeurs associés à l'ATS sont l'hypertension, l'hypercholestérolémie, le tabagisme, le diabète, la sédentarité, ou encore des prédispositions génétiques. L'ATS peut être asymptomatique durant des années ou alors engendrer des complications aiguës pouvant parfois mettre le pronostic vital en jeu. Les complications les plus graves surviennent principalement lors de la rupture d'une plaque athéromateuse dite vulnérable ou instable. En effet, cette dernière peut se rompre et entraîner la formation d'un thrombus artériel occlusif avec, pour conséquence, l'ischémie/nécrose des tissus en aval. Prévenir le développement de la plaque vulnérable et/ou la « stabiliser » permettrait donc de prévenir les complications cliniques de l'ATS. Cet objectif requiert une connaissance éclairée des mécanismes cellulaires et moléculaires impliqués dans la physiopathologie de l'ATS et de la plaque vulnérable. Les travaux expérimentaux menés au sein du laboratoire du service d'angiologie du CHUV sous la direction du Prof. Lucia Mazzolai ont montré que l'angiotensine II (ang II), produit final de la cascade du système rénine-angiotensine, joue un rôle majeur dans la « vulnérabilité » des plaques athéromateuses (1). Ces travaux ont été réalisés à partir d'un modèle animal original développant des plaques d'ATS vulnérables dépendantes de l'ang II: la souris ApoE-/- 2 reins-1 clip (2K1C). Plus récemment, le laboratoire d'angiologie a mis en évidence une implication directe des leucocytes, plus précisément des macrophages et des lymphocytes T CD4+, dans l'athérogenèse ang II-dépendante (2,3). Dernièrement, des travaux ont également suggéré un rôle possible des granulocytes neutrophiles dans l'ATS (4,5,6,7). Toutefois, les études sont encore limitées de sorte que le rôle exact des neutrophiles dans l'ATS et plus spécialement dans l'ATS induite par l'ang II reste à démontrer. Une des recherches actuelles menée dans le laboratoire est donc d'étudier le rôle des neutrophiles dans le développement de la plaque athéromateuse vulnérable à partir du modèle animal, la souris ApoE-/- 2K1C. Pour évaluer le rôle direct des neutrophiles chez notre modèle animal, nous avons choisi comme méthode la déplétion des neutrophiles circulants par l'utilisation d'un anticorps spécifique. Il a été reporté dans la littérature que l'anticorps monoclonal NIMP-R14 3 permettait de dépléter sélectivement in vivo les neutrophiles dans différents modèles murins (8,9). Cependant, ces études ont utilisé cet anticorps anti-neutrophiles majoritairement sur des périodes expérimentales de durées relativement limitées (12-14 jours) et la question s'est donc posée de savoir si cet anticorps pouvait aussi dépléter les neutrophiles chez notre modèle animal, qui requiert une période expérimentale de 4 semaines pour développer des plaques vulnérables (1). Le but de ce travail a donc été de produire l'anticorps NIMP-R14 et d'évaluer son efficacité chez la souris ApoE-/- 2K1C qui développe des plaque d'ATS vulnérables dépendantes de l'ang II.
Resumo:
Le diable et l'artiste est une plongée dans l'atmosphère «démoniaque » qui régnait en Russie au passage du dix-neuvième au vingtième siècle. Au moment où la Russie, tout comme l'Europe, connaît un vif engouement pour l'ésotérisme, l'occultisme et la théosophie, les écrivains et les artistes s'emparent de la figure diabolique et l'adaptent à leur époque. Après le diable grandiose et solitaire de la période romantique, les symbolistes transforment et stylisent ce personnage, l'incarnant en de, multiples avatars, tantôt majestueux, tantôt petits et mesquins. Le sentiment apocalyptique qui imprègne le tournant du siècle, bientôt confirmé par les bouleversements socio-historiques, renforce encore le mysticisme des artistes et des écrivains, qui invoquent la présence du démon pour mieux comprendre le monde. Dans cet ouvrage, Fanny Mossière montre que la représentation symboliste du diable se caractérise par un «brouillage », un flou, une indétermination : toujours ambigu, insaisissable, «autre », le démon est difficile à percevoir. C'est le cas dans deux romans essentiels pour la période symboliste, L'ange de feu de Valerij Brjusov et Un démon de petite envergure de Fedor Sologub, qui mettent respectivement en scène le personnage mi-angélique mi-démoniaque de Madiel', et nedotykomka, démon informe et inquiétant. Le Maître et Marguerite de Mihail Bulgakov, plus tardif, s'inscrit dans la lignée du mouvement artistique et esthétique symboliste, tant au niveau stylistique que pour sa démonologie débridée. Enfin, une étude de l'oeuvre picturale de Mihail Vrubel', et plus particulièrement de son Démon, complète ce «portrait du diable » à l'orée du vingtième siècle.
Resumo:
Résumé L'antidépresseur chiral venlafaxine (VEN) est à la fois un inhibiteur de la récapture de la sérotonine et de la noradrénaline. Le CYP2D6 et le CYP3A4 contribuent à son métabolisme stéreosélectif. Dix patients génotypés au CYP2D6 et dépressifs (F32x et F33x, ICD-10) ont participé à cette étude ouverte sur les conséquences pharmacocinétiques et pharmacodynamiques d'une « augmentation » avec la carbamazepine chez des non-répondeurs à la venlafaxine. Après une première période de traitement de quatre semaines avec VEN (195 - 52 mg/ jour), le seul patient qui présentait un déficience génétique de CYP2D6 (poor metaboliser), avait les taux plasmatiques de S-VEN et R-VEN les plus élevés, tandis que ceux de R-0-déméthyl-VEN étaient les plus bas dans ce groupe. Comme seulement 4 patients ont été des répondeurs après 4 semaines de traitement, 6 patients ont été inclus dans la deuxième période de traitement combiné VEN et carbamazépine. Cinq patients non-répondeurs ont complété cette deuxième période d'étude de quatre semaines. Chez l'unique non-répondeur au traitement combiné, on pouvait observer à la fin de la période d'étude une diminution importante des deux énantiomères de VEN, 0-desmethy'lvenlafaxine (ODV), N-desmethylvenlafaxine (NDV) et N, 0-didesmethylvenlafaxine (NODV) dans le plasma. Cela suggère un manque de compliance chez ce patient, mais une induction métabolique par la carbamazepine ne peut pas être exclue entièrement. L'administration de la carbamazepine (moyen ± s.d. (range) ; 360 ± 89 (200-400) mg/jour)) pendant quatre semaines n'a pas eu comme résultat une modification significative des concentrations plasmatiques des énantiomères de VEN et de ses métabolites 0- et N-démethylés chez les autres patients. En conclusion, ces observations préliminaires suggèrent qu'une combinaison de VEN et de carbamazepine représente une stratégie intéressante par son efficacité, sa tolérance et l'absence de modifications pharmcocinétiques, mais ces résultats devraient être vérifiés dans une plus grande étude.
Resumo:
Commençant par la compréhension du processus de prise de décisions en politique économique, puis par l'étude de la participation des Acteurs Sociaux (AS), pour aboutir à l'éclaircissement de leur rôle en politique économique. Le choix des AS correspond aux facteurs productifs :¦? Travail : Syndicat, Confédérations¦? Capital : Patronat, Groupes économiques¦? Ressources naturelles - inclus l'Economie clandestine¦? Esprit d'entreprise dans tous les AS¦Méthode : analyse institutionnelle, AS comme protagonistes. Contexte latino-américain et mondial (chapitre I), relation avec les Politiques (chapitre II), identification des positionnements face aux Politiques économiques (chapitre III). Etude sur deux périodes :¦1) Front National (FN) (1958-1986). Pacte de partis traditionnels pour l'obtention (non accomplie) de la paix et du développement. Objectif acquis via des politiques adéquates mais sans amélioration du domaine social (politique de revenu absente).¦En conséquence, développement des Cartels surpassant l'Intégration Andine. Echec des tentatives d'Ouverture précoce grâce aux Centrales syndicales (1977) aux Organisations patronales (1981), confirmant le bipartisme; crise de la dette sans cessations de paiements, ni décennie perdue (Colombie) ; développement des AS profitant d'absence de partis d'opposition.¦2) L'Ouverture (1989-2000) : Nouvelle Constitution avec amplifications de l'Etat, réformes financière, des échanges, sans sélectivité ni gradualité demandées par les AS. Emergence du blanchiment.¦Montée en puissance des Groupes économiques au détriment des Organisations patronales, (excepté les industriels), perte du lobbying syndical. Malgré des résultats positifs macro-économiques, les taux de chômage, secteur informel, et pauvreté, situent¦le pays au 2eme rang en concentration du revenu en Amérique latine et au 5eme rang mondial.¦Conclusion : les AS se sont mis en avant dans l'inflation (30% à 8%) et la dévaluation. Par contre, les taux d'intérêt et de change ont provoqué le crédit clandestin et la réévaluation avec ouverture aux importations ; pas de succès non plus sur le déficit fiscal ni la gestion des booms (café, drogues). La plupart des Politiques ont donc été décidées d'après la Banque centrale et le Ministère des finances confirmant la primauté du gouvernement sur les AS durant la période analysée.
Resumo:
Dans le contexte d'un climat de plus en plus chaud, une étude « géosystémique » de la répartition du pergélisol dans l'ensemble d'un versant périglaciaire alpin, de la paroi rocheuse jusqu'au glacier rocheux, s'avère primordiale. S'insérant dans cette problématique, ce travail de thèse vise comme objectif général l'étude des versants d'éboulis situés à l'intérieur de la ceinture du pergélisol discontinu selon deux volets de recherche différents : une étude de la stratigraphie et de la répartition du pergélisol dans les éboulis de haute altitude et des processus qui lui sont associés ; une reconstitution de l'histoire paléoenvironnementale du domaine périglaciaire alpin pendant le Tardiglaciaire et l'Holocène. La stratigraphie et la répartition spatiale du pergélisol a été étudiée dans cinq éboulis des Alpes Valaisannes (Suisse), dont trois ont fait l'objet de forages profonds, grâce à la prospection géophysique de détail effectuée à l'aide de méthodes thermiques, de résistivité, sismiques et nucléaires. Les mesures effectuées ont permis de mettre en évidence que, dans les cinq éboulis étudiés, la répartition du pergélisol est discontinue et aucun des versants n'est intégralement occupé par du pergélisol. En particulier, il a été possible de prouver de manière directe que, dans un éboulis, le pergélisol est présent dans les parties inférieures du versant et absent dans les parties supérieures. Trois facteurs de contrôle principaux de la répartition du pergélisol déterminée au sein des éboulis étudiés ont été individualisés, pouvant agir seuls ou de manière combinée : la ventilation ascendante, l'augmentation de la granulométrie en direction de l'aval et la redistribution de la neige par le vent et les avalanches. Parmi ceux-ci, la relation ventilation - granulométrie semble être le facteur de contrôle principal permettant d'expliquer la présence de pergélisol dans les parties inférieures d'un éboulis et son absence dans les parties supérieures. Enfin, l'analyse de la structure des éboulis périglaciaires de haute altitude a permis de montrer que la stratigraphie du pergélisol peut être un élément important pour l'interprétation de la signification paléoclimatique de ce type de formes. Pour le deuxième volet de la recherche, grâce aux datations relatives effectuées à l'aide de l'utilisation conjointe de la méthode paléogéographique et du marteau de Schmidt, il a été possible de définir la chrono - stratigraphie du retrait glaciaire et du développement des glaciers rocheux et des versants d'éboulis d es quatre régions des Alpes suisses étudiées (régions du Mont Gelé - Mont Fort, des Fontanesses et de Chamosentse , dans les Alpes Valaisannes, et Massif de la Cima di Gana Bianca , dans les Alpes Tessinoises). La compilation de toutes les datations effectuées a permis de montrer que la plupart des glaciers rocheux actifs étudiés se seraient développés soit juste avant et/ou pendant l'Optimum Climatique Holocène de 9.5 - 6.3 ka cal BP, soit au plus tard juste après cet évènement climatique majeur du dernier interglaciaire. Parmi les glaciers rocheux fossiles datés, la plupart aurait commencé à se former dans la deuxième moitié du Tardiglaciaire et se serait inactivé dans la première partie de l'Optimum Climatique Holocène. Pour les éboulis étudiés, les datations effectuées ont permis d'observer que leur surface date de la période entre le Boréal et l'Atlantique récent, indiquant que les taux d'éboulisation après la fin de l'Optimum Climatique Holocène ont dû être faibles, et que l'intervalle entre l'âge maximal et l'âge minimal est dans la plupart des cas relativement court (4 - 6 millénaires), indiquant que les taux d'éboulisation durant la période de formation des éboulis ont dû être importants. Grâce au calcul des taux d'érosion des parois rocheuses sur la base du volume de matériaux rocheux pour quatre des éboulis étudiés, il a été possible mettre en évidence l'existence d'une « éboulisation parapériglaciaire » liée à la dégradation du pergélisol dans les parois rocheuses, fonctionnant principalement durant les périodes de réchauffement climatique rapide comme cela a été le cas au début du Bølling, du Préboréal à la fin de l'Atlantique récent et, peut-être, à partir des années 1980.
Resumo:
Résumé Introduction : Les patients nécessitant une prise en charge prolongée en milieu de soins intensifs et présentant une évolution compliquée, développent une réponse métabolique intense caractérisée généralement par un hypermétabolisme et un catabolisme protéique. La sévérité de leur atteinte pathologique expose ces patients à la malnutrition, due principalement à un apport nutritionnel insuffisant, et entraînant une balance énergétique déficitaire. Dans un nombre important d'unités de soins intensifs la nutrition des patients n'apparaît pas comme un objectif prioritaire de la prise en charge. En menant une étude prospective d'observation afin d'analyser la relation entre la balance énergétique et le pronostic clinique des patients avec séjours prolongés en soins intensifs, nous souhaitions changer cette attitude et démonter l'effet délétère de la malnutrition chez ce type de patient. Méthodes : Sur une période de 2 ans, tous les patients, dont le séjour en soins intensifs fut de 5 jours ou plus, ont été enrôlés. Les besoins en énergie pour chaque patient ont été déterminés soit par calorimétrie indirecte, soit au moyen d'une formule prenant en compte le poids du patient (30 kcal/kg/jour). Les patients ayant bénéficié d'une calorimétrie indirecte ont par ailleurs vérifié la justesse de la formule appliquée. L'âge, le sexe le poids préopératoire, la taille, et le « Body mass index » index de masse corporelle reconnu en milieu clinique ont été relevés. L'énergie délivrée l'était soit sous forme nutritionnelle (administration de nutrition entérale, parentérale ou mixte) soit sous forme non-nutritionnelle (perfusions : soluté glucosé, apport lipidique non nutritionnel). Les données de nutrition (cible théorique, cible prescrite, énergie nutritionnelle, énergie non-nutritionnelle, énergie totale, balance énergétique nutritionnelle, balance énergétique totale), et d'évolution clinique (nombre des jours de ventilation mécanique, nombre d'infections, utilisation des antibiotiques, durée du séjour, complications neurologiques, respiratoires gastro-intestinales, cardiovasculaires, rénales et hépatiques, scores de gravité pour patients en soins intensifs, valeurs hématologiques, sériques, microbiologiques) ont été analysées pour chacun des 669 jours de soins intensifs vécus par un total de 48 patients. Résultats : 48 patients de 57±16 ans dont le séjour a varié entre 5 et 49 jours (motif d'admission : polytraumatisés 10; chirurgie cardiaque 13; insuffisance respiratoire 7; pathologie gastro-intestinale 3; sepsis 3; transplantation 4; autre 8) ont été retenus. Si nous n'avons pu démontrer une relation entre la balance énergétique et plus particulièrement, le déficit énergétique, et la mortalité, il existe une relation hautement significative entre le déficit énergétique et la morbidité, à savoir les complications et les infections, qui prolongent naturellement la durée du séjour. De plus, bien que l'étude ne comporte aucune intervention et que nous ne puissions avancer qu'il existe une relation de cause à effet, l'analyse par régression multiple montre que le facteur pronostic le plus fiable est justement la balance énergétique, au détriment des scores habituellement utilisés en soins intensifs. L'évolution est indépendante tant de l'âge et du sexe, que du status nutritionnel préopératoire. L'étude ne prévoyait pas de récolter des données économiques : nous ne pouvons pas, dès lors, affirmer que l'augmentation des coûts engendrée par un séjour prolongé en unité de soins intensifs est induite par un déficit énergétique, même si le bon sens nous laisse penser qu'un séjour plus court engendre un coût moindre. Cette étude attire aussi l'attention sur l'origine du déficit énergétique : il se creuse au cours de la première semaine en soins intensifs, et pourrait donc être prévenu par une intervention nutritionnelle précoce, alors que les recommandations actuelles préconisent un apport énergétique, sous forme de nutrition artificielle, qu'à partir de 48 heures de séjour aux soins intensifs. Conclusions : L'étude montre que pour les patients de soins intensifs les plus graves, la balance énergétique devrait être considérée comme un objectif important de la prise en charge, nécessitant l'application d'un protocole de nutrition précoce. Enfin comme l'évolution à l'admission des patients est souvent imprévisible, et que le déficit s'installe dès la première semaine, il est légitime de s'interroger sur la nécessité d'appliquer ce protocole à tous les patients de soins intensifs et ceci dès leur admission. Summary Background and aims: Critically ill patients with complicated evolution are frequently hypermetabolic, catabolic, and at risk of underfeeding. The study aimed at assessing the relationship between energy balance and outcome in critically ill patients. Methods: Prospective observational study conducted in consecutive patients staying 5 days in the surgical ICU of a University hospital. Demographic data, time to feeding, route, energy delivery, and outcome were recorded. Energy balance was calculated as energy delivery minus target. Data in means+ SD, linear regressions between energy balance and outcome variables. Results: Forty eight patients aged 57±16 years were investigated; complete data are available in 669 days. Mechanical ventilation lasted 11±8 days, ICU stay 15+9 was days, and 30-days mortality was 38%. Time to feeding was 3.1 ±2.2 days. Enteral nutrition was the most frequent route with 433 days. Mean daily energy delivery was 1090±930 kcal. Combining enteral and parenteral nutrition achieved highest energy delivery. Cumulated energy balance was between -12,600+ 10,520 kcal, and correlated with complications (P<0.001), already after 1 week. Conclusion: Negative energy balances were correlated with increasing number of complications, particularly infections. Energy debt appears as a promising tool for nutritional follow-up, which should be further tested. Delaying initiation of nutritional support exposes the patients to energy deficits that cannot be compensated later on.
Resumo:
Ces dernières années, de nombreuses recherches ont mis en évidence les effets toxiques des micropolluants organiques pour les espèces de nos lacs et rivières. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, alors que les organismes sont exposés tous les jours à des milliers de substances en mélange. Or les effets de ces cocktails ne sont pas négligeables. Cette thèse de doctorat s'est ainsi intéressée aux modèles permettant de prédire le risque environnemental de ces cocktails pour le milieu aquatique. Le principal objectif a été d'évaluer le risque écologique des mélanges de substances chimiques mesurées dans le Léman, mais aussi d'apporter un regard critique sur les méthodologies utilisées afin de proposer certaines adaptations pour une meilleure estimation du risque. Dans la première partie de ce travail, le risque des mélanges de pesticides et médicaments pour le Rhône et pour le Léman a été établi en utilisant des approches envisagées notamment dans la législation européenne. Il s'agit d'approches de « screening », c'est-à-dire permettant une évaluation générale du risque des mélanges. Une telle approche permet de mettre en évidence les substances les plus problématiques, c'est-à-dire contribuant le plus à la toxicité du mélange. Dans notre cas, il s'agit essentiellement de 4 pesticides. L'étude met également en évidence que toutes les substances, même en trace infime, contribuent à l'effet du mélange. Cette constatation a des implications en terme de gestion de l'environnement. En effet, ceci implique qu'il faut réduire toutes les sources de polluants, et pas seulement les plus problématiques. Mais l'approche proposée présente également un biais important au niveau conceptuel, ce qui rend son utilisation discutable, en dehors d'un screening, et nécessiterait une adaptation au niveau des facteurs de sécurité employés. Dans une deuxième partie, l'étude s'est portée sur l'utilisation des modèles de mélanges dans le calcul de risque environnemental. En effet, les modèles de mélanges ont été développés et validés espèce par espèce, et non pour une évaluation sur l'écosystème en entier. Leur utilisation devrait donc passer par un calcul par espèce, ce qui est rarement fait dû au manque de données écotoxicologiques à disposition. Le but a été donc de comparer, avec des valeurs générées aléatoirement, le calcul de risque effectué selon une méthode rigoureuse, espèce par espèce, avec celui effectué classiquement où les modèles sont appliqués sur l'ensemble de la communauté sans tenir compte des variations inter-espèces. Les résultats sont dans la majorité des cas similaires, ce qui valide l'approche utilisée traditionnellement. En revanche, ce travail a permis de déterminer certains cas où l'application classique peut conduire à une sous- ou sur-estimation du risque. Enfin, une dernière partie de cette thèse s'est intéressée à l'influence que les cocktails de micropolluants ont pu avoir sur les communautés in situ. Pour ce faire, une approche en deux temps a été adoptée. Tout d'abord la toxicité de quatorze herbicides détectés dans le Léman a été déterminée. Sur la période étudiée, de 2004 à 2009, cette toxicité due aux herbicides a diminué, passant de 4% d'espèces affectées à moins de 1%. Ensuite, la question était de savoir si cette diminution de toxicité avait un impact sur le développement de certaines espèces au sein de la communauté des algues. Pour ce faire, l'utilisation statistique a permis d'isoler d'autres facteurs pouvant avoir une influence sur la flore, comme la température de l'eau ou la présence de phosphates, et ainsi de constater quelles espèces se sont révélées avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps. Fait intéressant, une partie d'entre-elles avait déjà montré des comportements similaires dans des études en mésocosmes. En conclusion, ce travail montre qu'il existe des modèles robustes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques, et qu'ils peuvent être utilisés pour expliquer le rôle des substances dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application. - Depuis plusieurs années, les risques que posent les micropolluants organiques pour le milieu aquatique préoccupent grandement les scientifiques ainsi que notre société. En effet, de nombreuses recherches ont mis en évidence les effets toxiques que peuvent avoir ces substances chimiques sur les espèces de nos lacs et rivières, quand elles se retrouvent exposées à des concentrations aiguës ou chroniques. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, c'est à dire considérées séparément. Actuellement, il en est de même dans les procédures de régulation européennes, concernant la partie évaluation du risque pour l'environnement d'une substance. Or, les organismes sont exposés tous les jours à des milliers de substances en mélange, et les effets de ces "cocktails" ne sont pas négligeables. L'évaluation du risque écologique que pose ces mélanges de substances doit donc être abordé par de la manière la plus appropriée et la plus fiable possible. Dans la première partie de cette thèse, nous nous sommes intéressés aux méthodes actuellement envisagées à être intégrées dans les législations européennes pour l'évaluation du risque des mélanges pour le milieu aquatique. Ces méthodes sont basées sur le modèle d'addition des concentrations, avec l'utilisation des valeurs de concentrations des substances estimées sans effet dans le milieu (PNEC), ou à partir des valeurs des concentrations d'effet (CE50) sur certaines espèces d'un niveau trophique avec la prise en compte de facteurs de sécurité. Nous avons appliqué ces méthodes à deux cas spécifiques, le lac Léman et le Rhône situés en Suisse, et discuté les résultats de ces applications. Ces premières étapes d'évaluation ont montré que le risque des mélanges pour ces cas d'étude atteint rapidement une valeur au dessus d'un seuil critique. Cette valeur atteinte est généralement due à deux ou trois substances principales. Les procédures proposées permettent donc d'identifier les substances les plus problématiques pour lesquelles des mesures de gestion, telles que la réduction de leur entrée dans le milieu aquatique, devraient être envisagées. Cependant, nous avons également constaté que le niveau de risque associé à ces mélanges de substances n'est pas négligeable, même sans tenir compte de ces substances principales. En effet, l'accumulation des substances, même en traces infimes, atteint un seuil critique, ce qui devient plus difficile en terme de gestion du risque. En outre, nous avons souligné un manque de fiabilité dans ces procédures, qui peuvent conduire à des résultats contradictoires en terme de risque. Ceci est lié à l'incompatibilité des facteurs de sécurité utilisés dans les différentes méthodes. Dans la deuxième partie de la thèse, nous avons étudié la fiabilité de méthodes plus avancées dans la prédiction de l'effet des mélanges pour les communautés évoluant dans le système aquatique. Ces méthodes reposent sur le modèle d'addition des concentrations (CA) ou d'addition des réponses (RA) appliqués sur les courbes de distribution de la sensibilité des espèces (SSD) aux substances. En effet, les modèles de mélanges ont été développés et validés pour être appliqués espèce par espèce, et non pas sur plusieurs espèces agrégées simultanément dans les courbes SSD. Nous avons ainsi proposé une procédure plus rigoureuse, pour l'évaluation du risque d'un mélange, qui serait d'appliquer d'abord les modèles CA ou RA à chaque espèce séparément, et, dans une deuxième étape, combiner les résultats afin d'établir une courbe SSD du mélange. Malheureusement, cette méthode n'est pas applicable dans la plupart des cas, car elle nécessite trop de données généralement indisponibles. Par conséquent, nous avons comparé, avec des valeurs générées aléatoirement, le calcul de risque effectué selon cette méthode plus rigoureuse, avec celle effectuée traditionnellement, afin de caractériser la robustesse de cette approche qui consiste à appliquer les modèles de mélange sur les courbes SSD. Nos résultats ont montré que l'utilisation de CA directement sur les SSDs peut conduire à une sous-estimation de la concentration du mélange affectant 5 % ou 50% des espèces, en particulier lorsque les substances présentent un grand écart- type dans leur distribution de la sensibilité des espèces. L'application du modèle RA peut quant à lui conduire à une sur- ou sous-estimations, principalement en fonction de la pente des courbes dose- réponse de chaque espèce composant les SSDs. La sous-estimation avec RA devient potentiellement importante lorsque le rapport entre la EC50 et la EC10 de la courbe dose-réponse des espèces est plus petit que 100. Toutefois, la plupart des substances, selon des cas réels, présentent des données d' écotoxicité qui font que le risque du mélange calculé par la méthode des modèles appliqués directement sur les SSDs reste cohérent et surestimerait plutôt légèrement le risque. Ces résultats valident ainsi l'approche utilisée traditionnellement. Néanmoins, il faut garder à l'esprit cette source d'erreur lorsqu'on procède à une évaluation du risque d'un mélange avec cette méthode traditionnelle, en particulier quand les SSD présentent une distribution des données en dehors des limites déterminées dans cette étude. Enfin, dans la dernière partie de cette thèse, nous avons confronté des prédictions de l'effet de mélange avec des changements biologiques observés dans l'environnement. Dans cette étude, nous avons utilisé des données venant d'un suivi à long terme d'un grand lac européen, le lac Léman, ce qui offrait la possibilité d'évaluer dans quelle mesure la prédiction de la toxicité des mélanges d'herbicide expliquait les changements dans la composition de la communauté phytoplanctonique. Ceci à côté d'autres paramètres classiques de limnologie tels que les nutriments. Pour atteindre cet objectif, nous avons déterminé la toxicité des mélanges sur plusieurs années de 14 herbicides régulièrement détectés dans le lac, en utilisant les modèles CA et RA avec les courbes de distribution de la sensibilité des espèces. Un gradient temporel de toxicité décroissant a pu être constaté de 2004 à 2009. Une analyse de redondance et de redondance partielle, a montré que ce gradient explique une partie significative de la variation de la composition de la communauté phytoplanctonique, même après avoir enlevé l'effet de toutes les autres co-variables. De plus, certaines espèces révélées pour avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps, ont montré des comportements similaires dans des études en mésocosmes. On peut en conclure que la toxicité du mélange herbicide est l'un des paramètres clés pour expliquer les changements de phytoplancton dans le lac Léman. En conclusion, il existe diverses méthodes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques et celui-ci peut jouer un rôle dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application, avant d'utiliser leurs résultats pour la gestion des risques environnementaux. - For several years now, the scientists as well as the society is concerned by the aquatic risk organic micropollutants may pose. Indeed, several researches have shown the toxic effects these substances may induce on organisms living in our lakes or rivers, especially when they are exposed to acute or chronic concentrations. However, most of the studies focused on the toxicity of single compounds, i.e. considered individually. The same also goes in the current European regulations concerning the risk assessment procedures for the environment of these substances. But aquatic organisms are typically exposed every day simultaneously to thousands of organic compounds. The toxic effects resulting of these "cocktails" cannot be neglected. The ecological risk assessment of mixtures of such compounds has therefore to be addressed by scientists in the most reliable and appropriate way. In the first part of this thesis, the procedures currently envisioned for the aquatic mixture risk assessment in European legislations are described. These methodologies are based on the mixture model of concentration addition and the use of the predicted no effect concentrations (PNEC) or effect concentrations (EC50) with assessment factors. These principal approaches were applied to two specific case studies, Lake Geneva and the River Rhône in Switzerland, including a discussion of the outcomes of such applications. These first level assessments showed that the mixture risks for these studied cases exceeded rapidly the critical value. This exceeding is generally due to two or three main substances. The proposed procedures allow therefore the identification of the most problematic substances for which management measures, such as a reduction of the entrance to the aquatic environment, should be envisioned. However, it was also showed that the risk levels associated with mixtures of compounds are not negligible, even without considering these main substances. Indeed, it is the sum of the substances that is problematic, which is more challenging in term of risk management. Moreover, a lack of reliability in the procedures was highlighted, which can lead to contradictory results in terms of risk. This result is linked to the inconsistency in the assessment factors applied in the different methods. In the second part of the thesis, the reliability of the more advanced procedures to predict the mixture effect to communities in the aquatic system were investigated. These established methodologies combine the model of concentration addition (CA) or response addition (RA) with species sensitivity distribution curves (SSD). Indeed, the mixture effect predictions were shown to be consistent only when the mixture models are applied on a single species, and not on several species simultaneously aggregated to SSDs. Hence, A more stringent procedure for mixture risk assessment is proposed, that would be to apply first the CA or RA models to each species separately and, in a second step, to combine the results to build an SSD for a mixture. Unfortunately, this methodology is not applicable in most cases, because it requires large data sets usually not available. Therefore, the differences between the two methodologies were studied with datasets created artificially to characterize the robustness of the traditional approach applying models on species sensitivity distribution. The results showed that the use of CA on SSD directly might lead to underestimations of the mixture concentration affecting 5% or 50% of species, especially when substances present a large standard deviation of the distribution from the sensitivity of the species. The application of RA can lead to over- or underestimates, depending mainly on the slope of the dose-response curves of the individual species. The potential underestimation with RA becomes important when the ratio between the EC50 and the EC10 for the dose-response curve of the species composing the SSD are smaller than 100. However, considering common real cases of ecotoxicity data for substances, the mixture risk calculated by the methodology applying mixture models directly on SSDs remains consistent and would rather slightly overestimate the risk. These results can be used as a theoretical validation of the currently applied methodology. Nevertheless, when assessing the risk of mixtures, one has to keep in mind this source of error with this classical methodology, especially when SSDs present a distribution of the data outside the range determined in this study Finally, in the last part of this thesis, we confronted the mixture effect predictions with biological changes observed in the environment. In this study, long-term monitoring of a European great lake, Lake Geneva, provides the opportunity to assess to what extent the predicted toxicity of herbicide mixtures explains the changes in the composition of the phytoplankton community next to other classical limnology parameters such as nutrients. To reach this goal, the gradient of the mixture toxicity of 14 herbicides regularly detected in the lake was calculated, using concentration addition and response addition models. A decreasing temporal gradient of toxicity was observed from 2004 to 2009. Redundancy analysis and partial redundancy analysis showed that this gradient explains a significant portion of the variation in phytoplankton community composition, even when having removed the effect of all other co-variables. Moreover, some species that were revealed to be influenced positively or negatively, by the decrease of toxicity in the lake over time, showed similar behaviors in mesocosms studies. It could be concluded that the herbicide mixture toxicity is one of the key parameters to explain phytoplankton changes in Lake Geneva. To conclude, different methods exist to predict the risk of mixture in the ecosystems. But their reliability varies depending on the underlying hypotheses. One should therefore carefully consider these hypotheses, as well as the limits of the approaches, before using the results for environmental risk management