999 resultados para mesure
Resumo:
Bien que les activités où la compétence est un enjeu (p. ex. : problème académique) prennent souvent place dans des contextes interpersonnels (p. ex. : classe), hiérarchiques (p. ex. : enseignant-e/élèves), et spécifiques en termes de normes et de valeurs (p. ex. : culture), l'étude des buts de performance-le désir de se montrer compétent-e relativement à autrui-a le plus souvent été conduite au seul niveau intrapersonnel. S'appuyant sur le modèle transactionnel du stress et du coping, le modèle circumplexe des comportements interpersonnels, ainsi que sur la théorie de l'élaboration du conflit, la première partie de cette thèse révèle les conséquences interpersonnelles des buts de performance sur la régulation d'un comportement spécifique, à savoir le conflit sociocognitif (c.-à-d., une situation de confrontation avec un intéractant en désaccord) : les buts de performance-approche-le désir d'être meilleur-e qu'autrui-prédisent une régulation du conflit fortement agentique (dominante), soit la validation de son point de vue au détriment de celui de l'intéractant (que nous désignons régulation compétitive) ; alors que les buts de performance-évitement-le désir de ne pas être moins bon-ne qu'autrui-prédisent une régulation du conflit faiblement agentique (soumise), soit l'invalidation de son point de vue au bénéfice de celui de l'intéractant (que nous désignons régulation protective). De plus, les effets susmentionnés augmentent à mesure que l'intéractant est présenté comme supérieurement (vs. similairement) compétent. S'appuyant sur la littérature sur les structures de buts de groupe, et celle sur la socialisation des valeurs, la seconde partie de cette thèse révèle les antécédents interpersonnels des buts de performance, et plus spécifiquement le rôle du superviseur dans la socialisation des buts de performance : les buts de performance-approche d'un superviseur sont positivement associés avec l'émergence au cours du temps des buts de performance-approche de ses subordonnés (particulièrement lorsqu'ils se perçoivent comme compétents) et celle de leurs buts de performance-évitement (particulièrement lorsqu'ils se perçoivent comme incompétents). En outre, ce phénomène consistant en un processus de socialisation, les effets susmentionnés augmentent lorsque l'identification à l'endogroupe des subordonnées augmente, et lorsque l'adhésion aux valeurs culturelles occidentales dominantes (c.-à-d., rehaussement de soi) du superviseur augmente. Dans leur ensemble, ces résultats soulignent la nécessité d'étudier les buts dans leur plenum social, autrement dit, en adoptant une perspective interpersonnelle (c.-à-d., étudier les effets des buts entre les individus), positionnelle (c.-à-d., entre des individus de différentes positions sociales), et idéologique (c.- à-d., entre des individus se conformant à des normes spécifiques et adhérant à des valeurs spécifiques). -- Although competence-relevant activities (e.g., solving an academic problem) are often embedded in interpersonal (e.g., classroom), hierarchical (e.g., teacher/pupils), and norm-/value-specific (e.g., culture) settings, the study of performance goals-the desire to demonstrate competence relative to others-has mostly been conducted at the intrapersonal level alone. Drawing on the transactional model of stress and coping, the circumplex model of interpersonal behaviors, as well as on the conflict elaboration theory, the first part of this thesis reveals the interpersonal consequences of performance goals on the regulation of a specific behavior, namely socio-cognitive conflict (i.e., a situation of confrontation with a disagreeing interactant): Performance-approach goals-the desire to outperform others- predicted a highly agentic (dominant) conflict regulation, that is, the validation of one's point of view at the expense of that of the interactant (which we labeled competitive regulation); whereas performance-avoidance goals-the desire not to be outperformed by others- predicted a poorly agentic (submissive) conflict regulation, that is, the invalidation of one's point of view to the benefit of that of the interactant (which we labeled protective regulation). Furthermore, both the aforementioned effects were found to increase when the interactant was presented as being superiorly (vs. equally) in competence. Drawing on the literature on group goal structure, as well as on research on socialization of supervisors-based values, the second part of this thesis reveals the interpersonal antecedents of performance-based goals endorsement, focusing-more specifically-on the role of group-supervisors in performance goals socialization: Supervisor's performance-approach goals were positively associated with the emergence over time of subordinates' performance-approach (especially when perceiving themselves as competent) and -avoidance goals (especially when perceiving themselves as incompetent). Furthermore, providing evidence that this phenomenon essentially reflects a socialization process, both the aforementioned effects were found to increase as subordinates' in-group identification increased, and as supervisors' adherence to dominant Western values (i.e., self-enhancement values) increased. Taken together, these results advocate the need to study performance goals in their social plenum, that is, adopting an interpersonal (i.e., studying the effects of goals between individuals), positional (i.e., between individuals from different social positions), and ideological (i.e., between individuals following specific norms and endorsing specific values) perspective.
Resumo:
Introduction générale : Depuis peu, la colère gronde au sein des actionnaires. Certains d'entre eux s'estiment écartés à tort de certaines décisions importantes et se plaignent de ne pouvoir exercer aucune influence sur la façon dont est gérée la société, dont ils sont pourtant propriétaires. Ce sentiment d'impuissance et même d'injustice est exacerbé par l'octroi, à certains dirigeants parfois peu scrupuleux, de rémunérations astronomiques et en décalage avec les résultats obtenus. Bien que l'assemblée générale soit, aux termes de l'art. 698 al. 1 CO, le pouvoir suprême de la société, les administrateurs et les directeurs donnent l'impression d'être omnipotents et exempts de toute responsabilité Certains actionnaires estiment en d'autres termes que les sociétés anonymes souffrent d'un manque de contrôle. Ce sentiment correspond-il à la réalité ? Notre étude tente de répondre à cette question en examinant l'éventuel rapport hiérarchique entre l'assemblée générale et le conseil d'administration, les devoirs de ce dernier, les conditions auxquelles il peut déléguer la gestion, enfin, la responsabilité de ses membres. Face à l'ampleur du sujet, nous avons été contraint d'effectuer des choix, forcément arbitraires. Nous avons décidé d'écarter la problématique des groupes de sociétés. De même, les législations sur les bourses, les banques et les fusions ne seront que mentionnées. Signalons enfin que certaines problématiques abordées par notre étude occupent actuellement le législateur. Nous avons dès lors tenu compte des travaux préparatoires effectués jusqu'à la fin de l'année 2008. Nous commencerons par étudier dans une première partie les relations et l'éventuel rapport hiérarchique entre l'assemblée générale, pouvoir suprême de la société, et le conseil d'administration, chargé d'exercer la haute direction et de gérer les affaires de la société. La détermination de leurs positions hiérarchiques respectives devrait nous permettre de savoir si et comment l'assemblée générale peut s'immiscer dans les compétences du conseil d'administration. Nous nous intéresserons ensuite à la gestion de la société, le législateur postulant qu'elle doit être conjointement exercée par tous les membres du conseil d'administration dans la mesure où elle n'a pas été déléguée. Or, comme un exercice conjoint par tous les administrateurs ne convient qu'aux plus petites sociétés anonymes, la gestion est très fréquemment déléguée en pratique. Nous examinerons ainsi les conditions formelles et les limites matérielles de la délégation de la gestion. Nous étudierons en particulier les portées et contenus respectifs de l'autorisation statutaire et du règlement d'organisation, puis passerons en revue la liste de compétences intransmissibles et inaliénables du conseil d'administration dressée par l'art. 716a al. 1 CO. Nous nous attarderons ensuite sur les différents destinataires de la délégation en insistant sur la flexibilité du système suisse, avant de considérer la problématique du cumul des fonctions à la tête de la société, et de nous demander si la gestion peut être déléguée à l'assemblée générale. Nous conclurons la première partie en étudiant la manière dont l'assemblée générale peut participer à la gestion de la société, et exposerons à cet égard les récentes propositions du Conseil fédéral. Dans une deuxième partie, nous constaterons que face à l'ampleur et à la complexité des tâches qui lui incombent, il est aujourd'hui largement recommandé au conseil d'administration d'une grande société de mettre en place certains comités afin de rationnaliser sa façon de travailler et d'optimiser ainsi ses performances. Contrairement aux développements menés dans la première partie, qui concernent toutes les sociétés anonymes indépendamment de leur taille, ceux consacrés aux comités du conseil d'administration s'adressent principalement aux sociétés ouvertes au public et aux grandes sociétés non cotées. Les petites et moyennes entreprises seraient toutefois avisées de s'en inspirer. Nous traiterons de la composition, du rôle et des tâches de chacun des trois comités usuels que sont le comité de contrôle, le comité de rémunération et le comité de nomination. Nous exposerons à cet égard les recommandations du Code suisse de bonne pratique pour le gouvernement d'entreprise ainsi que certaines règles en vigueur en Grande-Bretagne et aux Etats-Unis, états précurseurs en matière de gouvernement d'entreprise. L'étude des tâches des comités nous permettra également de déterminer l'étendue de leur propre pouvoir décisionnel. Nous aborderons enfin la problématique particulièrement sensible de la répartition des compétences en matière de rémunération des organes dirigeants. Notre troisième et dernière partie sera consacrée à la responsabilité des administrateurs. Nous exposerons dans un premier temps le système de la responsabilité des administrateurs en général, en abordant les nombreuses controverses dont il fait l'objet et en nous inspirant notamment des récentes décisions du Tribunal fédéral. Comme la gestion n'est que rarement exercée conjointement par tous les administrateurs, nous traiterons dans un deuxième temps de la responsabilité des administrateurs qui l'ont déléguée. A cet égard, nous nous arrêterons également sur les conséquences d'une délégation ne respectant pas les conditions formelles. Nous terminerons notre travail par l'étude de la responsabilité des administrateurs en rapport avec les tâches confiées à un comité de conseil d'administration. Comme le conseil d'administration a des attributions intransmissibles et inaliénables et que les principes d'un bon gouvernement d'entreprise lui recommandent de confier certaines de ces tâches à des comités spécialisés, il s'agit en effet de déterminer si et dans quelle mesure une répartition des tâches au sein du conseil d'administration entraîne une répartition des responsabilités.
Resumo:
La faune amphibienne du bassin de l'Aubonne et de ses affluents entre Ballens et Allaman a été recensée durant deux campagnes de terrain en 2000 et 2001. Douze espèces d'amphibiens ont été observées sur 63 sites répartis sur près de 130 km2. Plus des deux tiers des espèces amphibiennes de Suisse sont représentées dans le secteur 1Laboratoire de Biologie de la Conservation, Institut d'Ecologie, Bâtiment de Biologie CH-1015 Dorigny E-mail: Jerome.Pellet@ie-zea.unil.ch CODEN: BSVAA6 © Société vaudoise des Sciences naturelles Droits de reproduction réservés 42 J. Pellet, S. Dubey et S. Hoehn étudié. Des cartes illustrent la distribution de chaque espèce. Une régression logistique appliquée à chaque espèce tente de mettre en évidence une relation entre les données de présence et 23 paramètres d'habitats mesurés dans 48 sites. Dans 5 cas, un ou deux paramètres d'habitat peuvent être mis en relation avec la répartition de l'amphibien en question. Ainsi, le crapaud commun est positivement corrélé avec la proportion de végétation érigée recouvrant les plans d'eau et négativement corrélé avec l'altitude. Le crapaud calamite est lui fortement lié aux paysages rudéraux et gravières, tandis que la répartition des grenouilles rousses et rieuses est limitée par l'altitude. La rainette verte semble éviter les plans d'eau où la conductivité est trop élevée. Indication dans un paysage rural d'une charge en nitrates, la conductivité d'un plan d'eau peut être considérée comme une mesure indirecte de sa pollution organique. Un suivi du secteur prospecté permettra de connaître l'évolution des populations de chaque espèce présente.
Resumo:
Many organelles exist in an equilibrium of fragmentation into smaller units and fusion into larger structures, which is coordinated with cell division, the increase in cell mass, and envi¬ronmental conditions. In yeast cells, organelle homeostasis can be studied using the yeast vacuole (lysosome) as a model system. Yeast vacuoles are the main compartment for degrada¬tion of cellular proteins and storage of nutrients, ions and metabolites. Fission and fusion of vacuoles can be induced by hyper- and hypotonic shock in vivo, respectively, and have also been reconstituted in vitro using isolated vacuoles. The conserved serine/threonine kinase TOR (target of rapamycin) is a central nutrient sensor and regulates cell growth and metabolism. In yeast, there are two TOR proteins, Torlp and Tor2p, which are part of larger protein complexes, TORCI and TORC2. Only TORCI is rapamycin-sensitive. Disregulation of TOR signaling is linked to a multitude of diseases in humans, e.g. cancer, neurodegenerative diseases and metabolic syndrome. It has been shown that TORCI localizes to the vacuole membrane, and recent findings of our laboratory demonstrated that TORCI positively regulates vacuole fragmentation. This suggests that the fragmentation machinery should contain target proteins phosphorylated by TORCI. I explored the rapamycin-and fission-dependent vacuolar phosphoproteome during frag¬mentation, using a label-free mass-spectrometry approach. I identified many vacuolar factors whose phosphorylation was downregulated in a TORCI- and fission-dependent manner. Among them were known protein complexes that are functionally linked to fission or fusion, like the HOPS, VTC and FAB1 complexes. Hence, TORCI-dependent phosphorylations might positively regulate vacuole fission. Several candidates were chosen for detailed microscopic analysis of in vivo vacuole frag-mentation, using deletion mutants. I was able to identify novel factors not previously linked to fission phenotypes, e.g. the SEA complex, Pib2, and several vacuolar amino acid transporters. Transport of neutral and basic amino acids across the membrane seems to control vacuole fission, possibly via TORCI. I analyzed vacuolar fluxes of amino acids in wildtype yeast cells and found evidence for a selective vacuolar export of basic amino acids upon hyperosmotic stress. This leads me to propose a model where vacuolar export of amino acids is necessary to reshape the organelle under salt stress. - Le nombre et la taille de certaines organelles peut être déterminé par un équilibre entre la fragmentation qui produit des unités plus petites et la fusion qui génère des structures plus larges. Cet équilibre est coordonné avec la division cellulaire, l'augmentation de la masse cellulaire, et les conditions environnementales. Dans des cellules de levure, l'homéostasie des organelles peut être étudié à l'aide d'un système modèle, la vacuole de levure (lysosome). Les vacuoles constituent le principal compartiment de la dégradation des protéines et de stockage des nutriments, des ions et des métabolites. La fragmentation et la fusion des vacuoles peuvent être respectivement induites par un traitement hyper- ou hypo-tonique dans les cellules vivantes. Ces processus ont également été reconstitués in vitro en utilisant des vacuoles isolées. La sérine/thréonine kinase conservée TOR (target of rapamycin/cible de la rapamycine) est un senseur de nutriments majeur qui régule la croissance cellulaire et le métabolisme. Chez la levure, il existe deux protéines TOR, Torlp et Tor2p, qui sont les constituants de plus grands complexes de protéines, TORCI et TORC2. TORCI est spécifiquement inhibé par la rapamycine. Une dysrégulation de la signalisation de TOR est liée à une multitude de maladies chez l'homme comme le cancer, les maladies neurodégénératives et le syndrome métabolique. Il a été montré que TORCI se localise à la membrane vacuolaire et les découvertes récentes de notre laboratoire ont montré que TORCI régule positivement la fragmentation de la vacuole. Ceci suggère que le mécanisme de fragmentation doit être contrôlé par la phosphorylation de certaines protéines cibles de TORCI. J'ai exploré le phosphoprotéome vacuolaire lors de la fragmentation, en présence ou absence de rapamycine et dans des conditions provoquant la fragmentation des organelles. La méthode choisie pour réaliser la première partie de ce projet a été la spectrométrie de masse différentielle sans marquage. J'ai ainsi identifié plusieurs facteurs vacuolaires dont la phosphorylation est régulée d'une manière dépendante de TORCI et de la fragmentation. Parmi ces facteurs, des complexes protéiques connus qui sont fonctionnellement liées à fragmentation ou la fusion, comme les complexes HOPS, VTC et FAB1 ont été mis en évidence. Par conséquent, la phosphorylation dépendante de TORCI peut réguler positivement la fragmentation des vacuoles. Plusieurs candidats ont été choisis pour une analyse microscopique détaillée de la fragmentation vacuolaire in vivo en utilisant des mutants de délétion. J'ai été en mesure d'identifier de nouveaux facteurs qui n'avaient pas été encore associés à des phénotypes de fragmentation tels que les complexes SEA, Pib2p, ainsi que plusieurs transporteurs vacuolaires d'acides aminés. Le transport des acides aminés à travers la membrane semble contrôler la fragmentation de la vacuole. Puisque ces transporteurs sont phosphorylés par TORCI, ces résultats semblent confirmer la
Resumo:
Formica bruni décrite en 1966 par Kutter appartient au sous-genre Coptoformica Müll. connue de Forel sous le nom de Formica pressilabris "un peu exsecta ". La biologie de cette espèce est demeurée inconnue jusqu'à nous jours. La découverte d'une nouvelle station au Bois de Chênes, près de Nyon (Vaud, Suisse), nous a poussé à entreprendre une série de travaux afin de savoir dans quelle mesure cette espèce diffère des autres espèces de Coptoformica. La zone étudiée comportait 61 nids en 1978, 18 nids habités par 7 sociétés en 1983 et 2 nids occupés par deux sociétés en juillet 1984. F. bruni est une espèce vraisemblablement polygyne et facultativement polycalique; aucune agressivité n'a été observée entre les sociétés qui, d'autre part, exploitent en commun un même territoire trophique. Les sociétés sont de petites tailles et leur territoire exploité ainsi que leur taux d'activité dépendent principalement de la quantité de nourriture à disposition. Différents facteurs susceptibles de la quasi extinction de cette espèce dans cette station sont discutés (fauchage, pâturage, etc...).
Resumo:
Les partis politiques ont comme vocation de structurer le débat démocratique et de constituer un trait d'union entre le citoyen et l'Etat. En Suisse, ils sont fortement sollicités en raison de l'importante quantité de scrutins organisés chaque année aux échelons communal, cantonal et national, mais leur organisation reste très peu professionnalisée. Comme ils doivent par ailleurs faire face à l'effritement de leur base partisane et à l'inflation des coûts de la politique, le risque est grand qu'ils soient mis en difficulté dans l'accomplissement de leur tâche d'intégration et de formation de l'opinion. Cette étude se concentre sur les pratiques de financement des partis cantonaux et nationaux du PDC, du PRD, du PS, de l'UDC et des Verts. S'appuyant sur les données empriques récoltées en 1997 et en 2007, elle décrit dans quelle mesure les moyens financiers des partis ont évolué au cours des dix dernières années. Les analyses portent sur le volume et l'origine des fonds et elles permettent notamment de saisir comment s'articulent les clivages en matière de financement. Die politischen Parteien haben die Aufgabe, die demokratische Debatte zu strukturieren und ein verbindendes Element zwischen dem Bürger und dem Staat zu bilden. In der Schweiz werden sie angesichts der grossen Anzahl jährlich auf kommunaler, kantonaler und nationaler Ebene durchgeführten Wahlgänge besonders stark beansprucht, ihre Organisationen sind aber wenig professionalisiert. Da sich die Parteien heute mit abnehmenden Parteienbindungen und steigenden Kosten der Politik konfrontiert sehen, steigt das Risiko, dass sie ihre Aufgaben der Integration und der politischen Meinungsbildung kaum mehr wahrnehmen können. Diese Arbeit konzentriert sich auf die Finanzierungspraktiken der kantonalen und nationalen Parteien CVP, FDP, SP, SVP und Grüne. Die Analysen stützen sich ab auf empirische Angaben zu Herkunft und Umfang der Parteifinanzen, die in den Jahren 1997 und 2007 erhoben wurden und erlauben es, die Unterschiede hinsichtlich der Finanzierung zu erläutern.
Resumo:
Rapport de synthèse : l .Objectif Evaluer l'effet qu'ont les consignes d'utilisation régulière d'un spray nasal à la nicotine sur leur véritable utilisation durant les 3 premières semaines d'un sevrage tabagique. Un objectif secondaire est d'évaluer l'effet des consignes d'utilisation régulière du spray durant les premières semaines de sevrage tabagique sur le taux de succès à 6 mois par rapport à un groupe pouvant utiliser le spray « ad libitum ». 2. Méthode II s'agit d'une étude ouverte, randomisée contrôlée, incluant 50 patients présentant une dépendance nicotinique forte, se trouvant en phase de préparation selon le modèle transthéorique du changement de Prochaska et Di Clemente, recrutés au sein de la consultation «stop tabac » de la Policlinique Médicale Universitaire de Lausanne. Dans le groupe «contrôle », les patients ont été instruits à utiliser le spray « ad libitum », soit dès qu'apparaissaient des envies irrésistibles de fumer, tandis que le groupe «intervention » a reçu pour consigne d'utiliser le spray au moins 1 fois par heure dès le lever, voire plus en cas d'envie de fumer. L'utilisation du spray nasal a été enregistrée par un dispositif électronique fixé sur le spray (MDILogTM) durant les 3 premières semaines d'utilisation. Durant le suivi, l'abstinence tabagique a été vérifiée par une mesure du taux de CO expiré par un appareil spécifique (Bedfont Smokerlyzer). L'abstinence tabagique a été considérée comme un succès si le taux de CO était s 10 ppm (particules par million). 3. Résultats Un patient a été perdu durant le suivi. Au moment de la randomisation, le groupe «intervention » comprenait plus de femmes, des patients ayant un nombre plus grand de précédentes tentatives d'arrêt du tabagisme, plus de co-morbidités psychiatriques, mais moins de co-morbidités somatiques que le groupe «contrôle ». Dans les 2 groupes, les participants ont utilisé le spray nasal plus de 8 fois par jour (minimum demandé dans le groupe intervention). L'utilisation moyenne du spray était de 13,6 doses/jour pour le groupe «intervention » et de 1 l,l doses/jour pour le groupe contrôle. Ajusté aux différences entre les 2 groupes, la différence entre les doses plus importantes utilisées dans le groupe «intervention »par rapport à celles du groupe « ad libitum »reste non significative durant la première (0.8 ; CI 95% -5.1 ; 6,7), la deuxième (4.0 ; CI 95% -1.9 ; 9.9) et la troisième semaine (3.0 ; CI 95% -2.5 ; 8.5). De même, le fait d'instruire le patient à utiliser chaque heure le spray nasal durant les premières semaines n'a pas eu d'impact sur le taux de succès à 6 mois (RR = 0.69 ; CI 95% 0.34 ; 1.39). 4. Conclusions Cette étude négative montre que les différences d'utilisation du spray nasal nicotinique sont plus dépendantes des caractéristiques individuelles du patient que des recommandations d'utilisation du thérapeute. Les patients présentant un syndrome de dépendance à la nicotine forte utilisent spontanément de manière importante le spray nasal nicotinique, indépendamment des recommandations données. Pour les patients présentant un syndrome de dépendance à la nicotine forte, les recommandations par le thérapeute d'utiliser le spray nasal dès l'apparition d'envies de fumer semblent être la manière de faire la plus adéquate.
Resumo:
Cette thèse analyse la défense du paradis fiscal suisse dans les négociations internationales de l'entre-deux-guerres. Pour ce faire, elle s'appuie sur un très large panel de sources inédites, tirées des archives publiques suisses, britanniques, françaises, allemandes et belges, ainsi que sur une série d'archives du monde économique et d'organisations internationales. Ce travail tente, sur cette base, de retracer l'évolution des pourparlers fiscaux et d'identifier comment les dirigeants suisses sont parvenus à écarter en leur sein les premières pressions internationales qui surviennent après la Grande Guerre à l'encontre des pratiques fiscales helvétiques. Sur fond de fuites massives d'avoirs européens en direction du refuge suisse, ces démarches étrangères à l'encontre du secret bancaire sont menées aussi bien au niveau multilatéral, au sein des débats fiscaux de la Société des Nations, que sur le plan bilatéral, à l'intérieur des négociations interétatiques pour la conclusion de conventions de double imposition et d'assistance fiscale. Pourtant, les tentatives de la part des gouvernements européens d'amorcer une coopération contre l'évasion fiscale avec leur homologue suisse échouent constamment durant l'entre-deux-guerres : non seulement aucune mesure de collaboration internationale n'est adoptée par la Confédération, mais les dirigeants helvétiques parviennent encore à obtenir dans les négociations des avantages fiscaux pour les capitaux qui sont exportés depuis la Suisse ou qui transitent par son entremise. En clair, bien loin d'être amoindrie, la compétitivité fiscale du centre économique suisse sort renforcée des discussions internationales de l'entre-deux-guerres. La thèse avance à la fois des facteurs endogènes et exogènes à la politique suisse pour expliquer cette réussite a priori surprenante dans un contexte de crise financière et monétaire aiguë. A l'intérieur de la Confédération, la grande cohésion des élites suisses facilite la défense extérieure de la compétitivité fiscale. En raison de l'anémie de l'administration fiscale fédérale, du conservatisme du gouvernement ou encore de l'interpénétration du patronat industriel et bancaire helvétique, les décideurs s'accordent presque unanimement sur le primat à une protection rigoureuse du secret bancaire. En outre, corollaire de l'afflux de capitaux en Suisse, la place financière helvétique dispose de différentes armes économiques qu'elle peut faire valoir pour défendre ses intérêts face aux gouvernements étrangers. Mais c'est surtout la conjonction de trois facteurs exogènes au contexte suisse qui a favorisé la position helvétique au sein des négociations fiscales internationales. Premièrement, après la guerre, le climat anti-fiscal qui prédomine au sein d'une large frange des élites occidentales incite les gouvernements étrangers à faire preuve d'une grande tolérance à l'égard du havre fiscal suisse. Deuxièmement, en raison de leur sous-développement, les administrations fiscales européennes n'ont pas un pouvoir suffisant pour contrecarrer la politique suisse. Troisièmement, les milieux industriels et financiers étrangers tendent à appuyer les stratégies de défense du paradis fiscal suisse, soit parce qu'ils usent eux-mêmes de ses services, soit parce que, avec la pression à la baisse qu'il engendre sur les systèmes fiscaux des autres pays, l'îlot libéral helvétique participe au démantèlement de la fiscalité progressive que ces milieux appellent de leur voeu.
Resumo:
RESUME BUT Cette étude a été menée sur le suivi de patients traités pour un glioblastome nouvellement diagnostiqué. Son objectif a été de déterminer l'impact des séquences de perfusion et de diffusion en imagerie par résonance magnétique (IRM). Un intérêt particulier a été porté au potentiel de ces nouvelles techniques d'imagerie dans l'anticipation de la progression de la maladie. En effet, l'intervalle de temps libre de progression est une mesure alternative de pronostic fréquemment utilisée. MATERIEL ET METHODE L'étude a porté sur 41 patients participant à un essai clinique de phase II de traitement par temozolomide. Leur suivi radiologique a comporté un examen IRM dans les 21 à 28 jours après radiochimiothérapie et tous les 2 mois par la suite. L'évaluation des images s'est faite sur la base de l'évaluation de l'effet de masse ainsi que de la mesure de la taille de la lésion sur les images suivantes : T1 avec produit de contraste, T2, diffusion, perfusion. Afin de déterminer la date de progression de la maladie, les critères classiques de variation de taille adjoints aux critères cliniques habituels ont été utilisés. RESULAT 311 examens IRM ont été revus. Au moment de la progression (32 patients), une régression multivariée selon Cox a permis de déterminer deux paramètres de survie : diamètre maximal en T1 (p>0.02) et variation de taille en T2 (p<0.05). L'impact de la perfusion et de la diffusion n'a pas été démontré de manière statistiquement significative. CONCLUSION Les techniques de perfusion et de diffusion ne peuvent pas être utilisées pour anticiper la progression tumorale. Alors que la prise de décision au niveau thérapeutique est critique au moment de la progression de la maladie, l'IRM classique en T1 et en T2 reste la méthode d'imagerie de choix. De manière plus spécifique, une prise de contraste en T1 supérieure à 3 cm dans son plus grand diamètre associée à un hypersignal T2 en augmentation forment un marqueur de mauvais pronostic.
Resumo:
Grâce à la prophylaxie antibiotique per-opératoire, à l'amélioration des techniques chirurgicales et au flux laminaire dans les blocs opératoires le taux d'infections postopératoires a pu être diminué dans les interventions chirurgicales orthopédiques. Il stagne néanmoins à environ 0,5- 2% dans les fractures fermées ainsi que dans les interventions orthopédiques électives, et peut monter jusqu'à 30% dans les fractures ouvertes stade III. L'ostéomyelite et la pseudarthrose infectée, qui peuvent en découler, sont responsables de séjours hospitaliers prolongés, engendrent des coûts de traitement élevés, et conduisent souvent à une morbidité substantielle. Le traitement de l'ostéomyelite combine le débridement chirurgical et l'administration d'antibiotiques. Cependant l'administration systémique d'antibiotiques à hautes doses est problématique en raison de leur toxicité systémique et de leur faible pénétration dans les tissus ischémiques et nécrotiques, souvent présents dans l'ostéomyelite. Pour ces raisons, le traitement standard actuel consiste, après débridement chirurgical, en la mise en place de billes de Polyrnéthylmétacrylate (PMMA) imprégnées d'antibiotique, qui fournissent des concentrations locales élevées mais systémiques basses. Malheureusement, ces billes doivent être enlevées une fois l'infection guérie, ce qui nécessite une nouvelle intervention chirurgicale. Des systèmes de libération antibiotique alternatifs devraient non seulement guérir l'infection osseuse, mais également encourager activement la consolidation osseuse et ne pas nécessiter de nouvelle chirurgie pour leur ablation. Nous avons investigué l'activité de billes résorbables chargées en gentamicine contre différents microorganismes (Staphylococcus epidermidis, Staphylococcus aureus, Escherichia coli, Enterococcus faecalis, Candida albicans), des germes communément responsables d'infections osseuses, par microcalorimétrie, une méthode novice basée sur la mesure de la chaleur produite par des microorganismes qui se répliquent dans une culture. Des billes composées essentiellement de sulfate de calcium et chargées en gentamicine ont été incubées dans des ampoules microcalorimétriques contenant différentes concentrations du germe correspondant. Les bouillons de culture avec chaque germe et billes non-chargées ont été utilisés comme contrôle positif, le bouillon de culture avec bille chargée mais sans germe comme contrôle négatif. La production de chaleur provenant de la croissance bactérienne à 37°C a été mesurée pendant 24 heures. Les cultures ne contenant pas de billes chargées en gentamicine ont. produit des pics de chaleur équivalents à la croissance exponentielle du microorganisme correspondant en milieu riche. Par contre, les germes susceptibles à la gentamicine incubés avec les billes chargées ont complètement supprimé leur production de chaleur pendant 24 heures, démontrant ainsi l'activité antibiotique des billes chargées en gentamicine contre ces germes. Les billes résorbables chargées en gentamicine inhibent donc de façon effective la croissance des germes susceptibles sous les conditions in vitro décrites. Des études sur animaux sont maintenant nécessaires pour déterminer la cinétique d'élution et l'effet antimicrobien de la gentamicine sous conditions in vivo. Finalement des études cliniques devront démontrer que l'utilisation de ces billes est effectivement une bonne option thérapeutique dans le traitement des infections osseuses.
Resumo:
1.1 Objectifs Le syndrome de bas débit cardiaque est une appréciation clinique (Hoffman et al.) dont les signes sont peu sensibles, peu spécifiques, souvent tardifs et dont la mesure chez l'enfant est rendue impossible en clinique pour des raisons techniques et de fiabilités des systèmes de mesures. Aucun score n'est applicable à l'heure actuelle chez l'enfant. C'est pourquoi, ces 10 dernières années, de nombreuses équipes se sont penchée activement sur ce problème afin de définir des marqueurs performants prédisant la survenue du LCOS après chirurgie cardiaque chez l'enfant. Cette étude s'est attachée à réunir ses marqueurs cardiaques, de les combiner et de les inclure dans un score de bas débit cardiaque. 1.2 Méthode Enfants et nouveau-nés ayant subit une chirurgie cardiaque au CHUV, après malformation cardiaque congénitale, entre janvier 2010 et octobre 2011 (N=48). Age : 8 jours à 13 ans (médiane : 16.3 mois). Deux scores développés. Soumission à l'aveugle de la liste des patients à un comité d'expert pour identifier les patients en LCOS à 48h post-chirurgie, puis comparaison avec le résultat du score. Les paramètres du premier score (SCORE 1), sont agendées de manière ordinales, alors que dans le deuxième score (SCORE 2) elles le sont de manière dichotomiques. Valeurs cut-off supérieures et inférieures des scores choisies selon une recherche extensive dans la littérature. Les valeurs cut-off intermédiaires (SCORE 1) ont été choisies au hasard. 1.3 Résultats La régression logistique multivariée pour la prédiction d'un LCOS à 48h, démontre que seul le score d'amine durant les 24 premières heures et un prédicteur indépendant de LCOS (OR 16.6 [2.6- 105.5] p<0.0001). Ce paramètre est bien corrélé avec le résultat des experts avec un coefficient de corrélation r=0.57 (p<0.0001). Les spécificités des deux scores (AUC=0.78 (p<0.0001) respectivement AUC=0.81 (p<0.0001)) sont de 71% respectivement 93.5%, les sensibilités de 70.6% respectivement 41.2 %, VPP de 57.1% respectivement 77.8%, VPN de 81.5 % respectivement 74.4%. Les tests du khi2 valent 7.7 (p=0.006) respectivement 8.69 (p=003), rejettent l'hypothèse nulle d'indépendance entre le résultat des experts et celui prédit par le score. 1.4 Conclusions Les scores développés dans le cadre de cette étude ne montrent pas une corrélation significative avec l'apparition d'un bas débit cardiaque. Même si le choix des paramètres permettant de quantifier l'apparition d'un bas débit cardiaque à 48h fût réalisé selon une recherche extensive dans la littérature, le design rétrospectif de l'étude, n'a pas permit de vérifier efficacement la relation entre l'apparition d'un bas débit cardiaque et le score de bas débit cardiaque.
Resumo:
Ces dernières années, de nombreuses recherches ont mis en évidence les effets toxiques des micropolluants organiques pour les espèces de nos lacs et rivières. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, alors que les organismes sont exposés tous les jours à des milliers de substances en mélange. Or les effets de ces cocktails ne sont pas négligeables. Cette thèse de doctorat s'est ainsi intéressée aux modèles permettant de prédire le risque environnemental de ces cocktails pour le milieu aquatique. Le principal objectif a été d'évaluer le risque écologique des mélanges de substances chimiques mesurées dans le Léman, mais aussi d'apporter un regard critique sur les méthodologies utilisées afin de proposer certaines adaptations pour une meilleure estimation du risque. Dans la première partie de ce travail, le risque des mélanges de pesticides et médicaments pour le Rhône et pour le Léman a été établi en utilisant des approches envisagées notamment dans la législation européenne. Il s'agit d'approches de « screening », c'est-à-dire permettant une évaluation générale du risque des mélanges. Une telle approche permet de mettre en évidence les substances les plus problématiques, c'est-à-dire contribuant le plus à la toxicité du mélange. Dans notre cas, il s'agit essentiellement de 4 pesticides. L'étude met également en évidence que toutes les substances, même en trace infime, contribuent à l'effet du mélange. Cette constatation a des implications en terme de gestion de l'environnement. En effet, ceci implique qu'il faut réduire toutes les sources de polluants, et pas seulement les plus problématiques. Mais l'approche proposée présente également un biais important au niveau conceptuel, ce qui rend son utilisation discutable, en dehors d'un screening, et nécessiterait une adaptation au niveau des facteurs de sécurité employés. Dans une deuxième partie, l'étude s'est portée sur l'utilisation des modèles de mélanges dans le calcul de risque environnemental. En effet, les modèles de mélanges ont été développés et validés espèce par espèce, et non pour une évaluation sur l'écosystème en entier. Leur utilisation devrait donc passer par un calcul par espèce, ce qui est rarement fait dû au manque de données écotoxicologiques à disposition. Le but a été donc de comparer, avec des valeurs générées aléatoirement, le calcul de risque effectué selon une méthode rigoureuse, espèce par espèce, avec celui effectué classiquement où les modèles sont appliqués sur l'ensemble de la communauté sans tenir compte des variations inter-espèces. Les résultats sont dans la majorité des cas similaires, ce qui valide l'approche utilisée traditionnellement. En revanche, ce travail a permis de déterminer certains cas où l'application classique peut conduire à une sous- ou sur-estimation du risque. Enfin, une dernière partie de cette thèse s'est intéressée à l'influence que les cocktails de micropolluants ont pu avoir sur les communautés in situ. Pour ce faire, une approche en deux temps a été adoptée. Tout d'abord la toxicité de quatorze herbicides détectés dans le Léman a été déterminée. Sur la période étudiée, de 2004 à 2009, cette toxicité due aux herbicides a diminué, passant de 4% d'espèces affectées à moins de 1%. Ensuite, la question était de savoir si cette diminution de toxicité avait un impact sur le développement de certaines espèces au sein de la communauté des algues. Pour ce faire, l'utilisation statistique a permis d'isoler d'autres facteurs pouvant avoir une influence sur la flore, comme la température de l'eau ou la présence de phosphates, et ainsi de constater quelles espèces se sont révélées avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps. Fait intéressant, une partie d'entre-elles avait déjà montré des comportements similaires dans des études en mésocosmes. En conclusion, ce travail montre qu'il existe des modèles robustes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques, et qu'ils peuvent être utilisés pour expliquer le rôle des substances dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application. - Depuis plusieurs années, les risques que posent les micropolluants organiques pour le milieu aquatique préoccupent grandement les scientifiques ainsi que notre société. En effet, de nombreuses recherches ont mis en évidence les effets toxiques que peuvent avoir ces substances chimiques sur les espèces de nos lacs et rivières, quand elles se retrouvent exposées à des concentrations aiguës ou chroniques. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, c'est à dire considérées séparément. Actuellement, il en est de même dans les procédures de régulation européennes, concernant la partie évaluation du risque pour l'environnement d'une substance. Or, les organismes sont exposés tous les jours à des milliers de substances en mélange, et les effets de ces "cocktails" ne sont pas négligeables. L'évaluation du risque écologique que pose ces mélanges de substances doit donc être abordé par de la manière la plus appropriée et la plus fiable possible. Dans la première partie de cette thèse, nous nous sommes intéressés aux méthodes actuellement envisagées à être intégrées dans les législations européennes pour l'évaluation du risque des mélanges pour le milieu aquatique. Ces méthodes sont basées sur le modèle d'addition des concentrations, avec l'utilisation des valeurs de concentrations des substances estimées sans effet dans le milieu (PNEC), ou à partir des valeurs des concentrations d'effet (CE50) sur certaines espèces d'un niveau trophique avec la prise en compte de facteurs de sécurité. Nous avons appliqué ces méthodes à deux cas spécifiques, le lac Léman et le Rhône situés en Suisse, et discuté les résultats de ces applications. Ces premières étapes d'évaluation ont montré que le risque des mélanges pour ces cas d'étude atteint rapidement une valeur au dessus d'un seuil critique. Cette valeur atteinte est généralement due à deux ou trois substances principales. Les procédures proposées permettent donc d'identifier les substances les plus problématiques pour lesquelles des mesures de gestion, telles que la réduction de leur entrée dans le milieu aquatique, devraient être envisagées. Cependant, nous avons également constaté que le niveau de risque associé à ces mélanges de substances n'est pas négligeable, même sans tenir compte de ces substances principales. En effet, l'accumulation des substances, même en traces infimes, atteint un seuil critique, ce qui devient plus difficile en terme de gestion du risque. En outre, nous avons souligné un manque de fiabilité dans ces procédures, qui peuvent conduire à des résultats contradictoires en terme de risque. Ceci est lié à l'incompatibilité des facteurs de sécurité utilisés dans les différentes méthodes. Dans la deuxième partie de la thèse, nous avons étudié la fiabilité de méthodes plus avancées dans la prédiction de l'effet des mélanges pour les communautés évoluant dans le système aquatique. Ces méthodes reposent sur le modèle d'addition des concentrations (CA) ou d'addition des réponses (RA) appliqués sur les courbes de distribution de la sensibilité des espèces (SSD) aux substances. En effet, les modèles de mélanges ont été développés et validés pour être appliqués espèce par espèce, et non pas sur plusieurs espèces agrégées simultanément dans les courbes SSD. Nous avons ainsi proposé une procédure plus rigoureuse, pour l'évaluation du risque d'un mélange, qui serait d'appliquer d'abord les modèles CA ou RA à chaque espèce séparément, et, dans une deuxième étape, combiner les résultats afin d'établir une courbe SSD du mélange. Malheureusement, cette méthode n'est pas applicable dans la plupart des cas, car elle nécessite trop de données généralement indisponibles. Par conséquent, nous avons comparé, avec des valeurs générées aléatoirement, le calcul de risque effectué selon cette méthode plus rigoureuse, avec celle effectuée traditionnellement, afin de caractériser la robustesse de cette approche qui consiste à appliquer les modèles de mélange sur les courbes SSD. Nos résultats ont montré que l'utilisation de CA directement sur les SSDs peut conduire à une sous-estimation de la concentration du mélange affectant 5 % ou 50% des espèces, en particulier lorsque les substances présentent un grand écart- type dans leur distribution de la sensibilité des espèces. L'application du modèle RA peut quant à lui conduire à une sur- ou sous-estimations, principalement en fonction de la pente des courbes dose- réponse de chaque espèce composant les SSDs. La sous-estimation avec RA devient potentiellement importante lorsque le rapport entre la EC50 et la EC10 de la courbe dose-réponse des espèces est plus petit que 100. Toutefois, la plupart des substances, selon des cas réels, présentent des données d' écotoxicité qui font que le risque du mélange calculé par la méthode des modèles appliqués directement sur les SSDs reste cohérent et surestimerait plutôt légèrement le risque. Ces résultats valident ainsi l'approche utilisée traditionnellement. Néanmoins, il faut garder à l'esprit cette source d'erreur lorsqu'on procède à une évaluation du risque d'un mélange avec cette méthode traditionnelle, en particulier quand les SSD présentent une distribution des données en dehors des limites déterminées dans cette étude. Enfin, dans la dernière partie de cette thèse, nous avons confronté des prédictions de l'effet de mélange avec des changements biologiques observés dans l'environnement. Dans cette étude, nous avons utilisé des données venant d'un suivi à long terme d'un grand lac européen, le lac Léman, ce qui offrait la possibilité d'évaluer dans quelle mesure la prédiction de la toxicité des mélanges d'herbicide expliquait les changements dans la composition de la communauté phytoplanctonique. Ceci à côté d'autres paramètres classiques de limnologie tels que les nutriments. Pour atteindre cet objectif, nous avons déterminé la toxicité des mélanges sur plusieurs années de 14 herbicides régulièrement détectés dans le lac, en utilisant les modèles CA et RA avec les courbes de distribution de la sensibilité des espèces. Un gradient temporel de toxicité décroissant a pu être constaté de 2004 à 2009. Une analyse de redondance et de redondance partielle, a montré que ce gradient explique une partie significative de la variation de la composition de la communauté phytoplanctonique, même après avoir enlevé l'effet de toutes les autres co-variables. De plus, certaines espèces révélées pour avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps, ont montré des comportements similaires dans des études en mésocosmes. On peut en conclure que la toxicité du mélange herbicide est l'un des paramètres clés pour expliquer les changements de phytoplancton dans le lac Léman. En conclusion, il existe diverses méthodes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques et celui-ci peut jouer un rôle dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application, avant d'utiliser leurs résultats pour la gestion des risques environnementaux. - For several years now, the scientists as well as the society is concerned by the aquatic risk organic micropollutants may pose. Indeed, several researches have shown the toxic effects these substances may induce on organisms living in our lakes or rivers, especially when they are exposed to acute or chronic concentrations. However, most of the studies focused on the toxicity of single compounds, i.e. considered individually. The same also goes in the current European regulations concerning the risk assessment procedures for the environment of these substances. But aquatic organisms are typically exposed every day simultaneously to thousands of organic compounds. The toxic effects resulting of these "cocktails" cannot be neglected. The ecological risk assessment of mixtures of such compounds has therefore to be addressed by scientists in the most reliable and appropriate way. In the first part of this thesis, the procedures currently envisioned for the aquatic mixture risk assessment in European legislations are described. These methodologies are based on the mixture model of concentration addition and the use of the predicted no effect concentrations (PNEC) or effect concentrations (EC50) with assessment factors. These principal approaches were applied to two specific case studies, Lake Geneva and the River Rhône in Switzerland, including a discussion of the outcomes of such applications. These first level assessments showed that the mixture risks for these studied cases exceeded rapidly the critical value. This exceeding is generally due to two or three main substances. The proposed procedures allow therefore the identification of the most problematic substances for which management measures, such as a reduction of the entrance to the aquatic environment, should be envisioned. However, it was also showed that the risk levels associated with mixtures of compounds are not negligible, even without considering these main substances. Indeed, it is the sum of the substances that is problematic, which is more challenging in term of risk management. Moreover, a lack of reliability in the procedures was highlighted, which can lead to contradictory results in terms of risk. This result is linked to the inconsistency in the assessment factors applied in the different methods. In the second part of the thesis, the reliability of the more advanced procedures to predict the mixture effect to communities in the aquatic system were investigated. These established methodologies combine the model of concentration addition (CA) or response addition (RA) with species sensitivity distribution curves (SSD). Indeed, the mixture effect predictions were shown to be consistent only when the mixture models are applied on a single species, and not on several species simultaneously aggregated to SSDs. Hence, A more stringent procedure for mixture risk assessment is proposed, that would be to apply first the CA or RA models to each species separately and, in a second step, to combine the results to build an SSD for a mixture. Unfortunately, this methodology is not applicable in most cases, because it requires large data sets usually not available. Therefore, the differences between the two methodologies were studied with datasets created artificially to characterize the robustness of the traditional approach applying models on species sensitivity distribution. The results showed that the use of CA on SSD directly might lead to underestimations of the mixture concentration affecting 5% or 50% of species, especially when substances present a large standard deviation of the distribution from the sensitivity of the species. The application of RA can lead to over- or underestimates, depending mainly on the slope of the dose-response curves of the individual species. The potential underestimation with RA becomes important when the ratio between the EC50 and the EC10 for the dose-response curve of the species composing the SSD are smaller than 100. However, considering common real cases of ecotoxicity data for substances, the mixture risk calculated by the methodology applying mixture models directly on SSDs remains consistent and would rather slightly overestimate the risk. These results can be used as a theoretical validation of the currently applied methodology. Nevertheless, when assessing the risk of mixtures, one has to keep in mind this source of error with this classical methodology, especially when SSDs present a distribution of the data outside the range determined in this study Finally, in the last part of this thesis, we confronted the mixture effect predictions with biological changes observed in the environment. In this study, long-term monitoring of a European great lake, Lake Geneva, provides the opportunity to assess to what extent the predicted toxicity of herbicide mixtures explains the changes in the composition of the phytoplankton community next to other classical limnology parameters such as nutrients. To reach this goal, the gradient of the mixture toxicity of 14 herbicides regularly detected in the lake was calculated, using concentration addition and response addition models. A decreasing temporal gradient of toxicity was observed from 2004 to 2009. Redundancy analysis and partial redundancy analysis showed that this gradient explains a significant portion of the variation in phytoplankton community composition, even when having removed the effect of all other co-variables. Moreover, some species that were revealed to be influenced positively or negatively, by the decrease of toxicity in the lake over time, showed similar behaviors in mesocosms studies. It could be concluded that the herbicide mixture toxicity is one of the key parameters to explain phytoplankton changes in Lake Geneva. To conclude, different methods exist to predict the risk of mixture in the ecosystems. But their reliability varies depending on the underlying hypotheses. One should therefore carefully consider these hypotheses, as well as the limits of the approaches, before using the results for environmental risk management
Resumo:
Il a été montré que l'adhérence à un traitement antidépresseur varie entre 30 et 70%. Le but de cette étude était de comparer, dans un groupe de 144 patients ambulatoires avec un trouble de l'humeur et/ou un trouble anxieux traités avec des antidépresseurs, l'auto- estimation de l'adhérence avec l'estimation de l'adhérence par le médecin, ainsi qu'avec l'alliance thérapeutique. Les scores d'adhérence estimés par les patients et par les médecins étaient significativement différents, les médecins sous-estimant l'adhérence dans 29% des cas et la surestimant dans 31% des cas en comparaison avec l'évaluation des patients. L'adhérence mesurée par les taux plasmatiques des médicaments, malgré qu'elle soit plus élevée que prévue si on se réfère à des études publiées précédemment, était en accord avec les scores auto-estimés par les patients mais pas avec les scores estimés par les médecins. Finalement les scores d'alliance thérapeutique estimés par les patients et par les médecins n'étaient pas liés à l'auto-déclaration d'adhérence.